KR101445663B1 - Method for compressing and restoring Look-Up table values - Google Patents

Method for compressing and restoring Look-Up table values Download PDF

Info

Publication number
KR101445663B1
KR101445663B1 KR1020070117271A KR20070117271A KR101445663B1 KR 101445663 B1 KR101445663 B1 KR 101445663B1 KR 1020070117271 A KR1020070117271 A KR 1020070117271A KR 20070117271 A KR20070117271 A KR 20070117271A KR 101445663 B1 KR101445663 B1 KR 101445663B1
Authority
KR
South Korea
Prior art keywords
seed
dimensional
seed vector
look
original function
Prior art date
Application number
KR1020070117271A
Other languages
Korean (ko)
Other versions
KR20090050688A (en
Inventor
겟뜨만
루가노프 안드레이
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070117271A priority Critical patent/KR101445663B1/en
Priority to US12/271,049 priority patent/US8266507B2/en
Publication of KR20090050688A publication Critical patent/KR20090050688A/en
Application granted granted Critical
Publication of KR101445663B1 publication Critical patent/KR101445663B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

룩-업 테이블 값들을 압축 및 복원하는 방법이 개시된다. 오리지널 함수로부터 샘플된 다수의 오리지널 함수 값들을 룩-업 테이블에 압축하기 위한 다항 회귀를 정의하는 코쉬 문제를 위한 초기 조건에 해당하는 초기 시드 벡터를 설정하고, 설정된 초기 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 각각에 대응하는 시드 벡터를 생성하고, 생성된 시드 벡터들 중에서 대응하는 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 중에서 대응되는 오리지널 함수 값을 복원한다.A method for compressing and restoring look-up table values is disclosed. Setting an initial seed vector corresponding to an initial condition for a cose problem that defines a polynomial regression for compressing a plurality of original function values sampled from an original function into a look-up table, Generates a seed vector corresponding to each of the original function values, and restores the corresponding original function value from among the plurality of original function values based on the corresponding seed vector among the generated seed vectors.

DSP, 룩-업 테이블, 다항 회귀 DSP, look-up table, polynomial regression

Description

룩-업 테이블 값들을 압축 및 복원하는 방법{Method for compressing and restoring Look-Up table values}Method for compressing and restoring look-up table values {

본 발명은 디지털 신호 프로세싱 장치(Digital Signal Processor; DSP)에 관한 것으로, 보다 상세하게는 RNP(Recursive Near Polynomial) 방정식을 사용하여 룩-업 테이블에 저장될 룩-업 테이블 값들을 압축 및 복원하는 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital signal processor (DSP), and more particularly to a method of compressing and restoring look-up table values to be stored in a look-up table using an RNP (Recursive Near Polynomial) .

룩-업 테이블(Look-Up Table; LUT)은 디지털 신호 프로세싱 알고리즘들에 널리 사용된다. 이는 상기 디지털 신호 프로세싱 알고리즘들의 소프트웨어 및 하드웨어 구현에 있어서 입력 파라미터와 출력 파라미터 사이(between the sets of input and output parameters)에서 함수적 의존성(function dependence)에 대한 효과적인 표현을 위해서이다.A look-up table (LUT) is widely used in digital signal processing algorithms. This is for an effective representation of the functional dependence between the sets of input and output parameters in the software and hardware implementation of the digital signal processing algorithms.

하나의 입력 파라미터와 하나의 출력 파라미터 사이의 함수적 의존성은 1차원 룩-업 테이블(one-dimensional LUT)에 의해 표현될 수 있고, 두 개의 입력 파라미터들과 하나의 출력 파라미터 사이의 함수적 의존성은 2차원 룩업테이블(two- dimensional LUT)에 의해 표현될 수 있다.The functional dependence between one input parameter and one output parameter can be expressed by a one-dimensional look-up table (LUT), and the functional dependence between two input parameters and one output parameter And can be represented by a two-dimensional look-up table (two-dimensional LUT).

룩-업 테이블 표현(look-up table representation)으로부터 연속적인 함수적 의존성(continuous functional dependence)을 얻기 위하여 보간(interpolation)이 사용될 수 있다. 룩-업 테이블 값들(values)은 디지털 신호 프로세싱 알고리즘들에 의하여 랜덤하게 또는 순차적인 순서로 엑세스될 수 있다.Interpolation may be used to obtain a continuous functional dependence from a look-up table representation. The look-up table values may be accessed in random or sequential order by digital signal processing algorithms.

룩-업 테이블 값들이 순차적인 순서로 엑세스될 경우 입력 파라미터 값은 유효한 파라미터 값들 범위 내에서 단조롭게 변할 수 있다. 상기 룩-업 테이블은 디지털 신호 프로세싱 알고리즘들의 성능을 향상시키는데 사용될 수 있으나, 이러한 성능과는 별도로 상기 룩-업 테이블의 효율에 대한 다른 제약들이 있을 수 있다. 이런 다른 제약들 중 하나는 룩-업 테이블이 차지하는 메모리 사이즈 또는 메모리 용량이다.When the look-up table values are accessed in a sequential order, the input parameter values may vary monotonically within the range of valid parameter values. The look-up table can be used to improve the performance of digital signal processing algorithms, but apart from this performance, there may be other constraints on the efficiency of the look-up table. One of these other constraints is the memory size or memory capacity occupied by the look-up table.

룩-업 테이블의 사이즈(또는 용량)를 줄이기 위한 여러 가지 방법들이 사용될 수 있으며, 일 예로 룩-업 테이블에 저장될 룩-업 테이블 값들을 압축(compression)한 형태로 표현함으로써 상기 룩-업 테이블의 메모리 범위(memory footprint)를 줄일 수 있다. 그러나 이러한 방법들을 수행하기 위해서는 추가적인 복잡한 하드웨어 로직 또는 소프트웨어 코드가 요구될 수 있다.Up table may be used in various ways to reduce the size (or capacity) of the look-up table. For example, the look-up table values to be stored in the look- Can reduce the memory footprint. However, additional complex hardware logic or software code may be required to perform these methods.

다항 회귀(polynomial regression)는 룩-업 테이블의 메모리 사이즈를 줄이기 위하여 사용될 수 있다. 이 경우 룩-업 테이블에 저장될 룩-업 테이블 값들에 적합한 다항 회귀 방정식의 계수들만이 메모리에 저장될 수 있다. 이로 인하여 룩-업 테이블의 메모리 사이즈는 감소 될 수 있다. 다만, 다항 회귀 방정식의 계수들로부터 룩-업 테이블 값들을 복원하기 위하여 많은 곱셈들(multiplications)이 필 요하다는 것이 문제가 될 수 있다. 이러한 문제는 상기 다항 회귀 방정식의 계수들로부터 룩-업 테이블 값들을 복원하기 위한 소프트웨어의 실행에 있어서 퍼포먼스 (performance)를 감소시킬 수 있으며, 이를 구현하기 위한 하드웨어 구현 비용이 증가할 수 있다.Polynomial regression may be used to reduce the memory size of the look-up table. In this case, only the coefficients of the polynomial regression equation suitable for the look-up table values to be stored in the look-up table can be stored in the memory. This can reduce the memory size of the look-up table. However, it can be problematic that many multiplications are needed to recover the look-up table values from the coefficients of the polynomial regression equation. This problem may reduce performance in the execution of software to restore the look-up table values from the coefficients of the polynomial regression equation, and the hardware implementation cost to implement it may increase.

따라서, 본 발명이 해결하고자 하는 과제는 다항 회귀를 통하여 룩-업 테이블 값들을 압축하고 복원하는 것을 수행하기 위한 소프트웨어의 실행에 있어서 퍼포먼스를 높이고, 하드웨어의 구현 비용을 감소시킬 수 있는 데이터 압축 및 복원 방법을 제공하고자 하는 데 있다.SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a data compression and restoration method capable of improving performance in execution of software for performing compression and decompression of look-up table values through polynomial regression, And to provide a method.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 데이터 압축 및 복원 방법은 하나의 독립 변수를 갖는 오리지널 함수로부터 샘플링된 다수의 오리지널 함수 값들(룩-업 테이블 데이터)을 룩-업 테이블에 압축하기 위한 다항 회귀를 정의하는 코쉬 문제를 위한 초기 조건에 해당하는 초기 시드 벡터를 설정하는 단계, 상기 설정된 초기 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 각각에 대응하는 시드 벡터를 생성하는 시드 벡터 확장 단계, 및 상기 시드 벡터 확장 단계에서 생성된 시드 벡터들 중에서 대응하는 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 중에서 대응되는 오리지널 함수 값을 복원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a data compression and decompression method for compressing a plurality of original function values (look-up table data) sampled from an original function having one independent variable into a look- A seed vector expansion step of generating a seed vector corresponding to each of the plurality of original function values based on the set initial seed vector, And restoring the corresponding original function value from among the plurality of original function values based on the corresponding seed vector among the seed vectors generated in the seed vector expansion step.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 데이터 압축 및 복원 방 법은 다항 회귀를 갖는 미분 방정식을 위한 코쉬 문제의 초기 조건들로서 룩-업 테이블 데이터의 다항 회귀를 표현하고, 스탠다드 뉴머리컬 반복법에 의해 상기 코쉬 문제를 푸는 것이다.상기 초기 조건들은 하나의 독립변수를 갖는 제1차원 함수의 압축된 표현이며, 초기 시드 벡터라 한다.According to an aspect of the present invention, there is provided a method of compressing and restoring data, the method comprising: expressing a polynomial regression of look-up table data as initial conditions of a cosine problem for a differential equation having a polynomial regression; The initial conditions are a condensed representation of the first dimensional function with one independent variable and are called the initial seed vector.

상기 코쉬 문제의 반복적인 뉴머리컬 솔루션 (iterative numerical solution)을 통하여 복원된 1차원 룩-업 테이블 데이터는 오리지널 1차원 룩-업 테이블 데이터의 근사값이다. 본 발명에 따른 오리지널 1차원 룩-업 테이블 데이터의 복원 프로세스를 초기 시드 벡터에 대한 1차원 RNP(recursive near-polynomial) 확장 (expansion)이라 한다.The one-dimensional look-up table data restored through the repetitive iterative numerical solution of the kosh problem is an approximation of the original one-dimensional look-up table data. The process of restoring the original one-dimensional look-up table data according to the present invention is called a one-dimensional recursive near-polynomial (RNP) expansion of the initial seed vector.

상기 데이터 압축 및 복원 방법은 상기 다수의 오리지널 함수 값(오리지널 룩-업 테이블 데이터)들 중에서 대응하는 오리지널 함수 값과 상기 복원된 오리지널 함수 값의 차이(residual difference)에 기초하여, 상기 초기 시드 벡터를 갱신하는 단계를 더 포함한다. 이것은 상기 초기 시드 벡터에 대한 1차원 RNP 확장을 통하여 복원된 룩-업 테이블 데이터와 오리지널 룩-업 테이블 데이터 사이의 오차를 최소화하는 초기 시드 벡터를 결정하는 것이다. 이러한 과정을 오리지널 룩-업 테이블 데이터를 초기 시드 벡터로 1차원 RNP 압축하는 것이라 한다.The data compression and decompression method may further include a step of generating the initial seed vector based on a residual difference between the corresponding original function value and the restored original function value among the plurality of original function values (original look-up table data) And updating the data. This is to determine an initial seed vector that minimizes the error between the original look-up table data and the look-up table data restored through the one-dimensional RNP extension to the initial seed vector. This process is called one-dimensional RNP compression of the original look-up table data into the initial seed vector.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 데이터 압축 및 복원 방법은 2 개의 독립 변수들을 갖는 2차원 매트릭스 형태의 함수 값들을 다항 회귀를 통하여 압축하기 위한 제1 시드 매트릭스를 설정하는 단계, 상기 제1 시드 매트릭스의 제1 어레이들 각각에 기초하여, 1차원 RNP 확장을 사용하여 제2 시드 매트릭 스를 생성하는 단계, 생성된 제2 시드 매트릭스의 제2 어레이들 각각에 기초하여 1차원 RNP 확장을 사용하여 상기 2차원 매트릭스 형태의 함수 값들을 복원하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of compressing and decompressing data, comprising: setting a first seed matrix for compressing function values of a two-dimensional matrix form having two independent variables through polynomial regression; Generating a second seed matrix using a one-dimensional RNP extension based on each of the first arrays of seed matrices, using a one-dimensional RNP extension based on each of the second arrays of generated second seed matrices And restoring the function values in the form of a two-dimensional matrix.

상기 데이터 압축 및 복원 방법은 캐스캐이드된 1차원 RNP 확장을 통하여 2차원 푹업테이블에도 일반화한 것이다.The data compression and decompression method is also generalized to a two-dimensional fuzzy table through a cascaded one-dimensional RNP extension.

제1 단계에서 상기 제1 시드 매트릭스의 각각의 칼럼 어레이는 초기 시드 벡터로 취급되고, 상기 제2 시드 매트릭스의 칼럼 어레이들을 생성하기 위하여 상기 1차원 RNP 확장을 사용하여 확장된다.In a first step, each column array of the first seed matrix is treated as an initial seed vector and expanded using the one-dimensional RNP extension to generate the column arrays of the second seed matrix.

제2 단계에서 생성된 제2 시드 매트릭스의 각각의 로우 어레이는 새로운 초기 시드 벡터로 취급된다. 상기 새로운 초기 시드 벡터는 2차원 룩-업 테이블 데이터를 복원하기 위하여 1차원 RNP 확장을 통하여 확장된다. 이런 점에서 상기 제1 시드 매트릭스는 2차원 룩-업 테이블 데이터의 압축된 형태이고, 초기 시드 매트릭스라고 한다. 상기 오리지널 2차원 룩-업 테이블 값들에 대한 캐스캐이드된 계산 과정은 상기 초기 시드 매트릭스의 RNP 확장이라 한다.Each row array of the second seed matrix generated in the second step is treated as a new initial seed vector. The new initial seed vector is extended through a one-dimensional RNP extension to recover the two-dimensional look-up table data. In this regard, the first seed matrix is a compressed form of the two-dimensional look-up table data and is called an initial seed matrix. The cascaded calculation process for the original two-dimensional look-up table values is referred to as the RNP extension of the initial seed matrix.

본 발명에 따른 데이터 압축 및 복원 방법은 다항 회귀을 위하여 RNP 방정식을 사용함으로써 룩-업 테이블 값들을 압축하고 복원하는 소프트웨어의 퍼포먼스를 높이고, 하드웨어의 구현 비용을 감소시킬 수 있는 효과가 있다.INDUSTRIAL APPLICABILITY The data compression and decompression method according to the present invention has the effect of improving the performance of software for compressing and restoring look-up table values and reducing hardware implementation cost by using RNP equations for polynomial regression.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

본 발명에 따른 룩-업 테이블(Look-Up Table; LUT) 표현 방법은 순차적으로 액세스되는 룩-업 테이블에 압축된 형태의 룩-업 테이블 값을 저장하고 복원하는 방법에 대한 것이다.A look-up table (LUT) presentation method according to the present invention is a method for storing and restoring a compressed look-up table value in a sequentially accessed look-up table.

도 1은 오리지널 함수(F(x))를 표현하는 순차적으로 액세스되는 1차원(One Dimensional) 룩업테이블(100)을 나타낸다. 도 1을 참조하면, 여기서 x(i)=h(i)·i이고, i는 오리지널 함수(F(x))의 샘플링 인덱스(index)를 나타낸다. h(i)는 상수일 수 있으나, 가변적인 값일 수도 있다.1 shows a one dimensional (one dimensional) lookup table 100 that is accessed sequentially representing an original function F (x). 1, x (i) = h (i) · i, and i represents a sampling index of the original function F (x). h (i) may be a constant, but it may also be a variable value.

오리지널 함수(F(x))는 규칙적인 간격 또는 불규칙적인 간격으로 샘플링될 수 있으며, 샘플된 오리지널 함수의 값(Q(i))이 1차원 룩-업 테이블(100)에 저장될 오리지널 1차원 룩-업 테이블 값(original one dimensional LUT value)이다. 1차원 룩-업 테이블(100)에 대한 순차적인 액세스(access)는 1차원 룩-업 테이블(100)의 제1요소(i=0)에서 시작되고, i가 1씩 증가함에 따라 오른쪽 방향으로 진행될 수 있다.The original function F (x) may be sampled at regular intervals or irregular intervals and the original value Q (i) of the sampled original function may be stored in the one-dimensional look-up table 100 It is the original one dimensional LUT value. The sequential access to the one-dimensional look-up table 100 begins at the first element (i = 0) of the one-dimensional look-up table 100 and is incremented by i in the right direction Can proceed.

오리지널 함수(F(x))가 스무드(smooth)한 함수일 경우(예컨대, 오리지널 함수(F(x))는 다항 회귀에 의해 표현될 수 있는 경우), 1차원 룩-업 테이블에 오리지 널 제1 차원 룩-업 테이블 값들을 저장하기 위해 필요한 메모리 용량은 RNP 압축을 사용하여 감소 될 수 있다.If the original function F (x) is a smooth function (for example, the original function F (x) can be represented by polynomial regression), the one-dimensional look- The memory capacity required to store the one-dimensional look-up table values may be reduced using RNP compression.

이 경우, 오리지널 함수(F(x))에 대한 다항 회귀는 수학식 1과 같다.In this case, the polynomial regression for the original function F (x) is as shown in Equation (1).

Figure 112007082392106-pat00001
Figure 112007082392106-pat00001

여기서 M은 자연수이고,

Figure 112007082392106-pat00002
는 i번째 계수를 나타내는 값으로 실수일 수 있다.Where M is a natural number,
Figure 112007082392106-pat00002
Is a value representing the i-th coefficient and may be a real number.

이러한 다항 회귀는 수학식 1 및 수학식 2에 의해 정의되는 코쉬 문제(Cauchy problem)의 해로서 표현된다.This polynomial regression is expressed as a solution of the Cauchy problem defined by Equations (1) and (2).

Figure 112007082392106-pat00003
Figure 112007082392106-pat00003

Figure 112007082392106-pat00004
Figure 112007082392106-pat00004

여기서, 수학식 3에 의해서 주어진 초기 조건들은 오리지널 룩-업 테이블 값들의 압축된 표현이고, 이를 초기 시드 벡터라 한다.Here, the initial conditions given by Equation (3) are the compressed representations of the original look-up table values, which is called the initial seed vector.

상기 룩-업 테이블 값들의 복원(이를 '초기 시드 벡터 확장'이라 함)은 상술한 코쉬 문제의 뉴머리컬 솔루션(numerical solution)의 과정이다. 예컨대, 상기 코쉬 문제는 수학식 4와 수학식 5에 의해 주어진 바와 같이 반복적인 제1차 오일러 법 (iterative Euler method of first order)에 의하여 풀 수 있다.The restoration of the look-up table values (this is referred to as 'initial seed vector extension') is a process of the numerical solution of the above-mentioned cosh problem. For example, the kosh problem can be solved by an iterative Euler method of first order as given by Equations (4) and (5).

Figure 112007082392106-pat00005
Figure 112007082392106-pat00005

Figure 112007082392106-pat00006
Figure 112007082392106-pat00006

여기서 x=i·△이고, Fi≡ F(i·△)이다. 여기서 △는 컨버전스 파라미터 (convergence parameter)를 나타내며, 상기 뉴머리컬 적분의 정확성을 제어한다. △는 상수일 수 있고, 가변적인 값일 수도 있다. △는 도 1에 도시된 h(i)와 동일한 성격을 갖는다.Where x = i · Δ and F i ≡ F (i · Δ). Where DELTA represents the convergence parameter and controls the accuracy of the new hair curl integral. DELTA may be a constant or may be a variable value. DELTA has the same characteristics as h (i) shown in FIG.

i(여기서, i는 자연수)번째 단계에서 얻어진 도함수 값들은 최초 제로 스텝에서 초기 시드 벡터와 유사한 i번째 시드 벡터로 언급될 수 있다. 수학식 4와 수학식 5는 현재 i번째 시드 벡터와 이전 단계에서 알려진 (i-1)번째 시드 벡터 사이 의 회귀적인 관계(recursive relationship)를 나타낸다.The derivative values obtained in i (where i is a natural number) th stage may be referred to as an i th seed vector similar to the initial seed vector in the first zero step. Equations (4) and (5) represent a recursive relationship between the current i-th seed vector and the (i-1) -th seed vector known in the previous step.

실질적인 구현에 있어 수학식 4 및 수학식 5에 의해 주어진 반복법은 정확하지 않다. 즉, 수학식 4 및 수학식 5에 의해 상기 초기 시드 벡터로부터 상기 오리지널 1차원 룩-업 테이블 값들을 복원하는 과정 동안 상기 오리지널 함수에 대한 다항 회귀의 근사값이 구해진다.In a practical implementation, the iterations given by equations (4) and (5) are not accurate. That is, an approximate value of the polynomial regression for the original function is obtained during the process of restoring the original one-dimensional look-up table values from the initial seed vector by equations (4) and (5).

상기 오리지널 함수에 대한 다항 회귀의 근사도 (the quality of the approximation)는 상기 컨버전스 파라미터 △의 값, 즉, 수학식 4 및 수학식 5의 계산을 위해 사용된 뉴머리컬 아리스메틱(numerical arithmetic)의 비트 정확도(bit pricision)에 의존한다. 이러한 오리지널 1차 룩-업 테이블 값들의 압축 방법을 RNP (recursive near-polynomial) 압축이라 한다.The quality of the approximation of the polynomial regression for the original function is determined by the value of the convergence parameter DELTA, i.e., the value of the numerical arithmetic used for calculating equations (4) and (5) It depends on bit precision. This method of compressing the original primary look-up table values is called RNP (recursive near-polynomial) compression.

수학식 4 및 수학식 5에 의해 표현되는 제1차원 RNP 방정식은 시드 벡터에 대하여 선형적이다.The first dimension RNP equation expressed by equations (4) and (5) is linear with respect to the seed vector.

즉, 제1 초기 시드 벡터와 제2 초기 시드 벡터를 합한 값에 의해 얻어진 초기 시드 벡터의 RNP 확장을 통하여 생성된 i번째 시드 벡터는 상기 제1 초기 시드 벡터의 RNP 확장을 통하여 생성된 i번째 시드 벡터와 상기 제2 초기 시드 벡터의 RNP 확장을 통하여 생성된 i번째 시드 벡터의 합과 동일하다.That is, the i-th seed vector generated through the RNP extension of the initial seed vector obtained by adding the first initial seed vector and the second initial seed vector is the i-th seed generated through the RNP extension of the first initial seed vector, And the i th seed vector generated through the RNP extension of the second initial seed vector.

또한, 상기 제1 초기 시드 벡터의 RNP 확장을 통하여 생성된 i번째 시드 벡터에 소정의 상수를 곱한 결과는 상기 제1 초기 시드 벡터에 상기 소정의 상수를 곱한 값에 대한 RNP 확장을 통하여 생성된 i번째 시드 벡터와 동일하다The result of multiplying the i-th seed vector generated through the RNP extension of the first initial seed vector by a predetermined constant is obtained by multiplying the i-th seed vector generated through the RNP extension to the value obtained by multiplying the first initial seed vector by the predetermined constant. Th seed vector

이러한 선형적 성질은 수학식 6 및 수학식 7로서 요약될 수 있다. S(0)는 초 기 시드 벡터를 나타낸다.This linear property can be summarized as Equations (6) and (7). S (0) represents an initial seed vector.

Figure 112007082392106-pat00007
Figure 112007082392106-pat00007

Figure 112007082392106-pat00008
Figure 112007082392106-pat00008

Figure 112007082392106-pat00009
는 i번째 스텝(즉, i번째 시드 벡터)에서 초기 시드 벡터의 RNP 확장의 결과이다. C는 소정의 상수이고, S1(0)는 제1 초기 시드 벡터이고, S2(0)는 제2 초기 시드 벡터이다. 상술한 이러한 선형적 성질로 인하여 수많은 요소들 (elememts)을 포함할 수 있는 전체 LUT에 대한 효과적인 제어가 가능하다.
Figure 112007082392106-pat00009
Is the result of the RNP extension of the initial seed vector at the ith step (i. C is a predetermined constant, S 1 (0) is a first initial seed vector, and S 2 (0) is a second initial seed vector. This linear nature described above allows effective control over the entire LUT, which may include a number of elememts.

컨버전스 파라미터(예컨대, h(i) 또는 △)가 2의 거듭제곱(a power of two)인 경우, 비트 쉬프트 (bit shift)의 2진 동작(binary operation)을 사용하여 수학식 4 내지 수학식 5의 형태를 갖는 RNP 방정식들은 구현 비용이 비싼 곱셈 동작을 사용하지 않고 구현될 수 있다.If the convergence parameter (e.g., h (i) or?) Is a power of two, a binary operation of bit shift may be used to calculate the following equation (4) to RNP equations of the form < RTI ID = 0.0 > RNP < / RTI > can be implemented without using expensive multiplication operations.

곱셈 동작의 횟수가 적을수록 초기 시드 벡터로부터 오리지널 제1차 룩-업 테이블 값들을 복원하기 위한 소프트웨어의 퍼포먼스(performance of software)가 증가되며, 하드웨어의 구현 비용이 감소 될 수 있다.The lower the number of multiplication operations, the greater the performance of software for restoring the original first look-up table values from the initial seed vector, and the hardware implementation cost may be reduced.

오리지널 제1차 룩-업 테이블 값들을 효과적으로 근사화하기 위한 초기 시드 벡터의 계산 방법은 오리지널 제1차 룩-업 테이블 값과 RNP 확장을 통하여 얻어진 룩-업 테이블 값 사이의 오차(residual error)를 최소화하는 것이다.The method of calculating the initial seed vector for effectively approximating the original first look-up table values minimizes the residual error between the original first look-up table value and the look-up table value obtained through the RNP extension .

이것을 오리지널 1차원 룩-업 테이블 값의 초기 시드 벡터로의 RNP 압축이라 한다.This is called RNP compression to the initial seed vector of the original one-dimensional look-up table value.

상기 오차는 수학식 8에 의해 정의될 수 있다.The error can be defined by equation (8).

Figure 112007082392106-pat00010
Figure 112007082392106-pat00010

여기서, S(0)는 초기 시드 벡터이고,

Figure 112007082392106-pat00011
는 i번째 스텝에 대한 상기 초기 시드 벡터의 RNP 확장 결과(즉, 상기 i번째 스텝에서 상기 오리지널 함수에 대한 근사)이고,
Figure 112007082392106-pat00012
Figure 112007082392106-pat00013
에서 오리지널 함수 값이다.Where S (0) is the initial seed vector,
Figure 112007082392106-pat00011
Is an RNP extension result (i.e., an approximation to the original function in the i-th step) of the initial seed vector for the i-th step,
Figure 112007082392106-pat00012
The
Figure 112007082392106-pat00013
Is the original function value.

수학식 8에 따른 오차 함수 (residual error function)는 초기 시드 벡터를 아규먼트(argument)로 갖는다. 최적의 초기 시드 벡터는 뉴튼법 (Newton method)과 같은 스탠다드 뉴머리컬 방법에 의해 상기 오차 함수 값의 최소화를 통하여 얻어질 수 있다.The residual error function according to Equation (8) has an initial seed vector as an argument. The optimal initial seed vector can be obtained by minimizing the error function value by a standard New Hair method such as the Newton method.

도 2는 본 발명의 일 실시 예에 따른 초기 시드 벡터(S(0))로 저장될 1차원 룩-업 테이블 값들(Q(i), i=0 ~ (k-1), 여기서 i와 k는 자연수)의 복원 방법을 나타내는 플로우챠트이다. 도 1 및 도 2를 참조하면, 먼저 초기 시드 벡터를 설정한다. 상기 초기 시드 벡터(initial seed vector, S(i, i=0))는 오리지널 함수(F(x))로부터 샘플된 오리지널 1차원 룩-업 테이블 값들을 압축하기 위한 다항 회귀 방정식을 정의하는 코쉬 문제에 대한 초기 조건에 해당한다.Fig. 2 shows one-dimensional look-up table values Q (i), i = 0 to (k-1) to be stored in an initial seed vector S (0) according to an embodiment of the present invention, Is a natural number). Referring to FIGS. 1 and 2, an initial seed vector is first set. The initial seed vector S (i, i = 0) defines a polynomial regression equation for compressing the original one-dimensional look-up table values sampled from the original function F (x) Which corresponds to the initial condition for.

상기 초기 시드 벡터(S(i,i=0))는 상기 다항 회귀를 정의하는 코쉬 문제를 위한 다수의 요소들을 포함한다. 예컨대, S(i,i=0))=[S0(0)~ SM(0)]일 수 있다. 여기서 M은 자연수일 수 있다. 상기 다수의 요소들([S0(0) ~ SM(0)]) 중에서 대응하는 요소는 다항 회귀 방정식의 계수들 중에서 대응하는 계수에 해당할 수 있다(S210).The initial seed vector S (i, i = 0) contains a number of elements for the cose problem that define the polynomial regression. For example, S (i, i = 0)) = [S 0 (0) to S M (0)]. Where M can be a natural number. The corresponding element among the plurality of elements (S 0 (0) to S M (0)) may correspond to a corresponding coefficient among the coefficients of the polynomial regression equation (S210).

상기 초기 시드 벡터(S(i,i=0)=[S0(0)~ SM(0)])에 기초하여, 상기 오리지널 1차원 룩-업 테이블 값들(Q(i))에 대응하는 시드 벡터(S(i, i>0)=[S0(i)~SM(i)])를 생성할 수 있다.Based on the initial seed vector (S (i, i = 0 ) = [S 0 (0) ~ S M (0)]), the original one-dimensional look-corresponding to up table values (Q (i)) seed vector may produce the (S (i, i> 0 ) = [S 0 (i) ~ S M (i)]).

상기 시드 벡터(S(i,i=1~(k-1)) 역시 다수의 요소들을 포함한다. 예컨대, S(i)=[S0(i)~ SM(i)]일 수 있다. 여기서 i=0~(k-1)이다.And the seed vector (S (including a i, i = 1 ~ (k -1)) is also a number of factors. For example, it can be S (i) = [S 0 (i) ~ S M (i)]. Where i = 0 to (k-1).

상기 오리지널 제1 차원 룩-업 테이블 값(Q(i))에 대응하는 시드 벡터(S(i, i>0)=[S0(i)~SM(i)])는 수학식 9 및 수학식 10을 사용하여 상기 초기 시드 벡터 (S(0)=[S0(0)~SM(0)])에 기초하여 생성된다. 상기 시드 벡터(S(i,i=1~(k-1))의 계산 과정을 초기 시드 벡터의 확장이라 한다(S220).The original first-dimensional look-seed vectors (S (i, i> 0 ) = [S 0 (i) ~ S M (i)]) corresponding to the up table values (Q (i)) is Equation (9) and It is generated based on the initial seed vector (S (0) = [S 0 (0) ~ S M (0)]) using the equation (10). The calculation process of the seed vector S (i, i = 1 to (k-1)) is referred to as extension of the initial seed vector (S220).

S0(i)= S0(0)S 0 (i) = S 0 (0)

Sj(i)= Sj(i-1)+ Sj -1(i-1) 1/2k(j) S j (i) = S j (i-1) + S j -1 (i-1 )

수학식 9 및 수학식 10에서, i=0 ~ (k-1)이고, j는 상기 시드 벡터(S(i))의 j번째 요소를 나타내며, j=1 ~ M일 수 있다. 여기서 M은 자연수일 수 있다.In Equation (9) and Equation (10), i = 0 to (k-1), j denotes the jth element of the seed vector S (i), and j = 1 to M. Where M can be a natural number.

1/2k(j)는 수학식 4에 있는 컨버전스 파라미터(△)에 상응하며, 곱셈 동작의 수행의 퍼포먼스를 향상시키기 위하여 2의 거듭제곱의 형태로 선택된 것이다.1/2 k (j) corresponds to the convergence parameter (?) In Equation (4), and is selected in the form of a power of 2 to improve the performance of the multiplication operation.

도 3은 도 2에 도시된 시드 벡터 확장 단계(S220)를 나타내는 플로우챠트이다. 도 3을 참조하면, i번째 오리지널 1차원 룩-업 테이블 값(Q(i))에 대응하는 i번째 시드 벡터(S(i))의 요소들(Sj(i), j=1 ~ M)은 (i-1)번째 시드 벡터(S(i-1))의 요소들(Sj(i-1), j=1 ~ M) 및 상기 초기 시드 벡터(S(0))에 기초하여 생성될 수 있다(S310).FIG. 3 is a flow chart showing the seed vector expansion step (S220) shown in FIG. 3, elements (S j (i), j = 1 to M (i)) of the ith seed vector S (i) corresponding to the ith original one-dimensional look- ) Based on the elements S j (i-1), j = 1 to M of the (i-1) th seed vector S (i-1) and the initial seed vector S (0) (S310).

상기 시드 벡터(S(i), i=1~(k-1))는 수학식 10에 따라 상기 초기 시드 벡터(S(0))로부터 순차적으로 생성될 수 있다. 오리지널 1차원 룩-업 테이블 값 (Q(i))은 수학식 11에 의해 생성된 시드 벡터(S(i), i=1~(k-1))로부터 복원될 수 있다(S230).The seed vector S (i), i = 1 to (k-1) may be sequentially generated from the initial seed vector S (0) according to Equation (10). The original one-dimensional look-up table value Q (i) can be recovered from the seed vector S (i), i = 1 to (k-1) generated by equation (11) (S230).

Q(i)=SM(i)Q (i) = S M (i)

수학식 11에 따르면, 상기 오리지널 1차원 룩-업 테이블 값(Q(i))은 생성된 시드 벡터들(S(i), i=1 ~(k-1)) 중에서 대응되는 시드 벡터(S(i))의 요소들 중 M번째 요소(SM(i))일 수 있다.According to Equation (11), the original one-dimensional look-up table value Q (i) is calculated by multiplying the corresponding seed vector S (i) among the generated seed vectors S (S M (i)) among the elements of (i).

결국, 상기 오리지널 1차원 룩-업 테이블 값들(Q(i), i=0 ~ (k-1))은 상기 초기 시드 벡터(S(i, i=0))의 요소들(S(i,i=0)=[S0(0)~ SM(0)])의 형태로 압축될 수 있으며, 수학식 9 내지 수학식 11에 의하여 오리지널 제1 차원 룩-업 테이블 값에 대한 근사로서 다시 복원될 수 있다.The original one-dimensional look-up table values Q (i), i = 0 to (k-1) are generated by the elements S (i, i = 0) = [S 0 (0) ~ S M (0)]) may be compressed to form, by the equation (9) to equation (11) the original first-dimensional look-of-an approximation to the up table value again Can be restored.

도 4는 본 발명의 일 실시 예에 따른 오리지널 2차원 룩-업 테이블 값들을 압축 및 복원하는 플로우챠트이고, 도 5는 본 발명의 일 실시 예에 따른 제1 시드 매트릭스 형태로 저장된 오리지널 2차원 룩-업 테이블 값들을 복원하는 방법을 설명하기 위한 것이다. 도 4 및 도 5를 참조하면, 본 발명에 따른 오리지널 2차원 룩-업 테이블 값들을 압축 및 복원하는 방법은 캐스캐이드된(cascaded) 1차원 RNP 확장 프로세스의 적용을 사용하는 것이다.FIG. 4 is a flow chart for compressing and restoring original two-dimensional look-up table values according to an embodiment of the present invention. FIG. 5 is a flowchart illustrating a method of compressing and restoring original 2-dimensional look-up table values stored in a first seed matrix form according to an embodiment of the present invention. Up table values of the < / RTI > 4 and 5, a method for compressing and restoring original two-dimensional look-up table values in accordance with the present invention employs the application of a cascaded one-dimensional RNP expansion process.

먼저, 제1 시드 매트릭스를 설정한다. 상기 제1 시드 매트릭스는 2개의 아규먼트들(arguments, x 및 y)를 갖는 오리지널 함수(F(x,y))로부터 샘플링된 2차원 매트릭스 형태의 함수 값들(즉, 오리지널 제2차원 룩-업 테이블 값들)을 압축한 표현이다. 상기 제1 시드 매트릭스의 각각의 제1 어레이 (예컨대, column array)은 RNP 확장의 제1 스테이지를 위한 제1 초기 시드 벡터일 수 있다(S410).First, a first seed matrix is set. The first seed matrix is a function of the function values in the form of a two-dimensional matrix sampled from an original function F (x, y) having two arguments (arguments, x and y) Values). Each first array (e.g., a column array) of the first seed matrix may be a first initial seed vector for a first stage of the RNP extension (S410).

제2 시드 매트릭스를 생성한다(S420). 상기 제2 시드 매트릭스는 상기 제1 시드 매트릭스의 제1 어레이들(예컨대, column arrays) 각각에 기초하여 제1차원 RNP 확장을 사용하여 생성될 수 있다. 이를 첫 번째 1차원 RNP 스텝이라고 한다.A second seed matrix is generated (S420). The second seed matrix may be generated using a first dimensional RNP extension based on each of the first arrays of the first seed matrix (e.g., column arrays). This is called the first one-dimensional RNP step.

예컨대, 제1 초기 시드 벡터가 [R1, R2, R3, R4, 및 R5]일 경우, 제2 시드 매트릭스의 대응하는 제1 어레이(예컨대, column array, [T11 ~ T1B])은 제1 차원 RNP 확장을 사용하여 생성될 수 있다.For example, when the first initial seed vector is [R1, R2, R3, R4, and R5], the corresponding first array (e.g., column array, [T 11 ~T 1B ]) of the second seed matrix Dimensional RNP extensions.

생성된 제2 시드 매트릭스의 제2 어레이들(예컨대, row arrays) 각각에 대한 제1 차원 RNP 확장을 사용하여 오리지널 2차원 룩-업 테이블 값은 복원될 수 있다(S430). 이를 두 번째 1차원 RNP 스텝이라고 한다. The original two-dimensional look-up table values may be reconstructed using a first dimension RNP extension for each of the second arrays of generated second seed matrices (e.g., row arrays) (S430). This is called the second one-dimensional RNP step.

예컨대, 도 5에 도시된 바와 같이 상기 제2 시드 매트릭스의 대응하는 로우 어레이(row array, Ca4=[T14~TP4])를 제2 초기 시드 벡터로 설정함으로써, 대응되는 오리지널 제2차원 룩-업 데이터 값들(for example, Ca4')은 상술한 1차원 RNP 확장을 사용하여 복원될 수 있다.For example, the second oxide corresponding row array (row array, Ca4 = [T 14 ~ T P4]) of the matrix as shown in FIG. 5, the second by setting the initial seed vector, corresponding to the original 2-D look that Up data values (for example, Ca4 ') may be restored using the one-dimensional RNP extension described above.

상기 오리지널 제2차원 룩-업 테이블 값들은 캐스캐이드된 1차원 RNP 방정식을 사용하여 P×Q 제1 시드 매트릭스(first seed matrix)로부터 복원될 수 있으므로, A×B의 오리지널 룩-업 테이블 값들을 P×Q 제1 시드 매트릭스로 압축될 수 있다. 여기서 P, Q, A, 및 B는 자연수이다. 상기 오리지널 제2 차원 룩-업 테이블 값들은 라인 바이 라인(line by line)으로 위에서 아래로, 그리고 좌측에서 우측으로 생성될 수 있다.The original second-dimensional look-up table values can be recovered from a P x Q first seed matrix using the cascaded one-dimensional RNP equation, so that an original A-B look-up table value Can be compressed into a P x Q first seed matrix. Where P, Q, A, and B are natural numbers. The original second dimensional look-up table values may be generated line by line from top to bottom, and from left to right.

상술한 캐스캐이드 RNP 확장 프로세스에 의해 복원된 오리지널 제2차원 룩-업 테이블 값들은 수학식 12에 의한 2차원 다항 회귀로 근사화될 수 있다.The original second-dimensional look-up table values restored by the cascaded RNP expansion process described above can be approximated by a two-dimensional polynomial regression according to equation (12).

근사화의 정확도는 수학식 4에서의 △ 또는 수학식 10에서의 1/2k(j) 컨버전스 파라미터에 의해 제어될 수 있다.The accuracy of the approximation can be expressed as? In Equation 4 or 1/2 k (j) in Equation 10 Can be controlled by the convergence parameter.

Figure 112007082392106-pat00014
Figure 112007082392106-pat00014

여기서 x 및 y 각각은 2차원 다항 회귀 함수 F(x,y)의 독립 변수이고,

Figure 112007082392106-pat00015
는 P×Q 제1 시드 매트릭스를 나타낸다.Where x and y are independent variables of the two-dimensional polynomial regression function F (x, y)
Figure 112007082392106-pat00015
Represents a P x Q first seed matrix.

상기 오리지널 2차원 룩-업 테이블 값들에 대한 오차 함수는 수학식 13과 같이 표현될 수 있다.The error function for the original two-dimensional look-up table values may be expressed as Equation (13).

Figure 112007082392106-pat00016
Figure 112007082392106-pat00016

여기서, S(0)는 제1 시드 매트릭스이고,

Figure 112007082392106-pat00017
는 (i, j)좌표의 2차원 룩-업 테이블 요소를 얻기 위한 제1 시드 매트릭스의 RNP확장의 결과이다.
Figure 112007082392106-pat00018
는 (i,j) 좌표를 가진 2차원 룩-업 테이블에 대응하는 오리지널 제2 차원 룩-업 테이블 값이다.Where S (0) is the first seed matrix,
Figure 112007082392106-pat00017
Is the result of the RNP extension of the first seed matrix to obtain a two-dimensional look-up table element of (i, j) coordinates.
Figure 112007082392106-pat00018
Up table value corresponding to a two-dimensional look-up table having coordinates (i, j).

수학식 13을 통하여 오리지널 제2차원 룩-업 테이블 값과 제1 시드 매트릭스의 RNP 확장을 통하여 복원된 2차원 룩-업 테이블 사이의 오차를 최소화하는 제1 시드 매트릭스를 결정한다. 이렇게 결정된 제1 시드 매트릭스를 2차원 룩-업 테이블 값들을 압축하기 위한 초기 시드 매트릭스로 설정될 수 있다.The first seed matrix that minimizes the error between the original second-dimensional look-up table value and the restored 2-dimensional look-up table through the RNP extension of the first seed matrix is determined through Equation (13). The first seed matrix thus determined may be set as an initial seed matrix for compressing the two-dimensional look-up table values.

도 6은 본 발명의 일 실시 예에 따른 룩-업 테이블 값들을 압축 및 복원할 수 있는 디지털 신호 프로세서(600)의 블록 도이다. 도 6을 참조하면, 디지털 신호 프로세서(600)는 시드 벡터 저장 부(610), 및 RNP 계산 부(620)를 포함한다.6 is a block diagram of a digital signal processor 600 capable of compressing and restoring look-up table values according to an embodiment of the invention. Referring to FIG. 6, the digital signal processor 600 includes a seed vector storage unit 610, and an RNP calculation unit 620.

시드 벡터 저장 부(610)는 초기 시드 벡터(또는, 제2차원 룩-업 테이블에 대해서는 제1 시드 매트릭스)를 저장한다. 시드 벡터 저장 부(610)는 불휘발성 메모리(예컨대, 플레쉬 EEPROM, 또는 ROM), 또는 휘발성 메모리(예컨대, DRAM)로 구현될 수 있다.The seed vector storage unit 610 stores the initial seed vector (or the first seed matrix for the second dimensional look-up table). The seed vector storage 610 may be implemented in a non-volatile memory (e.g., flash EEPROM, or ROM), or a volatile memory (e.g., DRAM).

RNP 계산 부(620)는 1차원 RNP 방정식을 사용하여 초기 시드 벡터를 확장하고, 오리지널 룩-업 테이블 함수 값들을 복원한다. RNP 계산 부(620)는 시드 벡터 확장 부(620), 및 룩-업 테이블 값 복원 부(624)를 포함한다.The RNP calculator 620 expands the initial seed vector using the one-dimensional RNP equation and restores the original look-up table function values. The RNP calculation unit 620 includes a seed vector expansion unit 620 and a look-up table value restoration unit 624.

시드 벡터 확장 부(620)는 설정된 초기 시드 벡터(S(0))에 기초하여, 오리지널 함수 값들 각각에 대응하는 시드 벡터를 생성할 수 있다.The seed vector extension 620 may generate a seed vector corresponding to each of the original function values based on the set initial seed vector S (0).

룩-업 테이블 값 복원 부(640)는 생성된 시드 벡터들 중에서 대응하는(corresponding) 시드 벡터에 기초하여, 오리지널 함수 값들 중에서 대응되는 오리지널 함수 값을 복원할 수 있다.The look-up table value restoration unit 640 can restore the original function value corresponding to the original function values based on a corresponding seed vector among the generated seed vectors.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.

도 1은 오리지널 함수를 표현하는 순차적으로 액세스되는 1차원 룩업테이블을 나타낸다.Figure 1 shows a one-dimensional look-up table that is accessed sequentially representing an original function.

도 2는 본 발명의 일 실시 예에 따른 초기 시드 벡터로 저장될 1차원 룩업테이블 값들의 복원 방법을 나타내는 플로챠트이다.FIG. 2 is a flowchart illustrating a method of restoring 1-dimensional look-up table values to be stored as an initial seed vector according to an embodiment of the present invention.

도 3은 도 2에 도시된 시드 벡터 확장 단계를 나타내는 플로챠트이다.FIG. 3 is a flowchart showing the seed vector expansion step shown in FIG. 2. FIG.

도 4는 본 발명의 일 실시 예에 따른 오리지널 2차원 룩업테이블 값들을 압축 및 복원하는 플로챠트이다.4 is a flowchart for compressing and restoring original two-dimensional lookup table values according to an embodiment of the present invention.

도 5는 본 발명의 일 실시 예에 따른 제1 시드 매트릭스 형태로 저장된 오리지널 2차원 룩업테이블 값들을 복원하는 방법을 설명하기 위한 것이다FIG. 5 illustrates a method of restoring original two-dimensional lookup table values stored in a first seed matrix form according to an embodiment of the present invention

도 6은 본 발명의 일 실시 예에 따른 룩업테이블 값들의 압축 및 복원할 수 있는 디지털 신호 프로세서의 블록도이다.6 is a block diagram of a digital signal processor capable of compressing and restoring lookup table values in accordance with an embodiment of the present invention.

Claims (8)

오리지널 함수로부터 샘플된 다수의 오리지널 함수 값들을 룩-업 테이블에 압축하기 위한 다항 회귀(polynomial regression)를 정의하는 코쉬 문제(Cauchi problem)를 위한 초기 조건에 대응하는 초기 시드 벡터 (initial seed vector)를 설정하는 단계;An initial seed vector corresponding to an initial condition for a Cauchi problem defining a polynomial regression for compressing a plurality of original function values sampled from the original function into a look-up table ; 설정된 초기 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 각각에 대응하는 시드 벡터를 생성하는 시드 벡터 확장 단계; 및A seed vector expansion step of generating a seed vector corresponding to each of the plurality of original function values based on the set initial seed vector; And 상기 시드 벡터 확장 단계에서 생성된 시드 벡터들 중에서 대응하는 시드 벡터에 기초하여 상기 다수의 오리지널 함수 값들 중에서 대응하는 오리지널 함수 값을 복원하는 단계를 포함하는 1차원 데이터 압축 및 복원 방법.And restoring a corresponding original function value from the plurality of original function values based on a corresponding seed vector among the seed vectors generated in the seed vector expansion step. 제1항에 있어서, 상기 1차원 데이터 압축 및 복원 방법은,2. The method of claim 1, wherein the one- 상기 다수의 오리지널 함수 값들 중에서 대응하는 오리지널 함수 값과 상기 복원된 오리지널 함수 값의 차이(residual difference)에 기초하여 상기 초기 시드 벡터를 갱신하는 단계를 더 포함하는 1차원 데이터 압축 및 복원 방법.And updating the initial seed vector based on a residual difference between a corresponding original function value and the restored original function value among the plurality of original function values. 제1항에 있어서, 상기 시드 벡터 확장 단계는,2. The method of claim 1, (i-1)(i는 자연수)번째 오리지널 함수 값에 대응하는 (i-1)번째 시드 벡터의 요소들(elements) 및 상기 초기 시드 벡터에 기초하여, i번째 오리지널 함수 값에 대응하는 i번째 시드 벡터의 요소들을 생성하는 1차원 데이터 압축 및 복원 방법.(i-1) th seed vector corresponding to the i-th original function value, based on the elements of the (i-1) -th seed vector corresponding to the i-th original function value A one-dimensional data compression and reconstruction method for generating elements of a seed vector. 제3항에 있어서, 상기 시드 벡터 확장 단계는,4. The method of claim 3, 상기 (i-1)번째 시드 벡터에 포함된 요소들 중에서 j번째 요소와 (j-1)번째 요소에 기초하여, 상기 i번째 시드 벡터에 포함된 요소들 중에서 상기 j(j는 자연수)번째 요소를 생성하는 1차원 데이터 압축 및 복원 방법.(J is a natural number) element among the elements included in the i-th seed vector, based on the j-th element and the (j-1) -th element among the elements included in the (i- Dimensional data compression and decompression method. 제4항에 있어서, 상기 다수의 오리지널 함수 값들 중에서 대응되는 오리지널 함수 값은 제1차 오일러 법(Euler method)을 사용하여 복원되는 1차원 데이터 압축 및 복원 방법.The one-dimensional data compression and decompression method of claim 4, wherein the corresponding original function value among the plurality of original function values is restored using a first-order Euler method. 2 개의 독립 변수들을 갖는 2차원 매트릭스 형태의 함수 값들을 다항 회귀 (polynomial regression)를 통하여 압축하기 위한 제1시드 매트릭스(seed matrix)를 설정하는 단계;Setting a first seed matrix for compressing function values in the form of a two-dimensional matrix having two independent variables through polynomial regression; 상기 제1시드 매트릭스의 제1어레이들 각각에 기초하여, 1차원 RNP(one dimension recursive near polynomial) 확장을 사용하여 제2시드 매트릭스를 생성하는 단계; 및Generating a second seed matrix using a one-dimensional recursive near polynomial (RNP) extension based on each of the first arrays of the first seed matrix; And 생성된 제2시드 매트릭스의 제2어레이들 각각에 기초하여, 상기 1차원 RNP 확장을 사용하여 상기 2차원 매트릭스 형태의 함수 값들을 복원하는 단계를 포함하는 2차원 데이터 압축 및 복원 방법.And reconstructing the two-dimensional matrix-form function values using the one-dimensional RNP extension based on each of the second arrays of the generated second seed matrix. 제6항에 있어서, 상기 제2시드 매트릭스를 생성하는 단계는,7. The method of claim 6, wherein generating the second seed matrix comprises: 상기 제1어레이들 각각을 제1 초기 시드 벡터로 설정하는 단계; 및Setting each of the first arrays to a first initial seed vector; And 상기 제1 초기 시드 벡터들 각각에 대한 상기 제1차원 RNP 확장에 기초하여 상기 제2시드 매트릭스를 생성하는 단계를 포함하는 2차원 데이터 압축 및 복원 방법.Generating the second seed matrix based on the first dimensional RNP extension for each of the first initial seed vectors. 제7항에 있어서, 상기 2차원 매트릭스 형태의 함수 값들을 복원하는 단계는, 8. The method of claim 7, wherein restoring the function values in the form of a two-dimensional matrix comprises: 생성된 제2 시드 매트릭스의 제2 어레이들 각각을 제2 초기 시드 벡터로 설정하는 단계; 및Setting each of the second arrays of the generated second seed matrix to a second initial seed vector; And 상기 제2 초기 시드 벡터들 각각에 대한 상기 제1차원 RNP 확장에 기초하여 상기 2차원 매트릭스 형태의 함수 값들을 복원하는 단계를 포함하는 2차원 데이터 압축 및 복원 방법.And restoring the function values in the form of a two-dimensional matrix based on the first dimension RNP extensions for each of the second initial seed vectors.
KR1020070117271A 2007-11-16 2007-11-16 Method for compressing and restoring Look-Up table values KR101445663B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070117271A KR101445663B1 (en) 2007-11-16 2007-11-16 Method for compressing and restoring Look-Up table values
US12/271,049 US8266507B2 (en) 2007-11-16 2008-11-14 Data processing apparatus for operating lens correction and method for compressing and restoring lookup table values

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070117271A KR101445663B1 (en) 2007-11-16 2007-11-16 Method for compressing and restoring Look-Up table values

Publications (2)

Publication Number Publication Date
KR20090050688A KR20090050688A (en) 2009-05-20
KR101445663B1 true KR101445663B1 (en) 2014-09-30

Family

ID=40859109

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070117271A KR101445663B1 (en) 2007-11-16 2007-11-16 Method for compressing and restoring Look-Up table values

Country Status (1)

Country Link
KR (1) KR101445663B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040041781A (en) * 2002-11-11 2004-05-20 삼성전자주식회사 The improved method of compressing look up table for reducing memory and non-linear function generating apparatus having look up table compressed using the method and the non-linear function generating method
JP2005165502A (en) 2003-12-01 2005-06-23 Kitakyushu Foundation For The Advancement Of Industry Science & Technology Lut coding method, lut coding device and lut cascade logic circuit
JP2007221720A (en) 2006-02-20 2007-08-30 Canon Inc Conversion table compression method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040041781A (en) * 2002-11-11 2004-05-20 삼성전자주식회사 The improved method of compressing look up table for reducing memory and non-linear function generating apparatus having look up table compressed using the method and the non-linear function generating method
JP2005165502A (en) 2003-12-01 2005-06-23 Kitakyushu Foundation For The Advancement Of Industry Science & Technology Lut coding method, lut coding device and lut cascade logic circuit
JP2007221720A (en) 2006-02-20 2007-08-30 Canon Inc Conversion table compression method and program

Also Published As

Publication number Publication date
KR20090050688A (en) 2009-05-20

Similar Documents

Publication Publication Date Title
CN101194457B (en) Randomized modular polynomial reduction method and hardware therefor
Lampe et al. Large-scale Tikhonov regularization via reduction by orthogonal projection
CN112292816A (en) Processing core data compression and storage system
van der Vlerk Stochastic programming with integer recourse
EP1728319A2 (en) Low-complexity nonlinear filters
Bini et al. Solving quadratic matrix equations arising in random walks in the quarter plane
US8056045B2 (en) System and method for circuit simulation
KR101445663B1 (en) Method for compressing and restoring Look-Up table values
JP4955446B2 (en) Data processing method
CN113128015B (en) Method and system for predicting resources required by single-amplitude analog quantum computation
Castella et al. Optimization of a Geman-McClure like criterion for sparse signal deconvolution
KR101987475B1 (en) Neural network parameter optimization method, neural network computing method and apparatus thereof suitable for hardware implementation
RU2318238C1 (en) Neuron network for transformation of residual code to binary positional code
TW202333041A (en) System and method performing floating-point operations
JP3145368B2 (en) Elliptic curve calculation device, calculation method, and recording medium storing program for executing the method
Kumar et al. A chaos study of fractal–fractional predator–prey model of mathematical ecology
Rouigueb et al. Integration of polynomials over n-dimensional simplices
CN111340208B (en) Vectorization calculation depth convolution calculation method and device
JP3455748B2 (en) Vector string output device, output method, and information recording medium
Calliari et al. FPGA-Embedded Linearized Bregman Iterations Algorithm for Trend Break Detection
JP7308995B2 (en) Arithmetic device and method
Calliari et al. FPGA-embedded Linearized Bregman Iteration algorithm for trend break detection
Foster Accelerating homomorphic encryption in the cloud environment through high-level synthesis and reconfigurable resources
Oh et al. A method for structured linear total least norm on blind deconvolution problem
KR20230031913A (en) Method and device for using and generating multidimensional feature maps for open-loop and closed-loop control of technical devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180831

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190830

Year of fee payment: 6