KR101415584B1 - Apparatus and method for optimal approximate decoding of network coded data using source data statistic - Google Patents

Apparatus and method for optimal approximate decoding of network coded data using source data statistic Download PDF

Info

Publication number
KR101415584B1
KR101415584B1 KR1020130003293A KR20130003293A KR101415584B1 KR 101415584 B1 KR101415584 B1 KR 101415584B1 KR 1020130003293 A KR1020130003293 A KR 1020130003293A KR 20130003293 A KR20130003293 A KR 20130003293A KR 101415584 B1 KR101415584 B1 KR 101415584B1
Authority
KR
South Korea
Prior art keywords
symbols
received
data
rti
decode
Prior art date
Application number
KR1020130003293A
Other languages
Korean (ko)
Inventor
박형곤
권민혜
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020130003293A priority Critical patent/KR101415584B1/en
Application granted granted Critical
Publication of KR101415584B1 publication Critical patent/KR101415584B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • H03M13/3927Log-Likelihood Ratio [LLR] computation by combination of forward and backward metrics into LLRs

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)

Abstract

An optimal approximate decoding method of a network coded data in an ad-hoc network composed of a source node, an intermediate node, and a reception node according to embodiments of the present invention comprises the steps of: enabling the reception node to receive similarity information (SI) composed of the statistic information of difference values of successive symbols and symbols; determining a reverse matrix of a full-rank coding coefficient matrix from the received T number of the symbols when the T number of the symbols which are sufficient to decode is received, and restoring an original symbol from the reverse matrix and the received symbols; and generating the K×T number of the coding coefficient matrix from the received K (K<T) number of the symbols when the T number of the symbols which are sufficient to decode is not received, and restoring the original symbols by generating the T-K length of an addition restriction condition respectively from the correlation information related to the T-K number of the omitted symbols and the (T-K)×T number of the addition restriction condition related to the T-K number of the omitted coding coefficient.

Description

소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법{APPARATUS AND METHOD FOR OPTIMAL APPROXIMATE DECODING OF NETWORK CODED DATA USING SOURCE DATA STATISTIC}[0001] APPARATUS AND METHOD FOR OPTIMAL APPROXIMATE DECODING OF NETWORK CODED DATA USING SOURCE DATA STATISTIC [0002]

본 발명은 네트워크 코딩에 관한 것으로, 더욱 상세하게는, 네트워크 코딩된 데이터의 근사 복호화 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to network coding, and more particularly, to an approximate decoding technique for network coded data.

무선 네트워크 기능을 가진 모바일 장치들이 일상적으로 사용됨에 따라, 무선 네트워크가 수많은 이기종의 장치들에 의해 지속적으로 변화하면서 동적으로 구성되고 있고, 이러한 동적인 네트워크 내에서 적시에 정보를 전송하는 기술의 중요성이 점차 높아지고 있다.As mobile devices with wireless networking capabilities are routinely used, the importance of the technology to transmit information in a timely manner within such a dynamic network is becoming more and more dynamic as the wireless network continues to change by a number of different types of devices It is gradually getting higher.

네트워크 코딩(Network coding)은 경로와 소스가 다양한 동적 네트워크에서 효율적인 분산 전송 알고리즘을 구축할 수 있는 방법론으로서 점차 활용도를 넓혀 가고 있다. 기존의 라우팅 기반의 네트워크 스킴은 단순히 점대점으로 데이터를 그대로 송신(forwarding)하는 것이어서 중간에 네트워크 구성이 바뀌면 기존의 라우팅 경로가 끊기거나 속도가 저하되어 서비스 품질이 영향을 받고 라우팅 경로를 유지하기 위한 오버헤드가 적지 않다. Network coding is increasingly being used as a methodology for constructing an efficient distributed transmission algorithm in dynamic networks with various paths and sources. The existing routing-based network scheme simply forwards the data to point-to-point, so if the network configuration changes in the middle, the existing routing path is cut off or the speed is lowered to affect the quality of service and to maintain the routing path There is not much overhead.

이에 비하여, 네트워크 코딩은 네트워크 내의 인접한 노드들이 패킷들을 수신하고 결합하여 출력하는 동작을 반복함으로써 정해진 라우팅 경로 없이도 데이터들이 목적지까지 흘러 가도록 하는 것이므로 네트워크 코딩은 대역폭이나 전력 자원, 연산 자원을 효율적으로 사용할 수 있고, 네트워크의 변동에 강인함을 보인다. 소스와 경로가 다양할수록, 즉 동일한 정보를 가지고 있는 노드도 많고 요청하는 노드도 많을 경우에, 이러한 네트워크 코딩의 성능이 최대화될 수 있다. On the other hand, network coding is a process by which neighboring nodes in the network repeatedly receive and output packets, thereby allowing data to flow to a destination without a predetermined routing path. Therefore, network coding can efficiently use bandwidth, power resources, And shows robustness to network fluctuations. As the source and path vary, that is, the number of nodes having the same information and the number of nodes requesting, the performance of such network coding can be maximized.

하지만 네트워크 코딩을 통해 전달되는 정보들은 데이터를 구성하는 패킷들이 원본 그대로 전달되는 것이 아니라 네트워크 노드가 적절한 연산을 통해 변조하기 때문에, 정해진 시간 내에 심볼들을 불완전하게 수신하였을 때에 데이터를 재구성할 수 없는 문제가 있다.However, since the information transmitted through network coding is not transmitted as it is in the original data, but the network node modulates it through proper operation, there is a problem that the data can not be reconstructed when the symbols are incompletely received within a predetermined time have.

특히 멀티미디어 데이터와 같이 시간 지연 민감성 데이터의 경우에는 허용 지연 시간 내에 패킷이 도착하지 않으면 종래의 디코딩 방법론들로는 데이터 복원 자체가 불가능하여 네트워크 코딩의 큰 한계로 지적되고 있다.In particular, in the case of time delay sensitive data such as multimedia data, if the packet does not arrive within the allowable delay time, data decoding can not be performed by the conventional decoding methodologies, which is pointed out as a big limitation of network coding.

이러한 문제점들에 대응하고자 제안된 근사 복호법은 네트워크 코딩된 데이터를 수신하였을 때에 수신된 데이터들의 상관 관계를 이용하여 손실된 데이터를 근사적으로 복원할 수 있는 기법이다. 예를 들어 현실 세계에서 측정되는 온도나 전압은 시간적으로 근접한 측정 데이터 사이의 상관 관계가 높기 때문에, 데이터 수집 장치가 전송받은 데이터가 네트워크 복호화에 충분하지 못한 경우에도 원천 데이터의 상관성 정보를 이용하면 근사적으로 복원될 수 있다.To cope with these problems, the proposed approximate decoding method is a technique that approximates lost data by using correlation of received data when receiving network coded data. For example, since the temperature or voltage measured in the real world has a high correlation between measurement data close in time, even when the data received by the data collection device is not sufficient for network decoding, Can be restored.

[1] Ho, T., M´edard, M., Shi, J., Effros, M. 및 Karger, D.R., "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003[1] Ho, T., M'edard, M., Shi, J., Effros, M. and Karger, D.R., "On randomized network coding, in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003 [2] H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109~213, Jan. 2013[2] H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109 to 213, Jan. 2013

본 발명이 해결하고자 하는 과제는 지연 민감성 데이터의 원할한 근사 복호를 위해, 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an optimal approximate decoding method of network coded data using source data statistics in order to provide a near approximate decoding of delay sensitive data.

본 발명의 일 측면에 따른 소스 노드, 중간 노드 및 수신 노드로 구성된 애드 혹 네트워크에서 네트워크 코딩된 데이터의 최적 근사 복호화 방법은,An optimal approximate decoding method of network coded data in an ad hoc network composed of a source node, an intermediate node and a receiving node according to an aspect of the present invention includes:

상기 수신 노드가 심볼들 및 연속하는 심볼들의 차이 값들의 통계 정보로 구성된 유사도 정보(SI)를 수신하는 단계;Receiving the similarity information (SI) comprising statistical information of differences between symbols and consecutive symbols;

복호화하기에 충분한 T 개의 심볼들이 수신된 경우에, 상기 수신 노드가, 수신된 T 개의 심볼들

Figure 112013002932251-pat00001
로부터 풀-랭크 코딩 계수 행렬
Figure 112013002932251-pat00002
의 역행렬
Figure 112013002932251-pat00003
을 결정하고, 역행렬
Figure 112013002932251-pat00004
및 수신 심볼들
Figure 112013002932251-pat00005
로부터 원본 심볼
Figure 112013002932251-pat00006
을 복원하는 단계; 및If enough T symbols are received to decode, the receiving node receives the received T symbols
Figure 112013002932251-pat00001
Rank coding matrix
Figure 112013002932251-pat00002
Inverse of
Figure 112013002932251-pat00003
, And the inverse matrix
Figure 112013002932251-pat00004
And received symbols
Figure 112013002932251-pat00005
The original symbol
Figure 112013002932251-pat00006
; And

복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우에, 상기 수신 노드가, 수신된 K 개(K<T)의 심볼들

Figure 112013002932251-pat00007
로부터 K×T의 코딩 계수 행렬
Figure 112013002932251-pat00008
를 생성하고, T-K 개의 누락된 코딩 계수에 관하여 (T-K)×T의 추가 제한 조건
Figure 112013002932251-pat00009
및 T-K 개의 누락된 심볼들에 관하여 상기 유사도 정보로부터 T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00010
을 각각 생성하여 원본 심볼들
Figure 112013002932251-pat00011
을 복원하는 단계를 포함할 수 있다.If not enough T symbols have been received to decode, the receiving node receives the received K (K < T) symbols
Figure 112013002932251-pat00007
A coding coefficient matrix of K x T from
Figure 112013002932251-pat00008
(TK) × T with respect to the TK missing coding coefficients,
Figure 112013002932251-pat00009
And an additional constraint condition of the TK length from the similarity information with respect to the TK missing symbols
Figure 112013002932251-pat00010
To generate original symbols
Figure 112013002932251-pat00011
And a step of reconstructing the image.

일 실시예에 있어서, 원본 심볼의 복원 단계에 앞서, 상기 수신 노드가 T 개의 심볼들이 복원하기 위해, 코딩 계수 행렬

Figure 112013002932251-pat00012
의 역행렬
Figure 112013002932251-pat00013
을 고유하게 결정할 수 있도록 T 개의 선형 비종속적인 심볼들이 수신되었는지 판정하는 단계를 더 포함할 수 있다.In one embodiment, prior to the step of recovering the original symbols, the receiving node may use a coding coefficient matrix
Figure 112013002932251-pat00012
Inverse of
Figure 112013002932251-pat00013
Lt; RTI ID = 0.0 &gt; T &lt; / RTI &gt;

일 실시예에 있어서, 상기 수신 노드가 수신하는 데이터는 소정의 시간 제한 내에 심볼들을 복호화하여 사용자에게 제공하여야 하는 지연 민감성 데이터일 수 있다.In one embodiment, the data received by the receiving node may be delay sensitive data that must be provided to a user by decoding symbols within a predetermined time limit.

일 실시예에 있어서, 상기 연속하는 심볼들의 차이 값들은 종형 유니모달 대칭 분포를 따르는 것일 수 있다.In one embodiment, the difference values of the consecutive symbols may be in accordance with a bilaterally symmetric distribution.

일 실시예에 있어서, 상기 유사도 정보(SI)는 연속하는 심볼들의 차이 값들의 평균 값일 수 있다.In one embodiment, the similarity information SI may be an average value of difference values of consecutive symbols.

일 실시예에 있어서, 상기 복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우에 원본 심볼

Figure 112013002932251-pat00014
을 복원하는 단계는,In one embodiment, if there are not enough T symbols received to decode,
Figure 112013002932251-pat00014
Wherein:

다음의 수학식The following equation

Figure 112013002932251-pat00015
Figure 112013002932251-pat00015

을 통해 수행되며,Lt; / RTI &gt;

여기서 (T-K)×T의 추가 제한 조건

Figure 112013002932251-pat00016
는 수신된 심볼들
Figure 112013002932251-pat00017
의 유사도 모델에 기초하여 생성될 수 있고, T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00018
은 소스 노드에서 전송되는 연속하는 심볼들의 차이 값들의 평균 값들으로부터 생성될 수 있다.Where (TK) x T additional constraints
Figure 112013002932251-pat00016
Lt; RTI ID = 0.0 &gt; received symbols
Figure 112013002932251-pat00017
Lt; RTI ID = 0.0 &gt; TK &lt; / RTI &gt; length,
Figure 112013002932251-pat00018
May be generated from the mean values of the difference values of consecutive symbols transmitted at the source node.

본 발명의 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법에 따르면, 소스 즉 소스 데이터의 통계 정보를 이용하여 수신 노드가 최적의 근사 복호를 수행할 수 있다.According to the optimal approximate decoding method of network coded data using the source data statistics of the present invention, the receiving node can perform optimal approximate decoding using the statistical information of the source or source data.

본 발명의 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법에 따르면, 소스 데이터의 통계 정보 중 평균값만 더 제공되는 것만으로, 데이터의 상관 관계가 아직 확정되지 않은 상태에서도 근사 복호법을 통해 수신된 데이터를 디코딩할 수 있다.According to the optimal approximate decoding method of the network coded data using the source data statistics of the present invention, only the average value of the statistical information of the source data is provided, and even if the correlation of the data is not yet determined, The received data can be decoded.

도 1은 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템을 개념적으로 표현한 다이어그램이다.
도 2는 본 발명의 일 실시예에 따른 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법을 예시한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법에서 유사성 정보(SI)의 값에 따른 오차 성능의 변화를 예시한 그래프이다.
1 is a diagram conceptually illustrating a distributed data transmission system to which the present invention can be applied.
2 is a flowchart illustrating an optimal approximate decoding method of network coded data using source data statistics according to an embodiment of the present invention.
FIG. 3 is a graph illustrating a change in error performance according to a value of similarity information SI in an optimal approximate decoding method of network coded data using source data statistics according to an embodiment of the present invention. Referring to FIG.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

아래의 설명은 크게 세 개의 섹션으로 나누어지는데, 섹션 1 및 2는 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템에 관한 소개과 함께 근사 복호화법의 기본적 원리를 설명하며, 섹션 3은 본 발명에 따른 근사 복호화법을 설명한다. 섹션 3에서 나타나는 벡터나 변수에 관한 표기 중 일부는 섹션 1 및 섹션 2에서 나타나는 것과 다를 수 있다는 점에 유의한다.
The following description is largely divided into three sections, Sections 1 and 2, which illustrate the basic principles of approximate decoding along with an introduction to a distributed data transmission system to which the present invention may be applied, The decoding method will be explained. Note that some of the notations for vector or variable appearing in Section 3 may differ from those shown in Section 1 and Section 2.

1. 랜덤 선형 네트워크 코딩1. Random linear network coding

도 1은 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템을 개념적으로 표현한 다이어그램이다. 소스 데이터가 네트워크 코딩 노드를 통하여 디코더(복호기)로 전달되는 과정이 나타나 있다. 이 시스템에서 전송되는 데이터는 서로 상관 관계를 갖는다. 상관 관계를 가지는 데이터는 센서 네트워크를 통해 측정된 데이터와 같은 외부 상관관계를 갖거나, 비디오 시퀀스 내의 이미지들과 같이 근접한 데이터 사이의 상관관계가 높은 데이터일 수 있다.1 is a diagram conceptually illustrating a distributed data transmission system to which the present invention can be applied. And the source data is transmitted to the decoder (decoder) through the network coding node. The data transmitted in this system has a correlation with each other. The correlated data may have external correlation, such as data measured over the sensor network, or may be highly correlated data, such as images within a video sequence.

이러한 상관관계 데이터의 전송에 대한 연구는 분산 시스템에서 널리 수행되어 왔다. 네트워크 코딩 기법은 네트워크를 통해 상관관계 데이터를 전송하는 기법으로 연구되었다.Research on the transmission of such correlation data has been widely performed in distributed systems. Network coding techniques have been studied as a technique for transmitting correlation data over a network.

도 1에서 오버레이 애드 혹 네트워크(overlay ad hoc network)는 소스 노드들, 중간 노드들 및 수신 노드들로 구성되어 있고, 소스 데이터는 소스 노드에서 네트워크 코딩 연산을 담당하는 중간 노드들을 거쳐 수신 노드까지 전달된다. 중간 노드는 수신한 데이터를 그대로 전달할 수도 있지만, 다른 소스 노드들에서 수신한 데이터들을 결합(combining)하여 출력한다.In FIG. 1, an overlay ad hoc network is composed of source nodes, intermediate nodes, and receiving nodes, and the source data is transmitted from the source node to the receiving node through intermediate nodes responsible for network coding operations do. The intermediate node may transmit the received data as it is, but may combine and output the data received from the other source nodes.

다양한 네트워크 코딩 기법 중에서 본 발명에서 사용하는 랜덤 선형 네트워크 코딩(RLNC: Random Linear Network Coding) 기법은 Ho, T., M´edard, M., Shi, J., Effros, M. 및 Karger, D.R., "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003을 참조한다.Random Linear Network Coding (RLNC) techniques used in the present invention among various network coding schemes are described in Ho, T., M'edard, M., Shi, J., Effros, M. and Karger, DR, "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003.

소스 집합

Figure 112013002932251-pat00019
내의 L 개의 소스 심볼들은 라고 표시되며, 각각 이산(discrete)이면서 상관되어(correlated) 있고, 1≤i≤L일 때에
Figure 112013002932251-pat00021
이다.
Figure 112013002932251-pat00022
Figure 112013002932251-pat00023
의 알파벳 집합(alphabet set)이고 |
Figure 112013002932251-pat00024
|는
Figure 112013002932251-pat00025
의 크기를 의미한다. 네트워크 코딩 연산은 갈로와 필드(GF: Galois Field) 내에서 수행되기 때문에, 각각의
Figure 112013002932251-pat00026
은 GF 내의 원소로 고려되어야 한다.
Figure 112013002932251-pat00027
가 실수 필드(
Figure 112013002932251-pat00028
, field of real numbers)에 있는 수인지 아니면 GF에 있는 수인지 여부를 명확하게 특정하기 위해서, 수학식 1과 같은 식별 함수(identity function)을 정의할 수 있다.Source set
Figure 112013002932251-pat00019
Lt; RTI ID = 0.0 &gt; L & And are respectively discrete and correlated, and when 1? I? L
Figure 112013002932251-pat00021
to be.
Figure 112013002932251-pat00022
The
Figure 112013002932251-pat00023
Of the alphabet set (alphabet set) and |
Figure 112013002932251-pat00024
| Is
Figure 112013002932251-pat00025
. Since the network coding operation is performed in a Galois Field (GF), each
Figure 112013002932251-pat00026
Should be considered as elements in the GF.
Figure 112013002932251-pat00027
Is a real field (
Figure 112013002932251-pat00028
, field of real numbers, or the number in GF, it is possible to define an identity function as shown in equation (1).

Figure 112013002932251-pat00029
Figure 112013002932251-pat00029

이는

Figure 112013002932251-pat00030
Figure 112013002932251-pat00031
을 의미하는 GF 내의 원소임을 의미한다.
Figure 112013002932251-pat00032
인 경우에,
Figure 112013002932251-pat00033
는 L 개의 요소를 가지는 N 번째 소스 데이터 집합이다.
Figure 112013002932251-pat00034
Figure 112013002932251-pat00035
의 알파벳 세트를 의미한다. 또한 본 명세서에서 행렬 또는 벡터의 위 첨자로 쓰이는 T는 행렬 또는 벡터의 전치(transpose)를 의미하며, 실수값 T 또는 아래 첨자로 쓰이는 T와 구별됨을 유의한다.this is
Figure 112013002932251-pat00030
end
Figure 112013002932251-pat00031
Which means that it is an element in GF.
Figure 112013002932251-pat00032
in case of,
Figure 112013002932251-pat00033
Is the Nth source dataset with L elements.
Figure 112013002932251-pat00034
The
Figure 112013002932251-pat00035
&Lt; / RTI &gt; Also note that T, used as a superscript of a matrix or vector herein, is a transpose of a matrix or vector, and is distinguished from a real value T or a T used as a subscript.

GF 내의 연산 기호를 가지고 서술하는 수식에서는 모든 연산은 GF 내에서 일어나는 것을 암시하므로,

Figure 112013002932251-pat00036
기호는 생략된다.
Figure 112013002932251-pat00037
Figure 112013002932251-pat00038
연산자들은 각각 GF 내에서 정의되는 합산 연산과 승산 연산을 의미한다.In the formula describing with the operation symbols in the GF, it implies that all operations occur in the GF,
Figure 112013002932251-pat00036
The symbol is omitted.
Figure 112013002932251-pat00037
Wow
Figure 112013002932251-pat00038
The operators refer to summation and multiplication operations defined in GF, respectively.

RLNC를 이용하는 중간 노드 k는 다음 수학식 2와 같이 패킷을 생성하여 전송한다.The intermediate node k using the RLNC generates and transmits a packet according to Equation (2).

Figure 112013002932251-pat00039
Figure 112013002932251-pat00039

수학식 2는

Figure 112013002932251-pat00040
와 코딩 계수
Figure 112013002932251-pat00041
의 GF에서의 선형 결합(linear combination in GF)을 의미한다. i는 1≤i≤L인 임의의 정수이고, T는 하나의 패킷 내에 결합된 데이터의 개수이다.
Figure 112013002932251-pat00042
Figure 112013002932251-pat00043
는 항상 GF 내의 원소로 간주될 수 있다. 코딩 계수들은 크기 2M을 가지고 GF로부터 균일하고 랜덤하게 선정되는데, 이를
Figure 112013002932251-pat00044
라고 한다. 이는 GF 크기가 M에 의해 결정되며,
Figure 112013002932251-pat00045
임을 의미한다.Equation (2)
Figure 112013002932251-pat00040
And a coding coefficient
Figure 112013002932251-pat00041
Means a linear combination in the GF. i is any integer with 1? i? L, and T is the number of pieces of data combined in one packet.
Figure 112013002932251-pat00042
Wow
Figure 112013002932251-pat00043
Can always be regarded as an element in the GF. The coding coefficients are chosen uniformly and randomly from GF with size 2 M ,
Figure 112013002932251-pat00044
. This is because the GF size is determined by M,
Figure 112013002932251-pat00045
.

본 발명에서는 특히, 특성값 2를 가지는 GF, 즉

Figure 112013002932251-pat00046
에서 합산 연산은 XOR 연산으로 수행될 수 있다. GF의 크기는 소스 심볼에 관하여 수행될 수 있는 코딩 연산들의 집합을 결정한다. 따라서 입력 알파벳의 크기가
Figure 112013002932251-pat00047
라고 가정할 수 있다. 만약
Figure 112013002932251-pat00048
인 경우에는 입력 집합은 예를 들어 소스 결합(source binning) 또는 양자화 등을 이용하여 축소되고 그럼으로써 입력 집합은 GF 크기, 즉 2M을 초과하지 않게 된다.In the present invention, in particular, a GF having a characteristic value of 2
Figure 112013002932251-pat00046
The summation operation can be performed by an XOR operation. The size of GF determines the set of coding operations that can be performed with respect to the source symbol. Therefore, the size of the input alphabet is
Figure 112013002932251-pat00047
. if
Figure 112013002932251-pat00048
The input set is reduced using, for example, source binning or quantization, so that the input set does not exceed the GF size, i.e. 2 M.

각각의 노드에서 생성되는 패킷들은 이웃하는 노드들로 전송되며 최종적으로 수신 노드들로 향한다. 만약 수신 노드의 디코더에서 K 개의 이노배티브(innovative) 즉, 선형 비종속적(linear independent)인 심볼 또는 패킷들,

Figure 112013002932251-pat00049
이 수신되어 연산에 쓰일 수 있다면, 선형 시스템
Figure 112013002932251-pat00050
는 다음 수학식 3과 같이 표현될 수 있다.The packets generated at each node are transmitted to neighboring nodes and finally to the receiving nodes. If at the decoder of the receiving node there are K innovative or linearly independent symbols or packets,
Figure 112013002932251-pat00049
Lt; / RTI &gt; can be received and used in an operation,
Figure 112013002932251-pat00050
Can be expressed by the following equation (3).

Figure 112013002932251-pat00051
Figure 112013002932251-pat00051

여기서

Figure 112013002932251-pat00052
연산자는 유한 필드(finite field)에서 행렬들 사이의 승산 연산을 의미한다. here
Figure 112013002932251-pat00052
The operator denotes a multiplication operation between matrices in a finite field.

K×T 행렬

Figure 112013002932251-pat00053
는 코딩 계수 행렬(coding coefficient matrix)이라고 하는데, 컬럼 벡터들
Figure 112013002932251-pat00054
로 구성되며, 수신된 심볼들의 유사도 모델에 기초하여 생성된다. 코딩 계수 행렬
Figure 112013002932251-pat00055
를 유사도 모델에 기초하여 생성하는 방법은 네트워크 코딩의 복호화 기법에 숙련된 자들에게 주지된 방법이므로 설명을 생략한다.K × T matrix
Figure 112013002932251-pat00053
Is called a coding coefficient matrix, and column vectors &lt; RTI ID = 0.0 &gt;
Figure 112013002932251-pat00054
And is generated based on the similarity model of the received symbols. Coding coefficient matrix
Figure 112013002932251-pat00055
Based on the degree-of-similarity model is a method well known to those skilled in the network coding decoding technique, and thus a description thereof will be omitted.

만약 이러한 코딩 계수 행렬

Figure 112014028543438-pat00056
가 풀-랭크(full-rank), 즉 K=T인 경우, 다시 말해 수신된 심볼들의 개수 K가 송신된 심볼들의 개수 T와 같아 복호화하기에 충분한 T 개의 심볼들이 수신된 경우에, 수학식 3의 선형 시스템의 해(solution)인
Figure 112014028543438-pat00057
는, 코딩 계수 행렬
Figure 112014028543438-pat00058
의 역행렬
Figure 112014028543438-pat00059
가 고유하게 결정되고 또한 이에 상응하여
Figure 112014028543438-pat00060
이기 때문에, 다음 수학식 4와 같이 고유하게 결정될 수 있다.If such a coding coefficient matrix
Figure 112014028543438-pat00056
That is, if the number of received symbols K is equal to the number of transmitted symbols T, and T symbols sufficient to decode are received, the following equation (3) is obtained: &lt; EMI ID = Of the linear system of
Figure 112014028543438-pat00057
, A coding coefficient matrix
Figure 112014028543438-pat00058
Inverse of
Figure 112014028543438-pat00059
Is uniquely determined and correspondingly
Figure 112014028543438-pat00060
, It can be uniquely determined as shown in the following equation (4).

Figure 112013002932251-pat00061
Figure 112013002932251-pat00061

코딩 계수 행렬의 역행렬은 GF 상에서 가우시안 소거법(Gaussian elimination)을 수행하는 것과 같은 주지의 방법을 통해 쉽게 얻을 수 있다.The inverse matrix of the coding coefficient matrix can be easily obtained by a known method such as performing a Gaussian elimination on GF.

문제는, 만약 고유한 역행렬

Figure 112014028543438-pat00062
을 결정하기에 충분하지 않은 수의 심볼들만 수신된 경우에, 즉 K<T인 경우, 다시 말해, 수신된 심볼들의 개수 K가 송신된 심볼들의 개수 T보다 적어 복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우에, 코딩 계수 행렬
Figure 112014028543438-pat00063
가 풀-랭크가 아니기 때문에 수학식 3의 선형 시스템의 해
Figure 112014028543438-pat00064
는 유일하게 결정되지 못할 뿐 아니라, 무한한 개수로 얻어질 수 있다. The problem is, if a unique inverse matrix
Figure 112014028543438-pat00062
That is, K < T, that is, if the number K of received symbols is less than the number T of transmitted symbols and T symbols sufficient to decode are received If not, the coding coefficient matrix
Figure 112014028543438-pat00063
Is not a full-rank, the solution of the linear system of equation (3)
Figure 112014028543438-pat00064
Not only can not be determined uniquely, but can be obtained in an infinite number.

근사 복호화법은 이러한 문제를 해결하기 위해 도입된 것으로, 근사적으로 결정된 소스 심볼들이 불충분하게 수신된 데이터를 가지고 재구축된다.
The approximate decoding method is introduced to solve this problem, and the approximately determined source symbols are reconstructed with insufficiently received data.

2. 근사 복호화법2. Approximate decoding method

복호기(decoder)는 심볼 집합 y를 수신하면 소스 데이터를 복원할 수 있다. 만약 전송 절차 중에 패킷 지연이나 손실과 같은 외부적 요인이 있거나, 또는 무작위로 선정되는 코딩 계수 행렬

Figure 112013002932251-pat00065
이 특이 행렬(singular matrix)인 경우에는, 코딩 계수 행렬
Figure 112013002932251-pat00066
의 역행렬
Figure 112013002932251-pat00067
은 얻어질 수 없고 수학식 3의 선형 시스템에서 해가 유일하지 않을 수 있다.The decoder can recover the source data upon receipt of the symbol set y. If there are external factors such as packet delay or loss during the transmission procedure, or a randomly selected coding coefficient matrix
Figure 112013002932251-pat00065
In the case of this singular matrix, the coding coefficient matrix
Figure 112013002932251-pat00066
Inverse of
Figure 112013002932251-pat00067
Can not be obtained and the solution may not be unique in the linear system of equation (3).

이러한 문제를 해결하기 위해 근사 복호화법은 추가적인 제한 조건들(additional constraints)을 이용하여 코딩 계수 행렬을 풀-랭크로 만들 수 있다. To solve this problem, the approximate decoding method can make the coding coefficient matrix full-rank using additional constraints.

입력된 데이터의 상관 관계가 복호화 절차에서 추가되는 추가 제한 조건들

Figure 112013002932251-pat00068
Figure 112013002932251-pat00069
를 구축하는 데에 이용될 수 있다. 추가 제한 조건들
Figure 112013002932251-pat00070
Figure 112013002932251-pat00071
의 모든 요소들(elements) 역시 GF 내의 값이다.The additional constraints that the correlation of the input data adds in the decryption procedure
Figure 112013002932251-pat00068
Wow
Figure 112013002932251-pat00069
Can be used for constructing. Additional Restrictions
Figure 112013002932251-pat00070
And
Figure 112013002932251-pat00071
All the elements of GF are also values in GF.

추가 제한 조건들

Figure 112013002932251-pat00072
Figure 112013002932251-pat00073
을 추가함으로써 선형 시스템은 유일한 해를 가질 수 있게 되고 유일한 해
Figure 112013002932251-pat00074
는 다음 수학식 5와 같이 표현될 수 있다.Additional Restrictions
Figure 112013002932251-pat00072
And
Figure 112013002932251-pat00073
By adding the linear system can be the only solution and the only solution
Figure 112013002932251-pat00074
Can be expressed by the following equation (5).

Figure 112013002932251-pat00075
Figure 112013002932251-pat00075

추가 제한 조건들

Figure 112013002932251-pat00076
Figure 112013002932251-pat00077
내의 계수들은 소스의 모델들에 기초하여 결정될 수 있다.
Figure 112013002932251-pat00078
가 결정되면, 원본 데이터의 근사 심볼
Figure 112013002932251-pat00079
은 수학식 1의 식별 함수들에 의해
Figure 112013002932251-pat00080
과 같이 얻어질 수 있다. Additional Restrictions
Figure 112013002932251-pat00076
And
Figure 112013002932251-pat00077
The coefficients in the matrix can be determined based on the models of the source.
Figure 112013002932251-pat00078
Is determined, an approximate symbol of the original data
Figure 112013002932251-pat00079
Is determined by the identification functions of Equation (1)
Figure 112013002932251-pat00080
Can be obtained.

좀더 상세한 내용은 H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109~213, Jan. 2013 논문을 참조할 수 있다.H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109 to 213, Jan. 2013 thesis can be referred to.

(T-K)×T 행렬

Figure 112013002932251-pat00081
는 유사도 모델에 기초하여 생성될 수 있는데, 예를 들어 가장 유사한 데이터
Figure 112013002932251-pat00082
Figure 112013002932251-pat00083
의 위치에 상응하는 자리에 값 "1" 및 "1"을 가지는 두 개의 요소들을 제외하고 각 행이 0으로 구성되도록 생성된다. 또한
Figure 112013002932251-pat00084
은 T-K 길이를 가지는 벡터로서 결정되는데, 예를 들어 모든 값이 0일 수 있다(
Figure 112013002932251-pat00085
).(TK) x T matrix
Figure 112013002932251-pat00081
May be generated based on the similarity model, for example, the most similar data
Figure 112013002932251-pat00082
And
Figure 112013002932251-pat00083
Quot; 1 "and" 1 "in the place corresponding to the position of " 1 &quot; Also
Figure 112013002932251-pat00084
Is determined as a vector having a TK length, e.g., all values may be zero (
Figure 112013002932251-pat00085
).

이렇게 하여 원본 데이터의 근사 심볼

Figure 112013002932251-pat00086
은 다음의 수학식 6과 같이 얻어질 수 있다.Thus, an approximate symbol of the original data
Figure 112013002932251-pat00086
Can be obtained by the following Equation (6).

Figure 112013002932251-pat00087
Figure 112013002932251-pat00087

이를 통해 복호화기는 일부 심볼들이 완전한 복호화에 불충분하더라도 원래의 심볼들을 근사적으로 복원할 수 있다.This allows the decoder to approximate the original symbols even though some symbols are insufficient for complete decoding.

이러한 기존의 알고리즘의 핵심 아이디어는 소스의 상관 관계에 기초하여 잉여 방정식을 추가하여 수학식 6에서

Figure 112013002932251-pat00088
를 가역적으로(invertible) 만든다는 점이다. 이는 네트워크 코딩된 데이터에 관하여 데이터 복원 방법론의 새로운 패러다임을 제시한다. The core idea of these existing algorithms is to add a surplus equation based on the source correlation,
Figure 112013002932251-pat00088
To make it invertible. This presents a new paradigm of data restoration methodology for network coded data.

하지만 이렇게 기존에 제안된 근사 복호화 방법론들은 추가 제한 조건 행렬

Figure 112013002932251-pat00089
Figure 112013002932251-pat00090
가 경험론적 방법론(heuristic approach)에 의존하는 경우가 대부분이어서 소스 유사성을 제대로 재현하지 못하였고, 이는 제한된 성능으로 이어졌다.
However, the above-described approximate decoding methodologies are not limited to the additional constraint matrix
Figure 112013002932251-pat00089
Wow
Figure 112013002932251-pat00090
Is largely dependent on the heuristic approach, which does not reproduce the source similarity well, leading to limited performance.

3. 본 발명의 상관 관계를 가진 데이터의 근사 복호화법3. An approximate decoding method of data having a correlation of the present invention

3.1 소스 데이터의 분포 모델3.1 Distribution model of source data

본 발명의 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법은, 종래의 경험론적인 방법론에서 벗어나 좀더 객관적인 방법론을 통해 향상된 성능을 얻기 위해, 소스의 상관 관계에 관한 통계적 분석을 고려하였다.The optimal approximate decoding method of the network coded data using the source data statistics of the present invention considers statistical analysis of the correlation of the sources in order to get improved performance through a more objective methodology and away from the conventional empirical methodology.

소스의 상관 관계는 연속하는 소스 데이터의 차이 집합

Figure 112013002932251-pat00091
내에서 나타나는 통계적으로 특징지어질 수 있다.The source correlation is the difference set of consecutive source data
Figure 112013002932251-pat00091
Can be statistically characterized.

통계적인 분석을 위해, 네트워크 코딩 절차 중에, 결합(combining)을 수행하기에 앞서, 데이터 집합은 버퍼 내에서 크기 순서대로 정렬될 수 있다.For statistical analysis, during the network coding procedure, prior to performing the combining, the data sets may be sorted in size order in the buffer.

순서는 하위 첨자 N으로 표시될 수 있다. 따라서, xN+1은 xN보다 작지 않으며,

Figure 112013002932251-pat00092
라고 할 수 있다.The sequence can be denoted by the subscript N. Thus, x N + 1 is not less than x N ,
Figure 112013002932251-pat00092
.

N 번째 소스 데이터 xN와 N+1 번째 소스 데이터 xN+1 사이의 차이를 의미하는 L 개의 요소들로 된 차이 집합을

Figure 112013002932251-pat00093
이라 하면, N 번째 차이 집합
Figure 112013002932251-pat00094
의 i 번째 요소는
Figure 112013002932251-pat00095
이다.A difference set of L elements representing the difference between the Nth source data x N and the (N + 1) th source data x N + 1
Figure 112013002932251-pat00093
, The Nth difference set
Figure 112013002932251-pat00094
The i-th element of
Figure 112013002932251-pat00095
to be.

이때,

Figure 112013002932251-pat00096
의 각 요소
Figure 112013002932251-pat00097
은 각자의 평균 Δ과 분산 σ2를 가지는 종형 유니모달 대칭 분포 함수(bell-shaped unimodal symmetric distribution) Ψ(Δ, σ2)를 따른다고 가정할 수 있다. 유니모달 대칭 분포 함수는 어떤 데이터 그룹을 모델링하는 데에 널리 사용되며, 예를 들어 가우시안 분포나 라플라시안 분포와 같은 주지의 분포 함수들이 있다.At this time,
Figure 112013002932251-pat00096
Each element of
Figure 112013002932251-pat00097
Can be assumed to follow a bell-shaped unimodal symmetric distribution Ψ (Δ, σ 2 ) with an average Δ and a variance σ 2 of each. The Unimodulus symmetric distribution function is widely used to model any data group, for example, well known distribution functions such as Gaussian distribution or Laplacian distribution.

따라서 N+1 번째 소스 데이터 xN+1은 다음 수학식 7과 같이 표현될 수 있다.Therefore, the (N + 1) -th source data x N + 1 can be expressed by Equation (7).

Figure 112013002932251-pat00098
Figure 112013002932251-pat00098

이때,

Figure 112013002932251-pat00099
이므로, N+1 번째 소스 데이터 xN+1 내의 데이터
Figure 112013002932251-pat00100
는 N 번째 소스 데이터 xN 내의
Figure 112013002932251-pat00101
와 차이 집합
Figure 112013002932251-pat00102
내의
Figure 112013002932251-pat00103
을 이용하여 수학식 8과 같이 표현될 수 있다.At this time,
Figure 112013002932251-pat00099
, The data in the (N + 1) -th source data x N + 1
Figure 112013002932251-pat00100
Th &gt; source data x N
Figure 112013002932251-pat00101
And the difference set
Figure 112013002932251-pat00102
undergarment
Figure 112013002932251-pat00103
Can be expressed as Equation (8).

Figure 112013002932251-pat00104
Figure 112013002932251-pat00104

이와 같은 모델에서, 연속하는 두 소스 데이터 사이의 평균 차이는 평균 Δ로 나타낼 수 있다. 본 명세서에서 평균 Δ은 또한 유사도 정보(SI:similarity information)이라고 호칭될 수 있다. In this model, the average difference between two consecutive source data can be denoted by the mean?. In this specification, the average? May also be referred to as similarity information (SI).

근사 복호화법에서 소스의 상관 관계는 유사도 모델(similarity model)을 이용하여 표현될 수 있다는 점과, 이때 소스 유사도는 데이터 사이의 거리로 측정될 수 있다는 점은 주지되어 있다. It is noted that in the approximate decoding method, the source correlation can be expressed using a similarity model, and the source similarity can be measured by the distance between the data.

따라서, 이러한 거리 측정에 비추어 볼 때에, 만약 소스 데이터들 사이의 거리의 평균 Δ이 커지면 상관 관계는 줄어들고, 역으로 소스 데이터들 사이의 거리의 평균 Δ이 작아지면 상관 관계는 커진다고 할 수 있다.Therefore, in view of this distance measurement, if the average? Of the distances between the source data is large, the correlation is reduced. On the contrary, if the average? Of the distances between the source data is small, the correlation becomes large.

한편, 만약 소스 데이터의 값들이 GF 크기를 초과하지 않는다고 하면, 차이 집합

Figure 112013002932251-pat00105
내의 요소들의 값과 SI의 값은 GF(2M) 공간 내에서 결정될 수 있다.
On the other hand, if the values of the source data do not exceed the GF size,
Figure 112013002932251-pat00105
The values of the elements in the GF and the values of SI can be determined in the GF (2 M ) space.

3.2 대칭 분포된 소스 데이터의 근사 복호화법3.2 Approximate Decoding of Symmetrically Distributed Source Data

대칭 분포된 소스 데이터의 근사 복호하기 위해서는 수학식 5의 방정식이 적절하게 구성되어야 한다. 다시 말해 매 N 번째 소스 데이터마다, T-K 개의 요소들로 구성되는 추가 제한 조건

Figure 112013002932251-pat00106
는 T-K 데이터의 통계적 특성에 기초하여 결정된다.For the approximate decoding of symmetrically distributed source data, the equation of Equation (5) should be appropriately constructed. In other words, for every Nth source data, an additional constraint consisting of TK elements
Figure 112013002932251-pat00106
Is determined based on the statistical characteristics of the TK data.

예를 들어, N 번째 시간 슬롯의 소스 데이터 xN 의 i 번째 데이터 요소

Figure 112013002932251-pat00107
와 N+1 번째 시간 슬롯의 소스 데이터 xN+1 내의 i 번째 데이터 요소
Figure 112013002932251-pat00108
의 차이인
Figure 112013002932251-pat00109
값들이 각각 종형 유니모달 대칭 분포 Ψ(Δ, σ2)를 따를 경우에, 전송 중에 데이터가 손실되거나 수신되지 않아 추가되어야 하는 T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00110
의 제한 조건의 요소들은 손실된 데이터 요소의 차이 평균들 Δ 값로 구성된다. For example, the i-th data element of the source data x N of the Nth time slot
Figure 112013002932251-pat00107
And the i-th data element in the source data x N + 1 of the ( N + 1)
Figure 112013002932251-pat00108
Difference of
Figure 112013002932251-pat00109
When the values follow the vertical symmetric distribution Ψ (Δ, σ 2 ), respectively, the additional constraints of TK length, which must be added because data is lost or not received during transmission
Figure 112013002932251-pat00110
The elements of the constraint are composed of the difference mean values of the missing data elements.

이를 위해, 소스 노드는 데이터 요소들의 차이 집합

Figure 112013002932251-pat00111
의 분포 Ψ(Δ, σ2)를 지속적으로 추적하며,
Figure 112013002932251-pat00112
의 분포 Ψ(Δ, σ2)에 기초한 유사도 정보를 수신 노드에 전송한다.To this end, the source node may use a different set of data elements
Figure 112013002932251-pat00111
(&Amp;thetas; 2 ) continuously,
Figure 112013002932251-pat00112
To the receiving node, similarity information based on the distribution? (?,? 2 ).

수신 노드는 유사도 정보, 특히 차이 집합

Figure 112013002932251-pat00113
의 평균 Δ을 수신하고, 만약 수신된 데이터에 누락, 손실된 데이터 요소가 있다면, 수신된 유사도 정보, 특히 평균들 Δ에 기초하여 추가 제한 조건
Figure 112013002932251-pat00114
을 생성하여 근사 복호화할 수 있다.The receiving node may store similarity information,
Figure 112013002932251-pat00113
And if there is a missing or missing data element in the received data, the received similarity information, in particular the additional constraints &lt; RTI ID = 0.0 &gt;
Figure 112013002932251-pat00114
And approximate decoding can be performed.

도 2는 본 발명의 일 실시예에 따른 소스 데이터 통계를 이용한 네트워크 코딩된 데이터의 최적 근사 복호화 방법을 예시한 순서도이다.2 is a flowchart illustrating an optimal approximate decoding method of network coded data using source data statistics according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 최적 근사 복호화 방법은 단계(S21)에서, 수신 노드가 중간 노드로부터 복호화를 위해 심볼들 및 연속하는 심볼들의 차이 값들의 통계 정보로 구성된 유사도 정보(SI)를 수신하는 단계로부터 시작할 수 있다.Referring to FIG. 2, the optimal approximate decoding method of the present invention receives, in step S21, similarity information SI composed of statistical information of symbols and difference values of consecutive symbols for decoding from an intermediate node &Lt; / RTI &gt;

실시예에 따라, 연속하는 심볼들의 차이 값들은 종형 유니모달 대칭 분포를 따르고, 유사도 정보(SI)는 연속하는 심볼들의 차이 값들의 평균 값이거나, 또는 평균 값 및 분산 값일 수 있다.Depending on the embodiment, the difference values of consecutive symbols follow a bilaterally symmetric distribution, and the similarity information SI may be an average value of the difference values of consecutive symbols, or may be an average value and a variance value.

이어서, 단계(S22)에서, 수신 노드는 복호화에 충분한 심볼들이 수신되었는지 판정한다.Then, in step S22, the receiving node determines whether sufficient symbols have been received for decryption.

구체적으로, 수신 노드는 T 개의 심볼들이 복원하기 위해, 코딩 계수 행렬

Figure 112013002932251-pat00115
의 역행렬
Figure 112013002932251-pat00116
을 고유하게 결정할 수 있도록 T 개의 선형 비종속적인 심볼들이 수신되었는지 판정할 수 있다.In particular, the receiving node uses a coding coefficient matrix &lt; RTI ID = 0.0 &gt;
Figure 112013002932251-pat00115
Inverse of
Figure 112013002932251-pat00116
Lt; RTI ID = 0.0 &gt; T &lt; / RTI &gt;

실시예에 따라 수신 노드가 수신하는 데이터는 소정의 시간 제한 내에 심볼들을 복호화하여 사용자에게 제공하여야 하는 지연 민감성 데이터일 수 있다.According to an exemplary embodiment, the data received by the receiving node may be delay sensitive data that must be provided to a user by decoding symbols within a predetermined time limit.

만약 K=T인 K 개의 심볼이 수신되어, 단계(S22)에서 충분한 심볼들이 수신되었다고 판정하면 단계(S23)로 진행한다.If K symbols with K = T are received and it is determined in step S22 that sufficient symbols have been received, the flow proceeds to step S23.

단계(S23)에서, 수신 노드는, 수신된 T 개의 심볼들

Figure 112013002932251-pat00117
로부터 풀-랭크 코딩 계수 행렬
Figure 112013002932251-pat00118
의 역행렬
Figure 112013002932251-pat00119
을 결정하고, 역행렬
Figure 112013002932251-pat00120
및 수신 심볼들
Figure 112013002932251-pat00121
로부터 원본 심볼
Figure 112013002932251-pat00122
을 복원한다.In step S23, the receiving node receives the received T symbols
Figure 112013002932251-pat00117
Rank coding matrix
Figure 112013002932251-pat00118
Inverse of
Figure 112013002932251-pat00119
, And the inverse matrix
Figure 112013002932251-pat00120
And received symbols
Figure 112013002932251-pat00121
The original symbol
Figure 112013002932251-pat00122
.

만약 K<T인 K 개의 심볼들만 수신되어, 단계(S22)에서 충분한 심볼들이 수신되지 않았다고 판정하면, 단계(S24)로 진행한다.If only K symbols of K < T are received and it is determined in step S22 that sufficient symbols have not been received, the process proceeds to step S24.

단계(S24)에서, 수신 노드는, 수신된 K 개의 심볼들

Figure 112013002932251-pat00123
로부터 K×T의 코딩 계수 행렬
Figure 112013002932251-pat00124
를 생성하고, T-K 개의 누락된 코딩 계수에 관하여 (T-K)×T의 추가 제한 조건
Figure 112013002932251-pat00125
및 T-K 개의 누락된 심볼들에 관하여 유사도 정보로부터 T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00126
을 각각 생성하여 다음의 수학식 9를 통해 원본 심볼들
Figure 112013002932251-pat00127
을 복원한다.In step S24, the receiving node receives the received K symbols
Figure 112013002932251-pat00123
A coding coefficient matrix of K x T from
Figure 112013002932251-pat00124
(TK) × T with respect to the TK missing coding coefficients,
Figure 112013002932251-pat00125
And additional constraints of the TK length from the similarity information with respect to the TK missing symbols
Figure 112013002932251-pat00126
And generates the original symbols &lt; RTI ID = 0.0 &gt;
Figure 112013002932251-pat00127
.

Figure 112013002932251-pat00128
Figure 112013002932251-pat00128

구체적으로, (T-K)×T의 추가 제한 조건

Figure 112013002932251-pat00129
는 수신된 심볼들
Figure 112013002932251-pat00130
의 유사도 모델에 기초하여 생성될 수 있고, T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00131
은 소스 노드에서 전송되는 연속하는 심볼들의 차이 값들의 평균 값들으로부터 생성될 수 있다.
Specifically, the additional constraint (TK) x T
Figure 112013002932251-pat00129
Lt; RTI ID = 0.0 &gt; received symbols
Figure 112013002932251-pat00130
Lt; RTI ID = 0.0 &gt; TK &lt; / RTI &gt; length,
Figure 112013002932251-pat00131
May be generated from the mean values of the difference values of consecutive symbols transmitted at the source node.

3.3 성능 평가3.3 Performance Evaluation

표현의 간결함을 위해

Figure 112013002932251-pat00132
Figure 112013002932251-pat00133
라 표시하고,
Figure 112013002932251-pat00134
중 n 번째 요소를
Figure 112013002932251-pat00135
라 하며,
Figure 112013002932251-pat00136
이 가장 좋은 복호 성능을 보여준다고 가정할 경우에,
Figure 112013002932251-pat00137
대신에
Figure 112013002932251-pat00138
이 적용되어 디코딩되었을 때의 오차
Figure 112013002932251-pat00139
에 따른 기대 오차 함수는 다음 수학식 10과 같이 표현될 수 있다.For simplicity of expression
Figure 112013002932251-pat00132
To
Figure 112013002932251-pat00133
Respectively,
Figure 112013002932251-pat00134
The nth element of
Figure 112013002932251-pat00135
And,
Figure 112013002932251-pat00136
Assuming that this shows the best decoding performance,
Figure 112013002932251-pat00137
Instead of
Figure 112013002932251-pat00138
And the error when decoding is applied
Figure 112013002932251-pat00139
Can be expressed as Equation (10). &Quot; (10) &quot;

Figure 112013002932251-pat00140
Figure 112013002932251-pat00140

Figure 112013002932251-pat00141
Figure 112013002932251-pat00141

여기서,

Figure 112013002932251-pat00142
Figure 112013002932251-pat00143
가 선택될 확률이고
Figure 112013002932251-pat00144
Figure 112013002932251-pat00145
가 선택될 확률이며,
Figure 112013002932251-pat00146
는 근사 복호화 알고리즘에 기초한 오차를 모델링한 함수이다.here,
Figure 112013002932251-pat00142
The
Figure 112013002932251-pat00143
Is the probability of being selected
Figure 112013002932251-pat00144
The
Figure 112013002932251-pat00145
Is the probability of being selected,
Figure 112013002932251-pat00146
Is a function modeling an error based on an approximate decoding algorithm.

수학식 10에 기초하여, GF(210) 내에서,

Figure 112013002932251-pat00147
=Δ=16으로 정해놓고 소스 데이터들을 생성하면서, 다양한
Figure 112013002932251-pat00148
값들에 관하여 디코딩을 1000 회에 걸쳐 실시한 결과가 도 3에 나타나 있다.Based on Equation ( 10 ), within GF (2 10 )
Figure 112013002932251-pat00147
= [Delta] = 16 and generating the source data,
Figure 112013002932251-pat00148
The results of decoding 1000 times over the values are shown in FIG.

도 3에서 1부터 35까지

Figure 112013002932251-pat00149
를 변경하면서 실험한 결과를 참조하면, 평균 제곱 오차(MSE)는
Figure 112013002932251-pat00150
Figure 112013002932251-pat00151
인 한 대동소이하게 매우 큰 값을 보이며,
Figure 112013002932251-pat00152
=
Figure 112013002932251-pat00153
인 때에만 급격하게 줄어든다.In Figure 3, from 1 to 35
Figure 112013002932251-pat00149
, The mean square error (MSE) is
Figure 112013002932251-pat00150
Figure 112013002932251-pat00151
The value is very large,
Figure 112013002932251-pat00152
=
Figure 112013002932251-pat00153
It is sharply reduced only when it is.

본 발명의 최적 근사 복호화 방법에서는 소스 노드에서 디코딩 노드로 차이 집합의 분포 정보 즉 유사도 정보(SI)를 전송하기 때문에,

Figure 112013002932251-pat00154
는 실질적으로 유사도 정보 SI가 전송 중에 소실되었거나 변조된 경우와 같다.
In the optimal approximation decoding method of the present invention, distribution information of the difference set, that is, similarity information (SI) is transmitted from the source node to the decoding node,
Figure 112013002932251-pat00154
Is substantially the same as when the similarity information SI is lost or modulated during transmission.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all of the equivalent or equivalent variations will fall within the scope of the present invention.

또한, 본 발명에 따른 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, 광학 디스크, 자기 테이프, 플로피 디스크, 하드 디스크, 비휘발성 메모리 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the method according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, an optical disk, a magnetic tape, a floppy disk, a hard disk, a nonvolatile memory, and the like, and a carrier wave (for example, transmission via the Internet). The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

Claims (7)

소스 노드, 중간 노드 및 수신 노드로 구성된 애드 혹 네트워크에서 네트워크 코딩된 데이터의 최적 근사 복호화 방법으로서,
상기 수신 노드가 심볼들 및 연속하는 심볼들의 차이 값들의 통계 정보로 구성된 유사도 정보(SI)를 수신하는 단계;
복호화하기에 충분한 T 개의 심볼들이 수신된 경우에, 상기 수신 노드가, 수신된 T 개의 심볼들
Figure 112014028543438-pat00155
로부터 풀-랭크 코딩 계수 행렬
Figure 112014028543438-pat00156
의 역행렬
Figure 112014028543438-pat00157
을 결정하고, 역행렬
Figure 112014028543438-pat00158
및 수신 심볼들
Figure 112014028543438-pat00159
로부터 원본 심볼
Figure 112014028543438-pat00160
을 복원하는 단계; 및
복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우에, 상기 수신 노드가, 수신된 K 개(K<T)의 심볼들
Figure 112014028543438-pat00161
로부터 K×T의 코딩 계수 행렬
Figure 112014028543438-pat00162
를 생성하고, T-K 개의 누락된 코딩 계수에 관하여 (T-K)×T의 추가 제한 조건
Figure 112014028543438-pat00163
및 T-K 개의 누락된 심볼들에 관하여 상기 유사도 정보로부터 T-K 길이의 추가 제한 조건
Figure 112014028543438-pat00164
을 각각 생성하여 원본 심볼들
Figure 112014028543438-pat00165
을 복원하는 단계를 포함하고,
상기 소스 노드가 송신하는 심볼들의 개수 및 상기 수신 노드가 복호화할 심볼들의 개수가 각각 T이고, 상기 수신 노드가 실제로 수신한 심볼들의 개수가 K이고, K=T이면 복호화하기에 충분한 T 개의 심볼들이 수신된 경우이며, K<T이면 복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우인 네트워크 코딩된 데이터의 최적 근사 복호화 방법.
CLAIMS What is claimed is: 1. A method for optimal approximate decoding of network coded data in an ad hoc network consisting of a source node, an intermediate node and a receiving node,
Receiving the similarity information (SI) comprising statistical information of differences between symbols and consecutive symbols;
If enough T symbols are received to decode, the receiving node receives the received T symbols
Figure 112014028543438-pat00155
Rank coding matrix
Figure 112014028543438-pat00156
Inverse of
Figure 112014028543438-pat00157
, And the inverse matrix
Figure 112014028543438-pat00158
And received symbols
Figure 112014028543438-pat00159
The original symbol
Figure 112014028543438-pat00160
; And
If not enough T symbols have been received to decode, the receiving node receives the received K (K < T) symbols
Figure 112014028543438-pat00161
A coding coefficient matrix of K x T from
Figure 112014028543438-pat00162
(TK) × T with respect to the TK missing coding coefficients,
Figure 112014028543438-pat00163
And an additional constraint condition of the TK length from the similarity information with respect to the TK missing symbols
Figure 112014028543438-pat00164
To generate original symbols
Figure 112014028543438-pat00165
The method comprising the steps of:
If the number of symbols transmitted by the source node and the number of symbols to be decoded by the receiving node are T, the number of symbols received by the receiving node is K, and K = T, T symbols sufficient to decode Where T < T &gt; symbols are not received sufficient to decode if K &lt; T.
청구항 1에 있어서, 원본 심볼의 복원 단계에 앞서, 상기 수신 노드가 T 개의 심볼들이 복원하기 위해, 코딩 계수 행렬
Figure 112013002932251-pat00166
의 역행렬
Figure 112013002932251-pat00167
을 고유하게 결정할 수 있도록 T 개의 선형 비종속적인 심볼들이 수신되었는지 판정하는 단계를 더 포함하는 것을 특징으로 하는 네트워크 코딩된 데이터의 최적 근사 복호화 방법.
2. The method of claim 1, wherein, prior to the step of recovering the original symbols,
Figure 112013002932251-pat00166
Inverse of
Figure 112013002932251-pat00167
Lt; RTI ID = 0.0 &gt; T &lt; / RTI &gt; linearly unconventional symbols have been received so as to uniquely determine the T &lt; th &gt;
청구항 1에 있어서, 상기 수신 노드가 수신하는 데이터는 소정의 시간 제한 내에 심볼들을 복호화하여 사용자에게 제공하여야 하는 지연 민감성 데이터인 것을 특징으로 하는 네트워크 코딩된 데이터의 최적 근사 복호화 방법.2. The method of claim 1, wherein the data received by the receiving node is delay sensitive data that must be provided to a user by decoding symbols within a predetermined time limit. 청구항 1에 있어서, 상기 연속하는 심볼들의 차이 값들은 종형 유니모달 대칭 분포를 따르는 것임을 특징으로 하는 네트워크 코딩된 데이터의 최적 근사 복호화 방법.2. The method of claim 1, wherein the difference values of the consecutive symbols follow a vertical unimodal symmetric distribution. 청구항 4에 있어서, 상기 유사도 정보(SI)는 연속하는 심볼들의 차이 값들의 평균 값인 것을 특징으로 하는 네트워크 코딩된 데이터의 최적 근사 복호화 방법.5. The method of claim 4, wherein the similarity information (SI) is an average value of difference values of consecutive symbols. 청구항 1에 있어서, 상기 복호화하기에 충분한 T 개의 심볼들이 수신되지 않은 경우에 원본 심볼
Figure 112013002932251-pat00168
을 복원하는 단계는,
다음의 수학식
Figure 112013002932251-pat00169

을 통해 수행되며,
여기서 (T-K)×T의 추가 제한 조건
Figure 112013002932251-pat00170
는 수신된 심볼들
Figure 112013002932251-pat00171
의 유사도 모델에 기초하여 생성될 수 있고, T-K 길이의 추가 제한 조건
Figure 112013002932251-pat00172
은 소스 노드에서 전송되는 연속하는 심볼들의 차이 값들의 평균 값들으로부터 생성되는 것을 특징으로 하는 네트워크 코딩된 데이터의 최적 근사 복호화 방법.
The method of claim 1, wherein if T symbols are not received sufficient to decode,
Figure 112013002932251-pat00168
Wherein:
The following equation
Figure 112013002932251-pat00169

Lt; / RTI &gt;
Where (TK) x T additional constraints
Figure 112013002932251-pat00170
Lt; RTI ID = 0.0 &gt; received symbols
Figure 112013002932251-pat00171
Lt; RTI ID = 0.0 &gt; TK &lt; / RTI &gt; length,
Figure 112013002932251-pat00172
Is generated from the mean values of the difference values of consecutive symbols transmitted at the source node.
컴퓨터에서 청구항 1 내지 청구항 6 중 어느 한 청구항에 따른 네트워크 코딩된 데이터의 최적 근사 복호화 방법을 구현하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium on which a program for implementing an optimal approximate decoding method of network coded data according to any one of claims 1 to 6 is recorded in a computer.
KR1020130003293A 2013-01-11 2013-01-11 Apparatus and method for optimal approximate decoding of network coded data using source data statistic KR101415584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130003293A KR101415584B1 (en) 2013-01-11 2013-01-11 Apparatus and method for optimal approximate decoding of network coded data using source data statistic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130003293A KR101415584B1 (en) 2013-01-11 2013-01-11 Apparatus and method for optimal approximate decoding of network coded data using source data statistic

Publications (1)

Publication Number Publication Date
KR101415584B1 true KR101415584B1 (en) 2014-07-08

Family

ID=51741251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130003293A KR101415584B1 (en) 2013-01-11 2013-01-11 Apparatus and method for optimal approximate decoding of network coded data using source data statistic

Country Status (1)

Country Link
KR (1) KR101415584B1 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
비특허문헌1:한국통신학회지 (정보와통신) 제29권 제3호(권민혜 외 2명) *
비특허문헌2:ELSEVIER(HYUNGGON PARK 외 2명) *
비특허문헌4:18TH EUROPEAN SIGNAL PROCESSING CONFERENCE(HYUNGGON PARK 외 2명) *

Similar Documents

Publication Publication Date Title
CN110753937A (en) Data transmission network configuration
KR101751497B1 (en) Apparatus and method using matrix network coding
Wang et al. Steganalysis of block-structured stegotext
CN107040334B (en) Method, apparatus, and computer-readable medium for device-assisted communication
Torres Compta et al. Network coding is the 5G key enabling technology: Effects and strategies to manage heterogeneous packet lengths
CN113132394B (en) Request processing system, method and device, storage medium and electronic equipment
KR20090108051A (en) Data encoding method
KR20180081671A (en) Methods and devices for sub-block decoding data signals
Chakareski Wireless streaming of interactive multi-view video via network compression and path diversity
EP2487799B1 (en) Apparatus and method for bidirectional communication between multi-nodes using relay node
KR101934638B1 (en) Apparatus and method for network encoding based on low complexity algorithms for network coding using matrix decomposition
US20090028178A1 (en) Encoding and Decoding Messages on Noisy Timing Channels
CN108365916B (en) Method and apparatus for sub-block decoding data signal
Taghouti et al. On the joint design of compressed sensing and network coding for wireless communications
Nabaee et al. Quantized network coding for correlated sources
CN112364365B (en) Industrial data encryption method, edge server and computer readable storage medium
CN116508273A (en) Method and apparatus for quantum key distribution
Sharma et al. Spectral efficient compressive transmission framework for wireless communication systems
Chau et al. Efficient data uploading based on network coding in LTE-Advanced heterogeneous networks
WO2006095873A1 (en) Mimo detection control apparatus and mimo detection control method
KR101415584B1 (en) Apparatus and method for optimal approximate decoding of network coded data using source data statistic
CN115643105B (en) Federal learning method and device based on homomorphic encryption and depth gradient compression
Kwon et al. Compressed network coding: Overcome all-or-nothing problem in finite fields
KR101623240B1 (en) Apparatus and method for optimal approximate decoding of network coded data from source data with unimodal distributed diffenrece of symbols
KR101588549B1 (en) Tcp based network routers supporting network coding and tcp based data streaming system using network coding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170621

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190404

Year of fee payment: 6