KR101412036B1 - Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information - Google Patents

Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information Download PDF

Info

Publication number
KR101412036B1
KR101412036B1 KR1020130003294A KR20130003294A KR101412036B1 KR 101412036 B1 KR101412036 B1 KR 101412036B1 KR 1020130003294 A KR1020130003294 A KR 1020130003294A KR 20130003294 A KR20130003294 A KR 20130003294A KR 101412036 B1 KR101412036 B1 KR 101412036B1
Authority
KR
South Korea
Prior art keywords
decoding
decoding performance
similarity information
source data
performance index
Prior art date
Application number
KR1020130003294A
Other languages
Korean (ko)
Inventor
박형곤
권민혜
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020130003294A priority Critical patent/KR101412036B1/en
Application granted granted Critical
Publication of KR101412036B1 publication Critical patent/KR101412036B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/01Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/015Simulation or testing of codes, e.g. bit error rate [BER] measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/24Testing correct operation

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

The present invention relates to network coding, and more specifically, to a decoding performance prediction method for approximate decoding utilizing the position resemblance information of network-coded source data. The decoding performance prediction method according to an embodiment of the present invention receives network-coded data and uses the correlation of the received data to approximately recover lost data. The decoding performance index of the present invention is computed to have a higher value if the success probability of the decoding is higher. When the packet loss ratio is 50% or less, the decoding performance index converges to the maximum saturation level as the position resemblance information decreases. When the packet loss ratio is more than 50%, the decoding performance index converges to the minimum saturation level as the position resemblance information decreases.

Description

네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법{METHOD FOR PREDICTING DECODING PERFORMANCE OF APPROXIMATE DECODING OF NETWORK CODED SOURCE DATA USING POSITION SIMILARITY INFORMATION}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method of predicting decoding performance of approximate decoding using position similarity information of network-

본 발명은 네트워크 코딩에 관한 것으로, 더욱 상세하게는, 네트워크 코딩된 데이터의 근사 복호화 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to network coding, and more particularly, to an approximate decoding technique for network coded data.

무선 네트워크 기능을 가진 모바일 장치들이 일상적으로 사용됨에 따라, 무선 네트워크가 수많은 이기종의 장치들에 의해 지속적으로 변화하면서 동적으로 구성되고 있고, 이러한 동적인 네트워크 내에서 적시에 정보를 전송하는 기술의 중요성이 점차 높아지고 있다.As mobile devices with wireless networking capabilities are routinely used, the importance of the technology to transmit information in a timely manner within such a dynamic network is becoming more and more dynamic as the wireless network continues to change by a number of different types of devices It is gradually getting higher.

네트워크 코딩(Network coding)은 경로와 소스가 다양한 동적 네트워크에서 효율적인 분산 전송 알고리즘을 구축할 수 있는 방법론으로서 점차 활용도를 넓혀 가고 있다. 기존의 라우팅 기반의 네트워크 스킴은 단순히 점대점으로 데이터를 그대로 송신(forwarding)하는 것이어서 중간에 네트워크 구성이 바뀌면 기존의 라우팅 경로가 끊기거나 속도가 저하되어 서비스 품질이 영향을 받고 라우팅 경로를 유지하기 위한 오버헤드가 적지 않다. Network coding is increasingly being used as a methodology for constructing an efficient distributed transmission algorithm in dynamic networks with various paths and sources. The existing routing-based network scheme simply forwards the data to point-to-point, so if the network configuration changes in the middle, the existing routing path is cut off or the speed is lowered to affect the quality of service and to maintain the routing path There is not much overhead.

이에 비하여, 네트워크 코딩은 네트워크 내의 인접한 노드들이 패킷들을 수신하고 결합하여 출력하는 동작을 반복함으로써 정해진 라우팅 경로 없이도 데이터들이 목적지까지 흘러 가도록 하는 것이므로 네트워크 코딩은 대역폭이나 전력 자원, 연산 자원을 효율적으로 사용할 수 있고, 네트워크의 변동에 강인함을 보인다. 소스와 경로가 다양할수록, 즉 동일한 정보를 가지고 있는 노드도 많고 요청하는 노드도 많을 경우에, 이러한 네트워크 코딩의 성능이 최대화될 수 있다. On the other hand, network coding is a process by which neighboring nodes in the network repeatedly receive and output packets, thereby allowing data to flow to a destination without a predetermined routing path. Therefore, network coding can efficiently use bandwidth, power resources, And shows robustness to network fluctuations. As the source and path vary, that is, the number of nodes having the same information and the number of nodes requesting, the performance of such network coding can be maximized.

하지만 네트워크 코딩을 통해 전달되는 정보들은 데이터를 구성하는 패킷들이 원본 그대로 전달되는 것이 아니라 네트워크 노드가 적절한 연산을 통해 변조하기 때문에, 정해진 시간 내에 심볼들을 불완전하게 수신하였을 때에 데이터를 재구성할 수 없는 문제가 있다.However, since the information transmitted through network coding is not transmitted as it is in the original data, but the network node modulates it through proper operation, there is a problem that the data can not be reconstructed when the symbols are incompletely received within a predetermined time have.

특히 멀티미디어 데이터와 같이 시간 지연 민감성 데이터의 경우에는 허용 지연 시간 내에 패킷이 도착하지 않으면 종래의 디코딩 방법론들로는 데이터 복원 자체가 불가능하여 네트워크 코딩의 큰 한계로 지적되고 있다.In particular, in the case of time delay sensitive data such as multimedia data, if the packet does not arrive within the allowable delay time, data decoding can not be performed by the conventional decoding methodologies, which is pointed out as a big limitation of network coding.

이러한 문제점들에 대응하고자 제안된 근사 복호법은 네트워크 코딩된 데이터를 수신하였을 때에 수신된 데이터들의 상관 관계(correlation)를 이용하여 손실된 데이터를 근사적으로 복원할 수 있는 기법이다. 예를 들어 현실 세계에서 측정되는 온도나 전압은 시간적으로 근접한 측정 데이터 사이의 상관 관계가 높기 때문에, 데이터 수집 장치가 전송받은 데이터가 네트워크 복호화에 충분하지 못한 경우에도 원천 데이터의 상관성 정보를 이용하면 근사적으로 복원될 수 있다.In order to deal with these problems, the proposed approximate decoding method is a technique that approximates lost data by using correlation of received data when receiving network coded data. For example, since the temperature or voltage measured in the real world has a high correlation between measurement data close in time, even when the data received by the data collection device is not sufficient for network decoding, Can be restored.

[1] Ho, T., M´edard, M., Shi, J., Effros, M. 및 Karger, D.R., "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003[1] Ho, T., M'edard, M., Shi, J., Effros, M. and Karger, D.R., "On randomized network coding, in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003 [2] H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109~213, Jan. 2013[2] H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109 to 213, Jan. 2013

본 발명이 해결하고자 하는 과제는 네트워크 코딩된 소스 데이터의 근사 복호화를 위한 위치 유사성 정보 크기의 최적화 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method of optimizing a position similarity information size for approximate decoding of network coded source data.

본 발명의 일 측면에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법은,According to an aspect of the present invention, there is provided a decoding performance prediction method of approximate decoding using position similarity information of network-

GF(2M) 내에서 연속하는 소스 데이터들

Figure 112013002932307-pat00001
Figure 112013002932307-pat00002
의 차이
Figure 112013002932307-pat00003
에 관한 각각의 후보
Figure 112013002932307-pat00004
들 및 실제로
Figure 112013002932307-pat00005
Figure 112013002932307-pat00006
의 위치 인덱스들에 기초하여 생성되는 위치 유사성 정보가 소스 데이터에 부가된 경우에, 상기 위치 유사성 정보를 기초로 네트워크 코딩된 소스 데이터를 근사 복호화할 때의 복호 성공 확률에 따라 복호화 성능 지수를 연산하는 단계;Continuous source data in GF ( 2M )
Figure 112013002932307-pat00001
and
Figure 112013002932307-pat00002
Difference
Figure 112013002932307-pat00003
Each candidate for
Figure 112013002932307-pat00004
And actually
Figure 112013002932307-pat00005
sign
Figure 112013002932307-pat00006
When the position similarity information generated based on the position indices of the positional similarity information is added to the source data, the decoding performance index is calculated according to the decoding success probability at the time of approximate decoding of the network coded source data based on the position similarity information step;

주어진 채널의 패킷 손실율이 50% 이하인 경우에, 만약 연산된 복호화 성능 지수가 상위 포화 수준 이하이면 연산된 복호화 성능 지수의 값 대신에 상기 상위 포화 수준을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력하는 단계; 및If the packet loss rate of a given channel is 50% or less, if the calculated decoding performance index is less than the upper saturation level, the upper saturation level is used instead of the calculated value of the decoding performance index. Otherwise, the calculated decoding performance index is used as the predictive decoding performance Outputting as an exponent; And

주어진 채널의 패킷 손실율이 50%를 초과하는 경우에, 만약 연산된 복호화 성능 지수가 하위 포화 수준 이하이면 연산된 복호화 성능 지수의 값 대신에 상기 하위 포화 수준을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력하는 단계를 포함할 수 있다.If the packet loss rate of a given channel exceeds 50%, then if the calculated decoding performance index is below the lower saturation level, the lower saturation level is used instead of the calculated value of the decoding capability index, otherwise the calculated decoding performance index is predicted And outputting it as a decoding performance index.

일 실시예에 따라, 상기 후보

Figure 112013002932307-pat00007
는According to one embodiment,
Figure 112013002932307-pat00007
The

Figure 112013002932307-pat00008
Figure 112013002932307-pat00008

여기서, 1≤n≤M-k이고 M은 GF의 특성값이며,Here, 1? N? M-k and M is a characteristic value of GF,

실제로

Figure 112013002932307-pat00009
Figure 112013002932307-pat00010
Figure 112013002932307-pat00011
일 확률은in reality
Figure 112013002932307-pat00009
sign
Figure 112013002932307-pat00010
end
Figure 112013002932307-pat00011
The odds are

Figure 112013002932307-pat00012
Figure 112013002932307-pat00012

일 수 있다.Lt; / RTI >

일 실시예에 따라, 상기 복호 성공 확률은According to one embodiment, the decoding success probability is

Figure 112013002932307-pat00013
Figure 112013002932307-pat00013

로 근사되며, 손실 패킷이 Nl개인 조건에서 실수 공간에서의 복원 심볼

Figure 112013002932307-pat00014
이 n 개의 후보
Figure 112013002932307-pat00015
들을 이용하여 원본 심볼
Figure 112013002932307-pat00016
과 동일하게 복원될 확률일 수 있다.Is approximated by, it dropped packets recovered symbol in the real space from a N l individual condition
Figure 112013002932307-pat00014
These n candidates
Figure 112013002932307-pat00015
The original symbol
Figure 112013002932307-pat00016
As shown in FIG.

일 실시예에 따라, 상기 복호화 성능 지수는 복호 성공 확률, 정규화된 오류율 또는 평균 제곱 오류율 중 어느 하나일 수 있다..According to one embodiment, the decoding capability index may be one of a decoding success probability, a normalized error rate, or an average square error rate.

본 발명의 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법에 따르면, 연속하는 소스 심볼들 또는 패킷들 사이의 위치 유사성 정보를 이용하여 복호화 성능을 예측함에 따라 수신 노드가 최적의 근사 복호를 수행할 수 있다.According to the decoding performance prediction method of approximate decoding using the position similarity information of the network coded source data of the present invention, decoding performance is predicted by using the position similarity information between consecutive source symbols or packets, Can be performed.

본 발명의 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법에 따르면, 채널의 패킷 손실도 또는 소스 노드의 인코딩 패킷 수 및 위치 유사성 정보의 크기에 따라 실제 복호화 성능을 통계로 추적하지 않고 예측할 수 있다.According to the decoding performance prediction method of approximate decoding using the location similarity information of the network coded source data of the present invention, the actual decoding performance is statistically determined according to the packet loss degree of the channel, the number of encoding packets of the source node, It can be predicted without tracking.

도 1은 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템을 개념적으로 표현한 다이어그램이다.
도 2는 본 발명의 일 실시예에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법에서 손실 패킷 수와 위치 유사성 정보의 크기에 따른 근사 복호화 성능을 예시한 그래프이다.
도 3은 본 발명의 일 실시예에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법을 예시한 순서도이다.
1 is a diagram conceptually illustrating a distributed data transmission system to which the present invention can be applied.
FIG. 2 is a graph illustrating approximate decoding performance according to the number of lost packets and the size of position similarity information in a decoding performance prediction method of approximate decoding using position similarity information of network coded source data according to an embodiment of the present invention.
3 is a flowchart illustrating a decoding performance prediction method of approximate decoding using position similarity information of network coded source data according to an embodiment of the present invention.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다. For the embodiments of the invention disclosed herein, specific structural and functional descriptions are set forth for the purpose of describing an embodiment of the invention only, and it is to be understood that the embodiments of the invention may be practiced in various forms, The present invention should not be construed as limited to the embodiments described in Figs.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

아래의 설명은 크게 세 개의 섹션으로 나누어지는데, 섹션 1 및 2는 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템에 관한 소개과 함께 근사 복호화법의 기본적 원리를 설명하며, 섹션 3은 본 발명에 따른 근사 복호화법을 설명한다.The following description is largely divided into three sections, Sections 1 and 2, which illustrate the basic principles of approximate decoding along with an introduction to a distributed data transmission system to which the present invention may be applied, The decoding method will be explained.

섹션 3에서 나타나는 벡터나 변수에 관한 표기 중 일부는 섹션 1 및 섹션 2에서 나타나는 것과 다를 수 있다는 점에 유의한다.Note that some of the notations for vector or variable appearing in Section 3 may differ from those shown in Section 1 and Section 2.

또한 아래 설명에서 심볼, 패킷 및 데이터와 같은 용어들은 맥락 상 명백하게 다르게 해석되는 경우를 제외하면 서로 혼용하여 사용됨을 유의한다.
It should also be noted that the terms symbol, packet, and data in the following description are used interchangeably, unless the context clearly implies otherwise.

1. 랜덤 선형 네트워크 코딩1. Random linear network coding

도 1은 본 발명이 적용될 수 있는 분산된 데이터 전송 시스템을 개념적으로 표현한 다이어그램이다. 소스 데이터가 네트워크 코딩 노드를 통하여 디코더(복호기)로 전달되는 과정이 나타나 있다. 이 시스템에서 전송되는 데이터는 서로 상관 관계를 갖는다. 상관 관계를 가지는 데이터는 센서 네트워크를 통해 측정된 데이터와 같은 외부 상관관계를 갖거나, 비디오 시퀀스 내의 이미지들과 같이 근접한 데이터 사이의 상관관계가 높은 데이터일 수 있다.1 is a diagram conceptually illustrating a distributed data transmission system to which the present invention can be applied. And the source data is transmitted to the decoder (decoder) through the network coding node. The data transmitted in this system has a correlation with each other. The correlated data may have external correlation, such as data measured over the sensor network, or may be highly correlated data, such as images within a video sequence.

이러한 상관관계 데이터의 전송에 대한 연구는 분산 시스템에서 널리 수행되어 왔다. 네트워크 코딩 기법은 네트워크를 통해 상관관계 데이터를 전송하는 기법으로 연구되었다.Research on the transmission of such correlation data has been widely performed in distributed systems. Network coding techniques have been studied as a technique for transmitting correlation data over a network.

도 1에서 오버레이 애드 혹 네트워크(overlay ad hoc network)는 소스 노드들, 중간 노드들 및 수신 노드들로 구성되어 있고, 소스 데이터는 소스 노드에서 네트워크 코딩 연산을 담당하는 중간 노드들을 거쳐 수신 노드까지 전달된다. 중간 노드는 수신한 데이터를 그대로 전달할 수도 있지만, 다른 소스 노드들에서 수신한 데이터들을 결합(combining)하여 출력한다.In FIG. 1, an overlay ad hoc network is composed of source nodes, intermediate nodes, and receiving nodes, and the source data is transmitted from the source node to the receiving node through intermediate nodes responsible for network coding operations do. The intermediate node may transmit the received data as it is, but may combine and output the data received from the other source nodes.

다양한 네트워크 코딩 기법 중에서 본 발명에서 사용하는 랜덤 선형 네트워크 코딩(RLNC: Random Linear Network Coding) 기법은 Ho, T., M´edard, M., Shi, J., Effros, M. 및 Karger, D.R., "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003을 참조한다.Random Linear Network Coding (RLNC) techniques used in the present invention among various network coding schemes are described in Ho, T., M'edard, M., Shi, J., Effros, M. and Karger, DR, "On randomized network coding," in Proc. Allerton Annual Conf. Commun., Control, and Comput., Oct. 2003.

소스 집합

Figure 112013002932307-pat00017
내의 L 개의 소스 심볼들은
Figure 112013002932307-pat00018
라고 표시되며, 각각 이산(discrete)이면서 상관되어(correlated) 있고, 1≤i≤L일 때에
Figure 112013002932307-pat00019
이다.
Figure 112013002932307-pat00020
Figure 112013002932307-pat00021
의 알파벳 집합(alphabet set)이고 |
Figure 112013002932307-pat00022
|는
Figure 112013002932307-pat00023
의 크기를 의미한다. 네트워크 코딩 연산은 갈로와 필드(GF: Galois Field) 내에서 수행되기 때문에, 각각의
Figure 112013002932307-pat00024
은 GF 내의 원소로 고려되어야 한다.
Figure 112013002932307-pat00025
가 실수 필드(
Figure 112013002932307-pat00026
, field of real numbers)에 있는 수인지 아니면 GF에 있는 수인지 여부를 명확하게 특정하기 위해서, 수학식 1과 같은 식별 함수(identity function)을 정의할 수 있다.Source set
Figure 112013002932307-pat00017
Lt; RTI ID = 0.0 > L &
Figure 112013002932307-pat00018
And are respectively discrete and correlated, and when 1? I? L
Figure 112013002932307-pat00019
to be.
Figure 112013002932307-pat00020
The
Figure 112013002932307-pat00021
Of the alphabet set (alphabet set) and |
Figure 112013002932307-pat00022
| Is
Figure 112013002932307-pat00023
. Since the network coding operation is performed in a Galois Field (GF), each
Figure 112013002932307-pat00024
Should be considered as elements in the GF.
Figure 112013002932307-pat00025
Is a real field (
Figure 112013002932307-pat00026
, field of real numbers, or the number in GF, it is possible to define an identity function as shown in equation (1).

Figure 112013002932307-pat00027
Figure 112013002932307-pat00027

이는

Figure 112013002932307-pat00028
Figure 112013002932307-pat00029
을 의미하는 GF 내의 원소임을 의미한다.
Figure 112013002932307-pat00030
인 경우에,
Figure 112013002932307-pat00031
는 L 개의 요소를 가지는 N 번째 소스 데이터 집합이다.
Figure 112013002932307-pat00032
Figure 112013002932307-pat00033
의 알파벳 세트를 의미한다. 또한 본 명세서에서 행렬 또는 벡터의 위 첨자로 쓰이는 T는 행렬 또는 벡터의 전치(transpose)를 의미하며, 실수값 T 또는 아래 첨자로 쓰이는 T와 구별됨을 유의한다.this is
Figure 112013002932307-pat00028
end
Figure 112013002932307-pat00029
Which means that it is an element in GF.
Figure 112013002932307-pat00030
in case of,
Figure 112013002932307-pat00031
Is the Nth source dataset with L elements.
Figure 112013002932307-pat00032
The
Figure 112013002932307-pat00033
≪ / RTI > Also note that T, used as a superscript of a matrix or vector herein, is a transpose of a matrix or vector, and is distinguished from a real value T or a T used as a subscript.

GF 내의 연산 기호를 가지고 서술하는 수식에서는 모든 연산은 GF 내에서 일어나는 것을 암시하므로,

Figure 112013002932307-pat00034
기호는 생략된다.
Figure 112013002932307-pat00035
Figure 112013002932307-pat00036
연산자들은 각각 GF 내에서 정의되는 합산 연산과 승산 연산을 의미한다.In the formula describing with the operation symbols in the GF, it implies that all operations occur in the GF,
Figure 112013002932307-pat00034
The symbol is omitted.
Figure 112013002932307-pat00035
Wow
Figure 112013002932307-pat00036
The operators refer to summation and multiplication operations defined in GF, respectively.

RLNC를 이용하는 중간 노드 k는 다음 수학식 2와 같이 패킷을 생성하여 전송한다.The intermediate node k using the RLNC generates and transmits a packet according to Equation (2).

Figure 112013002932307-pat00037
Figure 112013002932307-pat00037

수학식 2는

Figure 112013002932307-pat00038
와 코딩 계수
Figure 112013002932307-pat00039
의 GF에서의 선형 결합(linear combination in GF)을 의미한다. i는 1≤i≤L인 임의의 정수이고, T는 하나의 패킷 내에 결합된 데이터의 개수이다.
Figure 112013002932307-pat00040
Figure 112013002932307-pat00041
는 항상 GF 내의 원소로 간주될 수 있다. 코딩 계수들은 크기 2M을 가지고 GF로부터 균일하고 랜덤하게 선정되는데, 이를
Figure 112013002932307-pat00042
라고 한다. 이는 GF 크기가 M에 의해 결정되며,
Figure 112013002932307-pat00043
임을 의미한다.Equation (2)
Figure 112013002932307-pat00038
And a coding coefficient
Figure 112013002932307-pat00039
Means a linear combination in the GF. i is any integer with 1? i? L, and T is the number of pieces of data combined in one packet.
Figure 112013002932307-pat00040
Wow
Figure 112013002932307-pat00041
Can always be regarded as an element in the GF. The coding coefficients are chosen uniformly and randomly from GF with size 2 M ,
Figure 112013002932307-pat00042
. This is because the GF size is determined by M,
Figure 112013002932307-pat00043
.

본 발명에서는 특히, 특성값 2를 가지는 GF, 즉

Figure 112013002932307-pat00044
에서 합산 연산은 XOR 연산으로 수행될 수 있다. GF의 크기는 소스 심볼에 관하여 수행될 수 있는 코딩 연산들의 집합을 결정한다. 따라서 입력 알파벳의 크기가
Figure 112013002932307-pat00045
라고 가정할 수 있다. 만약
Figure 112013002932307-pat00046
인 경우에는 입력 집합은 예를 들어 소스 결합(source binning) 또는 양자화 등을 이용하여 축소되고 그럼으로써 입력 집합은 GF 크기, 즉 2M을 초과하지 않게 된다.In the present invention, in particular, a GF having a characteristic value of 2
Figure 112013002932307-pat00044
The summation operation can be performed by an XOR operation. The size of GF determines the set of coding operations that can be performed with respect to the source symbol. Therefore, the size of the input alphabet is
Figure 112013002932307-pat00045
. if
Figure 112013002932307-pat00046
The input set is reduced using, for example, source binning or quantization, so that the input set does not exceed the GF size, i.e. 2 M.

각각의 노드에서 생성되는 패킷들은 이웃하는 노드들로 전송되며 최종적으로 수신 노드들로 향한다. 만약 수신 노드의 디코더에서 K 개의 이노배티브(innovative) 즉, 선형 비종속적(linear independent)인 심볼 또는 패킷들,

Figure 112013002932307-pat00047
이 수신되어 연산에 쓰일 수 있다면, 선형 시스템
Figure 112013002932307-pat00048
는 다음 수학식 3과 같이 표현될 수 있다.The packets generated at each node are transmitted to neighboring nodes and finally to the receiving nodes. If at the decoder of the receiving node there are K innovative or linearly independent symbols or packets,
Figure 112013002932307-pat00047
Lt; / RTI > can be received and used in an operation,
Figure 112013002932307-pat00048
Can be expressed by the following equation (3).

Figure 112013002932307-pat00049
Figure 112013002932307-pat00049

여기서

Figure 112013002932307-pat00050
연산자는 유한 필드(finite field)에서 행렬들 사이의 승산 연산을 의미한다. here
Figure 112013002932307-pat00050
The operator denotes a multiplication operation between matrices in a finite field.

K×T 행렬

Figure 112013002932307-pat00051
는 코딩 계수 행렬(coding coefficient matrix)이라고 하는데, 컬럼 벡터들
Figure 112013002932307-pat00052
로 구성되며, 수신된 심볼들의 유사도 모델에 기초하여 생성된다. 코딩 계수 행렬
Figure 112013002932307-pat00053
를 유사도 모델에 기초하여 생성하는 방법은 네트워크 코딩의 복호화 기법에 숙련된 자들에게 주지된 방법이므로 설명을 생략한다.K × T matrix
Figure 112013002932307-pat00051
Is called a coding coefficient matrix, and column vectors < RTI ID = 0.0 >
Figure 112013002932307-pat00052
And is generated based on the similarity model of the received symbols. Coding coefficient matrix
Figure 112013002932307-pat00053
Based on the degree-of-similarity model is a method well known to those skilled in the network coding decoding technique, and thus a description thereof will be omitted.

만약 이러한 코딩 계수 행렬

Figure 112013002932307-pat00054
가 풀-랭크(full-rank), 즉 K=T인 경우에, 수학식 3의 선형 시스템의 해(solution)인
Figure 112013002932307-pat00055
는, 코딩 계수 행렬
Figure 112013002932307-pat00056
의 역행렬
Figure 112013002932307-pat00057
가 고유하게 결정되고 또한 이에 상응하여
Figure 112013002932307-pat00058
이기 때문에, 다음 수학식 4와 같이 고유하게 결정될 수 있다.If such a coding coefficient matrix
Figure 112013002932307-pat00054
Is a full-rank, that is, K = T, the solution of the linear system of equation (3)
Figure 112013002932307-pat00055
, A coding coefficient matrix
Figure 112013002932307-pat00056
Inverse of
Figure 112013002932307-pat00057
Is uniquely determined and correspondingly
Figure 112013002932307-pat00058
, It can be uniquely determined as shown in the following equation (4).

Figure 112013002932307-pat00059
Figure 112013002932307-pat00059

코딩 계수 행렬의 역행렬은 GF 상에서 가우시안 소거법(Gaussian elimination)을 수행하는 것과 같은 주지의 방법을 통해 쉽게 얻을 수 있다.The inverse matrix of the coding coefficient matrix can be easily obtained by a known method such as performing a Gaussian elimination on GF.

문제는, 만약 고유한 역행렬

Figure 112013002932307-pat00060
을 결정하기에 충분하지 않은 수의 심볼들만 수신된 경우에, 다시 말해, K<T인 경우에, 코딩 계수 행렬
Figure 112013002932307-pat00061
가 풀-랭크가 아니기 때문에 수학식 3의 선형 시스템의 해
Figure 112013002932307-pat00062
는 유일하게 결정되지 못할 뿐 아니라, 무한한 개수로 얻어질 수 있다. The problem is, if a unique inverse matrix
Figure 112013002932307-pat00060
In the case of K < T, the coding coefficient matrix &lt; RTI ID = 0.0 &gt;
Figure 112013002932307-pat00061
Is not a full-rank, the solution of the linear system of equation (3)
Figure 112013002932307-pat00062
Not only can not be determined uniquely, but can be obtained in an infinite number.

근사 복호화법은 이러한 문제를 해결하기 위해 도입된 것으로, 근사적으로 결정된 소스 심볼들이 불충분하게 수신된 데이터를 가지고 재구축된다.
The approximate decoding method is introduced to solve this problem, and the approximately determined source symbols are reconstructed with insufficiently received data.

2. 근사 복호화법2. Approximate decoding method

복호기(decoder)는 심볼 집합 y를 수신하면 소스 데이터를 복원할 수 있다. 만약 전송 절차 중에 패킷 지연이나 손실과 같은 외부적 요인이 있거나, 또는 무작위로 선정되는 코딩 계수 행렬

Figure 112013002932307-pat00063
이 특이 행렬(singular matrix)인 경우에는, 코딩 계수 행렬
Figure 112013002932307-pat00064
의 역행렬
Figure 112013002932307-pat00065
은 얻어질 수 없고 수학식 3의 선형 시스템에서 해가 유일하지 않을 수 있다.The decoder can recover the source data upon receipt of the symbol set y. If there are external factors such as packet delay or loss during the transmission procedure, or a randomly selected coding coefficient matrix
Figure 112013002932307-pat00063
In the case of this singular matrix, the coding coefficient matrix
Figure 112013002932307-pat00064
Inverse of
Figure 112013002932307-pat00065
Can not be obtained and the solution may not be unique in the linear system of equation (3).

이러한 문제를 해결하기 위해 근사 복호화법은 추가적인 제한 조건들(additional constraints)을 이용하여 코딩 계수 행렬을 풀-랭크로 만들 수 있다. To solve this problem, the approximate decoding method can make the coding coefficient matrix full-rank using additional constraints.

입력된 데이터의 상관 관계가 복호화 절차에서 추가되는 추가 제한 조건들

Figure 112013002932307-pat00066
Figure 112013002932307-pat00067
를 구축하는 데에 이용될 수 있다. 추가 제한 조건들
Figure 112013002932307-pat00068
Figure 112013002932307-pat00069
의 모든 요소들(elements) 역시 GF 내의 값이다.The additional constraints that the correlation of the input data adds in the decryption procedure
Figure 112013002932307-pat00066
Wow
Figure 112013002932307-pat00067
Can be used for constructing. Additional Restrictions
Figure 112013002932307-pat00068
And
Figure 112013002932307-pat00069
All the elements of GF are also values in GF.

추가 제한 조건들

Figure 112013002932307-pat00070
Figure 112013002932307-pat00071
을 추가함으로써 선형 시스템은 유일한 해를 가질 수 있게 되고 유일한 해
Figure 112013002932307-pat00072
는 다음 수학식 5와 같이 표현될 수 있다.Additional Restrictions
Figure 112013002932307-pat00070
And
Figure 112013002932307-pat00071
By adding the linear system can be the only solution and the only solution
Figure 112013002932307-pat00072
Can be expressed by the following equation (5).

Figure 112013002932307-pat00073
Figure 112013002932307-pat00073

추가 제한 조건들

Figure 112013002932307-pat00074
Figure 112013002932307-pat00075
내의 계수들은 소스의 모델들에 기초하여 결정될 수 있다.
Figure 112013002932307-pat00076
가 결정되면, 원본 데이터의 근사 심볼
Figure 112013002932307-pat00077
은 수학식 1의 식별 함수들에 의해
Figure 112013002932307-pat00078
과 같이 얻어질 수 있다. Additional Restrictions
Figure 112013002932307-pat00074
And
Figure 112013002932307-pat00075
The coefficients in the matrix can be determined based on the models of the source.
Figure 112013002932307-pat00076
Is determined, an approximate symbol of the original data
Figure 112013002932307-pat00077
Is determined by the identification functions of Equation (1)
Figure 112013002932307-pat00078
Can be obtained.

좀더 상세한 내용은 H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109~213, Jan. 2013 논문을 참조할 수 있다.H. Park, N. Thomos, and P. Frossard, Approximate decoding approaches for network coded correlated data, Signal Processing (Elsevier), vol. 93, no. 1, pp. 109 to 213, Jan. 2013 thesis can be referred to.

(T-K)×T 행렬

Figure 112013002932307-pat00079
는 유사도 모델에 기초하여 생성될 수 있는데, 예를 들어 가장 유사한 데이터
Figure 112013002932307-pat00080
Figure 112013002932307-pat00081
의 위치에 상응하는 자리에 값 "1" 및 "1"을 가지는 두 개의 요소들을 제외하고 각 행이 0으로 구성되도록 생성된다. 또한
Figure 112013002932307-pat00082
은 T-K 길이를 가지는 벡터로서 결정되는데, 예를 들어 모든 값이 0일 수 있다(
Figure 112013002932307-pat00083
).(TK) x T matrix
Figure 112013002932307-pat00079
May be generated based on the similarity model, for example, the most similar data
Figure 112013002932307-pat00080
And
Figure 112013002932307-pat00081
Quot; 1 "and" 1 "in the place corresponding to the position of " 1 &quot; Also
Figure 112013002932307-pat00082
Is determined as a vector having a TK length, e.g., all values may be zero (
Figure 112013002932307-pat00083
).

이렇게 하여 원본 데이터의 근사 심볼

Figure 112013002932307-pat00084
은 다음의 수학식 6과 같이 얻어질 수 있다.Thus, an approximate symbol of the original data
Figure 112013002932307-pat00084
Can be obtained by the following Equation (6).

Figure 112013002932307-pat00085
Figure 112013002932307-pat00085

이를 통해 복호화기는 일부 심볼들이 완전한 복호화에 불충분하더라도 원래의 심볼들을 근사적으로 복원할 수 있다.This allows the decoder to approximate the original symbols even though some symbols are insufficient for complete decoding.

이러한 기존의 알고리즘의 핵심 아이디어는 소스의 상관 관계에 기초하여 잉여 방정식을 추가하여 수학식 6에서

Figure 112013002932307-pat00086
를 가역적으로(invertible) 만든다는 점이다. 이는 네트워크 코딩된 데이터에 관하여 데이터 복원 방법론의 새로운 패러다임을 제시한다. The core idea of these existing algorithms is to add a surplus equation based on the source correlation,
Figure 112013002932307-pat00086
To make it invertible. This presents a new paradigm of data restoration methodology for network coded data.

하지만 이렇게 기존에 제안된 근사 복호화 방법론들은 추가 제한 조건 행렬

Figure 112013002932307-pat00087
Figure 112013002932307-pat00088
가 경험론적 방법론(heuristic approach)에 의존하는 경우가 대부분이어서 소스 유사성을 제대로 재현하지 못하였고, 이는 제한된 성능으로 이어졌다.
However, the above-described approximate decoding methodologies are not limited to the additional constraint matrix
Figure 112013002932307-pat00087
Wow
Figure 112013002932307-pat00088
Is largely dependent on the heuristic approach, which does not reproduce the source similarity well, leading to limited performance.

3. 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화법과 성능 예측 기법3. Approximate Decoding and Performance Prediction Techniques Using Positional Similarity of Source Data

3.1 소스 데이터의 위치 유사성 정보3.1 Location similarity information of source data

한편,

Figure 112013002932307-pat00089
Figure 112013002932307-pat00090
가 실수 공간에서는 하나의 값을 가지지만, GF(2M) 내에서는 복수의 후보 Δ들, 즉 Δ1, Δ2, Δ3, ..., Δn을 가질 수 있다는 점은 주지의 사실이다. 종래에는 이러한 특성이 근사 복호화법에 이용되지 않았지만, 본 발명과 동일 출원인이 2012년 6월 29일자로 출원한 한국특허출원 제2012-0071282호 "위치정보행렬을 활용한 네트워크 코딩된 데이터의 근사 복호화 방법"에서는 이러한 복수의 후보 값들과 그 위치 인덱스를 이용하는 근사 복호화 방법을 개시하며, 상술한 한국특허출원 제2012-0071282호는 본 발명의 내용의 일부로서 병합된다.Meanwhile,
Figure 112013002932307-pat00089
sign
Figure 112013002932307-pat00090
It is well known that the GF (2 M ) can have a plurality of candidate values Δ 1 , Δ 2 , Δ 3 , ..., Δ n in the GF (2 M ) . Although this characteristic has not conventionally been used in the approximate decoding method, Korean Patent Application No. 2012-0071282, filed on June 29, 2012, which is the same as the present invention, describes an approximate decoding method of network coded data using a positional information matrix Method "discloses an approximate decoding method using a plurality of candidate values and a position index thereof, and Korean Patent Application No. 2012-0071282 mentioned above is incorporated as part of the present invention.

상술한 한국특허출원 제2012-0071282호에서, 각각의 후보 Δ값 및 직전의 심볼에 대해 해당 후보 Δ값을 가지는 심볼의 위치에 관한 위치 인덱스들에 관한 정보를 후보 Δ 순으로 나열한 "위치정보행렬" 즉 PIM(Position Information Matrix)이라는 명명하고, 소스 데이터와 함께 수신 노드로 전송함으로써, 수신 노드에서 누락된 심볼들에 대한 근사 복호화를 수행할 때에 추가 제한 조건

Figure 112013002932307-pat00091
을 생성하는 데에 PIM 정보들을 활용할 수 있게 한 발명이 개시된다.In the above-mentioned Korean Patent Application No. 2012-0071282, information on the position indexes about the positions of symbols having the candidate Δ values with respect to each candidate Δ value and the immediately preceding symbol are listed in the order of candidate Δ, Quot; Position Information Matrix " (PIM), and transmits it to the receiving node together with the source data, when performing approximate decoding on the missing symbols in the receiving node,
Figure 112013002932307-pat00091
The present invention discloses an invention enabling PIM information to be used for generating the PIM information.

GF(2M) 내에서 만약 Δ=2k (0≤k≤M)라면

Figure 112013002932307-pat00092
은 M-k 개의 후보들을 가지는데,
Figure 112013002932307-pat00093
에 속하는 n 번째 후보 Δn는 다음의 수학식 7과 같이 표현되고, 후보 Δn가 실제로
Figure 112013002932307-pat00094
Figure 112013002932307-pat00095
와 일치할 확률은 수학식 8과 같이 표현된다.In GF (2 M ), if Δ = 2 k (0 ≤ kM )
Figure 112013002932307-pat00092
Has Mk candidates,
Figure 112013002932307-pat00093
Δ n n-th candidate that belongs to is expressed as follows: Equation (7), the candidate is actually Δ n
Figure 112013002932307-pat00094
sign
Figure 112013002932307-pat00095
Is expressed by Equation (8). &Quot; (8) &quot;

Figure 112013002932307-pat00096
Figure 112013002932307-pat00096

Figure 112013002932307-pat00097
Figure 112013002932307-pat00097

여기서, 1≤n≤M-k이다. 수학식 8의 확률은 GF(2M) 내에서 전체 2(M-K)-1 회의 후보 Δ들의 가능성 중에 특정 Δn가 등장하는 횟수가 2(M-k-n)임을 의미한다. 실제의

Figure 112013002932307-pat00098
는 후보 Δ들 중 어느 하나이게 되므로, 수학식 8과 같은 확률식이 도출된다.Here, 1? N? Mk. The probability of Equation (8) means that the number of times a particular Δ n appeared during the full potential of 2 (MK) -1 meetings candidate Δ 2 (Mkn) in GF (2 M). Actual
Figure 112013002932307-pat00098
Is one of the candidates?, A probability equation such as Equation (8) is derived.

예를 들어,

Figure 112013002932307-pat00099
1=2k일 경우가 가장 확률이 높은데, 만약 소스 데이터 중에서 각각의 직전 심볼에 관하여
Figure 112013002932307-pat00100
1=2k로 연산되는 일부 심볼들의 위치 인덱스들에 관한 정보를 수신 노드가 알고 있다면, 소스 데이터 집합 내의 심볼들은 선형 상관 관계가 있으므로, 일부 심볼이 전송 중에 누락되더라도, 알고 있는 위치 인덱스를 이용하여 추가 제한 조건
Figure 112013002932307-pat00101
를 생성한다면 좀더 높은 확률로 근사 복호할 수 있다는 것이 상술한 한국특허출원 제2012-0071282호의 기술적 사상 중 하나라고 할 수 있다. 그러한 위치 인덱스는 소스 노드가 생성하여 수신 노드에 부가 정보로서 전달한다.E.g,
Figure 112013002932307-pat00099
= Δ 1 = 2 k is the most probable. If for each immediately preceding symbol in the source data
Figure 112013002932307-pat00100
= DELTA 1 = 2 k , the symbols in the source data set are linearly correlated, so that even if some symbols are missing during transmission, the known position indexes Additional Restrictions Using
Figure 112013002932307-pat00101
It is one of the technical ideas of the above-mentioned Korean Patent Application No. 2012-0071282 that the approximate decoding can be performed with a higher probability. Such a location index is generated by the source node and is transmitted to the receiving node as additional information.

나아가, 만약 Δ1 다음으로 확률이 높은 Δ2로 연산되는 심볼들의 위치 인덱스도 함께 부가하여 전송한다면, 나아가, 추가적으로 최대 M-k 개의 후보들 Δn에 관한 심볼들의 위치 인덱스도 부가하여 전송한다면, 수신 노드는 누락된 심볼들을 더욱 정확하게 근사 복호할 수 있는 것이다.Further, if Δ 1 then the probability is added with high-degree position index of the symbols computed as Δ 2 transferred to, and further, if the transmission in addition also the position index of the symbol on the further up Mk of candidates Δ n, the receiving node It is possible to more precisely approximate the missing symbols.

본 발명에서는 이러한 Δ1에 관한 정보와, 연속하는 심볼들 사이의 차이가 Δn로 나타나는 심볼들에 관한 위치 인덱스들의 정보를 확률 순서대로 나열하여 PSI(Position Similarity Information), 즉 위치 유사성 정보라고 한다.
In the present invention, the information on the Δ 1 and the information on the position indexes about the symbols represented by the difference Δ n between the consecutive symbols are arranged in the order of probability to be referred to as position similarity information (PSI) .

3.2 위치 유사성 정보를 이용한 근사 복호화와 성능 예측3.2 Approximate Decoding and Performance Prediction Using Location Similarity Information

상술한 한국특허출원 제2012-0071282호에서 PIM이라 명명한 개념이 본 명세서에서는 위치 유사성 정보라고 호칭하기로 한다.The concept called PIM in Korean Patent Application No. 2012-0071282 mentioned above will be referred to as position similarity information in this specification.

PSI 정보는 n의 크기에 따라 커지거나 작아질 수 있지만, 원래 소스 데이터에 부가되어 전송되는 것이므로 대역폭을 차지하게 된다. 따라서, PSI의 크기를 증가시키면 근사 복호가 좀더 정확하게 되는 대신에 전체 대역폭 중 데이터가 차지할 수 있는 대역폭을 감소시킨다. 반면에 데이터의 PSI의 크기를 축소시키면 전체 대역폭 중 데이터가 차지할 수 있는 대역폭이 늘어나는 대신에 근사 복호가 다소 부정확하게 된다.The PSI information may be increased or decreased according to the size of n, but it is bandwidth added because it is added to the original source data and transmitted. Thus, increasing the size of the PSI reduces the bandwidth that the data can occupy in the entire bandwidth instead of the more accurate approximate decoding. On the other hand, if the size of the PSI of the data is reduced, the approximate decoding becomes somewhat inaccurate instead of increasing the bandwidth that the data can occupy over the entire bandwidth.

n의 크기를 결정하는 요소를 알기 위해, 한 번에 인코딩 수만큼 결합되는 심볼들을 전송 중에 Nl 개의 심볼들이 소실된다고 가정하면, 수신 노드에서는 손실된 심볼의 갯수만큼의 길이를 가지는 벡터, 추가 제한 조건

Figure 112013002932307-pat00102
를 PSI로부터 생성할 수 있다. Assuming that N l symbols are lost during transmission of the symbols combined in the number of encodings at a time to know the factor that determines the size of n, the receiving node has a vector having a length equal to the number of symbols lost, Condition
Figure 112013002932307-pat00102
Can be generated from the PSI.

n이 1이면 수학식 8에 의해

Figure 112013002932307-pat00103
내에 약 1/2의 확률로 내에
Figure 112013002932307-pat00104
1가 나타날 것이고, n이 2이면 약 1/22의 확률로
Figure 112013002932307-pat00105
2
Figure 112013002932307-pat00106
내에 나타난다. 따라서, n 개의 후보 Δ1, Δ2, Δ3, ..., Δn들을 PSI에 포함시켰다면 하나의 손실 심볼에 대한 길이 1의
Figure 112013002932307-pat00107
내에 Δ1, Δ2, Δ3, ..., Δn들이 모두 나타날 확률은 각각의 확률들을 모두 더한 값이다.If n is 1,
Figure 112013002932307-pat00103
Lt; RTI ID = 0.0 &gt;
Figure 112013002932307-pat00104
1 will appear, and if n is 2, a probability of about 1/2 2
Figure 112013002932307-pat00105
2
Figure 112013002932307-pat00106
Lt; / RTI &gt; Therefore, if n candidates? 1 ,? 2 ,? 3 , ...,? N are included in the PSI, the length 1
Figure 112013002932307-pat00107
The probability that all of Δ 1 , Δ 2 , Δ 3 , ..., Δ n appear in the matrix is the sum of all the probabilities.

만약 Nl개의 손실 심볼이라면, 다음 수학식 9와 같이 근사적으로 표현될 수 있다.If it is N l loss symbols, it can be approximated by Equation (9).

Figure 112013002932307-pat00108
Figure 112013002932307-pat00108

이는 손실 심볼 Nl개인 조건에서 복원 심볼

Figure 112013002932307-pat00109
이 n 개의 후보 Δ들을 이용하여 정확히 원본 심볼
Figure 112013002932307-pat00110
과 동일하게 복원될 확률을 의미하며, n과 k는 소스 노드에서 결정되므로, 수학식 9의 복원 확률, 나아가 수신 노드의 데이터 복원 성능은 손실 심볼들의 개수 Nl에 지배적으로 좌우된다고 할 수 있다.This is because in the loss symbol N l,
Figure 112013002932307-pat00109
Using these n candidate delta values,
Figure 112013002932307-pat00110
Since n and k are determined at the source node, the restoration probability of Equation (9), and furthermore, the data restoration performance of the receiving node dominantly depends on the number N l of lost symbols.

수학식 9에서 근사적으로 예측한 바에 따라, 손실 심볼들의 개수가 어느 정도로 성능을 결정하는지 보기 위해 도 2를 참조하면, 도 2는 본 발명의 일 실시예에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법에서 손실 패킷 수와 위치 유사성 정보의 크기에 따른 근사 복호화 성능을 예시한 그래프이다.Referring to FIG. 2, to see how the number of lost symbols determines the performance as approximately predicted in Equation (9), FIG. 2 illustrates the location similarity of network coded source data according to an embodiment of the present invention FIG. 3 is a graph illustrating approximate decoding performance according to the number of lost packets and the size of position similarity information in a decoding performance prediction method of approximate decoding using information. FIG.

여기서, 네트워크 코딩되는 데이터, 즉 패킷들의 수는 9 개이며, 채널의 패킷 손실율은 패킷 손실이 전체 패킷 9 개 중 하나인 경우부터 9 개중 8 개인 경우까지 다양한 상황을 나타낸다. 다만

Figure 112013002932307-pat00111
의 크기는 8이며 GF(210)로 가정한다. 복호화 성능은 평균 제곱 오류율(MSE)의 역수로 측정하였다.Here, the number of data to be network-coded, that is, the number of packets is nine, and the packet loss rate of the channel varies from the case where packet loss is one of nine packets to eight out of nine packets. but
Figure 112013002932307-pat00111
Is assumed to be 8 and GF (2 10 ). Decoding performance was measured by the reciprocal of the mean square error rate (MSE).

손실 패킷이 1 이상 4 이하인 경우에는, n=1인 Δ1외에 PSI 부가 정보가 전혀 없을 때 즉 PSI 오버헤드 0%인 때에는 1/MSE 값들은 모두 상위 포화 수준(Satu) 근처에 있다.When the loss packet is 1 or more and 4 or less, 1 / MSE values are all near the upper saturation level (Sat u ) when there is no PSI side information other than Δ 1 with n = 1, that is, when the PSI overhead is 0%.

또한 손실 패킷이 5 이상 8 이하인 경우에는, n=1인 Δ1외에 PSI 부가 정보가 전혀 없을 때 즉 PSI 오버헤드 0%인 때에는 1/MSE 값들은 모두 하위 포화 수준(Satl) 근처에 있다.Also, when the loss packet is 5 or more and 8 or less, 1 / MSE values are all near the lower saturation level (Sat l ) when there is no PSI side information other than Δ 1 with n = 1, that is, when PSI overhead is 0%.

한편, PSI 부가 정보가 n=2인 Δ2까지 부가되면, 전송되어야 하는 데이터의 크기는 원본 데이터의 크기보다 약 20% 만큼 늘어나는데, 그 대신에 1/MSE 값들은 손실 패킷의 수가 1인 사례와 5인 사례에서 다소 개선된다. 하지만, 손실 패킷 수가 2 이상 4 이하인 사례들에서는 상위 포화 수준에, 6 이상 8이하인 사례들에서는 하위 포화 수준에 머무른다.On the other hand, if the PSI side information is added up to Δ 2 with n = 2, the size of the data to be transmitted is increased by about 20% from the original data size. Instead, 1 / It is somewhat improved in the case of five people. However, in cases where the number of lost packets is 2 or more and 4 or less, it is in the upper saturation level, and in cases where the number of lost packets is in the range of 6 or more and 8 or less,

PSI 부가 정보가 n=3인 Δ3까지 부가되면, 전송되어야 하는 데이터의 크기는 원본 데이터의 크기보다 약 30%만큼 늘어나는데, 그 대신에 1/MSE 값들은 손실 패킷의 수가 1 및 5인 사례에서 더욱 개선되었을 뿐 아니라, 손실 패킷 수가 각각 2 및 3인 사례와 6 및 7인 사례에서도 개선되기 시작한다. 하지만, 여전히 손실 패킷 수가 4인 사례에서는 상위 포화 수준에 머무르고, 손실 패킷 수가 8인 사례에서는 하위 포화 수준에 머무른다.If the PSI side information is added up to Δ 3 with n = 3, the size of the data to be transmitted is increased by about 30% from the size of the original data. Instead, the 1 / MSE values are Not only that, it also started to improve in cases where the number of lost packets is 2 and 3, and cases 6 and 7, respectively. However, in the case of the loss packet number 4, it remains at the upper saturation level, and in the case of the loss packet number 8, it remains at the lower saturation level.

PSI 부가 정보가 n=4인 Δ4까지 부가되면, 전송되어야 하는 데이터의 크기는 원본 데이터의 크기보다 약 36%만큼 늘어나는데, 그 대신에 1/MSE 값들은 상황에 따라 1/10 이상 줄어들 수 있다. 또한 모든 사례들에서 1/MSE 값들이 개선되었고, 특히 손실 패킷 수가 4인 사례와 손실 패킷 수가 8인 사례에서도 각각 상위 포화 수준과 하위 포화 수준을 이탈하여 급격한 성능 개선을 나타낸다.If the PSI side information is added up to Δ 4 with n = 4, the size of the data to be transmitted is increased by about 36% from the size of the original data, but instead 1 / MSE values can be reduced by 1/10 or more depending on the situation . In addition, 1 / MSE values are improved in all cases. Especially, in case of loss packet number 4 and loss packet number 8, it shows abrupt performance improvement by deviating from upper saturation level and lower saturation level.

부가 정보가 n=5 이상으로 부가되면, 전송되어야 하는 데이터의 크기는 약 40% 정도로 늘어나지만, 모든 사례들에서 1/MSE 값들이 대단히 개선되는 점을 알 수 있다. 특히 손실 패킷 수가 1 이상 4 이하인 경우에 나타나는 1/MSE 값은 복호 성공 확률로 환산하면 약 95 ~ 99% 범위라고 할 수 있다.If the additional information is added at n = 5 or more, the size of the data to be transmitted is increased to about 40%, but it can be seen that 1 / MSE values are significantly improved in all cases. In particular, the 1 / MSE value, which occurs when the number of lost packets is 1 or more and 4 or less, can be said to be in the range of about 95 to 99% in terms of decoding success probability.

도 2를 관찰하면, 패킷 손실율이 50%보다 낮은 경우에 손실 패킷 수에 따른 복호화 성능 지수가 수렴하는 수준과 패킷 손실율이 50%보다 높은 경우에 손실 패킷 수에 따른 복호화 성능 지수가 수렴하는 수준이 다르다는 점이 다르다는 점이 특이하다. 또한 PSI 부가 정보의 부가에 따라, 패킷 손실율 0% 이상 50% 이하인 사례들과 패킷 손실율이 50% 초과 100% 미만인 사례들에서 각각 유사한 행동을 나타낸다는 점도 특이하다.2, when the packet loss rate is lower than 50%, when the decoding performance index according to the number of lost packets converges and when the packet loss rate is higher than 50%, the decoding performance index according to the number of lost packets converges The difference is that it is different. In addition, it is also unusual for the cases where the packet loss rate is between 0% and 50% and the packet loss rate is similar to 50% and less than 100% according to the addition of PSI additional information.

어느 경우이든 PSI 부가 정보의 크기를 늘리면, 즉 전체 대역폭에서 소스 데이터를 위한 대역폭을 희생하면, 근사 복호화 성능 지수는 개선된다. 복호화 성능 지수는 이러한 복호 성공 확률 뿐 아니라 정규화 오류율나 평균 제곱 오류율(MSE) 또는 그 역수로 측량될 수 있는데, 목표로 하는 복호화 성능 지수와 대역폭 사이에는 트레이드오프 관계가 있다.In either case, if the size of the PSI side information is increased, that is, at the expense of bandwidth for the source data in the entire bandwidth, the approximate decoding performance index is improved. The decoding performance index can be measured not only by the decoding success probability but also by the normalization error rate or the mean square error rate (MSE) or its inverse. There is a tradeoff relationship between the target decoding performance index and the bandwidth.

따라서, 네트워크 코딩의 복호화 성능 지수를 예측할 수 있으면 네트워크 자원을 좀더 효율적으로 활용할 수 있는 방안이 도출될 수 있다.Therefore, if the decoding performance index of the network coding can be predicted, a scheme for utilizing network resources more efficiently can be derived.

도 3은 본 발명의 일 실시예에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법을 예시한 순서도이다.3 is a flowchart illustrating a decoding performance prediction method of approximate decoding using position similarity information of network coded source data according to an embodiment of the present invention.

도 3을 참조하면, GF(2M) 내에서 연속하는 소스 데이터들

Figure 112013002932307-pat00112
Figure 112013002932307-pat00113
의 차이
Figure 112013002932307-pat00114
에 관한 각각의 후보
Figure 112013002932307-pat00115
들 및 실제로
Figure 112013002932307-pat00116
Figure 112013002932307-pat00117
의 위치 인덱스들에 기초하여 생성되는 위치 유사성 정보(PSI)가 소스 데이터에 부가된 경우를 전제로 하여, 단계(S31)에서, 수학식 9의 복호 성공 확률에 기초하여 소정의 복호화 성능 지수를 연산한다. 상술하였듯이, 복호화 성능 지수는 복호 성공 확률 자체일 수도 있고, 정규화된 오류율이나 평균 제곱 오류율일 수도 있다.Referring to FIG. 3, consecutive source data in GF ( 2M )
Figure 112013002932307-pat00112
and
Figure 112013002932307-pat00113
Difference
Figure 112013002932307-pat00114
Each candidate for
Figure 112013002932307-pat00115
And actually
Figure 112013002932307-pat00116
sign
Figure 112013002932307-pat00117
(PSI) generated on the basis of the position indices of the positional indexes of the positional information of the positional relationship between the positional similarity information do. As described above, the decoding performance index may be a decoding success probability itself, or may be a normalized error rate or an average square error rate.

단계(S32)에서, 주어진 채널의 패킷 손실율 γ이 50% 이하인지 판정한다. 만약 단계(S32)에서 패킷 손실율 γ이 50% 이하이면 단계(S33)로 진행하고, 패킷 손실율 γ이 50% 초과이면 단계(S34)로 진행한다.In step S32, it is determined whether the packet loss rate? Of a given channel is 50% or less. If the packet loss rate? Is less than 50% at step S32, the process proceeds to step S33, and if the packet loss rate? Exceeds 50%, the process proceeds to step S34.

단계(S33)에서, 만약 연산된 복호화 성능 지수가 상위 포화 수준(satU) 이하이면 연산된 복호화 성능 지수의 값 대신에 상위 포화 수준(satU)을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력한다.In step (S33), If the calculated decoding performance index is higher saturation level (sat U) upper saturation level, instead of the value of the calculated decoding performance index is less than (sat U), or predict the calculated decoding performance index decoding And outputs it as a performance index.

단계(S34)에서, 만약 연산된 복호화 성능 지수가 하위 포화 수준(satL) 이하이면 연산된 복호화 성능 지수의 값 대신에 하위 포화 수준(satL)을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력한다.In step (S34), If the calculated decoding performance index is the lower the saturation level (sat L) sub-saturated levels in place of the value of the calculated decoding performance index is less than (sat L), or predict the calculated decoding performance index decoding And outputs it as a performance index.

이렇게 예측되는 복호화 성능을 기초로 근사 복호화를 위한 위치 유사성 정보 크기의 최적화를 시도할 수 있다.Based on the predicted decoding performance, it is possible to attempt to optimize the position similarity information size for approximate decoding.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all of the equivalent or equivalent variations will fall within the scope of the present invention.

Claims (5)

GF(2M) 내에서 연속하는 소스 데이터들
Figure 112014038276870-pat00118
Figure 112014038276870-pat00119
의 차이
Figure 112014038276870-pat00120
에 관한 각각의 후보
Figure 112014038276870-pat00121
들 및 실제로
Figure 112014038276870-pat00122
Figure 112014038276870-pat00123
의 위치 인덱스들에 기초하여 생성되는 위치 유사성 정보가 소스 데이터에 부가된 경우에, 상기 위치 유사성 정보를 기초로 네트워크 코딩된 소스 데이터를 근사 복호화할 때의 복호화 성능 지수를 연산하는 단계;
주어진 채널의 패킷 손실율이 50% 이하인 경우에, 만약 연산된 복호화 성능 지수가 상위 포화 수준 이하이면 연산된 복호화 성능 지수의 값 대신에 상기 상위 포화 수준을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력하는 단계; 및
주어진 채널의 패킷 손실율이 50%를 초과하는 경우에, 만약 연산된 복호화 성능 지수가 하위 포화 수준 이하이면 연산된 복호화 성능 지수의 값 대신에 상기 하위 포화 수준을, 그렇지 않으면 연산된 복호화 성능 지수를 예측 복호화 성능 지수로서 출력하는 단계를 포함하고,
상기 복호화 성능 지수는 복호 성공 확률이 높을수록 높은 값을 갖도록 연산되고, 패킷 손실율이 50% 이하인 경우에 상기 위치 유사성 정보의 크기가 줄어들면 상기 상위 포화 수준에 수렴하며, 패킷 손실율이 50% 초과인 경우에 상기 위치 유사성 정보의 크기가 줄어들면 상기 하위 포화 수준에 수렴하는 것을 특징으로 하는 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법.
Continuous source data in GF ( 2M )
Figure 112014038276870-pat00118
and
Figure 112014038276870-pat00119
Difference
Figure 112014038276870-pat00120
Each candidate for
Figure 112014038276870-pat00121
And actually
Figure 112014038276870-pat00122
sign
Figure 112014038276870-pat00123
Calculating a decoding capability index when approximating and decoding the network coded source data based on the position similarity information when position similarity information generated based on position indices of the position similarity information is added to the source data;
If the packet loss rate of a given channel is 50% or less, if the calculated decoding performance index is less than the upper saturation level, the upper saturation level is used instead of the calculated value of the decoding performance index. Otherwise, the calculated decoding performance index is used as the predictive decoding performance Outputting as an exponent; And
If the packet loss rate of a given channel exceeds 50%, then if the calculated decoding performance index is below the lower saturation level, the lower saturation level is used instead of the calculated value of the decoding capability index, otherwise the calculated decoding performance index is predicted As a decoding performance index,
The decoding performance index is calculated to have a higher value as the decoding success probability is higher, converges to the upper saturation level when the size of the position similarity information is reduced when the packet loss rate is 50% or less, And converging to the lower saturation level when the size of the position similarity information is reduced. The method of claim 1, wherein the position similarity information is converged to the lower saturation level.
청구항 1에 있어서, 상기 후보
Figure 112014038276870-pat00124

Figure 112014038276870-pat00125

여기서, 1≤n≤M-k이고 M은 GF의 특성값이며,
실제로
Figure 112014038276870-pat00126
Figure 112014038276870-pat00127
Figure 112014038276870-pat00128
일 확률은
Figure 112014038276870-pat00129

이고, 실제로
Figure 112014038276870-pat00143
Figure 112014038276870-pat00144
Figure 112014038276870-pat00145
일 확률이 큰 순서대로 선정되는 후보
Figure 112014038276870-pat00146
의 위치 인덱스들과, 소스 데이터에 위치 유사성 정보를 부가할 수 있는 크기에 기초하여, 상기 위치 유사성 정보가 생성되는 것을 특징으로 하는 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법.
The method according to claim 1,
Figure 112014038276870-pat00124
The
Figure 112014038276870-pat00125

Here, 1? N? Mk, M is a characteristic value of GF,
in reality
Figure 112014038276870-pat00126
sign
Figure 112014038276870-pat00127
end
Figure 112014038276870-pat00128
The odds are
Figure 112014038276870-pat00129

And actually
Figure 112014038276870-pat00143
sign
Figure 112014038276870-pat00144
end
Figure 112014038276870-pat00145
Candidates selected in order of greater probability
Figure 112014038276870-pat00146
And the position similarity information is generated based on the position indices of the source similarity information and the size that can add the position similarity information to the source data. The decoding performance prediction of the approximate decoding using the position similarity information of the network coded source data Way.
청구항 2에 있어서, 상기 복호 성공 확률은
Figure 112013002932307-pat00130

로 근사되며, 손실 패킷이 Nl개인 조건에서 실수 공간에서의 복원 심볼
Figure 112013002932307-pat00131
이 n 개의 후보
Figure 112013002932307-pat00132
들을 이용하여 원본 심볼
Figure 112013002932307-pat00133
과 동일하게 복원될 확률인 것을 특징으로 하는 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법.
The method of claim 2, wherein the decoding success probability is
Figure 112013002932307-pat00130

Is approximated by, it dropped packets recovered symbol in the real space from a N l individual condition
Figure 112013002932307-pat00131
These n candidates
Figure 112013002932307-pat00132
The original symbol
Figure 112013002932307-pat00133
And estimating the decoding performance of the approximate decoding using the position similarity information of the network coded source data.
청구항 1에 있어서, 상기 복호화 성능 지수는 복호 성공 확률, 정규화된 오류율 또는 평균 제곱 오류율 중 어느 하나인 것을 특징으로 하는 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법.The method of claim 1, wherein the decoding performance index is one of a decoding success probability, a normalized error rate, and a mean square error rate. 컴퓨터에서 청구항 1 내지 청구항 4 중 어느 한 청구항에 따른 네트워크 코딩된 소스 데이터의 위치 유사성 정보를 이용한 근사 복호화의 복호화 성능 예측 방법을 수행하도록 프로그래밍된 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for causing a computer to perform a decoding performance prediction method of approximate decoding using position similarity information of network coded source data according to any one of claims 1 to 4.
KR1020130003294A 2013-01-11 2013-01-11 Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information KR101412036B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130003294A KR101412036B1 (en) 2013-01-11 2013-01-11 Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130003294A KR101412036B1 (en) 2013-01-11 2013-01-11 Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information

Publications (1)

Publication Number Publication Date
KR101412036B1 true KR101412036B1 (en) 2014-06-26

Family

ID=51134491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130003294A KR101412036B1 (en) 2013-01-11 2013-01-11 Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information

Country Status (1)

Country Link
KR (1) KR101412036B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100078405A (en) * 2008-12-30 2010-07-08 삼성전자주식회사 Wireless network of applying network coding scheme using random code

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100078405A (en) * 2008-12-30 2010-07-08 삼성전자주식회사 Wireless network of applying network coding scheme using random code

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Minhae Kwon 외1인, "Improved Approximate Decoding based on Position Information Matrix", ISCC 2012, 2012.07.1, pp.114-118. *

Similar Documents

Publication Publication Date Title
CN100424997C (en) Encoder redundancy selection system and method
WO2018019044A1 (en) Encoding method and device
US10362151B2 (en) Coding in Galois fields with reduced complexity
KR20110135597A (en) Apparatus and method using matrix network coding
KR20160019041A (en) System for encoding and decoding of data with channel polarization mechanism
CN107087196A (en) The average decision difference prediction controlled for video coding rate
Chakareski Wireless streaming of interactive multi-view video via network compression and path diversity
JP2012124890A (en) Method and decoder for decoding encoded signal based on statistical dependencies between encoded signal and side information
KR20230079159A (en) Serial concatenated code with outer block code and inner polarization-adjusted convolutional code
KR20110124118A (en) Method and apparatus for encoding video frame using difference between pixels
JP6117994B2 (en) Encoding and decoding method and apparatus
Suguna et al. Secure image communication through adaptive deer hunting optimization based vector quantization coding of perceptually encrypted images
Kuo et al. Performance modeling of FEC‐based unequal error protection for H. 264/AVC video streaming over burst‐loss channels
KR101412036B1 (en) Method for predicting decoding performance of approximate decoding of network coded source data using position similarity information
JP5723457B2 (en) Beam forming method and receiver
KR20170072788A (en) Apparatus and method for estimating packet loss based on machine learning
CN113722739B (en) Gradient lifting tree model generation method and device, electronic equipment and storage medium
Yu et al. Reversible data hiding with pixel prediction and additive homomorphism for encrypted image
KR101623240B1 (en) Apparatus and method for optimal approximate decoding of network coded data from source data with unimodal distributed diffenrece of symbols
KR101415584B1 (en) Apparatus and method for optimal approximate decoding of network coded data using source data statistic
KR102199274B1 (en) Map decoding method using augmented lattices
Kempken et al. Modeling of H. 264 high definition video traffic using discrete-time semi-Markov processes
Marano et al. Some approaches to quantization for distributed estimation with data association
Fernando et al. Reed solomon codes for the reconciliation of wireless phy layer based secret keys
Kwon et al. An improved approximate decoding with correlated sources

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180703

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190404

Year of fee payment: 6