KR101067376B1 - method for associative information processing using multisets and the associative memory device therof - Google Patents

method for associative information processing using multisets and the associative memory device therof Download PDF

Info

Publication number
KR101067376B1
KR101067376B1 KR1020090037480A KR20090037480A KR101067376B1 KR 101067376 B1 KR101067376 B1 KR 101067376B1 KR 1020090037480 A KR1020090037480 A KR 1020090037480A KR 20090037480 A KR20090037480 A KR 20090037480A KR 101067376 B1 KR101067376 B1 KR 101067376B1
Authority
KR
South Korea
Prior art keywords
memory
pattern
data
multiset
learning
Prior art date
Application number
KR1020090037480A
Other languages
Korean (ko)
Other versions
KR20100118675A (en
Inventor
장병탁
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020090037480A priority Critical patent/KR101067376B1/en
Publication of KR20100118675A publication Critical patent/KR20100118675A/en
Application granted granted Critical
Publication of KR101067376B1 publication Critical patent/KR101067376B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/21Design, administration or maintenance of databases
    • G06F16/217Database tuning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2379Updates performed during online database operations; commit processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • G06F16/24534Query rewriting; Transformation
    • G06F16/24537Query rewriting; Transformation of operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • G06F16/24534Query rewriting; Transformation
    • G06F16/24542Plan optimisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • G06F16/90344Query processing by using string matching techniques

Abstract

본 발명은 중복을 허용하는 집합 개념인 멀티셋(multiset) 구조를 이용하여 데이터를 다양한 패턴들의 군집으로 코딩하고 이 패턴들의 조합을 통해서 기억을 재구성(reconstruction)하도록 학습함으로써 스트림 형태로 계속 유입되는 데이터를 효율적으로 모델링하여 새로운 패턴을 생성하며, 나아가 유한한 물리적 기억용량을 이용하여 무한한 가상 기억용량을 산출할 수 있도록 한 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치에 관한 것이다.According to the present invention, data is continuously introduced into a stream by learning to code data into clusters of various patterns using a multiset structure, which is a set concept allowing overlap, and to reconstruct memory through a combination of these patterns. The present invention relates to an associative information processing method using a multiset and a memory device capable of efficiently modeling a new pattern and generating an infinite virtual memory capacity using a finite physical memory capacity.

본 발명의 멀티셋을 이용한 연상 정보 처리 방법은 학습데이터를 입력받는 (a) 단계; 상기 (a) 단계에서 입력된 학습데이터로부터 상기 학습데이터에 비해 상대적으로 저차원의 패턴을 다수 추출하는 (b) 단계; 상기 단계 (b)에서 추출된 패턴을 메모리에 기저장된 패턴과 매치하여 이미 존재하는 패턴인 매치셋과 새로운 패턴인 뉴셋으로 구분하는 (c) 단계; 상기 매치셋과 상기 뉴셋을 이용하여 메모리를 갱신하는 (d) 단계; 상기 매치셋으로부터 상호 연상 작용을 이용하여 확률을 예측함으로써 가장 확률이 높은 하나의 가상데이터를 생성하는 (e) 단계 및 상기 (e) 단계에서 생성된 상기 가상데이터를 이용하여 메모리를 학습하는 (f) 단계를 포함하여 이루어지되, 상기 기저장된 패턴과 상기 단계 (b)에서 추출된 패턴은 중복을 허용하는 집합 개념인 멀티셋으로 이루어진다.Associative information processing method using a multiset of the present invention comprises the steps of (a) receiving the training data; (B) extracting a plurality of relatively low-dimensional patterns from the learning data input in the step (a) compared to the learning data; (C) dividing the pattern extracted in the step (b) into a matchset which is an existing pattern and a newset which is a new pattern by matching a pattern previously stored in a memory; (D) updating a memory using the matchset and the newset; (E) generating one virtual data having the highest probability by predicting a probability using the associative interaction from the matchset and learning a memory using the virtual data generated in the step (e) (f) Step), wherein the pre-stored pattern and the pattern extracted in step (b) are composed of a multiset, which is an aggregation concept to allow duplication.

연상, 메모리, 멀티셋, 학습데이터, 패턴, 군집패턴코드, 가상데이터 Association, Memory, Multiset, Learning Data, Pattern, Cluster Pattern Code, Virtual Data

Description

멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치{method for associative information processing using multisets and the associative memory device therof}Method for associative information processing using multisets and the associative memory device therof}

본 발명은 중복을 허용하는 집합 개념인 멀티셋(multiset) 구조를 이용하여 데이터를 다양한 패턴들의 군집으로 코딩하고 이 패턴들의 조합을 통해서 기억을 재구성(reconstruction)하도록 학습함으로써 스트림 형태로 계속 유입되는 데이터를 효율적으로 모델링하여 새로운 패턴을 생성하며, 나아가 유한한 물리적 기억용량을 이용하여 무한한 가상 기억용량을 산출할 수 있도록 한 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치에 관한 것이다.According to the present invention, data is continuously introduced into a stream by learning to code data into clusters of various patterns using a multiset structure, which is a set concept allowing overlap, and to reconstruct memory through a combination of these patterns. The present invention relates to an associative information processing method using a multiset and a memory device capable of efficiently modeling a new pattern and generating an infinite virtual memory capacity using a finite physical memory capacity.

연상 메모리(associative memory)는 찾고자 하는 데이터의 내용의 일부를 제시함으로써 전체 데이터 항목을 인출해 내는 내용기반 데이터 저장 기술이다. 지금까지의 연상 메모리 기술은 저장하고자 하는 데이터 집합이 고정된 것을 가정하였다. 그러나 이러한 방법들은 계속 변화하는 데이터를 모델링하기에 적합하지 않다. 예를 들어, 감시 카메라나 모바일 멀티미디어 장치의 경우 끊임없이 데이터가 생성되며 이를 실시간에 모델링하여 서비스에 즉각적으로 반영하기 위해서는 기존의 방 법으로는 해결이 어렵다.Associative memory is a content-based data storage technology that retrieves the entire data item by presenting a portion of the data to be searched for. So far, associative memory technology has assumed that the data set to be stored is fixed. However, these methods are not suitable for modeling ever-changing data. For example, in case of surveillance camera or mobile multimedia device, data is continuously generated and it is difficult to solve by existing method to model it in real time and reflect it to service immediately.

본 발명은 전술한 문제점을 해결하기 위해 안출된 것으로서, 중복을 허용하는 집합 개념인 멀티셋(multiset) 구조를 이용하여 데이터를 다양한 패턴들의 군집으로 코딩하고 이 패턴들의 조합을 통해서 기억을 재구성(reconstruction)하도록 학습함으로써 스트림 형태로 계속 유입되는 데이터를 효율적으로 모델링하여 새로운 패턴을 생성하며, 나아가 유한한 물리적 기억용량을 이용하여 무한한 가상 기억용량을 산출할 수 있도록 한 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치를 제공함을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and uses a multiset structure, which is a set concept that allows duplication, to code data into clusters of various patterns and to reconstruct memory through a combination of these patterns. Method to process associative information using a multiset to efficiently model data continuously flowing in a stream form to generate a new pattern, and to calculate an infinite virtual memory capacity using a finite physical memory capacity. It is an object to provide the memory device.

본 발명의 멀티셋을 이용한 연상 정보 처리 방법은 학습데이터를 입력받는 (a) 단계; 상기 (a) 단계에서 입력된 학습데이터로부터 상기 학습데이터에 비해 상대적으로 저차원의 패턴을 다수 추출하는 (b) 단계; 상기 단계 (b)에서 추출된 패턴을 메모리에 기저장된 패턴과 매치하여 이미 존재하는 패턴인 매치셋과 새로운 패턴인 뉴셋으로 구분하는 (c) 단계; 상기 매치셋과 상기 뉴셋을 이용하여 메모리를 갱신하는 (d) 단계; 상기 매치셋으로부터 상호 연상 작용을 이용하여 확률을 예측함으로써 가장 확률이 높은 하나의 가상데이터를 생성하는 (e) 단계 및 상기 (e) 단계에서 생성된 상기 가상데이터를 이용하여 메모리를 학습하는 (f) 단계를 포함하여 이루어지되, 상기 기저장된 패턴과 상기 단계 (b)에서 추출된 패턴은 중복을 허용하는 집합 개념인 멀티셋으로 이루어진다.Associative information processing method using a multiset of the present invention comprises the steps of (a) receiving the training data; (B) extracting a plurality of relatively low-dimensional patterns from the learning data input in the step (a) compared to the learning data; (C) dividing the pattern extracted in the step (b) into a matchset which is an existing pattern and a newset which is a new pattern by matching a pattern previously stored in a memory; (D) updating a memory using the matchset and the newset; (E) generating one virtual data having the highest probability by predicting a probability using the associative interaction from the matchset and learning a memory using the virtual data generated in the step (e) (f) Step), wherein the pre-stored pattern and the pattern extracted in step (b) are composed of a multiset, which is an aggregation concept to allow duplication.

전술한 구성에서, 상기 (a) 단계에서의 패턴의 추출은 랜덤하게 이루어지는 것을 특징으로 한다.In the above configuration, the extraction of the pattern in the step (a) is characterized in that it is made at random.

상기 (c) 단계에서의 상기 매치는 상기 기저장된 패턴과 상기 단계 (b)에서 추출된 패턴인 두개의 멀티셋의 집합 연산을 통해 구현되는 것을 특징으로 한다.The matching in the step (c) is implemented through a set operation of two multisets, the previously stored pattern and the pattern extracted in the step (b).

상기 (d) 단계에서의 상기 갱신에는 상기 매치셋은 그 가중치를 증가시켜서 기억을 강화하고, 상기 뉴셋은 메모리에 추가가 포함된 것을 특징으로 한다.The update in step (d) is characterized in that the matchset increases its weight to enhance memory, and the newset includes an addition to the memory.

상기 (d) 단계에서의 상기 갱신에는 기존에 메모리에 존재하던 상기 매치셋의 제거가 포함되되, 상기 제거는 상기 매치셋의 나이와 가중치를 고려하여 이루어지는 것을 특징으로 한다.The updating in the step (d) includes the removal of the matchset previously existing in the memory, characterized in that the removal is made in consideration of the age and weight of the matchset.

상기 (e) 단계에서의 상기 가상데이터의 생성은 베이스 규칙에 기반하여 이루어지는 것을 특징으로 한다.The generation of the virtual data in the step (e) is characterized in that the base rule.

상기 (f) 단계에서의 학습은 상기 가상데이터와 학습데이터를 비교하여 상기 가상데이터의 잘못 생성된 부분에 기여한 메모리 요소를 삭제하고 올바른 생성에 기여한 메모리 요소를 복제함으로써 메모리를 재구성하는 것을 특징으로 한다.The learning in the step (f) is characterized in that the memory is reconfigured by comparing the virtual data and the learning data, deleting the memory elements contributing to the incorrectly generated portion of the virtual data and duplicating the memory elements contributing to the correct generation. .

한편, 본 발명의 멀티셋을 이용한 연상 메모리 장치는 입력된 학습데이터로부터 상대적으로 저차원의 패턴을 다수 추출하는 추출부; 상기 추출된 패턴을 메모리에 기저장된 패턴과 매치하여 이미 존재하는 패턴인 매치셋과 새로운 패턴인 뉴셋으로 구분하는 매치부; 상기 매치셋과 상기 뉴셋을 이용하여 메모리를 갱신하는 저장부; 상기 매치셋으로부터 상호 연상 작용을 이용하여 확률을 예측함으로써 가 장 확률이 높은 하나의 가상데이터를 생성하는 생성부 및 상기 가상데이터를 이용하여 메모리를 학습하는 학습부를 포함하여 이루어지되, 상기 기저장된 패턴과 상기 추출된 패턴은 중복을 허용하는 집합 개념인 멀티셋으로 이루어진다.On the other hand, the associative memory device using the multiset of the present invention comprises: an extraction unit for extracting a plurality of relatively low-dimensional pattern from the input learning data; A match unit for matching the extracted pattern with a pattern previously stored in a memory and classifying the matched pattern into an existing pattern and a new set as a new pattern; A storage unit to update a memory using the matchset and the newset; And a learning unit for generating one virtual data having the highest probability by predicting a probability using the associative action from the match set, and a learning unit for learning a memory using the virtual data. And the extracted pattern consists of a multiset, which is a set concept that allows duplication.

전술한 구성에서, 상기 패턴의 추출은 랜덤하게 이루어지는 것을 특징으로 한다.In the above configuration, the extraction of the pattern is characterized in that it is made at random.

상기 매치는 상기 기저장된 패턴과 상기 추출된 패턴인 두개의 멀티셋의 집합 연산을 통해 구현되는 것을 특징으로 한다.The match may be implemented through a set operation of two multisets, the previously stored pattern and the extracted pattern.

상기 저장부는 상기 매치셋의 가중치를 증가시켜서 기억을 강화하는 강화부와 상기 뉴셋을 메모리에 추가하는 추가부를 포함하는 것을 특징으로 한다.The storage unit may include a reinforcing unit for increasing memory by increasing the weight of the matchset and an adding unit for adding the newset to the memory.

상기 저장부는 기존에 메모리에 존재하던 상기 매치셋을 그 나이와 가중치를 고려하여 제거하는 제거부를 더 포함하는 것을 특징으로 한다.The storage unit may further include a remover which removes the matchset existing in the memory in consideration of its age and weight.

상기 가상데이터의 생성은 베이스 규칙에 기반하여 이루어지는 것을 특징으로 한다.The virtual data is generated based on a base rule.

상기 학습부는 상기 가상데이터와 학습데이터를 비교하는 비교부; 상기 비교 결과, 상기 가상데이터의 잘못 생성된 부분에 기여한 메모리 요소를 삭제하는 삭제부 및 상기 비교 결과, 가상데이터의 올바른 생성에 기여한 메모리 요소를 복제하는 복제부를 포함하는 것을 특징으로 한다.The learning unit compares the virtual data with the learning data; And a deletion unit for deleting a memory element contributing to the wrongly generated portion of the virtual data as a result of the comparison, and a copying unit for copying the memory element contributing to the correct generation of the virtual data as a result of the comparison.

본 발명의 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치에 따르면 다음과 같은 작용/효과가 발휘된다.According to the associative information processing method using the multiset of the present invention and its memory device, the following operations / effects are exhibited.

- 패턴 형성 능력이 있어서 관측된 데이터들과 유사한 새로운 패턴을 생성해 낼 수 있다.The ability to form patterns allows the creation of new patterns similar to observed data.

- 노이즈 제거 효과가 있어서 입력된 데이터에 포함된 노이즈를 제거하여 깨끗한 원래의 이미지를 복원할 수 있다.-The noise removal effect can remove the noise included in the input data to restore the clean original image.

- 프라이밍 효과(priming effect)를 반영할 수 있어서 변화하는 환경에 빠르게 적응하고 새로운 상태를 예측하는데 활용할 수 있다.Priming effects can be reflected, allowing them to adapt quickly to changing environments and predict new conditions.

- 대규모의 변화하는 데이터를 효율적으로 저장하고 내용 기반으로 인출해 낼 수 있다.-Efficiently store large amounts of changing data and retrieve it based on content.

- 사람의 기억 능력과 유사하게 아주 오래된 기억을 실시간에 회상해 낼 수 있다.Similar to a person's memory ability, very old memories can be recalled in real time.

- 군집 코딩(population coding)의 개념을 이용하여 단기적인 변화를 수용하면서도 장기적인 안정성을 유지는 효과가 있어서 온라인 학습에 유용하다.-The concept of population coding is used to accommodate short-term changes while maintaining long-term stability, which is useful for online learning.

- 희소적 코딩(sparse coding) 방식에 의해 변화가 있는 부분만을 학습하여 변경함으로써 메모리 활용 효율을 극대화하는 효과가 있다.-By learning and changing only the parts that are changed by sparse coding, the memory utilization efficiency can be maximized.

- 전역국소적 코딩(glocal coding) 방식을 통해서 의사 상태(spurious states)를 줄임으로써 기존의 연상 메모리보다 정보저장 향상 효과가 있다.-By reducing the spurious states through glocal coding method, there is an effect of improving information storage than the conventional associative memory.

이하에는 첨부한 도면을 참조하여 본 발명의 멀티셋을 이용한 연상 정보 처리 방법 및 그 메모리 장치에 대해 상세하게 설명한다.Hereinafter, an associative information processing method and a memory device using the multiset according to the present invention will be described in detail with reference to the accompanying drawings.

먼저, 본 발명은 학습데이터 집합 D를 멀티셋(multiset) 형태의 데이터 구조 로 된 멀티셋 패턴 메모리 M상에 효율적으로 표현하고 멀티셋 패턴 메모리 M으로부터 다양한 패턴의 재조합(recombination)에 의해서 원래 학습 데이터 집합 D를 재구성(reconstruction)한다. 이 방법은 특히 학습데이터 집합 D가 변화하는 경우에도 효율적인 저장과 인출이 가능한 방법으로서 일반적으로 |M| << |D|, 즉 메모리 용량이 학습데이터의 전체 용량에 비해서 극히 작은 경우에 유효하다.First, the present invention efficiently expresses the training data set D on a multiset pattern memory M having a multiset data structure, and the original training data by recombination of various patterns from the multiset pattern memory M. Reconstruct set D. This method is especially useful for learning data Efficient storage and retrieval is possible even if set D changes, typically | M | << | D |, that is, it is effective when the memory capacity is extremely small compared to the total capacity of the training data.

도 1은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 멀티셋 패턴 메모리의 구성 예시도인바, N개의 학습데이터에 대해 각각 20개씩의 패턴을 추출 후 이를 멀티셋 패턴 메모리 M에 저장한 경우를 예시하고 있다. 또한 학습데이터 하나에 대해서 네 가지 다른 종류의 패턴이 중복 샘플링된 경우를 가정(중복 샘플링의 횟수는 가중치 w)하였는데, 일반적으로는 학습데이터 간에 같은 패턴이 중복될 수 있으며 특히 데이터의 수가 많아지면 이 경우가 더욱 빈번해진다. 도 1에서는 패턴 추출 방법의 설명을 위해서 중복되는 경우가 없는 경우를 예시하고 있는바, 연상작용에 의한 패턴생성은 이러한 중복 패턴을 이용한다.FIG. 1 is a diagram illustrating a configuration of a multiset pattern memory in the associative information processing method using the multiset of the present invention, in which 20 patterns of N training data are extracted and stored in the multiset pattern memory M, respectively. To illustrate. In addition, it is assumed that four different types of patterns are duplicated for one training data (the number of duplicate samplings is weighted w). In general, the same pattern may be duplicated among training data. Cases become more frequent. 1 illustrates a case where there is no overlap in order to explain the pattern extraction method, and the pattern generation by the associative action uses the overlap pattern.

본 발명의 멀티셋 패턴 메모리(이하 간단히 '패턴 메모리'라고도 한다) M = {m k }의 내용은 도 1과 같은 접속 행렬(incidence matrix)로 표시할 수 있다. 하나의 메모리 요소를 구성하는 패턴은 행 m k 에 표시되며 행에 표시된 0 또는 1의 값이 있으면 해당 변수 xi는 이 패턴에 포함된다. 공백으로 남아있는 변수는 이 패턴을 구성하는데 포함되지 않음을 뜻한다.The content of the multiset pattern memory of the present invention (hereinafter also referred to simply as 'pattern memory') M = { m k } may be represented by an incidence matrix as shown in FIG. 1. The pattern constituting one memory element is shown in row m k , and if there is a value of 0 or 1 shown in the row, that variable x i is included in this pattern. Variables left blank will not be included in this pattern.

본 발명의 패턴 메모리 M은 다음과 같은 특성을 가진다.The pattern memory M of the present invention has the following characteristics.

1. |m k | << N. 즉 데이터의 차원수 N보다 패턴의 차원수가 아주 작은 희소 코딩(sparse coding) 방식을 사용한다.One. | m k | << N. In other words, a sparse coding scheme in which the number of dimensions of the pattern is much smaller than the number of dimensions N of the data is used.

2. |m i | ≠ |m j | for i j. 즉 메모리에 저장되는 패턴의 길이가 다양한 가변길이 코드(variable codewords)를 사용한다.2. | m i | ≠ | m j | for ij. That is, variable codewords having various lengths of patterns stored in memory are used.

3. 하나의 학습데이터로부터 n개의 저차원 패턴을 무작위로 반복 추출함으로써 분산 코드(distributed code)를 사용한다.3. The distributed code is used by randomly extracting n low-dimensional patterns from one learning data.

4. m i = m j for ij를 허용한다. 즉 같은 패턴이 중복 저장될 수 있는 멀티셋 구조를 갖는다.4. Allow m i = m j for ij . That is, it has a multiset structure in which the same pattern can be stored repeatedly.

5. |M| >> N. 즉 메모리에 저장되는 패턴의 갯수는 데이터 차원수보다는 월등히 크다. 5. | M | >> N. That is, the number of patterns stored in memory is much larger than the number of data dimensions.

6. |M| << |D|. 즉 메모리 용량(저장되는 패턴의 갯수)이 데이터의 양(학습데이터 수) 보다 현저히 작아 압축률이 크다.6. | M | << | D |. That is, the memory capacity (the number of patterns to be stored) is significantly smaller than the amount of data (the number of learning data), so that the compression ratio is large.

예를 들어, 100 x 100의 10000개의 픽셀로 구성된 이미지 데이터 10000장을 저장할 경우를 생각해 보자. 이 경우 N = 10,000이며 |D| = 10,000이다. 이 데이터를 일반 이미지로 저장할 경우 10,000 x 10,000 = 108개 즉 100 Mega 개의 메모리 요소가 필요하다. 이 데이터를 멀티셋 연상 메모리에 저장할 경우에는 예를 들어, 고정된 크기 k=100의 메모리 요소 m i 를 100만개(= 106)만큼 사용(즉 |M| = 106)하여 총 108개의 메모리 요소를 사용하여 표현할 수 있다. 후출하는 실험 결과에서 관찰 할 수 있는 바와 같이 희소 코드로 연상 메모리에 저장하는 경우 원래의 이미지의 세세한 정보는 일부 제거하고 대신 이미지들간의 공통된 부분들에 대한 정보를 유지함으로써 전체적인 데이터의 특성을 표현하는 특성이 있다.For example, consider storing 10000 image data consisting of 10000 pixels 100 x 100. In this case N = 10,000 and | D | = 10,000. If you store this data as a normal image, you need 10,000 x 10,000 = 10 8 or 100 Mega memory elements. When storing this data in multiset associative memory, for example, 1 million (= 10 6 ) memory elements m i of fixed size k = 100 are used (that is, | M | = 10 6 ) for a total of 10 8 It can be represented using memory elements. As can be seen from the results of backward experiments, when stored in associative memory with sparse code, the detailed information of the original image is removed, and instead, the information on the common parts of the images is maintained to express the characteristics of the entire data. There is a characteristic.

연상 메모리 방식의 저장은 특히 관측하는 데이터의 수가 아주 많거나 자주 변하는 경우에 특히 유리하다. 이 예에서 관측되는 이미지의 수가 만약 초당 10장이라면 이는 분당 600장이고 한 시간에 36000장이며 하루에는 24 x 36000 = 864,000장(약 0.86 Mega)이다. 만약 하루에 관측한 모든 데이터를 저장하려고 한다면 총 용량은 약 104 x 0.86 Mega = 8.6 Giga 개의 메모리 요소를 필요로 한다. 이 경우 데이터를 단순히 저장하는 것만이 아니고 실시간으로 분석을 해야한다면 이는 현실적으로 불가능하다. 이 경우에 멀티셋 연상 메모리를 활용하여 문제를 해결할 수 있다. 즉 이 큰 문제에 대해서도 앞에서의 작은 문제에서와 같이 고정된 크기 k=100의 저차원 데이터로 구성된 메모리 요소 m i 를 100만개(= 106) 사용하여 |M| = 108개 즉 100 Mega의 메모리 요소를 갖는 연상 메모리를 구성하면 온라인으로 이미지 데이터를 분석할 수 있다. 물론 문제 해결 효과의 정도는 구체적인 문제의 난이도에 따라서 다를 수 있다. 그러나 아래의 실험적인 분석에서 보는 바와 같이 많은 실제 데이터의 경우 데이터의 구조가 존재하고 관측 데이터는 중복성이 있기 때문에 연상 메모리 방식으로 저장하여도 정보 손실이 크지 않다.Associative memory storage is particularly advantageous when the number of observed data is very large or changes frequently. If the number of images observed in this example is 10 images per second, this is 600 images per minute, 36000 images per hour, and 24 x 36000 = 864,000 images per day (about 0.86 Mega). If we wanted to store all the data we observed in a day, the total capacity would require about 10 4 x 0.86 Mega = 8.6 Giga memory elements. In this case, if you are not just storing the data, but analyzing it in real time, this is not practical. In this case, the problem can be solved by utilizing multiset associative memory. In other words, for this large problem, as in the previous small problem, using 1 million memory elements m i (= 10 6 ) consisting of low-dimensional data of fixed size k = 100 , | M | If you configure associative memory with 10 8 memory elements, or 100 Mega elements, you can analyze image data online. Of course, the degree of problem solving effect may vary depending on the difficulty level of the specific problem. However, as shown in the experimental analysis below, since many data structures exist and the observed data are redundant, information loss is not significant even when stored in associative memory.

관측 데이터의 양이 너무나 커서 저장이 어려운 경우 외에도 멀티셋 연상 메 모리는 데이터가 계속 변하여 모델을 온라인으로 계속 적응시켜야 하는 경우에 아주 적합하다. 이는 학습시에 관측 데이터로부터 샘플을 추출하고 이를 메모리에 저장하는 것만으로 학습이 빨리 수행될 수 있기 때문이다. 이와 같이 일부 메모리 요소를 교체해도 전역적인 해에 큰 영향을 미치지 않는 이유는 학습이 군집 코드를 기반으로 하기 때문이다.In addition to the fact that the amount of observation data is so large that it is difficult to store, the multiset associative memory is well suited when the data is constantly changing and the model must be adapted online. This is because learning can be performed quickly only by extracting a sample from observation data and storing it in memory during learning. This replacement of some memory elements does not significantly affect the global solution because learning is based on cluster code.

도 2는 본 발명의 멀티셋을 이용한 연상 메모리 장치의 전체적인 블록 구성도인바, 크게 멀티셋 패턴 메모리 M, 추출부(20), 매치부(30), 저장부(40), 생성부(50) 및 학습부(60)로 구성되어 있다.2 is an overall block diagram of an associative memory device using the multiset according to the present invention. The multiset pattern memory M, the extractor 20, the matcher 30, the storage 40, and the generator 50 are shown in FIG. And a learning unit 60.

먼저, 추출부(20)는 입력된 학습데이터 x로부터 k차원 패턴을 n개 추출(샘플링부; 22)하여 군집패턴코드 S를 구성(코딩부; 24)한다.First, the extractor 20 extracts n k- dimensional patterns from the input learning data x (sampling unit) 22 to form a cluster pattern code S (coding unit) 24.

매치부(30)는 이렇게 구성된 군집패턴코드 S를 저장된 패턴 메모리 M과 매치(매칭부; 32)하여 매치셋 M' = S ∩ M과 뉴셋 S' = S - M'을 구성(선별부; 34)한다. 여기에서, 매치셋 M'는 학습데이터 x로부터 추출된 패턴들 중에서 이미 메모리에 저장되어 있는 것들의 모임이며 뉴셋 S'는 기존에 관측되지 않은 새로운 패턴들의 모임이다.The match unit 30 matches the group pattern code S thus configured with the stored pattern memory M (matching unit; 32) to form a match set M '= S ∩ M and a new set S' = S-M '(selection unit; 34). )do. Here, the matchset M 'is a collection of patterns extracted from the training data x that are already stored in the memory and the newset S' is a collection of new patterns not previously observed.

다음으로, 저장부(40)는 매치셋 M'와 뉴셋 S'를 이용하여 패턴 메모리 M을 갱신한다. 구체적으로 매치셋 M'에 있는 패턴은 기존의 패턴 메모리 M에 있으므로 그 가중치를 증가함으로써 기억을 강화(consolidation)(강화부; 42)하고, 뉴셋 S'에 있는 패턴은 신규 패턴이므로 새로이 패턴 메모리 M에 추가(추가부; 44)한다. 그러나 이 경우 메모리 용량이 모자랄 수 있으므로 기존의 패턴을 삭제하고 교체 (제거부; 46)한다(후술하는 삭제 전략 이용).Next, the storage unit 40 updates the pattern memory M using the matchset M 'and the newset S'. Specifically, since the pattern in matchset M 'is in the existing pattern memory M, the weight is increased to increase the weight (consolidation) (42), and since the pattern in newset S' is a new pattern, a new pattern memory M Add (addition); However, in this case, since the memory capacity may be insufficient, the existing pattern is deleted and replaced (removed) 46 (using the deletion strategy described later).

다음으로, 생성부(50)는 매치셋 M'로부터 상호 연상 작용을 이용하여 확률을 예측(예측부; 52)함으로써 가장 확률이 높은 하나의 가상데이터 y를 합성(합성부; 52)(구체적인 방법은 후술함)하는데, 여기에서 가상데이터 y는 그 차원과 모양이 학습데이터 x와 동일하다.Next, the generation unit 50 predicts the probability using the associative action from the match set M '(prediction unit; 52) to synthesize one virtual data y having the highest probability (synthesis unit) 52 (specific method). Where the virtual data y has the same dimension and shape as the training data x .

마지막으로 학습부(60)는 학습데이터 x와 가상데이터 y를 비교하여 향후 가상데이터 y가 학습데이터 x에 더욱 유사하게 생성되는 방향으로 메모리 패턴을 교정하는데, 구체적으로 생성된 가상데이터 y와 원래의 학습데이터 x를 비교(비교부; 62)함으로써 가상데이터 y 중에서 올바르게 생성된 부분에 기여한 메모리 요소는 복제하여 강화(복제부; 66)하고, 틀린 부분을 생성하는데 기여한 메모리 요소는 삭제함으로써 그 확률을 줄이도록 패턴 메모리 M을 재구성(삭제부; 64)한다.Finally, the learning section 60 includes a learning data x and the virtual data y compared to the next virtual data y is the to calibrate the memory pattern in the direction in which more similarly generated in the learning data x, a specifically generated virtual data y and the original the By comparing (comparing with; 62) the training data x , the memory elements contributing to the correctly generated part of the virtual data y are duplicated and reinforced (duplicating part 66), and the memory elements contributing to generating the wrong part are deleted. The pattern memory M is reconfigured (deleting section 64) to reduce it.

도 3은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법을 도 1에 도시한 연상 메모리 장치의 각 부의 처리 과정과 함께 상세하게 설명하기 위한 흐름도이다.FIG. 3 is a flowchart for explaining in detail the associative information processing method using the multiset of the present invention together with the processing of each part of the associative memory device shown in FIG.

먼저, 추출부(20; 단계 S20)에서는 주어진 학습데이터 x로부터 저차원의 패턴을 무작위로 추출하여 샘플링(단계 S22)하고, 다시 이러한 샘플링 과정을 n번 반복하여 하나의 학습 데이터 x로부터 S = {s 1 , s 2 , …, s n }의 n개의 패턴의 집합으로 구성된 군집패턴코드 S를 구성(단계 S24)한다. 여기에서, 입력되는 학습데이터 x는 이진 변수값들의 벡터 형태를 취하는 것으로 가정한다. 그러나 이 방법은 임의의 변수값에 대해서도 적용할 수 있다. 만약 실제 데이터가 이진수 형태가 아니라면 전처리 과정을 통해서 이 형태로 변환하는 것이 또한 가능하며 아래에서는 이를 가정한다.First, the extraction section; the (20, step S20) to extract a random pattern of low-order from the given learning data x sampling (step S22) and, S = from a learning data x to repeat the sampling process n times again { s 1 , s 2 ,. , cluster pattern code S composed of a set of n patterns of s n } is constructed (step S24). Here, it is assumed that the input training data x takes a vector form of binary variable values. However, this method can be applied to any variable value. If the actual data is not in binary form, it is also possible to convert it to this form via preprocessing, which is assumed below.

도 4는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 학습데이터로부터 패턴을 추출하는 방법을 설명하기 위한 도로서, N = 64차원의 숫자 이미지 데이터(학습데이터) x로부터 k = 7 차원의 변수값을 무작위로 추출하여 차수가 7인 패턴 s를 구성하는 과정을 예시하고 있다.4 is a road standing, N = 64-dimensional number of image data (learning data) x from k = 7-D of a variable for explaining a method for extracting patterns from the training data in the image of the information processing method using a multi-set of the invention The process of randomly extracting values to construct a pattern s of order 7 is illustrated.

한편 군집패턴코드 S는 여러 개의 코드워드로 구성되어 있는 군집코드(population code)이다. 이 코드는 또한 데이터의 차원 N의 작은 일부 즉 k 차원 패턴으로 구성된 희소 코드(sparse code)의 특성, 즉 k << N의 특성을 가진다.The cluster pattern code S is a population code composed of several code words . This code also has a small portion of the dimension N of data, a sparse code composed of k- dimensional patterns, i.e. k << N.

학습데이터 벡터 xN 차원으로 구성되어 있다면 이로부터 생성할 수 있는 샘플의 총 가지수는 그 부분집합의 개수와 같은 2N 개이다. 위의 이미지 데이터의 예에 적용하면 N = 10,000이고 생성 가능한 모든 샘플의 수는 210000 > 1012의 큰 수이다. 만약 샘플 패턴 차원수를 k = 100으로 고정한다면 10000C100 개로 역시 아주 큰 수이다. 그러나 만약 차원이 중복없이 추출된다면 k = 100 차원의 샘플 100개를 추출하면 된다. 따라서 샘플 수 n을 다음의 수학식 1 및 2와 같은 기준으로 정할 수 있다.If the training data vector x is composed of N dimensions, the total number of samples that can be generated therefrom is 2 N equal to the number of subsets. Applying the example of the image data above, N = 10,000 and the number of all samples that can be generated is a large number of 2 10000 > 10 12 . If you set the sample pattern dimension to k = 100, then 10000 C 100 is also a very large number. However, if the dimensions are extracted without overlap, then 100 samples with k = 100 dimensions can be extracted. Therefore, the sample number n can be determined based on the following equations (1) and (2).

[수학식 1][Equation 1]

Figure 112009025997982-pat00001
Figure 112009025997982-pat00001

[수학식 2][Equation 2]

Figure 112009025997982-pat00002
Figure 112009025997982-pat00002

그러나 저차원 샘플링으로 인한 정보 손실을 감안하면 샘플 수는 이 N 보다는 커야할 것이다. 따라서 cK로 하되 c는 패턴 메모리 M으로 사용할 수 있는 메모리 공간의 양에 따라 결정되면 된다.However, considering the loss of information due to low-dimensional sampling, the number of samples should be greater than this N. Therefore, let cK but c is determined according to the amount of memory space available for the pattern memory M.

다음으로, 매치부(30; 단계 S30)는 군집패턴코드 S의 내용을 패턴 메모리 M의 내용과 매치(단계 S32)하여 매치셋 M'와 뉴셋 S'를 선별하여 구성(단계 S34)한다. 여기에서, S = {s i }와 M = {m j }은 멀티셋으로 표시되기 때문에 매치는 집합 연산을 통해서 구현 가능하다. 다만 멀티셋이기 때문에 같은 요소의 패턴이 여러 개 중복 가능하며 이는 가중치 w로 패턴 메모리 M에 표시된다. 매치에 의해서 찾아진 결과는 아래의 수학식 3 및 4와 같이 매치셋 M'와 뉴셋 S'의 두 개로 구분된다.Next, the match unit 30 (step S30) matches the contents of the group pattern code S with the contents of the pattern memory M (step S32) to select and match the matchset M 'and the newset S' (step S34). Here, S = { s i } and M = { m j } are represented as multisets, so a match can be implemented through a set operation. However, because it is a multiset, multiple patterns of the same element can be overlapped, which is represented in the pattern memory M with a weight w. The results found by the match are divided into two, matchset M 'and newset S', as shown in Equations 3 and 4 below.

[수학식 3]&Quot; (3) &quot;

M' = M ∩ SM '= M ∩ S

[수학식 4]&Quot; (4) &quot;

S' = S - M'S '= S-M'

위의 수학식 3 및 4의 두 개의 집합은 서로 공통 부분이 없는 분리 집합이며 따라서 아래의 수학식 5를 만족하며, 이에 따라 아래의 수학식 6이 도출된다.The two sets of Equations 3 and 4 above are separate sets having no common part, and thus satisfy Equation 5 below, whereby Equation 6 below is derived.

[수학식 5][Equation 5]

S = S' ∪ M'S = S '∪ M'

[수학식 6]&Quot; (6) &quot;

S' ∩ M' = {}S '∩ M' = {}

매치 과정에서는 일부 에러를 허용할 수 있다. 즉 두 개의 패턴간의 완전한 매치를 가정하기보다는 그 유사도 sim(m j,s i)를 계산해서 어떤 문턱값 θsim보다 크면 매치되었다고 보는 방법이 가능하다. 이 경우 매치셋은 아래의 수학식 7과 같다.Some errors can be tolerated during the match process. In other words, rather than assuming a perfect match between the two patterns, it is possible to calculate the similarity sim ( m j , s i ) and see that the match is greater than a certain threshold θ sim . In this case, the match set is represented by Equation 7 below.

[수학식 7][Equation 7]

Figure 112009025997982-pat00003
Figure 112009025997982-pat00003

유사도의 측정 단위로는 예를 들면, 아래의 수학식 8을 사용할 수 있다.For example, the following Equation 8 may be used as a unit of measure of similarity.

[수학식 8][Equation 8]

Figure 112009025997982-pat00004
, 단 σ2은 데이터의 분산값
Figure 112009025997982-pat00004
Where σ 2 is the variance of the data

다음으로, 저장부(40; 단계 S40)는 매치셋 M'에 있는 메모리 패턴에 대한 가중치를 늘여서 강화(단계 S42)하고, 필요시에 패턴 메모리 M 내부의 오랜 패턴을 제거(단계 S44)하며, 뉴셋 S'의 패턴들을 패턴 메모리 M에 추가(단계 S46)하는데, 기존의 메모리 패턴에 대해서 가중치를 변경하는 방식으로는 아래의 수학식 9 및 10과와 같이 두 가지가 있다.Next, the storage unit 40 (step S40) strengthens by increasing the weight of the memory pattern in the match set M '(step S42), and removes the old pattern inside the pattern memory M (step S44) if necessary, The patterns of the new set S 'are added to the pattern memory M (step S46). There are two ways of changing the weight of the existing memory patterns as shown in Equations 9 and 10 below.

[수학식 9][Equation 9]

Figure 112009025997982-pat00005
Figure 112009025997982-pat00005

[수학식 10][Equation 10]

Figure 112009025997982-pat00006
Figure 112009025997982-pat00006

먼저 수학식 9의 방식은 가중치를 더해가는 방식이고 수학식 10의 방식은 현재 가중치에 일부 비율을 곱해가는 방식이다. 전자의 경우 안정된 학습이 가능한 점이 장점이나 학습이 느릴 수 있고, 후자의 경우 중요한 패턴을 빨리 반영할 수 있는 장점이 있으나 특정 패턴들이 전체 패턴의 특성을 지배할 수 있는 우려가 있다.First, Equation 9 is a method of adding weights, and Equation 10 is a method of multiplying the current weight by some percentage. In the former case, the stable learning is possible, but the learning may be slow. In the latter case, the important pattern may be quickly reflected, but there is a concern that certain patterns may dominate the characteristics of the entire pattern.

한편, 뉴셋 S'에 있는 패턴을 패턴 메모리 M에 저장할 경우에 이미 메모리의 용량이 채워져서 더 이상 새로운 패턴을 수용할 수 없는 경우가 발생할 수 있다. 많은 학습데이터를 관측한 후에 계속 새로운 데이터들이 입력되거나 환경이 변화하고 있다면 이러한 일이 빈번히 발생할 수 있다(그러나 많은 학습데이터가 관측되었으나 계속 유사한 데이터가 유입된다면 이러한 경우는 빈번하지 않다). 이 경우 어떤 기존의 패턴을 삭제하거나 교체할지를 결정할 필요가 있다. 이를 위해서 모든 저장 패턴에 대해서 시간 스탬프를 명시하고 패턴이 새로이 저장될 때는 그 시간 tk를 명시한다. 이 시간은 계속 나이를 먹으며 후에 교체할 패턴을 찾을 때 이 나이가 문턱값 θage보다 큰지를 고려한다. 그런데 나이만 고려할 경우 중요한 패턴을 삭제할 수 있으므로 다음과 같이 가중치 wk가 일정값 θweight이하일 경우에만 삭제를 고려한다. 교체 전략은 아래의 수학식 11과 같이 교체할 후보집합 R을 정한 후 이 중에서 나이가 제일 많거나 가중치가 제일 작은 패턴을 삭제하는 방식으로 이루어질 수 있다.On the other hand, when the pattern in the newset S 'is stored in the pattern memory M, a case where the capacity of the memory is already filled can no longer accommodate a new pattern may occur. This can happen frequently if new data is constantly being entered or the environment is changing after observing a lot of training data (but if many training data have been observed but similar data continues to flow in, this is not the case). In this case, you need to decide which existing patterns to delete or replace. To do this, specify a time stamp for every storage pattern and specify the time t k when the pattern is newly stored. This time continues to age and considers whether this age is greater than the threshold θ age when looking for patterns to replace later. However, if only age is considered, important patterns can be deleted. Therefore, delete only when the weight w k is below a certain value θ weight as follows. The replacement strategy may be performed by selecting a candidate set R to be replaced as shown in Equation 11 below and deleting the oldest or least weighted pattern among them.

[수학식 11][Equation 11]

Figure 112009025997982-pat00007
Figure 112009025997982-pat00007

본 발명의 연상 메모리 방식에서는 위와 같이 학습데이터부터 패턴을 추출하여 이를 저장하는 과정만을 거쳐서도 자동으로 일반화, 즉 학습 효과가 있다는 것을 유의할 필요가 있다. 즉 학습은 크게 두 부분에서 일어나는데,In the associative memory method of the present invention, it is necessary to note that there is an automatic generalization, that is, a learning effect only through the process of extracting and storing a pattern from the learning data as described above. That is, learning happens in two parts

1. 새로운 샘플로 패턴 메모리의 내용을 갱신함으로써 패턴 메모리에 저장된 패턴의 가중치값이 수정된다(기억 강화에 의한 학습 효과).1. By updating the contents of the pattern memory with a new sample, the weight value of the pattern stored in the pattern memory is corrected (learning effect by memory enhancement).

2. 저장되는 샘플의 차원이 원래 학습데이터보다 저차원이기 때문에 자발적인 일반화(spontaneous generalization)가 생긴다(차원수를 줄임에 의한 학습 효과).2. Spontaneous generalization occurs because the dimension of the stored sample is lower than the original learning data (learning effect by reducing the number of dimensions).

특히 위의 2항의 자발적인 일반화 특성은 연상 메모리 장치가 빨리 변화하는 환경에서 학습하는데 많은 장점을 가진다. 이 경우에는 보다 시간을 요하는 학습부를 수행하지 않고 단순히 관측되는 데이터로부터 저차원의 샘플만을 추출해서 이를 가지고 메모리 내용을 갱신하는 것만으로도 최근에 데이터 특성을 추적하여 적응하는 것이 가능하다.In particular, the spontaneous generalization feature of paragraph 2 has many advantages for learning in associative memory devices. In this case, it is possible to track and adapt the data characteristics recently by simply extracting a low-dimensional sample from the observed data and updating the memory contents without performing the learning unit that requires more time.

다음으로, 생성부(50; 단계 S50)는 가상데이터 y를 생성함으로써 연상기억 능력을 평가하는데, 이를 위해 매치셋 M'로부터 상호 연상 작용을 이용하여 확률을 예측(단계 S52)함으로써 가장 확률이 높은 하나의 가상데이터 y를 합성(단계 S54)한다. 앞에서 살펴본 저장부(40; 단계 S40)에서는 패턴 메모리 M에 기 저장된 내용들의 상호 작용을 고려하지 않고 그대로 추가하거나 가중치를 갱신하였다. 그러나 연상 메모리의 경우 인출된 데이터가 다음의 메모리 흔적을 인출하는 새로운 단서(cue)로 작용할 수 있다.Next, the generation unit 50 (step S50) evaluates the associative memory capability by generating the virtual data y , and for this purpose, the most probable one is predicted by using the associative action from the matchset M '(step S52). One virtual data y is synthesized (step S54). In the above-described storage unit 40 (step S40), the storage unit 40 (step S40) is added as it is or the weight is updated without considering the interaction of the contents previously stored in the pattern memory M. However, in the associative memory, the retrieved data may serve as a new cue to extract the next memory trace.

연상 메모리의 연상기억 능력을 증가시키기 위해서는 주어진 학습데이터 x에 대해 한 번만 메모리 인출을 수행하는 대신 여러 번의 인출 과정을 반복함으로써 다른 데이터 변수들 간의 상호작용을 고려한다. 이 절차는 확률적인 추론 과정으로 볼 수 있으며, 주어진 단서인 학습데이터 x에 대해 생성하고자 하는 새로운 데이터, 즉 가상데이터 y의 확률은 아래의 수학식 12와 같이 베이스 규칙(Bayes' rule)으로 기술할 수 있다.In order to increase the associative memory capability of associative memory, the interaction between different data variables is considered by repeating the multiple retrieval process instead of performing the single memory retrieval for a given learning data x . This process can be seen as a probabilistic reasoning process, and the probability of new data, ie, virtual data y , to be generated for a given clue, learning data x , can be described by the Bayes' rule as shown in Equation 12 below. Can be.

[수학식 12][Equation 12]

Figure 112009025997982-pat00008
Figure 112009025997982-pat00008

문제는 주어진 학습데이터 x에 대해서 가장 확률이 높은 가상데이터 y를 찾는 것이며, 이는 멀티셋 연상 메모리 M가 다양한 많은 수의 패턴을 저장하고 있는 점을 이용하여 아래의 수학식 13과 같이 최적화를 시도할 수 있다.The problem is to find the most probable virtual data y for a given training data x , which can be optimized using the equation (13) below, taking advantage of the fact that the multiset associative memory M stores a large number of different patterns. Can be.

[수학식 13][Equation 13]

Figure 112009025997982-pat00009
Figure 112009025997982-pat00009

위의 수학식 13에서 첫번째 항등식에서는 P(x)가 위의 값을 최대화 하는데에는 영향을 미치지 않는다는 사실을 이용하였고, 두번째 항등식에서는 P(y)는 균등하다고 가정하였다. 세번째 항등식에서는 메모리에 저장된 많은 수의 m k를 활용하여 y의 값을 예측할 수 있다는 것을 이용하고 있다. 이 식은 아래의 수학식 14와 같이 확률의 곱으로 분해할 수 있다.In Equation 13 above, the first identity is taken into account that P ( x ) has no effect on maximizing the above value, and in the second identity, P ( y ) is assumed to be equal. The third identity uses the ability to predict the value of y using a large number of m k stored in memory. This equation can be decomposed into a product of probabilities as shown in Equation 14 below.

[수학식 14][Equation 14]

Figure 112009025997982-pat00010
Figure 112009025997982-pat00010

위의 수학식 14에서, P(xm k)는 주어진 학습데이터 x와 패턴 메모리 M에 저장된 패턴 간의 관련성을 나타내고, P(m ky)는 저장된 패턴 m k과 새로이 생성하는 가상데이터 y의 연관성을 나타낸다. 본 발명의 연상 메모리 구조는 위의 값을 계산하는 과정에서 실제로 멀티셋 저장 구조의 특성을 이용하여 새로운 가상데이터 y를 합성해 낼 수 있다.In Equation 14 above, P ( x | m k ) represents a relation between a given learning data x and a pattern stored in the pattern memory M, and P ( m k | y ) represents the stored pattern m k and the newly generated virtual data y Indicates an association of. The associative memory structure of the present invention can synthesize new virtual data y using the characteristics of the multiset storage structure in the process of calculating the above values.

마지막으로, 학습부(60; 단계 S60)는 생성된 가상데이터 y와 학습데이터 x를 비교(단계 S62)하여 가상데이터 x의 잘못 생성된 부분에 기여한 메모리 요소를 삭제(단계 S64)하고 올바른 생성에 기여한 메모리 요소를 복제(단계 S66)함으로써 학습데이터 x와 더욱 유사한 가상데이터 y를 생성하도록 M을 수정한다.Finally, the learning unit 60 (step S60) compares the generated virtual data y with the learning data x (step S62) to delete the memory elements contributing to the incorrectly generated portion of the virtual data x (step S64) and to correct generation. By modifying the contributing memory elements (step S66), M is modified to generate virtual data y more similar to the training data x .

아래의 수학식 15에 의해 가상데이터 y와 학습데이터 x를 비교하여 각 메모리 요소값이 올바른지의 여부를 구별할 수가 있다.Equation 15 below compares the virtual data y with the training data x to determine whether each memory element value is correct.

[수학식 15][Equation 15]

Figure 112009025997982-pat00011
Figure 112009025997982-pat00011

한편, 에러를 유발한 메모리 요소는 제거하고, 올바른 데이터 생성에 기여한 메모리 요소는 추가하는데, 이 학습 과정은 아래의 수학식 16과 같이 요약할 수 있다.Meanwhile, the memory element that caused the error is removed, and the memory element that contributes to the correct data generation is added. This learning process can be summarized as in Equation 16 below.

[수학식 16][Equation 16]

Figure 112009025997982-pat00012
Figure 112009025997982-pat00012

위에서 Mpos는 올바른 가상데이터 y의 생성에 기여한 m k의 집합이며, Mneg는 잘못된 가상데이터 y의 생성에 기여한 m k의 집합이다. 위 식에서 집합기호로 표현되어 있어서 알 수 있듯이 메모리 교정 역시 병렬적인 집합 연산의 수행으로 구현 가 능하다.M pos is the set of m k that contributed to the creation of the correct virtual data y , and M neg is the set of m k that contributed to the generation of the wrong virtual data y . As shown by the set symbol in the above equation, memory calibration can be implemented by performing parallel set operation.

도 5는 앞서 설명한 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 학습데이터로부터 패턴을 추출하여 메모리를 구성하는 전 과정을 도표화한 것으로서, 학습데이터 x로 간단한 64-비트의 숫자 이미지 데이터에 대해 예시하고 있다.FIG. 5 is a diagram illustrating the entire process of configuring a memory by extracting a pattern from training data in the method of processing association information using the multiset of the present invention as described above, and illustrates simple 64-bit numeric image data as training data x . Doing.

이하에서는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법의 유용성을 설명하기 위한 각종 실험예에 대해 설명한다.Hereinafter, various experimental examples for explaining the usefulness of the associative information processing method using the multiset of the present invention will be described.

실험예 1)Experimental Example 1

도 6은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 임의의 숫자 이미지 데이터에 대한 연상 결과를 실험적으로 보인 도이다. 이 실험을 위해서 3000개의 숫자 이미지를 모았는바, 각각의 숫자 이미지는 16 x 16 = 256개의 이진수로 구성되어 있다. 이 중에서 6자와 7자의 이미지를 선택하여 멀티셋 연상 정보 처리 방법에 의해 학습하였다. 도 6에서 알 수 있는 바와 같이, 학습데이터인 원래의 이미지(Original Image) 데이터를 각각 50% 및 80%만큼 임의로 훼손시킨 이미지(Damaged Image)에 대해 본 발명의 방법에 의해 처리한 결과 우측에 도시한 바와 같이 비교적 원래의 이미지와 유사한 형태의 복원 이미지(Restored Image)를 얻을 수 있었다.FIG. 6 is a diagram experimentally showing association results of arbitrary numerical image data according to the associative information processing method using the multiset of the present invention. FIG. For this experiment, 3000 numerical images were collected, each consisting of 16 x 16 = 256 binary digits. Among them, 6 and 7 images were selected and learned by the multiset association information processing method. As can be seen in FIG. 6, the result of processing by the method of the present invention on an image in which original image data, which is learning data, is arbitrarily damaged by 50% and 80%, respectively, is shown on the right. As described above, a restored image having a shape similar to the original image was obtained.

실험예 2)Experimental Example 2)

도 7은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 얼굴 이미지 데이터에 대한 연상 결과를 실험적으로 보인 도이다. Yale 데이터 셋은 15명의 얼굴에 대해 각각 11장씩의 사진을 찍은 165개의 얼굴 이미지로 구성되어 있다. 이 실험에서는 얼굴 이미지를 60 x 45 = 2700 픽셀로 줄인 후 두 사람의 얼굴에 대한 학습데이터를 사용하여 멀티셋 연상 메모리를 구성하였다. 총 학습 이미지 수는 22장이며 각각에 대해서 k = 50의 저차원 패턴을 N = 20개씩 샘플링하여 패턴 메모리에 저장하였다.7 is a diagram showing experimental results of associative results with respect to face image data according to the associative information processing method using the multiset according to the present invention. The Yale data set consists of 165 face images taken of 11 pictures of 15 faces each. In this experiment, we reduced the face image to 60 x 45 = 2700 pixels and constructed a multiset associative memory using the training data for two faces. The total number of training images is 22. N = 20 low-dimensional patterns of k = 50 were sampled and stored in the pattern memory for each.

도 7에서 알 수 있는 바와 같이, 학습데이터인 원래의 이미지(Original Image) 데이터를 각각 60% 및 80%만큼 임의로 훼손시킨 이미지(Damaged Image)에 대해 본 발명의 방법에 의해 처리한 결과 우측에 도시한 바와 같이 비교적 원래의 이미지와 유사한 형태의 복원 이미지(Restored Image)를 얻을 수 있었다.As can be seen in FIG. 7, the result of processing by the method of the present invention on an image in which original image data, which is training data, is arbitrarily damaged by 60% and 80%, respectively, is shown on the right. As described above, a restored image having a shape similar to the original image was obtained.

실험예 3)Experimental Example 3)

도 8은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 노이즈 제거 효과를 실험적으로 보인 도이다. 도 8에 도시한 바와 같이, 학습데이터인 원래의 이미지(Original Image)를 변형하여 숫자 6의 이미지 위에 숫자 7의 점이, 예를 들어 30% 혼입되도록 임의로 만든 이미지 또는 숫자 7의 이미지 위에 숫자 6의 점이, 예를 들어 30% 혼입되도록 임의로 만든 이미지에 대해 본 발명의 방법에 의해 처리한 결과 우측에 도시한 바와 같이 비교적 원래의 이미지와 유사한 형태의 복원 이미지(Restored Image)를 얻을 수 있었다.8 is an experimental diagram showing the noise removal effect according to the associative information processing method using the multiset of the present invention. As shown in FIG. 8, the image of the number 6 on the image of the random number or the image of the number 7 is randomly modified so that, for example, 30% is mixed on the image of the number 6 by modifying the original image which is the training data. As a result of processing by the method of the present invention on an image made to have a dot made to be mixed at 30%, for example, as shown on the right, a restored image having a shape similar to the original image was obtained.

실험예 4)Experimental Example 4)

도 9는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 프라이밍 효과(priming effect)를 실험적으로 보인 도로서, 실험예 1에서 사용한 것과 같은 숫자 이미지 데이터 각각에 대하여 k = 5의 저차원 패턴을 N = 10개씩 샘플링하여 연 상 메모리를 구성하였다. 구성 초기에는 연상 메모리 내에서 0부터 9까지의 숫자에 대한 정보가 차지하는 비율이 비슷하기 때문에 6자에 대한 부분 이미지를 자극으로 주었을 경우, 도 9의 아래쪽에서 제일 왼쪽에 도시한 바와 같이 메모리 구성에 사용한 이미지가 전부 섞인 이미지가 연상되었다. 이후 추가로 6자에 대한 이미지만을 계속해서 반복 학습시킴에 따라 6자의 부분 이미지에 대한 연상 능력이 점진적으로 향상되는 것을 관찰할 수 있었다.FIG. 9 is an experimental diagram showing priming effects according to the associative information processing method using the multiset of the present invention. FIG. 9 shows a low dimensional pattern of k = 5 for each of numerical image data as used in Experimental Example 1. FIG. Associative memory was constructed by sampling N = 10 pieces. In the early stage of the configuration, since the information occupied by the information about the numbers 0 to 9 in the associative memory is similar, when the partial image of 6 characters is used as a stimulus, as shown in the far left of the bottom of FIG. The image reminds me of a mixture of used images. Afterwards, as we continued to repeat the learning of only 6 characters, we could observe a progressive improvement in the associative ability of the 6 characters.

실험예 5)Experimental Example 5)

도 10은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 임의의 드라마 장면 데이터에 대한 프라이밍 효과를 실험적으로 보인 도인바, 프라이밍 효과는 영화 장면 데이터와 같은 연속적인 데이터를 다룰 경우 보다 많이 관찰될 수 있다. 실험예 4에서와 같은 방식으로 드라마 Friends의 장면을 캡춰한 이미지에 대한 프라이밍 효과를 관찰하였다. 드라마의 각 장면은 캡춰한 후, 80 x 60 픽셀의 흑백 이미지로 변환하여 데이터로 사용되었다. 총 학습 이미지 수는 10개이며, 각각에 대하여 k = 5의 저차원 패턴을 N = 100개씩 샘플링하여 메모리에 저장한 다음, 특정한 한 장면을 반복해서 학습함에 따른 프라이밍 효과를 관찰하였는바, 도 10의 아래쪽에 도시한 바와 같이 반복 학습 회수가 늘어날수록 연상 능력이 점진적으로 향상되는 것을 관찰할 수 있었다.FIG. 10 is an experimental diagram showing priming effects for arbitrary drama scene data according to the method for processing association information using the multiset of the present invention. Priming effects are more observed when dealing with continuous data such as movie scene data. Can be. The priming effect on the image capturing the scene of the drama Friends was observed in the same manner as in Experimental Example 4. Each scene in the drama was captured and converted into a black and white image of 80 x 60 pixels for use as data. The total number of training images is 10. For each of them, N = 100 low-dimensional patterns of k = 5 are sampled and stored in memory, and then the priming effect of repeatedly learning a specific scene is observed. As shown below, it can be observed that as the number of repetitive learning increases, the associative ability gradually improves.

이상에서 설명한 바와 같은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법 그 메모리 장치는 다음과 같은 분야에 이용될 수 있다.Associative information processing method using the multiset of the present invention as described above The memory device can be used in the following fields.

- IPTV 등 비디오 데이터를 저장하고 빠른 시간 내에 내용기반 검색하는 장 치.-A device that stores video data such as IPTV and searches contents based quickly.

- 디지털 카메라에 부착되어 현재 카메라에 포착된 장면과 유사한 과거 촬영 이미지를 자동 검색해 주는 장치.-A device attached to a digital camera that automatically retrieves past shots similar to the scene captured by the current camera.

- 보안 감시 카메라 장치에 부착되어 축적되는 대규모의 이미지 데이터를 저장하고 내용 기반으로 고속 검색하여 이상 상태를 검출하는 장치.-An apparatus that detects abnormal state by storing large-scale image data attached to the security surveillance camera device and searching at high speed based on the content.

- 라이프로깅 시스템에서 현재의 센서 데이터로부터 유사한 과거의 사건을 실시간에 인출하는 장치.A device for retrieving similar past events in real time from current sensor data in a lifelogging system.

- 이미지 데이터의 노이즈 제거 장치.-Noise reduction device of image data.

본 발명의 멀티셋을 이용한 연상 정보 처리 방법 그 메모리 장치는 전술한 실시예에 국한되지 않고 본 발명의 기술 사상이 허용하는 범위 내에서 다양하게 변형하여 실시할 수가 있다.Associative information processing method using the multiset of the present invention The memory device is not limited to the above-described embodiments, and can be modified in various ways within the scope of the technical idea of the present invention.

도 1은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 멀티셋 패턴 메모리의 구성 예시도,1 is an exemplary configuration diagram of a multiset pattern memory in the associative information processing method using the multiset according to the present invention;

도 2는 본 발명의 멀티셋을 이용한 연상 메모리 장치의 전체적인 블록 구성도,2 is an overall block diagram of an associative memory device using a multiset according to the present invention;

도 3은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법을 도 1에 도시한 연상 메모리 장치의 각 부의 처리 과정과 함께 설명하기 위한 흐름도,FIG. 3 is a flowchart illustrating a method of processing associative information using a multiset according to the present invention together with a process of each unit of the associative memory device shown in FIG. 1;

도 4는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 학습데이터로부터 패턴을 추출하는 방법을 설명하기 위한 도,4 is a view for explaining a method of extracting a pattern from training data in the associative information processing method using the multiset of the present invention;

도 5는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에서 학습데이터로부터 패턴을 추출하여 메모리를 구성하는 과정을 설명하기 위한 도,5 is a view for explaining a process of configuring a memory by extracting a pattern from the training data in the associative information processing method using the multiset of the present invention;

도 6은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 임의의 숫자 이미지 데이터에 대한 연상 결과를 실험적으로 보인 도,6 is an experimental diagram showing an associative result for arbitrary numerical image data according to the associative information processing method using the multiset of the present invention;

도 7은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 얼굴 이미지 데이터에 대한 연상 결과를 실험적으로 보인 도,7 is an experimental view showing association results for face image data according to the associative information processing method using the multiset of the present invention;

도 8은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 노이즈 제거 효과를 실험적으로 보인 도,8 is an experimental view showing a noise removal effect according to the associative information processing method using the multiset of the present invention;

도 9는 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 프라이밍 효과를 실험적으로 보인 도,9 is an experiment showing the priming effect according to the associative information processing method using the multiset of the present invention;

도 10은 본 발명의 멀티셋을 이용한 연상 정보 처리 방법에 따른 임의의 드 라아 장면 데이터에 대한 프라이밍 효과를 실험적으로 보인 도이다.FIG. 10 is a diagram experimentally showing a priming effect on arbitrary drawing scene data according to the associative information processing method using the multiset according to the present invention.

*** 도면의 주요 부분에 대한 부호의 설명 ****** Explanation of symbols for the main parts of the drawing ***

M: 멀티셋 패턴 메모리, 20: 추출부,M: multiset pattern memory, 20: extraction section,

22: 샘플링부, 24: 코딩부,22: sampling part, 24: coding part,

30: 매치부, 32: 매칭부,30: matching unit, 32: matching unit,

34: 선별부, 40: 저장부,34: sorting unit, 40: storage unit,

42: 강화부, 44: 제거부,42: reinforcement part, 44: removal part,

46: 추가부, 50: 생성부,46: add, 50: generator,

52: 예측부, 54: 합성부,52: prediction unit, 54: synthesis unit,

60: 학습부, 62: 비교부,60: learning unit, 62: comparison unit,

64: 삭제부, 66: 복제부64: deletion unit, 66: replication unit

Claims (15)

N 차원의 학습데이터를 입력받는 (a) 단계;(A) receiving N-dimensional learning data; 상기 (a) 단계에서 입력된 학습데이터로부터 상기 학습데이터에 비해 상대적으로 저차원(k, 단 N > k)의 패턴을 복수 추출하는 (b) 단계;(B) extracting a plurality of patterns having a lower dimension (k, where N> k) relative to the learning data from the learning data input in the step (a); 상기 단계 (b)에서 추출된 패턴을 메모리에 기저장된 패턴과 매치하여 이미 존재하는 패턴인 매치셋과 새로운 패턴인 뉴셋으로 구분하는 (c) 단계;(C) dividing the pattern extracted in the step (b) into a matchset which is an existing pattern and a newset which is a new pattern by matching a pattern previously stored in a memory; 상기 매치셋과 상기 뉴셋을 이용하여 메모리의 내용을 갱신하는 (d) 단계;(D) updating contents of a memory using the matchset and the newset; 상기 매치셋으로부터 상호 연상 작용을 이용하여 확률을 예측함으로써 가장 확률이 높은 하나의 가상데이터를 생성하는 (e) 단계 및(E) generating one virtual data having the highest probability by predicting a probability using the associative action from the matchset; and 상기 (e) 단계에서 생성된 상기 가상데이터를 이용하여 메모리를 학습시키는 (f) 단계를 포함하여 이루어지되,(F) learning a memory using the virtual data generated in the step (e), 상기 기저장된 패턴과 상기 단계 (b)에서 추출된 패턴은 중복을 허용하는 집합 개념인 멀티셋으로 이루어진 멀티셋을 이용한 연상 정보 처리 방법.The prestored pattern and the pattern extracted in the step (b) are associative information processing method using a multiset consisting of a multiset which is a set concept allowing redundancy. 제 1 항에 있어서,The method of claim 1, 상기 (a) 단계에서의 패턴의 추출은 랜덤하게 이루어지는 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.Associating information processing method using a multiset, characterized in that the extraction of the pattern in the step (a) is performed at random. 제 2 항에 있어서,The method of claim 2, 상기 (c) 단계에서의 상기 매치는 상기 기저장된 패턴과 상기 단계 (b)에서 추출된 패턴인 두개의 멀티셋의 집합 연산을 통해 구현되는 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.And the matching in step (c) is implemented by a set operation of two multisets, the previously stored pattern and the pattern extracted in step (b). 제 3 항에 있어서,The method of claim 3, wherein 상기 (d) 단계에서의 상기 갱신에는 상기 매치셋은 그 가중치를 증가시켜서 기억을 강화하고, 상기 뉴셋은 메모리에 추가가 포함된 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.And the matchset increases its weight to enhance the memory, and the newset includes an addition to the memory. 제 4 항에 있어서,The method of claim 4, wherein 상기 (d) 단계에서의 상기 갱신에는 기존에 메모리에 존재하던 상기 매치셋의 제거가 포함되되, 상기 제거는 상기 매치셋의 나이와 가중치를 고려하여 이루어지는 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.The updating in the step (d) includes the removal of the matchset that previously existed in the memory, wherein the removal is performed by considering the age and weight of the matchset. Way. 제 5 항에 있어서,The method of claim 5, 상기 (e) 단계에서의 상기 가상데이터의 생성은 베이스(Bayes) 규칙에 기반하여 이루어지는 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.The associative information processing method using the multiset, wherein the generation of the virtual data in the step (e) is performed based on a Bayes rule. 제 6 항에 있어서,The method of claim 6, 상기 (f) 단계에서의 학습은 상기 가상데이터와 학습데이터를 비교하여 상기 가상데이터의 잘못 생성된 부분에 기여한 메모리 요소를 삭제하고 올바른 생성에 기여한 메모리 요소를 복제함으로써 메모리를 재구성하는 것을 특징으로 하는 멀티셋을 이용한 연상 정보 처리 방법.The learning in the step (f) is characterized by reconstructing the memory by comparing the virtual data and the learning data to delete the memory element that contributed to the incorrectly generated portion of the virtual data and duplicate the memory element that contributed to the correct generation Associative information processing method using multiset. 입력된 N 차원의 학습데이터로부터 상대적으로 저차원(k, 단 N > k)의 패턴을 복수 추출하는 추출부;An extraction unit for extracting a plurality of relatively low dimensional (k, N> k) patterns from the input N-dimensional learning data; 상기 추출된 패턴을 메모리에 기저장된 패턴과 매치하여 이미 존재하는 패턴인 매치셋과 새로운 패턴인 뉴셋으로 구분하는 매치부;A match unit for matching the extracted pattern with a pattern previously stored in a memory and classifying the matched pattern into an existing pattern and a new set as a new pattern; 상기 매치셋과 상기 뉴셋을 이용하여 메모리의 내용을 갱신하는 저장부;A storage unit for updating contents of a memory by using the matchset and the newset; 상기 매치셋으로부터 상호 연상 작용을 이용하여 확률을 예측함으로써 가장 확률이 높은 하나의 가상데이터를 생성하는 생성부 및A generation unit for generating one virtual data having the highest probability by predicting a probability using the associative action from the matchset; 상기 가상데이터를 이용하여 메모리를 학습시키는 학습부를 포함하여 이루어지되,It includes a learning unit for learning the memory using the virtual data, 상기 기저장된 패턴과 상기 추출된 패턴은 중복을 허용하는 집합 개념인 멀티셋으로 이루어진 멀티셋을 이용한 연상 메모리 장치.The prestored memory device and the extracted pattern are associative memory devices using a multiset, which is a set concept that allows duplication. 제 8 항에 있어서,The method of claim 8, 상기 패턴의 추출은 랜덤하게 이루어지는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.The associative memory device using a multiset, characterized in that the extraction of the pattern is performed at random. 제 9 항에 있어서,The method of claim 9, 상기 매치는 상기 기저장된 패턴과 상기 추출된 패턴인 두개의 멀티셋의 집합 연산을 통해 구현되는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.The match is associative memory device using the multi-set, characterized in that implemented through the set operation of the two stored sets and the extracted pattern of the multi-set. 제 10 항에 있어서,11. The method of claim 10, 상기 저장부는 상기 매치셋의 가중치를 증가시켜서 기억을 강화하는 강화부와 상기 뉴셋을 메모리에 추가하는 추가부를 포함하는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.And the storage unit includes a reinforcing unit for enhancing memory by increasing the weight of the matchset and an adding unit for adding the newset to the memory. 제 11 항에 있어서,The method of claim 11, 상기 저장부는 기존에 메모리에 존재하던 상기 매치셋을 그 나이와 가중치를 고려하여 제거하는 제거부를 더 포함하는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.And the storage unit further includes a remover which removes the matchset existing in the memory in consideration of its age and weight. 제 12 항에 있어서,13. The method of claim 12, 상기 가상데이터의 생성은 베이스(Bayes) 규칙에 기반하여 이루어지는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.The associative memory device using the multiset, wherein the virtual data is generated based on a Bayes rule. 제 13 항에 있어서,The method of claim 13, 상기 학습부는 상기 가상데이터와 학습데이터를 비교하는 비교부;The learning unit compares the virtual data with the learning data; 상기 비교 결과, 상기 가상데이터의 잘못 생성된 부분에 기여한 메모리 요소를 삭제하는 삭제부 및A deletion unit for deleting a memory element contributing to an incorrectly generated portion of the virtual data as a result of the comparison; 상기 비교 결과, 가상데이터의 올바른 생성에 기여한 메모리 요소를 복제하는 복제부를 포함하는 것을 특징으로 하는 멀티셋을 이용한 연상 메모리 장치.And a copying unit for copying a memory element contributing to the correct generation of the virtual data as a result of the comparison. 제 1 항 내지 제 7 항 중 어느 하나의 방법을 실행하는 프로그램이 수록되어 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having a program for executing the method of any one of claims 1 to 7.
KR1020090037480A 2009-04-29 2009-04-29 method for associative information processing using multisets and the associative memory device therof KR101067376B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090037480A KR101067376B1 (en) 2009-04-29 2009-04-29 method for associative information processing using multisets and the associative memory device therof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090037480A KR101067376B1 (en) 2009-04-29 2009-04-29 method for associative information processing using multisets and the associative memory device therof

Publications (2)

Publication Number Publication Date
KR20100118675A KR20100118675A (en) 2010-11-08
KR101067376B1 true KR101067376B1 (en) 2011-09-23

Family

ID=43404877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090037480A KR101067376B1 (en) 2009-04-29 2009-04-29 method for associative information processing using multisets and the associative memory device therof

Country Status (1)

Country Link
KR (1) KR101067376B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296496A (en) 1998-04-09 1999-10-29 Hitachi Ltd Pattern recognition device
KR20050067090A (en) * 2003-12-26 2005-06-30 히로시마 다이가쿠 Reference data recognition and learning method and pattern recognition system
KR20050073429A (en) * 2004-01-09 2005-07-13 마이크로소프트 코포레이션 Machine-learned approach to determining document relevance for search over large electronic collections of documents

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296496A (en) 1998-04-09 1999-10-29 Hitachi Ltd Pattern recognition device
KR20050067090A (en) * 2003-12-26 2005-06-30 히로시마 다이가쿠 Reference data recognition and learning method and pattern recognition system
KR20050073429A (en) * 2004-01-09 2005-07-13 마이크로소프트 코포레이션 Machine-learned approach to determining document relevance for search over large electronic collections of documents

Also Published As

Publication number Publication date
KR20100118675A (en) 2010-11-08

Similar Documents

Publication Publication Date Title
Cao et al. Few-shot video classification via temporal alignment
Zhou et al. Graph convolutional network hashing
Shen et al. Deep asymmetric pairwise hashing
Li et al. Universal perturbation attack against image retrieval
Xia et al. Joint inverted indexing
Liu et al. A real-time action representation with temporal encoding and deep compression
CN107111623A (en) Parallel historical search and coding for the compression based on dictionary
CN109783691B (en) Video retrieval method for deep learning and Hash coding
CN101855620A (en) Data processing apparatus and method of processing data
WO2018015848A2 (en) Finding k extreme values in constant processing time
Shen et al. Balanced binary neural networks with gated residual
KR20210125590A (en) Hashing-based effective user modeling
Liu et al. Exploiting web images for fine-grained visual recognition by eliminating open-set noise and utilizing hard examples
Ali et al. RX_myKarve carving framework for reassembling complex fragmentations of JPEG images
He et al. Bidirectional discrete matrix factorization hashing for image search
Fu et al. Multiple instance learning for group record linkage
Chen et al. Compoundeyes: Near-duplicate detection in large scale online video systems in the cloud
CN114996493A (en) Electric power scene image data screening method based on data elimination and redundancy elimination
Leung et al. Mining ‘following’patterns from big but sparsely distributed social network data
Cai et al. A revisit on deep hashings for large-scale content based image retrieval
Sun et al. Learning deep semantic attributes for user video summarization
CN110716739A (en) Code change information statistical method, system and readable storage medium
KR101067376B1 (en) method for associative information processing using multisets and the associative memory device therof
Yang et al. Camera-based piano sheet music identification
Schlemper et al. Deep hashing using entropy regularised product quantisation network

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140822

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190909

Year of fee payment: 9