KR100426088B1 - 자가구축 학습페트리넷 - Google Patents

자가구축 학습페트리넷 Download PDF

Info

Publication number
KR100426088B1
KR100426088B1 KR10-2002-0005749A KR20020005749A KR100426088B1 KR 100426088 B1 KR100426088 B1 KR 100426088B1 KR 20020005749 A KR20020005749 A KR 20020005749A KR 100426088 B1 KR100426088 B1 KR 100426088B1
Authority
KR
South Korea
Prior art keywords
training
learning
self
system parameter
training sample
Prior art date
Application number
KR10-2002-0005749A
Other languages
English (en)
Other versions
KR20030065233A (ko
Inventor
장승기
장지밍
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2002-0005749A priority Critical patent/KR100426088B1/ko
Priority to US10/350,177 priority patent/US20030144974A1/en
Priority to JP2003021003A priority patent/JP2003242478A/ja
Priority to EP03250620A priority patent/EP1335320A2/en
Publication of KR20030065233A publication Critical patent/KR20030065233A/ko
Application granted granted Critical
Publication of KR100426088B1 publication Critical patent/KR100426088B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

다수의 트레이닝 샘플들을 이용하여 시스템을 모델링하기 위한 자가구축 학습페트리넷이 개시된다. 자가구축학습페트리넷은 입력에 대해 출력값을 알고 있는 다수의 트레이닝 샘플들을 이용하여 순차적으로 트레이닝 하며, 선행처리된 트레이닝 샘플에 의해 생성된 제1 시스템 파라미터에 대하여 후속 트레이닝 샘플을 적용했을 경우, 그 출력값과 트레이닝 샘플의 이미 알고 있는 출력값과의 오차가 임계치보다 크면, 별개의 시스템 파라미터를 생성한 후, 이를 기 구축한 제1 시스템 파라미터에 부가하는 방식으로 시스템을 구축해 나간다. 그리고 구축된 시스템에 다수의 트레이닝 샘플들을 다시 순차적으로 학습시켜 최종 시스템 파라미터가 결정되도록 한다. 이와 같은 자가구축과정을 통해 시스템의 모델링을 보다 정확하게 할 수 있으며, CPN과 LPN의 결합에 의해 일반적인 신경망에서 이용되는 역전파 학습에 비해 보다 더 빠른 학습을 수행할 수 있다.

Description

자가구축 학습페트리넷{Self organizing learning petri nets}
본 발명은 패트리넷(petri network)에 관한 것으로서, 특히, 다수의 트레이닝 샘플들을 이용하여 시스템을 모델링하는 학습기능을 갖는 페트리넷에 관한 것이다.
최근 신경망(neural network), 웨이블릿 네트워크(wavelet network), 퍼지시스템(fuzzy system), 베이시안 분류기(Bayesian classifier), 퍼지파티션(fuzzy partition) 등과 같은 소프트 컴퓨팅 모델들이 다양한 분야에서 광범위하게 이용되고 있다. 이러한 소프트 컴퓨팅 모델들은 각각 서로 다른 바탕 위에서 시작되었지만 서로 유사점과 내부적으로 연관될 수 있음이 점차적으로 인식되고 있다. 예를 들어 RBF(Radial basis function network)와 퍼지시스템의 클래스는 기능적으로 동일하다고 인식된다. 이러한 기능적인 등가를 통해 신경망, 웨이블릿넷, 퍼지시스템, 그리고 선형제어, 퍼지 및 하드 클러스터링과 같은 또 다른 전통적인 방법들을 통합한 WRBF(Weighted Radial Basis Function) 네트워크가 제안되었다(Leonardo M. Reyneri, "Unification of neural and wavelet networks and fuzzy systems," IEEE trans. on neural networks, vol. 10, no. 4, pp.801-814, 1999). Leonardo에 의해 제안된 WRBF네트워크는 통합된 통제 및 비통제 트레이닝 알고리즘과 함께 동일 시스템 내에서 위의 모든 기술이 합쳐진 능력을 갖는다.
한편, 1960년대 서독의 칼 페트리(Carl Petri)에 의해서 다양한 상황을 모형화 할 수 있는 페트리넷(Petri nets)이 제안되었다. 페트리넷은 플레이스(place)와 트랜지션(transition)이라고 하는 두 종류의 노드로 구성되며, 아크(arc)를 통해 서로 다른 타입의 노드와 연결된다. 여기서, 트랜지션은 입력신호에 대한 출력신호를 발생시키는 함수라 할 수 있으며, 플레이스는 어떤 입/출력신호를 저장하는 공간이라고 할 수 있다. 플레이스는 토큰이 표시되며, 하나의 위치 표시와 점화 규칙(firing rule)에 의해서 의미를 가진다. 점화 규칙은 하나의 트랜지션에서 모든 입력 플레이스가 적어도 하나의 토큰을 가졌을 때 트랜스퍼가 가능하며, 트랜스퍼가 가능해지면 점화될 수 있고, 트랜지션이 점화될 때 그 트랜지션의 각 입력 플레이스는 하나의 토큰을 잃게 된다. 그리고 그 트랜지션의 각 출력 플레이스는 하나의 토큰을 얻게 된다. 즉, 페트리넷에서 토큰들은 오직 점화 트랜지션을 통해 트랜스퍼 할 수 있다. 이것은 모든 네트워크 경로가 아닌 특정 경로로 토근을 전이시킬 수 있는 것을 말하며, 페트리넷이 분포함수의 능력이 있음을 의미한다.
그러나 지금까지 페트리넷은 소프트 컴퓨팅 분야와는 완전하게 다른 영역에서 응용되는 도식적이고 수학적인 모델링 툴(tool)로써만 간주되고 있었다. 즉, 페트리넷은 비연속적인 동적시스템의 모델링과 제어에 적용된 예는 찾아볼 수 없었으며, 이는 페트리넷이 신경망과 같은 학습능력이 없었기 때문이다.
최근 위와 같은 문제를 해결하기 위하여 LPN(Learning Petri Net)이라 불리는 학습능력을 갖는 새로운 스타일의 페트리넷이 제안되었다.(Kotaro Hirasawa, et al,"Learning Petri network and its application to nonlinear system control,"IEEE Trans.Syst. Man Cyber., vol.28, no.6, pp.781-789,1998.)
도 1은 종래 LPN의 기본적인 학습 구조를 나타낸 도면이다. 도면에서 입력 트랜지션을 제외한 각 트랜지션은 소정 개수의 입력플레이스와 출력플레이스를 가진다. 그리고 서로 다른 트랜지션은 단순성을 위하여 입력플레이스나 출력플레이스를 동시에 갖지 않는 것으로 간주된다. 도 1에서는 트랜지션 및 플레이스의 개수를 간단하게 나타내었으나 실제로는 더많은 트랜지션 및 플레이스들이 병렬 또는 직렬로 서로 연결되며, 더 다양한 형태를 가질 수 있다.
위와 같은 LPN은 동적시스템의 특성을 가지도록 점화신호가 도입된다. 점화신호는 점화 트랜지션에서 처리되고, 토큰 트랜스퍼를 통해 네트워크로 전파된다. 입력 트랜지션에서 점화신호는 입력신호의 값과 함께 할당되고, 출력신호는 출력트랜지션의 점화신호로서 얻어질 때, LPN은 입출력 매핑을 구현하기 위하여 이용될 수 있다. 한편, 입력 플레이스들과 트랜지션을 연결하는 입력 아크(arc)는가중치(hij)를 갖는다. 일반적인 페트리넷에서 양의 정수가 되도록 강요된 가중치는 학습능력을 갖도록 하기 위하여 연속적으로 조정되도록 확장되었다. 그리고 출력 플레이스들과 연결되는 트랜지션을 연결하는 출력 아크는 '0' 또는 양의 정수의 샘플링타임인 시간지연(Djk)을 갖는다.
LPN에서 입출력 매핑은 토큰 트랜스퍼를 통해 입력트랜지션으로부터 출력트랜지션으로 전파되는 점화신호에 의해 구현된다. 토큰이 점화신호를 운반한다는 점에서 LPN은 페트리넷과는 뚜렷이 구분된다. LPN에서 토큰들은 트랜지션에서 발생되고, 토큰이 한 플레이스에서 소멸하기까지 트랜지션의 점화신호 값이 주어진다. 트랜지션의 점화신호 값은 다음 수학식 1로 정의 된다.
{ hij: 플레이스 Pij와 트랜지션 Tj사이의 아크상에 있는 점화가중치
i: 트랜지션 Tj의 입력측에 연결된 플레이스의 인덱스
βj: 트랜지션 Tj에 대한 임계값
f(): 비선형 함수
h(Pij,t): 플레이스에서 토큰들에 의해 운반된 점화신호 값의 합으로 정의된 시간 t 에서의 점화신호의 값 , 플레이스가 비었을 때, h(Pij,t)는 '0'의 값이 주어진다. }
위와 같은 LPN은 신경망의 학습 및 재현 능력을 가질 수 있다. 그러나 LPN은 분포함수의 능력을 가지기 때문에 신경망과는 다르며, 동시에 정상적인 신경망에서 처럼 전문가의 경험에 의해 LPN의 파라미터들이 미리 결정된다.
종래의 LPN에서는 입력레이어와 출력 레이어 사이의 모든 트랜지션과 플레이스의 숫자 및 그 연결이 사용자의 경험에 의해 미리 고정되므로 출력값이 다소 정확하지 못하다는 문제점을 갖는다. 즉, LPN을 실제 응용하는 데 있어서, 응용에 맞는 적합한 구조가 존재하는 경우에는 정확한 출력을 기대할 수 있으나 그렇지 않은 경우에는 정확성이 떨어질 수 밖에 없는 것이다. 결국, 종래와 같이 사용자의 경험치에 의한 각 노드의 수 및 연결을 결정짓는 것은 출력값의 오차가 커지는 경우 전체 시스템을 수정해야 하는 문제점을 안고 있다.
본 발명의 목적은 상기와 같은 문제점을 해결하기 위하여 입력값에 대한 최적의 출력값을 획득할 수 있으며, 빠른 학습속도 및 보다 정확한 모델링이 가능한 개선된 자가구축 학습패트리넷을 제공하는 데 있다.
도 1은 종래 기본적인 LPN의 구조도,
도 2는 본 발명에 따른 SOLPN의 구조도,
도 3은 도 2에 보인 SOLPN의 자가구축과정을 설명하는 순서도, 그리고
도 4는 도 2에 보인 SOLPN의 학습과정을 설명하는 순서도이다.
상기의 목적을 달성하기 위한 본 발명의 자가구축 학습페트리넷은 입력에 대한 출력값을 알고 있는 다수의 트레이닝 샘플들을 순차적으로 트레이닝 하며, 선행처리된 트레이닝 샘플에 의해 생성된 제1 시스템 파라미터에 대하여 후속 트레이닝 샘플을 대입하고, 그 출력값과 트레이닝 샘플의 이미 알고 있는 출력값과의 오차값이 임계치보다 크면, 별개의 시스템 파라미터를 생성한 후, 이를 기 구축한 제1 시스템 파라미터에 부가하여 또 다른 새로운 시스템을 구축하는 식으로 초기 시스템 파라미터를 자가구축하는 단계; 및 상기 초기 시스템 파라미터를 토대로 구축된 시스템에 상기 다수의 트레이닝 샘플들의 순차적 학습을 통해 최종 시스템 파라미터를 결정하는 단계;를 포함한다.
상기 초기 시스템 파라미터 구축 단계는, 상기 트레이닝 샘플들 중 제1 번째 트레이닝 샘플을 통해 제 1 시스템 파라미터를 결정하는 단계; 상기 제1 시스템 파라미터를 통해 구축된 제1 시스템에 제2 트레이닝 샘플을 대입하는 단계; 상기 제2 트레이닝 샘플의 상기 제1 시스템 대입 결과에 따른 발생 오차값을 임계값과 비교하는 단계; 및 상기 비교결과 상기 오차값이 상기 임계값 이상인 경우 제 2 시스템 파라미터를 생성 및 부가하는 단계;를 포함한다. 만일 상기 비교결과 상기 오차값이 상기 임계값 미만이면, 후속 트레이닝 샘플을 상기 제1 시스템에 대입하는 단계;를 더 포함하며, 상기 비교결과 상기 오차값이 상기 임계값 이상인 경우, 후속 트레이닝 샘플은 상기 제2 시스템에 대입하는 단계;를 더 포함한다. 그리고 상기 초기 시스템 파라미터는 상기 다수의 트레이닝 샘플들에 대한 순차적 트레이닝을 소정회수 반복하도록 한다.
상기 최종 시스템 파라미터를 결정하는 단계는, 상기 초기 시스템 파라미터에 의해 구축된 시스템에 상기 다수의 트레이닝 샘플들을 순차적으로 대입하는 단계; 상기 다수의 트레이닝 샘플 각각의 발생 오차값을 각각 기준 임계값과 비교하는 단계; 상기 비교결과 상기 오차값이 상기 기준 임계값 이상이면 선행 트레이닝 샘플에 의해 결정된 시스템 파라미터를 수정하는 단계;를 포함하며, 시스템이 안정화 되기까지 상기 다수의 트레이닝 샘플들에 대한 순차적 트레이닝을 반복한다.
이상과 같은 본 발명의 자가구축 학습페트리넷은 사용자의 경험에 의한 시스템에서 학습이 수행되는 것이 아닌 샘플들의 트레이닝을 통해 구축된 시스템을 통해 학습이 수행되기 때문에 학습속도가 빠르며, 보다 정확한 모델링을 가능하게 한다.
이하 첨부한 도면을 참조하여 본 발명을 상세하게 설명한다. 본 발명을 설명함에 있어서, 다양한 논문이 참고된 관계로, 참고된 논문을 '발명의 상세한 설명' 하단에 일련번호로서 기록하였다. 각 번호는 '[]'기호 내에 표기하였으며, 이후, '[]'내의 번호만으로 일부 기술의 설명을 대신한다.
도 2는 본 발명의 실시예에 따른 2입력 SOLPN(Self-Organization Learning Petri nets)의 구조도이다. SOLPN은 입력레이어, 퍼지룰매칭레이어, 출력레이어를 갖는다.
입력레이어는 두개의 입력 트랜지션과 두개의 입력 플레이스를 가진다.
퍼지룰매칭레이어는 다수의 트랜지션 및 다수의 플레이스를 가질 수 있다. 퍼지룰매칭레이어에서 신호는 다음 수학식 2에 의거하여 전파된다.
출력레이어는 단일의 출력을 얻을 수 있도록 단일의 트랜지션 및 단일의 플레이스를 갖는다. 출력레이어에서 신호는 다음 수학식 3에 의해 전파된다.
도 3은 SOLPN의 기본구조를 통한 시스템의 자가구축과정을 설명하는 순서도이다. 시스템을 구축하기 위하여 먼저, 입력값 및 출력값을 미리 알고 있는 샘플셋을 순차적으로 트레이닝 한다(S310). 즉, 제1 번째 샘플의 트레이닝을 통해 제1 시스템 파라미터를 설정한 후(S320), 제1 시스템 파라미터에 의해 구축된 시스템에 제2 번째 샘플을 트레이닝 한다(S330). 그리고 제2 트레이닝 샘플의 트레이닝 결과에 따른 출력값과 미리 알고 있는 트레이닝 샘플의 출력값 사이의 오차값을 산출하여 임계값과 비교한다(S340). 이때, 제2 샘플 트레이닝 결과에 따른 출력값과 미리 알고 있는 트레이닝 샘플의 출력값 사이의 오차값이 임계값보다 이하이면, 제1 시스템에 제3 샘플을 연속적으로 트레이닝 한다. 만일 제2 샘플 트레이닝 결과에 따른 출력값과 미리 알고 있는 제2 트레이닝 샘플의 출력값 사이의 오차값이 임계값보다 크면, 제2 샘플에 따른 제2 시스템 파라미터를 생성한다(S350). 이후, 순차적으로 입력되는 후속 샘플들에 대해서 각각 트레이닝 결과에 따른 출력값과 이미 알고 있는 트레이닝 샘플의 출력값 사이의 오차값에 따라 새로운 시스템 파라미터를 생성하거나 이전 결정된 시스템 파라미터에 후속 샘플을 계속 트레이닝 한다. 그리고 최종 샘플의 트레이닝 완료 상태를 검출한 후(S360), 샘플들의 순차적 트레이닝을 소정회수 반복하여 시스템 자가구축과정을 마친다(S370). 여기서, 후속 트레이닝 샘플들은 선행처리된 트레이닝 샘플 이전에 구축된 시스템 파라미터와 선행처리된 샘플에 의해 생성된 새로운 시스템 파라미터가 결합된 또 다른 새로운 시스템 파라미터에 대입한다.
도 4는 위와 같은 과정을 통해 자가구축된 시스템에서의 학습과정을 설명하는 순서도이다. 먼저, 도 3의 과정을 통해 자가 구축된 시스템에 대하여 제1 번째 샘플을 트레이닝 한다(S410). 트레이닝 결과 트레이닝에 의한 출력값과 이미 알고 있는 트레이닝 샘플의 출력값과의 오차값을 산출하여 임계값과 비교한다(S420). 이때, 오차값이 임계값 이하이면 제2 번째 샘플을 트레이닝한다. 그러나 오차값이 임계값보다 크면, 오차값에 따른 역전파(back propagation) 학습을 통해 시스템을 수정한다(S430). 이후, 후속 샘플에 대해서는 수정된 시스템에서 트레이닝을 수행한다(S440). 위와 같은 과정을 통해 최종 샘플까지의 트레이닝 완료를 검출하며(S440), 시스템이 안정화될 때까지 트레이닝 샘플 셋의 순차적 트레이닝을 반복한다(S450). 그리고 시스템이 트레이닝 샘플들을 통해 안정화되면, 트레이닝샘플을 통한 학습을 종료한다(S460).
위와 같은 자가구축과정 및 학습과정을 참조된 논문과 함께 다시 설명한다. 본 발명에서는 시스템을 구축하기 위하여 SOCPN(Self-organizing Counter Propagation Network) 알고리즘[15]을 이용한다. 단순한 경우에는 트레이닝데이터로부터 정보를 추출하기 위하여 유연한 퍼지분할을 사용하는 IUSOCPN(Improved Unsupervised SOCPN)을 이용한다[4],[15]. 그리고 IUSOCPN은 위의 시스템 자가구축 단계의 일실시예로 이용될 수 있다.
위의 IUSOCPN을 기초로 한 시스템 자가구축 과정은 다음과 같다. 먼저, 제1 단계로, 현재 입력에 대하여 퍼지룰매칭레이어에서 최소거리를 갖는 위너유닛(winner unit) 'J'를 다음 수학식 4에 의해 결정한다.
여기서,(h1j,Λ, hQj(t)), Q는 입력의 디멘젼(dimesion)이고, d(ㆍ,ㆍ)는 디스턴스 메트릭(distance metric)이다.
위 수학식 4에서 d(ㆍ,ㆍ)는 다음 수학식 5와 같은 유클리드 디스턴스로 정의할 수 있다.
다음 제2 단계로, 아래의 규칙을 이용하여 위너를 결정한다.
이면, 유닛 'J'는 위너이다.
이면, 새로운 유닛을 생성한다.
여기서, 'δ'는 미리 정의된 시스템 파라미터이다.
다음, 제3 단계에서는 위의 규칙에 따라 'J'가 위너이면, 다음 수학식 6과 같은 파라미터를 유지한다.
만일 새로운 유닛이 생성되었으면 다음 수학식 7과 같이 변형된다.
여기서, 0 < αJ(t) < 1 은 시간과 함께 감소한 시퀀스를 얻는다. 그리고 η는 일정한 확장율이다.
제 4단계로, 위와 같은 과정을 통해 퍼지룰매칭레이어가 안정화되면,는 고정되고, 출력레이어에서는 j번째 퍼지룰 유니트로부터 출력 유니트까지 연결 웨이트 hj를 조정하는 것에 의해 각 고정 웨이트 벡터에 대한 원하는 출력 yS를 학습하기 시작한다. 출력 레이어에서의 업데이트 공식은 다음 수학식 8을 따른다.
여기서, 업데이트 레이트 β는, [0,1] 의 범위 내에 있는 한 상수이다. 그리고 ys는, 대응하는 트래이닝 샘플이다.
한가지 주의 할 것은 SOLPN의 정상적인 수행 단계에서는, K(K>1)개의 트랜지션들이 모두 점화될 것이다. 그러나 자가구축 과정에서는 오직 하나의 트랜지션만점화된다. 이것은 자가구축 단계에서는 점화 트랜지션의 수가 하나로 제한되는 것을 의미하며, 정상적인 학습 수행단계 또는 최적화 단계에서는, K개의 트랜지션들이 점화될 것이다. 즉, 트랜지션의 점화 수는 단계별로 다르다. 또한, 점화 트랜지션의 수를 하나로 고정하는 것은 자가구축 단계의 계산을 손쉽게 한다.
규칙수의 결정에 의해 주어진 퍼지시스템의 일반적인 구조는 위의 자가구축 과정을 통해 시스템의 초기 파라미터가 얻어진다. 이러한 시스템은 매우 러프한 모델이라고 할 수 있으며, 그것은 정확한 모델링으로는 충분하지 않다. 따라서 여기에서는 WRBF 네트워크(점진적 학습법: gradient descendent method) 통합 학습 알고리즘이 사용된다. WRBF 네트워크 점진학습법(normal supervised gradient descendent method)은 [17]에 나타나 있다.
오류 함수는 다음 수학식 9와 같이 정의된다.
여기서, yj및 tj는 트레이닝 셋으로부터 취한를 입력하는 j번째 뉴론의 응답 및 대응하는 목표값이다. WRBF 뉴론에 대한 일반화된 학습규칙은 다음 수학식 10에서 14까지와 같다.
여기서,,,는 세 개의 학습 계수이고, zj가 활성함수 F(ㆍ)의 인자이다.는 입력 정규화 레이어에서 역전파학습에러이다.
위와 같은 시스템 최적화 단계에서 본 발명은 WRBF 학습 알고리즘과는 두 가지의 다른점이 있다. 첫번째는, 모든 파라미터가 전체 네트워크에서 모두 최적화되지는 않는다는 점이다. 왜냐하면, LPN의 점화 규칙에 따라 K개의 트랜지션들만이 점화되기 때문이며, K개의 점화 트랜지션만이 최적화 될 것이기 때문이다. 이것은 학습 단계의 처리시간을 크게 감소시킬 수 있게 한다. 그리고 두번째는, 점진학습법은 기본적으로 느리다. 그러나 자가구축과정에서 초기화된 파라미터들은 인텔리젼트를 갖는다. 여기서, 결과를 더 최적화 하기 위하여 [12]의 방법을 이용한다. [12]는 에러를 감소시키는 방향의 개념을 활용하며, 다음 수학식 15를 이용한다.
여기서, dm은 에포크(epoch) m에서 가중치에 대한 에러의 부분적 파생물이다. θ는 학습 상수이다.
가중치에 대한 학습율, e의 변화값을 운영하는 식은 다음 수학식 16과 같이 쓸 수 있다.
여기서, k, φ는 학습 상수이다.
e가 결정되면, 실제 가중치 cm은 다음 수학식 17과 같이 바뀐다.
*참조논문*
[1] J.E.Box, G.M. Jenkins,Time series analysis: forecasting and control, Holden Day Press, San Francisco, 1970.
[2] Ching-Chang Wong, Shyang-Ming Her, " A self-generating method for fuzzy system design,"Fuzzy Sets Syst., vol. 103, pp. 13-15, 1999.
[3] Yin Wang, Gang Rong, " A self-organizing neural-network-based fuzzy system,"Fuzzy Sets Syst., vol. 103, pp. 1-11, 1999.
[4] Junhong Nie, " Constructing fuzzy model by self-organizing counterpropagation network,"IEEE trans. Syst. Man Cyber., vol. 25, no. 6, pp. 963-970, 1995.
[5] R.M. Tong, "The evaluation of fuzzy model derived from experimentaldata,"Fuzzy Sets Syst., vol. 4, pp. 1-12, 1980.
[6] W.Pedrycz, "An identification algorithm in fuzzy relational systems,"Fuzzy Sets Syst., vol. 4 pp. 153-167, 1984.
[7] C.W.Xu, Y.Z.Lu, "Fuzzy model identification and self-learning for dynamic systems,"IEEE Trans. Syst. Man Cyber., vol. 17, pp. 683-689, 1987.
[8] M.Sugeno, T.Ysdukawa, " A fuzzy logic-based approach to qualitative modeling,"IEEE Trans. Fuzzy Syst, vol. 1, pp. 7-31, 1993.
[9] S.Horikawa, T.Furuhashi, Y.Uchikawa, "An fuzzy modeling using fuzzy neural networks with the back-propagating algorithms,"IEEE Trans. Neural Networks, vol. 3, no. 5, pp. 801-806, 1992.
[10] C.T. Lin, C.S.G. Lee, "Neural-network-based fuzzy logic control and decision system,"IEEE Trans. Comput., vol. 40, no. 12, pp. 1320-1336, 1991.
[11] Teuvo Kohonen et al., "Engineering applications of the self-organizing map,"Proc. of IEEE, vol. 84, no.10, pp. 1358-1383, 1996.
[12] Murray Smith,Neural networks for statistical modeling, Van Nostrand Reinhold, New York, 1993.
[13] Petri Vuorimaa, "Fuzzy self-organizing map,"Fuzzy Sets Syst., vol. 103, pp. 223-231, 1994.
[14] R.Hecht-Neilsen, "Counterpropagation network,"Applied Optics,vol. 26, pp. 4979-4984, 1987.
[15] Zhiming Zhang, et al., "An improved self-organizing CPN-based fuzzy system with adaptive back propagation algorithm,"Fuzzy sets and systems, to be published.
[16] YanQing Zhang, et al., "Compensatory neurofuzzy systems with fast learning algorithms,"IEEE trans. neural networks, vol. 9, no. 1, 1998.
[17] Leonardo M. Reyneri, "Unification of neural and wavelet networks and fuzzy systems,"IEEE trans. on neural networks," vol. 10, no. 4, pp.801-814, 1999.
[18] Kotaro Hirasawa, et al, "Learning Petri network and its application to nonlinear system control,"IEEE Trans. Syst. Man Cyber., vol. 28, no. 6, pp. 781-789, 1998.
[19] J. S. R. Jang and C. T. Sun, "Functional equivalence between radial basis function networks and fuzzy inference systems,"IEEE trans. on neural networks, vol.4, pp.156-159, 1993.
[20] L. M. Reyneri, "Weighted radial basis functions for improved pattern recognition and signal processing,"Neural processing letter, vol.2, no.3, pp. 2-6, 1995.
[21] L. M. Reyneri,, "Unification of neural and fuzzy computingparadigms,"Proceedings of 1 st international symposium on neuro-fuzzy systems, AT'96, Lausanne, Switzerland, Aug, 1996.
[22] J. M. Benitez, J. L. Castro and I. Requena, "Are artificial neural network black boxes?"IEEE trans. on neural networks, vol. 8, pp.1156-1164, 1997.
[23] J. J. Buckley, Y. Hayashi, and E. Czogala, "An the equivalence of neural nets and fuzzy expert systems,"Fuzzy Sets Syst., no. 53, pp.129-134, 1993.
[24] K. J. Hunt, R. Haas and M. Brown, "An the functional equivalence of fuzzy inference systems and spline-based networks,"Int. J. Neural sys., 1995.
[25] T. Murata, "Petri nets: Properties, analysis and applications,"Proc. IEEE, vol. 77, no. 4, pp541-580, 1989.
[26] R. David and H. Alla, "Petri nets for modeling of dynamic systems-A survey,"Automatica, vol. 30, no. 2, pp. 175-202, 1994.
이상과 같은 본 발명의 SOLPN은 트레이닝 데이터를 통해 자가구축을 함으로서, 시스템의 모델링을 보다 정확하게 할 수 있으며, CPN과 LPN의 결합에 의해 일반적인 신경망에서 이용되는 역전파 학습에 비해 보다 더 빠른 학습을 수행할 수있다.
이상에서는 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (7)

  1. 자가 구축이 가능하며 학습능력을 갖는 자가구축 학습페트리넷에 있어서,
    입력값에 대하여 출력값을 알고 있는 다수의 트레이닝 샘플들을 트레이닝 하며, 선행처리된 트레이닝 샘플에 의해 생성된 제1 시스템 파라미터에 대하여 후속 트레이닝 샘플을 적용한 결과에 따른 출력값과 이미 알고 있는 상기 후속 트레이닝 샘플의 출력값과의 오차를 임계치와 비교하고, 그 결과에 따라 초기 시스템 파라미터를 구축하는 단계;
    상기 초기 시스템 파라미터에 의해 구축된 시스템에 상기 다수의 트레이닝 샘플들을 순차적으로 대입하는 단계; 및
    상기 다수의 트레이닝 샘플 각각의 발생 오차값을 각각 기준 임계값과 비교하여, 상기 오차값이 상기 기준 임계값 이상이면 선행 트레이닝 샘플에 의해 결정된 시스템 파라미터를 수정하여 최종 시스템 파라미터를 결정하는 단계;를 포함하는 것을 특징으로 하는 자가구축 학습패트리넷.
  2. 제 1항에 있어서,
    상기 초기 시스템 파라미터를 구축하는 단계는,
    상기 다수의 트레이닝 샘플들 중 제1 번째 트레이닝 샘플을 통해 제1 시스템 파라미터를 결정하는 단계;
    상기 제1 시스템 파라미터를 통해 구축된 제1 시스템에 상기 다수의 트레이닝 샘플들 중 제2 트레이닝 샘플을 대입하는 단계;
    상기 제2 트레이닝 샘플의 상기 제1 시스템 대입 결과에 따른 발생 오차값을 상기 임계치와 비교하는 단계; 및
    상기 비교결과 상기 오차값이 상기 임계치 이상인 경우, 제2 시스템 파라미터를 생성하는 단계;를 포함하는 것을 특징으로 하는 자가구축 학습페트리넷.
  3. 제 2항에 있어서,
    상기 비교결과 상기 오차값이 상기 임계치 미만이면, 상기 후속 트레이닝 샘플을 상기 제1 시스템에 대입하는 단계;를 더 포함하는 것을 특징으로 하는 자가구축 학습페트리넷.
  4. 제 3항에 있어서,
    상기 비교결과 상기 오차값이 상기 임계치 이상이면, 새로운 제2 시스템 파라미터를 생성하고, 상기 제2 시스템 파라미터를 상기 제1 시스템 파라미터에 부가하여 새로운 제3 시스템 파라미터를 구축하며, 후속 트레이닝 샘플은 상기 제3 시스템에 대입하는 단계;를 더 포함하는 것을 특징으로 하는 자가구축 학습페트리넷.
  5. 제 4항에 있어서,
    상기 초기 시스템 파라미터는 상기 다수의 트레이닝 샘플들에 대한 순차적 트레이닝을 소정회수 반복하는 것에 의해 결정되는 것을 특징으로 하는 자가구축 학습페트리넷.
  6. 삭제
  7. 제 1항에 있어서,
    상기 최종 시스템 파라미터의 결정은 시스템이 안정화되기까지 다수의 트레이닝 샘플들에 대한 순차적 트레이닝을 반복하여 결정하는 것을 특징으로 하는 자가구축 학습페트리넷.
KR10-2002-0005749A 2002-01-31 2002-01-31 자가구축 학습페트리넷 KR100426088B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR10-2002-0005749A KR100426088B1 (ko) 2002-01-31 2002-01-31 자가구축 학습페트리넷
US10/350,177 US20030144974A1 (en) 2002-01-31 2003-01-24 Self organizing learning petri nets
JP2003021003A JP2003242478A (ja) 2002-01-31 2003-01-29 自己組織化学習ペトリネット
EP03250620A EP1335320A2 (en) 2002-01-31 2003-01-31 Configuring learning petri nets

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0005749A KR100426088B1 (ko) 2002-01-31 2002-01-31 자가구축 학습페트리넷

Publications (2)

Publication Number Publication Date
KR20030065233A KR20030065233A (ko) 2003-08-06
KR100426088B1 true KR100426088B1 (ko) 2004-04-06

Family

ID=27607064

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0005749A KR100426088B1 (ko) 2002-01-31 2002-01-31 자가구축 학습페트리넷

Country Status (4)

Country Link
US (1) US20030144974A1 (ko)
EP (1) EP1335320A2 (ko)
JP (1) JP2003242478A (ko)
KR (1) KR100426088B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105531724A (zh) * 2013-08-13 2016-04-27 高通股份有限公司 用于调制神经设备的训练的方法和装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120699B2 (en) * 2001-09-20 2006-10-10 Ricoh Company, Ltd. Document controlled workflow systems and methods
US7734492B2 (en) * 2005-04-26 2010-06-08 Xerox Corporation Validation and analysis of JDF workflows using colored petri nets
US8396736B2 (en) * 2006-04-21 2013-03-12 Process Assets, Llc Systems and methods for providing documentation having succinct communication with scalability
US20090276385A1 (en) * 2008-04-30 2009-11-05 Stanley Hill Artificial-Neural-Networks Training Artificial-Neural-Networks
TWI394089B (zh) * 2009-08-11 2013-04-21 Univ Nat Cheng Kung 虛擬生產管制系統與方法及其電腦程式產品
KR101709810B1 (ko) 2012-06-14 2017-03-08 삼성전기주식회사 고주파 인덕터의 제조방법
KR101617704B1 (ko) * 2013-08-06 2016-05-04 서울대학교산학협력단 페트리넷과 발사 추천기에 기반한 최적화 시스템 및 구현 방법
US11640522B2 (en) 2018-12-13 2023-05-02 Tybalt, Llc Computational efficiency improvements for artificial neural networks

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992002867A1 (en) * 1990-08-03 1992-02-20 E.I. Du Pont De Nemours And Company On-line training neural network for process control
JPH06176003A (ja) * 1992-12-10 1994-06-24 Fuji Xerox Co Ltd ペトリネットに基づくシミュレーション装置
JPH06342419A (ja) * 1993-06-01 1994-12-13 Fuji Electric Co Ltd ペトリネットに基づく並列制御システム
US5748848A (en) * 1995-08-21 1998-05-05 Siemens Aktiengesellschaft Learning method for a neural network
KR19990082557A (ko) * 1996-02-09 1999-11-25 윌리암 제이. 버크 불확실한 트레이닝 데이터를 사용하여 대상을검출 및 분류하기위한 뉴럴 네트워크의 트레이닝 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992002867A1 (en) * 1990-08-03 1992-02-20 E.I. Du Pont De Nemours And Company On-line training neural network for process control
JPH06176003A (ja) * 1992-12-10 1994-06-24 Fuji Xerox Co Ltd ペトリネットに基づくシミュレーション装置
JPH06342419A (ja) * 1993-06-01 1994-12-13 Fuji Electric Co Ltd ペトリネットに基づく並列制御システム
US5748848A (en) * 1995-08-21 1998-05-05 Siemens Aktiengesellschaft Learning method for a neural network
KR19990082557A (ko) * 1996-02-09 1999-11-25 윌리암 제이. 버크 불확실한 트레이닝 데이터를 사용하여 대상을검출 및 분류하기위한 뉴럴 네트워크의 트레이닝 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105531724A (zh) * 2013-08-13 2016-04-27 高通股份有限公司 用于调制神经设备的训练的方法和装置
CN105531724B (zh) * 2013-08-13 2018-09-11 高通股份有限公司 用于调制神经设备的训练的方法和装置

Also Published As

Publication number Publication date
US20030144974A1 (en) 2003-07-31
EP1335320A2 (en) 2003-08-13
KR20030065233A (ko) 2003-08-06
JP2003242478A (ja) 2003-08-29

Similar Documents

Publication Publication Date Title
Scardapane et al. A decentralized training algorithm for echo state networks in distributed big data applications
Setiono Feedforward neural network construction using cross validation
Frean A" thermal" perceptron learning rule
Gelenbe Learning in the recurrent random neural network
Shang et al. Global optimization for neural network training
Zhang et al. Learning causal state representations of partially observable environments
Chazelle The total s-energy of a multiagent system
Gabbay et al. Equilibrium states in numerical argumentation networks
KR100426088B1 (ko) 자가구축 학습페트리넷
Huan et al. Efficient algorithm for training interpolation RBF networks with equally spaced nodes
Yu et al. Correlation-based weight adjusted naive Bayes
JPH09138787A (ja) ニューラルネットワークを用いた有限状態オートマトン
Tan et al. A payoff-based learning approach for Nash equilibrium seeking in continuous potential games
Mosleh Numerical solution of fuzzy linear Fredholm integro-differential equation by\\fuzzy neural network
Kim A design of CMAC-based fuzzy logic controller with fast learning and accurate approximation
KR20230033071A (ko) Gru 기반 구조물 시계열 응답 예측 방법
Dziwiński et al. A population based algorithm and fuzzy decision trees for nonlinear modeling
Pados et al. A note on the estimation of the generalization error and the prevention of overfitting [machine learning]
Jankowski et al. Statistical control of growing and pruning in RBF-like neural networks
Javaheripi et al. Swann: Small-world architecture for fast convergence of neural networks
Wong et al. Rainfall prediction using neural fuzzy technique
Lin et al. Design of a recurrent functional neural fuzzy network using modified differential evolution
Nakama Machine learning primordial black hole formation
Chang An intelligent method for knowledge derived from limited data
Sedykh et al. Comparison of Learning Hierarchical Dynamic Neuro-neighborhood Models Based on Perceptron and Radial-basic Functions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee