KR950004250B1 - 근사 추론 장치 - Google Patents

근사 추론 장치 Download PDF

Info

Publication number
KR950004250B1
KR950004250B1 KR1019910010630A KR910010630A KR950004250B1 KR 950004250 B1 KR950004250 B1 KR 950004250B1 KR 1019910010630 A KR1019910010630 A KR 1019910010630A KR 910010630 A KR910010630 A KR 910010630A KR 950004250 B1 KR950004250 B1 KR 950004250B1
Authority
KR
South Korea
Prior art keywords
conclusion
relationship
knowledge
calculating
goodness
Prior art date
Application number
KR1019910010630A
Other languages
English (en)
Inventor
히로시 구마모또
Original Assignee
오므론 가부시끼가이샤
다떼이시 요시오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2168493A external-priority patent/JPH0458332A/ja
Priority claimed from JP2209260A external-priority patent/JPH0496102A/ja
Application filed by 오므론 가부시끼가이샤, 다떼이시 요시오 filed Critical 오므론 가부시끼가이샤
Application granted granted Critical
Publication of KR950004250B1 publication Critical patent/KR950004250B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/04Physical realisation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/90Fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Fuzzy Systems (AREA)
  • Biomedical Technology (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Feedback Control In General (AREA)

Abstract

내용 없음.

Description

근사 추론 장치
제1a도 및 1b도는 근사 추론 장치의 전체 구성의 일예를 도시하는 블록도.
제2도는 가우스 분포를 도시하는 그래프.
제3a도 내지 3f도는 멤버십 함수가 형성되는 모양을 도시하는 그래프.
제4a도 내지 4f도는 각 사상마다 얻어진 멤버십 함수를 도시함과 더불어 적합도를 구하는 모양을 도시하는 그래프.
제5a도 및 5b도는 적합도를 구하는 모양을 나타내는 그래프.
* 도면의 주요부분에 대한 부호의 설명
11 : 지식 기억 장치 12 : 지식 합성 장치
13 : 합성후 지식 기억 장치 14 : 사상값 입력 장치
15 : 적합도 연산 장치 16 : 동적 정보량 연산 장치
17 : 가능성 연산 장치 18 : 가능성 표시 장치
19 : 정적 정보량연산 장치 20 : 명료성 연산 장치
21 : 명료성 기억 장치 22 : 명료성 가산 장치
23 : 명료성 표시 장치 24 : 관계 계수 연산 장치
(발명의 요약)
사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억하여 두고, 입력 데이타를 이 지식에 적용시키므로서 추론을 행하고, 추론의 가능성을 산출함과 더불어 얻어지는 결론의 가능성에 관한 명료성을 연산하는 근사 추론 장치에 있어서, 하나의 결론에 관계하는 동일 사상이 상호 분리된 2개 이상의 정의를 가지며 또한 그것들이 OR 관계로 결합되어 있는 사상과, 하나의 결론에 관계하는 상이한 복수의 사상이 OR 관계로 결합되어 있는 지식 및 하나의 결론에 관계하는 상이한 복수의 사상이 AND 관계로 결합되어 있는 지식을 취급할 수 있게 했다. 이것으로 보다 정확한 추론 결과를 얻을 수 있음과 더불어 적용 분야가 넓어진다.
입력 데이타를 멤버십 함수에 의해서 적합도로 변환하고 그 적합도를 이용하여 사상마다의 정보량을 구한다. 한편, 복수의 시상간의 관련성(예컨대 AND 결합)을 나타내는 관계 계수를 구한다. 이것들의 적합도와 정보량과의 관계 계수를 이용하여 결론의 가능성을 구하는 구성의 근사 추론 장치, 이것에 의해 데이타가 입력된 시점에서의 정확한 정보량을 가미하며, 또한 하나의 결론에 대한 복수의 사상간의 관계성을 고려한 식별 능력이 높은 추론 결과가 얻어진다.
(발명의 배경)
본 발명은 근사 추론 장치에 관한 것이다.
추론 결과를 도출하기 위해서 사용한 사상의 정보량에 의해서 수정 또는 변경하는 방식의 근사 추론이 알려져 있다(예컨대 Zhang Hongmin "AN Expert System With Thinking in Images" Preprints of Second IFSA Congress Tokyo, July 20-25,1987, p 765)
이 근사 추론 방식은 사상에 대해서 결론마다 부여된 멤버십 함수를 써서 사상마다의 정보량(즉 사상의정보 식별 능력)을 산출하고 추론 결과(즌, 결론이 성립하는 가능성)을 그 결론을 도출하기 위해서 사용한 사상의 정보량에 의해서 수정 또는 변경(가능성과 정보량의 적을 취한다)하는 것에 의해서 초론 결과의 식별 능력을 높히려는 것이다.
그러나 이 종래의 근사 추론 방식에서 사상의 멤버십 함수는 1개의 피크만을 갖는(단봉성)것을 전제로 되어 있었다. 멤버심 함수의 변수의 렌지(범위)내에 있어서 2개 또는 3개 이상의 피크를 갖는 소위 쌍봉성,다봉성의 멤버십 함수를 취급할 수는 없었다.
또한, 하나의 결론에 관한 복수의 상이한 사상이 OR(또는) AND(그리고)로 결합되어 있는 지식을 취급할 수 없었다.
또한, 이 방식에선 하나의 결론에 대해서 복수의 사상이 관계하고 있는 경우, 그 관계를 추론 결과에 반영할 수 없었다. 예컨대 2개의 사상의 양쪽이 일어났을 경우(2개의 사상이 AND 결합되어 있는 경우)에 얻어지는 결론에 대해서 바른 추론을 실행할 수 없다.
(발명의 개요)
본 발명은 쌍봉성, 다봉성의 멤버심 함수에 의해서 표현되는 사상을 나타내는 지식도 취급할 수있는 근사 추론 장치를 제공하는 것을 목적으로 한다.
본 발명은 또 하나의 결론에 관한 복수의 상이한 사상이 OR 관계 또는 AND관계로 결합되어 있는 지식도 취급할 수 있는 근사 추론 장치를 제공하는 것을 목적으로 한다.
본 발명은 하나의 결론을 생기게 하는 복수의 사상의 관계를 고려한 근사 추론이 가능한 장치를 제공하는 것을 목적으로 한다.
(발명의 구성 및 효과)
본 발명에 의한 근사 추론 장치는 하나의 결론에 관계하는 동일 사상이 상호 분리한 2개 이상의 정의를 가지며 또한 그것들이 OR 관계로 결합되어 있는 사상을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억 수단과, 하나의 결론에 관계하는 동일 사상이 2개 이상의 정의가 OR 관계로 결합되어 있는 것에 대해서는 각 정의에서 도출되는 멤버십 함수에 대한 적합도 사이에서 소정의 연산을 행하여 그 사상의 적합도로 하고 상기 지식에 있어서의 사상의 정의에서 도출되는 결론마다의 각 사상의 멤버십 함수에 대한 입력 데이타의 적합도를 연산하는 적합도 연산 수단과, 산출된 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단 및 상기 적합도와 동적 정보량을 써서 결론의 가능성을 구하는 가능성 연산 수단을 구비하고 있다.
상기 적합도 연산 수단에 있어서의 소정의 연산은 예컨대 MAX 연산이다.
상기 기억 수단은 동일 사상의 2개 이상의 정의에 관한 데이타를 그들의 OR 관계에 있는 것을 나타내는 형식으로 상기 지식을 기억한다.
하나의 결론에 관계하는 동일 사상이 상호 분리된 3개 이상의 정의를 가지며 또한 그 것들이 OR 관계로 결합되어 있는 사상은 2개 이상의 피크를 갖는 (쌍봉성 또는 다봉성의) 멤버십 함수로 표현된다. 본 발명에 의하면 이같은 사상에 관해서도 적합도가 연산 가능하므로 그에 기준해서 결론의 가능성을 구할 수 있다.
따라서 본 발명에 의한 근사 추론 장치는 쌍봉성 또는 다봉성을 갖는 멤버십 함수로 표현되는 사상도 취급할 수 있게 되며 그 응용 범위가 넓어진다.
본 발명에 의한 근사 추론 장치는 하나의 결론이 관계하는 상이한 복수의 사상이 OR 관계로 결합되어 있는 지식을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억 수단과, 상기 지식에 있어서의 사상의 정의에서 도출되는 결론마다의 각 사상의 멤버십 함수에 대한 입력 데이타의 적합도를 연산하고 OR 관계로 결합되어 있는 사상의 그룹에 대해서는 그 그룹에 속하는 사상에 대한 적합도간에서 소정의 연산을 행하는 것에 의해서 그룹 적합도를 산출하는 적합도 연산 수단과, 산출된 각 사상의 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단 및 상기 그룹 적합도를 포함하는 산출된 적합도와 동적 정보량을 써서 결론의 가능성을 구하는 가능성 연산 수단을 구비하고 있다.
상기 적합도 연산 수단에 있어서의 소정의 연산은 예컨내 MAX 연산이다.
상기 기억 수단은 하나의 결론에 관계하는 상이한 복수의 사상에 관하는 데이타를 그것들이 OR 관계에 있음을 나타내는 형식으로 상기 지식을 기억한다.
본 발명에 의한 근사 추론 장치는 하나의 결론에 관계하는 상이한 복수의 사상이 OR 관계로 결합되어 있는 지식 및 AND 관계로 결합되어 있는 지식을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억 수단과, 상기 지식에 있어서의 사상이 정의에서 도출되는 결론마다의 각 사상의 정의에서 도출되는 결론마다의 각 사상의 벰버십 항수에 대한 입력 데이다의 적합모를 연산하고 (⊃R 관계로결합되어 있는 사상의 그룹 및 AND 관계로 결합되어 있는 사상의 그룹에 대해선 그것들의 그룹에 속하는 사상에 대한 적합도간에서 소정의 연산을 행하므로서 그룹 적합도를 각각 산출하는 적합도 연산 수단과, 산출된 각 사상의 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단 및 상기 그룹 적합도를 포함하는 산출된 적합도와 동적 정보랑을 써서 결론의 가능성을 구하는 가능성 연산 수단을 구비하고 있다.
상기 적합도 연산 수단에 있어서 OR 관계로 결합되어 있는 사상의 그룹의 그룹 적합도를 산출하는 소정의 연산은 예컨대 MAX 연산이며. AND 관계로 결합되어 있는 사상이 그룹의 그룹 적합도록 산출하는 소정의 연산은 예컨대 MIN 연산이다.
상기 기억 수단은 OR 관계로 결합되어 있는 사상에 관한 데이타를 그것들이 OR 관계에 있음을 나타내는 형식이며 AND 관계로 결합되어 있는 사상에 관한 데이타를 그것들이 AND 관계에 있음을 나타내는 형식으로 기억한다.
본 발명에 의하면 전문가의 하나의 결론에 관계하는 지식에 있어서 복수의 상이한 사상이 OR 관계로 결합되어 있는 경우에도, OR 결합과 AND 결합이 혼재하고 있는 경우에도 이같은 지식을 취급하는 것이 가능해지므로 가일층 신뢰성이 높은 근사 추론이 달성됨과 더불어 그 응용의 폭이 넓어져 널리 사용된다.
본 발명에 의한 근사 추론 장치는 사상과 결론과의 관계를 도시하는 지식에 있어서 데이타를 멤버십 함수를 써서 입력 데이타를 적합도로 변환하는 적합도 연산 수단과, 이 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단과, 복수의 사상과 결론과의 단계를 나타내는 지식에 있어서 복수의 사상간의 관계성을 나타내는 관계 계수를 구하는 관계 계수 연산 수단, 및 상기 적합도와 동적 정보량과 관계계수를 써서 결론의 가능성을 구하는 가능성 연산 수단을 구비하고 있는 것을 특징으로 한다.
본 발명에 의하면 추론에 사용한 사상에 관해서 데이타가 입력된 시점에서 보다 정확한 동적 정보량을 가미해서 결론의 가능성을 구하고 있으므로 지식 능력이 높은 추론 결과를 얻을 수 있다. 또, 본 발명에 의하연 복수의 사상간의 관련성(예컨대 AND 결합)을 상기 관계 계수를 써서 추론 결과에 반영시킬 수 있으므로 보다 정확한 추론 결과를 얻을 수 있다.
(실시예의 설명)
I. 제1실시예
제 1 실시예는 사상과 결론과의 관계를 나타내는 전문가의 지식(규칙 또는 룰)에 있어서 하나의 결론에 관해서 동일 사상이 서로 분리한 2개 이상의 정의를 가지며, 이것들의 정의가 OR(또는)로 결합되어 있는 경우에 적용되는 것이다. 이같은 사상은 하나의 결론에 관해서 쌍봉성(2개의 피크를 갖는) 또는 다봉성(3개이상이 피크를 갖는다)의 멤버십 함수에 의해서 표현된다.
하나의 결론에 관해서 동일 사상이 상호 분리한 2개의 정의를 갖는 예로선 모터의 회전 속도가 매우 느리다. 또는 매우 빠르다면 고장이다 라는 것을 들 수 있다. 또, 하나의 결론에 관해서 동일 사상이 상호 분리된 3개 이상의 정의를 갖는 예로선 소정의 주파수 f의 정수배의 주파수의 진동이 생기고 있다면, 고장이다 라는 것을 들 수 있다. 이 경우엔 주파수를 가로축으로 하고 주파수 mf(m=1,2,3,···)의 위치에 각각 피크를 갖는 상호 독립의 멤버십 함수의 산(山)이 그려진다.
(1) 근사 추론 장치의 전체 구성
제1a도에서 근사 추론 장치의 전체 구성의 일예가 도시되어 있다.
근사 추론 장치는 지식 기억 장치(11), 지식 합성 장치(12), 합성후 지식 기억 장치(13), 사상값 입력 장치 14, 적합도 연산 장치(15), 동적 정보량 연산 장치(16), 가능성 연산 장치(17), 가능성 표시 장치(18), 정적 정보량 연산 장치(19), 명료성 연산 장치(20), 명료성 기억 장치(21), 명료성 가산 장치(22) 및 명료성 표시 장치(23)로 구성되어 있다.
제1b도에서 근사 추론 장치의 전체 구성의 일예가 도시되어 있다. 근사 추론 장치는 지식 기억 장치(11), 지식 합성 장치(12), 합성후 지식 기억 장치(12), 사상값 입력 장치(14), 적합도 연산 장치(15), 동적 정보량 연산 장치(16), 가능성 연산 장치(17), 가능성 표시 장치(18), 정적 정보량 연산 장치(19), 명료성 연산 장치(20), 명료성 기억 장치(21), 명료성 가산 장치(22), 명료성 표시 장치(23) 및 관계 계수 연산장치(24)로 구성되어 있다.
이하에 이것들의 장치에 대해서 상술한다.
(2) 지시 기억 장치
제1a도에서, 지식 기억 장치(11)는 전문가등이 입력한 지식을 사상과 결론과의 관계를 나타내는 형식으로 기억하는 장치이다.
이 장치는 복수의 전문가의 지식을 기억할 수 있다.
지식 기억 장치(11)에 기억되어 있는 2명의 전문가 ex1, ex2의 지식의 예를 규칙의 형식으로 이하에 나타낸다.
전문가 ex1 : 만일 0≤f1≤30 또는 70≤f1≤100,0≤f2≤40 이면, 그때 c1 (1)
만일 40≤f1≤80,60≤f2≤l00 이면, 그때 c2 (2)
전문가 ex2 : 만일 10≤f1≤20 또는 80≤f1≤90,10≤f2≤30 이면, 그때 c1 (3)
만일 50≤f1≤70,70≤f2≤90 이면, 그때 c2 (4)
f1,f2는 사상이며 이들을 각각 사상 1, 상기 2라 칭한다. c1,c2는 결론이며 이들을 각각 결론 1,2라 칭한다.
또, a≤f1≤b와 같이 나타내어진, a,b를 각각 최소값, 최대값이라 칭한다.
상기 제(1)식 및 제(3)식에 있어서 결론 c1에 관해서 사상 f1에서 2개의 상호 독립한 범위가 정의되어 있다. 따라서 결론 c1에 관한 사상 f1의 멤버십 함수는 2개의 산을 갖는 것으로 된다.
이같은 전문가의 지식은 지식 기억 장치(11)에 있어서 다음 같은 데이타 구조로 사상 데이타와 결론 데이타로 나누어서 기억된다. 제1표 및 제2표는 모두 제(1),(2)식으로 나타내어지는 천문가 ex1의 지식에 관한 것이다.
[제1표 (사상 데이타)]
[제2표 (결론데이타)]
제1표에 있어서 f1(0), f1(1), f1(2)등은 사상 f1에 관한 각 정의를 나타낸다. 마찬가지로 f2(0), f2(1)등은 사상 f2에 관한 각 정의를 나타낸다. 또, 제2표는 결론마다 그 결론에 관계하는 사상을 관련지은 것이다. 같은 사상의 정의가 인접하고 있을때에(예컨대 f1(0)와 f1(1)) 그것들은 OR로 결합되어 있다. 그러나, OR로 결합되어 있는 코드를 가입토록 해도 된다.
상기 제1표 및 제2표 이외에도 전문가의 지식을 기억하는 데이타 구조는 여러가지 생각된다. 어쨌거나,각 사상의 복수의 정의와 각 결론에 대한 복수의 사상(동일 사상포함)의 관련 붙임을 기억할 수 있는 구조면 된다.
제1b도에서, 지식 기억 장치(11)로 전문가등이 입력한 지식을 사상과 결론과의 관계를 나타내는 형식으로 기억하는 장치이다. 이 장치는 복수의 전문가의 지식을 기억할 수 있다.
지식 기억 장치(11)에 기억되어 있는 2명의 전문가 ex1',ex2'의 지식의 예를 규칙의 형식으로 이하에 나타낸다.
전문가 ex1' : 만일 20≤f1≤60, 및 0≤f2≤40이면, 그때 c1 (1')
만일 40≤f1≤80, 및 60≤f2≤100이면, 그때 c2 (2')
전문가 ex2' : 만일 30≤f1≤50, 및 10≤f2≤30이면, 그때 c1 (3')
만일 50≤f1≤70, 및 70≤f2≤90이면, 그때 c2 (4')
f1,f2는 사상이며 이것들은 각각 사상1, 사상 2라 칭한다. c1,c2는 결론이며 이것들을 각각 결론 1,2라 칭한다.
또, a≤f1≤b와 같이 나타내어진 a,b를 각각 최소값, 최대값으로 부른다.
상기 (1') 내지 (4')식에서 1개의 결론에 대한 복수의 사상이 AND의 관계를 결합되어 있다. 이 AND의 관계는 후술과 같이 관계 계수에 의해서 표현된다.
상술의 규칙을 전문가마다 표(테이블)의 형식으로 표현하면 다음과 같다.
[제1'표]
[제2'표]
(2) 지식 합성 장치
제1a도에서, 지식 합성 장치(12)는 지식 기억 장치(11)에 기억된 복수의 전문가의 지식을 합성해서 1개의 지식으로 통합하는 장치이다.
지식의 합성 방법은 여러가지 있는데, 여기에선, 각 결론에 관여하고 있는 각 사상의 최대값과 최소값에 대해서 복수의 전문가의 평균값과 표준 편차를 계산한다.
상술한 2명의 전문가의 사상 f1에서 결론 c1을 도출하는 지식을 예로 들어서 지식 합성 처리에 대해서 이하에 설명한다.
상술의 규칙(제(1)식, 제(3)식)에서 사상 f1에서 결론 c1을 구하는 규칙을 추출하면 다음과 같이 나타내어진다.
전문가 ex1 : 만일 0≤f1≤30, 및 70≤f1≤100이면, 그때 c1 (5)
전문가 ex2 : 만일 10≤f1≤20, 및 80≤f1≤90이면, 그때 c1 (6)
이들 규칙은 상술한 사상 f1의 각 정의를 나타내는 부호 f1(10),f1(1)을 써서 표현하면 다음 같이 나타내어진다.
전문가 ex1 : 만일 f1(0) 또는 f1(1)이면, 그때 c1 (7)
전문가 ex2 : 만일 f1(0) 또는 f1(1)이면, 그때 c1 (8)
정의 f1(0)에 관해서 전문가 ex1과 ex2에 있어서의 최소값의 평균값 mmin및 최대값의 평균 mmax이 산출된다.
또, 최소값의 표준 편차 6min및 최대값의 표준편차 6max가 산출된다.
마찬가지로 f1(1)에 관해서 전문가 ex1과 ex2에 있어서 최소값의 평균값 mmin및 최대값의 평균값 mmax이 산출된다.
마찬가지로 최소값의 표준 편차 6min및 최대값의 표준 편차 6max가 산출된다.
이같은 전문가의 지식의 합성 연산을 상술한 각 사상의 정의 f1(0), f1(1), f1(0), f2(1) 등에 대하여 행하면 다음 같은 합성된 사상 데이타가 얻어진다.
[제3표]
[제4표]
합성 결론 데이타는 제2표와 같지만, 이것을 고쳐서 제5표로서 나타낸다.
[제5표]
일반적으로 근사 추론에 있어선 사상에 대해서 멤버십 함수가 주어진다. 여기에선 일예로서 상술과 같이해서 합성된 전문가의 지식을 써서 가우스 분포로 멤버십 함수를 구하는 방법에 대해서 설명한다.
최소값의 평균값 mmin, 최대값의 평균값 mmax, 최소값의 표준 편차 6min, 최대값의 표준 편차 6max를 써서 멤버십 함수는 다음식으로 나타낸다.
단, x : 사상으로의 입력 데이타의 값
Φ(x) : 입력 데이타 x가 사상에 적합하는 정도(적합도)
Gauss(x) : 입력 x에서의 가우스 분포의 값이다.
제2도에 가우스 분포의 일예를 도시한다. 이 가우스 분포에 있어시 멤버십 함수의 작성때문에 좌반분만이 쓰인다. Φ(X)=0.5에 있어서의 x의 위치는 mmin또는 mmax로 결정되며 기울기는 6min또는 6max에 의해서 결정된다.
일예로서 결론 f1에 관한 사상 f1의 한쪽의 정의 f1(0) 멤버십 함수는 제(9)식에서 제(12)식에 의해 산술한 값을 써서 제3a도 내지 제3c도와 같이 해서 작성된다. 이 경우, 제(17)식은 다음 같이 된다.
제3a도는 제(17)식 또는 제(18)식의 우변 제1항을 제3b도는 제(17)식 제(18)식의 우변 제2항을, 제3c도는 상기 제1항에서 제2항을 감산한 결과, 즉 제(17)식 또는 제(18)식으로 나타내어지는 멤버십 함수를나타내고 있다.
제3표 및 제4도에 나타내는 합성된 사상 데이타를 써서 구해진 멤버십 함수의 예를 제4a도 내지 제4d도에 도시한다.
제1b도에서, 지식 합성 장치(12)는 지식 기억 장치(11)에 기억된 복수의 전문가의 지식을 합성해서 1개의 지식으로 통합하는 장치이다.
지식의 합성 방법은 여러가지 있으나 여기에선 각 결론에 관여하고 있는 각 사상의 최대값과 최소값에 대해서 복수 전문가의 평균값과 표준 편차를 계산한다.
상술한 2명의 전문가의 사상 f1에서 결론 c1을 도출하는 지식을 예로 들어서 지식 합성 처리에 대해서 이하에 설명한다.
상술의 규칙(제(1')식, 제(3'식)에서 사상 1(fl)에서 결론,1(c1)를 구하는 규칙을 추출하면 다음 같이 나타내어진다.
전문가 ex1' : 만일 20≤f1≤60 이면, 그때 c1 (5')
전문가 ex2' : 만일 30≤f1≤50 이면, 그때 c1 (6')
최소값의 평균값 mmin및 최대값의 평균값 mmax가 산출된다.
최소값의 표준 편차 6min및 최대값의 표준 편차 6max가 산출된다.
이같은 전문가의 지식의 합성 연산을 상술한 규칙 (제(1')식 내지 제(4')식)에 대해서 각 결론에 관여하고 있는 각 사상의 최소값과 최대값의 모두에 대해서 행하면 다음과 같은 표(테이블)가 얻어진다.
[제3'표]
일반적으로 근사 추론에 있어선 사상에 대해서 멤버십 함수가 부여된다. 여기에선 일예로서 상술과 같이해서 합성된 전문가의 지식을 써서 가우스 분포로 멤버십 함수를 구하는 방법에 대해서 설명한다.
최소값의 평균값 mmin, 최대값의 평균값 mmax, 최소값의 표준편차 6min, 최대값의 표준편차 6max를 써서 멤버십 합수는 다음식으로 나타내어진다.
단, x : 사상으로의 입력 데이타의 값
Φ(x) : 입력 데이타가 사상에 적합하는 정도(적합도)
Guass(x) : 입력에 있어서 가우스 분포의 값이다.
제2도에 가우스 분포의 일예가 도시되어 있다. 이 가우스 분포에 있어서 멤버십 함수의 작성을 위해서 좌반분만이 사용된다. Φ(X)=0.5에 있어서의 X의 위치는 mmin또는 mmax에 의해서 결정되며 기울기는 6min또는 6max에 의해서 결정된다. 일예로서 사상 f1에서 결론 c1을 구하기 위한 멤버십 함수를 제(7)식에서 제(10')식에 의해서 산출한 값을 이용하여 제3d도 내지 제3f도의 같이 해서 작성된다. 이 경우 제(11')식은 다음 같이 된다.
제3d도는 제(11')식 또는 제(12')식의 우변 제1항을, 제3e도는 제(11')식 또는 제(12')식의 우변 제2항을 제3f도는 상기 제1항에서 제2항을 감산한 결과, 즉, 제(11')식 또는 제(12')식으로 나타내어지는 멤버십 함수를 나타내고 있다.
제3'표에 나타내는 합성된 지식에 기준해서 작성된 각 사상 f1,f2에 대해서 결론 c1,c2를 구하기 위한 멤버십 함수의 예를 제4e도 및 제4f도에 도시한다.
(4) 합성후 지식 기억 장치.
제1a도에서, 합성후 지식 기억 장치(13)에는 지식 합성 장치(12)에 의해서 작성된 합성 사상 데이타 및 합성 결론 데이타가 제3표 내지 제5표와 같은 형식으로 기억된다. 지식의 합성은 추론때마다 행할 필요는 없으므로 이같이 미리 계산한 결과를 기억해둔다. 그리고 추론때마다 그 기억 장치(13)내의 값을 읽어내서 사용하므로서 추론 처리의 고속화를 도모할 수 있다.
제1b도에서, 합성후 지식 기억 장치(13)에는 지식 합성 장치(12)에 의해서 산출된 평균값과 표준 편차가 제3'표와 같은 형식으로 기억된다. 지식의 합성은 추론때마다 행할 필요는 없으므로 이같이 미리 계산한 결과를 기억해둔다. 그리고, 추론때마다 그 기억 장치(13)내의 값을 판독해서 사용하므로서 추론 처리의 고속화를 도모할 수 있다.
(5) 사상값 입력 장치
제1a도 및 1b도에서 사상값 입력 장치(14)는 키보드, 통신 인터페이스 장치, 메모리, 파일등에서 사상마다 입력되는 입력 데이타를 읽어넣는 장치이다. 입력된 데이타는 적합도 연산 장치(15)에 주어짐과 더불어 각 사상의 데이타가 입력되었는지 어떤지의 정보가 명료성 가산 장치(22)에 부여된다. 사상 데이타는 확정값뿐 아니고 언어값이나 멤버십 함수로 부여해도 된다.
(6) 적합도 연산 장치
제1a도에서, 적합도 연산 장치(15)는 사상값 입력 장치(14)에서 입력된 데이타의 각 멤버십 함수(또는결론)에 대한 적합도를 산출하는 것이다. 구체적으로 적합도는 입력 데이타가 확정값인 경우에는 제(17)식의 우변의 변수로서 입력 데이타를 대입하므로서 Φ(x)로서 구해진다. 물론 이같은 연산식을 반드시 쓰지않아도 된다. 입력 데이타가 언어값이나 멤버십 함수일 경우에는 예컨대 MIN-MAX 연산을 써서 적합도가 산출된다.
결론 c1에 대한 사상 f1과 같이 사상 f1의 정의가 2개(또는 2이상) 존재하고 또한 그것들이 OR로 결합되어 있는 경우에는 각 정의에 있어서의 멤버십 함수의 적합도의 MAX 연산결과를 그 사상의 적합도로 한다. 예컨대 제4a도를 참조해서 사상 f1에 대한 사상 데이타 x1이 부여될때익 정의 f1(0)에 있어서 적합도를 mf1(1), 정의 f1(1)에 있어서 적합도를 mf1(1)로 하므로 사상 f1에 대한 사상 데이타 x1의 적합도은 다음식으로 주어진다.
m11=MAX(mf1(0),mf1(1)) (19)
제4a도 내지 4c도의 예에선 mf1(0)=0, mf1(1)=m11이며, 그것들중의 큰쪽이 제(19)식의 MAX 연산으로 선택된다.
상술의 설명은 정의 f1(0)에 관한 멤버십 합수와 정의 f1(1)에 관한 멤버십 함수를 별개로 생각할 것을 전제로 하고 있는데, 이것은 제4a도에 도시하는 0∼100까지의 렌지 범위에 걸치는 쌍봉성의 1개 합성 멤버십 함수를 생각하고, 이 합성 멤버십 함수에 대한 입력 데이타 x1의 적합도 m11을 구하는 것과 같다. 이같은 적합도 m11이 입력 데이타 x1의 결론 c1에 대한 적합도(결론 c1에 관한 사상 f1의 멤버십 함수에 대한 적합도)로서 이하에 나타내는 동적 정보량 연산, 결론의 가능성의 연산에서 쓰이게 된다.
제1b도에서, 적합도 연산 장치√15)는 사상값 입력 장치(14)에서 입려고딘 데이타의 각 멤버십 함수(또는결론)에 대한 적합도를 산출하는 것이다. 구체적으로는 적합도는 제(11)식의 우변의 변수 x로서 입력 데이타를 대입하므로서 Φ(x)로서 구해진다. 물론이같은 연산식을 반드시 쓰지 않아도 된다.
(7) 동적 정보량 연산 장치와 정적 정보량 연산장치
제1a도에서 사상 f1의 사상값(입력 데이타)를 x1, 사상 f2의 사상값을 x2로 한다. 이들 데이타는 사상값 입력 장치(14)에서 입력된다.
상술과 같이 또 제4a도에서 제4d도에 도시하듯이 각 적합도 m11, m12, m21,m22를 다음 같이 정한다.
m11입력 데이타 x1의 결론 c1에 대한 적합도(결론 c1에 관한 사상 f1의 정의 f1(0), f1(1)의 멤버십 함수에 대한 적합도, 상술의 MAX연산 결과), m12입력 데이타 x1의 결론 c2에 대한 적합도(결론 c2에 관한 사상 f1의 정의 f1(2)의 멤버십 함수에 대한 적합도), m2l입력 데이타 x2의 결론 c1에 대한 적합도(결론 c1에 관한 사상 f2의 정의 f2(0)의 멤버십 함수에 대한 적합도), m22입력 데이타 x2의 결론 c2에 대한 적합도(결론 c2에 관한 사상 f2의 정의 f2(1)의 멤버십 함수에 대한 적합도), 이들 적합도는 입력 데이타 x1, x2가 주어졌을때 상술한 적합도 연산 장치(15)에 의해서 산출된다.
여기에서 퍼지 엔트로피라는 개념을 생각한다.
입력 x1이 부여되었을때의 퍼지 엔트로피 Ef1을 다음같이 정의한다.
이 퍼지 엔트로피는 정보 식별 능력의 지표의 일종이며, 입력 데이타 x1을 부여했을때 결론이 명확하게 식별될 수 있을 만큼 작은 값으로 되며, 결론이 애매하게 식별될 수 없을 만큼 큰 값으로 된다. 즉, 입력데이타 x1의 결론 c1에 대한 적합도 m11과 입력 데이타 x1의 결론 c2에 대한 적합도 m12와의 차가 클수록 작은 값으로 되며 차가 작을 수록 큰 값으로 된다.
마찬가지로, 입력 x2가 주어졌을때의 퍼지 엔트로피는 다음으로 주어진다.
퍼지 엔트로피 Ef가 취할 수 있는 값의 범위는 이하에 나타내는 것으로 된다.
0≤Ef≤log(n)
n : 사상상의 결론수
이 예에선 사상 1(f1)상의 결론수는 2(c1,c2)이므로 퍼지 엔트로피 Ef의 최대값은 log(2)로 된다.
다음에 이 퍼지 엔트로피 Ef1을 사용해서 입력 데이타 x1이 부여되었을때의 동적 정보량 If1D(x1)을 구한다. 여기에서 동적 정보량 If1D(x1)는 추론을 행할때에 있어서의 결론을 확정하기 위한 사상의 식별 능력이며 입력 데이타의 결론 c2에 대한 적합도 m12의 차가 클수록에 큰 값을 취하며 차가 작을 수록에 작은 값이 되는 것으로 본다.
그래서, 사상 f1에 대한 동적 정보량 If1D(x1)을 최대 퍼지 엔트로피에서 입력 데이타이 주어졌을때의 퍼지 엔트로피 Ef1을 뺀 것이라고 정의한다.
마찬가지로 사상 f2에 대해서 입력 데이타가 부여되었을때의 동적 정보량을 다음같이 정의한다.
동적 정보량 연산 장치(16)는 적합도 연산 장치(15)에서 얻어진 적합도를 써서 제(22)식 및 제(23)식에 따라서 사상마다에 동적 정보량을 산출한다.
동적 정보량은 상술과 같이 입력 데이타 x1,x2에 의존한다. 이것에 대해서 정적 정보량은 입력 데이타에 의존하지 않는 것이며 최대 퍼지 엔트로피에서 사상의 렌지 폭중의 퍼지 엔트로피의 평균을 뺀 것을 사상 전체의 정적 정보량으로 한다. 예컨대, 사상(1)에 대한 정적 정보량은 다음식으로 주어진다.
마찬기지로 사상(2)에 대한 정적 정보량은 다음식으로 주어진다.
여기에서, m11(x) : 사상 f1에 대한 입력 데이타 x의 결론 c1에 대한 적합도, m12(x): 사상 f1에 대한 입력 데이타 x의 결론 c2에 대한 적합도, m21(x) : 사상 f2에 대한 입력 데이타 x의 결론 c1에 대한 적합도, m22(x) : 사상 f2에 대한 입력 데이타 x의 결론 c2에 대한 적합도, []/100 : 사상의 렌지 록 0∼100의 사이에 있어서 x를 δ간격으로 변화시키고, 각각의 x에 대한 퍼지 엔트로피를 계산하고 그것들의 평균값을 구하는 연산(단 0<δ≤100)
제(24)식 및 제(25)식으로 알수 있듯이 사상의 멤버십 함수간의 중첩이 클수록 사상의 정적 정보량은 작으며, 사상의 멤버십 함수간의 중첩이 작을수록 사사의 정적 점보량은 크다. 즉, 정적 정보량은 사상의 멤버십 함수가 결론을 식별하는 능력을 나타내고 있다.
정적 정보량은 연산 장치(19)는 합성된 지식에 의해 얻어지는 멤버십 함수에서 상술한 제(24)식 및 제(25)식에 따라서 사상마다 정적 정보량을 연산해서 기억한다. 정적 정보량은 입력 데이타에는 의존하지 않으므로 1회만 산출되면 된다.
상술한 퍼지 엔트로피, 정적 정보량 및 동적 정보량을 일반식으로 나타내면 다음 같이 된다.
적합도 mij를 입력 데이타(사상값) xi의 결론 cj의 멤버십 함수에 대한 적합도로 한다. i는 사상에 대한 첨자이며 1∼m의 값을 취하며 j는 결론에 대한 첨자이며 1∼n의 값을 취한다.
입력 가 부여되었을때의 퍼지 엔트로피 Efi는 다음 같이 정의된다.
여기에서
사상 fi에 대한 동적 정보량 IfiD(xi)는 최대 퍼지 엔트로피에서 입력 데이타 xi가 주어졌을때의 퍼지 엔트로피 Efi를 뺀 것으로 정의된다.
입력 데이타 xi가 주어지지 않았던 사상 fi의 동적 정보량은 영이 된다.
사상 i에 대한 정적 정보량은 다음식으로 주어진다.
여기에서,
mij(xik) : 사상 fi에 대한 입력 데이타 xik의 결론-cj의 멤버십 함수에 대한 적합도 정적 정보량을 구할때는 사상 fi의 렌지 폭 xi1∼xiP(제4a도등의 0∼100에 대응)을 δ간격으로 (p-1)개로 분할하고 있다. 제(29)식의 (1/p)[]은 각 xik에 대해서 퍼지 엔트로피를 계산해서 각각의 평균을 구하는 연산을 나타내고 있다.
제1b도에서 : 사상 f1의 사상값(입력 데이타)를 x1, 사상 f2의 사상값을 x2로 한다. 이들의 데이타는 사상값 입력 장치(14)에서 입력된다.
제5a도 및 제5b도에 도시하듯이 각 적합도 m11, m12,m21,m22를 다음 같이 정한다. m11: 입력 데이타 x1의 결론 c1에 대한 적합도, m22: 입력 데이타 x1의 결론 c2에 대한 적합도, m21: 입력 데이타 x2의 결론 c1에 대한 적합도, m22: 입력 데이타 x2의 결론 c2에 대한 적합도.
이들의 적합도는 입력 데이타 x1, x2가 부여되었을때 적합도 연산 장치(15)에 의해서 산출된다.
여기에서 퍼지 엔트로피라는 개념을 생각한다.
입력 x1이 정해졌을때의 퍼지 엔트로피 Ef1을 다음과 같이 정의한다.
이 퍼지 엔토로피는 정보 식별 능력의 지표의 일종이며, 입력 데이타 x1을 부여했을때 결론이 명확하게 식별될 수 있을 만큼 작은 값으로 되며, 결론이 애매하게 식별될 수 없을 만큼 큰 값으로 된다. 즉, 입력데이타 x1의 결론 c1에 대한 적합도 m11과 입력 데이타 x1의 결론 c2에 대한 적합도 m12와의 차가 클수록 작은 값으로 되며 차가 작을수록 큰 값으로 된다.
마찬가지로, 입력 x2가 주어졌을때의 퍼지 엔트로피 Ef2는 다음식으로 부여된다.
퍼지 엔트로피 Ef가 취할 수 있는 값의 범위는 이하에 나타내는 것으로 된다.
0≤Ef≤log(n)
n : 사상상의 결론수
이 예에서 사상 1(f1)상의 결론수는 2(c1,c2)이므로 퍼지 엔트로피 Ef의 최대값은 log(2)로 된다.
다음에 이 퍼지 엔트로피 Ef1을 사용해서 입력 데이타 x1이 주어졌을때의 동적 정보량 IflD(x1)을 구한다. 여기에서 동적 정보량 IflD(x1)은 추론을 헹할때에 있어서의 결론을 확정하기 위한 사상의 식별 능력이며, 입력 데이타 x1의 결론 c1에 대한 적합도 m11과 입력 데이타 x1의 결론 c2에 대한 적합도 m12의 차가 클수록에 큰 값을 취하며 차가 작을수륵 작은 값이 된다.
그래서 사상 f1에 대한 동적 정보량 IflD(x1)을 최대 퍼지 엔트로피에서 입력 데이타 x1이 주어졌을때의 퍼지 엔트로피 Ef1을 뺀 것이라고 정의한다.
마찬가지로 사상 f2에 대해서 입력 데이타 x2가 부여되었을때의 동적 정보량은 다음 같이 정의한다.
동적 정보량 연산 장치(16)은 적합도 연산 장치(15)에서 얻어진 적합도를 써서 제(15')식 및 제(16')식에 따라서 사상마다에 동적 정보량을 산출한다.
동적 정보량은 상술과 같이 입력 데이타 x1, x2에 의존한다. 이것에 대해서 정적 정보량은 입력 데이타에 의존하지 않는 것이며 최대 퍼지 엔트로피에서 사상의 렌지 폭중의 퍼지 엔트로피의 평균을 뺀 것을 사상 전체의 정적 정보량으로 한다. 예컨대 사상(1)에 대한 정적 정보량은 다음식으로 얻어진다.
마찬가지로 사상(2)에 대한 정적 정보량은 다음식으로 주어진다.
여기에서, m11(x) : 사상 f1에 대한 입력 데이타 x의 결론 c1에 대한 적합도,m12(x) : 사상 f1에 대한 입력데이타 x의 결론 c2에 대한 적합도, m21(x) : 사상 f2에 대한 입력 데이타 x의 결론 c1에 대한 적합도, m22(x) : 사상 f2에 대한 입력 데이타 x의 결론 c2에 대한 적합도, []/100 : 사상의 렌지 폭 0∼100의 사이에 있어서 x를 δ 간격으로 변화시키고, 각각의 x에 대한 퍼지 엔트로피를 계산해서 그것들의 평균을 구하는 연산(단 0<δ≤100)
제(17')식 및 제(18')식으로 알 수 있듯이 사상의 멤버십 함수간의 중첩 클수록 사상의 정적 정보량은 작으며, 사상의 멤버십 함수간의 중첩이 작을수록 사상의 정적 정보량은 크다. 즉, 정적 정보량은 사상의 멤버십 함수가 결론을 식별하는 능력을 보이고 있다.
정적 정보량 연산 장치(19)는 합성된 지식에 의해 얻어지는 멤버십 함수에서 상술한 제(17)식 및 제(18)식에 따라서 사상마다에 정적 정보량을 연산해서 기억한다. 정적 정보량은 입력 데이타에는 의존하지 않으므로 1회만 산출되면 된다.
(8) 관계 계수 연산 장치
제1b도에서 관계 계수 연산 장치(24)는 적합도 연산 장치(15)에 의해서 산출된 적합도를 써서 각 결론의 관계 계수를 구한다. 어떤 결론의 관계 계수란 그 결론에 관계하는 사상간의 관련성(상술의 AND 결합)을 나타내는 것이며, 예컨대 다음 같이 해서 구해진다.
결론 c1의 관계 계수 k1
=결론 c1에 관계하는 사상에 있어서의 적합도의 최소값
=MIN(m11·m21) ····················(19)
결론 c2의 관계 계수 k2
= 결론 c2에 관계하는 사상에 있어서의 적합도의 최소값
= MlN(m12·m22) ····················(20)
여기에서 MIN( )은 주어진 값중에서 가장 작은 값을 선택하는 연산을 나타낸다.
(9) 가능성 연산 장치
각 결론마다 그 결론에 관여하는 사상의 정보량의 총합이 1로 되며, 또한 그것들의 사상의 정보량의 상대강도는 변화하지 않는 사상의 정보량을 산출한다. 이 산출한 정보량을 무게라고 한다.
예컨대 상술한 동적 정보량을 쓰면 각 무게는 다음 같이 된다.
결론 1에 대한 사상 1의 무게 :
wf11=If1D(x1)/[If1D(x1)+If2D(x2)] ············(31)
결론 1에 대한 사상 2의 무게 :
wf12=If2D(x2)/[If1D(x1)+If2D(x2)] ············(32)
결론 2에 대한 사상 1의 무게 :
wf21=If1D(x1)/[If1D(x1)+If2D(x2)] ············(33)
결론 2에 대한 사상 2의 무게 :
wf22=If2D(x2)/[If1D(x1)+If2D(x2)] ············(34)
다음에 이들의 무게와 적합도와의 적을 계산하고, 그것을 결론마다 합계한 것을 결론의 가능성으로서 산출한다.
예컨대 상기의 예에선
결론1의 가능성=wf11×m11+wf12×m21············(35)
결론2의 가능성=wf21×m12+wf22×m22············(36)
로 된다.
가능성 연산 장치(17)는 상술한 연산을 행하고 결론마다의 가능성을 산출한다.
무게 및 가능성은 일반식에서 다음 같이 나타내어진다.
사상 fi마다의 무게 wi는 다음식으로 나타내어진다.
각 결론 Cj의 가능성 Prj는 다음식으로 나타내어진다.
가능성의 산출 방법에는 몇가지 있으므로 그것들에 대해서 설명한다.
① 각 결론마다에 그 결론에 관여하는 사상의 정보량의 총합이 1로 되며, 또한 그들 사상의 정보량의 상대 강도는 변화하지 않는 사상의 정보량을 산출한다. 이 산출한 정보량을 무게라고 한다.
예컨대 상술한 동적 정보량을 쓰면 각 무게는 다음 같이 된다.
결론 1에 대한 사상 1의 무게 :
wf11=If1D(x1)/[If1D(x1)+If2D(x2)]············(21')
결론 1에 대한 사상 2의 무게 :
wf12=If2D(x2)/[If1D(x1)+If2D(x2)]············(22')
결론 2에 대한 사상 1의 무게 :
wf21=If1D(x1)/[If1D(x1)+If2D(x2)]············(23')
결론 2에 대한 사상 2의 무게 :
wf22=If2D(x2)/[If1D(x1)+If2D(x2)]············(24')
다음, 이들 무게와 적합도와의 적을 계산하고 그것을 결론마다 합계한 것에 그 결론에 관한 관계 계수를 곱한 것을 결론의 가능성으로서 산출한다.
예컨대 상기의 예에선
결론1의 가능성=(wf11×m11+wf12×m21)×k1··········(25')
결론2의 가능성=(wf21×m12+wf22×m22)×k2··········(26')
로 된다.
가능성 연산 장치(17)은 상술한 연산을 행하며 결론마다의 가능성을 산출한다.
2 각 사상의 동적 정보량을 나타내는 값이 0∼1의 범위에 수납되게 동적 정보랑을 정규화하고, 각 결론에 관여하는 사상의 정규화된 동적 정보량의 평균값을 산출하며 이 평균값을 무게라고 한다.
각 사상의 동적 정보량의 정규화는 동적 정보량을 최대 퍼지 엔트로피 log(2)로 나누는 것으로 얻어진다. 즉,
사상 f1의 정규화된 동적 정보량
If1D=If1D(X1)/log(2)···················· (27')
사상 f2의 정규화된 동적 정보량
If2D=If2D(X2)/log(2)····················(28')
결론 1에는 사상 f과 f2가 관여하고 있으므로 이들 사상의 정규화된 동적 정보량의 평균이 산출된다.
결론 1의 무게 :
w1=(If1D'+If2D')/2····················(29')
마찬가기로 결론 2에도 사상 f1과 f2가 관여하고 있으므로
결론 2의 무게 :
w2=((If1D'+If2D')/2····················(30')
I 으로 된다. 제(29'),(30')식에 있어서 분모 2는 각 결론에 관여하는 사상의 수를 나타내고 있다.
결론의 가능성은 각 결론에 관한 상기의 무게와 관계 계수와의 적에 의해서 니타내어진다.
결론1의 가능성=w1×k1····················(31')
결론2의 가능성=w2×k2····················(32')
가능성 연산 장치(17)은 상술한 연산을 행하며 결론마다의 가능성을 산출한다.
③ 상술한 결론에 대한 사상의 무게(제(21') (24')식)의 결론마다의 평균값에 그 결론에 관한 관계 계수를 곱한 것을 결론의 가능성으로 한다.
결론 1의 가능성 = [wf11+wf12)/2]×k1 ·············(33')
결론 2의 가능성 = [wf21+wf22)/2]×k2 ·············(34')
가능성 연산 장치(17)는 상술한 연산을 행하여 결론마다의 가능성을 산출한다.
(10) 가능성 표시 장치
제1a도에서 이 가능성 표시 장치(18)는 가능성 연산 장치(17)에서 산출된 가능성을 결론마다 표시하는 것이다. 이 가능성의 표시는 모든 결론에 대해서 표시토록 해도 되며 가능성이 높은 결론을 1개 또는 복수개 표시하는 것이어도 된다. 또, 통신에 의해서 가능성을 다른 장치로 전송하거나 가능성을 메모리나 파일에 기억해도 된다.
제1b도에서 이 가능성 표시 장치(18)는 가능성 연산 장치(17)에서 산출된 가능성을 결론마다에 표시하는 것이다. 이 가능성의 표시는 모든 결론에 대해서 표시하도륵 해도 되며, 가능성이 높은 결론을 1개 또는 복수개 표시하는 것이라도 된다. 또, 통신에 의해서 가능성을 다른 장치로 전송하거나 가능성을 메모리나 파일에 기억해도 된다.
(11) 명료성 연산 장치
제1a도에서 명료성 연산 장치(20)는 각 결론마다 각 사상의 명료성을 연산하는 장치이다. 여기에서 각 결론마다의 각 사상의 명료성은 어떤 결론의 가능성을 평가할때의 각 사상의 상대적인 식별 능력을 나타내는 것이다. 따라서, 이 명료성에 의해 어떤 결론을 확정하기 위한 복수의 사상의 식별 능력을 비교할 수 있으며 어느 사상이 높은 식별 능력을 갖고 있는가(많은 정보량을 가지고 있는가)를 알 수 있다. 명료성의 산출법에 대해서 이하에 상술한다.
우선, 결론 및 사상과 정적 정보량의 관계
[제6표]
제6표로 알듯이 정적 정보량에 의해서도 각 결론을 확정하기 위한 복수의 사상의 식별 능력을 비교할 수는 있다. 그러나, 이대로는 상대적인 식별 능력을 직관적으로 아래의 표에 나타내듯이 각 결론마다 정적 정보량을 정규화하고, 그 정규화한 값을 각 결론마다의 각 사상의 명료성 cl로 한다.
[제7표]
단, cl11=cl12=If1s/(If1s+If2s)
cl21=cl22=If2s/(If1s+If2s)이다.
이같이 해서 명료성 연산 장치(20)에 있어서 각 결론마다에 각 사상의 명료성이 산출된다.
결론마다의 각 사상의 명료성은 일반적으로 다음식으로 이루어진다.
단,
즉, 사상 fi에 결론 cj의 멤버십 함수가 존재하면 Aij>0, 사상 fi에 결론 cj의 멤버십 함수가 존재하지 않으면 Aij=0.
결론마다의 각 사상의 명료성을 나타내는 제(39)식의 분모는 결론 cj의 멤버십 함수가 존재하는 사상 fi에 대해서만 그 정적 정보량 If1s의 총합을 취하는 것이다.
제1b도에서 명료성 연산 장치(20)는 각 결론마다에 각 사상의 명료성을 연산하는 장치이다. 여기에서 각 결론마다의 각 사상의 명료성은 어떤 결론의 가능성을 평가할때의 각 사상의 상대적인 식별 능력을 나타내는 것이다. 따라서, 이 명료성에 의해 어떤 결론을 확정하기 위한 복수의 사상의 식별 능력을 비교할 수 있고, 어느 사상이 높은 식별 능력을 가지고 있는가(많은 정보량을 가지고 있는가)를 알게 된다. 명료성의 산출법에 대해서 이하에 말한다.
우선, 결론 및 사상과 정적 정보량의 관계를 제4'표에 나타낸다.
[제 4 '표]
제4'표로 알듯이 정적 정보량에 의해서도 각 결론을 확정하기 위한 복수의 사상의 식별 능력을 비교할수 있다. 그러나, 이대로는 상대적인 식별 능력이 직관적으로 알 수 없으므로 아래표에 나타내듯이 각 결론마다에 정적 정보량을 정규화하고, 그 정규화한 값을 각 결론마다의 각 사상의 명료성로 한다.
[제 5'표]
단, cl11=cl12=If1s/(If1s+If2s)
cl21=cl22=If2s/(If1s+If2s)이다.
이같이 해서 명료성 연산 장치(20)에 있어서 각 결론마다 각 사상의 명료성이 산출된다.
(12) 명료성 기억 장치
제1a도 및 1b도에서 명료성 기억 장치(21)은 명료성 연산 장치(20)에서 산출된 각 결론마다의 각 사상의 명료성을 기억하는 장치이다. 명료성의 연산은 추론때마다 행할 필요는 없다. 그래서, 지식을 합성했을때 산출한 명료성을 명료성 기억 장치(21)에 기억해 두고, 추론을 행할때마다 명료성 기억 장치(21)에 기억하고 있는 값을 판독토록 한다. 이것으로 추론 처리의 고속화가 도모해진다.
(13) 명료성 가산 장치
명료성 가산 장치(22)는 데이타가 실제로 입력된 사상의 명료성을 연산하는 장치이다. 여기에선, 실제로 행해지는 추론을 위해서 데이타가 입력된 사상의 명료성의 총합을 취한다. 이 명료성의 총합은 추론 결과의 명료성을 나타낸다. 이 명료성이 높을수륵 추론 결과를 도출하기 위한 정보량이 많다고 말할 수 있다. 따라서, 명료성은 추론 결과 자체의 신뢰성을 판단하는 지표로 사용할 수 있다.
추론 결과에 대한 명료성은 다음 같이 해서 산출된다.
a) 사상 1(fl)만에 대해서 데이타가 입력된 경우,
·결론 1(c1)의 추론 결과에 대한 명료성 cl1=cl11
·결론 2(c2)의 추론 결과에 대한 명료성 c12=cl12
b) 사상 2(f2)만에 대해서 데이타가 입력된 경우,
·결론 1(c1)의 추론 결과에 대한 명료성 c11=cl21
·추론 2(c2)의 추론 결과에 대한 명료성 cl2=cl22
c) 사상 1(f1) 및 사상 2(f2)의 양쪽에 대해서 데이타 입력된 경우,
·결론 1(c])의 추론 결과에 대한 명료성 cl1=cl11+cl21=1.0
·결론 2(c2)의 추론 결과에 대한 명료성 cl12+c122=1.0
추론 결과의 명료성 cl이 취할 수 있는 범위는,
0.0≤cl≤1.0
이다. 즉, 추론을 행하기 전에 주어진 지식중에서 어떤 결론을 도출하기 위해 사용할 수 있는 사상의 모두에 대해서 데이타를 입력해서 추론을 행했을 경우, 그 결론의 명료성은 1.0으로 된다. 또, 어떤 결론을 도출하기 위해서 사용할 수 있는 사상중에시 일부 사상만에 대해서 데이타를 입력했을 경우, 명료성은 0.0에서 1.0 사이의 값이 된다. 이때, 사용할 수 있는 사상중에서 명료성이 높은 사상을 많이 사용하면 결론의 명료성도, 높아지며 신뢰성이 높은 추론 결과가 얻어진다고 말할 수 있다.
제1a도에서 추론 결과에 대한(즉, 결론마다의) 명료성은 일반적으로 마음식에 따라서 산출된다.
단, 제(41)식에 있어서 입력 데이타 xi가 부여되지 않았든 사상 fi의 명료성 Clij는 0으로서 취급한다. 즉,입력 데이타 x1이 부여된 사상의 명료성 clij에 대해서만 제(41)식의 가산이 행해진다.
추론 결과의 명료성 Clj과 취할 수 있는 범위는
0.0≤clj≤1.0
이다. 즉, 추론을 행하기 전에 부여된 지식중에서 어떤 결론을 도출하기 위해서 사용할 수 있는 사상의 모두에 대해서 데이타를 입력해서 추론을 행했을 경우 그 결론의 명료성은 1.0으로 된다. 또, 어떤 결론을 도출하기 위해서 사용할 수 있는 사상중에서 일부의 사상만에 대해서 데이타를 입력했을 경우, 명료성은 0.0에서 1.0 사이의 값이 된다. 이때, 사용할 수 있는 사상중에서 명료성이 높은 사상을 많이 사용하면 결론의 명료성도 높아지며 신뢰성이 높은 추론 결과가 얻어진다고 말할 수 있다.
(14) 명료성 표시 장치
명료성 표시 장치(23)는 명료성 가산 장치(22)로 산출한 추론 결과(1예로서 상술한 가능성)에 대한 명료성을 표시하는 장치이다. 명료성은 추론 결과와 더불어 표시해도 되며 또 명료성을 다른 장치로 전송하거나 메모리나 파일로 기억하도록 해도 된다.
이 명료성의 표시는 추론 결과의 모든 결론에 대해서 표시한다. 따라서 결론이 복수 존재하는 경우에는 각각의 결론에 대응하는 명료성이 표시된다.
이같이 해서 데이타가 입력될때마다 입력된 데이타가 속하는 사상의 정보량을 연산하고 추론 결과에 대한 신뢰성을 표시하므로서 추론 결과에 대한 신뢰성을 수요자가 판단할 수 있게 된다.
제1b도에서 상술한 각 장치(11∼24)는 메모리 및 표시 장치를 포함하는 컴퓨터에 의해서 실현됨은 물론이다. 예컨대 지식합성장치(12), 각종연산장치(15),(16),(17),(19), (20),(22),(24)는 프로그램에 따라서 동작하는 CPU에 의해서 적합하게 실현된다.
II. 제 2 실시예
제2실시예는 사상과 결론과의 관계를 나타내는 전문가의 지식에 있어서 하나의 결론에 관해서 상이한 복수의 사상이 OR로 결합되어 있는 경우 및 전문가의 지식에 있어서 하나의 결론에 관해서 상이한 복수의 사상이 AND(또한)로 결합되어 있는 경우에 적용할 수 있게 확장한 것이다.
제1a도에 도시하는 구성이 제 2 실시예에 있어서도 그대로 해당된다. 제1실시예와 상이한 부분에 대해서만 이하에 설명한다.
(14) 지식 기억 장치
제1a도에서 OR 결합과 AND 결합을 포함하는 2명의 전문가의 지식이 다음 같이 주어졌다고 본다.
전문가 ex1:
0≤f1≤40 또는 60≤f2≤90 또는
10≤f3≤40,40≤f4≤70 및
20≤f5≤60이면, 그때 c1 · ··············(42)
40≤f1≤80 또는 50≤f2≤80,
30≤f3≤60 및 70≤f4≤100 및
20≤f6≤50이면,그때 c2· ··············(43)
전문가 ex2 :
10≤f1≤30 또는 70≤f2≤80 또는
20≤f3≤30,50≤f4≤60 및
30≤f5≤50이면, 그때 c1· ··············(44)
50≤f1≤70 또는 60≤f2≤70,
40≤f3≤50 및 80≤f4≤90 및
30≤f6≤40이면, 그때 c2· ··············(45)
이같은 전문가의 지삭은 지식 기억 장치(11)에 있어서 다음 같은 데이타 구조로 기억된다. 이하에 아타내는 제8표 및 제9표는 모두 제(42),(43)식으로 나타내어지는 전문가 ex1의 지식에 관한 것이다.
[제8표]
(사상 데이타)
[제9표]
(결론 데이타)
제9표에 있어서
cl(0) : 결론 cl에 관계하는 사상중 OR 결합인 것을 통합한다.
cl(1) : 결론 cl에 관계하는 사상중 AND 결합인 것을 통합한다.
cl(2) : 결론 c2에 관계하는 것중 OR 결합인것을 통합한다.
cl(3) : 결론 c2에 관계하는 사상중 AND 결합인 것을 통한다.
물론, 다른 데이타 구조를 써서 제(42) 제(45)식과 같은 지식을 기억하도록 할 수 있다.
(15) 지식 합성 장치 및 합성후 지식 기억 장치
지식 기억 장치(11)에 상기와 같은 데이타 구조로 기억된 지식은 지식 합성 장치(12)에 있어서 제1실시예의 경우와 마찬가지로 복수의 전문가에 대해서 최소값의 평균값과 그 표준 편차 및 최대값의 평균값과 그 표준 편차를 구하는 것에 의해서 합성되며 또한 제10표 및 제11표에 도시하는 것 같은 데이타 구조로 합성후 지식 기억 장치(13)에 기억된다.
[제10표]
(합성후 사상 데이타)
[제11표]
(합성후 결론 데이타)
제11표의 합성후 결론 데이타는 제9표에 도시하는 것과 같다.
(16) 적합도 연산 장치
OR 결합하고 있는 복수의 사상에 의해서 1 그룹을 형성하고 이 그룹의 적합도라 하는 개념을 생각한다. 예컨대, 결론 c1에 관한 지식에 있어서는 사상 f1과 f2와 f3이 OR 결합하고 있다. 각 사상에 입력 데이타가 주어졌을때의 이들 각 사상 f1, f2, f3의 멤버십 함수에 대한 적합도를 각각 m11, m21, m23으로 하면 이 OR 결합하고 있는 그룹의 적합도 mI10R는 그것들의 MAX 연산에 의해서 얻어진다 즉,
m10R=MAX(m11, m21, m31)……………………………………………(46)
마찬가지로 결론 c2에 관한 지식에 있어서 사상 f1과 f2가 OR 결합하고 있다. 각 사상의 데이타가 부여되었을때의 사상 f1, f2의 멤버십 함수에 관한 적합도를 각각 m12, m22로 하면,OR 결합하고 있는 이 그룹의 적합도 m는 다음식으로 주어진다.
m20R=MAX(m12, m22)…………………………………………………(47)
마찬가지로 AND 결합하고 있는 복수의 사상에 의해서 1 그룹을 형성하고 이 그룹의 적합도라는 개념을 생각한다.
예컨대, 결론 c1에 관한 지식에 있어서는 사상 f4와 f5가 AND 결합하고 있다. 각 사상에 입력 데이타가 부여되었을때의 이들의 각 사상 f4, f5의 멤버십 함수에 대한 적합도를 각각 m41, m51로 하면, 이 AND 결합하고 있는 그룹의 적합도 m1AND는 그것들의 MIN 연산에 의해서 얻어진다. 즉,
m2AND=MlN(m41, m52)…………………………………………………(48)
마찬가지로 결론 c2이 관한 지식에 있어서는 사상 f3과 f4와 f5가 AND 결합하고 있다. 각 사상의 데이타 부여되었을때의 사상 f3, f4. f6의 멤버십 함수에 관한 적합도를 각각 m32, m42, m62로 하면 AND 결합하고 있는 이 그룹의 적합도 m2AND는 다음식으로 주어진다.
m2AND=MIN(m32, m42, m62)……………………………………………(49)
적합도 연산 장치(16)은 주어진 사상 데이타를 대응하는 사상의 멤버십 함수에 적용하므로서 그 적합도 mij를 산출하고, 또한 제(46)∼(49)식에 따라서 그룹마다의 적합도릍 산출한다.
하나의 결론에 관한 지식에 있어서 동일 사상에 관해서 복수의 정의가 존재하며 또한 이것들의 OR 결합하고 있는 경우에는 상술한 제(19)식에 따라서 그 사상에 대한 적합도가 산출되며 이 적합도를 써서 다시 상기 제(46)∼(49)식에 따라서 그룹마다의 적합도가 산출된다는 것은 말할 것도 없다.
(17) 가능성 연산 장치
각 사상마다의 동적 정보량은 상술한 제1실시예의 경우와 마찬가지로 산출된다. 사상 fl, f2, f3, f4,f5, f6의 동적 정보량과 각각 If1D,If2D,If3D,If4D, If5D,If6D로 한다.
결론 cl에 관한 지식에 있어서 OR 결합하고 있는 그룹의 결론 c1에 대한 무게 w10R은 다음 같이 계산한다.
마찬가지로 결론 c2에 관한 지식에 있어서 OR 결합하고 있는 그룹의 결론 c2에 대한 무게 W20R는 다음같이 계산된다.
결론 cl에 관한 지식에 있어서 AND 결합하고 있는 그룹의 결론 c1에 대한 무게 w1AND는 다음 같이 계산된다.
마찬가지로 해서 결론 c2에 관한 지식에 있어서 AND 결합하고 있는 그룹의 결론 c2에 대한 무게 W2AND는 다음 같이 계산된다.
결론의 가능성은 다음 같이 계산된다.
결론 c1의 가능성 ;
결론 c2의 가능성 ;
사상값 입력 장치(14), 동적 정보량 연산 장치(16), 가능성 표시 장치(18), 정적 정보량 연산 장치(19), 명료성 연산 장치(20), 명료성 기억 장치(21), 명료성 가산 장치(22) 및 명료성 표시 장치(23)의 구성 및 동작은 상기 제1 실시예와 마찬가지다.
제1및 제2실시예를 통해서 상솔한 장치(11 23)는 메모리 및 표시 장치를 포함하는 컴퓨터에 의해서 실현됨은 물론이다. 예컨대 지식 함성 장치(12), 각종연산장치(15), (16),(17),(19),(20),(22)는 프로그램에 따라서 동작하는 CPU에 의해서 적당하게 실현된다.

Claims (14)

  1. 하나의 결론에 관계하는 동일 사상이 싱호 분리된 2개 이상의 정의를 가지며 또한 그들이 OR 관계로 결합되고 있는 사상을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억수단(11)과, 하나의 결론에 관계하는 동일 사상의 2개 이상의 정의가 OR 관계로 결합되어 있는 것에 대해선 각 정의에서 도출되는 소정의 멤버십 함수에 대한 적합도 사이에서 소정의 연산을 행하여, 그 사상의 적합도로 하고, 상기 지식에 있어서 사상의 정의에서 도출되는 결론마다의 멤버십 함수에 대한 입력 데이타의 적합도를 연산하는 적합도 연산 수단(15)과, 산출된 적합도를 써서 사상마다의 동적 정보량읕 구하는 동적정보량 연산 수단(16) 및, 상기 적합도와 동적 정보량을 써서 결론의 가능성을 구하는 가능성 연산 수단(17)을 구비하는 근사 추론 장치.
  2. 제1항에 있어서, 상기 적합도 연산 수단(15)에 있어서 소정의 연산이 MAX 연산인 근사 추론 장치.
  3. 제1항에 있어서, 상기 기억 수단(11)이 동일 사상의 2개 이상의 정의에 관한 데이타를 그것들이 OR관계에 있는 것을 나타내는 형식으로 상기 지식을 기억하는 근사 추론 장치.
  4. 제1항에 있어서, 각 사상의 정적 정보랑을 연산하는 정적 정보량 연산 수단(19)과, 산출된 정적 정보량을 써서 결론마다에 각 사상의 명료성을 연산하는 연산 수단(20) 및, 상기 연산 수단에서 얻어지는 명료성을 이용하여 실제로 데이타가 입력된 사상의 명료성을 가산해서 결론마다의 명료성을 연산하는 가산 수단(22)으로 이루어진 명료성 연산 수단을 더 구비하는 근사 추론 장치.
  5. 제1항에 있어서, 상기 기억 수단(11) 하나의 결론에 관계하는 상이한 복수의 사상이 OR 관계로 결합되고 있는 지식을 포함하는 전문가의 지식을 미리 기억해 두는 것이며, 상기 결합도 연산 수단(15)이 OR 관계로 결합되고 있는 사상의 그룹에 대해서는 그 그룹에 속하는 사상에 대한 적합도 사이에서 소정의 연산을 행하므로서 그룹 적합도를 산출하는 것이며, 상기 가능성 연산 수단이 상기 그룹 적합도를 포함하는 산출된 적합도와 동적 정보량을 써서 결론의 가능성을 구하는 근사 추론 장치.
  6. 하나의 결론에 관계하는 상이한 복수의 사상이 OR 관계로 결합되어 있는 지식을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억 수단(11)과, 상기 지식에 있어서 사상의 정의에서 도출되는 결론마다의 각 사상의 멤버십 함수에 대한 입력 데이타의 적합도를 연산하고, OR 관계로 결합되어 있는 사상의 그룹에 대해서는 그 그룹에 속하는 사상에 대한 적합도 사이에서 소정의 연산을 행하므로서 그룹 적합도를 산출하는 적합도 연산 수단(15)과, 산출된 각 사상의 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단(16) 및 상기 그룹 적합도를 포함하는 산출된 적합도와 동적정보량을 써서 결론의 가능성을 구하는 가능성 연산 수단(17)을 구비한 근사 추론 장치.
  7. 제6항에 있어서, 상기 적합도 연산 수단(15)에 있어서 소정의 연산이 MAX 연산인 근사 추론 장치.
  8. 제6항에 있어서, 상기 기억 수단(11)이 하나의 결론에 관계하는 상이한 복수의 사상에 관계하는 데이타를 그들이 OR 관계에 있는 것을 나타내는 형식으로 상기 지식을 기억하는 근사 추론 징치.
  9. 하나의 결론에 관계하는 상이한 복수의 사상이 OR 관계로 결합되어 있는 지식 및 AND 관계로 결합되어 있는 지식을 포함하는 사상과 결론과의 관계를 나타내는 전문가의 지식을 미리 기억해 두는 기억 수단(11)과, 상기 지식에 있어서 사상의 정의에서 도출되는 결론마다의 각 사상의 멤버십 함수에 대한 입력 데이타의 적합도를 연산하고 OR 관계로 결합되어 있는 사상의 그룹 및 AND 관계로 결합되어 있는 사상의 그룹에 대해선 그들의 그룹에 속하는 사상에 대한 적합도 사이에서 소정의 연산을 행하므로서 그룹 적합도를 각각 산출하는 적합도 연산 수단 (15)과, 산출된 각 사상의 적합도를 써서 사상마다의 동적 정보량을 구하는 동적 정보량 연산 수단(16) 및, 상기 그룹 적합도를 포함하는 산출된 적합도와 동적 정보량을 사용해서 결론의 가능성을 구하는 가능성 연산 수단(17)을 구비한 근사 추론 장치.
  10. 제9항에 있어서, 상기 적합도 연산 수단(l5)에 있어서 OR 관계로 결합되어 있는 사상의 그룹의 그룹 적합도를 산출하는 소정의 연산이 AND 연산이며 AND 관계로 결합되어 있는 사상의 그룹의 그룹 적합도를 산출하는 소정의 연산이 MAX 연산인 근사 추론 장치.
  11. 제9항에 있어서, 상기 기억 수단(11)이 OR 관계로 결합되어 있는 사상에 관한 데이타를 그들이 OR관계에 있는 것을 나타내는 형식이며 AND 관계로 결합되어 있는 사상에 관계하는 데이타를 그들이 AND관계로 있는 것을 나타내는 형식으로 기억하는 근사 추론 장치.
  12. 제6항에 있어서, 각 사상의 정적 정보랑을 연산하는 정적 정보량 연산 수단(19)과, 산출된 정적 정보량을 이용하여 결론마다에 각 사상의 명료성을 연산하는 연산 수단(20) 및 상기 연산 수단에서 얻어지는 명료성을 이용하여 실제로 데이타가 입력된 사상의 명료성을 가산해서 결론마다의 명료성을 연산하는 가산수단(22)으로 이루어진 명료성 연산 수단을 구비하는 근사 추론 장치.
  13. 사상과 결론과의 관계를 도시하는 지식에 있어서의 멤버십 함수를 써서 입력된 데이타를 적합도로 변환하는 적합도 연산 수단(15)과, 이 적합도를 이용하여 사상마다의 동적 정보량을 구하는 동적 정보량 연산수단(16)과, 복수의 사상과 결론과의 관계를 도시하는 지식에 있어서의 복수의 사상간의 관계성을 나타내는 관계 계수를 구하는 관계 계수 연산 수단(24) 및, 상기 적합도와 동적 정보량과 관계 계수를 써서 결론의 가능성을 구하는 가능성 연산 수단(17)을 구비한 근사 추론 장치.
  14. 제9항에 있어서, 각 사상의 정적 정보량을 연산하는 정적 정보량 연산 수단(19)과, 산출된 정적 정보량을 이용하여 결론마다에 각 사상의 명료성을 연산하는 연산 수단(20) 및 상기 연산 수단에서 얻어지는 명료성을 이용하여 실제로 데이타가 입력된 사상의 명료성을 가산해서 결론마다의 명료성을 연산하는 가산수단(22)으로 이루어진 명료성 연산 수단을 구비하는 근사 추론 장치.
KR1019910010630A 1990-06-28 1991-06-26 근사 추론 장치 KR950004250B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP168493 1987-07-06
JP2168493A JPH0458332A (ja) 1990-06-28 1990-06-28 近似推論装置
JP209260 1990-08-09
JP2209260A JPH0496102A (ja) 1990-08-09 1990-08-09 近似推論装置

Publications (1)

Publication Number Publication Date
KR950004250B1 true KR950004250B1 (ko) 1995-04-27

Family

ID=26492181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019910010630A KR950004250B1 (ko) 1990-06-28 1991-06-26 근사 추론 장치

Country Status (3)

Country Link
US (1) US5434955A (ko)
EP (1) EP0463629A3 (ko)
KR (1) KR950004250B1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6336106B1 (en) 1994-02-15 2002-01-01 R.R. Donnelley & Sons Company System and method for partitioning a real-valued attribute exhibiting windowed data characteristics
US6507832B1 (en) 1994-02-15 2003-01-14 R.R. Donnelley & Sons Company Using ink temperature gain to identify causes of web breaks in a printing system
US6804661B2 (en) 1997-04-24 2004-10-12 Bright Ideas, L.L.C. Drug profiling apparatus and method
US6546378B1 (en) * 1997-04-24 2003-04-08 Bright Ideas, L.L.C. Signal interpretation engine
US20020128990A1 (en) * 1997-05-01 2002-09-12 Kaminskas Paul A. Control methodology and apparatus for reducing delamination in a book binding system
US7016809B1 (en) * 2000-09-26 2006-03-21 Intel Corporation Method and system for automatically interpreting computer system performance measurements
CA2323883C (en) * 2000-10-19 2016-02-16 Patrick Ryan Morin Method and device for classifying internet objects and objects stored oncomputer-readable media
US20050124863A1 (en) * 2001-06-28 2005-06-09 Cook Daniel R. Drug profiling apparatus and method
US6952649B2 (en) * 2002-10-04 2005-10-04 Cook Daniel R Petroleum exploration and prediction apparatus and method
US6904367B2 (en) * 2002-10-04 2005-06-07 Daniel R. Cook Petroleum exploration and prediction apparatus and method
JP3952066B2 (ja) * 2005-05-30 2007-08-01 オムロン株式会社 情報処理装置、情報処理方法、プログラム、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
US7606784B2 (en) * 2005-08-02 2009-10-20 Northrop Grumman Corporation Uncertainty management in a decision-making system
KR100852629B1 (ko) * 2006-06-02 2008-08-18 연세대학교 산학협력단 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61218323A (ja) * 1985-03-20 1986-09-27 株式会社東芝 事故判定方法
US4860214A (en) * 1987-01-22 1989-08-22 Ricoh Company, Ltd. Inference system
JP2635087B2 (ja) * 1988-03-25 1997-07-30 株式会社日立製作所 プロセス制御方法
KR950004454B1 (ko) * 1990-07-26 1995-05-01 오므론 가부시끼 가이샤 근사 추론 장치
JP3211241B2 (ja) * 1990-07-27 2001-09-25 オムロン株式会社 近似推論装置

Also Published As

Publication number Publication date
EP0463629A2 (en) 1992-01-02
EP0463629A3 (en) 1993-02-24
US5434955A (en) 1995-07-18

Similar Documents

Publication Publication Date Title
KR950004250B1 (ko) 근사 추론 장치
Wang et al. Intuitionistic fuzzy geometric aggregation operators based on Einstein operations
Jarke et al. MEDIATOR: Towards a negotiation support system
Alfaro‐García et al. Logarithmic aggregation operators and distance measures
Escardó et al. Sequential games and optimal strategies
US4905162A (en) Evaluation system for determining analogy and symmetric comparison among objects in model-based computation systems
US20030074633A1 (en) Apparatus and methods for generating a contract
Seikh et al. Matrix games with dense fuzzy payoffs
JP3211241B2 (ja) 近似推論装置
Chang et al. Applying the fuzzy-weighted-average approach to evaluate network security systems
Liu et al. Some single-valued neutrosophic power muirhead mean operators and their application to group decision making
US7831602B2 (en) Method for comparing search profiles
Simpson Recursive types in Kleisli categories
EP0452824A2 (en) Approximate reasoning apparatus
KR950004454B1 (ko) 근사 추론 장치
Zhang et al. Three-way decision models of cognitive computing in Pythagorean fuzzy environments
Riaz et al. Novel multi-criteria decision-making methods with soft rough q-rung orthopair fuzzy sets and q-rung orthopair fuzzy soft rough sets
Fodor et al. Multiple criteria decision making
Ali et al. A more efficient conflict analysis based on soft preference relation
Van De Kieft et al. Explaining negotiation: Obtaining a shared mental model of preferences
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
JPH04195338A (ja) ファジィ推論方式
Faliszewski et al. Committee scoring rules: Axiomatic characterization and hierarchy
Baldwin et al. Intelligent reasoning using general knowledge to update specific information: a database approach
Rahgoshay et al. Asymptotic quasi-polynomial time approximation scheme for resource minimization for fire containment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 19980403

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee