KR101075824B1 - 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치 - Google Patents

신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치 Download PDF

Info

Publication number
KR101075824B1
KR101075824B1 KR1020097002986A KR20097002986A KR101075824B1 KR 101075824 B1 KR101075824 B1 KR 101075824B1 KR 1020097002986 A KR1020097002986 A KR 1020097002986A KR 20097002986 A KR20097002986 A KR 20097002986A KR 101075824 B1 KR101075824 B1 KR 101075824B1
Authority
KR
South Korea
Prior art keywords
data set
category
source
parameter
selector
Prior art date
Application number
KR1020097002986A
Other languages
English (en)
Other versions
KR20090037470A (ko
Inventor
요시히토 하시모토
Original Assignee
파나소닉전공썬크스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006212437A external-priority patent/JP4875433B2/ja
Priority claimed from JP2006212436A external-priority patent/JP4848492B2/ja
Priority claimed from JP2006232575A external-priority patent/JP4760614B2/ja
Application filed by 파나소닉전공썬크스 주식회사 filed Critical 파나소닉전공썬크스 주식회사
Publication of KR20090037470A publication Critical patent/KR20090037470A/ko
Application granted granted Critical
Publication of KR101075824B1 publication Critical patent/KR101075824B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 방법은 셀렉터에 의해 처리된다. 셀렉터는 데이터 세트 소스로부터 학습 데이터 세트를 구성하는 각각의 요소를 선택한다. 소스의 각각의 요소는, 미리, 변환기를 통해 추출된 특징 데이터이며, 복수의 카테고리의 어느 하나의 카테고리에 할당된다. 셀렉터는 소스의 각각의 요소의 괴리도를 산출하여, 평균 괴리도를 얻는다. 뉴럴 네트워크의 출력층의 출력 뉴런이 출력층에 의해 나타내지는 모든 카테고리에서의 상이한 카테고리에 관련되면, 셀렉터는, 최소 평균 괴리도의 카테고리에 대응하는 소스의 모든 요소를, 소스로부터 학습 데이터 세트로의 선택에 포함시킨다. 또한, 셀렉터는 상이한 카테고리의 모든 잔존 카테고리에 대응하는 소스의 모든 요소를 상기 선택으로부터 제외시킨다.
Figure R1020097002986
변환기, 경합 학습 뉴럴 네트워크, 셀렉터, 학습 데이터 세트, 연산 타입

Description

신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치{OPTIMIZING METHOD OF LEARNING DATA SET FOR SIGNAL DISCRIMINATION APPARATUS AND SIGNAL DISCRIMINATION APPARATUS CAPABLE OF OPTIMIZING LEARNING DATA SET}
본 발명은 전반적으로 신호 식별 방법 및 장치에 관한 것으로, 보다 상세하게는 신호 식별 장치용 학습 데이터 세트의 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치에 관한 것이다.
2004년 12월 16일자로 공개된 일본 특허 출원 공개 번호 2004-354111호는, 물체 검사 방법 및 장치(이하, "제1 선행 기술"이라 함)를 개시하고 있다. 이 장치는, 측정기(센서, 마이크 등), 변환기, 경합 학습 뉴럴 네트워크(competitive learning neural network), 표시 장치 등을 구비하고, 학습 모드 또는 검사 모드 중의 어느 하나의 모드로 동작한다. 학습 모드에서, 상기 장치는 수집된 데이터인 학습 데이터 세트를 사용한다. 상기 세트의 각각의 요소는, 측정기가 측정 대상으로부터 측정 신호를 취득하고, 그리고나서 변환기가 측정 신호로부터 특징(즉, 특징 데이터)을 추출함으로써 얻어진다. 또한, 상기 세트의 각각의 요소는, 사용자에 의해, 상정되는 복수의 카테고리의 어느 하나의 카테고리에 할당된다. 그 후, 학습 데이터 세트의 각각의 요소를 상기 네트워크에 차례로 입력함으로써, 클러스터링 맵이 작성된다. 상기 맵을 구성하는 모든 요소는 상기 네트워크의 출력층을 구성하는 모든 출력 뉴런에 1대1로 대응한다. 검사 모드에서는, 변환기를 통해 추출된 특징 데이터가 상기 네트워크에 입력되었을 때, 상기 네트워크는 상기 데이터의 카테고리를 판정하여, 상기 맵상의 상기 카테고리의 위치를 특정한다. 그리고나서, 표시 장치가 클러스터링 맵 및 상기 카테고리의 위치를 보여준다. 그러므로, 측정 결과(즉, 측정 신호로부터 얻어지는 특징 데이터의 카테고리)를 시각적으로 인식할 수 있다.
2005년 4월 28일 공개된 일본 특허 출원 공개 번호 2005-115569호는, 신호 식별 장치 및 방법(이하 "제2 선행 기술"이라 함)을 개시한다. 이 장치는, 제1 선행 기술과 마찬가지로, 경합 학습 뉴럴 네트워크 및 표시 장치 등을 구비하고, 또한 측정기와 상기 네트워크 사이에 배치되는 신호 처리기를 구비한다. 이 처리기는 필터 및 변환기로 구성된다.
필터는, 통과 모드, 포락선(곡선) 모드, FIR(finite impu1se response) 모드, 웨이블렛 변환 모드, 및 캡스트럼 모드(cepstrum mode) 중의 어느 하나의 모드로 동작하도록 구성된다. 통과 모드에서는, 측정기로부터의 측정 신호는 신호 처리 없이 변환기에 전달된다. 포락선 모드에서는, 포락선 성분이, 적절한 시정수(컷 오프 주파수)에 따라 측정 신호로부터 추출되어 변환기에 전달된다. FIR 모드에서는, 지정 대역 내의 신호 성분이 대역 통과 필터와 마찬가지로 측정 신호로부터 추출되어 변환기에 전달된다. 웨이블렛 변환 모드에서는, 웨이블렛 변환에 따 라, 지정 임계값 이하의 복수의 웨이블렛 계수에 대응하는 주파수 성분이 변환기에 전달되는 측정 신호로부터 제거된다. 캡스트럼 모드에서는, 캡스트럼 분석에 따라, 지정 임계값 이하의 파워 성분이 변환기에 전달되는 측정 신호로부터 제거된다.
제2 선행 기술의 변환기는, 투영 파형 모드, FFT(고속 퓨리에 변환) 모드, FFT+웨이블렛 변환 모드, 확률 밀도 함수 모드 및 실효값 모드 중 어느 하나의 모드로 동작하여, 필터의 출력으로부터 특징(즉, 특징 데이터)을 추출하도록 구성된다. 투영 파형 모드에서는, 특징은 창 함수(window function)에 따라 필터로부터의 신호 진폭을 적산함으로써 추출된다. FFT 모드에서는, 특징은 고속 퓨리에 변환에 따라 퓨리에 계수를 산출함으로써 추출된다. FFT+웨이블렛 변환 모드에서는, 특징은 고속 퓨리에 변환으로부터 얻어지는 주파수 분포 패턴을 웨이블렛 변환함으로써 추출된다. 확률 밀도 함수 모드에서는, 특징은 확률 밀도 함수를 구함으로써 추출된다. 실효값 모드에서는, 특징은 실효값을 구함으로써 추출된다.
학습 모드 등에서, 상기 신호 식별 장치는 필터 및 변환기 모드의 모든 조합의 각각의 정확도를 계산하고, 각각의 조합을 정확도 순서에 따라 순위를 정한다. 검사 모드의 전에, 상기 장치는 사용자가 선택한 필터 및 변환기의 모드의 몇몇 조합으로부터, 가장 높은 정확도에 대응하는 하나의 조합을 선택하고, 신호 처리기를 그 선택한 조합 모드로 설정한다.
2006년 3월 16일 공개된 일본 특허 출원 공개 번호 2006-072659호는 신호 식별 방법 및 장치(이하 "제3 선행 기술"이라 함)를 개시하고 있다. 이 장치는, 제1 선행 기술과 마찬가지로, 측정기, 경합 학습 뉴럴 네트워크 및 표시 장치 등을 구비하고, 또한 측정기와 상기 네트워크 사이에 배치되는 변환기를 구비한다. 이 변환기는, 적어도 1개의 추출 범위로부터 특징(즉, 특징 데이터)을 추출하도록 구성된다. 예를 들면, 변환기는 측정기를 통해 얻어진 측정 신호의 추출 범위에서의 성분으로부터 특징을 추출하거나, 또는 측정 신호로부터 특징을 추출하고 또한 추출 범위 내의 특징을 추출한다. 상기 장치는 상기 적어도 1개의 추출 범위를 결정하기 위한 각각의 지정 범위의 상한 및 하한을 변경하고, 지정 범위마다 특징 데이터의 카테고리 분류의 정확도를 산출한다. 그리고나서, 상기 장치는 가장 높은 정확도에 대응하는 1개 또는 복수의 지정 범위를 상기 변환기 중 적어도 1개의 추출 범위로 설정한다.
제2 및 제3 선행 기술에서는, 신호 처리기의 모드의 조합을 조정하거나 또는 변환기를 위한 적어도 1개의 추출 범위를 조정함으로써, 특징 데이터의 카테고리 판정의 정확도를 향상시킬 수 있다. 그러나, 부적합한 학습 데이터 세트가 사용되면, 특징 데이터의 카테고리 판정의 정확도를 향상시킬 수 없다.
따라서, 본 발명의 목적은 신호 식별 장치에 부적합한 학습 데이터 세트가 사용되는 것을 방지하기 위해 학습 데이터 세트를 최적화하는 것에 있다.
본 발명의 방법은 신호 식별 장치에 사용된다. 신호 식별 장치는 변환기 및 경합 학습 뉴럴 네트워크(competitive learning neural network)를 포함한다. 상기 변환기는 측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하도록 구성된다. 상기 경합 학습 뉴럴 네트워크는 입력층 및 출력층을 포함한다. 상기 입력층은 상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는다. 상기 출력층은 출력 뉴런을 가지며, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련된다. 간략하면, 상기 경합 학습 뉴럴 네트워크는 상기 변환기를 통해 추출된 상기 특징 데이터를 상기 출력층 중 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성된다.
본 발명의 제1 내지 제3 방법은 상기 신호 식별 장치에 추가로 포함되는 셀렉터에 의해 처리된다. 상기 셀렉터는, 데이터 세트 소스로부터, 상기 학습 데이터 세트를 구성하는 각각의 요소를 선택하도록 구성된다. 상기 데이터 소스 세트의 각각의 요소는, 미리, 상기 변환기를 통해 추출된 특징 데이터이고, 상기 카테고리 중의 어느 하나의 카테고리에 할당된다.
제1 방법은, 상기 소스의 모든 요소를 상기 네트워크에 차례로 입력하여 상기 소스의 각각의 요소를 상기 출력층의 어느 하나의 출력 뉴런에 관련시키도록 시도하는 사전 처리의 후에 실행되는 스텝 (A)를 포함한다. 스텝 (A)는, 상기 출력층의 각각의 출력 뉴런이 상기 카테고리 중의 단일 카테고리에 관련될 때까지 반복된다. 상기 스텝 (A)는, (a) 상기 출력층의 출력 뉴런이 상기 출력층에 의해 나타내지는 전체 카테고리에서의 상이한 카테고리에 관련되는지를 판단하는 단계, (b) 상기 상이한 카테고리에 관련되면, 상기 출력 뉴런에 대한 상기 상이한 카테고리에 대응하는 상기 소스의 각각의 요소의 괴리도를 산출하는 단계, (c) 상기 소스의 각각의 요소의 괴리도에 기초하여 상기 상이한 카테고리의 각각의 평균 괴리도를 산출하는 단계, (d) 최소 평균 괴리도의 카테고리에 대응하는 상기 소스의 모든 요소를, 상기 소스로부터 상기 학습 데이터 세트로의 선택에 포함시키는 단계, 및 (e) 상기 상이한 카테고리의 모든 잔존 카테고리에 대응하는 상기 소스의 모든 요소를 상기 선택으로부터 제외시키는 단계를 포함한다. 본 방법에서, 카테고리가 잘못된 요소가 데이터 세트 소스에 포함되어 있어도, 상기 요소를 자동적으로 삭제할 수 있다. 그러므로, 학습 데이터 세트를 최적화할 수 있고, 출력층의 각각의 출력 뉴런에 적합한 카테고리를 관련시키는 것이 가능하다. 그 결과, 학습 후의 판정 기준이 애매하게 되는 것을 방지할 수 있다.
일실시예에서, 단계 (b)에서의 상기 소스의 각각의 요소의 괴리도는, 해당 출력 뉴런에 관한 가중치 벡터와 해당 요소(벡터) 간의 차분 벡터의 크기이다.
상기 제2 방법은 제1 방법과 마찬가지로 상기 사전 처리의 후에 실행되고, 괴리도 및 괴리도의 평균을 이용한다. 즉, 제2 방법은, 상기 사전 처리의 후에 실행되고, 상기 소스의 각각의 요소의 괴리도로서, 해당 요소와 해당 요소에 관련된 출력 뉴런에 관한 가중치 벡터 간의 차분 벡터의 크기를 산출하는 스텝 (A)와, 상기 소스에 포함되는 각각의 요소의 괴리도의 평균 및 분산이 각각, 미리, 결정된 평균 임계값 및 분산 임계값보다 작게 될 때까지 반복되는 스텝 (B)를 포함한다. 스텝 (B)는, 상기 소스로부터, 괴리도가 미리 결정된 괴리도 임계값보다 큰 모든 요소를 제외하는 단계를 포함한다. 이 방법의 경우, 다른 요소로부터 일탈하는 적어도 1개의 요소를 데이터 세트 소스로부터 제외시킬 수 있다. 예를 들면, 양호 판정의 카테고리에 속하지 않는 특징 데이터 및 환경음 또는 잡음을 포함하는 특징 데이터를 제외시킬 수 있다. 그 결과, 학습 데이터 세트를 최적화할 수 있다. 또한, 최적화된 학습 데이터 세트에 기초한 학습 모드의 종료 후, 신호 식별 장치는 검사 모드에서 측정 대상의 품질을 정확하게 분류할 수 있다.
향상된 실시예에 있어서, 제2의 방법은, 상기 사전 처리로서의 제2 사전 처리의 전에 실행되는 제1 사전 처리를 더 포함한다. 상기 제1 사전 처리는, (a) 상기 소스의 모든 요소를 상기 네트워크에 차례로 입력하여, 상기 소스의 각각의 요소를 상기 출력층의 어느 하나의 출력 뉴런에 관련시키도록 시도하는 단계, (b) 상기 출력층의 각각의 출력 뉴런에 관한 가중치 벡터와 그 외의 출력 뉴런의 각각에 관한 가중치 벡터 사이의 거리 모두를 산출하는 단계, (c) 산출된 거리 모두에 기초하여 상기 출력층의 출력 뉴런마다 최소 거리 또는 총계 거리를 산출하는 단계, 및 (d) 상기 최소 거리 또는 총계 거리가 최소 거리 임계값 또는 총계 거리 임계값보다 큰 모든 출력 뉴런에 관련되는 상기 소스의 모든 요소를 제외시키는 단계를 포함한다. 예를 들면, 이 방법의 경우, 최소 거리 및 최소 거리 임계값을 사용할 때, 최소 거리 임계값에 대응하는 유사성 레벨보다 낮은 양호 판정의 카테고리에 관련된 상기 소스의 모든 요소를 제외시킬 수 있다. 그 결과, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다. 총계 거리 및 총계 거리 임계값을 사용할 때, 총계 거리 임계값에 대응하는 분산 레벨보다 높은 양호 판정의 카테고리에 관련된 상기 소스의 모든 요소를 제외시킬 수 있다. 그 결과, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다.
상기 제3 방법은, (A) 상기 소스의 모든 요소에 대하여, 상기 소스의 2개의 요소 사이의 거리 모두를 산출하는 스텝, (B) 상기 산출된 거리 모두의 제1 평균 및 제1 분산을 산출하는 스텝, 및 (C) 상기 소스에 포함되는 모든 요소에 대하여 실행되는 스텝을 포함한다. 상기 스텝 (C)는, (a) 상기 소스로부터 요소를 선택하여 상기 요소를 일시적으로 상기 소스로부터 제외시키는 단계, (b) 상기 요소가 제외된 상기 소스에 포함되는 나머지의 모든 요소에 대하여, 상기 소스의 2개의 요소 사이의 거리 모두를 산출하는 단계, (c) 상기 산출된 거리 모두의 제2 평균 및 제2 분산을 산출하는 단계, (d) 상기 제1 평균으로부터 상기 제2 평균으로의 변화의 크기 또는 상기 제1 분산으로부터 상기 제2 분산으로의 변화의 크기가 각각 미리 결정된 제1 임계값 또는 제2 임계값보다 크고, 또한 상기 제1 평균 및 상기 제1 분산이 각각 상기 제2 평균 및 상기 제2 분산보다 크면, 해당 요소를 상기 소스로부터 제외하고, 상기 제2 평균 및 상기 제2 분산을 각각 상기 제1 평균 및 상기 제1 분산으로 설정하는 단계, 및 (e) 상기 제1 평균으로부터 상기 제2 평균으로의 변화의 크기 및 상기 제1 분산으로부터 상기 제2 분산으로의 변화의 크기가 각각 상기 제1 임계값 및 제2 임계값보다 작거나, 또는 상기 제1 평균 또는 상기 제1 분산이 각각 상기 제2 평균 또는 상기 제2 분산보다 작으면, 해당 요소를 상기 소스로 리턴하는 단계를 포함한다. 이 방법의 경우, 예를 들면, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다. 그 결과, 학습 데이터 세트를 최적화할 수 있다. 학습 데이터 세트를 최적화하는 처리로부터 상기 네트워크의 학습을 생략하는 것이 가능하므로, 처리 속도가 향상된다.
본 발명의 제4 방법 및 제5 방법은, 상기 신호 식별 장치에 추가로 포함되는 셀렉터에 의해 처리된다. 셀렉터는 상이한 파라미터 세트로부터 최적의 파라미터 조합을 선택하도록 구성된다. 상기 상이한 파라미터 세트는 상이한 연산 타입에 사용된다. 상이한 연산 타입의 각각은 상기 측정 신호로부터 특징 데이터를 추출하는데 사용된다. 또한, 상기 상이한 파라미터 세트의 각각은 상이한 파라미터 조합으로 이루어진다.
상기 제4 방법은, 상기 상이한 파라미터 세트 중, 미리 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택한다. 상기 제4 방법은, (A) 상기 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 상기 연산 타입과 상기 파라미터 조합에 기초하여 추정하는 스텝과, (B) 상기 스텝 (A)의 결과에 기초하여 상기 최적의 파라미터 조합을 선택하는 스텝을 포함한다. 상기 스텝 (A)는 상기 파라미터 조합의 각각에 대하여 실행되는 단계 (a)를 포함한다. 상기 단계 (a)는, (i) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하는 단계, (ii) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하는 단계, 및 (iii) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어(category area)에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하는 단계를 포함한다. 상기 스텝 (B)는, 상기 스텝 (A)를 통해 얻어지는 각각의 정확도 중 가장 높은 정확도에 대응하는 파라미터 조합을 선택함으로써, 상기 최적의 파라미터 조합을 선택하는 단계를 포함한다. 이 방법의 경우, 변환기로부터 얻어지는 각각의 특징 데이터를 최적화함으로써, 학습 데이터 세트를 최적화할 수 있다.
상기 제5 방법은, 상기 상이한 연산 타입으로부터 최적의 연산 타입을 선택하고, 또한 상기 상이한 파라미터 세트 중, 상기 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택한다. 즉, 상기 제5 방법은, (A) 상기 상이한 연산 타입으로부터 차례로 연산 타입을 선택하는 스텝, (B) 상기 선택된 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 경우의 카테고리 분류의 정확도를, 상기 선택된 연산 타입과 상기 파라미터 조합에 기초하여 추정하는 스텝, 및 (C) 상기 스텝 (A) 및 상기 스텝 (B)의 결과에 기초하여 상기 최적의 연산 타입 및 상기 연산 타입용의 파라미터 조합을 선택하는 스텝을 포함한다. 상기 스텝 (B)는 상기 파라미터 조합의 각각에 대하여 실행되는 단계 (a)를 포함한다. 상기 단계 (a)는, (i) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하는 단계, (ii) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하는 단계, 및 (iii) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하는 단계를 포함한다. 상기 스텝 (C)는, 상기 스텝 (A) 및 상기 스텝 (B)를 통해 얻어지는 각각의 정확도 중 가장 높은 정확도에 대응하는 연산 타입 및 파라미터 조합을 선택함으로써, 상기 최적의 연산 타입 및 상기 연산 타입용의 파라미터 조합을 선택하는 단계를 포함한다. 이 방법의 경우, 변환기로부터 얻어지는 각각의 특징 데이터를 최적화함으로써, 학습 데이터 세트를 최적화할 수 있다.
본 발명의 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치는, 변환기 및 경합 학습 뉴럴 네트워크를 포함한다. 변환기는 측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하도록 구성된다. 상기 네트워크는 입력층 및 출력층을 포함한다. 입력층은 변환기를 통해 추출된 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런을 갖는다. 출력층은 출력 뉴런을 가지며, 출력 뉴런의 각각은, 학습 데이터 세트에 기초하여 복수의 가중치 벡터를 통해 입력층의 모든 입력 뉴런에 결합되어, 카테고리 중의 어느 카테고리에인가 관련된다. 요약하면, 상기 네트워크는, 변환기를 통해 추출된 특징 데이터를 출력층의 어느 하나의 출력 뉴런에 관련되어, 복수의 카테고리의 어딘가에 분류하도록 구성된다. 상기 장치는, 또한 상이한 파라미터 세트 중, 미리 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 셀렉터를 포함한다. 상기 상이한 파라미터 세트는 상이한 연산 타입에 사용된다. 상이한 연산 타입의 각각은 상기 측정 신호로부터 특징 데이터를 추출하는데 사용된다. 또한, 상이한 파라미터 세트는 상이한 파라미터 조합으로 이루어진다. 셀렉터는, (A) 상기 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 상기 연산 타입과 상기 파라미터 조합에 기초하여 추정하고, (B) 상기 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도에 기초하여 상기 최적의 파라미터 조합을 선택하도록 구성된다. 상기 카테고리 분류의 정확도를 추정할 때에는, 상기 셀렉터는, (a) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하고, (b) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하고, (c) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하도록 구성된다. 상기 최적의 파라미터 조합을 선택할 때에는, 상기 선택기는, 상기 파라미터 조합의 경우에서의 각각의 정확도 중 가장 높은 정확도에 대응하는 파라미터 조합을 선택함으로써, 상기 최적의 파라미터 조합을 선택하도록 구성된다.
도 1은 본 발명의 제1 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치의 블록도이다.
도 2는 도 1의 장치에서의 뉴럴 네트워크의 설명도이다.
도 3은 도 1의 장치에서의 셀렉터의 동작 설명도이다.
도 4는 셀렉터의 플로차트이다.
도 5는 본 발명의 제2 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치의 블록도이다.
도 6은 도 5의 장치에서의 셀렉터의 플로차트이다.
도 7은 향상된 실시예에서의 셀렉터의 플로차트이다.
도 8은 본 발명의 제3 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치의 블록도이다.
도 9는 도 8의 장치에서의 셀렉터의 플로차트이다.
도 10은 본 발명의 제4 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치의 블록도이다.
도 11a, 도 11b 및 도 11c는 도 10의 장치에서의 셀렉터의 동작 설명도이다.
도 12는 셀렉터의 플로차트이다.
도 13a, 도 13b 및 도 13c는 셀렉터의 동작 설명도이다.
도 14는 셀렉터의 동작 설명도이다.
도 15a, 도 15b, 도 15c 및 도 15d는 셀렉터의 동작 설명도이다.
도 16은 셀렉터의 플로차트이다.
도 17은 셀렉터의 플로차트이다.
도 18a, 도 18b 및 도 18c는 상기 장치의 효과의 설명도이다.
본 발명의 바람직한 실시예를 보다 상세하게 기술한다. 본 발명의 다른 특징 및 이점은 이하의 상세한 기술 및 첨부 도면에 관련하여 더욱 명확하게 이해될 것이다.
도 1은 본 발명의 제1 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치를 나타낸다. 신호 식별 장치는, 측정기(10), 변환기(11), 기억 장치(12), 뉴럴 네트워크(13), 맵 발생기(14) 및 셀렉터(15)에 의해 구성되며, 제1 선행 기술과 마찬가지로 학습 모드 또는 검사 모드 중의 어느 하나의 모드로 동작한다. 예를 들면, 이 장치는, 측정 대상으로서의 기기(19)의 동작이 정상적인지를 감시하는데 사용된다. 기기(19)는, 예를 들면, 모터 등의 동력원을 가지지만, 본 발명의 측정 대상은 기기의 종류에 제한되지 않는다.
측정기(10)는 기기(19)의 동작이 정상적인지를 판정하기 위한 측정 신호(예를 들면, 전기 신호)를 얻도록 구성된다. 예를 들면, 측정기(10)는 마이크로폰(101) 및/또는 진동 센서(102)에 의해 구성된다. 마이크로폰(101)은 기기(19)의 동작음을 검출하여 음 신호를 변환기(11)에 공급한다. 센서(102)는 기기(19)의 동작 진동을 검출하여 진동 신호를 변환기(11)에 공급한다. 그리고, 본 발명은, 이것으로 한정되지 않고, 마이크로폰, 진동 센서, TV 카메라 또는 냄새 센서(odor sensor) 등의 단일의 장치 또는 이들 조합에 의해 구성되는 측정기를 구비하는 것도 가능하다. 또한, 본 발명의 측정 신호는 측정 대상에 의해 발생되는 신호이어 도 된다.
변환기(11)는 측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하도록 구성된다. 예를 들면, 변환기(11)는, 제2 선행 기술과 마찬가지로, 필터 및 변환기로 구성되는 신호 처리기이어도 된다. 이 경우, 필터는 측정 신호의 주파수 대역을 제한하여 상기 신호에 포함되는 노이즈를 저감하기 위해 사용하는 것이 가능하다. 측정기(10)로부터의 측정 신호는 진동 성분을 포함하므로, 변환기(11)는 단위 시간마다 측정 신호를 수신하여 디지털 신호로 변환한다. 그러나, 이에 한정되지 않고, 동일 조건에서 측정 신호를 수신하기 위해, 변환기(11)는 기기(19)의 동작과 동기하는 타이밍 신호(트리거 신호) 또는 측정 신호의 파형 특징(예를 들면, 한묶음의 측정 신호의 개시점 및 종료점)에 따라 측정 신호를 수신하여도 된다. 디지털 신호로부터 얻어지는 데이터는, 변환기(11)의 버퍼(도시하지 않음)에 일시적으로 저장된다. 그리고나서, 변환기(11)는, 제2 선행 기술과 마찬가지로, 각종 모드 중 어느 하나의 모드로 동작하여, 버퍼에 저장된 데이터로부터 특징(즉, 특징 데이터)을 추출한다. 예를 들면, 변환기(11)는, FFT를 통해 기기(19)의 품질 판정에 적합한 주파수 성분(즉, 특징 데이터(주파수 대역마다의 파워))를 추출하여 기억 장치(12)에 저장하고, 또 뉴럴 네트워크(13)에 공급한다. 그러나, 이에 한정되지 않고, 본 발명의 변환기는 다수의 밴드 패스 필터에 의해 구성되는 필터 뱅크를 통해 측정 대상의 품질 판정에 적합한 주파수 성분을 추출해도 된다.
기억 장치(12)는 신호 식별 장치의 동작에 필요한 다양한 데이터를 유지하도록 구성된다. 예를 들면, 장치(12)는 RAM(랜덤 액세스 메모리) 등을 포함하며, 변 환기(11)를 통해 추출되고 데이터 세트 소스를 구성하는 각각의 특징 데이터를 유지한다. 소스의 각각의 요소(즉, 특징 데이터)는, 각각의 기기(19)에 사용되는 복수의 카테고리의 어느 하나의 카테고리에 할당된다. 일례에서, 장치(12)는 소스를 구성하는 임의의 복수의 요소(예를 들면, 150개의 요소)를 유지한다. 또한, 장치(12)는 FIFO(선입처출)에 기초하여 소스의 각각의 요소를 관리한다. 그러나, 데이터 세트 소스는 비교적 소수의 요소를 포함하고, 새로운 요소가 상기 소스에 적당히 추가되어도 된다. 또한, 장치(12)는 복수의 데이터 세트 소스를 유지해도 된다.
뉴럴 네트워크(13)는, 경합 자율 학습 알고리즘(competitive unsupervised learning algorithm)에 따른 경합 학습 뉴럴 네트워크(S0M(se1f organizing maps) 뉴럴 네트워크)이다. 네트워크(13), 맵 발생기(14) 및 셀렉터(15)는 하나 또는 복수의 CPU(중앙 처리 장치) 등에 의해 구성된다. 그러나, 본 발명의 뉴럴 네트워크는 전용의 뉴로 컴퓨터(neuro-computer)이어도 된다.
도 2에 나타낸 바와 같이, 네트워크(13)는 입력층(131) 및 출력층(132)을 포함한다. 입력층(131)은, 변환기(11)로부터의 특징 데이터의 파라미터의 수에 따라 설정되는 가변의 입력 뉴런(N1) 세트를 가진다. 입력 뉴런은 변환기(11)를 통해 추출된 특징 데이터의 복수의 파라미터에 1대1로 대응한다. 즉, 입력층(131)의 전체 입력 뉴런은 사용되는 전체 파라미터에 1대1로 대응한다. 또한, 출력층(132)도 가변의 출력 뉴런(N2)을 가진다. 학습 모드에서는, 출력 뉴런의 각각이, 학습 데이터 세트에 기초하여, 가변의 가중치 벡터(가중치 계수)를 통해 입력층(131)의 전 체 입력 뉴런에 결합되어, 카테고리 중의 임의의 카테고리에 관련된다. 검사 모드에서는, 네트워크(13)는 변환기(11)를 통해 추출된 특징 데이터를 출력층(132) 중의 어느 하나의 출력 뉴런에 관련시켜 카테고리 중의 임의의 카테고리로 분류하도록 구성된다. 이 경우, 특징 데이터는 특징 데이터와 최소의 유클리드 거리(Euclid distance)를 형성하는 가중치 벡터의 출력 뉴런에 관련된다. 예를 들면, 특징 데이터가 양호 판정(good judgement)의 카테고리에 할당된 출력 뉴런에 관련되면, 이 특징 데이터는 양호 판정의 카테고리로 분류된다. 또한, 특징 데이터가 불량 판정의 카테고리에 할당된 출력 뉴런에 관련되거나 또는 양호 판정의 카테고리에 할당되지 않은 출력 뉴런에 관련되면, 이 특징 데이터는 불량 판정의 카테고리로 분류된다. 제1 실시예에서는, 양호 판정과 불량 판정의 카테고리가 사용된다. 따라서, 특징 데이터가 불량 판정의 카테고리에 할당된 출력 뉴런에 관련되면, 이 특징 데이터는 불량 판정의 카테고리로 분류된다.
맵 발생기(14)는, 제1 선행 기술과 마찬가지로, 클러스터링 맵을 작성하여, 맵에서의 네트워크(13)를 통해 분류된 카테고리의 위치를 특정한다. 예를 들면, 6×6의 클러스터링 맵이 작성되고, 맵 및 카테고리의 위치가 표시 장치(도시하지 않음)를 통해 표시된다. 이 때, 높은 유사도를 나타낸 속성의 카테고리가 클러스터링 맵 내의 가까운 위치에 배치되므로, 복수의 클러스터가 형성된다.
셀렉터(15)는 데이터 세트 소스로부터 상기 학습 데이터 세트를 구성하는 각각의 요소를 선택하도록 구성된다. 소스의 각각의 요소는, 미리, 기억 장치(12)에 유지되는 특징 데이터이며, 카테고리 중의 어느 하나의 카테고리에 할당된다. 제1 실시예에서는, 소스의 각각의 요소는 양호 판정의 카테고리 또는 불량 판정의 카테고리 중의 어느 하나에 할당된다. 그러나, 이에 한정되지 않고, 본 발명의 데이터 세트 소스는 시뮬레이션을 통해 작성된 각종 측정 신호를 변환기에 입력함으로써 작성되어도 된다.
셀렉터(15)는, 소스의 모든 요소를 네트워크(13)에 차례로 입력하여, 소스의 각각의 요소를 출력층(132) 중 어느 하나의 출력 뉴런에 관련시키도록 시도하는 사전 처리의 후에, 학습 데이터 세트를 최적화하기 위한 최적화 방법에 따라 일련의 동작을 행한다. 그러나, 최적화 방법은 상기 사전 처리를 포함해도 된다. 그런데, 학습 모드에서 각각의 특징 데이터에 할당되는 카테고리가 반드시 적절하지는 않으므로, 학습 데이터 세트를 최적화할 필요가 있다.
그 최적화 방법은 출력층(132)의 전체 출력 뉴런이 카테고리들 중의 하나의 카테고리에 관련될때까지 반복된다. 최적화 방법에 기초하여, 셀렉터(15)는, 출력층(132)의 출력 뉴런이 출력층(132)에 의해 나타낸 모든 카테고리에서 상이한 카테고리에 관련되는지를 판단한다. 제1 실시예에서, 셀렉터(15)는 출력층(132)의 출력 뉴런이 2개의 카테고리(즉, 양호 판정의 카테고리 및 불량 판정의 카테고리)에 관련되는지를 판단한다.
2개의 카테고리에 관련되면, 셀렉터(15)는 해당 출력 뉴런에 대한 2개의 카테고리에 대응하는 소스의 각각의 요소의 괴리도를 산출한다. 괴리도는, 해당 출력 뉴런에 관한 가중치 벡터와 해당 요소(벡터) 간의 차분 벡터의 크기이다. 이 괴리도 Y는 다음과 같이 주어진다:
Y = ([X]/X - [Wwin]/Wwin)T([X]/X - [Wwin]/Wwin)
여기서, [X]는 입력 데이터이며, [Wwin]은 출력 뉴런의 가중치 벡터이며, T는 전치(transpose)를 나타내고, X 및 Wwin는 각각 벡터 [X]와 [Wwin]의 놈(norm)이다. 괴리도 Y는 각각의 벡터를 그 놈으로 제산함으로써 정규화된다.
소스의 각각의 요소의 괴리도에 따라, 셀렉터(15)는 2개의 카테고리의 각각의 평균 괴리도를 산출한다(도 1의 151). 그리고나서, 셀렉터(15)는, 최소 평균 괴리도의 카테고리(제1 카테고리)에 대응하는 해당 소스의 모든 요소를, 해당 소스로부터 상기 학습 데이터 세트로의 선택에 포함시킨다. 제1 실시예에서는, 최소 평균 괴리도의 카테고리에 대응하는 상기 소스의 모든 요소가 잔류된다. 또한, 셀렉터(15)는 복수의 카테고리(2개의 카테고리)의 모든 잔존 카테고리(제2 카테고리)에 대응하는 상기 소스의 모든 요소를 상기 선택으로부터 제외한다(도 1의 152). 제1 실시예에서는, 제2 카테고리에 대응하는 상기 소스의 모든 요소가 삭제된다.
예를 들면, 도 3에 나타낸 바와 같이, 클러스터링 맵이 2개의 카테고리에 관련된 복수의 요소(EGRAY)를 포함하면, 각각의 요소(EGRAY)가 2개의 카테고리 중 어느 하나의 카테고리로 수정된다. 예를 들면, 셀렉터(15)는 제3 행 및 제4 열의 요소(EGRAY)를 선택하고, 요소(EGRAY)에 관련된 소스의 모든 요소의 괴리도를 산출한다. 그리고나서, 셀렉터(15)는 요소(EGRAY)에 관련된 제1 카테고리(예를 들면, 양호 판정의 카테고리)에 속하는 소스의 모든 요소의 평균 괴리도(제1 평균 괴리도)를 산출한다. 예를 들면, 제1 카테고리에 속하는 소스의 모든 요소의 괴리도가 0.6, 0.4 및 0.2이면, 제1 평균 괴리도는 0.40이 된다. 또한, 셀렉터(15)는 요소(EGRAY)에 관련된 제2 카테고리(불량 판정의 카테고리)에 속하는 소스의 모든 요소의 평균 괴리도(제2 평균 괴리도)를 산출한다. 예를 들면, 제2 카테고리에 속하는 소스의 모든 요소의 괴리도가 1.1, 0.8 및 1.5이면, 제2 평균 괴리도는 1.13이 된다. 제1 평균 괴리도가 최소 평균 괴리도이면, 셀렉터(15)는 제2 카테고리에 속하는 소스의 모든 요소를 삭제한다. 역으로, 제2 평균 괴리도가 최소 평균 괴리도이면, 셀렉터(15)는 제1 카테고리에 속하는 소스의 모든 요소를 삭제한다. 예를 들면, 제1 및 제2 평균 괴리도가 각각 0.40 및 1.13이면, 제2 카테고리에 속하는 소스의 모든 요소가 삭제된다. 마찬가지로, 셀렉터(15)는 나머지 요소(EGRAY)도 수정한다. 또한, 맵이 양호 판정의 단일 카테고리에 관련된 복수의 요소(EGOOD)를 포함하지만, 요소(EGOOD)에 관련된 소스의 모든 요소는 잔류된다. 맵이 불량 판정의 단일 카테고리에 관련된 요소(ENG)를 추가로 포함하지만, 요소(ENG)에 관련된 소스의 모든 요소도 잔류된다.
다음에, 도 4를 참조하여 제1 실시예의 동작을 설명한다. 먼저, 사전 처리(S1∼S4)에 대하여 설명한다. 도 4에 나타낸 바와 같이, 측정기(10)가 기기(19)로부터 각각의 측정 신호를 수집하고(S1), 변환기(11)가 각각의 측정 신호로부터 특징(특징 데이터)을 추출한다(S2). 각각의 특징 데이터는 기억 장치(12)에 기억된다. 이 때, 각각의 특징 데이터는 사용자 또는 관리자에 의해 양호 판정의 카테고리 또는 불량 판정의 카테고리 중 어느 하나로 할당되어, 데이터 세트 소스를 구 성한다. 그 후, 소스가 학습 데이터 세트에 사용되고, 뉴럴 네트워크(13)의 학습이 제1 내지 제3 선행 기술과 마찬가지로 세트(소스)에 기초하여 행해진다(S3). 그리고나서, 맵 발생기(14)가 클러스터링 맵을 작성한다. 이 때, 출력층(132)에 관련된 각각의 카테고리가 맵의 대응하는 요소에 부여된다(S4).
다음에, 최적화 방법(S5∼S12)에 대하여 설명한다. 셀렉터(15)는 사전 처리에서 소스의 각각의 요소(특징 데이터)를 통해 어느 카테고리에 관련된 출력 뉴런과 소스의 대응하는 하나 또는 복수의 요소를 조합하고, 이에 의해 각각의 요소가 출력 뉴런 및 소스의 하나 또는 복수의 요소의 조합으로 이루어지는 발화 뉴런(fire neuron)을 작성한다(S5). 그리고나서, 셀렉터(15)는 리스트에 따라 출력층(132)의 출력 뉴런이 2개의 카테고리에 관련되었는지를 판단한다. 즉, 셀렉터(15)는 해당 출력 뉴런이 "그레이(gray)"인지의 여부를 판단한다(S6). 그 판단을 반복 후, 어느 쪽의 출력 뉴런도 "그레이"가 아니면, 셀렉터(15)는 도 4의 흐름을 종료한다(S7).
스텝 S6에서, 해당 출력 뉴런이 "그레이"이면, 셀렉터(15)는 출력 뉴런에 대한 2개의 카테고리에 대응하는 소스의 각각의 요소의 괴리도를 산출하고, 소스의 각각의 요소의 괴리도에 따라 2개의 카테고리의 각각의 평균 괴리도를 산출한다(S8∼S9). 스텝 S10에서, 셀렉터(15)는 최소 평균 괴리도의 카테고리에 대응하는 소스의 모든 요소를 잔류시키고, 또한 카테고리(2개의 카테고리)의 모든 잔존 카테고리, 즉 최소 평균 괴리도 이외의 모든 카테고리에 대응하는 소스의 모든 요소를 삭제한다. 그리고나서, 셀렉터(15)는 리스트에 기초하여 출력층(132)의 다른 출력 뉴런이 "그레이"인지의 여부를 판단한다(S11). 다른 출력 뉴런이 "그레이"이면, 셀렉터(15)는 그 "그레이"의 출력 뉴런을 선택하고(S12), 스텝 S9로 복귀한다. 어느 쪽의 출력 뉴런도 "그레이"가 아니면, 셀렉터(15)는 스텝 S3으로 복귀한다. 이 때, 학습 데이터 세트가 최적화된 데이터 세트 소스로부터 선택되고, 그에 따라 학습 데이터 세트가 최적화된다. 그리고나서, 뉴럴 네트워크(13)의 학습이 그 최적화된 학습 데이터 세트에 기초하여 행해진다.
제1 실시예에서는, 카테고리가 잘못된 요소가 데이터 세트 소스에 포함되어 있었더라도, 그 요소를 자동적으로 삭제할 수 있다. 그러므로, 학습 데이터 세트가 최적화될 수 있고, 출력층의 각각의 출력 뉴런에 적합한 카테고리를 관련시키는 것이 가능하다. 그 결과, 학습 후의 판정 기준이 애매하게 되는 것을 방지할 수 있다.
도 5는 본 발명의 제2 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치를 나타낸다. 이 신호 식별 장치는, 제1 실시예와 마찬가지로, 측정기(20), 변환기(21), 기억 장치(22), 뉴럴 네트워크(23) 및 맵 발생기(24)를 구비하고, 또한 제2 실시예의 특징에 따라 셀렉터(25)를 구비한다.
셀렉터(25)는 데이터 세트 소스로부터 학습 데이터 세트를 구성하는 각각의 요소를 선택하도록 구성된다. 소스의 각각의 요소는, 미리, 기억 장치(22)에 유지되는 특징 데이터이며, 복수의 카테고리의 어느 하나의 카테고리에 할당된다. 제2 실시예에서는, 소스의 모든 요소는 양호 판정의 카테고리에 할당된다. 대체 실시예에서, 소스의 모든 요소는 양호 판정의 카테고리 또는 불량 판정의 카테고리 중 의 어느 하나에 할당된다. 그런데, 각각의 요소의 양호 판정이 항상 적절한 것은 아니다. 예를 들면, 환경음이나 돌발 잡음이 어느 요소(즉, 특징 데이터)에 포함될 가능성이 있기 때문이다.
따라서, 소스의 모든 요소를 네트워크(23)에 차례로 입력하여 소스의 각각의 요소를 네트워크(23)의 출력층 중 어느 하나의 출력 뉴런에 관련시키도록 시도하는 사전 처리의 후에, 셀렉터(25)는 학습 데이터 세트를 최적화하기 위한 최적화 방법에 따라 일련의 동작을 행한다.
최적화 방법에 기초하여, 셀렉터(25)는 제1 실시예와 마찬가지로 소스의 각각의 요소의 괴리도를 산출한다. 즉, 괴리도는 해당 요소에 관련된 출력 뉴런에 관한 가중치 벡터와 해당 요소 간의 차분 벡터의 크기이다. 그리고나서, 셀렉터(25)는 소스에 포함되는 각각의 요소의 괴리도의 평균 및 분산을 산출한다(도 5의 251 및 252). 그리고나서, 셀렉터(25)는 소스에 포함되는 각각의 요소의 괴리도의 평균 및 분산이 각각 미리 결정된 평균 임계값 및 분산 임계값보다 작아지게 될때까지, 상기 소스로부터 부적당합 요소를 제외하는 처리를 반복한다. 이 처리에서, 셀렉터(25)는, 소스로부터, 괴리도가 미리 결정된 괴리도 임계값보다 큰 모든 요소를 제외한다(도 5의 253). 제2 실시예에서는, 셀렉터(25)는 괴리도가 괴리도 임계값보다 큰 모든 요소를 삭제한다. 평균 임계값, 분산 임계값, 및 괴리도 임계값은 사용자에 의해 설정된다.
다음에, 도 6을 참조하여 제2 실시예의 동작을 설명한다. 먼저, 셀렉터(25)는 제1 실시예와 대략 마찬가지로 사전 처리를 행한다(S21). 이 때, 네트워크(23) 의 출력층의 각각의 출력 뉴런에는 그 입력층의 전체 입력 뉴런의 수에 대응하는 가중치 벡터가 제공된다. 또한, 출력층의 몇몇 뉴런이 데이터 세트 소스에 의해 양호 판정의 카테고리에 관련되지 않으면, 이들의 각각은 자동적으로 불량 판정의 카테고리에 속한다.
그 후, 셀렉터(25)는 최적화 방법(S22∼S29)에 따라 일련의 동작을 실행한다. 즉, 셀렉터(25)는 소스의 각각의 요소의 괴리도를 산출하고(S22), 소스에 포함되는 각각의 요소의 괴리도의 평균 및 분산을 산출한다(S23). 스텝 S24에서, 셀렉터(25)는 평균이 미리 결정된 평균 임계값 이상인지 또는 분산이 미리 결정된 분산 임계치 이상인지의 여부를 판단한다. 평균 및 분산이 각각 평균 임계값 및 분산 임계값보다 작으면, 셀렉터(25)는 소스의 모든 요소의 카테고리가 적정하다고 판단하고, 학습 모드를 종료한다(S25).
평균이 평균 임계값 이상이거나 또는 분산이 분산 임계값 이상이면, 셀렉터(25)는, 상기 소스로부터, 괴리도가 미리 결정된 괴리도 임계값보다 큰 모든 요소를 삭제한다. 즉, 셀렉터(25)는 소스로부터(1)의 요소(특징 데이터)를 선택하고(S26), 요소의 괴리도가 괴리도 임계값보다 큰지의 여부를 판단한다(S27). 요소의 괴리도가 괴리도 임계값보다 크면, 셀렉터(25)는 요소를 삭제하고(S28), 스텝 S29로 진행한다. 요소의 괴리도가 괴리도 임계값 이하이면, 셀렉터(25)는 요소를 소스에 잔류시키고, 스텝 S29로 진행한다. 스텝 S29에서, 셀렉터(25)는 소스로부터의 모든 요소의 선택이 완료되었는지의 여부를 판단한다. 선택이 완료되었으면, 스텝 S21로 복귀한다. 선택이 완료되지 않았으면, 스텝 S26으로 복귀한다.
제2 실시예에서는, 다른 요소로부터 떨어져 나오는 적어도 하나의 요소를 데이터 세트 소스로부터 제외할 수 있다. 예를 들면, 양호 판정의 카테고리에 속하지 않는 특징 데이터 및 환경음 또는 잡음을 포함하는 특징 데이터를 제외할 수 있다. 그 결과, 학습 데이터 세트를 최적화할 수 있다. 또한, 최적화된 학습 데이터 세트에 따른 학습 모드의 종료 후, 신호 식별 장치는 검사 모드에서 측정 대상의 품질을 양호한 정밀도로 분류할 수 있다.
대체 실시예에서, 셀렉터(25)는, 소스에 포함되는 각각의 요소의 괴리도의 평균 및 분산이 각각 평균 임계값 및 분산 임계값 이하로 될때까지, 소스로부터 부적당한 요소를 제외하는 처리를 반복한다. 또한, 셀렉터(25)는, 소스로부터, 괴리도가 괴리도 임계값 이상인 모든 요소를 제외시킨다.
향상된 실시예에서, 도 7에 나타낸 바와 같이, 셀렉터(25)는, 도 6의 사전 처리(S21)로서의 제2 사전 처리의 전에, 제1 사전 처리(S31∼S38)를 추가로 실행하도록 구성된다. 제1 사전 처리에서, 셀렉터(25)는 상기 데이터 세트 소스의 모든 요소를 뉴럴 네트워크(23)에 차례로 입력하여 소스의 각각의 요소를 네트워크(23)의 출력층의 어느 하나의 출력 뉴런에 관련시키도록 시도한다. 그리고나서, 셀렉터(25)는 출력층의 각각의 출력 뉴런에 관한 가중치 벡터와 그 외의 출력 뉴런의 각각에 관한 가중치 벡터 사이의 거리 모두를 산출한다. 상기 향상된 실시예에서는, 각각의 거리는 2개의 출력 뉴런의 가중치 벡터 간의 차분을 제곱함으로써 얻어지고, 유클리드(Euclid) 거리의 제곱에 상당한다. 그리고나서, 셀렉터(25)는 그 산출된 거리 모두에 따라 상기 출력층의 출력 뉴런마다 최소 거리를 산출한다. 대 체 실시예에서, 셀렉터(25)는 최소 거리 대신에 총계 거리를 산출한다.
그리고나서, 셀렉터(25)는 최소 거리가 미리 결정된 최소 거리 임계값보다 큰 모든 출력 뉴런에 관련되는 소스의 모든 요소를 제외한다. 향상된 실시예에서는, 상기 소스의 모든 요소는 삭제된다. 출력 뉴런의 최소 거리가 최소 거리 임계값보다 클 때, 출력 뉴런에 관련된 소스의 요소 간의 카테고리의 유사성 레벨이 최소 거리 임계값에 대응하는 유사성 레벨보다 낮은 것으로 갖주되며, 출력 뉴런에 관련된 소스의 모든 요소가 제외된다. 그 결과, 소스의 요소는 보다 유사하므로, 잘못된 카테고리로 분류되기가 어려워진다. 대체 실시예에서, 셀렉터(25)는 총계 거리가 미리 결정된 총계 거리 임계값보다 큰 모든 출력 뉴런에 관련되는 소스의 모든 요소를 제외 또는 삭제한다. 이 경우, 출력 뉴런의 총계 거리가 총계 거리 임계값보다 클 때, 출력 뉴런에 관련된 소스의 요소 간의 카테고리의 분산 레벨이, 총계 거리 임계값에 대응하는 분산 레벨보다 높은 것으로 간주되며, 출력 뉴런에 관련된 소스의 모든 요소가 제외 또는 삭제된다. 그 결과, 소스의 요소는 보다 낮은 분산 특성을 가지므로, 잘못된 카테고리로 분류되기가 어려워진다. 다른 대체 실시예에서, 셀렉터(25)는, 최소 거리(또는 총계 거리)가 최소 거리 임계값(또는 총계 거리 임계값) 이상인 모든 출력 뉴런에 관련되는 소스의 모든 요소를 제외 또는 삭제한다.
다음에, 도 7을 참조하여 상기한 향상된 실시예의 동작을 설명한다. 스텝 S31에서, 셀렉터(25)는 도 6의 스텝 S21과 마찬가지로 사전 처리를 실행한다. 그 후, 셀렉터(25)는 네트워크(23)의 출력층의 각각의 출력 뉴런에 관한 가중치 벡터 와 다른 출력 뉴런의 각각에 관한 가중치 벡터 사이의 거리 모두를 산출한다(S32). 각각의 거리는 예를 들면 유클리드(Euclid) 거리의 제곱이다. 그리고나서, 셀렉터(25)는, 그 산출된 거리 모두에 따라, 출력층의 출력 뉴런마다 최소 거리(또는 총계 거리)를 산출한다(S33). 그리고나서, 셀렉터(25)는 출력층으로부터 출력 뉴런을 선택한다(S34). 스텝 S35에서, 셀렉터(25)는 선택된 출력 뉴런의 최소 거리(총계 거리)가 최소 거리 임계값(총계 거리 임계값)보다 큰지의 여부를 판단한다. 최소 거리(총계 거리)가 최소 거리 임계값(총계 거리 임계값)보다 크면, 셀렉터(25)는 선택된 출력 뉴런에 관련된 소스의 모든 요소를 삭제하고(S36), 스텝 S37로 진행한다. 최소 거리(총계 거리)가 최소 거리 임계값(총계 거리 임계값) 이하이면, 셀렉터(25)는 선택된 출력 뉴런에 관련된 소스의 모든 요소를 잔류시키고, 스텝 S37로 진행한다. 스텝 S37에서, 셀렉터(25)는 출력층으로부터의 모든 출력 뉴런의 선택이 완료되었는지의 여부를 판단한다. 선택이 완료되면, 스텝 S38로 진행하고, 선택이 완료되지 않았으면, 스텝 S34로 복귀한다. 스텝 S38에서, 셀렉터(25)는, 소스의 어느 쪽의 요소도 스텝 S34∼S37에서 삭제되지 않았는지의 여부를 판단한다. 소스의 어느 요소도 삭제되지 않았으면, 스텝 S21로 진행하고, 그렇지 않으면 스텝 S31로 복귀한다.
상기한 향상된 실시예에서는, 최소 거리 및 최소 거리 임계값을 사용할 때, 최소 거리 임계값에 대응하는 유사성 레벨보다 낮은 양호 판정의 카테고리에 관련된 소스의 모든 요소를 제외할 수 있다. 그 결과, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다. 총계 거리 및 총계 거리 임계값을 사용할 때, 총계 거리 임계값에 대응하는 분산 레벨보다 높은 양호 판정의 카테고리에 관련된 소스의 모든 요소를 제외할 수 있다. 그 결과, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다.
도 8은 본 발명의 제3 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치를 나타낸다. 이 신호 식별 장치는, 제1 실시예와 마찬가지로, 측정기(30), 변환기(31), 기억 장치(32), 뉴럴 네트워크(33) 및 맵 발생기(34)를 구비하고, 또한 제3 실시예의 특징에 따른 셀렉터(35)를 구비한다.
셀렉터(35)는 사전 처리(도 4의 S1∼S4를 참조)없이 데이터 세트 소스로부터 학습 데이터 세트를 구성하는 각각의 요소를 선택하도록 구성된다. 소스의 각각의 요소는, 미리, 기억 장치(32)에 유지되는 특징 데이터이며, 카테고리 중의 어느 하나의 카테고리에 할당된다. 제3 실시예에서는, 소스의 모든 요소는 예를 들면 양호 판정의 카테고리에 할당된다. 대체 실시예에서, 소스의 모든 요소는 양호 판정의 카테고리 또는 불량 판정의 카테고리 중의 어느 하나에 할당된다.
셀렉터(35)는 소스의 모든 요소에 대하여 소스의 2개의 요소 사이의 거리 모두를 산출한다(도 8의 351). 제3 실시예에서는, 각각의 거리는 2개의 출력 뉴런의 가중치 벡터들 간의 차분을 제곱함으로써 얻어지고, 유클리드(Euclid) 거리의 제곱에 상당한다. 그리고나서, 셀렉터(35)는 산출된 거리 모두의 제1 평균 및 제1 분산을 산출한다(도 8의 352). 이 후, 반복 처리가 소스에 포함되는 모든 요소에 대하여 실행된다. 반복 처리에서, 셀렉터(35)는 소스로부터 요소를 선택하여 요소를 일시적으로 소스로부터 제외시킨다. 그리고나서, 셀렉터(35)는, 요소가 제외된 소스에 포함되는 나머지의 모든 요소에 대하여, 소스의 2개의 요소 사이의 거리 모두를 산출하고, 산출된 거리 모두의 제2 평균 및 제2 분산을 산출한다(도 8의 352).
그 후, 제1 크기 또는 제2 크기가 각각 미리 결정된 제1 또는 제2 임계값보다 크고, 또한 제1 평균 및 제1 분산이 각각 제2 평균 및 제2 분산보다 크면, 셀렉터(35)는 해당 요소를 소스로부터 제외하고(도 8의 353), 제2 평균 및 제2 분산을 각각 제1 평균 및 제1 분산으로 설정한다. 제1 크기는 제1 평균으로부터 제2 평균으로의 변화의 크기이며, 제2 크기는 제1 분산으로부터 제2 분산으로의 변화의 크기이다. 제1 크기가 제1 임계값보다 크면, 해당 요소가 양호 판정의 카테고리로부터 벗어나 있을 가능성이 높다. 마찬가지로, 제2 크기가 제2 임계값보다 크면, 해당 요소가 양호 판정의 카테고리로부터 벗어나 있을 가능성이 높다. 또한, 제1 평균 및 제1 분산이 각각 제2 평균 및 제2 분산보다 크면, 해당 요소는 제1 평균 및 제1 분산을 상승시키므로, 해당 요소가 양호 판정의 카테고리로부터 벗어나 있을 가능성이 높다. 따라서, 해당 요소를 삭제함으로써, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다. 대체 실시예에서, 제1 크기 또는 제2 크기가 각각 제1 또는 제2 임계값 이상이고, 또한 제1 평균 및 제1 분산이 각각 제2 평균 및 제2 분산 이상이면, 셀렉터(35)는 해당 요소를 소스로부터 제외하고, 제2 평균 및 제2 분산을 각각 제1 평균 및 제1 분산으로 설정한다.
제1 크기 및 제2 크기가 각각 제1 및 제2 임계값 이하이거나, 또는 제1 평균 또는 제1 분산이 각각 제2 평균 또는 제2 분산 이하이면, 셀렉터(35)는 해당 요소를 소스에 리턴한다. 대체 실시예에서, 제1 크기 및 제2 크기가 각각 제1 및 제2 임계값보다 작거나, 또는 제1 평균 또는 제1 분산이 각각 제2 평균 또는 제2 분산보다 작으면, 셀렉터(35)는 해당 요소를 상기 소스에 리턴한다.
다음에, 도 9를 참조하여 제3 실시예의 동작을 설명한다. 셀렉터(35)는 데이터 세트 소스의 모든 요소에 대하여 데이터 세트 소스의 2개의 요소 사이의 거리 모두를 산출한다(S41). 그리고나서, 셀렉터(35)는 산출된 거리 모두의 제1 평균 및 제1 분산을 산출한다(S42). 이 후, 셀렉터(35)는 소스로부터 요소를 선택하여, 요소를 일시적으로 소스로부터 제외시킨다(S43). 그리고나서, 셀렉터(35)는, 요소가 제외된 소스에 포함되는 나머지의 모든 요소에 대하여, 소스의 2개의 요소 사이의 거리 모두를 산출하고, 산출된 거리 모두의 제2 평균 및 제2 분산을 산출한다(S 44). 그 후, 셀렉터(35)는 제1 평균으로부터 제2 평균으로의 변화의 크기(제1 크기) 및 제1 분산으로부터 제2 분산으로의 변화의 크기(제2 크기)를 구한다. 제1 크기 또는 제2 크기가 각각 제1 또는 제2 임계값보다 크고, 제1 평균 및 제1 분산이 각각 제2 평균 및 제2 분산보다 크면(S46∼S48), 셀렉터(35)는 해당 요소를 소스로부터 삭제하고(S49), 제2 평균 및 제2 분산을 각각 제1 평균 및 제1 분산으로 설정하며(S50), 스텝 S51로 진행한다. 그렇지 않으면, 셀렉터(35)는 해당 요소를 소스에 리턴하고, 스텝 S51로 진행한다. 스텝 S51에서, 셀렉터(35)는 소스로부터의 모든 요소의 선택이 완료되었는지의 여부를 판단한다(S51). 선택이 완료되었다면, 스텝 S52로 진행하고, 선택이 완료되지 않았으면, 스텝 S43으로 복귀된다. 스 텝 S52에서, 셀렉터(35)는 소스의 어느 요소도 스텝 S43∼S51에서 삭제되지 않았는지를 판단한다. 소스의 어느 요소도 삭제되지 않았으면, 셀렉터(35)는 네트워크(33)의 학습을 행하고(S53), 다음의 스텝(도시하지 않음)으로 진행한다. 그렇지 않으면, 셀렉터(35)는 스텝 S41로복귀한다.
제3 실시예에서는, 불량 판정의 카테고리에 속하는 특징 데이터가 양호 판정의 카테고리로 분류되는 것을 방지할 수 있다. 그 결과, 학습 데이터 세트가 최적화될 수 있다. 또한, 학습 데이터 세트를 최적화하는 처리로부터 뉴럴 네트워크(33)의 학습을 생략하는 것이 가능하므로, 처리 속도가 향상된다.
도 10은 본 발명의 제4 실시예에 따른 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치를 나타낸다. 이 신호 식별 장치는, 제1 실시예와 마찬가지로, 측정기(40), 변환기(41), 기억 장치(42), 뉴럴 네트워크(43) 및 맵 발생기(44) 등을 구비하고, 또한 전술한 출력 장치(46) 및 셀렉터(45)를 구비한다.
변환기(41)는, 제1 실시예와 마찬가지로, 필터(도시하지 않음) 및 변환기로 구성되는 신호 처리기에 포함된다. 따라서, 제4 실시예의 필터는, 제2 선행 기술과 마찬가지로, 통과 모드, 포락선 모드, FIR 모드, 웨이블렛 변환 모드, 및 캡스트럼 모드 등의 임의의 모드로 동작한다. 또한, 변환기(41)는 투영 파형 모드, FFT 모드, FFT+웨이블렛 변환 모드, 확률 밀도 함수 모드 및 실효값 모드 등의 임의 모드로 동작하여, 필터의 출력으로부터 특징(즉, 특징 데이터)을 추출한다. 각각의 특징 데이터는 사용자 또는 관리자에 의해 복수의 카테고리의 어느 하나의 카테고리에 할당된다. 예를 들면, 제4 실시예에서는, 각각의 특징 데이터는 양호 판 정의 카테고리 또는 불량 판정의 카테고리 중의 어느 하나에 할당된다. 그러나, 이에 한정되지 않고, 사용자 또는 관리자에 의해 양호 판정의 카테고리에 할당되지 않은 각각의 특징 데이터를, 자동적으로 불량 판정의 카테고리에 할당해도 된다.
출력 장치(46)는 예를 들면 클러스터링 맵, 네트워크(43)에 의해 분류된 카테고리의 위치, 및 경고 화면 등을 표시하기 위한 표시 장치이다. 또한, 출력 장치(46)는 경고음을 발생하는 버저 등을 포함해도 된다.
셀렉터(45)는 학습(도 4의 S1∼S4를 참조)없이 변환기(41)로부터 얻어지는 각각의 특징 데이터를 최적화하여, 학습 데이터 세트를 최적화하도록 구성된다. 셀렉터(45)는 상이한 연산 타입(방법)으로부터 최적의 연산 타입을 선택한다. 또한, 셀렉터(45)는 상이한 파라미터(네트워크(43)의 각각의 입력 뉴런에 입력되는 변수 등의 팩터) 세트 중의 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택한다. 상이한 연산 타입의 각각은 측정 신호로부터 특징 데이터를 추출하는데 사용된다. 즉, 상이한 연산 타입은, 투영 파형 모드, FFT 모드, FFT+웨이블렛 변환 모드, 확률 밀도 함수 모드 및 실효값 모드 등으로 사용되는 연산 타입을 포함한다(제2 선행 기술 참조). 상이한 파라미터 세트는 상이한 연산 타입에 사용된다. 상이한 파라미터 세트의 각각은 상이한 파라미터 조합으로 이루어진다. 상이한 파라미터 조합은 미리 준비되어도 되고, 연산을 통해 생성되어도 된다.
그러므로, 셀렉터(45)는 상이한 연산 타입으로부터 차례로 연산 타입을 선택한다(도 10의 451). 상이한 연산 타입으로부터 연산 타입이 선택될 때마다, 셀렉 터(45)는, 선택된 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 선택된 연산 타입과 파라미터 조합에 따라 추정한다(도 10의 452 및 453). 이 때, 셀렉터(45)는 상기 연산 타입에 사용되는 파라미터 세트로부터 파라미터 조합을 차례로 선택하고, 파라미터 세트의 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를 추정한다.
즉, 해당 연산 타입 및 해당 파라미터 조합에 따라, 셀렉터(45)는 변환기(41)를 통해 각각의 측정 신호로부터 복수의 카테고리의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성한다. 예를 들면, 도 11a에 나타낸 바와 같이, 제1 특징 데이터 (5, 6, 7, 8) 및 제2 특징 데이터 (9, 8, 8, 10)가 상기 연산 타입의 모드(예를 들면, FFT 모드)로 동작하는 변환기(41)로부터 추출된다. 이들의 각각이 양호 판정의 카테고리에 할당되었을 때, 제1 특징 데이터 및 제2 특징 데이터는 정확도 추정용 데이터 세트에 포함된다. 마찬가지로, 제3 특징 데이터 (6, 7, 9, 12) 및 제4 특징 데이터 (7, 5, 11, 15)가 추출되고, 이들 각각이 불량 판정의 카테고리에 할당되었을 때, 제3 특징 데이터 및 제4 특징 데이터도 정확도 추정용 데이터 세트에 포함된다.
그리고나서, 셀렉터(45)는, 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성한다. 예를 들면, 도 11b에 나타낸 바와 같이, 셀렉터(45)는 정확도 추정용 데이터 세트의 각각의 제1 파라미터를 2차원 평면의 제1 행에 오름차순으로 배열한다. 따라서, 정확도 추정용 데이터 세트가 도 11a의 각각의 특징 데이터를 포함할 때, 제1 특징 데이터, 제3 특징 데이터, 제4 특징 데이터 및 제2 특징 데이터의 제1 파라미터가 각각 제1 열, 제2 열, 제3 열, 및 제4 열에 배열된다. 마찬가지로, 셀렉터(45)는 상기 세트의 각각의 제2 파라미터, 각각의 제3 파라미터 및 각각의 제4 파라미터를, 각각 2차원 평면의 제2 행, 제3 행, 및 제4 행에 오름차순으로 배열한다. 그 후, 도 11c에 나타낸 바와 같이, 셀렉터(45)는 각각의 파라미터의 값을 대응하는 카테고리에 관련시킴으로써 2차원 화상을 생성한다.
그리고나서, 셀렉터(45)는, 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어(category area)에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정한다. 정확도는 2차원 화상의 모든 요소에 대응하는 카테고리 에어리어에서의 엔트로피를 합산하여 총계 TH를 계산함으로써 추정된다. 제4 실시예에서는, 카테고리 에어리어는 2차원 화상의 클러스터 영역이다. 예를 들면, 카테고리 에어리어의 단위 길이(1개의 파라미터에 대응하는 길이)가 "1"일 때, 도 11c에서의 2차원 화상의 예를 들면 제1 행째의 제1 번째의 카테고리 에어리어의 길이는 "1"로 되고, 제2 번째의 카테고리 에어리어의 길이는 "2"로 된다. 이 경우, 총계 TH는 다음에 의해 주어진다:
Figure 112009009015132-pct00001
여기서, L(i, j)는 2차원 평면 상의 한쪽의 축(수직축)에 따르는 2차원 화상의 제i 번째의 영역에서의 제j 번째의 카테고리 에어리어의 길이이며, np는 정확도 추정용 데이터 세트의 모든 요소의 수이며, m은 제i 번째의 영역에서의 모든 카테고리 에어리어의 수이며, n은 수직축에 따르는 2차원 화상의 모든 영역의 수이다. H(i)는, 전 제i 번째 파라미터의 엔트로피이다.
모든 정확도를 추정한 후, 셀렉터(45)는 모든 정확도 중 가장 높은 정확도에 대응하는 연산 타입 및 파라미터 조합을 선택함으로써 상기 최적의 연산 타입 및 상기 연산 타입용의 파라미터 조합을 선택한다.
다음에, 도 12를 참조하여 제4 실시예의 동작을 설명한다. 상이한 연산 타입으로부터 예를 들면 FFT를 선택했을 때, 셀렉터(45)는 도 12에 나타낸 바와 같이 예를 들면 주파수 대역의 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 일련의 동작을 행한다. FFT의 경우, 모든 정확도 추정용 데이터 세트를 일괄하여 취득할 수 있으므로, 셀렉터(45)는 변환기(41)를 통해 각각의 측정 신호로부터 주파수 대역의 파라미터 세트에 대응하는 모든 정확도 추정용 데이터 세트를 생성한다(S61).
그 후, 셀렉터(45)는, 상기 파라미터 세트로부터 하나의 파라미터 조합을 선택하고, 선택한 파라미터 조합에 따라 복수의 주파수 대역의 각각의 시점 및 종점 주파수를 초기화한다(S62∼S64). 주파수 대역의 수는 선택된 파라미터 조합에 의해 나타내는 수(예를 들면, 파라미터의 수)로 설정되고, 주파수 대역의 각각의 주파수는 선택된 파라미터 조합에 의해 나타낸 대응하는 주파수로 설정된다.
예를 들면, 도 13a∼13c에 나타낸 바와 같이, 주파수 대역의 수가 "2"일 때, 주파수 대역은 주파수 대역 FB1 및 FB2로 설정된다. 대역 FB1의 시점 주파수의 하한은 0 Hz이며, 상한은 측정 신호에 따라 설정되는 최대 주파수의 4분의 1이다. 대역 FB1의 종점 주파수의 하한은 최대 주파수의 4분의 1이며, 상한은 최대 주파수의 4분의 3이다. 대역 FB2의 시점 주파수의 하한은 상기 최대 주파수의 4분의 1이며, 상한은 상기 최대 주파수의 4분의 3이다. 대역 FB2의 종점 주파수의 하한은 최대 주파수의 4분의 3이며, 상한은 최대 주파수이다. 도 14에 나타낸 바와 같이, 주파수 대역의 수가 "3"일 때, 0 Hz로부터 최고 주파수의 범위를 3등분함으로써 주파수 대역 FB1, FB2 및 FB3가 설정된다. 이 경우, 중앙의 대역 FB2의 시점 주파수의 하한은 좌측의 대역 FB1의 중앙 주파수이며, 상한은 좌측의 대역 FB2의 중앙 주파수이다. 또한, 대역 FB2의 종점 주파수의 하한은 대역 FB2의 중앙 주파수이며, 상한은 우측의 대역 FB3의 중앙 주파수이다. 도 13a∼13c의 각각은 도 15a∼15d에 나타낸 각각의 특징 데이터를 일괄하여 나타낸다. 도 15a 및 도 15b의 각각은 양호 판정의 카테고리에 할당되는 특징 데이터를 나타내고, 도 15c 및 도 15d의 각각은 불량 판정의 카테고리에 할당되는 특징 데이터를 나타낸다. 도 13a∼13c에서, 도 13a의 경우의 정확도가 가장 높다(고정확도). 대역 FB1는 양호 판정의 카테고리에 대응하는 신호 성분만을 포함하고, 대역 FB2는 불량 판정의 카테고리에 대응하는 성분만을 포함한다. 역으로, 대역 FB1 및 FB2의 각각이 양호 판정 및 불량 판정의 카테고리에 대응하는 신호 성분을 포함하기 때문에, 도 13c의 경우의 정확도가 가장 낮다(저정확도). 도 13b의 경우의 정확도는 중간 정확도이다.
스텝 S65에서, 주파수 대역에 기초하여 스텝 S61의 모든 정확도 추정용 데이터 세트로부터 선택한 파라미터 조합에 대응하는 각각의 요소(특징 데이터)를 추출함으로써, 셀렉터(45)는 선택한 파라미터 조합에 대응하는 정확도 추정용 데이터 세트를 생성한다. 그리고나서, 셀렉터(45)는 상기 세트로부터 2차원 화상을 생성하고(S66), 2차원 화상에 기초하여 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정한다. 즉, 스텝 S67에서, 셀렉터(45)는 엔트로피의 총계(TH)를 계산한다.
스텝 S68, S69, S63 및 S64에서, 주파수 대역의 파라미터 세트로부터 모든 파라미터 조합을 선택하는 것을 완료할 때까지, 셀렉터(45)는 다른 파라미터 조합에 따라 각각의 시점 주파수 및 각각의 종점 주파수를 변경하여, 스텝 S65∼S67를 반복한다. 이 경우, 각각의 시점 주파수 및 각각의 종점 주파수는, 각각의 파라미터 조합에 따른 각각의 값에 의해 변경된다. 도 12의 예에서, 각각의 시점 주파수가 상이한 주파수로 차례로 변경되고, 각각의 변경된 시점 주파수에 대한 각각의 종점 주파수가 상이한 주파수로 차례로 변경된다(도 13a∼13c를 참조). 스텝 S70에서, 셀렉터(45)는 주파수 대역의 파라미터 세트의 파라미터 조합을 정확도(총계 TH)의 내림차순으로 소팅한다. 그 결과가 기억 장치(42)에 저장된다(도 10의 "판정 결과"를 참조).
그 후, 상이한 연산 타입으로부터 예를 들면 투영 파형을 선택했을 때, 셀렉터(45)는 도 16에 나타낸 바와 같이 예를 들면 창 함수의 복수의 창(시간 범위)용의 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 일련의 동작을 행 한다. 즉, 셀렉터(45)는 파라미터 세트로부터 하나의 파라미터 조합을 선택하고, 선택한 파라미터 조합에 따라 창의 시점 시간(start time) 및 종점 시간(end time)을 초기화한다(S71∼S73). 그리고나서, 셀렉터(45)는 변환기(41)를 통해 각각의 측정 신호로부터 상기 파라미터 조합에 대응하는 정확도 추정용 데이터 세트를 생성한다(S (74). 그리고나서, 셀렉터(45)는 상기 세트로부터 2차원 화상을 생성하고(S75), 2차원 화상에 기초하여 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정한다. 즉, 스텝 S76에서, 셀렉터(45)는 엔트로피의 총계(TH)를 계산한다. 스텝 S77, S78, S72 및 S73에서, 파라미터 세트로부터 모든 파라미터 조합을 선택하여 완료할 때까지, 셀렉터(45)는 다른 파라미터 조합에 따라 개시 시간 및 종료 시간을 변경하여, 스텝 S74∼S76을 반복한다. 스텝 S79에서, 셀렉터(45)는 해당 파라미터 세트의 모든 파라미터 조합을 정확도(총계 TH)의 내림차순으로 소팅한다. 그 결과는 기억 장치(42)에 저장된다.
그 후, 상이한 연산 타입으로부터 예를 들면 실효값을 선택했을 때, 셀렉터(45)는 도 17에 나타낸 바와 같이 예를 들면 분해능용의 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 일련의 동작을 행한다. 즉, 셀렉터(45)는 파라미터 세트로부터 하나의 파라미터 조합을 선택하고, 선택한 파라미터 조합에 기초하여 분해능을 초기화한다(S81∼S82). 도 17의 예에서는, 초기값은 "10"이다. 그리고나서, 셀렉터(45)는 변환기(41)를 통해 각각의 측정 신호로부터 파라미터 조합에 대응하는 정확도 추정용 데이터 세트를 생성한다(S83). 그리고나서, 셀렉터(45)는 세트로부터 2차원 화상을 생성하고(S84), 2차원 화상에 기초하여 해당 연 산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정한다. 즉, 스텝 S85에서, 셀렉터(45)는 엔트로피의 총계(TH)를 계산한다. 스텝 S86 및 S82에서, 파라미터 세트로부터 모든 파라미터 조합을 선택하여 완료할 때까지, 셀렉터(45)는 다른 파라미터 조합에 기초하여 분해능을 변경하고, 스텝 S83∼S85를 반복한다. 스텝 S87에서, 셀렉터(45)는 파라미터 세트의 모든 파라미터 조합을 정확도(총계 TH)의 내림차순으로 소팅한다. 그 결과는 기억 장치(42)에 저장된다.
상이한 연산 타입으로부터의 모든 연산 타입의 선택 및 모든 연산 타입의 각각의 모든 파라미터 조합의 선택의 완료 후, 셀렉터(45)는 모든 정확도 중 가장 높은 정확도에 대응하는 연산 타입 및 파라미터 조합을 선택함으로써 최적의 연산 타입 및 연산 타입용의 파라미터 조합을 선택한다.
제4 실시예에서는, 변환기(41)로부터 얻어지는 각각의 특징 데이터를 최적화함으로써 학습 데이터 세트를 최적화할 수 있다. 그 결과, 도 18a∼18c에 나타낸 바와 같이, 연산 타입 및 파라미터 조합에 기인하는 "그레이" 요소를 삭제할 수 있고, 도 18c에 나타낸 바와 같이 양호 판정의 카테고리 및 불량 판정의 카테고리만으로 형성되는 클러스터링 맵을 생성할 수 있다.
대체 실시예에서, 연산 타입은 사용자 또는 관리자 등에 의해 상이한 연산 타입으로부터 미리 선택된다. 이 경우, 셀렉터(45)는 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 연산 타입과 파라미터 조합에 기초하여 추정한다. 즉, 셀렉터(45)는, 해당 연산 타입 및 해당 파라미터 조합에 기초하여, 변환기(41)를 통해 각각의 측정 신호로부터 복수의 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성한다. 그리고나서, 셀렉터(45)는, 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축에 따라 실질적으로 배열함으로써, 2차원 화상을 생성한다. 그리고나서, 셀렉터(45)는 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어에 관한 엔트로피를 산출함으로써 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정한다. 정확도는 상기 총계 TH에 의해 제공된다. 모든 정확도가 추정된 후, 셀렉터(45)는 모든 정확도 중 가장 높은 정확도에 대응하는 파라미터 조합을 선택함으로써 상기 최적의 파라미터 조합을 선택한다.
본 발명을 특정의 바람직한 실시예에 대하여 기술하였지만, 본 발명의 본래의 정신 및 범위를 일탈하지 않고 당업자에 의해 다양한 수정 및 변형이 가능하다.

Claims (10)

  1. 신호 식별 장치에 사용되는 신호 식별 장치용 학습 데이터 세트 선택 방법으로서,
    상기 신호 식별 장치는,
    측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하기 위한 변환기; 및
    상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는 입력층과, 출력 뉴런을 갖고, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련되는 출력층을 포함하며, 상기 변환기를 통해 추출된 상기 특징 데이터를 상기 출력층의 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성되는 경합 학습 뉴럴 네트워크(competitive learning neural network)
    를 포함하며,
    상기 신호 식별 장치용 학습 데이터 세트 선택 방법은,
    상기 신호 식별 장치에 추가로 포함되며, 각각의 요소가, 미리, 상기 변환기를 통해 추출된 특징 데이터이고, 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 데이터 세트 소스로부터, 상기 학습 데이터 세트를 구성하는 각각의 요소를 선택하기 위한 셀렉터에 의해 처리되는 방법으로서,
    (A) 상기 소스의 모든 요소를 상기 네트워크에 차례로 입력하여 상기 소스의 각각의 요소를 상기 출력층의 어느 하나의 출력 뉴런에 관련시키도록 시도하는 사전 처리의 후에 실행되고, 상기 출력층의 각각의 출력 뉴런이 상기 카테고리 중의 단일 카테고리에 관련될 때까지 반복되는 스텝을 포함하며,
    상기 스텝 (A)는,
    (a) 상기 출력층의 출력 뉴런이 상기 출력층에 의해 나타내지는 전체 카테고리에서의 상이한 카테고리에 관련되는지를 판단하는 단계;
    (b) 상기 상이한 카테고리에 관련되면, 상기 출력 뉴런에 대한 상기 상이한 카테고리에 대응하는 상기 소스의 각각의 요소의 괴리도를 산출하는 단계;
    (c) 상기 소스의 각각의 요소의 괴리도에 기초하여 상기 상이한 카테고리의 각각의 평균 괴리도를 산출하는 단계;
    (d) 최소 평균 괴리도의 카테고리에 대응하는 상기 소스의 모든 요소를, 상기 소스로부터 상기 학습 데이터 세트로의 선택에 포함시키는 단계; 및
    (e) 상기 상이한 카테고리의 모든 잔존 카테고리에 대응하는 상기 소스의 모든 요소를 상기 선택으로부터 제외시키는 단계
    를 포함하는,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  2. 제1항에 있어서,
    상기 단계 (b)에서의 상기 소스의 각각의 요소의 괴리도는, 해당 출력 뉴런 에 관한 가중치 벡터와 해당 요소 간의 차분 벡터의 크기인, 신호 식별 장치용 학습 데이터 세트 선택 방법.
  3. 삭제
  4. 삭제
  5. 신호 식별 장치에 사용되는 신호 식별 장치용 학습 데이터 세트 선택 방법으로서,
    상기 신호 식별 장치는,
    측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하기 위한 변환기; 및
    상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는 입력층과, 출력 뉴런을 갖고, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련되는 출력층을 포함하며, 상기 변환기를 통해 추출된 상기 특징 데이터를 상기 출력층의 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성되는 경합 학습 뉴럴 네 트워크
    를 포함하며,
    상기 신호 식별 장치용 학습 데이터 세트 선택 방법은,
    상기 신호 식별 장치에 추가로 포함되며, 각각의 요소가, 미리, 상기 변환기를 통해 추출된 특징 데이터이고, 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 데이터 세트 소스로부터, 상기 학습 데이터 세트를 구성하는 각각의 요소를 선택하기 위한 셀렉터에 의해 처리되는 방법으로서,
    (A) 상기 소스의 모든 요소에 대하여, 상기 소스의 2개의 요소 사이의 거리 모두를 산출하는 스텝;
    (B) 상기 산출된 거리 모두의 제1 평균 및 제1 분산을 산출하는 스텝; 및
    (C) 상기 소스에 포함되는 모든 요소에 대하여 실행되는 스텝
    을 포함하며,
    상기 스텝 (C)는,
    (a) 상기 소스로부터 요소를 선택하여 상기 요소를 일시적으로 상기 소스로부터 제외시키는 단계;
    (b) 상기 요소가 제외된 상기 소스에 포함되는 나머지의 모든 요소에 대하여, 상기 소스의 2개의 요소 사이의 거리 모두를 산출하는 단계;
    (c) 상기 산출된 거리 모두의 제2 평균 및 제2 분산을 산출하는 단계;
    (d) 상기 제1 평균으로부터 상기 제2 평균으로의 변화의 크기 또는 상기 제1 분산으로부터 상기 제2 분산으로의 변화의 크기가 각각 미리 결정된 제1 임계값 또 는 제2 임계값보다 크고, 또한 상기 제1 평균 및 상기 제1 분산이 각각 상기 제2 평균 및 상기 제2 분산보다 크면, 해당 요소를 상기 소스로부터 제외하고, 상기 제2 평균 및 상기 제2 분산을 각각 상기 제1 평균 및 상기 제1 분산으로 설정하는 단계; 및
    (e) 상기 제1 평균으로부터 상기 제2 평균으로의 변화의 크기 및 상기 제1 분산으로부터 상기 제2 분산으로의 변화의 크기가 각각 상기 제1 임계값 및 제2 임계값보다 작거나, 또는 상기 제1 평균 또는 상기 제1 분산이 각각 상기 제2 평균 또는 상기 제2 분산보다 작으면, 해당 요소를 상기 소스로 리턴하는 단계
    를 포함하는,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  6. 신호 식별 장치에 사용되는 신호 식별 장치용 학습 데이터 세트 선택 방법으로서,
    상기 신호 식별 장치는,
    측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하기 위한 변환기; 및
    상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는 입력층과, 출력 뉴런을 갖고, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련되는 출력층을 포함하며, 상기 변 환기를 통해 추출된 상기 특징 데이터를 상기 출력층의 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성되는 경합 학습 뉴럴 네트워크
    를 포함하며,
    상기 신호 식별 장치용 학습 데이터 세트 선택 방법은,
    상기 신호 식별 장치에 추가로 포함되며, 각각이 상기 측정 신호로부터 특징 데이터를 추출하는데 사용되는 상이한 연산 타입에 사용되고, 각각이 상이한 파라미터 조합으로 이루어지는 상이한 파라미터 세트 중, 미리 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 셀렉터에 의해 처리되는 방법으로서,
    (A) 상기 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 상기 연산 타입과 상기 파라미터 조합에 기초하여 추정하는 스텝; 및
    (B) 상기 스텝 (A)의 결과에 기초하여 상기 최적의 파라미터 조합을 선택하는 스텝
    을 포함하며,
    상기 스텝 (A)는 상기 파라미터 조합의 각각에 대하여 실행되는 단계 (a)를 포함하고,
    상기 단계 (a)는,
    (i) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로 부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하는 단계;
    (ii) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하는 단계; 및
    (iii) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어(category area)에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하는 단계
    를 포함하며,
    상기 스텝 (B)는, 상기 스텝 (A)를 통해 얻어지는 각각의 정확도 중 가장 높은 정확도에 대응하는 파라미터 조합을 선택함으로써, 상기 최적의 파라미터 조합을 선택하는 단계를 포함하는,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  7. 신호 식별 장치에 사용되는 신호 식별 장치용 학습 데이터 세트 선택 방법으로서,
    상기 신호 식별 장치는,
    측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하기 위한 변환기; 및
    상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는 입력층과, 출력 뉴런을 갖고, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련되는 출력층을 포함하며, 상기 변환기를 통해 추출된 상기 특징 데이터를 상기 출력층의 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성되는 경합 학습 뉴럴 네트워크
    를 포함하며,
    상기 신호 식별 장치용 학습 데이터 세트 선택 방법은,
    상기 신호 식별 장치에 추가로 포함되며, 각각이 상기 측정 신호로부터 특징 데이터를 추출하는데 사용되는 상이한 연산 타입으로부터 최적의 연산 타입을 선택하고, 또한 상기 상이한 연산 타입에 사용되고, 각각이 상이한 파라미터 조합으로 이루어지는 상이한 파라미터 세트 중, 상기 선택된 연산 타입에 사용되는 파라미터 세트로부터 최적의 파라미터 조합을 선택하기 위한 셀렉터에 의해 처리되는 방법으로서,
    (A) 상기 상이한 연산 타입으로부터 차례로 연산 타입을 선택하는 스텝;
    (B) 상기 선택된 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 경우의 카테고리 분류의 정확도를, 상기 선택된 연산 타입과 상기 파라미터 조합에 기초하여 추정하는 스텝; 및
    (C) 상기 스텝 (A) 및 상기 스텝 (B)의 결과에 기초하여 상기 최적의 연산 타입 및 상기 연산 타입용의 파라미터 조합을 선택하는 스텝
    을 포함하며,
    상기 스텝 (B)는 상기 파라미터 조합의 각각에 대하여 실행되는 단계 (a)를 포함하고,
    상기 단계 (a)는,
    (i) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하는 단계;
    (ii) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하는 단계; 및
    (iii) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하는 단계
    를 포함하며,
    상기 스텝 (C)는, 상기 스텝 (A) 및 상기 스텝 (B)를 통해 얻어지는 각각의 정확도 중 가장 높은 정확도에 대응하는 연산 타입 및 파라미터 조합을 선택함으로써, 상기 최적의 연산 타입 및 상기 연산 타입용의 파라미터 조합을 선택하는 단계를 포함하는,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  8. 제6항에 있어서,
    상기 단계 (iii)에서의 정확도는, 상기 2차원 화상의 모든 요소에 대응하는 카테고리 에어리어의 엔트로피를 합산하여 총계 TH를 구함으로써 추정되며,
    상기 총계 TH는,
    Figure 112009009015132-pct00002
    에 의해 제공되고, 여기서, L(i, j)는 상기 2차원 평면 상의 상기 한쪽의 축을 따르는 상기 2차원 화상의 제i 번째의 영역에서의 제j 번째의 카테고리 에어리어의 길이이며, np는 상기 정확도 추정용 데이터 세트의 모든 요소의 수이며, m은 제i 번째의 영역에서의 모든 카테고리 에어리어의 수이며, n은 상기 한쪽의 축을 따르는 상기 2차원 화상의 모든 영역의 수인,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  9. 제7항에 있어서,
    상기 단계 (iii)에서의 정확도는, 상기 2차원 화상의 모든 요소에 대응하는 카테고리 에어리어의 엔트로피를 합산하여 총계 TH를 구함으로써 추정되며,
    상기 총계 TH는,
    Figure 112009009015132-pct00003
    에 의해 제공되고, 여기서, L(i, j)는 상기 2차원 평면 상의 상기 한쪽의 축을 따르는 상기 2차원 화상의 제i 번째의 영역에서의 제j 번째의 카테고리 에어리어의 길이이며, np는 상기 정확도 추정용 데이터 세트의 모든 요소의 수이며, m은 제i 번째의 영역에서의 모든 카테고리 에어리어의 수이며, n은 상기 한쪽의 축을 따르는 상기 2차원 화상의 모든 영역의 수인,
    신호 식별 장치용 학습 데이터 세트 선택 방법.
  10. 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치에 있어서,
    측정 신호로부터 파라미터를 포함하는 특징 데이터를 추출하기 위한 변환기; 및
    상기 변환기를 통해 추출된 상기 특징 데이터의 파라미터에 1대1로 대응하는 입력 뉴런(input neuron)을 갖는 입력층과, 출력 뉴런을 갖고, 상기 출력 뉴런의 각각이 학습 데이터 세트에 기초하여 가중치 벡터를 통해 상기 입력층의 모든 입력 뉴런에 결합되어 카테고리의 어느 것인가에 관련되는 출력층을 포함하며, 상기 변환기를 통해 추출된 상기 특징 데이터를 상기 출력층의 어느 하나의 출력 뉴런에 관련시켜 상기 카테고리의 어느 것인가로 분류하도록 구성되는 경합 학습 뉴럴 네트워크
    를 포함하며,
    상기 신호 식별 장치는, 각각이 상기 측정 신호로부터 특징 데이터를 추출하는데 사용되는 상이한 연산 타입에 사용되고, 각각이 상이한 파라미터 조합으로 이루어지는 상이한 파라미터 세트 중, 미리 선택된 연산 타입에 사용되는 파라미터 세트로부터, 최적의 파라미터 조합을 선택하기 위한 셀렉터를 더 포함하며,
    상기 셀렉터는,
    (A) 상기 연산 타입에 사용되는 파라미터 세트의 상이한 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도를, 상기 연산 타입과 상기 파라미터 조합에 기초하여 추정하고,
    (B) 상기 파라미터 조합의 각각의 경우의 카테고리 분류의 정확도에 기초하여 상기 최적의 파라미터 조합을 선택하도록 구성되며,
    상기 카테고리 분류의 정확도를 추정할 때에는, 상기 셀렉터는,
    (a) 해당 연산 타입 및 해당 파라미터 조합에 기초하여 각각의 측정 신호로부터 상기 카테고리 중의 어느 하나의 카테고리에 할당되는 각각의 특징 데이터를 추출하여, 정확도 추정용 데이터 세트를 생성하고,
    (b) 상기 정확도 추정용 데이터 세트의 각각의 파라미터에 대응하는 카테고리를, 파라미터의 순번 및 값에 따라 각각 2차원 평면 상의 한쪽의 축 및 다른 쪽의 축을 따라 실질적으로 배열함으로써, 2차원 화상을 생성하고,
    (c) 상기 2차원 화상의 각각의 요소에 대응하는 카테고리 에어리어에 관한 엔트로피를 산출함으로써, 해당 연산 타입 및 해당 파라미터 조합의 경우의 카테고리 분류의 정확도를 추정하도록 구성되며,
    상기 최적의 파라미터 조합을 선택할 때에는, 상기 셀렉터는, 상기 파라미터 조합의 경우에서의 각각의 정확도 중 가장 높은 정확도에 대응하는 파라미터 조합을 선택함으로써, 상기 최적의 파라미터 조합을 선택하도록 구성되는,
    학습 데이터 세트를 최적화할 수 있는 신호 식별 장치.
KR1020097002986A 2006-08-03 2007-08-02 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치 KR101075824B1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006212437A JP4875433B2 (ja) 2006-08-03 2006-08-03 信号識別装置の学習方法
JPJP-P-2006-212436 2006-08-03
JP2006212436A JP4848492B2 (ja) 2006-08-03 2006-08-03 信号識別方法及び信号識別装置
JPJP-P-2006-212437 2006-08-03
JPJP-P-2006-232575 2006-08-29
JP2006232575A JP4760614B2 (ja) 2006-08-29 2006-08-29 信号識別装置の学習データの選択方法

Publications (2)

Publication Number Publication Date
KR20090037470A KR20090037470A (ko) 2009-04-15
KR101075824B1 true KR101075824B1 (ko) 2011-10-25

Family

ID=38997283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097002986A KR101075824B1 (ko) 2006-08-03 2007-08-02 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치

Country Status (4)

Country Link
US (1) US7831530B2 (ko)
EP (1) EP2048603A4 (ko)
KR (1) KR101075824B1 (ko)
WO (1) WO2008016109A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190118937A (ko) 2018-04-11 2019-10-21 삼성에스디에스 주식회사 하이퍼파라미터의 최적화 시스템 및 방법

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009060392A1 (en) * 2007-11-06 2009-05-14 Csir A method and apparatus for assessing the integrity of a rock mass
FR2923308A1 (fr) * 2007-11-07 2009-05-08 Infiniscale Sa Determination de valeurs de parametres physiques d'un ou plusieurs composants d'un circuit electronique ou d'un microsysteme electromecanique
EP2345984B1 (en) * 2010-01-19 2012-03-14 Honda Research Institute Europe GmbH Online learning of grounded categories using adaptive feature spaces
US9236967B1 (en) * 2012-10-05 2016-01-12 Integrated Device Technology, Inc. Methods of packet-based synchronization in non-stationary network environments
US20150100365A1 (en) * 2013-10-07 2015-04-09 Elemica, Inc. Constraint optimization method and system for supply chain management
JP6223889B2 (ja) * 2014-03-31 2017-11-01 株式会社東芝 パターン発見装置、およびプログラム
WO2016054441A1 (en) * 2014-10-01 2016-04-07 Thalchemy Corporation Efficient and scalable systems for calculating neural network connectivity in an event-driven way
JP6585654B2 (ja) * 2017-05-01 2019-10-02 日本電信電話株式会社 判定装置、分析システム、判定方法および判定プログラム
JP7047386B2 (ja) 2018-01-10 2022-04-05 セイコーエプソン株式会社 異常を警告する方法および異常警告システム
JP7142530B2 (ja) * 2018-10-12 2022-09-27 株式会社かんでんエンジニアリング 情報処理システム、情報処理方法、およびプログラム
US10810726B2 (en) 2019-01-30 2020-10-20 Walmart Apollo, Llc Systems and methods for detecting content in images using neural network architectures
US10922584B2 (en) 2019-01-30 2021-02-16 Walmart Apollo, Llc Systems, methods, and techniques for training neural networks and utilizing the neural networks to detect non-compliant content
US11758069B2 (en) 2020-01-27 2023-09-12 Walmart Apollo, Llc Systems and methods for identifying non-compliant images using neural network architectures

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072659A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 信号識別方法および信号識別装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0492955A (ja) * 1990-08-06 1992-03-25 Nippon Telegr & Teleph Corp <Ntt> ニューラルネットワークの学習方式
US7251637B1 (en) * 1993-09-20 2007-07-31 Fair Isaac Corporation Context vector generation and retrieval
US5621815A (en) * 1994-09-23 1997-04-15 The Research Foundation Of State University Of New York Global threshold method and apparatus
JPH0934861A (ja) * 1995-07-17 1997-02-07 Olympus Optical Co Ltd クラスタ分類装置
US5966688A (en) * 1997-10-28 1999-10-12 Hughes Electronics Corporation Speech mode based multi-stage vector quantizer
US6863436B2 (en) * 2001-12-19 2005-03-08 Eta Sa Fabriques D'ebauches Watch including a casing ring for a movement mounted in a case assembled via the bezel or via the back cover
JP3946562B2 (ja) * 2002-04-08 2007-07-18 本田技研工業株式会社 行動制御装置及び方法
JP4092955B2 (ja) 2002-06-04 2008-05-28 ソニー株式会社 映像信号処理装置および方法
JP3778177B2 (ja) 2003-05-27 2006-05-24 松下電工株式会社 物体検査装置
US7362892B2 (en) * 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
JP2005115569A (ja) 2003-10-06 2005-04-28 Matsushita Electric Works Ltd 信号識別装置および信号識別方法
DK1691572T3 (da) * 2005-02-09 2019-10-21 Oticon As Fremgangsmåde og system til at træne et høreapparat ved anvendelse af en selvorganiserende kortlægning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072659A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Works Ltd 信号識別方法および信号識別装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190118937A (ko) 2018-04-11 2019-10-21 삼성에스디에스 주식회사 하이퍼파라미터의 최적화 시스템 및 방법

Also Published As

Publication number Publication date
KR20090037470A (ko) 2009-04-15
US7831530B2 (en) 2010-11-09
WO2008016109A1 (fr) 2008-02-07
EP2048603A4 (en) 2012-04-25
US20090240641A1 (en) 2009-09-24
EP2048603A1 (en) 2009-04-15

Similar Documents

Publication Publication Date Title
KR101075824B1 (ko) 신호 식별 장치용 학습 데이터 세트 최적화 방법 및 학습 데이터 세트를 최적화할 수 있는 신호 식별 장치
CN112232476B (zh) 更新测试样本集的方法及装置
CN109297974A (zh) 信息处理装置
CN111931983B (zh) 一种降水量预测方法及系统
CN109886337B (zh) 基于自适应采样的深度度量学习方法及系统
CN112818893A (zh) 一种面向移动终端的轻量化开集地标识别方法
CN115343676B (zh) 密封电子设备内部多余物定位技术的特征优化方法
WO2019176989A1 (ja) 検査システム、識別システム、及び学習データ生成装置
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN115545086B (zh) 一种可迁移的特征自动选取声学诊断方法及系统
CN101501711A (zh) 用于信号识别装置的学习数据集的优化方法以及能够优化学习数据集的信号识别装置
EP1416438A2 (en) A method for performing an empirical test for the presence of bi-modal data
CN113487600A (zh) 一种特征增强尺度自适应感知船舶检测方法
JP4760614B2 (ja) 信号識別装置の学習データの選択方法
CN114037001A (zh) 基于wgan-gp-c和度量学习的机械泵小样本故障诊断方法
CN112802011A (zh) 一种基于vgg-bls的风机叶片缺陷检测方法
CN116029221B (zh) 一种电力设备故障诊断方法、装置、设备及介质
CN107203916B (zh) 一种用户信用模型建立方法及装置
CN116258899A (zh) 一种基于自定义轻量型卷积神经网络玉米种穗分类方法
CN115375925A (zh) 一种基于相位信息和深度学习的水下声呐图像匹配算法
CN114299421A (zh) 检测螺栓松动的方法、卷积神经网络、训练方法及系统
JPH08320296A (ja) 電子部品の余寿命推定方法及び装置
CN115294009A (zh) 一种基于机器学习检测电池极耳焊接缺陷的方法、设备及存储介质
CN113449631A (zh) 图像分类方法及系统
CN111967616A (zh) 自动时间序列回归方法和装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee