KR102065801B1 - 데이터 처리 장치, 데이터 처리 방법, 및 프로그램 - Google Patents

데이터 처리 장치, 데이터 처리 방법, 및 프로그램 Download PDF

Info

Publication number
KR102065801B1
KR102065801B1 KR1020147026147A KR20147026147A KR102065801B1 KR 102065801 B1 KR102065801 B1 KR 102065801B1 KR 1020147026147 A KR1020147026147 A KR 1020147026147A KR 20147026147 A KR20147026147 A KR 20147026147A KR 102065801 B1 KR102065801 B1 KR 102065801B1
Authority
KR
South Korea
Prior art keywords
state
waveform
factor
probability
fhmm
Prior art date
Application number
KR1020147026147A
Other languages
English (en)
Other versions
KR20140147088A (ko
Inventor
마사토 이토
코타로 사베
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012079580A external-priority patent/JP6056172B2/ja
Priority claimed from JP2012079579A external-priority patent/JP6020880B2/ja
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140147088A publication Critical patent/KR20140147088A/ko
Application granted granted Critical
Publication of KR102065801B1 publication Critical patent/KR102065801B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D2204/00Indexing scheme relating to details of tariff-metering apparatus
    • G01D2204/20Monitoring; Controlling
    • G01D2204/24Identification of individual loads, e.g. by analysing current/voltage waveforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D4/00Tariff metering apparatus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R21/00Arrangements for measuring electric power or power factor
    • G01R21/133Arrangements for measuring electric power or power factor by using digital technique
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S20/00Management or operation of end-user stationary applications or the last stages of power distribution; Controlling, monitoring or operating thereof
    • Y04S20/30Smart metering, e.g. specially adapted for remote reading

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Operations Research (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Public Health (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Primary Health Care (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Water Supply & Treatment (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

확률론적 동적 모델(stochastic dynamics model)로 시계열 신호를 모델링하기 위한 파라미터를 추정하기 위한 장치, 방법 및 프로그램이 개시된다. 2개 이상의 시계열 신호의 혼합 신호를 나타내는 데이터를 얻기 위한 방법은 확률론적 동적 모델로 시계열 신호를 모델링하기 위한 파라미터를 추정하는 단계를 포함한다. 본 기술은, 데이터 처리 장치, 데이터 처리 방법, 및 프로그램에 관한 것이다.

Description

데이터 처리 장치, 데이터 처리 방법, 및 프로그램{DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM}
<관련 출원>
본 출원은, 2012년 3월 30일 일본 특허청에 출원된 일본 우선권 특허출원 JP 2012-079579와, 2012년 3월 30일 일본 특허청에 출원된 일본 우선권 특허 출원 JP 2012-079580의 우선권 이익을 주장하며, 참조로 그 전체가 본 명세서에 원용된다.
본 발명은, 데이터 처리 장치, 데이터 처리 방법, 및 프로그램에 관한 것으로, 특히, 예를 들어, 가정 내의 복수의 전기 기기 각각의 전력 소비 등을 용이하고 정확하게 얻을 수 있는 데이터 처리 장치, 데이터 처리 방법, 및 프로그램에 관한 것이다.
예를 들어, 가정 내 등의 가전 기기(가정용 전기 기기) 등의 전기 기기들 각각의 전력 소비나 소비 전류를, 가정 내의 사용자에게 제시하고 소비 전력 등의 이른바 "시각화"를 실현하는 방법으로서, 예를 들어, 각 콘센트(outlet)에 스마트 탭을 설치하는 방법이 있다.
스마트 탭은, 그 스마트 탭이 설치된 (가전 기기가 접속되는) 콘센트에 의해 소비되는 전력을 측정하기 위한 계측 기능과 외부 장치와의 통신 기능을 가진다.
스마트 탭에서, 계측 기능으로 측정된 전력(소비)은 통신 기능에 의해 디스플레이 등에 전송되고, 디스플레이에서는, 스마트 탭으로부터의 전력 소비가 표시됨으로써, 각 가전 기기의 전력 소비의 "시각화"를 실현한다.
그러나, 가정 내의 모든 콘센트에 스마트 탭을 설치하는 것은 비용면에서 용이하지 않다.
또한, 소위 빌트인 에어콘 등의, 가택 내에 고정 비치된 가전 기기는, 일부 경우에는 콘센트를 이용하지 않고 전력선에 직접 접속될 수 있어서, 이러한 가전 기기에 대해서는 스마트 탭을 이용하는 것은 어렵다.
따라서, 예를 들어, 가정 등에서, 배전반(분전반)에서 측정된 전류에 관한 정보로부터, 미리 접속된 가정 내의 각각의 가전 기기의 전력 소비 등을 요구하는 NILM(Non-Intrusive Load Monitoring)이라 불리는 기술이 주목받고 있다.
NILM에서는, 예를 들어, 소정 장소에서 측정된 전류를 이용하여, 그로부터 먼저 접속된 각각의 가전 기기(부하)의 소비 전력이 개별 계측없이 얻어진다.
예를 들어, 특허 문헌 1(PTL 1)은, 소정 장소로부터 측정된 전류 및 전압으로부터 유효 전력 및 무효 전력이 계산되고, 각각의 변화량을 클러스터링함으로써 가전 기기가 식별되는 NILM 기술을 개시하고 있다.
특허 문헌 1(PTL 1)에 개시된 기술에서, 가전 기기가 온 및 오프될 때 유효 전력 및 무효 전력에서의 변화가 이용되기 때문에, 유효 전력 및 무효 전력의 변화점이 검출된다. 이 때문에, 변화점의 검출이 실패하면, 가전 기기를 정확하게 식별하는 것이 어렵다.
또한, 최근의 가전 기기에서는, 동작 상태를 온과 오프의 2개 상태로 표현하는 것이 어렵고, 온 상태와 오프 상태에서의 유효 전력 및 무효 전력의 변화를 이용하는 것만으로는, 가전 기기를 정확하게 식별하는 것이 어렵다.
따라서, 예를 들어, 특허 문헌 2 및 3(PTL 2 및 PTL 3)은, SVM(Support Vector Machine) 등의 LMC(Large Margin Classifier)가 가전 기기의 식별 모델(판별 모델, 분류)로서 이용되는 NILM의 기술을 개시하고 있다.
그러나, 식별 모델을 이용한 NILM에서는, HMM(Hidden Markov Model) 등의 생성 모델과는 달리, 각각의 가전 기기에 대해 기존의 학습 데이터가 준비되고, 그 학습 데이터를 이용한 식별 모델의 학습이 사전에 완료될 것이 요구된다.
이 때문에, 식별 모델을 이용한 NILM에서는, 기존의 학습 데이터를 이용해 식별 모델의 학습을 수행하지 않은 가전 기기를 처리하는 것은 어렵다.
따라서, 예를 들어, 비특허 문헌(NPL) 1 및 2는, 기존의 학습 데이터를 이용해 사전에 학습할 것이 요구되는 식별 모델 대신에 생성 모델인 HMM이 이용되는 NILM의 기술을 개시하고 있다.
미국 특허 제4858141호의 명세서 일본 미심사 특허 출원 공보 제2001330630호 국제 공보 브로슈어 WO01/077696
Bons M., Deville Y., Schang D. 1994. Non-intrusive electrical load monitoring using Hidden Markov Models. Third international Energy Efficiency and DSM Conference, October 31, Vancouver, Canada., p. 7. Hisahide NAKAMURA, Koichi ITO, Tatsuya SUZUKI, "Load Monitoring System of Electric Appliances Based on Hidden Markov Model", IEEJ Transactions B, Vol. 126, No. 12, pp. 12231229, 2006
그러나, 단순한 HMM을 이용한 NILM에서, 가전 기기의 수가 증가한다면, HMM의 상태 수는 방대해지므로, 그 구현이 어렵다.
구체적으로는, 예를 들어, 각각의 가전 기기의 동작 상태가 온과 오프의 2 상태인 경우에는, M개의 가전 기기의 동작 상태(의 조합)를 표현하는데 필요한 HMM 상태 수는 2M개이고, 상태의 천이 확률의 수는, 상태 수의 제곱인 (2M)2이다.
따라서, 가정 내의 가전 기기의 수 M이, 최근에는 많다고 말할 수 없지만, 예를 들어, 20이라고 해도, HMM 상태 수는 220 =1,048,576개이고, 천이 확률의 수는 이 상태 수의 제곱에 대응하는 1,099,511,627,776개이고, 이것은 테라급으로 한층 더 방대하다.
현재, 동작 상태가 온과 오프의 2 상태만이 아닌 가전 기기, 즉, 예를 들어 모드나 설정 등에 따라 전력(전류) 소비가 변동하는 에어콘 등의 가전 기기(변동 부하 가전 기기)와 같은 각각의 전기 기기의 전력 소비 등을 용이하게 정확하게 얻을 수 있는 NILM의 기술의 제안에 대한 요구가 있다.
본 기술은 이러한 상황을 고려하여 이루어진 것이고 각각의 전기 기기의 소비 전력을 용이하고 정확하게 얻을 수 있게 한다.
본 발명의 양태에 따르면, 전기 장치의 전류 소비를 추정하기 위한 방법이 제공되고, 이 방법은: 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻는 단계; FHMM(Factorial Hidden Markov Model)으로 상기 데이터를 처리하여 상기 제1 전기 장치의 전기 신호의 추정치를 생성하는 단계; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하는 단계를 포함하고, 상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터(factor)를 갖고, 상기 팩터는 3개 이상의 상태를 갖는다.
일부 실시예에서, 상기 팩터의 3개 이상의 상태는 상기 제1 전기 장치의 3개 이상의 각각의 동작 상태에서 상기 제1 전기 장치의 3개 이상의 각각의 전기 신호에 대응한다.
일부 실시예에서, 이 방법은, FHMM을 제약하되 동시에 상태 천이를 겪는 FHMM의 팩터수가 임계치보다 작도록 제약하는 단계를 더 포함한다.
본 발명의 또 다른 양태에 따르면, 감시 장치가 제공되고, 이 장치는: 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻기 위한 데이터 취득 유닛; FHMM(Factorial Hidden Markov Model) ―상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터를 갖고, 상기 팩터는 3개 이상의 상태를 가짐―으로 상기 데이터를 처리하여 상기 제1 전기 장치의 동작 상태의 추정치를 생성하기 위한 상태 추정 유닛; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하기 위한 데이터 출력 유닛을 포함하고, 상기 전기 신호의 추정치는 적어도 부분적으로 상기 제1 전기 장치의 동작 상태의 추정치에 기초한다.
본 발명의 또 다른 양태에 따르면, 감시 장치가 제공되고, 이 장치는: 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻기 위한 데이터 취득 유닛; FHMM(Factorial Hidden Markov Model) ―상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터를 갖고, 상기 팩터는 3개 이상의 상태를 가짐―으로 상기 데이터를 처리하여 상기 제1 전기 장치의 동작 상태의 추정치를 생성하기 위한 상태 추정 유닛; 상기 FHMM의 하나 이상의 파라미터를 갱신 ―상기 FHMM의 하나 이상의 파라미터를 갱신하는 것은 제약된 파형 분리 학습을 수행하는 것을 포함함― 하기 위한 모델 학습 유닛; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하기 위한 데이터 출력 유닛을 포함하고, 상기 전기 신호의 추정치는 적어도 부분적으로 상기 제1 전기 장치의 동작 상태의 추정치에 기초한다.
본 기술의 양태에 따르면, 전기 기기들 각각의 전력 소비를 용이하고 정확하게 얻는 것이 가능하다.
도 1은 본 기술의 데이터 처리 장치가 적용되는 감시 시스템의 실시예의 개요를 나타내는 도면이다.
도 2는 가전 기기 분리에서 수행되는 파형 분리 학습의 개요를 나타내는 도면이다.
도 3은 본 기술이 적용되는 감시 시스템의 제1 실시예의 구성예를 나타내는 블록도이다.
도 4는 FHMM을 나타내는 도면이다.
도 5는 FHMM을 이용한 가전 기기 분리의 공식화의 개요를 나타내는 도면이다.
도 6은 감시 시스템에 의해 수행되는 EM 알고리즘에 따른 FHMM의 학습의 처리(학습 처리)를 나타내는 흐름도이다.
도 7은 감시 시스템에 의해 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
도 8은 FHMM의 순방향 확률 ALPHAt ,z와 역방향 확률 BETAt ,z 사이, 및 HMM의 순방향 확률 ALPHAt ,i와 역방향 확률 BETAt ,j 사이의 관계를 나타내는 도면이다.
도 9는 감시 시스템에 의해 단계 S14에서 수행되는 M 단계의 처리를 나타내는 흐름도이다.
도 10은 감시 시스템에 의해 수행되는 가전 기기 #m 상에 정보를 제시하는 정보 제시 처리를 나타내는 흐름도이다.
도 11은 정보 제시 처리에서 수행되는 전력 소비 U(m)의 표시예를 나타내는 도면이다.
도 12는 본 기술이 적용되는 감시 시스템의 제2 실시예의 구성예를 나타내는 블록도이다.
도 13은 감시 시스템에 의해 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
도 14는 감시 시스템에 의해 단계 S14에서 수행되는 M 단계의 처리를 나타내는 흐름도이다.
도 15는 본 기술이 적용되는 감시 시스템의 제3 실시예의 구성예를 나타내는 블록도이다.
도 16은 FHMM의 상태들의 조합 z에 파티클 필터(particle filter)를 적용함으로써 순방향 확률 ALPHAt,p를 얻는 방법을 나타내는 도면이다.
도 17은 FHMM의 상태들의 조합 z에 파티클 필터를 적용함으로써 역방향 확률 BETAt,p를 얻는 방법을 나타내는 도면이다.
도 18은 FHMM의 상태들의 조합 z에 파티클 필터를 적용함으로써 사후 확률 GAMMAt,p를 얻는 방법을 나타내는 도면이다.
도 19는 감시 시스템에 의해 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
도 20은 감시 시스템에 의해 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
도 21은 본 기술이 적용되는 감시 시스템의 제4 실시예의 구성예를 나타내는 블록도이다.
도 22는 부하 제약을 부과하는 감시 시스템에 의해 수행되는 단계 S14의 M 단계의 처리를 나타내는 흐름도이다.
도 23은 부하 제약을 나타내는 도면이다.
도 24는 기저 파형 제약을 나타내는 도면이다.
도 25는 기저 파형 제약을 부과하는 감시 시스템에 의해 수행되는 단계 S14의 M 단계의 처리를 나타내는 흐름도이다.
도 26은 본 기술이 적용되는 감시 시스템의 제5 실시예의 구성예를 나타내는 블록도이다.
도 27은 FHMM의 학습을 수행하는 감시 시스템에 의한 화자 분리(talker separation)의 개요를 나타내는 도면이다.
도 28은 본 기술이 적용되는 감시 시스템의 제6 실시예의 구성예를 나타내는 블록도이다.
도 29는 감시 시스템에 의해 수행되는 모델 학습의 처리(학습 처리)를 나타내는 흐름도이다.
도 30은 본 기술이 적용되는 컴퓨터의 실시예의 구성예를 나타내는 블록도이다.
<본 기술의 개요>
도 1은 본 기술의 데이터 처리 장치가 적용되는 감시 시스템의 실시예의 개요를 나타내는 도면이다. 일부 실시예에서, 감시 시스템은 스마트 계기라고 부를 수 있다.
각 가정에서, 전력 회사로부터 제공되는 전력은 배전반(분전반)으로 유입되고 가정의(콘센트에 접속된) 가전 기기 등의 전기 기기에 공급된다.
본 기술이 적용되는 감시 시스템은, 배전반, 즉, 가정에 전력을 공급하는 소스 등의 위치에서 가정 내의 하나 이상의 가전 기기에 의해 소비되는 전류의 총계를 측정하고, 그 전류(전류 파형)의 일련의 총계로부터, 가정 내의, 예를 들어, 에어콘이나 청소기 등의 개개의 가전 기기에 의해 소비되는 전력(전류)이 분리되는 가전 기기 분리를 수행한다.
또한, 감시 시스템에 입력되는 입력 데이터로서, 각각의 가전 기기에 의해 소비되는 전류의 총계 외에도, 각각의 가전 기기에 의해 소비되는 전류의 총계에 관한 총계 데이터가 채용될 수 있다.
총계 데이터로서, 가산될 수 있는 값들의 총계가 채용될 수 있다. 구체적으로는, 총계 데이터로서, 각각의 가전 기기에 의해 소비되는 전류 자체의 총계 외에도, 예를 들어, 각각의 가전 기기에 의해 소비되는 전력의 총계나, 각각의 가전 기기에 의해 소비되는 전류의 파형에 대해 FFT(Fast Fourier Transform)를 수행하여 얻어지는 주파수 성분의 총계가 채용될 수 있다.
또한, 가전 기기 분리에서는, 총계 데이터로부터, 개개의 가전으로 소비되는 전력 외에도, 각각의 가전 기기에 의해 소비되는 전류에 관한 정보가 분리될 수 있다. 구체적으로는, 가전 분리에서는, 총계 데이터로부터, 각각의 가전 기기에 의해 소비되는 전류나 그 주파수 성분이 분리될 수 있다.
이하의 설명에서는, 총계 데이터로서, 예를 들어, 각각의 가전 기기에 의해 소비되는 전류의 총계가 채용되며, 예를 들어, 각각의 가전 기기에 의해 소비되는 전류의 파형은 총계 데이터인 전류의 총계의 파형으로부터 분리된다.
도 2는 가전 기기 분리를 수행하는 파형 분리 학습의 개요를 나타내는 도면이다.
파형 분리 학습에서, 시점 t에서의 총계 데이터인 전류 파형 Yt는, 각각의 가전 기기 #m에 의해 소비되는 전류의 전류 파형 W(m)의 가산치(총계)로서 설정되고, 각각의 가전 기기 #m에 의해 소비되는 전류 파형 W(m)은 전류 파형 Yt로부터 얻어진다.
도 2에서, 가정 내에는 5개의 가전 기기 #1 내지 #5가 있고, 그 5개의 가전 기기 #1 내지 #5 중에서, 가전 기기 #1, #2, #4, 및 #5는 온 상태(전력을 소비하는 상태)에 있고, 가전 #3은 오프 상태(전력을 소비하지 않는 상태)에 있다.
그 때문에, 도 2에서는, 총계 데이터로서의 전류 파형 Yt는, 가전 기기 #1, #2, #4, 및 #5 각각의 전류 소비 W(1), W(2), W(4), 및 W(5)의 가산치(총계)가 된다.
<본 기술이 적용되는 감시 시스템의 제1 실시예>
도 3은 본 기술이 적용되는 감시 시스템의 제1 실시예의 구성예를 나타내는 블록도이다.
도 3에서, 감시 시스템은, 데이터 취득 유닛(11), 상태 추정 유닛(12), 모델 기억 유닛(13), 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)을 포함한다.
데이터 취득 유닛(11)은 총계 데이터로서의 전류 파형 Y의 시계열(전류 시계열), 및 그 전류 파형 Y에 대응하는 전압의 파형(전압 파형) V의 시계열(전압 시계열)을 취득하여, 상태 추정 유닛(12), 모델 학습 유닛(14), 및 데이터 출력 유닛(16)에 공급한다.
즉, 데이터 취득 유닛(11)은, 예를 들어, 전류와 전압을 측정하는 계측 장치(센서)에 의해 구성된다.
데이터 취득 유닛(11)은, 예를 들어, 배전반 등에서, 감시 시스템이 설치되어 있는 가정 내의 각각의 가전 기기에 의해 소비되는 전류의 총계로서의 전류 파형 Y를 측정하고 대응하는 전압 파형 V를 측정해, 상태 추정 유닛(12), 모델 학습 유닛(14), 및 데이터 출력 유닛(16)에 공급한다.
상태 추정 유닛(12)은, 데이터 취득 유닛(11)으로부터의 전류 파형 Y와 모델 기억 유닛(13)에 기억된, 감시 시스템이 설치되어 있는 가정 내의 가전 기기 전체의 모델인 전체 모델(그의 모델 파라미터) Φ를 이용해, 각각의 가전 기기의 동작 상태를 추정하기 위한 상태 추정을 수행한다. 또한, 상태 추정 유닛(12)은 상태 추정의 추정 결과인 각각의 가전 기기의 동작 상태 Γ를, 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 공급한다.
즉, 도 3에서, 상태 추정 유닛(12)은, 평가부(21) 및 추정부(22)를 가진다.
평가부(21)는, 모델 기억 유닛(13)에 기억된 전체 모델 Φ를 형성하는 복수의 가전 기기 모델 #1 내지 #M 상태들의 각각의 조합에서 데이터 취득 유닛(11)으로부터 (상태 추정 유닛(12)에) 공급되는 전류 파형 Y가 관측되는 평가치 E를 얻어 추정부(22)에 공급한다.
추정부(22)는 평가부(21)로부터 공급되는 평가치 E를 이용해 모델 기억 유닛(13)에 기억된 전체 모델 Φ를 형성하는 복수의 가전 기기 모델 #1 내지 #M 각각의 상태, 즉, 가전 기기 모델 #m에 의해 표시되는 가전 기기(가전 모델 #m에 의해 모델화된 가전 기기)의 동작 상태 Γ를 추정해, 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 공급한다.
모델 기억 유닛(13)은 복수의 전체의 모델인 전체 모델(모델 파라미터) Φ를 기억한다.
전체 모델 Φ는, 복수의 가전 기기의 (전류 소비를 표현하는) M개 모델인 가전 모델 #1 내지 #M을 포함한다.
전체 모델의 파라미터 Φ는, 가전 기기 모델 #m에 의해 표시되는 가전 기기의 각각의 동작 상태에 대한 전류 소비를 나타내는 전류 파형 파라미터를 포함한다.
전체 모델의 파라미터 Φ는, 예를 들어, 가전 기기 모델 #m에 의해 표시된 가전 기기의 동작 상태의 천이(변동)를 나타내는 상태 변동 파라미터, 가전 기기 모델 #m에 의해 표시된 가전 기기의 동작 상태의 초기 상태를 나타내는 초기 상태 파라미터, 및 전체 모델에서 관측(생성)되는 전류 파형 Y의 관측치의 분산(variance)에 관한 분산 파라미터를 포함할 수 있다.
모델 기억 유닛(13)에 기억된 전체 모델의 모델 파라미터 Φ는, 상태 추정 유닛(12)의 평가부(21)와 추정부(22), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 의해 참조되어, 후술되는 모델 학습 유닛(14)의 파형 분리 학습부(31), 분산 학습부(32), 및 상태 변동 학습부(33)에 의해 갱신된다.
모델 학습 유닛(14)은, 데이터 취득 유닛(11)으로부터 공급되는 전류 파형 Y와 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 상태 추정의 추정 결과(각각의 가전 기기의 동작 상태) Γ를 이용해, 모델 기억 유닛(13)에 기억된 전체 모델의 모델 파라미터 Φ를 갱신하기 위한 모델 학습을 수행한다.
즉, 도 3에서, 모델 학습 유닛(14)은, 파형 분리 학습부(31), 분산 학습부(32), 및 상태 변동 학습부(33)를 포함한다.
파형 분리 학습부(31)는, 데이터 취득 유닛(11)으로부터 (모델 학습 유닛(14)에) 공급되는 전류 파형 Y와 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 각각의 가전 기기의 동작 상태 Γ를 이용해, 모델 파라미터 Φ인 전류 파형 파라미터를 얻기(갱신하기) 위한 파형 분리 학습을 수행하고, 모델 기억 유닛(13)에 기억된 전류 파형 파라미터를 파형 분리 학습에 의해 얻어진 전류 파형 파라미터로 갱신한다.
분산 학습 유닛(32)은, 데이터 취득 유닛(11)으로부터 (모델 학습 유닛(14)에) 공급되는 전류 파형 Y와 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 각각의 가전 기기의 동작 상태 Γ를 이용해, 모델 파라미터 Φ인 분산 파라미터를 얻기(갱신하기) 위한 분산 학습을 수행하고, 모델 기억 유닛(13)에 기억된 분산 파라미터를 분산 학습에 의해 얻어진 분산 파라미터로 갱신한다.
상태 변동 학습부(33)는, 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 각각의 가전 기기의 동작 상태 Γ를 이용해, 모델 파라미터 Φ인 초기 상태 파라미터 및 상태 변동 파라미터를 얻기(갱신하기) 위한 상태 변동 학습을 수행하고, 모델 기억 유닛(13)에 기억된 초기 상태 파라미터 및 상태 변동 파라미터를 분산 학습에 의해 얻어진 초기 상태 파라미터 및 상태 변동 파라미터로 갱신한다.
라벨 취득 유닛(15)은, 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 각각의 가전 기기의 동작 상태 Γ, 모델 기억 유닛(13)에 기억된 전체 모델 Φ, 및 데이터 출력 유닛(16)에 의해 얻어지는, 각각의 가전 기기 모델 #m의 가전 기기의 전력 소비 U(m)를, 필요에 따라서 이용해, 각각의 가전 기기 모델 #m에 의해 표시되는 가전 기기를 식별하기 위한 가전 기기 라벨 L(m)을 취득하여, 데이터 출력 유닛(16)에 공급한다.
데이터 출력 유닛(16)은, 데이터 취득 유닛(11)으로부터 공급되는 전압 파형 V, 상태 추정 유닛(12)(의 추정부(22))으로부터 공급되는 각각의 가전 기기의 동작 상태 Γ, 및 모델 기억 유닛(13)에 기억된 전체 모델을 이용해, 각각의 가전 기기 모델 #m에 의해 표시되는 가전 기기의 전력 소비 U(m)을 얻어 (도시되지 않은) 디스플레이에 표시하고 사용자에게 제시한다.
또한, 데이터 출력 유닛(16)에서, 각각의 가전 기기 모델 #m에 의해 표시되는 가전 기기의 전력 소비 U(m)은, 라벨 취득 유닛(15)으로부터 공급되는 가전 기기 라벨 L(m)과 함께 사용자에게 제시될 수 있다.
전술된 방식으로 구성된 감시 시스템에서, 모델 기억 유닛(13)에 기억되는 전체 모델로서, 예를 들어, FHMM(Factorial Hidden Markov Model)이 채용될 수 있다.
도 4는 FHMM을 나타내는 도면이다.
즉, 도 4의 A는 통상의 HMM의 그래픽 모델을 도시하고, 도 4의 B는 FHMM의 그래픽 모델을 도시한다.
통상의 HMM에서는, 시점 t에서, 그 시점 t에 있는 한 개의 상태 St에서 한 개의 관측치 Yt가 관측된다.
한편, FHMM에서는, 시점 t에서, 그 시점 t에 있는 복수의 상태S(1) t,S(2) t, ..., S(M) t의 조합에서, 한 개의 관측치 Yt가 관측된다.
FHMM은, Zoubin Ghahramani 등이 제안한 확률 생성 모델이며, 그 상세사항은, 예를 들어, Zoubin Ghahramani, and Michael I. Jordan, Factorial Hidden Markov Models', Machine Learning Volume 29, Issue 2-3, Nov./Dec. 1997(이하에서는 문헌 A라고 함)에 개시되어 있다.
도 5는 FHMM을 이용한 가전 기기 분리의 공식화의 개요를 나타내는 도면이다.
여기서, FHMM은 복수의 HMM을 포함한다. FHMM에 포함된 각각의 HMM은 팩터라고도 부르고, m번째의 팩터는 팩터 #m으로 표시된다.
FHMM에서, 시점 t에 있는 복수의 상태 S(1) t, S(2) t, ..., S(M) t의 조합은, 팩터 #m의 상태들의 조합이다(팩터 #1의 상태와 팩터 #2 상태와, ... , 팩터 #M 상태의 세트)이다.
도 5는 팩터의 수 M이 3인 FHMM을 도시하고 있다.
가전 기기 분리에서, 예를 들어, 한 개의 팩터는 한 개의 가전 기기에 대응한다(한 개의 팩터는 한 개의 가전 기기와 상관된다). 도 5에서, 팩터 #m은 가전 기기 #m에 대응한다.
FHMM에서, 팩터를 형성하는 상태 수는, 각 팩터에 대해 임의이고, 도 5에서는, 3개의 팩터 #1, #2, 및 #3 각각의 상태 수는 4이다.
도 5에서, 시점 t = t0에서, 팩터 #1은, 4개 상태 #11, #12, #13, 및 #14 중에서 상태 #14(굵은선 원으로 표시)에 있고, 팩터 #2는, 4개 상태 #21, #22, #23, 및 #24 중에서 상태 #21(굵은선 원으로 표시)에 있다. 또한, 시점 t = t0에서, 팩터 #3은, 4개 상태 #31, #32, #33, 및 #34 중에서 상태 #33(굵은선 원으로 표시)에 있다.
가전 기기 분리에서, 팩터 #m의 상태는, 그 팩터 #m에 대응하는 가전 기기 #m의 동작 상태에 대응한다.
예를 들어, 가전 기기 #1에 대응하는 팩터 #1에서, 상태 #11은 가전 기기 #1의 오프 상태에 대응하고, 상태 #14는 가전 #1의 소위 통상 모드의 온 상태에 대응한다. 또한, 가전 기기 #1에 대응하는 팩터 #1에서, 상태 #12는 가전 기기 #1의 소위 슬립 모드의 온 상태에 대응하고, 상태 #13은 가전 기기 #1의 소위 에너지 절약 모드의 온 상태에 대응한다.
FHMM에서, 팩터 #m의 상태 #mi에, 팩터의 각각의 상태에 대한 고유의 파형인 고유 파형 W(m) #mi가 관측(생성)된다.
도 5에서, 팩터 #1에서, 시점 t = t0에 있는 상태 #14에서 고유 파형 W(1) #14가 관측되고, 팩터 #2에서는, 시점 t = t0에 있는 상태 #21에서 고유 파형 W(2) #21이 관측된다. 또한, 팩터 #3에서, 시점 t = t0에 있는 상태 #33에서, 고유 파형 W(3) #33이 관측된다.
FHMM에서는, 각각의 팩터의 상태들에서 관측되는 고유 파형들을 합성하여 얻어지는 합성 파형이, FHMM에서 관측되는 관측치로서 생성된다.
여기서, 고유 파형의 합성으로서, 예를 들어, 고유 파형의 총계(가산)가 채용될 수 있다. 또한, 고유 파형의 합성으로서는, 예를 들어, 고유 파형의 가중치 가산이나, 고유 파형의 논리합(고유 파형의 값이 0과 1인 경우)이 채용될 수 있지만, 가전 기기 분리에서는, 고유 파형의 총계가 채용된다.
FHMM의 학습에서는, FHMM에서 각각의 시점 t=..., t0, t1,...의 총계 데이터인 전류 파형 Yt0, Yt0 +1,...이 관측되도록, FHMM의 모델 파라미터가 얻어진(갱신된다).
모델 기억 유닛(13)(도 3)에 기억되는 전체 모델 Φ로서 전술된 FHMM을 채용하는 경우, 전체 모델 Φ를 형성하는 가전 기기 모델 #m은 팩터 #m에 대응한다.
또한, FHMM의 팩터들의 수 M으로서, 가정 내에 존재하는 것으로 예상되는 가전 기기의 최대 수보다 마진으로서의 미리결정된 수만큼 큰 값이 채용된다.
또한, 전체 모델 Φ로서의 FHMM은 각각의 팩터가 3개 이상의 상태를 갖는 FHMM을 채용한다.
이것은, 팩터가 2개 상태만을 갖는 경우, 그 팩터에 대응하는 가전 기기의 동작 상태로서, 예를 들어, 오프 상태와 온 상태의 2개 상태만이 표현될 뿐이고, 모드나 설정에 따라 전력(전류) 소비가 변동하는 에어콘 등의 가전 기기(이하, 변동 부하 가전 기기라고도 함)에 관하여 정확한 전력 소비를 얻는 것이 어렵기 때문이다.
즉, 전체 모델 Φ로서의 FHMM이 각각의 팩터가 3개 이상의 상태를 갖는 FHMM을 채용한다면, 변동 부하 가전 기기에 관해 전력 소비 등을 얻는 것이 가능하다.
전체 모델 Φ로서 FHMM가 채용되는 경우, FHMM에서 관측되는 전류 파형 Yt의 계열(series)과 팩터 #m의 상태 S(m) t의 조합 St의 동시 분포 P({St, Yt})는, Markov 속성을 가정하여 수학식 (1)을 이용해 계산된다.
[수학식 1]
Figure 112014088720880-pct00001
여기서, 동시 분포 P({St, Yt})는, 시점 t에서의 팩터 #m의 상태 S(m) t의 조합(M개의 팩터들의 상태들의 조합) St에서 전류 파형 Yt가 관측되는 확률을 나타낸다.
P(S1)은, 초기 시점 t=1에서 팩터 #m의 상태 S(m) 1의 조합 S1에 있는 초기 상태 확률을 나타낸다.
P(St|St-1)은, 팩터가 시점 t-1에서 상태들의 조합 St-1에 있고 시점 t에서 상태들의 조합 St로 천이하는 천이 확률을 나타낸다.
P(Yt|St)는, 시점 t에서 상태들의 조합 St에서 전류 파형 Yt가 관측되는 관측 확률을 나타낸다.
시점 t에서의 상태들의 조합 St는, M개의 팩터 #1 내지 #M 시점 t에서의 상태들 S(1) t, S(2) t,..., S(M) t의 조합이며, 수학식 St={S(1) t, S(2) t, ..., S(M) t}로 표현된다.
또한, 가전 기기 #m의 동작 상태는 다른 가전 기기 #m'와는 독립적으로 변동한다고 가정되고, 팩터 #m의 상태 S(m) t는 다른 팩터 #m'의 상태 S(m') t와는 독립적으로 천이한다.
또, FHMM의 팩터 #m으로서의 HMM 상태들의 수 K(m)은, 다른 팩터 #m'로서의 HMM 상태들의 수 K(m')와는 독립된 수를 채용할 수 있다. 그러나, 여기서는, 설명의 간소화를 위해, 팩터 #1 내지 #M의 개수 K(1) 내지 K(M)은, 수학식 K(1)=K(2)=... =K(M)=K로 표시된 개수 K와 동일하다.
FHMM에서, 수학식 (1)의 동시 분포 P({St,Yt})의 계산에 필요한 초기 상태 확률 P(S1), 천이 확률 P(St|St -1), 및 관측 확률 P(Yt|St)는 다음과 같이 계산될 수 있다.
즉, 초기 상태 확률 P(S1)은 수학식 (2)에 따라 계산할 수가 있다.
[수학식 2]
Figure 112014088720880-pct00002
여기서, P(S(m) 1)은, 팩터 #m의 상태 S(m) 1이 초기 시점 t=1에 있는 상태(초기 상태)인 초기 상태 확률을 나타낸다.
초기 상태 확률 P(S(m) 1)은, 예를 들어, 팩터 #m의 k번째 (k=1, 2,..., K) 상태의 초기 상태 확률을 k번째 행 컴포넌트로서 갖는 K행의 열 벡터(K행 1열의 행렬)이다.
천이 확률 P(St|St-1)은 수학식 (3)에 따라 계산될 수 있다.
[수학식 3]
Figure 112014088720880-pct00003
여기서, P(S(m) t|S(m) t-1)은, 팩터 #m이 시점 t-1에서 상태 S(m) t-1에 있고 시점 t에서 상태 S(m) t로 천이하는 천이 확률을 나타낸다.
천이 확률 P(S(m) t|S(m) t-1)은, 예를 들어, 팩터 #m이 k번째 상태 #k로부터, k'번째 (k'= 1,2,...,K) 상태 #k'로 천이하는 천이 확률을 k번째 행 k'번째 열 컴포넌트로서 갖는 K행 K열의 행렬(정방 행렬)이다.
관측 확률 P(Yt|St)는 수학식 (4)에 따라 계산할 수가 있다.
[수학식 4]
Figure 112014088720880-pct00004
여기서, 데쉬(')는 전치(transposition)를 나타내고, 첨자 -1은 역수(역 행렬)를 나타낸다. 또한, |C|는 C의 절대치(행렬식)(행렬식 계산)을 나타낸다.
또한, D는 관측치 Yt의 차원을 나타낸다.
예를 들어, 도 3의 데이터 취득 유닛(11)은, 전압이 음의 값으로부터 양의 값으로 변화할 때의 제로 교차 타이밍을, 전류의 위상이 0이 되는 타이밍으로서 이용하는 미리결정된 샘플링 간격으로 한 주기(1/50초 또는 1/60초)에 대응하는 전류를 샘플링하고, 그 샘플링된 값을 컴포넌트로서 갖는 열 벡터를, 한 시점에 대응하는 전류 파형 Yt로서 출력한다.
데이터 취득 유닛(11)이 한 주기에 대응하는 전류를 샘플링하는 샘플링수가 D라면, 전류 파형 Yt는 D행의 열 벡터이다.
수학식 (4)의 관측 확률 P(Yt|St)에 따르면, 관측치 Yt는 평균치(평균 벡터)가 μt일 때 분산(공분산 행렬)이 C인 정규 분포를 따른다.
평균치 μt는, 예를 들어, 전류 파형 Yt와 같은 D행의 열 벡터이며, 분산 C는, 예를 들어, D행 D열의 행렬(대각 컴포넌트가 분산인 행렬) 행렬이다.
평균치 μt는, 도 5를 참조하여 설명된 고유 파형 W(m)을 이용하여 수학식 (5.1)로 표현된다.
[수학식 5.1]
Figure 112014088720880-pct00005
...(5.1)
[수학식 5.2]
Figure 112014088720880-pct00006
관측 확률 P(Yt|St)는 또한, 수학식 (5.2)에 따라 계산될 수 있고, 여기서, [St≠0]은 모든 팩터들 내의 비-제로 상태(비-제로 데이터 출력을 갖는 상태)의 수이고, 람다는 관측 오차에 대한 양의 페널티이다. 이 추가 항은 비-제로 상태의 수의 최소화를 제어한다.
여기서, 팩터 #m의 상태 #k의 고유 파형이 고유 파형 W(m) k로 표시된다면, 팩터 #m의 상태 #k의 고유 파형 W(m) k는, 예를 들어, 전류 파형 Yt와 동일한 D 행의 열 벡터이다.
또한, 고유 파형 W(m)은, 팩터 #m의 각각의 상태 #1, #2, ..., #K의 고유 파형 W(m) 1, W(m) 2,..., 및 W(m) K의 집합이며, 팩터 #m의 상태 #k의 고유 파형 W(m) k인 열 벡터를 k번째 컴포넌트로서 갖는 D행 K열의 행렬이다.
또한, S*(m) t는, 시점 t에 있는 팩터 #m의 상태를 나타내고, 이하에서, S*(m) t를 시점 t의 팩터 #m의 현재 상태라고도 한다. 시점 t의 팩터 #m의 현재 상태 S*(m) t는, 예를 들어, 수학식 (6)에 도시된 바와 같이, K행들 중 한 행만의 컴포넌트가 0이고 나머지 행들의 컴포넌트는 0인 K행의 열 벡터이다.
[수학식 6]
Figure 112014088720880-pct00007
시점 t의 팩터 #m의 상태가, 상태 #k인 경우, 시점 t에서 현재 상태 S*(m) t에 있는 K행의 열 벡터 S*(m) t에서, k번째 행 컴포넌트만 1이고 다른 컴포넌트는 0이다.
수학식 (5.1)에 따르면, 시점 t에서 각각의 팩터 #m의 상태 #k의 고유 파형 W(m) k의 총계는 시점 t에서의 현재 파형 Yt의 평균치 μt로서 얻어진다.
FHMM의 모델 파라미터 Φ는, 수학식 (2)의 초기 상태 확률 P(S(m) 1), 수학식 (3)의 천이 확률 P(S(m) t|S(m) t-1), 수학식 (4)의 분산 C, 및 수학식 (5.1)의 고유 파형 W(m) (= W(m) 1, W(m) 2, ..., W(m) K)이며, FHMM의 모델 파라미터 Φ는 도 3의 모델 학습 유닛(14)에서 얻어진다.
즉, 파형 분리 학습부(31)는 파형 분리 학습을 통해 전류 파형 파라미터로서 고유 파형 W(m)을 얻는다. 분산 학습부(32)에서는, 분산 학습을 통해 분산 파라미터로서 분산 C가 얻어진다. 상태 변동 학습부(33)는, 상태 변동 학습을 통해 초기 상태 확률 및 상태 변동 파라미터로서, 초기 상태 확률 P(S(m) 1) 및 천이 확률 P(S(m) t|S(m) t-1)을 얻는다.
여기서, 전술된 바와 같이, 예를 들어, 각각의 가전 기기의 동작 상태가 온과 오프의 2개 상태이더라도, 통상의 HMM을 이용하여 20개의 가전 기기의 동작 상태(의 조합)를 표현하는 경우, HMM 상태 수는, 220 =1,048,576개가 되어, 천이 확률의 수는 그 제곱인 1,099,511,627,776개가 된다.
한편, FHMM에 따르면, 동작 상태가 온과 오프의 2개 상태 뿐인 M개의 가전 기기는, 각각의 팩터가 2개 상태를 갖는 M개의 팩터에 의해 표현될 수 있다. 따라서, 각각의 팩터에서, 상태 수는 2개이며, 천이 확률의 수는 그 제곱인 4개이기 때문에, FHMM을 이용하여 M=20의 가전 기기(팩터)의 동작 상태를 표현하는 경우, FHMM 상태의 수(총수)는,
40=2x20으로서 작고,
천이 확률의 수는
80=4x20로서 또한 작다.
FHMM의 학습, 즉, FHMM의 모델 파라미터 Φ로서의, 초기 상태 확률 P(S(m) 1), 천이 확률 P(S(m) t|S(m) t-1), 분산 C, 및 고유 파형 W(m)의 갱신은, 예를 들어, 문헌 A에 개시된 EM(Expectation-Maximization) 알고리즘에 따라 수행될 수 있다.
EM 알고리즘을 이용한 FHMM의 학습에서, 수학식 (7)의 조건부 완전 데이터 로그 우도의 기대치 Q(Φnew|Φ)를 최대화하기 위하여 E 단계의 처리와 M 단계의 처리가 교대로 반복된다.
[수학식 7]
Figure 112014088720880-pct00008
여기서, 조건부 완전 데이터 로그 우도의 기대치 Q(Φnew|Φ)는, 모델 파라미터 Φ 하에서 완전 데이터 {St,Yt}가 관측되는 경우에 새로운 모델 파라미터 Φnew 하에서 완전 데이터{St,Yt}가 관측되는 로그 우도 log(P({St,Yt}|Φnew))의 기대치를 의미한다.
EM 알고리즘의 E 단계의 처리에서는, 수학식 (7)의 조건부 완전 데이터 로그 우도의 기대치 Q(Φnew|Φ) (에 대응하는 값)가 얻어지고, EM 알고리즘의 M 단계의 처리에서는, E 단계의 처리를 통해 얻어진 기대치 Q(Φnew|Φ)를 더욱 증가시키기 위한 새로운 모델 파라미터 Φnew가 얻어지고, 모델 파라미터 Φ가, (기대치 Q(Φnew|Φ)를 더욱 증가시키기 위한) 새로운 모델 파라미터 Φnew로 갱신된다.
도 6은 감시 시스템(도 3)에 의해 수행되는 EM 알고리즘에 따른 FHMM의 학습의 처리(학습 처리)를 나타내는 흐름도이다.
단계 S11에서, 모델 학습 유닛(14)은, 모델 기억 유닛(13)에 기억된 FHMM의 모델 파라미터 Φ로서의, 초기 상태 확률 P(S(m) 1), 천이 확률 P(S(m) t|S(m) t-1), 분산 C, 및 고유 파형 W(m)을 초기화하고, 처리는 단계 S12로 진행한다.
여기서, 초기 상태 확률 P(S(m) 1)로서의 K행의 열 벡터의 k번째 행 컴포넌트, 즉, 팩터 #m의 k번째 초기 상태 확률 π(m) k는, 예를 들어, 1/K로 초기화된다.
천이 확률 P(S(m) t|S(m) t-1)로서의 K행 K열의 행렬의 i번째 행 j번째 열의 컴포넌트(i, j = 1, 2,..., 및 K), 즉, 팩터 #m이 i번째 상태 #i로부터 j번째 상태 #j로 천이하는 천이 확률 P(m) i,j는 난수를 이용해 수학식 P(m) i,1+P(m) i,2+...+P(m) i,k=1을 만족하도록 초기화된다.
분산 C로서의 D행 D열의 행렬은, 예를 들어, 난수를 이용해 대각 컴포넌트들이 설정되고 다른 컴포넌트들은 0인 D행 D열의 대각 행렬로 초기화된다.
고유 파형 W(m)으로서의 D행 K열의 행렬의 k번째의 열 벡터, 즉, 팩터 #m의 상태 #k의 고유 파형 W(m) k로서의 D행의 열 벡터의 각각의 컴포넌트는, 예를 들어, 난수를 이용해 초기화된다.
단계 S12에서, 데이터 취득 유닛(11)은, 미리결정된 시간 T에 대응하는 전류 파형을 취득하고, 각각의 시점 t=1, 2...,T의 전류 파형을, 계측 파형 Y1, Y2 ,..., 및 YT로서, 상태 추정 유닛(12) 및 모델 학습 유닛(14)에 공급하고, 처리는 단계 S13으로 진행한다.
여기서, 데이터 취득 유닛(11)은, 시점 t=1, 2..., 및 T의 전류 파형과 함께 전압 파형도 취득한다. 데이터 취득 유닛(11)은, 시점 t = 1,2...,및 T의 전압 파형을 데이터 출력 유닛(16)에 공급한다.
데이터 출력 유닛(16)에서, 데이터 취득 유닛(11)으로부터의 전압 파형이 전력 소비를 계산하는데 이용된다.
단계 S13에서는, 상태 추정 유닛(12)이 데이터 취득 유닛(11)으로부터의 계측 파형 Y1 내지 YT를 이용해 E 단계의 처리를 수행하고, 처리는 단계 S14로 진행한다.
즉, 단계 S13에서는, 상태 추정 유닛(12)은, 데이터 취득 유닛(11)으로부터의 계측 파형 Y1 내지 YT를 이용해, 모델 기억 유닛(13)에 기억된 FHMM의 각각의 팩터 #m의 각각의 상태에 있는 상태 확률 등을 얻기 위한 상태 추정을 수행하고, 그 상태 추정의 추정 결과를 모델 학습 유닛(14) 및 데이터 출력 유닛(16)에 공급한다.
여기서, 도 5를 참조하여 설명된 바와 같이, 가전 기기 분리에서, 팩터 #m의 상태는 그 팩터 #m에 대응하는 가전 기기 #m의 동작 상태에 대응한다. 따라서, FHMM의 팩터 #m의 상태 #k에서의 상태 확률은, 가전 기기 #m의 동작 상태가 상태 #k인 정도를 나타내므로, 이러한 상태 확률을 얻기 위한 상태 추정은 가전 기기의 동작 상태를 얻는(추정하는) 것이라고 말할 수 있다.
단계 S14에서는, 모델 학습 유닛(14)은, 데이터 취득 유닛(11)으로부터의 계측 파형 Y1 내지 YT, 및 상태 추정 유닛(12)으로부터 상태 추정의 추정 결과를 이용해, M 단계의 처리를 수행하고, 처리는 단계 S15로 진행한다.
즉, 단계 S14에서는, 모델 학습 유닛(14)은, 데이터 취득 유닛(11)으로부터의 계측 파형 Y1 내지 YT, 및 상태 추정 유닛(12)으로부터 상태 추정의 추정 결과를 이용해 모델 기억 유닛(13)에 기억된 각각의 팩터가 3개 이상의 상태를 가지는 FHMM의 학습을 수행함으로써, 모델 기억 유닛(13)에 기억된 FHMM의 모델 파라미터 Φ로서의, 초기 상태 확률 π(m) k, 천이 확률 P(m) i,j, 분산 C, 및 고유 파형 W(m)을 갱신한다.
단계 S15에서는, 모델 학습 유닛(14)은 모델 파라미터 Φ의 수렴 조건이 만족되고 있는지 여부를 판정한다.
여기서, 모델 파라미터 Φ의 수렴 조건으로서, 예를 들어, E 단계 및 M 단계의 처리가 미리 설정된 소정의 회수만큼 반복적으로 수행되는 조건 또는 FHMM에서 계측 파형 Y1 내지 YT가 관측되는 우도의, 모델 파라미터 Φ의 갱신전과 갱신 후 사이의 변화량이 미리 설정된 임계치 이내인 조건이 채용될 수 있다.
단계 S15에서, 모델 파라미터 Φ의 수렴 조건이 만족되지 않는다고 판정된다면, 처리는 단계 S13으로 복귀하고, 그 후, 동일한 처리가 반복된다.
또한, 단계 S15에서 모델 파라미터 Φ의 수렴 조건이 만족된다고 판정된다면, 학습 처리는 종료한다.
도 7은 도 3의 감시 시스템에 의해 도 6의 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
단계 S21에서, 평가부(21)는, 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 분산 C, 및 고유 파형 W(m), 및 데이터 취득 유닛(11)으로부터의 계측 파형 Yt={Y1, Y2,..., 및 YT}를 이용해 시점 t={1, 2,..., T}에서의 상태들의 각각의 조합 St에 관해, 수학식 (4)의 관측 확률 P(Yt|St)를 평가치 E로서 얻어 추정부(22)에 공급하고, 처리는 단계 S22로 진행한다.
단계 S22에서는, 추정부(22)는, 평가부(21)으로부터의 관측 확률 P(Yt|St) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j (및 초기 상태 확률 π(m))을 이용해, 계측 파형 Y1, Y2,..., 및 Yt가 관측되고, 시점 t에서 상태들의 조합(시점 t에서 팩터 #1의 상태와 팩터 #2의 상태와, ..., 팩터 #M의 상태의 조합) z에 있을 순방향 확률 αt,z(ALPHAt ,z)를 얻고, 처리는 단계 S23으로 진행한다.
여기서, HMM의 순방향 확률을 구하는 방법은, 예를 들어, C. M. Bishop "Pattern Recognition And Machine Learning (II): Statistical Inference based on Bayes Theory", Springer Japan, 2008 (이하, 문헌 B라고도 함)의 336 페이지에 개시되어 있다.
순방향 확률 αt,z는, 예를 들어, 한 시점 전의 순방향 확률 αt-1,w를 이용한 점화식 αt,z =Σαt-1,wP(z|w) P(Yt|z)에 따라 얻어질 수 있다.
점화식 αt,z =Σαt-1,wP(z|w) P(Yt|z)에서, Σ는, FHMM 상태들의 모든 조합에 대해 w를 변경하여 취해지는 합산을 나타낸다.
또한, 점화식 αt,z =Σαt-1,wP(z|w) P(Yt|z)에서, w는, 한 시점 전의 시점 t-1에서의 상태들의 조합을 나타낸다. P(z|w)는, 팩터가 시점 t-1에서 상태들의 조합 w에 있고 시점 t에서 상태들의 조합 z로 천이하는 천이 확률을 나타낸다. P(Yt|z)는, 시점 t에서의 상태들의 조합 z에서 측정 파형 Yt가 관측되는 관측 확률을 나타낸다.
또한, 순방향 확률 αt,z의 초기값, 즉, 시점 t=1에서의 순방향 확률 α1,z로서, 상태들의 조합 z를 형성하는 각각의 팩터 #m의 상태 #k의 초기 상태 확률 π(m) k의 곱(product)이 채용된다.
단계 S23에서는, 추정부(22)가, 평가부(21)로부터의 관측 확률 P(Yt|St) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j를 이용해, 시점 t에서 상태들의 조합 z에 있고 그 후 계측 파형 Yt, Yt+1,..., YT가 관측되는 역방향 확률 βt,z(BETAt ,z)를 얻고, 처리는 단계 S24로 진행한다.
여기서, HMM의 역방향 확률을 구하는 방법은, 예를 들어, 전술된 문헌 B의 336 페이지에 개시되어 있다.
역방향 확률 βt,z는, 한 시점 이후의 역방향 확률 βt+1,w를 이용한 점화식 βt,z =ΣP(Yt|z)P(z|w)βt+1,w에 따라 얻어질 수 있다.
점화식 βt,z =ΣP(Yt|z)P(z|w)βt+1,w에서, Σ는, FHMM 상태들의 모든 조합에 대해 w를 변경하여 취해지는 합산을 나타낸다.
또한, 점화식 βt,z =ΣP(Yt|z)P(w|z)βt+1,w에서, w는, 한 시점 이후의 시점 t+1에서의 상태들의 조합을 나타낸다. P(z|w)는, 팩터가 시점 t에서 상태들의 조합 z에 있고 시점 t+1에서 상태들의 조합 w로 천이하는 천이 확률을 나타낸다. P(Yt|z)는, 시점 t에서의 상태들의 조합 z에서 측정 파형 Yt가 관측되는 관측 확률을 나타낸다.
또한, 역방향 확률 βt,z의 초기치, 즉, 시점 t=T에서의 역방향 확률 βT,z로서, 1이 채용된다.
단계 S24에서는, 추정부(22)는, 순방향 확률 αt,z와 역방향 확률 βt,z를 이용해, 수학식 (8)에 따라, 전체 모델 Φ으로서의 FHMM의 시점 t에서의 상태들의 조합 z에 있는 사후 확률 γt,z를 얻고, 처리는 단계 S25로 진행한다.
[수학식 8]
Figure 112014088720880-pct00009
여기서, 수학식 (8)의 우변의 분모의 Σ는, 시점 t에서 취할 수 있는 상태들의 조합들 St 모두에 대해 w를 변경함으로써 취해지는 합산을 나타낸다.
수학식 (8)에 따르면, 사후 확률 γt,z는, 순방향 확률 αt,z와 역방향 확률 βt,z의 곱 αt,zβt,z를, FHMM이 취할 수 있는 상태들의 조합 w∈St에 대한 그 곱 αt,zβt,z의 총계 Σαt,zβt,z로 정규화함으로써 얻어진다.
단계 S25에서는, 추정부(22)는, 사후 확률 γt,z를 이용해 팩터 #m이 시점 t에서 상태 S(m) t에 있는 사후 확률 <S(m) t>와 시점 t에서 팩터 #m이 상태 S(m) t에 있고 다른 팩터 #n은 상태 S(n) t에 있는 사후 확률 <S(m) tS(n) t'>를 얻고, 처리는 단계 S26으로 진행한다.
여기서, 사후 확률 <S(m)t>는 수학식 (9)에 따라 얻어질 수 있다.
[수학식 9]
Figure 112014088720880-pct00010
수학식 (9)에 따르면, 팩터 #m이 시점 t에서 상태 S(m) t에 있는 사후 확률 <S(m) t>는, 시점 t에서 상태들의 조합 z에 있는 사후 확률 γt,z를, 팩터 #m의 상태를 포함하지 않는 상태들의 조합 z에 관하여 주변화(marginalize)함으로써 얻어진다.
또한, 사후 확률 <S(m) t>는, 예를 들어, 시점 t에서 팩터 #m이 K개 상태들 중 k번째 상태에 있는 상태 확률(사후 확률)을, k번째 행 컴포넌트로서 갖는 K행의 열 벡터이다.
사후 확률 <S(m) tS(n) t'>는 수학식 (10)에 따라 얻어질 수 있다.
[수학식 10]
Figure 112014088720880-pct00011
수학식 (10)에 따르면, 시점 t에서 팩터 #m이 상태 S(m) t에 있고 다른 팩터 #n은 상태 S(n) t에 있는 사후 확률 <S(m) tS(n) t'>는, 시점 t에서 상태들의 조합 z에 있는 사후 확률 γt,z를, 팩터 #m의 상태와 팩터 #n의 상태 어느 것도 포함하지 않는 상태들의 조합 z에 관해 주변화함으로써 얻어진다.
또한, 사후 확률 <S(m) tS(n) t'>는, 예를 들어, 팩터 #m의 상태 #k와 다른 팩터 #n의 상태 #k'에 있는 상태 확률(사후 확률)을, k번째 행 k'번째 열 컴포넌트로서 갖는 K행 K열의 행렬이다.
단계 S26에서는, 추정부(22)는, 순방향 확률 αt,z, 역방향 확률 βt,z, 천이 확률 P(z|w), 및 평가부(21)로부터의 관측 확률 P(Yt|St)를 이용해, 팩터 #m이 시점 t-1에서 상태 S(m) t-1에 있고 다음 시점 t에서 상태 S(m) t에 있는 사후 확률 <S(m) t-1S(m) t'>를 얻는다.
또한, 추정부(22)는, 사후 확률 <S(m) t>, <S(m) tS(n) t'>, 및 <S(m) t-1S(m) t'>를, 상태 추정의 추정 결과로서, 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 공급하고, E 단계의 처리로부터 복귀한다.
여기서, 사후 확률 <S(m) t-1S(m) t'>는 수학식 (11)에 따라 얻어질 수 있다.
[수학식 11]
Figure 112014088720880-pct00012
수학식 (11)의 사후 확률 <S(m) t-1S(m) t'>의 계산에 있어서, 팩터가 상태들의 조합 w로부터 상태들의 조합 z로 천이하는 천이 확률 P(z|w)는, 수학식 (3)에 따라, 상태들의 조합 w를 형성하는 팩터 #1의 상태 #i(1)로부터 상태의 조합 z를 형성하는 팩터 #1의 상태 #j(1)로의 천이 확률 P(1) i(1),j(1), 상태들의 조합 w를 형성하는 팩터 #2의 상태의 #i(2)로부터 상태들의 조합 z를 형성하는 팩터 #2의 상태 #j(2)로의 천이 확률 P(2) i(2),j(2),..., 및 상태들의 조합 w를 형성하는 팩터 #M의 상태 #i(M)으로부터 상태들의 조합 z를 형성하는 팩터 #M의 상태 #j(M)으로의 천이 확률 P(M) i(M),j(M)의 곱
Figure 112014088720880-pct00013
으로서 얻어진다.
또한, 사후 확률 <S(m) t-1S(m) t'>는, 예를 들어, 팩터 #m이 시점 t-1에서 상태 #i에 있고 다음 시점 t에서 상태 j에 있는 상태 확률(사후 확률)을, i번째 행 j번째 열 컴포넌트로서 갖는 K행 K열의 행렬이다.
도 8은 FHMM의 순방향 확률 αt,z와 역방향 확률 βt,z 사이, 및 (통상의) HMM 순방향 확률 αt,i(ALPHAt ,i)와 역방향 확률 βt,j(BETAt ,j) 사이의 관계를 나타내는 도면이다.
FHMM에 관하여, 그 FHMM과 등가인 HMM이 구성될 수 있다.
소정의 FHMM과 등가인 HMM은 그 FHMM의 각각의 팩터들의 상태들의 조합 z에 대응하는 상태를 가진다.
또한, FHMM의 순방향 확률 αt,z 및 역방향 확률 βt,z는, 그 FHMM과 등가인 HMM의 순방향 확률 αt,i 및 역방향 확률 βt,j와 일치한다.
도 8의 A는, 각각이 2개 상태 #1 및 #2를 갖는 팩터 #1과 #2를 포함하는 FHMM을 도시하고 있다.
도 8의 A의 FHMM에서는, 팩터 #1의 상태 #k와 팩터 #2의 상태 #k'의 조합 z=[k, k']로서, 팩터 #1의 상태 #1과 팩터 #2의 상태 #1의 조합[1, 1], 팩터 #1의 상태 #1과 팩터 #2의 상태 #2의 조합[1, 2], 팩터 #1의 상태 #2와 팩터 #2의 상태 #1의 조합[2, 1], 및 팩터 #1의 상태 #2와 팩터 #2의 상태 #2의 조합[2, 2]의 4개 조합이 있다.
도 8의 B는 도 8의 A의 FHMM과 등가인 HMM을 도시한다.
도 8의 B의 HMM은, 도 8의 A의 FHMM의 상태들의 4개의 조합 [1,1], [1, 2], [2, 1], 및 [2, 2]에 각각 대응하는 4개 상태 #(1, 1), #(1, 2), #(2, 1), 및 #(2, 2)를 가진다.
또한, 도 8의 A의 FHMM의 순방향 확률 αt,z = {αt,[1,1] , αt,[1,2] , αt,[2,1] , αt,[2,2]}는 도 8의 B의 HMM의 순방향 확률 αt,i = {αt,(1,1) , αt,(1,2) , αt,(2,1) , αt,(2,2)}와 일치한다.
또한, 도 8의 A의 FHMM의 역방향 확률 βt,z = {βt,[1,1] , βt,[1,2] , βt,[2,1] , βt,[2,2]}는 도 8의 B의 HMM의 역방향 확률 βt,i = {βt,(1,1) , βt,(1,2) , βt,(2,1) , βt,(2,2)}와 일치한다.
예를 들어, 전술된 수학식 (8)의 우변의 분모, 즉, 곱 αt,wβt,w의, FHMM에 의해 취해질 수 있는 상태들의 조합 w∈St에 대한 총계 Σαt,wβt,w는, 도 8의 A의 FHMM에 대한 수학식 Σαt,wβt,w = αt,[1,1]βt[1,1] + αt[1,2]βt[1,2] + αt[2,1]βt[2,1] + αt[2,2]βt[2,2]로 표시된다.
도 9는 도 3의 감시 시스템에 의해 도 6의 단계 S14에서 수행되는 M 단계의 처리를 나타내는 흐름도이다.
단계 S31에서, 파형 분리 학습부(31)는, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt 및 추정부(22)로부터의 사후 확률 <S(m) t> 및 <S(m) tS(n) t'>를 이용해 파형 분리 학습을 수행하여, 고유 파형 W(m)의 갱신치 W(m)new를 얻고, 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 그 갱신치 W(m)new로 갱신하고, 처리는 단계 S32로 진행한다.
즉, 파형 분리 학습부(31)는 파형 분리 학습으로서 수학식 (12)를 계산함으로써 고유 파형 W(m)의 갱신치 W(m)new를 얻는다.
[수학식 12]
Figure 112014088720880-pct00014
여기서, Wnew는, D행 K×M열의 행렬인 팩터 #m의 고유 파형 W(m)의 갱신치 W(m)new가, 팩터(의 인덱스) #m의 순서로 좌측에서 우측으로 배열된 D행 K 열의 행렬이다. D행 K×M열의 행렬인 고유 파형(의 갱신치) Wnew의 (m-1)K + k열의 열 벡터는 팩터 #m의 상태 #k의 고유 파형 W(m) k(의 갱신치)이다.
<St'>는, K행의 열 벡터인 사후 확률 <S(m) t>가 팩터 #m의 순서로 위로부터 아래로 배열된 K×M행의 열 벡터를 전치함으로써 얻어진 K×M 열의 행 벡터이다. K×M 열의 행 벡터인 사후 확률 <St'>의 ((m-1)K + k)번째의 컴포넌트는, 시점 t에서 팩터 #m의 상태 #k에 있는 상태 확률이다.
<StSt'>는, K행 K열의 행렬인 사후 확률 <S(m) tS(n) t'>가 팩터 #m의 순서로 위로부터 아래로 배열되고 팩터 #n의 순서로 좌측에서 우측으로 배열된 K×M행 및 K×M열의 행렬이다. K×M행 및 K×M열의 행렬인 사후 확률 <StSt'>의 ((m-1)K+k) 번째 행 및 ((n-1)K+k')) 번째 열의 컴포넌트는, 시점 t에서 팩터 #m의 상태 #k와 다른 팩터 #n의 상태 #k'에 있는 상태 확률이다.
상위의 애스터리스크(*)는 역행렬 또는 의사 역행렬을 나타낸다.
수학식 (12)를 계산하기 위한 파형 분리 학습에 따르면, 계측 파형 Yt와 수학식 (5.1)의 평균치 μt=ΣW(m)S*(m) t 사이의 오차가 가능한 한 작아지도록, 계측 파형 Yt가 고유 파형 W(m)으로 분리된다.
단계 S32에서는, 분산 학습부(32)가, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt, 추정부(22)로부터의 사후 확률 <S(m) t>, 및 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 이용해 분산 학습을 실시하여 분산 C의 갱신치 Cnew를 얻고, 모델 기억 유닛(13)에 기억된 분산 C를 갱신하며, 처리는 단계 S33으로 진행한다.
즉, 분산 학습부(32)는 분산 학습으로서 수학식 (13)을 계산함으로써, 분산 C의 갱신치 Cnew를 얻는다.
[수학식 13]
Figure 112014088720880-pct00015
단계 S33에서는, 상태 변동 학습부(33)가, 추정부(22)로부터의 사후 확률 <S(m) t> 및 <S(m) tS(m) t'>를 이용해 상태 변동 학습을 수행하여, 천이 확률 P(m) i,j의 갱신치 P(m) i, j new 및 초기 상태 확률 π(m)의 갱신치 π(m) new를 얻고, 모델 기억 유닛(13)에 기억된 천이 확률 P(m) i,j와 초기 상태 확률 π(m)을 갱신치 P(m) i, j new 및 갱신치 π(m) new로 갱신하고, 처리는 M 단계의 처리로부터 복귀한다.
즉, 상태 변동 학습부(33)는, 상태 변동 학습으로서 수학식 (14) 및 수학식 (15)를 계산함으로써, 각각, 천이 확률 P(m) i,j의 갱신치 P(m) i,j new 및 초기 상태 확률 π(m)의 갱신치 π(m)new를 얻는다.
[수학식 14]
Figure 112014088720880-pct00016
[수학식 15]
Figure 112014088720880-pct00017
여기서, <S(m) t-1, iS(m) t,j>는, K행 K열의 행렬인 사후 확률 <S(m) t-1S(m) t'>의 i번째 행 j번째 열 컴포넌트이며, 팩터 #m이 시점 t-1에서 상태 #i에 있고 그 다음 시점 t에서 상태 #j에 있는 상태 확률을 나타낸다.
<S(m) t-1,i>는, K행의 열 벡터인 사후 확률 <S(m) t-1>의 i번째 행 컴포넌트며, 시점 t-1에서 팩터 #m이 상태 #i에 있는 상태 확률을 나타낸다.
π(m)(m) new)는, 팩터 #m의 상태 #k의 초기 상태 확률 π(m) k(의 갱신치 π(m) k new)를 k번째 행 컴포넌트로서 갖는 K행의 열 벡터이다.
도 10은 감시 시스템(도 3)에 의해 수행되는 가전 기기 #m 상에 정보를 제시하는 정보 제시 처리를 나타내는 흐름도이다.
단계 S41에서, 데이터 출력 유닛(16)은, 데이터 취득 유닛(11)으로부터의 전압 파형(전류 파형인 계측 파형 Yt에 대응하는 전압 파형) Vt, 상태 추정 유닛(12)으로부터 상태 추정의 추정 결과로서의 사후 확률 <S(m) t>, 및 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 이용해, 각각의 팩터 #m의 전력 소비 U(m)를 얻고, 단계 S42로 진행한다.
여기서, 데이터 출력 유닛(16)은, 시점 t의 전압 파형 Vt와 시점 t에서의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At를 이용해, 시점 t에서의 팩터 #m에 대응하는 가전 기기 #m의 전력 소비 U(m)을 얻는다.
데이터 출력 유닛(16)에서, 시점 t에서의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At는 다음과 같이 얻을 수 있다.
즉, 예를 들어, 팩터 #m에서, 데이터 출력 유닛(16)은, 사후 확률〈S(m) t〉가 최대인 상태 #k의 고유 파형 W(m)을, 시점 t에서의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At로서 얻는다.
또한, 데이터 출력 유닛(16)은, K행의 열 벡터인 사후 확률 <S(m) t〉의 컴포넌트인 시점 t에서의 팩터 #m의 각각의 상태의 상태 확률을 가중치로서 이용하여 팩터 #m의 각각의 상태의 고유 파형 W(m) 1, W(m) 2,..., 및 W(m) K의 가중된 가산치를, 시점 t에서의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At로서 얻는다.
또한, FHMM의 학습이 진행되고, 팩터 #m이 가전 기기 #m을 적절히 표현하는 가전 기기 모델이 되면, 시점 t에서의 팩터 #m의 각각의 상태 확률과 관련하여, 시점 t에서의 가전 기기 #m의 동작 상태에 대응하는 상태의 상태 확률은 거의 1이 되고, 나머지의 (K-1)개 상태들의 상태 확률은 거의 0이 된다.
그 결과, 팩터 #m에서, 사후 확률 <S(m) t>가 최대인 상태 #k의 고유 파형 W(m)은, 시점 t에서의 팩터 #m의 각각의 상태의 상태 확률을 가중치로서 이용한 팩터 #m의 각각의 상태의 고유 파형 W(m) 1, W(m) 2,..., 및 W(m) K의 가중된 가산치와 실질적으로 동일하다.
단계 S42에서는, 라벨 취득 유닛(15)은, 각각의 가전 기기 모델 #m이 표시하는 가전 기기 #m, 즉, FHMM의 각각의 팩터 #m에 대응하는 가전 기기 #m을 식별하기 위한 가전 라벨 L(m)을 취득해 데이터 출력 유닛(16)에 공급하고, 처리는 단계 S43으로 진행한다.
여기서, 라벨 취득 유닛(15)은, 예를 들어, 데이터 출력 유닛(16)에서 얻어진 각각의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At나 전력 소비 U(m), 그 전력 소비 U(m)로부터 인식되는 가전 기기 #m의 사용 시간대를 표시하고, 전류 소비 At나, 전력 소비 U(m), 사용 시간대와 정합하는 가전 기기의 명칭을 사용자로부터 수신하고, 사용자에 의해 입력된 가전 기기의 명칭을 가전 기기 라벨 L(m)으로서 취득할 수 있다.
또한, 라벨 취득 유닛(15)은, 다양한 가전 기기에 관하여, 그 전력 소비, 전류 파형(전류 소비), 및 사용 시간대 등의 속성을 가전 기기의 명칭과 상관시켜 등록한 데이타베이스를 사전에 준비하고, 데이터 출력 유닛(16)에서 얻어진 각각의 팩터 #m에 대응하는 가전 기기 #m의 전류 소비 At나, 전력 소비 U(m), 및 그 전력 소비 U(m)으로부터 인식된 가전 기기 #m의 사용 시간대와 상관된 가전 기기의 명칭을 가전 기기 라벨 L(m)으로서 취득할 수가 있다.
또한, 라벨 취득 유닛(15)에서, 이미, 가전 기기 라벨 L(m)이 취득되어 데이터 출력 유닛(16)에 공급된 가전 기기 #m에 대응하는 팩터 #m과 관련하여, 단계 S42의 처리는 스킵될 수 있다.
단계 S43에서는, 데이터 출력 유닛(16)이, 각각의 팩터 #m의 전력 소비 U(m)을 각각의 팩터 #m의 가전 기기 라벨 L(m)과 함께, (도시되지 않은) 디스플레이 상에 표시하여 사용자에게 제시하고, 정보 제시 처리는 종료한다.
도 11은 도 10의 정보 제시 처리에서 행해지는 전력 소비 U(m)의 표시예를 나타내는 도면이다.
데이터 출력 유닛(16)은, 예를 들어, 도 11에 도시된 바와 같이, 각각의 팩터 #m에 대응하는 가전 기기 #m의 전력 소비 U(m)의 시계열을, 그 가전 기기 #m의 명칭 등의 가전 기기 라벨 L(m)과 함께, (도시되지 않은) 디스플레이 상에 표시한다.
전술된 바와 같이, 감시 시스템은, 각각의 팩터가 3개 이상의 상태를 갖는 FHMM을 이용하여 각각의 가전 기기의 동작 상태를 모델화하기 위한 FHMM의 학습을 수행하므로, 모드나 설정 등에 따라 전력(전류) 소비가 변동하는 에어콘 등의 변동 부하 가전 기기에 관해 정확한 전력 소비 등을 얻을 수 있다.
또한, 감시 시스템에서는, 배전반 등의 소정 위치에서 가정 내의 각각의 가전 기기에 의해 소비되는 전류의 총계가 측정됨으로써, 가정 내의 각각의 가전 기기의 전력 소비가 얻어질 수 있으므로, 각각의 콘센트에 스마트 탭을 설치하는 경우에 비해, 비용 및 노력 양쪽 모두의 관점에서, 가정 내의 각각의 가전 기기의 전력 소비의 "시각화"를 용이하게 실현할 수 있다.
또한, 가정 내의 각각의 가전 기기의 전력 소비의 "시각화"에 의해, 예를 들어, 가정에서의 절전의 의식을 높일 수 있다.
또한, 감시 시스템에 의해 얻어진 가정 내의 각각의 가전 기기의 전력 소비는, 예를 들어, 서버에 의해 수집되고, 각 가정의 가전 기기의 전력 소비로부터, 가전 기기의 사용 시간대와, 나아가, 생활 패턴이 추정될 수 있어서, 마케팅 등에 유용할 수 있다.
<본 기술이 적용되는 감시 시스템의 제2 실시예>
도 12는 본 기술이 적용되는 감시 시스템의 제2 실시예의 구성예를 나타내는 블록도이다.
또한, 도면에서, 도 3의 경우에 대응하는 부분들에는 동일한 참조 번호가 주어지고, 이하에서는, 그 설명이 적절히 생략될 것이다.
도 12의 감시 시스템은, 데이터 취득 유닛(11) 내지 데이터 출력 유닛(16)이 제공된다는 점에서, 도 3의 감시 시스템과 공통된다.
그러나, 도 12의 감시 시스템은, 모델 학습 유닛(14)의 분산 학습 유닛(32) 대신에 개별 분산 학습부(52)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
도 3의 분산 학습부(32)에서, 분산 학습에서 전체 모델로서의 FHMM에 대해 한 개의 분산 C가 얻어지지만, 도 12의 개별 분산 학습부(52)에서는, 분산 학습에서 전체 모델로서의 FHMM에 대해, 각각의 팩터 #m마다, 또는 각각의 팩터 #m의 상태 #k 마다, 개별의 분산 σ(m)이 얻어진다.
여기서, 개별 분산 σ(m)이 각각의 팩터 #m의 상태 #k에 대한 개별 분산인 경우, 개별 분산 σ(m)은, 예를 들어, 팩터 #m의 상태 #k의 분산 σ(m) k를, k번째 열 컴포넌트로서 갖는 K열의 행 벡터이다.
또한, 이하에서는, 설명의 간소화를 위해, 개별 분산 σ(m)이 각각의 팩터 #m에 대한 개별 분산인 경우, 개별 분산 σ(m)으로서의 K열의 행 벡터의 모든 컴포넌트들, σ(m) 1, σ(m) 2, ..., σ(m) K가 팩터 #m에 공통되는 동일한 값(팩터 #m에 대한 분산으로서의 동일한 스칼라값, 또는, (공분산) 행렬)으로 설정됨으로써, 각각의 팩터 #m에 대해 별도인 개별 분산 σ(m)이 각각의 팩터 #m의 상태 #k에 대해 별도인 개별 분산 σ(m)과 동일한 것으로 취급된다.
개별 분산 σ(m)으로서의 K열의 행 벡터의 k번째 열 컴포넌트인 팩터 #m의 상태 #k의 분산 σ(m) K는, 분산으로서의 스칼라 값, 또는, 공분산 행렬로서의 D행 D열의 행렬이다.
개별 분산 학습부(52)에서 개별 분산 σ(m)이 얻어지는 경우, 평가부(21)는 개별 분산 σ(m)을 이용해 수학식 (4)에 대신에 수학식 (16)에 따라 관측 확률 P(Yt|St)를 얻는다.
[수학식 16]
Figure 112014088720880-pct00018
수학식 (16)의 Σt는 수학식 (17)에 따라 얻어질 수 있다.
[수학식 17]
Figure 112014088720880-pct00019
S*(m) t는 수학식 (6)에 도시된 바와 같이 시점 t의 팩터 #m의 상태를 나타내고, K행 중 한 개 행만의 컴포넌트는 0이고 나머지 행들의 컴포넌트는 0인 K행의 열 벡터이다.
개별 분산 학습부(52)에서, 개별 분산 σ(m)은 다음과 같이 얻어질 수 있다.
즉, 실제로 측정(관측)되는 계측 파형 Yt에 대한 전체 모델 Φ로서의 FHMM의 분산 σ의 기대치 <σ>는, 수학식 (18)에 표시된 바와 같이, 계측 파형 Yt로서의 전류 파형과 전체 모델 Φ로서의 FHMM에서 생성(관측)되는 생성 파형 Y^t로서의 전류 파형과의 제곱 오차 |Yt-Y^t|2의 기대치 <|Yt-Y^t|2>와 동일하다.
[수학식 18]
Figure 112014088720880-pct00020
분산 σ의 기대치 <σ>는, 각각의 팩터 #m의 각각의 상태 #k에 대해 별도인 개별 분산 σ(m)의 기대치 σ(m)<S(m) t>의 팩터 #m에 대한 총계 σ(1)<S(1) t>+σ(2)<S(2) t>+...+σ(M)<S(M) t>와 등가이다.
또한, 계측 파형 Yt와 생성 파형 Y^t의 제곱 오차 |Yt-Y^t|2의 기대치 <|Yt-Y^t|2>는, 계측 파형 Yt와 개별 파형 W(m)의 기대치 W(m)<S(m) t>의 팩터 #m에 대한 총계 W(1)<S(1) t>+W(2)<S(2) t>+...+W(M)<S(M) t>의 제곱 오차 |Yt-(W(1)<S(1) t> + W(2)<S(2) t>+...+W(M)<S(M) t>)|2와 등가이다.
따라서, 수학식 (18)은 수학식 (19)와 등가이다.
[수학식 19]
Figure 112014088720880-pct00021
수학식 (19)를 만족하는 개별 분산 σ(m) = σ(m)new는, 개별 분산 σ(m)이 음(negative)이 아니라는 제약으로 제약된 2차 프로그래밍을 이용하여 수학식 (20)에 따라 얻어질 수 있다.
[수학식 20]
Figure 112014088720880-pct00022
개별 분산 학습부(52)는, 수학식 (20)에 따라 개별 분산 σ(m)의 갱신치 σ(m) new를 얻고, 모델 기억 유닛(13)에 기억된 개별 분산 σ(m)을 그 갱신치 σ(m) new로 갱신한다.
전술된 바와 같이, 개별 분산 학습부(52)에서, 각각의 팩터 #m에 대해 또는 각각의 팩터 #m의 각각의 상태 #k에 대해 개별 분산 σ(m)이 얻어지는 경우에는, 하나의 분산 C를 이용하는 경우에 비해 전체 모델 Φ로서의 FHMM가 가전 기기를 표현하는 표현 능력이 향상되고, 추정 유닛(22)의 상태 추정의 정밀도도 향상되므로, 전력 소비 등을 더욱 정확하게 얻는 것이 가능하다.
특히, 예를 들어, 흡인 상태에 따라 전류 소비가 달라지는 진공 청소기 등의 변동 부하 가전 기기에 관하여, 개별 분산 σ(m)을 이용함으로써 전력 소비를 더 정확하게 얻을 수 있다.
도 12의 감시 시스템은, 분산 C에 대신에, 개별 분산 σ(m)이 이용된다는 점을 제외하고는, 도 3의 감시 시스템과 동일한 처리(도 6의 학습 처리, 또는 도 10의 정보 제시 처리)를 수행한다.
도 13은 도 12의 감시 시스템에 의해 도 6의 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
단계 S61에서, 평가부(21)는, 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 개별 분산 σ(m), 및 고유 파형 W(m), 및 데이터 취득 유닛(11)으로부터의 계측 파형 Yt={Y1, Y2,..., 및 YT}를 이용해 시점 t={1,2,...,T}에서의 상태들의 각각의 조합 St에서, (수학식 (4) 대신에) 수학식 (16) 및 수학식 (17)에 따라, 관측 확률 P(Yt|St)를 평가치 E로서 얻어 추정부(22)에 공급하고, 처리는 단계 S62로 진행한다.
이하에서, 단계 S62 내지 S66에서는, 도 7의 단계 S22 내지 S26과 동일한 처리가 각각 수행된다.
도 14는 도 12의 감시 시스템에 의해 도 6의 단계 S14에서 수행되는 M 단계의 처리를 나타내는 흐름도이다.
단계 S71에서, 도 9의 단계 S31과 동일한 방식으로, 파형 분리 학습부(31)는 파형 분리 학습을 수행하여, 고유 파형 W(m)의 갱신치 W(m)new를 얻고, 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 그 갱신치 W(m)new로 갱신하며, 처리는 단계 S72로 진행한다.
단계 S72에서는, 개별 분산 학습부(52)는, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt, 추정부(22)로부터의 사후 확률 <S(m) t>, 및 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 이용해 수학식 (20)에 따라 분산 학습을 수행하여, 개별 분산 σ(m)의 갱신치 σ(m)new를 얻는다.
또한, 개별 분산 학습부(52)는, 모델 기억 유닛(13)에 기억된 개별 분산 σ(m)을 개별 분산 σ(m)의 갱신치 σ(m)new로 갱신하고, 처리는 단계 S72로부터 단계 S73으로 진행한다.
단계 S73에서는, 도 9의 단계 S33과 유사한 방식으로, 상태 변동 학습부(33)는 상태 변동 학습을 수행하여 천이 확률 P(m) i,j의 갱신치 P(m) i,j new 및 초기 상태 확률 π(m)의 갱신치 π(m) new를 얻고, 모델 기억 유닛(13)에 기억된 천이 확률 P(m) i,j와 초기 상태 확률 π(m)을 그 갱신치 P(m) i, j new 및 갱신치 π(m) new로 갱신하며, 처리는 M 단계의 처리로부터 복귀한다.
<본 기술이 적용되는 감시 시스템의 제3 실시예>
도 15는 본 기술이 적용되는 감시 시스템의 제3 실시예의 구성예를 나타내는 블록도이다.
또한, 도면에서, 도 3의 경우에 대응하는 부분들에는 동일한 참조 번호가 주어지고, 이하에서는, 그 설명이 적절히 생략될 것이다.
도 15의 감시 시스템은, 데이터 취득 유닛(11) 내지 데이터 출력 유닛(16)이 제공된다는 점에서, 도 3의 감시 시스템과 공통된다.
그러나, 도 15의 감시 시스템은, 상태 추정 유닛(12)의 추정부(22) 대신에 근사 추정부(42)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
근사 추정부(42)는, 한 시점에 대한 상태가 천이하는 팩터의 수가 제약되는 상태 천이 제약 하에서 사후 확률(상태 확률) <S(m) t>를 얻는다.
여기서, 예를 들어, 사후 확률 <S(m) t>는, 수학식 (9)에 따라, 사후 확률 γt,z를 주변화함으로써 얻어진다.
사후 확률 γt,z는, 수학식 (8)에 따라, 순방향 확률 αt,z와 역방향 확률 βt,z를 이용해 FHMM의 각각의 팩터의 상태들의 조합 z 모두와 관련하여 얻어질 수 있다.
그러나, FHMM의 각각의 팩터들의 상태들의 조합 z의 수는 KM이므로, 팩터의 수 M이 증가되면 지수 차수로 증가한다.
따라서, FHMM이 다수의 팩터를 갖는 경우에, 각각의 팩터 상태들의 조합 z 모두에 대해, 순방향 확률 αt,z와 역방향 확률 βt,z와 사후 확률 γt,z가, 문헌 A에 개시된 바와 같이 엄격하게 계산됨녀, 계산량은 거대해진다.
따라서, FHMM의 상태 추정과 관련하여, 예를 들어, Gibbs Sampling, Completely Factorized Variational Approximation, 또는 Structured Variational Approximation 등의 근사 추정법은 문헌 A에서 제안되고 있다. 그러나, 이러한 근사 추정법에서는, 계산량이 여전히 방대하거나 근사로 인해 정밀도가 상당히 저하되는 경우가 있다.
그러나, 가정 내의 모든 가전 기기의 동작 상태가 각각의 시각에 변화(변동)할 가능성은, 정전 등의 비정상적 경우를 제외하면 상당히 낮다.
따라서, 근사 추정부(42)는, 한 시점에 대해 상태가 천이하는 팩터의 수를 제한하는 상태 천이 제약 하에서, 사후 확률 <S(m) t>를 얻는다.
상태 천이 제약은, 한 시점에 대해 상태가 천이하는 팩터의 수를, 예를 들어, 1개나 수 개 이하로 제한하는 제약을 채용할 수 있다.
상태 천이 제약에 따르면, 사후 확률 <S(m) t>을 얻는데 이용되는 사후 확률 γt,z, 나아가서는, 순방향 확률 αt,z와 역방향 확률 βt,z의 엄밀한 계산을 요구하는 상태들의 조합 z의 수가 상당히 감소되고, 그 감소된 상태들의 조합은 상당히 낮은 발생 확률을 갖는 조합이므로, 사후 확률(상태 확률) <S(m) t> 등의 정확도를 크게 손상시키지 않고 계산량을 상당히 줄일 수 있다.
근사 추정부(42)에서, 한 시점에 대해 상태가 천이하는 팩터의 수를 제한하기 위한 상태 천이 제약 하에서, 사후 확률 <S(m) t>를 얻는 방법으로서, E 단계의 처리에 파티클 필터를 적용하는 방법, 즉, FHMM 상태들의 조합 z에 파티클 필터를 적용하는 방법이 있다.
여기서, 파티클 필터는, 예를 들어, 전술된 문헌 B의 364 페이지에 개시되어 있다.
또한, 본 실시예에서, 상태 천이 제약은, 한 시점에 대해 상태가 천이하는 팩터의 수가, 예를 들어, 1개 이하로 제한되는 제약을 채용한다.
FHMM 상태들의 조합 z에 파티클 필터를 적용하는 경우, 파티클 필터의 p번째의 파티클 Sp는 FHMM의 상태들의 소정 합을 표현한다.
여기서, 파티클 Sp는, 그 파티클 Sp에 의해 표현되는, 팩터 #1의 상태 S(1) p , 팩터 #2의 상태 S(2) p,..., 팩터 #M의 상태 S(M) p의 조합이며, 수학식 파티클 Sp = {S(1) p, S(2) p,..., 및 S(M) P}로 표현된다.
또한, FHMM 상태들의 조합 z에 파티클 필터를 적용하는 경우, 상태들의 조합 St에서 계측 파형 Yt가 관측되는 수학식 (4)의 관측 확률 P(Yt|St) 대신에, 파티클 Sp(가 표현하는 상태들의 조합)에서 계측 파형 Yt가 관측되는 관측 확률 P(Yt|Sp)가 이용된다.
관측 확률 P(Yt|Sp)는, 예를 들어, 수학식 (21)에 따라 계산될 수 있다.
[수학식 21]
Figure 112014088720880-pct00023
수학식 (21)의 관측 확률 P(Yt|Sp)는, 평균치(평균 벡터)가 μt가 아니라 μp라는 점에서, 수학식 (4)의 관측 확률 P(Yt|St)와는 상이하다.
평균치 μt와 동일한 방식으로, 평균치 μp는, 예를 들어, 전류 파형 Yt와 동일한 D행의 열 벡터이며, 고유 파형 W(m)을 이용해 수학식 (22)로 표현된다.
[수학식 22]
Figure 112014088720880-pct00024
여기서, S*(m) p는, 파티클 Sp로서의 상태들의 조합을 형성하는 상태들 중 팩터 #m의 상태를 나타내며, 이하, 파티클 Sp의 팩터 #m의 상태 S*(m) p라고도 한다. 파티클 Sp의 팩터 #m의 현재 상태 S*(m) p는, 예를 들어, 수학식 (23)에 도시된 바와 같이, K행들 중 한 행만의 컴포넌트가 0이고 나머지 행들의 컴포넌트는 0인 K행의 열 벡터이다.
[수학식 23]
Figure 112014088720880-pct00025
파티클 Sp로서의 상태들의 조합을 형성하는 팩터 #m의 상태가 상태 #k인 경우, 파티클 Sp의 팩터 #m의 상태 S*(m) p로서의 K행의 열 벡터 S*(m) p에서, k번째 행 컴포넌트만이 1이고, 나머지 컴포넌트들은 0이다.
수학식 (22)에 따르면, 파티클 Sp로서의 상태들의 조합을 형성하는 각각의 팩터 #m의 상태 #k의 고유 파형 W(m) k의 총계는, 시점 t에서의 전류 파형 Yt의 평균치 μp로서 얻어진다.
도 16은, FHMM 상태들의 조합 z에 파티클 필터를 적용해 순방향 확률 αt,p(ALPHAt,p)를 얻는 방법을 나타내는 도면이다.
도 16에서는(후술되는 도 17 및 도 18에서도 동일), 예를 들어, FHMM의 팩터의 수가 4이고, 각각의 팩터는, 동작 상태로서 온 상태와 오프 상태를 나타내는 2개 상태를 가진다.
평가부(21)는, 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 분산 C, 고유 파형 W(m), 및 데이터 취득 유닛(11)으로부터의 계측 파형 Yt={Y1, Y2,..., 및 YT}를 이용해 각각의 시점 t={1, 2,..., 및 T}에서의, 각각의 파티클 Sp={S1, S2,..., 및 SR}로서의 상태들의 조합에서 수학식 (21)의 관측 확률 P(Yt|Sp)를 얻어 근사 추정부(42)에 공급한다.
근사 추정부(42)는, 평가부(21)로부터의 관측 확률 P(Yt|Sp) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j (및 초기 상태 확률 π(m))을 이용해, 계측 파형 Y1, Y2,..., 및 YT이 관측되고 시점 t에서 파티클 Sp로서의 조합에 있는 순방향 확률 αt,p를 얻는다.
순방향 확률 αt,p는, 예를 들어, 한 시점 전의 순방향 확률 αt-1,r을 이용한 점화식 αt,p =Σαt-1,rP(Sp|r) P(Yt|Sp)에 따라 얻어질 수 있다.
점화식 αt,p =Σαt-1, rP(Sp|r) P(Yt|Sp)에서, r은, 한 시점에 대해 상태가 천이하는 팩터의 수가 1 상태 이하로 제한되는 상태 천이 제약 하에서, 시점 t에서의 파티클 Sp로서의 상태들의 조합으로 천이할 수가 있는 시점 t-1에서의 파티클로서의 상태들의 조합 r을 나타낸다.
따라서, 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합이 파티클 Sp로서의 상태들의 조합과는 1개 상태만 상이한 상태들의 조합이, 상태들의 조합 r이 될 수 있다.
점화식 αt,p =Σαt-1,rP(Sp|r) P(Yt|Sp)에서, Σ는, 상태들의 모든 조합들 r에 대해 취해진 합산을 나타낸다.
또, 점화식 αt,p =Σαt-1, rP(Sp|r) P(Yt|Sp)에서, P(Sp|r)은, 팩터가 시점 t-1에서 파티클 Sp로서의 상태들의 조합 r에 있고 시점 t에서 파티클 Sp로서의 상태들의 조합으로 천이하는 천이 확률을 나타내고, 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j를 이용해 수학식 (3)에 따라 얻어질 수 있다.
또한 순방향 확률 αt,p의 초기치, 예를 들어, 시점 t=1에서의 순방향 확률 α1,z로서, 상태들의 모든 조합으로부터 파티클 Sp로서 무작위로 선택되는 상태들의 조합을 형성하는 각각의 팩터 #m의 상태 #k의 초기 상태 확률 π(m) k의 곱이 채용된다.
근사 추정부(42)는 FHMM이 취할 수 있는 상태들의 조합들 모두가 아니라 파티클 Sp로서의 상태들의 조합에 관해서만 순방향 확률 αt,p를 얻는다.
시점 t에 존재하는 파티클 Sp의 수가 R이면, R개의 순방향 확률 αt,p가 얻어진다.
순방향 확률 αt,p가 시점 t에서의 R개의 파티클 Sp = {S1, S2,..., 및 SR}에서 얻어지면, 근사 추정부(42)는, 그 순방향 확률 αt,p에 기초해 R개의 파티클 Sp={S1, S2,..., 및 SR}로부터 파티클들을 샘플링한다.
즉, 근사 추정부(42)는, R개의 파티클 Sp = {S1, S2,..., 및 SR}로부터, 순방향 확률 αt,p의 내림차순으로 미리결정된 P개의 파티클 Sp = {S1, S2,..., 및 SP}를 샘플링하고, P개의 파티클 Sp만을 시점 t의 파티클로서 남긴다.
또한, P≥R이면, R개의 파티클 Sp 모두가 샘플링된다.
또한, 샘플링할 파티클 Sp의 개수 P는 FHMM이 취할 수 있는 상태들의 조합의 수보다 작은 값이며, 예를 들어, 감시 시스템에 대해 허용가능한 계산 비용에 기초하여 설정된다.
시점 t의 P개의 파티클 Sp = {S1, S2,..., 및 SP}가 샘플링되면, 근사 추정부(42)는 그 P개의 파티클 Sp = {S1, S2,..., 및 SP} 각각의 한 시점 후의 시점 t+1의 파티클을 상태 천이 제약 하에서 예측한다.
한 시점에 대해 상태가 천이하는 팩터의 수가 1 상태 이하로 제한되는 상태 천이 제약 하에서, 시점 t + 1의 파티클 Sq로서는, 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합이 파티클 Sp로서의 상태들의 조합과는 1개 상태만 상이한 상태들의 조합이 예측된다.
전술된 바와 같이, FHMM의 팩터의 수가 4개이고, 각각의 팩터가 동작 상태로서 온 상태와 오프 상태를 나타내는 2개 상태를 갖는 경우, 시점 t에서의 파티클 Sp와 관련하여, 시점 t의 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합과 시점 t의 파티클 Sp로서의 상태들의 조합과는 1개 상태만 상이한 4개의 상태들의 조합과의 총 5개 조합이 시점 t + 1의 파티클 Sq로서 예측된다.
근사 추정부(42)는, 시점 t + 1의 파티클 Sq={S1, S2,..., SQ}를 예측한 다음, 시점 t의 파티클 Sp와 동일한 방식으로, 각각의 t + 1의 파티클 Sq에 관하여, 순방향 확률 αt+1,q를 얻고, 그 후 각각의 시점들 t=1, 2,..., 및 T에서 동일한 방식으로 순방향 확률들을 얻는다.
전술된 바와 같이, 근사 추정부(42)는, 한 시점 후의 파티클을 상태 천이 제약 하에서 예측하고 순방향 확률 αt,z에 기초해 미리결정된 개수의 파티클을 샘플링하는 것을 반복하면서 각각의 팩터 #m의 상태들의 조합을 파티클로서 이용함으로써, 각각의 시점에 대해 파티클로서의 상태들의 조합 z의 순방향 확률 αt,z를 얻는다.
도 17은, FHMM 상태들의 조합 z에 파티클 필터를 적용함으로써 역방향 확률 βt,p(BETAt ,p)를 얻는 방법을 나타내는 도면이다.
근사 추정부(42)는, 평가부(21)로부터의 관측 확률 P(Yt|St) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j를 이용함으로써, 시점 t에서 파티클 Sp로서의 상태들의 조합에 있고, 그 후, 계측 파형 Yt, Yt+1,..., YT가 관측되는 역방향 확률 βt,p를 얻는다.
역방향 확률 βt,p는, 한 시점 후의 역방향 확률 βt+1,r을 이용한 점화식 βt,p = ΣP(Yt|Sp)P(r|Spt+1,r에 따라 얻어질 수 있다.
점화식 βt,p = ΣP(Yt|Sp)P(r|Spt+1,r에서, r은, 한 시점에 대해 상태가 천이하는 팩터의 수가 1 상태 이하로 제한되는 상태 천이 제약 하에서, 시점 t에서의 파티클 Sp로서의 상태들의 조합으로 천이할 수 있는 시점 t+1에서의 파티클로서의 상태들의 조합 r을 나타낸다.
따라서, 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합이 파티클 Sp로서의 상태들의 조합과는 1개 상태만 상이한 상태들의 조합이, 상태들의 조합 r이 될 수 있다.
점화식 βt,p = ΣP(Yt|Sp)P(r|Spt+1,r에서, Σ는 상태들의 모든 조합 r에 대해 취해진 합산을 나타낸다.
점화식 βt,p = ΣP(Yt|Sp)P(r|Spt+1,r에서, P(r|Sp)는, 팩터가 시점 t에서 파티클 Sp로서의 상태들의 조합 r에 있고 시점 t+1에서 파티클 Sp로서의 상태들의 조합으로 천이하는 천이 확률을 나타내고, 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j를 이용해 수학식 (3)에 따라 얻어질 수 있다.
또한, 역방향 확률 βt,p의 초기치 βT,p는 1을 채용한다.
순방향 확률 αt,p와 동일한 방식으로, 근사 추정부(42)는 FHMM이 취할 수 있는 상태들의 조합 모두가 아니라 파티클 Sp로서의 상태들의 조합만에 관해 역방향 확률 βt,p를 얻는다.
시점 t에 존재하는 파티클 Sp의 수가 R이면, R개의 순방향 확률 βt,p가 얻어진다.
역방향 확률 βt,p가 시점 t에서의 R개의 파티클 Sp = {S1, S2,..., 및 SR}에서 얻어지면, 근사 추정부(42)는, 그 역방향 확률 βt,p에 기초해 R개의 파티클 Sp={S1, S2,..., 및 SR}로부터 파티클들을 샘플링한다.
즉, 순방향 확률 αt,p와 동일한 방식으로, 근사 추정부(42)는, R개의 파티클 Sp = {S1, S2,..., 및 SR}로부터, 역방향 확률 βt,p의 내림차순으로 미리결정된 P개의 파티클 Sp = {S1, S2,..., 및 SP}를 샘플링하고, P개의 파티클 Sp만을 시점 t의 파티클로서 남긴다.
시점 t의 P개의 파티클 Sp = {S1, S2,..., 및 SP}가 샘플링되면, 근사 추정부(42)는 그 P개의 파티클 Sp = {S1, S2,..., 및 SP} 각각의 한 시점 전의 시점 t-1의 파티클을 상태 천이 제약 하에서 예측한다.
한 시점에 대해 상태가 천이하는 팩터의 수가 1 상태 이하로 제한되는 상태 천이 제약 하에서, 시점 t - 1의 파티클 Sq로서는, 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합이 시점 t에서의 파티클 Sp로서의 상태들의 조합과는 한 상태만 상이한 상태들의 조합이 예측된다.
전술된 바와 같이, FHMM의 팩터의 수가 4개이고, 각각의 팩터가 동작 상태로서 온 상태와 오프 상태를 나타내는 2개 상태를 갖는 경우, 시점 t에서의 파티클 Sp와 관련하여, 시점 t의 파티클 Sp로서의 상태들의 조합과 동일한 상태들의 조합과 시점 t의 파티클 Sp로서의 상태들의 조합과는 한 상태만 상이한 4개의 조합과의 총 5개 조합이 시점 t - 1의 파티클 Sq로서 예측된다.
근사 추정부(42)는, 시점 t - 1의 파티클 Sq={S1, S2,..., SQ}를 예측한 다음, 시점 t의 파티클 Sp와 동일한 방식으로, 역방향 확률 βt+1,q를 얻고, 그 후 각각의 시점들 t=T, T-1,..., 1 에서 동일한 방식으로 순방향 확률들을 얻는다.
전술된 바와 같이, 근사 추정부(42)는, 한 시점 전의 파티클을 상태 천이 제약 하에서 예측하고 역방향 확률 βt,z에 기초해 미리결정된 개수의 파티클을 샘플링하는 것을 반복하면서 각각의 팩터 #m의 상태들의 조합을 파티클로서 이용함으로써, 각각의 시점에 대해 파티클로서의 상태들의 조합 z의 역방향 확률 βt,z를 얻는다.
도 18은, FHMM 상태들의 조합 z에 파티클 필터를 적용함으로써 사후 확률 γt,p(GAMMAt,p)를 얻는 방법을 나타내는 도면이다.
각각의 시점 t에서, 순방향 확률 αt,p가 얻어진 파티클(이하, 순방향 파티클이라고도 함) Sp로서의 상태들의 조합과 역방향 확률 βt,p'가 얻어진 파티클(이하, 역방향 파티클이라고도 한다) Sp'로서의 상태들의 조합이 동일한 상태들의 조합 z인 경우, 근사 추정부(42)는 그 상태들의 조합 z와 관련하여 순방향 확률 αt,z와 역방향 확률 βt,z를 이용해 수학식 (23)에 따라 전체 모델 Φ로서의 FHMM에서 시점 t에서의 상태들의 조합 z에 있는 사후 확률 γt,z를 얻는다.
[수학식 24]
Figure 112014088720880-pct00026
여기서, 수학식 (24)의 우변의 분모의 Σ는, 시점 t에서 순방향 파티클 Sp와 역방향 파티클 Sp'의 양쪽 모두에 공통으로 남아 있는 상태들의 조합들 Sp ∩ Sp' 모두에 대해 w를 변경함으로써 취해지는 합산을 나타낸다.
또한, 시점 t에서 순방향 파티클 Sp로서 남지 않은 상태들의 조합 z의 순방향 확률 αt,z 및 시점 t에서 역방향 파티클 Sp'로서 남지 않은 상태들의 조합 z의 역방향 확률 βt,z 모두는, 예를 들어, 0이다.
따라서, 시점 t에서의 순방향 파티클 Sp와 역방향 파티클 Sp' 양쪽 모두에 공통으로 남아 있는 상태들의 조합 Sp ∩ Sp' 이외의 상태들의 조합의 사후 확률 γt,z는, 0이다.
도 15의 감시 시스템은 FHMM 상태들의 조합 z에 파티클 필터를 적용함으로써 상태 천이 제약 하에서 사후 확률 <S(m) t>등이 얻어지는 것을 제외하고는, 도 3 의 감시 시스템과 동일한 처리를 수행한다.
도 19 및 도 20은, 도 15의 감시 시스템에 의해 도 6의 단계 S13에서 수행되는 E 단계의 처리를 나타내는 흐름도이다.
또한, 도 20은 도 19에 계속되는 흐름도이다.
단계 S81에서, 근사 추정부(42)는 시점(을 나타내는 변수) t를 순방향 확률에 대한 초기치로서의 1로 초기화하고, 처리는, 단계 S82로 진행한다.
단계 S82에서, 근사 추정부(42)는 FHMM이 취할 수 있는 상태들의 조합으로부터, 미리결정된 개수의 상태들의 조합을, 예를 들어, 무작위로, 파티클 Sp로서 선택(샘플링)한다. 또한 단계 S82에서, FHMM이 취할 수 있는 상태들의 조합 모두는 파티클 Sp로서 선택될 수 있다.
근사 추정부(42)는 파티클 Sp로서의 상태들의 조합에 관하여 순방향 확률 αt,p의 초기치 α1,p를 얻고, 처리는, 단계 S82로부터 단계 S83으로 진행한다.
단계 S83에서, 시점 t가, 계측 파형 Yt ={Y1, Y2,..., 및 YT}의 마지막 시점(계열 길이) T와 동일한지의 여부를 판정한다.
단계 S83에서 시점 t가 계측 파형 Yt의 계열의 마지막 시점 T와 동일하지 않다고 판정되면, 즉, 시점 t가 시점 T미만이라면, 처리는 단계 S84로 진행하여 근사 추정부(42)는 미리결정된 조건으로서의 상태 천이 제약 하에서 파티클 Sp로서의 상태들의 조합에 관하여 한 시점 이후의 시점 t + 1의 파티클을 예측하고, 처리는 단계 S85로 진행한다.
단계 S85에서는, 근사 추정부(42)는 시점 t를 1만큼 증가시키고, 처리는 단계 S86으로 진행한다.
단계 S86에서는, 평가부(21)는 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 분산 C, 및 고유 파형 W(m), 및 데이터 취득 유닛(11)으로부터의 계측 파형 Yt={Y1, Y2,..., 및 YT}를 이용해 시점 t에서의 파티클 Sp ={S1, S2,..., 및 SR}로서의 상태들의 조합에 관하여 수학식 (21)의 관측 확률 P(Yt|Sp)를 얻는다. 평가부(21)는 관측 확률 P(Yt|Sp)를 근사 추정부(42)에 공급하고, 처리는 단계 S86으로부터 단계 S87로 진행한다.
단계 S87에서, 근사 추정부(42)는, 평가부(21)로부터의 관측 확률 P(Yt|Sp) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j(및 초기 상태 확률 π(m))를 이용해, 계측 파형 Y1, Y2,..., 및 Yt를 측정하고, 시점 t에서 파티클 Sp로서의 상태들의 조합에 있는 순방향 확률 αt,p를 얻고, 처리는 단계 S88로 진행한다.
단계 S88에서, 근사 추정부(42)는, 순방향 확률 αt,p에 기초해 파티클 Sp로부터 순방향 확률 αt,p의 내림차순으로 미리결정된 개수의 파티클을 샘플링해 시점 t의 파티클로서 남긴다.
그 후, 처리는 단계 S88로부터 단계 S83으로 복귀하여, 이하에서부터, 동일한 처리가 반복적으로 수행된다.
또한, 단계 S83에서 시점 t가 계측 파형 Yt의 계열의 마지막 시점 T에 동일하다고 판정되고, 처리는 도 20의 단계 S91로 진행한다.
단계 S91에서는, 근사 추정부(42)는 시점 t를 역방향 확률에 대한 초기치로서의 T로 초기화하고, 처리는 단계 S92로 진행한다.
단계 S92에서, 근사 추정부(42)는 FHMM이 취할 수 있는 상태들의 조합으로부터, 미리결정된 개수의 상태들의 조합을, 예를 들어, 무작위로, 파티클 Sp로서 선택(샘플링)한다. 또한, 단계 S92에서, FHMM이 취할 수 있는 상태들의 조합 모두는 파티클 Sp로서 선택될 수 있다.
근사 추정부(42)는 파티클 Sp로서의 상태들의 조합에 관하여 역방향 확률 βt,p의 초기치 αT,p를 얻고, 처리는 단계 S92로부터 단계 S93으로 진행한다.
단계 S93에서, 시점 t가, 계측 파형 Yt ={Y1, Y2,..., 및 YT}의 최초 시점 1과 동일한지의 여부를 판정한다.
단계 S93에서 시점 t가 계측 파형 Yt의 계열의 최초 시점 1과 동일하지 않다고 판정되면, 즉, 시점 t가 시점 1보다 크다면, 처리는 단계 S94로 진행하여 근사 추정부(42)는 미리결정된 조건으로서의 상태 천이 제약 하에서 파티클 Sp로서의 상태들의 조합에 관하여 한 시점 이전의 시점 t - 1의 파티클을 예측하고, 처리는 단계 S95로 진행한다.
단계 S95에서는, 근사 추정부(42)는 시점 t를 1만큼 감소시키고, 처리는 단계 S96으로 진행한다.
단계 S96에서는, 평가부(21)는 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 분산 C, 및 고유 파형 W(m), 및 데이터 취득 유닛(11)으로부터의 계측 파형 Yt={Y1, Y2,..., 및 YT}를 이용해 시점 t에서의 파티클 Sp ={S1, S2,..., 및 SR}로서의 상태들의 조합에 관하여 수학식 (21)의 관측 확률 P(Yt|Sp)를 얻는다. 평가부(21)는 관측 확률 P(Yt|Sp)를 근사 추정부(42)에 공급하고, 처리는 단계 S96으로부터 단계 S97로 진행한다.
단계 S97에서는, 근사 추정부(42)는 평가부(21)로부터의 관측 확률 P(Yt|Sp) 및 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 FHMM의 천이 확률 P(m) i,j(및 초기 상태 확률 π(m))을 이용해, 시점 t에서 파티클 Sp로서의 상태들의 조합에 있고 그 후 계측 파형 Yt, Yt+1,..., 및 YT가 측정되는 역방향 확률 βt,p를 얻고, 처리는 단계 S98로 진행된다.
단계 S98에서, 근사 추정부(42)는, 역방향 확률 βt,p에 기초해 파티클 Sp로부터 역방향 확률 βt,p의 내림차순으로 미리결정된 개수의 파티클을 샘플링해 시점 t의 파티클로서 남긴다.
그 후, 처리는 단계 S98로부터 단계 S93으로 복귀하고, 이하에서부터, 동일한 처리가 반복적으로 수행된다.
또한, 단계 S93에서 시점 t가 계측 파형 Yt의 계열의 최초 시점 1과 동일하다고 판정되면, 처리는 단계 S99로 진행한다.
단계 S99에서, 근사 추정부(42)는, 순방향 확률 αt,z(=αt,p)와 역방향 확률 βt,z(=βt,p)를 이용해 수학식 (24)에 따라 전체 모델 Φ으로서의 FHMM의 시점 t에서의 상태들의 조합 z에 있는 사후 확률 γt,z를 얻고, 처리는 단계 S100으로 진행한다.
이하, 단계 S100 및 S101에서는, 도 7의 단계 S25 및 S26에서는 동일한 처리가 수행되고, 따라서 사후 확률 <S(m) t>,<S(m) tS(n) t'>, 및<S(m) t-1S(m) t>가 얻어진다.
전술된 바와 같이, 근사 추정부(42)에서, FHMM 상태들의 조합 z에 파티클 필터를 적용함으로써, 상태 천이 제약 하에서 사후 확률 <S(m) t> 등이 얻어지므로, 가능성이 낮은 상태들의 조합에 대한 계산이 생략됨으로써, 사후 확률 <S(m) t> 등의 계산의 효율화를 개선시킨다.
<본 기술이 적용되는 감시 시스템의 제4 실시예>
도 21은 본 기술이 적용되는 감시 시스템의 제4 실시예의 구성예를 나타내는 블록도이다.
또한, 도면에서, 도 3의 경우에 대응하는 부분들에는 동일한 참조 번호가 주어지고, 이하에서는, 그 설명이 적절히 생략될 것이다.
도 21의 감시 시스템은, 데이터 취득 유닛(11) 내지 데이터 출력 유닛(16)이 제공된다는 점에서, 도 3의 감시 시스템과 공통된다.
그러나, 도 21의 감시 시스템은, 모델 학습 유닛(14)의 파형 분리 학습부(31) 대신에 제약된 분리 학습부(51)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
도 3의 분리 학습부(31)는 특별한 제약없이 고유 파형 W(m)을 얻지만, 제약된 분리 학습부(51)는, 가전 기기에 특유한 미리결정된 제약 하에서 고유 파형 W(m)을 얻는다(가전 기기 분리).
여기서, 도 3의 분리 학습부(31)에서는, M 단계에서 고유 파형 W(m)의 계산에 특별한 제약은 부과되지 않는다.
그 때문에, 도 3의 분리 학습부(31)에서는, 계측 파형 Yt가 복수의 전류 파형을 중첩하여 얻어진 한 파형이라는 것만을 고려하여 파형 분리 학습을 통해 고유 파형 W(m)이 계산된다.
즉, 도 3의 분리 학습부(31)의 파형 분리 학습에서는, 계측 파형 Yt가 복수의 전류 파형을 중첩한 파형인 것으로서 간주되고, 그 복수의 전류 파형으로서의 고유 파형 W(m)이 분리된다.
고유 파형 W(m)의 계산에 아무런 제약도 없는 경우, 파형 분리 학습의 해(solution)의 자유도(리던던시), 즉, 계측 파형 Yt로부터 분리될 수 있는 복수의 전류 파형의 자유도는 매우 높으므로, 가전 기기의 전류 파형으로서는 부적절한 전류 파형으로서의 고유 파형 W(m)이 얻어질 수 있다.
따라서, 제약된 파형 분리 학습부(51)는 가전 기기에 특유한 미리결정된 제약 하에서 파형 분리 학습을 수행하여, 가전 기기의 전류 파형으로서는 부적절한 전류 파형으로서의 고유 파형 W(m)이 얻어지는 것을 방지하고, 가전 기기의 정확한 전류 파형으로서의 고유 파형 W(m)을 얻는다.
여기서, 미리결정된 제약 하에서 수행되는 파형 분리 학습은, 제약된 파형 분리 학습이라고도 한다.
도 21의 감시 시스템은, 제약된 파형 분리 학습이 수행된다는 점을 제외하고는, 도 3의 감시 시스템과 동일한 처리를 수행한다.
제약된 파형 분리 학습에서, 가전에 특유한 제약으로서는, 예를 들어, 부하 제약이나 기저 파형 제약이 있다.
부하 제약은, 가전 기기 #m의 전류 파형으로서의 고유 파형 W(m)과 가전 기기 #m에 인가되는 전압의 전압 파형, 즉, 전류 파형인 계측 파형 Yt에 대응하는 전압 파형 Vt와의 곱셈에 의해 얻어지는 가전 기기의 전력 소비 U(m)이 음의 값을 갖지 않는다(가전 기기 #m이 전력을 생성하지 않는다)라는 제약이다.
기저 파형 제약은, 가전 기기 #m의 각각의 동작 상태에서 소비되는 전류의 전류 파형인 고유 파형 W(m)이, 그 가전 기기 #m에 대해 기저 파형으로서 미리 준비된 복수의 파형의 하나 이상의 조합으로 표현된다는 제약이다.
도 22는, 부하 제약을 부과하는 도 21의 감시 시스템에 의해 수행되는 도 6의 단계 S14의 M 단계의 처리를 나타내는 흐름도이다.
단계 S121에서, 제약된 파형 분리 학습부(51)는, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt 및 추정부(22)로부터의 사후 확률 <S(m) t> 및 <S(m) tS(n) t'>를 이용해 부하 제약 하에서 파형 분리 학습을 수행하여, 고유 파형 W(m)의 갱신치 W(m)new를 얻고, 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 그 갱신치 W(m)new로 갱신하고, 처리는 단계 S122로 진행한다.
즉, 제약된 파형 분리 학습부(51)는, 제약을 갖는 2차 프로그래밍을 이용해 부하 제약 하에서의 파형 분리 학습으로서 수학식 (25)를 풀어, 고유 파형 W(m)의 갱신치 W(m)new를 얻는다.
[수학식 25]
Figure 112014088720880-pct00027
여기서, 수학식 (25)에서는, 고유 파형 W(m)의 갱신치 W(m)new가 되는 고유 파형 W에, 부하 제약으로서의 수학식 0≤V'W를 만족하는 제약이 부과된다.
V는 계측 파형 Yt로서의 전류 파형에 대응하는 전압 파형 Vt를 나타내는 D행의 열 벡터이고, V'는 열 벡터 V를 전치함으로써 얻어지는 행 벡터이다.
또한, 수학식 (25)의 고유 파형의 갱신치 Wnew, 사후 확률 <St'>, 및 <StSt'>는, 수학식 (12)에서 설명된 바와 같다.
즉, 고유 파형의 갱신치 Wnew는, D행 K×M 열의 행렬이며, 그 (m-1)K + k열의 열 벡터는 팩터 #m의 상태 #k의 고유 파형 W(m) k의 갱신치이다.
사후 확률 <St'>는 K×M 열의 행 벡터이며, 그 ((m-1)K + k)번째 열의 컴포넌트는 팩터 #m이 시점 t에서 상태 #k에 있는 상태 확률이다.
사후 확률 <StSt'>는, K×M 행 K×M 열의 행렬이며, 그 ((m-1)K + k)번째 행 ((n-1)K + k')번째 열의 컴포넌트는, 팩터 #m이 시점 t에서 상태 #k에 있고 다른 팩터 #n이 상태 #k'에 있는 상태 확률이다.
또한, 수학식 (25)의 고유 파형 W는, 고유 파형의 갱신치 Wnew와 동일한 D행 K×M열의 행렬이고, 수학식 (25)의 우변의 argmin{X}의 X를 최소화하는 고유 파형 W는 2차 프로그래밍을 이용해 고유 파형의 갱신치 Wnew로서 얻어진다.
단계 S122 및 S123에서는, 도 9의 단계 S32 및 S33에서와 동일한 처리가 수행된다.
도 23은 부하 제약을 나타내는 도면이다.
즉, 도 23의 A는, 제약이 없는 파형 분리 학습을 통해 얻어지는 전류 파형으로서의 고유 파형 W(m)을 나타내고 있고, 도 23의 B는, 부하 제약 하에서 파형 분리 학습을 통해 얻어지는 전류 파형으로서의 고유 파형 W(m)을 도시한다.
또한 도 23에서, 팩터의 수 M은 2이고, 팩터 #1가 있는 상태 #k의 고유 파형 W(1) k와 팩터 #2가 있는 상태 #k'의 고유 파형 W(2) k'가 도시되어 있다.
도 23의 A 및 도 23의 B에서, 팩터 #1의 고유 파형 W(1) k인 전류 파형은 모두, 전압 파형 Vt와 동상이다.
그러나, 도 23의 A에서는, 부하 제약이 부과되지 않기 때문에, 팩터 #2의 고유 파형 W(2) k'인 전류 파형은 전압 파형 Vt와 역상이다.
한편, 도 23의 B에서는, 부하 제약이 부과된 결과, 팩터 #2의 고유 파형 W(2) k'인 전류 파형은 전압 파형 Vt와 동상이다.
계측 파형 Yt는, 도 23의 A에 도시된 팩터 #1의 고유 파형 W(1) k와 팩터 #2의 고유 파형 W(2) k'로 분리될 수 있고, 도 23의 B에 나타낸 팩터 #1의 고유 파형 W(1) k와 팩터 #2의 고유 파형 W(2) k'로 분리될 수 있다.
그러나, 계측 파형 Yt가 도 23의 A에 도시된 팩터 #1의 고유 파형 W(1) k와 팩터 #2의 고유 파형 W(2) k'로 분리되는 경우에는, 고유 파형 W(2) k'가 전압 파형 Vt와 역상인 팩터 #2에 대응하는 가전 기기 #2는 전력을 생성하므로, 적절한 가전 기기 분리를 수행하는 것이 곤란할 우려가 있다.
한편, 부하 제약이 부과될 때, 계측 파형 Yt는 도 23의 B에 도시된 팩터 #1의 고유 파형 W(1) k와 팩터 #2의 고유 파형 W(2) k'로 분리된다.
도 23의 B의 고유 파형 W(1) k 및 고유 파형 W(2) k'는 모두 전압 파형 Vt와 동상이므로, 부하 제약에 따라, 팩터 #1에 대응하는 가전 기기 #1 및 팩터 #2에 대응하는 가전 기기 #2는 모두 전력을 소비하는 부하이고, 적절한 가전 기기 분리를 수행할 수 있다.
도 24는 기저 파형 제약을 나타내는 도면이다.
도 24에서, Y는, D행 T열의 행렬로서 D행의 열 벡터인 계측 파형 Yt가 시점 t 순서로 좌측에서 우측으로 정렬된 행렬이다. D행 T열의 행렬인 계측 파형 Y의 t번째의 열 벡터는 시점 t에서의 계측 파형 Yt이다.
도 24에서, W는, D행 K열의 행렬인 팩터 #m의 고유 파형 W(m)이 팩터 #m 순서로 좌측에서 우측으로 정렬된 D행 K×M 열의 행렬이다. D행 K×M 열의 행렬인 고유 파형 W의 (m-1) K + k열의 열 벡터는, 팩터 #m의 상태 #k의 고유 파형 W(m) k이다.
도 24에서, F는 K×M을 나타낸다.
도 24에서, <St>는, K행의 열 벡터인 시점 t의 사후 확률 <S(m) t>가 팩터 #m의 순서로 위로부터 아래로 정렬된 F=K×M행의 열 벡터를, 시점 t의 순서로, 좌측에서 우측으로 정렬함으로써 얻어지는 K×M행 T열의 행렬이다. K×M행 T열의 행렬인 사후 확률 <St>의 ((m-1) K + k)번째 행 t번째 열 컴포넌트는, 시점 t에서 팩터 #m이 상태 #k에 있는 상태 확률이다.
파형 분리 학습에서는, FHMM에서, 도 24에 도시된 바와 같이, 고유 파형 W와 사후 확률 <St>의 곱 W×<St>가 계측 파형 Y로서 관측됨으로써, 고유 파형 W가 얻어진다.
전술된 바와 같이, 기저 파형 제약은, 가전 기기 #m의 각각의 동작 상태의 전류 소비의 전류 파형인 고유 파형 W(m)이, 그 가전 기기 #m에 대해 기저 파형으로서 미리 준비된 복수의 파형의 하나 이상의 조합으로 표현되는 제약이기 때문에, 도 24에 도시된 바와 같이, 고유 파형 W는, 소정의 개수 N의 기저 파형 B와 미리결정된 계수 A의 곱 B×A로 표시됨으로써, 고유 파형 W가 얻어진다.
여기서, n번째의 기저 파형 B가 미리결정된 개수 N의 기저 파형 B 중의 Bn으로 표시될 때, Bn은, 예를 들어, 파형의 샘플치를 컴포넌트로서 갖는 D행의 열 벡터이며, 기저 파형 B는, D행의 열 벡터인 기저 파형 Bn이 인덱스 n의 순서로 좌측에서 우측으로 정렬된 D행 N열의 행렬이다.
계수 A는 N행 K×M열의 행렬이며, n번째 행 ((m-1)K+k)번째 열의 컴포넌트는, 고유 파형 W(m) k를 N개의 기저 파형 B1, B2,..., BN의 조합(중첩)으로 표현하는데 있어서 n번째의 기저 파형 Bn으로 곱해지는 계수이다.
여기서, 고유 파형 W(m) k가 N개의 기저 파형 B1 내지 BN의 조합으로 표현될 때, 예를 들어, N개의 기저 파형 B1 내지 BN으로 곱해지는 계수로서의 N행의 열 벡터가 계수 A(m) k로 표시되고, 그 계수 A(m) k가 팩터 #m의 K개 상태 #1 내지 #K의 순서로 좌측에서 우측으로 정렬된 N행 K열의 행렬이 계수 A(m)으로 표시된다면, 계수 A는, 계수 A(m)이 팩터 #m의 순서로 좌측에서 우측으로 정렬된 행렬이다.
기저 파형 B는, 계측 파형 Y에 대해, 예를 들어, 화상 처리에 이용되는 ICA(Independent Component Analysis) 또는 NMF(Non-negative Matrix Factorization) 등의 기저 추출을 수행함으로써 준비(취득)될 수 있다.
계측 파형 형태는 가정 내 전기 장치의 전기 신호들의 합을 포함하거나, 가정 내에 존재하는 전기 장치의 전기 신호들의 한 집단(예를 들어, 가정 내에 존재하는 각각의 전기 장치의 전기 신호들의 집단)을 포함할 수 있다.
또한, 제조사 등이 가전 기기의 기저 파형이 홈페이지 등에 공개되는 것을 허용하는 경우에는, 기저 파형 B는 그 홈페이지에 액세스함으로써 준비될 수 있다.
도 25는, 기저 파형 제약을 부과하는 도 21의 감시 시스템에 의해 수행되는 도 6의 단계 S14의 M 단계의 처리를 나타내는 흐름도이다.
단계 S131에서, 제약된 파형 분리 학습부(51)는, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt 및 추정부(22)로부터의 사후 확률 <S(m) t> 및 <S(m) tS(n) t'>를 이용해 기저 파형 제약 하에서 파형 분리 학습을 수행하여, 고유 파형 W(m)의 갱신치 W(m)new를 얻고, 모델 기억 유닛(13)에 기억된 고유 파형 W(m)을 그 갱신치 W(m)new로 갱신하고, 처리는 단계 S132로 진행한다.
즉, 제약된 파형 분리 학습부(51)는, 제약을 갖는 2차 프로그래밍을 이용하여 기저 파형 제약 하에서의 파형 분리 학습으로서 수학식 (26)을 풀어, 고유 파형 W를 기저 파형 B의 조합으로 표현하기 위한 계수 Anew를 얻는다.
[수학식 26]
Figure 112014088720880-pct00028
여기서, 수학식 (26)에서는, 고유 파형 W를 미리결정된 개수 N의 기저 파형 B와 미리결정된 계수 A의 곱 B×A로 나타내는 것 및 계수 A를 최소화하는 것(minA)이 기저 파형 제약으로서 부과되고 있다.
계수 A를 최소화하는 것(minA)이란, 계수 A인 N행 K×M열의 행렬의 각각의 컴포넌트의 값(크기)이 최소화되는 것을 의미하고, 계수 A인 N행 K×M열의 행이 가능한 한 드물게(sparse)되는 것을 의미한다.
계수 A인 N행 K×M열의 행렬이 가능한 한 드물게 됨으로써, 고유 파형 W(m) k는 가능한 한 작은 수의 기저 파형들 Bn의 조합으로 표시된다.
수학식 (26)에 따라 계수 Anew가 얻어지면, 제약된 파형 분리 학습부(51)는, 수학식 (27)에 따라 계수 Anew와 기저 파형 B를 이용해 고유 파형 W(m)의 갱신치 W(m)new를 얻는다.
[수학식 27]
Figure 112014088720880-pct00029
단계 S132 및 S133에서는, 도 9의 단계 S32 및 S33에서와 동일한 처리가 수행된다.
가전 기기에 의해 소비되는 전류가 기저 파형의 하나 이상의 조합의 파형을 형성하는 경우에는, 기저 파형 제약을 부과함으로써 가전 기기에 의해 소비되는 전류로서 얻어질 수 없는 전류의 파형이 고유 파형으로서 얻어지는 것이 방지되므로, 가전 기기에 적절한 고유 파형을 얻을 수 있다.
또한, 상기 설명에서는, 부하 제약과 기저 파형 제약이 별개로 부과되지만, 부하 제약과 기저 파형 제약이 동시에 부과될 수도 있다.
부하 제약과 기저 파형 제약을 함께 부과하는 경우에는, M 단계에서, 제약된 파형 분리 학습부(51)는, 제약을 갖는 2차 프로그래밍을 이용해 부하 제약, 및 기저 파형 제약 하에서의 파형 분리 학습으로서 수학식 (28)을 풀어, 고유 파형 W를 기저 파형 B의 조합으로 표현하기 위한 계수 Anew와, 고유 파형 W를 이용해 얻어지는 가전 기기의 전력 소비를 음의 값으로 만들지 않는 계수 Anew를 얻는다.
[수학식 28]
Figure 112014088720880-pct00030
또한, 제약된 파형 분리 학습부(51)는, 수학식 (28)에 따라 얻어지는 계수 Anew와 수학식 (29)에 따라 얻어지는 기저 파형 B를 이용함으로써 고유 파형 W(m)의 갱신치 W(m)new를 얻는다.
[수학식 29]
Figure 112014088720880-pct00031
<본 기술이 적용되는 감시 시스템의 제5 실시예>
도 26은 본 기술이 적용되는 감시 시스템의 제5 실시예의 구성예를 나타내는 블록도이다.
또한, 도면에서, 도 3의 경우에 대응하는 부분들에는 동일한 참조 번호가 주어지고, 이하에서는, 그 설명이 적절히 생략될 것이다.
도 26의 감시 시스템은, 데이터 취득 유닛(11) 내지 데이터 출력 유닛(16)이 제공된다는 점에서, 도 3의 감시 시스템과 공통된다.
그러나, 첫째로, 도 26의 감시 시스템은, 모델 학습 유닛(14)의 분산 학습부(32) 대신에 도 12의 개별 분산 학습부(52)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
두 번째, 도 26의 감시 시스템은, 상태 추정 유닛(12)의 추정부(22) 대신에 도 15의 근사 추정부(42)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
세 번째, 도 26의 감시 시스템은, 모델 학습 유닛(14)의 파형 분리 학습부(31) 대신에 도 21의 제약된 분리 학습부(51)가 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
따라서, 도 26의 감시 시스템은, 각각의 팩터 #m에 대해, 또는 각각의 팩터 #m의 상태 #k에 대해, 개개의 분산 σ(m)을 얻기 위한 개별 분산 학습을 수행한다.
또한, 도 26의 감시 시스템은, 한 시점에 대해 상태가 천이하는 팩터의 수가 제한되는 상태 천이 제약 하에서, 사후 확률(상태 확률) <S(m) t>를 얻기 위한 근사 추정을 수행한다.
또한, 도 26의 감시 시스템은 제약된 파형 분리 학습을 통해 고유 파형 W(m)을 얻는다.
또한, 감시 시스템은, 개별 분산 학습, 근사 추정, 및 제약된 파형 분리 학습을 독립적으로 수행하거나, 개별 분산 학습, 근사 추정, 및 제약된 파형 분리 학습을 함께 수행하거나, 개별 분산 학습, 근사 추정, 및 제약된 파형 분리 학습 가운데 임의의 2개를 수행할 수도 있다.
<가전 기기 분리 이외의 경우에 대한 감시 시스템의 적용>
이상, FHMM의 학습을 수행하는 감시 시스템이 총계 데이터로서의 전류 파형을 감시하고 가전 기기 분리를 수행하는 경우가 설명되었지만, FHMM의 학습을 수행하는 감시 시스템은, 하나 이상의 신호가 중첩되는 중첩 신호가 감시되고, 그 중첩 신호에 중첩되는 신호가 분리되는 임의의 애플리케이션에 적용될 수 있다.
도 27은 FHMM의 학습을 수행하는 감시 시스템에 의한 화자 분리(talker separation)의 개요를 나타내는 도면이다.
FHMM의 학습을 수행하는 감시 시스템에 따르면, 가전 기기 분리에서 계측 파형 Yt로서 이용되는 전류 파형 대신에, 복수의 화자의 발화가 중첩되는 음성 신호를 이용함으로써, 그 복수의 화자의 발화가 중첩되는 음성 신호로부터 각각의 화자의 음성을 분리하기 위한 화자 분리를 수행할 수 있다.
FHMM의 학습을 수행하는 감시 시스템이 화자 분리를 수행하는 경우에도, 가전 기기 분리의 경우와 동일한 방식으로, 개별 분산 학습, 근사 추정, 제약된 파형 분리 학습이 수행될 수 있다.
화자 분리에서, 각각의 팩터 #m에 대해, 또는, 각각의 팩터 #m의 상태 #k에 대해 개별 분산 σ(m)을 이용하는 경우에는, 하나의 분산 C를 이용하는 경우보다 FHMM의 표현 성능이 더욱 향상되므로, 화자 분리의 정밀도를 향상시킬 수 있다.
또한, 복수의 화자의 모든 발화 상태가 매 시간 변화할 가능성은 매우 낮기 때문에, 한 시점에 대해 발화 상태가 변하는 화자가 한 명 또는 수 명으로 제한되더라도, 화자 분리의 정밀도는 크게 영향받지 않는다.
따라서, 화자 분리에서, 한 시점에 대해 상태가 천이하는 팩터의 수가, 예를 들어, 1개 이하로 제한되는(발화 상태가 변하는 화자가 1명 이하로 제한된다) 상태 천이 제약 하에서, 사후 확률 <S(m) t>를 얻기 위한 근사 추정이 수행될 수가 있다. 또한, 상태 천이 제약 하에서 사후 확률 <S(m) t>를 얻기 위한 근사 추정에 따르면, 사후 확률 <S(m) t>를 얻는데 이용되는 사후 확률 γt,z가 엄격하게 계산할 필요가 있는 상태들의 조합 z의 수가 상당히 감소되므로, 계산량이 크게 줄어들 수 있다.
또한, 화자 분리에서, 개별 파형 W(m)은 사람의 음성의 파형이기 때문에, 그 주파수 성분은 사람의 음성이 취할 수 있는 주파수 대역에 존재한다. 따라서, 화자 분리에서 수행되는 제약된 파형 분리 학습에서는, 개별 파형 W(m)의 주파수 성분이 사람의 음성이 취할 수 있는 주파수 대역 내의 주파수 성분으로 제한되는, 사람의 음성에 특유한 제약이 채용될 수 있다. 이 경우, 사람의 음성의 파형으로서 적절한 고유 파형 W(m)이 얻어질 수 있다.
또한 화자 분리에서, 제약된 파형 분리 학습에 부과되는 제약으로서, 예를 들어, 가전 기기 분리의 경우와 동일한 방식으로, 기저 파형 제약이 채용될 수 있다.
<본 기술이 적용되는 감시 시스템의 제6 실시예>
도 28은 본 기술이 적용되는 감시 시스템의 제6 실시예의 구성예를 나타내는 블록도이다.
또한, 도면에서, 도 3의 경우에 대응하는 부분들에는 동일한 참조 번호가 주어지고, 이하에서는, 그 설명이 적절히 생략될 것이다.
도 28의 감시 시스템은, 데이터 취득 유닛(11) 내지 데이터 출력 유닛(16)이 제공된다는 점에서, 도 3의 감시 시스템과 공통된다.
그러나, 첫째, 도 28의 감시 시스템은, 상태 추정 유닛(12)에서 평가부(21) 및 추정 유닛(22)에 대신에 평가부(71) 및 추정부(72)가 각각 제공된다는 점에서, 도 3의 감시 시스템과는 상이하다.
두 번째, 도 28의 감시 시스템은, 모델 학습 유닛(14)에서 파형 분리 학습부(31) 대신에 제약된 분리 학습부(81)가 제공되고 분산 학습부(32) 및 상태 변동 학습부(33)가 제공되지 않는다는 점에서, 도 3의 감시 시스템과는 상이하다.
도 3의 감시 시스템은, FHMM을 전체 모델 Φ로서 이용해 가전 기기 분리를 수행하지만, 도 28의 감시 시스템은, FHMM 대신에, 예를 들어, 고유 파형 W(m)만을 모델 파라미터로서 갖는 모델(이하, 파형 모델이라고도 함)을 전체 모델 Φ로서 이용해 가전 기기 분리를 수행한다.
따라서, 도 28에서는, 모델 기억 유닛(13)에 파형 모델이 전체 모델 Φ로서 기억된다. 여기서, 파형 모델은, 고유 파형 W(m)을 모델 파라미터로서 갖고, 이 파형 모델에서는, 하나의 고유 파형 W(m)은 가전 기기 모델 #m에 대응한다.
상태 추정 유닛(12)은 평가부(71) 및 추정부(72)를 가지며, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt 및 모델 기억 유닛(13)에 기억된 파형 모델을 이용해 복수의 M개의 가전 기기 #1,#2,..., #m의 동작 상태를 추정하기 위한 상태 추정을 수행한다.
즉, 평가부(71)는, 모델 기억 유닛(13)에 기억된 전체 모델 Φ로서의 파형 모델을 형성하는 각각의 가전 기기 모델 #m에서, 데이터 취득 유닛(11)으로부터 공급되는 전류 파형 Y가 관측되는 정도를 평가한 평가치 E를 얻어 추정부(72)에 공급한다.
추정부(72)는, 평가부(71)로부터 공급되는 평가치 E를 이용해 각각의 가전 기기 모델 #m이 나타내는 각각의 가전 기기의 시점 t에서의 동작 상태 C(m) t,k를, 예를 들어, 정수 프로그래밍에 따라 추정해, 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 공급한다.
여기서, 추정부(72)는, 수학식 (30)의 정수 프로그래밍 프로그램을, 정수 프로그래밍에 따라 풀고, 가전 기기 #m의 동작 상태 C(m) t,k를 추정한다.
[수학식 30]
Figure 112014088720880-pct00032
여기서, 수학식 (30)에서, E는, 계측 파형 Yt와 전체 모델 Φ로서의 파형 모델에서 관측되는 총계 데이터로서의 전류 파형 ΣΣW(m) kC(m) t,k와의 오차를 나타내고, 추정 유닛(72)은 이 오차 E를 최소화하는 동작 상태 C(m) t,k를 얻는다.
또한, 수학식 (30)에서, 고유 파형 W(m) k는, 팩터 #m의 동작 상태 C(m) t,k에 고유한 전류의 파형인 고유 파형을 나타내고, 계측 파형 Yt와 동일한 방식의 D행의 열 벡터이다.
또한, 수학식 (30)에서, K(m)은, 가전 기기 #m의 동작 상태 C(m) t,k의 수(종류수)를 나타낸다.
동작 상태 C(m) t,k는 0이상의 정수이고, 스칼라치이며, 시점 t에서의 가전 기기 #m의 동작 상태를 나타낸다. 동작 상태 C(m)t,k는, 예를 들어, 가전 기기 #m의 모드(설정)에 대응하고, 가전 기기 #m이 ON 상태인 모드는, 예를 들어, 1개 이하로 제한되는 것으로 가정한다.
수학식 (31)은 가전 기기 #m이 ON 상태인 모드가 1개 이하로 제한된다는 것을 나타낸다.
[수학식 31]
Figure 112014088720880-pct00033
수학식 (31)에 따르면, 0이상의 정수인 동작 상태 C(m) t,k가 취할 수 있는 값은 0 또는 1일 수 있다.
또한, 정수 프로그래밍에 따라 가전 기기의 동작 상태를 추정하는 방법은, 예를 들어, "Non-intrusive Appliance Load Monitoring System", Shinkichi Inagaki, Tsukasa Egami, Tatsuya Suzuki (Nagoya University), Hisahide Nakamura, Koichi Ito (TOENEC CORP.), The 42nd Workshop on Discrete Event Systems of the Society of Instrument and Control Engineers, pp. 33-38, Dec 20, 2008, Osaka University에 기재되어 있다.
이상과 같이, 추정부(72)가 수학식 (30)을 풀어 가전 기기 #m의 동작 상태 C(m) t,k를 추정하는 경우, 평가부(71)는, 데이터 취득 유닛(11)으로부터 공급되는 계측 파형 Yt 및 모델 기억 유닛(13)에 기억된 파형 모델의 고유 파형 W(m) k를 이용해, 수학식 (30)의 오차 E를 얻어 평가치 E로서 추정부(72)에 공급한다.
모델 학습 유닛(14)에서, 도 21의 제약된 파형 분리 학습부(51)와 동일한 방식으로, 제약된 파형 분리 학습부(81)는, 가전 기기에 특유한 미리결정된 제약 하에서의 파형 분리 학습(제약된 파형 분리 학습)을 수행하여, 가전 기기의 전류 파형으로서는 부적절한 전류 파형으로서의 고유 파형 W(m) k가 얻어지는 것을 방지하고, 가전 기기의 정확한 전류 파형으로서의 고유 파형 W(m) k를 얻는다.
즉, 제약된 파형 분리 학습부(81)는, 데이터 취득 유닛(11)으로부터의 계측 파형 Yt 및 추정부(72)로부터의 가전 기기 #m의 동작 상태 C(m) t,k를 이용해, 예를 들어, 부하 제약 하에서, 파형 분리 학습을 수행하여, 고유 파형 W(m) k의 갱신치 W(m)new k를 얻고 모델 기억 유닛(13)에 기억된 고유 파형 W(m) k를 그 갱신치 W(m)new k로 갱신한다.
즉, 제약된 파형 분리 학습부(81)는, 부하 제약 하에서의 파형 분리 학습으로서 수학식 (32)의 2차 프로그래밍 문제를 2차 프로그래밍에 따라 풀어, 고유 파형 W(m) k의 갱신치 W(m)new k를 얻는다.
[수학식 32]
Figure 112014088720880-pct00034
여기서, 수학식 (32)에서는, 고유 파형 W(m) k의 갱신치 W(m)newk가 되는 고유 파형 W에, 부하 제약으로서의 수학식 0≤V'W를 만족하는 제약이 부과된다.
수학식 (32)에서, V는 계측 파형 Yt로서의 전류 파형에 대응하는 전압 파형 Vt를 나타내는 D행의 열 벡터이고, V'는 열 벡터 V를 전치함으로써 얻어지는 행 벡터이다.
또한, 동작 상태 C(m) t,k가 온 및 오프를 나타내는 가전 기기 #m의 모드가 모드 #k이면, 수학식 (32)에서, W는, (m-1)K + k열의 열 벡터이고, 가전 기기 #m의 모드 #k(가 온일 때)의 고유 파형인 D행 K×M열의 행렬이다. 또한, K는, 여기서는, 예를 들어, K(1), K(2),...,및 K(M) 중 최대치를 나타낸다.
고유 파형의 갱신치 Wnew는, D행 K×M 열의 행렬이며, 그 (m-1)K + k열의 열 벡터는 팩터 #m의 상태 #k의 고유 파형 W(m) k의 갱신치이다.
또한, 수학식 (32)에서, Ct는, ((m-1)K + k)행의 컴포넌트가 동작 상태 C(m) t,k인 K×M 행의 열 벡터이다.
또한, 제약된 파형 분리 학습부(81)는 기타의 제약을 부과할 수 있다. 즉, 예를 들어, 도 21의 제약된 파형 분리 학습부(51)와 동일한 방식으로, 제약된 파형 분리 학습부(81)는 부하 제약 대신에 기저 파형 제약을 부과하거나, 부하 제약 및 기저 파형 제약의 양쪽 모두를 부과할 수 있다.
도 29는, 도 28의 감시 시스템이 수행하는 파형 모델의 학습의 처리(학습 처리)를 나타내는 흐름도이다.
단계 S151에서, 모델 학습 유닛(14)은, 모델 기억 유닛(13)에 기억된 전체 모델의 모델 파라미터 Φ로서의 고유 파형 W(m) k를 초기화하고, 처리는 단계 S152로 진행한다.
여기서, 고유 파형 W(m) k로서의 D행의 열 벡터의 각각의 컴포넌트는, 예를 들어, 난수를 이용해 초기화된다.
단계 S152에서, 데이터 취득 유닛(11)은, 미리결정된 시간 T에 대응하는 전류 파형을 취득하고, 각각의 시점 t=1, 2...,T의 전류 파형을, 계측 파형 Y1, Y2 ,..., 및 YT로서, 상태 추정 유닛(12) 및 모델 학습 유닛(14)에 공급하고, 처리는 단계 S153으로 진행한다.
여기서, 데이터 취득 유닛(11)은, 시점 t=1, 2..., 및 T의 전류 파형과 함께 전압 파형도 취득한다. 데이터 취득 유닛(11)은, 시점 t = 1,2...,및 T의 전압 파형을 데이터 출력 유닛(16)에 공급한다.
데이터 출력 유닛(16)에서, 데이터 취득 유닛(11)으로부터의 전압 파형이 정보 제시 처리(도 10)에서의 전력 소비를 계산하는데 이용된다.
단계 S153에서는, 상태 추정 유닛(12)의 평가부(71)가, 데이터 취득 유닛(11)으로부터의 계측 파형 Y1 내지 YT 및 모델 기억 유닛(13)에 기억된 파형 모델의 고유 파형 W(m) k를 이용해, 각각의 가전 기기 #m의 동작 상태 C(m) t,k를 얻기 위한 수학식 (30)의 평가치 E로서의 오차 E를 얻는다.
또한, 평가부(71)는 오차 E를 추정부(72)에 공급하고, 처리는 단계 S153으로부터 단계 S154로 진행한다.
단계 S154에서는, 추정부(72)는 평가부(71)로부터의 수학식 (30)의 오차 E를 최소화함으로써 각각의 가전 기기 #m의 동작 상태 C(m) t,k를 추정해, 모델 학습 유닛(14), 라벨 취득 유닛(15), 및 데이터 출력 유닛(16)에 공급하고, 처리는 단계 S155로 진행한다.
단계 S155에서는, 모델 학습 유닛(14)의 제약된 파형 분리 학습부(81)는, 데이터 취득 유닛(11)으로부터 공급되는 계측 파형 Yt 및 추정부(72)로부터 공급되는 가전 기기 #m의 동작 상태 C(m) t,k를 이용해 부하 제약 등의 미리결정된 제약 하에서 파형 분리 학습을 수행함으로써, 고유 파형 W(m) k의 갱신치 W(m)new k를 얻는다.
즉, 제약된 파형 분리 학습부(81)는, 예를 들어, 부하 제약 하에서의 파형 분리 학습으로서, 수학식 (32)를 풀어, 고유 파형 W(m) k의 갱신치 W(m)new k를 얻는다.
또한, 제약된 파형 분리 학습부(81)는, 모델 기억 유닛(13)에 기억된 고유 파형 W(m) k를 고유 파형 W(m) k의 갱신치 W(m)new k로 갱신하고, 처리는 단계 S155로부터 단계 S156으로 진행한다.
단계 S156에서, 모델 학습 유닛(14)은 모델 파라미터 Φ의 수렴 조건이 만족되고 있는지 여부를 판정한다.
여기서, 모델 파라미터 Φ의 수렴 조건으로서는, 예를 들어, 단계 S154의 동작 상태 C(m)t,k의 추정과 단계 S155의 제약된 파형 분리 학습을 통한 고유 파형 W(m)k의 갱신이 미리 설정된 소정의 회수만큼 반복되거나, 수학식 (30)의 오차 E의, 모델 파라미터 Φ의 갱신 전과 갱신 후의 사이의 변화량이 미리 설정된 임계치 이내인 조건이 채용될 수 있다.
단계 S156에서, 모델 파라미터 Φ의 수렴 조건이 만족되지 않는다고 판정되면, 처리는 단계 S153으로 복귀하고, 그 후, 단계 S153 내지 S156의 처리가 반복적으로 수행된다.
단계 S153 내지 S156의 처리가 반복적으로 수행되므로, 단계 S154의 동작 상태 C(m) t,k의 추정과 단계 S155의 제약된 파형 분리 학습을 통한 고유 파형 W(m) k의 갱신이 교대로 반복됨으로써, 단계 S154에서 얻어지는 동작 상태 C(m) t,k와 단계 S155에서 얻어지는 고유 파형 W(m) k(의 갱신치)의 정밀도가 증가된다.
그 후, 단계 S156에서 모델 파라미터 Φ의 수렴 조건이 만족된다고 판정된다면, 학습 처리는 종료한다.
또한, 상태 추정 유닛(12)은, 정수 프로그래밍 또는 FHMM 대신에 기타 임의의 방법을 이용하여 가전 기기의 동작 상태를 추정할 수 있다.
<본 기술이 적용되는 컴퓨터의 설명>
한편, 전술된 일련의 처리는 하드웨어에 또는 소프트웨어에 의해 수행될 수 있다. 일련의 처리가 소프트웨어에 의해 수행되는 경우, 그 소프트웨어를 구성하는 프로그램이 범용의 컴퓨터 등에 설치된다.
따라서, 도 30은 전술된 일련의 처리를 실행하기 위한 프로그램이 설치되는 컴퓨터의 실시예의 구성예를 도시하고 있다.
프로그램은, 컴퓨터에 내장된 기록 매체로서의 하드 디스크(105)나 ROM(103)에 기록될 수 있다.
대안으로서, 프로그램은 제거가능한 기록 매체(111)에 저장될 수 있다. 제거가능한 기록 매체(111)는, 소위 패키지 소프트웨어로서 제공될 수 있다. 여기서, 제거가능한 기록 매체(111)로서는, 예를 들어, 플렉시블 디스크, CD-ROM(Compact Disc Read Only Memory), MO(Magneto Optical) 디스크, DVD(Digital Versatile Disc), 자기 디스크, 반도체 메모리 등이 있다.
또한, 프로그램은, 전술된 것과 같은 제거가능한 기록 매체(111)로부터 컴퓨터에 설치될 수도 있고, 통신망이나 방송망을 통해 컴퓨터에 다운로드되어, 하드 디스크(105)에 설치될 수도 있다. 즉, 프로그램은, 예를 들어, 다운로드 사이트로부터 디지털 위성 방송용의 인공 위성을 통해 무선으로 컴퓨터에 전송되거나, LAN(Local Area Network) 또는 인터넷 등의 네트워크를 통한 유선 방식으로 컴퓨터에 전송될 수 있다.
컴퓨터는 CPU(Central Processing Unit)(102)를 내장하고 있고, CPU(102)는 버스(101)를 통해 입출력 인터페이스(110)에 접속된다.
입력 유닛(107) 등의 조작을 통해 입출력 인터페이스(110)를 통해 사용자에 의해 명령이 입력되면, CPU(102)는 그에 응답하여 ROM(Read Only Memory)(103)에 저장된 프로그램을 실행한다. 대안으로서, CPU(102)는 하드디스크(105)에 저장된 프로그램을 RAM(Random Access Memory)(104)에 로드해 실행한다.
이로써, CPU(102)는 전술된 흐름도에 따른 처리 또는 전술된 블록도의 구성에 의해 수행되는 처리를 수행한다. 또한, CPU(102)는, 처리 결과를, 예를 들어, 입출력 인터페이스(110)를 통해 출력 유닛(106)으로부터 출력하거나 통신 유닛(108)으로부터 전송하거나, 필요하다면 하드 디스크(105) 상에 결과를 기록한다.
또한, 입력부(107)는, 키보드, 마우스, 마이크로폰 등을 포함한다. 또한, 출력 유닛(106)은, LCD(Liquid Crystal Display), 스피커 등을 포함한다.
여기서, 본 명세서에서는, 컴퓨터가 프로그램에 따라 수행하는 처리는 반드시 흐름도로서 기재된 순서에 따라 시계열로 수행될 필요는 없다. 즉, 프로그램에 따라 컴퓨터가 수행하는 처리는, 병렬적 또는 개별적으로 수행되는 처리(예를 들어, 병렬 처리 또는 오브젝트를 이용한 처리)도 포함한다.
또한, 프로그램은 단일의 컴퓨터(프로세서)에 의해 처리되거나 복수의 컴퓨터에 의해 분산되어 처리될 수도 있다. 또한, 프로그램은 원격 컴퓨터에 전송되어 실행될 수도 있다.
또한, 본 명세서에서, 시스템이란, 복수의 구성요소(장치, 모듈(부품) 등)의 집합을 나타내고, 모든 구성요소가 동일한 케이스 내에 있는지의 여부는 중요하지 않다. 따라서, 별개의 케이스에 수납되어 네트워크를 통해 서로 접속되는 복수의 장치, 및 하나의 케이스 내에 복수의 모듈이 수납된 단일의 장치는 모두 시스템이다.
또한, 본 기술의 실시예들은 전술된 실시예들로 제한되지 않고, 본 기술의 범위를 벗어나지 않고 다양한 수정이 있을 수 있다.
예를 들어, 본 기술은 하나의 기능이 네트워크를 통해 복수의 장치에 분산되어 있고 협력해서 처리되는 클라우드 컴퓨팅을 채용할 수도 있다.
또한, 전술된 흐름도에서 설명된 각각의 단계는 단일의 장치에 의해 실행될 수도 있을 뿐만 아니라 복수의 장치에 분산되어 실행될 수도 있다.
또한, 단일의 단계가 복수의 처리를 포함하는 경우, 그 단계에 포함된 복수의 처리는 하나의 장치에 의해 실행될 뿐만 아니라 복수의 장치에 분산되어 실행될 수도 있다.
또한, 본 기술은 다음과 같은 구성을 가질 수도 있다.
(A1) 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻는 단계; FHMM(Factorial Hidden Markov Model)으로 상기 데이터를 처리하여 상기 제1 전기 장치의 전기 신호의 추정치를 생성하는 단계; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하는 단계를 포함하고, 상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터를 갖고, 상기 팩터는 3개 이상의 상태를 갖는, 전기 장치의 전류 소비를 추정하기 위한 방법.
(A2) 상기 팩터의 3개 이상의 상태는 상기 제1 전기 장치의 3개 이상의 각각의 동작 상태에서 상기 제1 전기 장치의 3개 이상의 각각의 전기 신호에 대응하는, (A1)의 방법.
(A3) 모델 저장 유닛으로부터 상기 FHMM의 하나 이상의 파라미터들을 얻는 단계를 더 포함하는 (A1)의 방법.
(A4) 상기 데이터는 전류값의 시계열 및/또는 전압값의 시계열을 포함하는, (A1)의 방법.
(A5) 상기 전기 신호는 전류 신호 또는 전력 신호인, (A1)의 방법.
(A6) 상기 전기 신호의 합을 나타내는 데이터의 분산을 계산하는 단계; 및 상기 FHMM의 파라미터로서 계산된 분산을 이용하는 단계를 더 포함하는, (A1)의 방법.
(A7) 상기 FHMM은 2개 이상의 전기 장치들 중 제2 전기 장치에 대응하는 제2 팩터를 갖고; 상기 방법은 상기 FHMM으로 상기 데이터를 처리하여 상기 제2 전기 장치의 제2 전기 신호의 제2 추정치를 생성하는 단계; 상기 제1 전기 장치의 전기 신호의 추정치의 제1 개별 분산을 계산하고, 상기 제1 개별 분산을 상기 제1 전기 장치에 대응하는 팩터의 파라미터로서 이용하는 단계; 및 상기 제2 전기 장치의 제2 전기 신호의 제2 추정치의 제2 개별 분산을 계산하고, 상기 제2 개별 분산을 상기 제2 전기 장치에 대응하는 제2 팩터의 파라미터로서 이용하는 단계를 더 포함하는, (A1)의 방법.
(A8) FHMM을 제약하되 동시에 상태 천이를 겪는 FHMM의 팩터수가 임계치보다 작도록 제약하는 단계를 더 포함하는, (A1)의 방법.
(A9) 상기 제1 전기 장치의 전기 신호의 추정치에 제약을 부과하는 단계를 더 포함하는 (A1)의 방법.
(A10) 상기 전기 신호는 전력 신호이고; 상기 제약을 부과하는 단계는 상기 제1 전기 장치의 전력 신호의 추정치를 음이 아닌 값으로 제약하는 단계를 포함하는, (A9)의 방법.
(A11) 상기 제약을 부과하는 단계는 상기 전기 신호를 복수의 미리결정된 기저 전기 신호의 하나 이상의 조합에 대응하도록 제약하는 단계를 포함하는, (A9)의 방법.
(A12) FHMM(Factorial Hidden Markov Model)으로 상기 데이터를 처리하는 단계는 클라우드 컴퓨팅을 이용하여 상기 데이터의 적어도 일부를 처리하는 단계를 포함하는, (A1)의 방법.
(A13) 상기 전기 신호의 추정치를 출력하는 단계는 상기 전기 신호의 추정치를 디스플레이하는 단계를 포함하는 (A1)의 방법.
(A14) 상기 전기 신호의 추정치를 출력하는 단계는 상기 전기 시스템의 추정치를 원격 컴퓨터에 전송하는 단계를 포함하는 (A1)의 방법.
(A15) 상기 전기 신호의 추정치는 전압 신호의 추정치인, (A1)의 방법.
(A16) 상기 방법은 스마트 계기에 의해 수행되는, (A1)의 방법.
(B1) 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻기 위한 데이터 취득 유닛; FHMM(Factorial Hidden Markov Model) ―상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터를 갖고, 상기 팩터는 3개 이상의 상태를 가짐―으로 상기 데이터를 처리하여 상기 제1 전기 장치의 동작 상태의 추정치를 생성하기 위한 상태 추정 유닛; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하기 위한 데이터 출력 유닛을 포함하고, 상기 전기 신호의 추정치는 적어도 부분적으로 상기 제1 전기 장치의 동작 상태의 추정치에 기초하는, 감시 장치.
(B2) FHMM의 팩터를 기억하기 위한 모델 기억 유닛을 더 포함하고, 상기 팩터의 3개 이상의 상태는 상기 제1 전기 장치의 3개 이상의 각각의 동작 상태에서 상기 제1 전기 장치의 3개 이상의 각각의 전기 신호에 대응하는, (B1)의 감시 장치.
(B3) FHMM의 하나 이상의 파라미터를 기억하기 위한 모델 기억 유닛을 더 포함하는 (B1)의 감시 장치.
(B4) 상기 데이터는 전류값의 시계열 및/또는 전압값의 시계열을 포함하는, (B1)의 감시 장치.
(B5) 상기 전기 신호의 추정치는 전류 신호 또는 전력 신호의 추정치인, (B1)의 감시 장치.
(B6) FHMM의 파라미터를 갱신하기 위한 모델 학습 유닛을 더 포함하고, 상기 FHMM의 파라미터를 갱신하는 것은 상기 전기 신호들의 합을 나타내는 데이터의 분산을 계산하고, 계산된 분산을 상기 파라미터로서 이용하는 단계를 포함하는, (B1)의 감시 장치.
(B7) FHMM의 하나 이상의 파라미터를 갱신하기 위한 모델 학습 유닛을 더 포함하고, 상기 상태 추정 유닛은 FHMM ―상기 FHMM은 상기 제2 전기 장치에 대응하는 제2 팩터를 가짐― 으로 상기 데이터를 처리하여 상기 2개 이상의 전기 장치들 중 제2 전기 장치의 제2 전기 신호의 제2 추정치를 생성하기 위한 것이고; 상기 FHMM의 하나 이상의 파라미터를 갱신하는 것은, 상기 제1 전기 장치의 전기 신호의 추정치의 제1 개별 분산을 계산하고, 상기 제1 개별 분산을 상기 제1 전기 장치에 대응하는 팩터의 파라미터로서 이용하는 것; 및 상기 제2 전기 장치의 제2 전기 신호의 제2 추정치의 제2 개별 분산을 계산하고, 상기 제2 개별 분산을 상기 제2 전기 장치에 대응하는 제2 팩터의 파라미터로서 이용하는 것을 포함하는, (B1)의 감시 장치.
(B8) 상기 데이터를 처리하는 것은, 동시에 상태 천이를 겪는 FHMM의 팩터수가 임계치보다 작도록 FHMM을 제약하는 것을 포함하는, (B1)의 감시 장치.
(B9) 상기 데이터를 처리하는 것은 상기 제1 전기 장치의 전기 신호의 추정치에 제약을 부과하는 것을 포함하는, (B1)의 감시 장치.
(B10) 상기 전기 신호는 전력 신호이고; 상기 제약을 부과하는 것은 상기 제1 전기 장치의 전력 신호의 추정치를 음이 아닌 값으로 제약하는 것을 포함하는, (B9)의 감시 장치.
(B11) 상기 제약을 부과하는 것은 상기 전기 신호를 복수의 미리결정된 기저 전기 신호의 하나 이상의 조합에 대응하도록 제약하는 것을 포함하는, (B9)의 감시 장치.
(B12) FHMM으로 상기 데이터를 처리하는 것은 클라우드 컴퓨팅을 이용하여 상기 데이터의 적어도 일부를 처리하는 것을 포함하는, (B1)의 감시 장치.
(B13) 상기 전기 신호의 추정치를 출력하는 것은 상기 전기 신호의 추정치를 디스플레이하는 것을 포함하는, (B1)의 감시 장치.
(B14) 통신 유닛을 더 포함하고, 상기 전기 신호의 추정치를 출력하는 것은 상기 전기 시스템의 추정치를 원격 컴퓨터에 전송하는 것을 더 포함하는, (B1)의 감시 장치.
(B15) 상기 전기 신호의 추정치는 전압 신호의 추정치인, (B1)의 감시 장치.
(B16) 상기 모니터링 장치는 스마트 계기인, (B1)의 감시 장치.
(C1) 2개 이상의 전기 장치 ―상기 2개 이상의 전기 장치는 제1 전기 장치를 포함함― 의 전기 신호의 합을 나타내는 데이터를 얻기 위한 데이터 취득 유닛; FHMM ―상기 FHMM은 상기 제1 전기 장치에 대응하는 팩터를 갖고, 상기 팩터는 3개 이상의 상태를 가짐―으로 상기 데이터를 처리하여 상기 제1 전기 장치의 동작 상태의 추정치를 생성하기 위한 상태 추정 유닛; 상기 FHMM의 하나 이상의 파라미터를 갱신 ―상기 FHMM의 하나 이상의 파라미터를 갱신하는 것은 제약된 파형 분리 학습을 수행하는 것을 포함함― 하기 위한 모델 학습 유닛; 및 상기 제1 전기 장치의 전기 신호의 추정치를 출력하기 위한 데이터 출력 유닛을 포함하고, 상기 전기 신호의 추정치는 적어도 부분적으로 상기 제1 전기 장치의 동작 상태의 추정치에 기초하는, 감시 장치.
(C2) 상기 제약된 파형 분리 학습을 수행하는 것은 FHMM의 대응하는 파라미터의 값에 상기 제1 전기 장치에 특유한 제약을 부과하는 것을 포함하는, (C1)의 감시 장치.
(C3) 상기 제약은 부하 제약을 포함하는, (C2)의 감시 장치.
(C4) 상기 제약은 기저 파형 제약을 포함하는, (C2)의 감시 장치.
(D1) 데이터 처리 장치로서,
2개 이상의 시계열 신호의 혼합 신호를 나타내는 데이터를 얻도록 구성된 데이터 취득 유닛; 및
시계열 신호를 확률론적 동적 모델(stochastic dynamics model)로 모델링하기 위한 파라미터를 추정하도록 구성된 상태 추정 유닛을 포함하고,
상기 상태 추정 유닛은 특정한 제약 하에서 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
(D2) 상기 확률론적 동적 모델은 FHMM(Factorial Hidden Markov Model)인, (D1)의 데이터 처리 장치.
(D3) 상기 상태 추정 유닛은 양의 팩터들의 추가 데이터가 되도록 상기 데이터를 제어함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D1)의 데이터 처리 장치.
(D4) 상기 상태 추정 유닛은 제로 신호를 출력하도록 팩터들의 적어도 하나의 상태를 제어하는 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D1)의 데이터 처리 장치.
(D5) 상기 상태 추정 유닛은 팩터들의 비-제로 상태를 선택할 확률을 최소화하도록 제어하는 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D2)의 데이터 처리 장치.
(D6) 상기 상태 추정 유닛은 동시에 상태 천이를 겪을 수 있는 상기 FHMM의 팩터수가 임계치 미만이도록 FHMM을 제약함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D1)의 데이터 처리 장치.
(D7) 상기 상태 추정 유닛은 상기 추정된 파라미터를 복수의 미리결정된 파라미터의 하나 이상의 조합으로 제한함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D1)의 데이터 처리 장치.
(D8) 상기 상태 추정 유닛은 상기 추정된 파라미터를 복수의 시계열 신호의 하나 이상의 조합으로 제한함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D1)의 데이터 처리 장치.
(D9) 상기 상태 추정 유닛은 2개 이상의 시계열 신호들의 혼합된 신호를 나타내는 데이터의 분산을 계산하고 계산된 분산을 상기 FHMM의 파라미터로서 이용함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, (D2)의 데이터 처리 장치.
(E1) 복수의 전기 기기에 의해 소비되는 전류의 총계에 관한 총계 데이터를 이용함으로써 FHMM의 각각의 팩터의 상태에 있는 상태 확률을 얻기 위한 상태 추정을 수행하는 상태 추정 유닛; 및 상기 상태 확률을 이용함으로써 각각의 팩터가 3개 이상의 상태를 갖는 FHMM의 학습을 수행하는 모델 학습 유닛을 포함하는 데이터 처리 장치.
(E2) 상기 FHMM은, 모델 파라미터로서, 각각의 팩터들의 상태들의 조합들에서 관측되는 총계 데이터의 관측값의 평균치를 얻는데 이용되는, 각각의 팩터의 각각의 상태에 고유한 고유 파형; 각각의 팩터의 상태들의 조합들에서 관측되는 총계 데이터의 관측값들의 분산; 각각의 팩터의 상태가 초기 상태에 있는 초기 상태 확률; 및 각각의 팩터의 상태가 천이하는 천이 확률을 포함하고, 모델 학습 유닛은, 상기 고유 파형을 얻기 위한 파형 분리 학습을 수행하는 파형 분리 학습부; 상기 분산을 얻기 위한 분산 학습을 수행하는 분산 학습부; 및 초기 상태 확률 및 천이 확률을 얻기 위한 상태 변동 학습을 수행하는 상태 변동 학습부를 포함하는, (E1)의 데이터 처리 장치.
(E3) 상기 분산 학습부는, 각각의 팩터에 대한 개별 분산, 또는 각각의 팩터의 각각의 상태에 대한 개별 분산을 얻는, (E2)의 데이터 처리 장치.
(E4) 상기 상태 추정 유닛은 한 시점에 대해 상태가 천이하는 팩터수가 제한되는 상태 천이 제약 하에서 상태 확률을 얻는, (E2) 또는 (E3)의 데이터 처리 장치.
(E5) 상기 상태 추정 유닛은, 상기 평균치와 상기 분산을 이용해 각각의 팩터들의 상태들의 조합들에서 상기 총계 데이터가 관측되는 관측 확률; 상기 관측 확률, 및 상기 천이 확률을 이용해, 상기 총계 데이터의 계열 Y1, Y2... , YT에 관하여 상기 총계 데이터 Y1, Y2,..., Yt가 관측되고, 시점 t에서의 각각의 팩터 상태들의 조합 z에 있는 순방향 확률
Figure 112014105535198-pct00075
와 시점 t에서 각각의 팩터 상태들의 조합 z에 있고 그 후 상기 총계 데이터 Yt, Yt+1,..., YT가 관측되는 역방향 확률
Figure 112014105535198-pct00076
; 상기 순방향 확률
Figure 112014105535198-pct00077
및 상기 역방향 확률
Figure 112014105535198-pct00078
를 이용해 시점 t에서 각각의 팩터의 상태들의 조합 z에 있는 사후 확률
Figure 112014105535198-pct00079
; 및 상기 사후 확률
Figure 112014105535198-pct00080
를 주변화함으로써 얻어지는 상태 확률을 얻고, 상기 상태 추정 유닛은, 각각의 팩터들의 상태들의 조합을 파티클로서 이용해 한 시점 후의 파티클을 상기 상태 천이 제약 하에서 예측하고, 상기 순방향 확률
Figure 112014105535198-pct00081
에 기초해 미리결정된 개수의 파티클의 샘플링을 반복하면서 상기 파티클로서의 상태들의 조합 z의 상기 순방향 확률
Figure 112014105535198-pct00082
를 얻고; 한 시점 전의 파티클을 상기 상태 천이 제한하에서 예측하고, 상기 역방향 확률
Figure 112014105535198-pct00083
에 기초해 미리결정된 개수의 파티클의 샘플링을 반복하면서 상기 파티클로서의 상태들의 조합 z의 역방향 확률
Figure 112014105535198-pct00084
를 얻는, (E4)의 데이터 처리 장치.
(E6) 상기 파형 분리 학습부는 상기 전기 기기에 특유한 제약 하에서 상기 고유 파형을 얻는, (E2) 내지 (E5) 중 어느 하나의 데이터 처리 장치.
(E7) 상기 파형 분리 학습부는 상기 고유 파형을 이용하여 얻어진 상기 전기 기기의 전력 소비가 음의 값을 갖지 않는 부하 제약 하에서 상기 고유 파형을 얻는, (E6)의 데이터 처리 장치.
(E8) 상기 파형 분리 학습부는 상기 고유 파형이 상기 전기 기기에 대해 준비된 복수의 기저 파형의 하나 이상의 조합에 의해 표현되는 기저 파형 제약 하에서 상기 고유 파형을 얻는, (E6)의 데이터 처리 장치.
(E9) 복수의 전기 기기에 의해 소비되는 전류의 총계에 관한 총계 데이터를 이용함으로써 FHMM의 각각의 팩터의 상태에 있는 상태 확률을 얻기 위한 상태 추정을 수행하고; 상기 상태 확률을 이용함으로써 각각의 팩터가 3개 이상의 상태를 갖는 FHMM의 학습을 수행하기 위한 단계들을 포함하는 데이터 처리 방법.
(E10) 컴퓨터로 하여금, 복수의 전기 기기에 의해 소비되는 전류의 총계에 관한 총계 데이터를 이용함으로써 FHMM의 각각의 팩터의 상태에 있는 상태 확률을 얻기 위한 상태 추정을 수행하는 상태 추정 유닛; 및 상기 상태 확률을 이용함으로써 각각의 팩터가 3개 이상의 상태를 갖는 FHMM의 학습을 수행하는 모델 학습 유닛으로서 기능하게 하는 프로그램.
11: 데이터 취득 유닛
12: 상태 추정 유닛
13: 모델 기억 유닛
14: 모델 학습 유닛
15: 라벨 취득 유닛
16: 데이터 출력 유닛
21: 평가부
22: 추정부
31: 파형 분리 학습부
32: 분산 학습부
33: 상태 변동 학습부
42: 추정부
51: 제약된 파형 분리 학습부
52: 개별 분산 학습부
71: 평가부
72: 추정부
81: 제약된 파형 분리 학습부
101: 버스
102: CPU
103: ROM
104: RAM
105: 하드 디스크
106: 출력 유닛
107: 입력 유닛
108: 통신 유닛
109: 드라이브
110: 입출력 인터페이스
111: 제거가능한 기록 매체

Claims (9)

  1. 프로세서 및 관련 메모리를 갖는 데이터 처리 장치로서,
    각각의 화자의 발화를 포함하는 2개 이상의 시계열 신호의 혼합 신호를 나타내는 데이터를 얻도록 구성된 데이터 취득 유닛;
    시계열 신호를 확률론적 동적 모델(stochastic dynamics model)로 모델링하기 위한 파라미터를 추정하도록 구성된 상태 추정 유닛; 및
    제약된 파형 분리, 개별 분산, 및 상태 변동의 학습 특성들을 포함하는 모델 학습 유닛을 포함하고,
    상기 상태 추정 유닛은 특정한 제약하에 상기 파라미터를 추정하도록 구성되고,
    상기 특정한 제약은 2개 이상의 시계열 신호의 혼합 신호 내 상기 각각의 화자의 발화 중에서 사람의 음성의 특유한 주파수 대역 내 주파수 성분이고,
    상기 개별 분산의 학습 특성은 상기 각각의 화자 중에서 개별 화자를 식별하기 위해 상기 상태 추정 유닛에 의해 제공되는 상기 파라미터를 사용하는, 데이터 처리 장치.
  2. 제1항에 있어서, 상기 확률론적 동적 모델은 FHMM(Factorial Hidden Markov Model)인, 데이터 처리 장치.
  3. 제1항에 있어서, 상기 상태 추정 유닛은, 양의 팩터(positive factor)들의 추가 데이터가 되도록 상기 데이터를 제어함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  4. 제1항에 있어서, 상기 상태 추정 유닛은, 제로 신호를 출력하도록 팩터들의 적어도 하나의 상태를 제어하는 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  5. 제1항에 있어서, 상기 상태 추정 유닛은, 팩터들의 비-제로 상태를 선택할 확률을 최소화하도록 제어하는 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  6. 제2항에 있어서, 상기 상태 추정 유닛은, 동시에 상태 천이를 겪을 수 있는 상기 FHMM의 팩터수가 임계수 미만이도록 상기 FHMM을 제약함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  7. 제1항에 있어서, 상기 상태 추정 유닛은, 추정된 상기 파라미터를 복수의 미리결정된 파라미터의 하나 이상의 조합으로 제한함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  8. 제1항에 있어서, 상기 상태 추정 유닛은, 추정된 상기 파라미터를 복수의 시계열 신호의 하나 이상의 조합으로 제한함으로써 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
  9. 제2항에 있어서, 상기 상태 추정 유닛은, 2개 이상의 시계열 신호의 혼합 신호를 나타내는 상기 데이터의 분산을 계산하고, 계산된 상기 분산을 상기 FHMM의 파라미터로서 이용함으로써, 상기 특정한 제약하에 상기 파라미터를 추정하도록 구성된, 데이터 처리 장치.
KR1020147026147A 2012-03-30 2013-03-29 데이터 처리 장치, 데이터 처리 방법, 및 프로그램 KR102065801B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2012079580A JP6056172B2 (ja) 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム
JPJP-P-2012-079579 2012-03-30
JP2012079579A JP6020880B2 (ja) 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム
JPJP-P-2012-079580 2012-03-30
PCT/JP2013/002182 WO2013145779A2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program

Publications (2)

Publication Number Publication Date
KR20140147088A KR20140147088A (ko) 2014-12-29
KR102065801B1 true KR102065801B1 (ko) 2020-01-13

Family

ID=48093057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147026147A KR102065801B1 (ko) 2012-03-30 2013-03-29 데이터 처리 장치, 데이터 처리 방법, 및 프로그램

Country Status (12)

Country Link
US (2) US9767415B2 (ko)
EP (2) EP2831758B1 (ko)
KR (1) KR102065801B1 (ko)
CN (1) CN104205090A (ko)
AU (1) AU2013238679B2 (ko)
CA (1) CA2865873A1 (ko)
MX (1) MX353420B (ko)
MY (1) MY178816A (ko)
RU (1) RU2598601C2 (ko)
SG (1) SG11201405498XA (ko)
WO (2) WO2013145779A2 (ko)
ZA (1) ZA201406584B (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130198362A1 (en) * 2012-01-26 2013-08-01 International Business Machines Corporation System for Identifying a Server to be Decommissioned
DK177857B1 (en) * 2013-04-26 2014-09-29 Remoni Aps Monitoring System
KR101557116B1 (ko) * 2013-11-13 2015-10-02 주식회사 케이티 개별 부하의 운영상태를 추정하는 장치 및 방법
TWI481881B (zh) * 2013-11-22 2015-04-21 Inst Information Industry 耗電預測裝置、方法及其電腦程式產品
US11094015B2 (en) 2014-07-11 2021-08-17 BMLL Technologies, Ltd. Data access and processing system
JP6597612B2 (ja) * 2014-07-25 2019-10-30 ソニー株式会社 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム
JP6607252B2 (ja) * 2015-03-31 2019-11-20 日本電気株式会社 データ処理装置、データ処理方法、及び、プログラム
US10750251B2 (en) * 2015-09-03 2020-08-18 Nec Corporation Information providing apparatus, information providing method, and storage medium
CN105629065B (zh) * 2016-01-07 2019-01-29 东南大学 基于平均有功无功综合频谱分析的微波炉非侵入辨识方法
CN105787473B (zh) * 2016-03-28 2019-01-29 北京大学 一种提取带陷阱耦合效应的随机电报噪声信号的方法
GB2553514B (en) * 2016-08-31 2022-01-26 Green Running Ltd A utility consumption signal processing system and a method of processing a utility consumption signal
DE102016119277A1 (de) * 2016-10-11 2018-04-12 Insta Gmbh Verfahren zum Erfassen des Energieverbrauches eines elektrischen Verbrauchers
JP6901039B2 (ja) * 2017-08-03 2021-07-14 日本電気株式会社 モデル構造選択装置、方法、ディスアグリゲーションシステムおよびプログラム
WO2019155579A1 (ja) 2018-02-08 2019-08-15 日本電気株式会社 特徴変換装置と方法及び記録媒体
WO2019217876A1 (en) * 2018-05-10 2019-11-14 Equifax Inc. Training or using sets of explainable machine-learning modeling algorithms for predicting timing of events
TWI671652B (zh) * 2018-11-26 2019-09-11 財團法人資訊工業策進會 模型建置裝置與負載解析系統
FR3092401B1 (fr) * 2019-02-04 2022-11-11 Eaton Intelligent Power Ltd Système et procédé de surveillance et de contrôle de charges électriques
KR102272573B1 (ko) * 2019-11-28 2021-07-05 한국전자기술연구원 에너지 사용량 데이터의 비지도 학습 기반 부하 모니터링 방법
KR102332248B1 (ko) * 2020-02-20 2021-11-29 세종대학교산학협력단 다중상태 에너지 분류에 따른 비침입부하모니터링 성능 평가 시스템 및 방법
US12003344B1 (en) * 2022-12-22 2024-06-04 William MacDonald Ferguson Managing local sensor data based on profile information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4858141A (en) 1986-04-14 1989-08-15 Massachusetts Institute Of Technology Non-intrusive appliance monitor apparatus
JPH0735811A (ja) 1993-07-16 1995-02-07 Showa Electric Wire & Cable Co Ltd 部分放電信号の判別方法及びこれを用いた部分放電発生位置の標定方法
RU11197U1 (ru) * 1998-12-28 1999-09-16 Общество с ограниченной ответственностью "ТЕХОБОРКОН" Устройство для приготовления аммиачной воды
US6453284B1 (en) * 1999-07-26 2002-09-17 Texas Tech University Health Sciences Center Multiple voice tracking system and method
ATE367584T1 (de) 2000-04-12 2007-08-15 Central Res Inst Elect System und verfahren zur abschätzung des stromverbrauchs eines elektrischen geräts und abnormalitätswarnungssystem damit
JP3877269B2 (ja) 2000-05-18 2007-02-07 財団法人電力中央研究所 電気機器モニタリングシステム及びこれを利用した異常警告システム
JP3566222B2 (ja) * 2001-03-29 2004-09-15 日本特殊陶業株式会社 突起状付着物検出方法及びそれを用いたスパークプラグの製造方法
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
WO2002091356A1 (fr) * 2001-05-02 2002-11-14 Sony Corporation Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement
JP2003099085A (ja) 2001-09-25 2003-04-04 National Institute Of Advanced Industrial & Technology 音源の分離方法および音源の分離装置
US20040117186A1 (en) 2002-12-13 2004-06-17 Bhiksha Ramakrishnan Multi-channel transcription-based speaker separation
JP2005115654A (ja) * 2003-10-08 2005-04-28 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US8407028B2 (en) * 2003-12-31 2013-03-26 Jeffrey M. Sieracki Indirect monitoring of device usage and activities
US7231019B2 (en) * 2004-02-12 2007-06-12 Microsoft Corporation Automatic identification of telephone callers based on voice characteristics
US7363227B2 (en) * 2005-01-10 2008-04-22 Herman Miller, Inc. Disruption of speech understanding by adding a privacy sound thereto
WO2006080149A1 (ja) 2005-01-25 2006-08-03 Matsushita Electric Industrial Co., Ltd. 音復元装置および音復元方法
JP4380596B2 (ja) 2005-06-01 2009-12-09 日本電信電話株式会社 業務プロセスモデルの構造推定方法及びその装置
JP2007299366A (ja) * 2006-01-31 2007-11-15 Sony Corp 学習装置および学習方法、認識装置および認識方法、生成装置および生成方法、認識生成装置および認識生成方法、並びにプログラム
US8423364B2 (en) * 2007-02-20 2013-04-16 Microsoft Corporation Generic framework for large-margin MCE training in speech recognition
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP5329062B2 (ja) * 2007-08-29 2013-10-30 株式会社ジャパンディスプレイ 有機el表示装置
EP2197104B1 (en) * 2007-09-27 2018-01-10 Mitsubishi Electric Corporation Controller of rotary electric machine
GB2465367B (en) * 2008-11-13 2011-01-05 Isis Innovation Variable power load detector apparatus and method
JP5191412B2 (ja) 2009-02-05 2013-05-08 中国電力株式会社 行動判別システム
US8369549B2 (en) * 2010-03-23 2013-02-05 Audiotoniq, Inc. Hearing aid system adapted to selectively amplify audio signals
JP2011243088A (ja) 2010-05-20 2011-12-01 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP5329005B2 (ja) * 2011-03-15 2013-10-30 三菱電機株式会社 永久磁石式回転電機
US8812427B2 (en) 2011-04-27 2014-08-19 Hewlett-Packard Development Company, L.P. System and method for disaggregating power load
TWI440862B (zh) * 2011-11-21 2014-06-11 國立交通大學 Electrical detection method and system based on user feedback information
EP2786322A4 (en) * 2011-11-29 2015-10-07 Neurio Technology Inc METHOD AND SYSTEM FOR PREDICTING THE POWER REQUIREMENT WITH GRAIN METRICS
JP5961880B2 (ja) * 2012-02-16 2016-08-03 株式会社ジャパンディスプレイ 液晶表示装置
JP2013179402A (ja) 2012-02-28 2013-09-09 Sony Corp 端末装置、情報処理装置、表示方法、及び表示制御方法
JP2013210828A (ja) 2012-03-30 2013-10-10 Sony Corp 情報処理装置、情報処理方法、情報処理システム、及びプログラム
JP2014220121A (ja) * 2013-05-08 2014-11-20 株式会社ジャパンディスプレイ 表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム

Also Published As

Publication number Publication date
US20150046135A1 (en) 2015-02-12
AU2013238679B2 (en) 2017-04-13
RU2014138479A (ru) 2016-04-10
MX353420B (es) 2018-01-12
RU2598601C2 (ru) 2016-09-27
WO2013145778A2 (en) 2013-10-03
KR20140147088A (ko) 2014-12-29
EP2831758B1 (en) 2019-09-04
WO2013145779A2 (en) 2013-10-03
WO2013145779A3 (en) 2013-11-28
EP2831758A2 (en) 2015-02-04
MX2014011325A (es) 2014-12-05
CN104205090A (zh) 2014-12-10
US20150058276A1 (en) 2015-02-26
CA2865873A1 (en) 2013-10-03
EP2831759A2 (en) 2015-02-04
MY178816A (en) 2020-10-20
US10452986B2 (en) 2019-10-22
US9767415B2 (en) 2017-09-19
ZA201406584B (en) 2015-11-25
WO2013145778A3 (en) 2013-11-28
SG11201405498XA (en) 2014-11-27
AU2013238679A1 (en) 2014-09-25

Similar Documents

Publication Publication Date Title
KR102065801B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 및 프로그램
JP5669051B2 (ja) 電気機器をモニタするための方法、及び、モニタ装置
JP5888375B2 (ja) データ処理装置、データ処理方法、およびプログラム
EP3836142B1 (en) Abnormality detection device and program
JP7149197B2 (ja) 異常音検知装置および異常音検知方法
US11892826B2 (en) Anomaly detection system
CN106170708B (zh) 个体电设备工作状态估计装置及其方法
WO2019220620A1 (ja) 異常検出装置、異常検出方法及びプログラム
JP2009110341A (ja) 時間情報を用いた予測装置、予測方法、予測プログラムおよびそのプログラムを記録した記録媒体
JP2018528511A (ja) 生産システムにおける出力効率の最適化
JP6056172B2 (ja) データ処理装置、データ処理方法、及び、プログラム
JP2019066339A (ja) 音による診断装置、診断方法、および診断システム
CN114897032A (zh) 一种基于宽度学习的电流互感器故障诊断方法、装置
CN118173121A (zh) 设备运行状态评估方法、装置、计算机设备和存储介质
JP2009104273A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009104274A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009104275A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2024032154A (ja) 異常予測処理装置、異常予測処理方法及び異常予測処理プログラム
Yoo et al. An energy-efficient kernel framework for large-scale data modeling and classification
EP2053549A2 (en) Information processing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant