JP6020880B2 - データ処理装置、データ処理方法、及び、プログラム - Google Patents

データ処理装置、データ処理方法、及び、プログラム Download PDF

Info

Publication number
JP6020880B2
JP6020880B2 JP2012079579A JP2012079579A JP6020880B2 JP 6020880 B2 JP6020880 B2 JP 6020880B2 JP 2012079579 A JP2012079579 A JP 2012079579A JP 2012079579 A JP2012079579 A JP 2012079579A JP 6020880 B2 JP6020880 B2 JP 6020880B2
Authority
JP
Japan
Prior art keywords
state
probability
waveform
factor
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012079579A
Other languages
English (en)
Other versions
JP2013210755A (ja
JP2013210755A5 (ja
Inventor
伊藤 真人
真人 伊藤
佐部 浩太郎
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2012079579A priority Critical patent/JP6020880B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201380016155.8A priority patent/CN104205090A/zh
Priority to MX2014011325A priority patent/MX353420B/es
Priority to CA2865873A priority patent/CA2865873A1/en
Priority to SG11201405498XA priority patent/SG11201405498XA/en
Priority to US14/387,307 priority patent/US10452986B2/en
Priority to EP13716072.7A priority patent/EP2831758B1/en
Priority to PCT/JP2013/002182 priority patent/WO2013145779A2/en
Priority to KR1020147026147A priority patent/KR102065801B1/ko
Priority to EP13716073.5A priority patent/EP2831759A2/en
Priority to US14/389,604 priority patent/US9767415B2/en
Priority to RU2014138479/08A priority patent/RU2598601C2/ru
Priority to PCT/JP2013/002181 priority patent/WO2013145778A2/en
Priority to AU2013238679A priority patent/AU2013238679B2/en
Priority to MYPI2014702710A priority patent/MY178816A/en
Priority to JP2013124267A priority patent/JP5669051B2/ja
Publication of JP2013210755A publication Critical patent/JP2013210755A/ja
Priority to ZA2014/06584A priority patent/ZA201406584B/en
Publication of JP2013210755A5 publication Critical patent/JP2013210755A5/ja
Publication of JP6020880B2 publication Critical patent/JP6020880B2/ja
Application granted granted Critical
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、データ処理装置、データ処理方法、及び、プログラムに関し、特に、例えば、家庭にある複数の電気機器それぞれの消費電力等を、容易かつ正確に求めることができるようにするデータ処理装置、データ処理方法、及び、プログラムに関する。
例えば、家庭内等にある家電(家庭用電化製品)等の電気機器の個々の消費電力や消費電流を、家庭内のユーザに提示する、消費電力等のいわゆる「見える化」を実現する方法としては、例えば、各コンセントに、スマートタップを取り付ける方法がある。
スマートタップは、そのスマートタップが取り付けられたコンセント(に繋がっている家電)で消費されている電力を計測する計測機能と、外部との通信機能とを有する。
スマートタップにおいて、計測機能で計測した(消費)電力を、通信機能で、ディスプレイ等に送信し、ディスプレイにおいて、スマートタップからの消費電力を表示することにより、各家電の消費電力の「見える化」を実現することができる。
しかしながら、家庭内のすべてのコンセントに、スマートタップを取り付けることは、コストの面で、容易ではない。
また、いわゆるビルトインのエアコン(エアコンディショナ)等の、家に備え付けの家電は、コンセントを介さずに、電力線に、直接接続されている場合があり、そのような家電については、スマートタップを用いることは、困難である。
そこで、例えば、家庭等において、配電盤(分電盤)で計測した電流の情報から、その先に繋がっている家庭内の個々の家電の消費電力等を求めるNILM(Non-Intrusive Load Monitoring)と呼ばれる技術が注目されている。
NILMでは、例えば、一箇所で計測した電流等を用いて、そこから先に繋がっている個々の家電(負荷)の消費電力が、個別に計測することなく求められる。
例えば、特許文献1には、一箇所で計測した電流と電圧から、有効電力及び無効電力を算出し、それぞれの変化量をクラスタリングすることで、電気機器の同定を行うNILMの技術が開示されている。
特許文献1に記載の技術では、家電のオン時とオフ時の有効電力及び無効電力が変化することを利用するために、有効電力及び無効電力の変化点が検出される。このため、変化点の検出に失敗すると、家電を正確に同定することが困難になる。
また、最近の家電については、稼働状態をオンとオフの2状態で表現することが困難であり、オン時とオフ時の有効電力及び無効電力の変化を利用するだけでは、家電を正確に同定することが困難になっている。
そこで、例えば、特許文献2及び3には、SVM(Support Vector Machine)等のLMC(Large Margin Classifier)を、家電の識別モデル(判別モデル、Classification)として用いるNILMの技術が記載されている。
しかしながら、識別モデルを用いたNILMでは、HMM(Hidden Markov Model)等の生成モデルとは違い、各家電について、既知の学習データを用意し、その学習データを用いた識別モデルの学習を、事前に済ませておく必要がある。
このため、識別モデルを用いたNILMでは、既知の学習データを用いて識別モデルの学習を行っていない家電については、対応することが困難である。
そこで、例えば、非特許文献1及び2には、既知の学習データを用いた事前の学習が必要な識別モデルではない、生成モデルであるHMMを用いたNILMの技術が記載されている。
しかしながら、単純なHMMを用いたNILMでは、家電の数が増加すると、HMMの状態の数が膨大となり、実装することが困難となる。
具体的には、例えば、個々の家電の稼働状態が、オンとオフの2状態である場合に、M個の家電の稼働状態(の組み合わせ)を表現するのに必要なHMMの状態の数は、2M個になり、状態の遷移確率の数は、状態の数の2乗である(2M)2個になる。
したがって、家庭内の家電の数Mが、最近では多いとはいえない、例えば、20個であったとしても、HMMの状態の数は、220=1,048,576個という膨大な数になり、遷移確率の数は、その2乗の1,099,511,627,776個というテラオーダのさらに膨大な数になる。
米国特許第4858141号明細書 特開2001-330630号公報 国際公開第01/077696号パンフレット
Bons M., Deville Y., Schang D. 1994. Non-intrusive electrical load monitoring using Hidden Markov Models.Third international Energy Efficiency and DSM Conference, October 31, Vancouver, Canada. , p. 7 中村久栄、伊藤公一、鈴木達也、「隠れマルコフモデルに基づいた電気機器の稼働状況モニタリングシステム」、電気学会論文誌B、Vol. 126、No. 12、pp. 12231229、2006年
現在においては、稼働状態が、オンとオフの2状態だけではない家電、すなわち、モードや設定等によって消費電力(電流)が変動するエアコン等の家電(変動負荷家電)のような電気機器の個々の消費電力等を、容易かつ正確に求めることができるNILMの技術の提案が要請されている。
本技術は、このような状況に鑑みてなされたものであり、電気機器の個々の消費電力等を、容易かつ正確に求めることができるようにするものである。
本技術の一側面のデータ処理装置、又は、プログラムは、複数の時系列信号の混合信号を表すデータを取得するデータ取得部と、前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、前記状態確率を用いて、前記確率生成モデルの学習を行うモデル学習部とを備え、前記モデル学習部は、前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習を行う波形分離学習部と、前記分散を求める分散学習を行う分散学習部と、前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部とを有するデータ処理装置、又は、データ処理装置として、コンピュータを機能させるためのプログラムである。
本技術の一側面のデータ処理方法は、複数の時系列信号の混合信号を表すデータを取得するデータ取得部と、前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、前記状態確率を用いて、前記確率生成モデルの学習を行うモデル学習部とを備え、前記モデル学習部は、前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習を行う波形分離学習部と、前記分散を求める分散学習を行う分散学習部と、前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部とを有するデータ処理装置のデータ処理方法であって、前記データ取得部が前記データを取得するデータ取得ステップと、前記状態推定部が前記状態推定を行う状態推定ステップと、前記モデル学習部が前記確率生成モデルの学習を行うモデル学習ステップとを有し、前記モデル学習ステップは、前記波形分離学習部が前記波形分離学習を行う波形分離学習ステップと、前記分散学習部が前記分散学習を行う分散学習ステップと、前記状態変動学習部が前記状態変動学習を行う状態変動学習ステップとを有するデータ処理方法である。
以上のような一側面においては、複数の時系列信号の混合信号を表すデータが取得され、前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定が行われる。そして、前記状態確率を用いて、前記確率生成モデルの学習が行われる。前記確率生成モデルの学習では、前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習と、前記分散を求める分散学習と、前記初期状態確率と、前記遷移確率とを求める状態変動学習とが行われる。
なお、データ処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術の一側面によれば、電気機器の個々の消費電力等を、容易かつ正確に求めることができる。
本技術のデータ処理装置を適用した監視システムの一実施の形態の概要を説明する図である。 家電分離で行われる波形分離学習の概要を説明する図である。 本技術を適用した監視システムの第1実施の形態の構成例を示すブロックである。 FHMMを説明する図である。 FHMMによる家電分離の定式化の概要を説明する図である。 監視システムが行う、EMアルゴリズムに従ったFHMMの学習の処理(学習処理)を説明するフローチャートである。 監視システムがステップS13で行うEステップの処理を説明するフローチャートである。 FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zと、HMMの前向き確率αt,i、及び、後ろ向き確率βt,jとの関係を説明する図である。 監視システムがステップS14で行うMステップの処理を説明するフローチャートである。 監視システムが行う、家電#mの情報を提示する情報提示処理を説明するフローチャートである。 情報提示処理で行われる消費電力U(m)の表示例を示す図である。 本技術を適用した監視システムの第2実施の形態の構成例を示すブロックである。 監視システムがステップS13で行うEステップの処理を説明するフローチャートである。 監視システムがステップS14で行うMステップの処理を説明するフローチャートである。 本技術を適用した監視システムの第3実施の形態の構成例を示すブロックである。 FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、前向き確率αt,pを求める方法を説明する図である。 FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、後ろ向き確率βt,pを求める方法を説明する図である。 FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、事後確率γt,pを求める方法を説明する図である。 監視システムがステップS13で行うEステップの処理を説明するフローチャートである。 監視システムがステップS13で行うEステップの処理を説明するフローチャートである。 本技術を適用した監視システムの第4実施の形態の構成例を示すブロックである。 監視システムが負荷制約を課して行うステップS14のMステップの処理を説明するフローチャートである。 負荷制約を説明する図である。 基底波形制約を説明する図である。 監視システムが基底波形制約を課して行うステップS14のMステップの処理を説明するフローチャートである。 本技術を適用した監視システムの第5実施の形態の構成例を示すブロックである。 FHMMの学習を行う監視システムによる話者分離の概要を説明する図である。 本技術を適用した監視システムの第6実施の形態の構成例を示すブロックである。 監視システムが行うモデル学習の処理(学習処理)を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
[本技術の概要]
図1は、本技術のデータ処理装置を適用した監視システムの一実施の形態の概要を説明する図である。
各家庭において、電力会社から提供される電力は、配電盤(分電盤)に引き込まれ、配電盤から、家庭内の(コンセント等に接続された)家電等の電気機器に供給される。
本技術を適用した監視システムは、配電盤の、家庭内に電力を供給している、いわば根元等の1箇所において、家庭内の1以上の家電で消費されている電流の総和を計測し、その電流の総和の系列(電流波形系列)から、家庭内の、例えば、エアコンや掃除機等の個々の家電で消費されている電力(電流)を分離する家電分離を行う。
なお、監視システムに入力する入力データとしては、各家電で消費されている電流の総和そのものの他、各家電で消費されている電流の総和に関する総和データを採用することができる。
総和データとしては、加算が成立する値の総和を採用することができる。具体的には、総和データとしては、各家電で消費されている電流の総和そのものの他、例えば、各家電で消費されている電力の総和や、各家電で消費されている電流の波形をFFT(Fast Fourier Transform)等することによって得られる周波数成分の総和等を採用することができる。
また、家電分離では、総和データから、個々の家電で消費されている電力の他、個々の家電で消費されている電流に関する情報を分離することができる。具体的には、家電分離では、総和データから、例えば、個々の家電で消費されている電流や、その周波数成分を分離することができる。
以下の説明では、総和データとして、例えば、各家電で消費されている電流の総和を採用するとともに、家電分離において、例えば、総和データとしての電流の総和の波形から、個々の家電で消費されている電流の波形を分離することとする。
図2は、家電分離で行われる波形分離学習の概要を説明する図である。
波形分離学習では、各時刻tの総和データとしての電流波形Ytが、各家電#mで消費されている電流の電流波形W(m)の加算値(総和)であるとして、電流波形Ytから、個々の家電#mで消費されている電流波形W(m)が求められる。
図2では、家庭内に、5個の家電#1ないし#5があり、その5個の家電#1ないし#5のうちの、家電#1,#2,#4、及び、#5がオン状態(電力を消費する状態)になっており、家電#3がオフ状態(電力を消費しない状態)になっている。
そのため、図2では、総和データとしての電流波形Ytが、家電#1,#2,#4、及び、#5それぞれの消費電流W(1),W(2),W(4)、及び、W(5)の加算値(総和)になっている。
[本技術を適用した監視システムの第1実施の形態]
図3は、本技術を適用した監視システムの第1実施の形態の構成例を示すブロックである。
図3において、監視システムは、データ取得部11、状態推定部12、モデル記憶部13、モデル学習部14、ラベル取得部15、及び、データ出力部16を有する。
データ取得部11は、総和データとしての電流波形Yの時系列(電流時系列)、及び、その電流波形Yに対応する電圧の波形(電圧波形)Vの時系列(電圧時系列)を取得し、状態推定部12、モデル学習部14、及び、データ出力部16に供給する。
すなわち、データ取得部11は、例えば、電流と電圧を計測する計測器(センサ)で構成される。
データ取得部11は、例えば、配電盤等において、監視システムが設置されている家庭内の各家電で消費されている電流の総和としての電流波形Yを計測するとともに、対応する電圧波形Vを計測し、状態推定部12、モデル学習部14、及び、データ出力部16に供給する。
状態推定部12は、データ取得部11からの電流波形Yと、モデル記憶部13に記憶された、監視システムが設置されている家庭内の家電全体のモデルである全体モデル(のモデルパラメータ)φとを用いて、各家電の稼働状態を推定する状態推定を行う。そして、状態推定部12は、状態推定の推定結果としての各家電の稼働状態Γを、モデル学習部14、ラベル取得部15、及び、データ出力部16に供給する。
すなわち、図3において、状態推定部12は、評価部21、及び、推定部22を有する。
評価部21は、モデル記憶部13に記憶された全体モデルφを構成する複数の家電モデル#1ないし#Mそれぞれの状態の各組み合わせにおいて、データ取得部11から(状態推定部12に)供給される電流波形Yが観測される程度を評価した評価値Eを求め、推定部22に供給する。
推定部22は、評価部21から供給される評価値Eを用い、モデル記憶部13に記憶された全体モデルφを構成する複数の家電モデル#1ないし#Mそれぞれにおいている状態、すなわち、家電モデル#mが表す家電(家電モデル#mによってモデル化された家電)の稼働状態Γを推定し、モデル学習部14、ラベル取得部15、及び、データ出力部16に供給する。
モデル記憶部13は、複数の家電全体のモデルである全体モデル(のモデルパラメータ)φを記憶する。
全体モデルφは、複数であるM個の、家電の(消費電流を表現する)モデルである家電モデル#1ないし#Mから構成される。
全体モデルのパラメータφには、家電モデル#mが表す家電の稼働状態ごとの消費電流を表す電流波形パラメータが含まれる。
全体モデルのパラメータφには、その他、例えば、家電モデル#mが表す家電の稼働状態の遷移(変動)を表す状態変動パラメータ、家電モデル#mが表す家電の稼働状態の初期状態を表す初期状態パラメータ、及び、全体モデルにおいて観測(生成)される電流波形Yの観測値の分散に関する分散パラメータを含めることができる。
モデル記憶部13に記憶された全体モデルのモデルパラメータφは、状態推定部12の評価部21と推定部22、ラベル取得部15、及び、データ出力部16で参照され、モデル学習部14の後述する波形分離学習部31、分散学習部32、及び、状態変動学習部33によって更新される。
モデル学習部14は、データ取得部11から供給される電流波形Yと、状態推定部12(の推定部22)から供給される状態推定の推定結果(各家電の稼働状態)Γとを用いて、モデル記憶部13に記憶された全体モデルのモデルパラメータφを更新するモデル学習を行う。
すなわち、図3において、モデル学習部14は、波形分離学習部31、分散学習部32、及び、状態変動学習部33を有する。
波形分離学習部31は、データ取得部11から(モデル学習部14に)供給される電流波形Yと、状態推定部12(の推定部22)から供給される各家電の稼働状態Γとを用いて、モデルパラメータφとしての電流波形パラメータを求める(更新する)波形分離学習を行い、その波形分離学習によって得られる電流波形パラメータによって、モデル記憶部13に記憶された電流波形パラメータを更新する。
分散学習部32は、データ取得部11から(モデル学習部14に)供給される電流波形Yと、状態推定部12(の推定部22)から供給される各家電の稼働状態Γとを用いて、モデルパラメータφとしての分散パラメータを求める(更新する)分散学習を行い、その分散学習によって得られる分散パラメータによって、モデル記憶部13に記憶された分散パラメータを更新する。
状態変動学習部33は、状態推定部12(の推定部22)から供給される各家電の稼働状態Γを用いて、モデルパラメータφとしての初期状態パラメータ、及び、状態変動パラメータを求める(更新する)状態変動学習を行い、その状態変動学習によって得られる初期状態パラメータ、及び、状態変動パラメータによって、モデル記憶部13に記憶された初期状態パラメータ、及び、状態変動パラメータをそれぞれ更新する。
ラベル取得部15は、状態推定部12(の推定部22)から供給される各家電の稼働状態Γ、モデル記憶部13に記憶された全体モデルφ、及び、データ出力部16で得られる、各家電モデル#mが表す家電の消費電力U(m)等を、必要に応じて用いて、各家電モデル#mが表す家電を識別するための家電ラベルL(m)を取得し、データ出力部16に供給する。
データ出力部16は、データ取得部11から供給される電圧波形V、状態推定部12(の推定部22)から供給される各家電の稼働状態Γφ、及び、モデル記憶部13に記憶された全体モデルを用いて、各家電モデル#mが表す家電の消費電力U(m)を求め、図示せぬディスプレイに表示すること等によって、ユーザに提示する。
なお、データ出力部16において、各家電モデル#mが表す家電の消費電力U(m)は、ラベル取得部15から供給される家電ラベルL(m)とともに、ユーザに提示することができる。
以上のように構成される監視システムにおいて、モデル記憶部13に記憶される全体モデルとしては、例えば、FHMM(Factorial Hidden Markov Model)を採用することができる。
図4は、FHMMを説明する図である。
すなわち、図4Aは、通常のHMMのグラフィカルモデルを示しており、図4Bは、FHMMのグラフィカルモデルを示している。
通常のHMMでは、時刻tに、その時刻tにいる1つの状態Stにおいて、1つの観測値Ytが観測される。
一方、FHMMでは、時刻tに、その時刻tにいる複数の状態S(1) t,S(2) t,・・・,S(M) tの組み合わせにおいて、1つの観測値Ytが観測される。
FHMMは、Zoubin Ghahramaniらが提案した確率生成モデルであり、その詳細については、例えば、Zoubin Ghahramani, and Michael I. Jordan, Factorial Hidden Markov Models’, Machine Learning Volume 29, Issue 2-3 ,Nov./Dec. 1997(以下、文献Aともいう)に記載されている。
図5は、FHMMによる家電分離の定式化の概要を説明する図である。
ここで、FHMMは、複数のHMMを有する構成になっている。FHMMが有する各HMMを、ファクタともいい、m番目のファクタを、ファクタ#mとも記載する。
FHMMにおいて、時刻tにいる複数の状態S(1) tないしS(M) tの組み合わせとは、時刻tにいる各ファクタ#mの状態の組み合わせ(ファクタ#1の状態と、ファクタ#2の状態と、・・・、ファクタ#Mの状態とのセット)である。
図5は、ファクタの数Mが3のFHMMを示している。
家電分離においては、例えば、1つのファクタが1つの家電に対応する(1つのファクタと1つの家電とを対応させる)。図5では、ファクタ#mが、家電#mに対応している。
FHMMにおいて、ファクタを構成する状態の数は、ファクタごとに任意であるが、図5では、3つのファクタ#1,#2,#3の状態の数は、いずれも、4個になっている。
図5では、時刻t=t0において、ファクタ#1は、4つの状態#11,#12,#13,#14のうちの、状態#14(太線の丸印で示す)になっており(いて)、ファクタ#2は、4つの状態#21,#22,#23,#24のうちの、状態#21(太線の丸印で示す)になっている。また、時刻t=t0において、ファクタ#3は、4つの状態#31,#32,#33,#34のうちの、状態#33(太線の丸印で示す)になっている。
家電分離においては、ファクタ#mの状態は、そのファクタ#mが対応する家電#mの稼働状態に対応する。
例えば、家電#1に対応するファクタ#1において、状態#11は、家電#1のオフ状態に対応し、状態#14は、家電#1の、いわゆる通常モードのオン状態に対応する。また、例えば、家電#1に対応するファクタ#1において、状態#12は、家電#1の、いわゆるスリープモードのオン状態に対応し、状態#13は、家電#1の、いわゆる省エネモードのオン状態に対応する。
FHMMにおいて、ファクタ#mの状態#miでは、各ファクタの状態ごとに固有の波形である固有波形W(m) #miが観測(生成)される。
図5において、ファクタ#1では、時刻t=t0にいる状態#14において、固有波形W(1) #14が観測され、ファクタ#2では、時刻t=t0にいる状態#21において、固有波形W(2) #21が観測される。さらに、ファクタ#3では、時刻t=t0にいる状態#33において、固有波形W(3) #33が観測される。
FHMMでは、各ファクタにいる状態において観測される固有波形を合成した合成波形が、FHMMにおいて観測される観測値として生成される。
ここで、固有波形の合成としては、例えば、固有波形の総和(加算)を採用することができる。その他、固有波形の合成としては、例えば、固有波形の重み付け加算や、固有波形の論理和(固有波形の値が0と1の場合)等を採用することができるが、家電分離では、固有波形の総和が採用される。
FHMMの学習では、FHMMにおいて、各時刻t=・・・,t0,t1,・・・の総和データとしての電流波形・・・,Yt0,Yt0+1,・・・が観測されるように、FHMMのモデルパラメータが求められる(更新される)。
モデル記憶部13(図3)に記憶される全体モデルφとして、以上のようなFHMMを採用する場合、全体モデルφを構成する家電モデル#mは、ファクタ#mに相当する。
なお、FHMMのファクタの数Mとしては、家庭内に存在すると想定される家電の最大数よりもマージンとしての所定数だけ大きい値が採用される。
また、全体モデルφとしてのFHMMとしては、各ファクタが3以上の状態を有するFHMMが採用される。
ファクタが2状態しか有しない場合には、そのファクタに対応する家電の稼働状態として、例えば、オフ状態とオン状態との2状態しか表現することができず、モードや設定等によって消費電力(電流)が変動するエアコン等の家電(以下、変動負荷家電ともいう)について、正確な消費電力等を求めることが困難になるからである。
すなわち、全体モデルφとしてのFHMMとして、各ファクタが3以上の状態を有するFHMMを採用することにより、変動負荷家電について、正確な消費電力等を求めることが可能となる。
全体モデルφとして、FHMMを採用する場合、FHMMにおいて観測される電流波形Ytの系列と、各ファクタ#mの状態S(m) tの組み合わせStの系列との同時分布P({St,Yt})は、マルコフ性を仮定することにより、式(1)で計算される。
Figure 0006020880
・・・(1)
ここで、同時分布P({St,Yt})は、時刻tにおいて、各ファクタ#mの状態S(m) tの組み合わせ(M個のファクタそれぞれの状態の組み合わせ)Stにおいて、電流波形Ytが観測される確率を表す。
P(S)は、最初の時刻t=1において、各ファクタ#mの状態S(m) 1の組み合わせS1にいる初期状態確率を表す。
P(St|St-1)は、時刻t-1に、状態の組み合わせSt-1にいて、時刻tに、状態の組み合わせStに遷移する遷移確率を表す。
P(Yt|St)は、時刻tに、状態の組み合わせStにおいて、電流波形Ytが観測される観測確率を表す。
時刻tにおける状態の組み合わせStは、M個のファクタ#1ないし#Mそれぞれの、時刻tにおける状態S(1) t,S(2) t,・・・,S(M) tの組み合わせであり、式St={S(1) t,S(2) t,・・・,S(M) t}で表現される。
なお、家電#mの稼働状態は、他の家電#m'とは独立に変動すると仮定し、ファクタ#mの状態S(m) tは、他のファクタ#m'の状態S(m') tとは独立に遷移することとする。
また、FHMMのファクタ#mとしてのHMMの状態の数K(m)としては、他のファクタ#m'としてのHMMの状態の数K(m')とは独立な数を採用することができる。但し、ここでは、説明を簡単にするため、ファクタ#1ないし#Mの状態の数K(1)ないしK(M)は、式K(1)=K(2)=・・・=K(M)=Kで表される通り、同一の数Kであることとする。
FHMMにおいて、式(1)の同時分布P({St,Yt})の計算に必要な初期状態確率P(S)、遷移確率P(St|St-1)、及び、観測確率P(Yt|St)は、以下のように計算することができる。
すなわち、初期状態確率P(S)は、式(2)に従って計算することができる。
Figure 0006020880
・・・(2)
ここで、P(S(m) 1)は、ファクタ#mの状態S(m) 1が、最初の時刻t=1にいる状態(初期状態)である初期状態確率を表す。
初期状態確率P(S(m) 1)は、例えば、ファクタ#mのk番目(k=1,2,・・・,K)の状態の初期状態確率を、k行目のコンポーネントとするK行の列ベクトル(K行1列の行列)である。
遷移確率P(St|St-1)は、式(3)に従って計算することができる。
Figure 0006020880
・・・(3)
ここで、P(S(m) t|S(m) t-1)は、ファクタ#mにおいて、時刻t-1に状態S(m) t-1にいて、時刻tに状態S(m) tに遷移する遷移確率を表す。
遷移確率P(S(m) t|S(m) t-1)は、例えば、ファクタ#mのk番目の状態#kから、k'番目(k'=1,2,・・・,K)の状態#k'に遷移する遷移確率を、k行k'列目のコンポーネントとするK行K列の行列(正方行列)である。
観測確率P(Yt|St)は、式(4)に従って計算することができる。
Figure 0006020880
・・・(4)
ここで、ダッシュ(’)は転置を表し、上付きの−1は、逆数(逆行列)を表す。また、|C|は、Cの絶対値(行列式)(determinant演算)を表す。
また、Dは、観測値Ytの次元を表す。
例えば、図3のデータ取得部11は、電圧が、負の値から正の値に変化するときのゼロ交差のあるタイミングを、電流の位相が0になっているタイミングとして、所定のサンプリング間隔で、1周期分(日本では、1/50又は1/60秒)の電流をサンプリングし、そのサンプリング値をコンポーネントとする列ベクトルを、1時刻分の電流波形Ytとして出力する。
データ取得部11が1周期分の電流をサンプリングするサンプリングの回数がD回であるとすると、電流波形Ytは、D行の列ベクトルである。
式(4)の観測確率P(Yt|St)によれば、観測値Ytは、平均値(平均ベクトル)がμtで、分散(共分散行列)がCの正規分布に従う。
平均値μtは、例えば、電流波形Ytと同様のD行の列ベクトルであり、分散Cは、例えば、D行D列の行列(対角成分が分散の行列)である。
平均値μtは、図5で説明した固有波形W(m)を用い、式(5)で表される。
Figure 0006020880
・・・(5)
ここで、ファクタ#mの状態#kの固有波形を、W(m) kと表すこととすると、ファクタ#mの状態#kの固有波形W(m) kは、例えば、電流波形Ytと同様のD行の列ベクトルである。
また、固有波形W(m)は、ファクタ#mの各状態#1,#2,・・・,#Kの固有波形W(m) 1,W(m) 2,・・・,W(m) Kの集まりであり、ファクタ#mの状態#kの固有波形W(m) kである列ベクトルを、k列目のコンポーネントとするD行K列の行列である。
さらに、S*(m) tは、時刻tにいるファクタ#mの状態を表し、以下、S*(m) tを、時刻tのファクタ#mの現在状態ともいう。時刻tのファクタ#mの現在状態S*(m) tは、例えば、式(6)に示すように、K行のうちの1行のみのコンポーネントが0で、他の行のコンポーネントが0のK行の列ベクトルである。
Figure 0006020880
・・・(6)
時刻tにいるファクタ#mの状態が、状態#kである場合、時刻tのファクタ#mの現在状態S*(m) tとしてのK行の列ベクトルS*(m) tは、k行目のコンポーネントだけが1とされ、他のコンポーネントは0とされる。
式(5)によれば、時刻tにいる各ファクタ#mの状態#kの固有波形W(m) kの総和が、時刻tの電流波形Ytの平均値μtとして求められる。
FHMMのモデルパラメータφは、式(2)の初期状態確率P(S(m) 1)、式(3)の遷移確率P(S(m) t|S(m) t-1)、式(4)の分散C、及び、式(5)の固有波形W(m)(=W(m) 1,W(m) 2,・・・,W(m) K)であり、図3のモデル学習部14では、これらのFHMMのモデルパラメータφが求められる。
すなわち、波形分離学習部31は、波形分離学習によって、固有波形W(m)を、電流波形パラメータとして求める。分散学習部32では、分散学習によって、分散Cを、分散パラメータとして求める。状態変動学習部33は、状態変動学習によって、初期状態確率P(S(m) 1)、及び、遷移確率P(S(m) t|S(m) t-1)を、それぞれ、初期状態パラメータ、及び、状態変動パラメータとして求める。
ここで、前述したように、例えば、個々の家電の稼働状態が、オンとオフの2状態であっても、通常のHMMによって、20個の家電の稼働状態(の組み合わせ)を表現する場合には、HMMの状態の数は、220=1,048,576個になり、遷移確率の数は、その2乗の1,099,511,627,776個になる。
一方、FHMMによれば、稼働状態がオンとオフの2状態しかないM個の家電は、各ファクタが2状態の、M個のファクタによって表現することができる。したがって、各ファクタにおいて、状態の数は、2個であり、遷移確率の数は、その2乗の4個であるから、FHMMによって、M=20個の家電(ファクタ)の稼働状態を表現する場合には、FHMMの状態の数(総数)は、40=2×20個という少ない数で済み、遷移確率の数も、80=4×20個という少ない数で済む。
FHMMの学習、すなわち、FHMMのモデルパラメータφとしての初期状態確率P(S(m) 1)、遷移確率P(S(m) t|S(m) t-1)、分散C、及び、固有波形W(m)の更新は、例えば、文献Aに記載されているように、EM(Expectation-Maximization)アルゴリズムに従って行うことができる。
EMアルゴリズムによるFHMMの学習では、式(7)の条件付き完全データ対数尤度の期待値Q(φnew|φ)を最大化するために、Eステップの処理とMステップの処理とが、交互に繰り返される。
Figure 0006020880
・・・(7)
ここで、条件付き完全データ対数尤度の期待値Q(φnew|φ)とは、モデルパラメータφの下で、完全データ{St,Yt}が観測される場合において、新たなモデルパラメータφnewの下で、完全データ{St,Yt}が観測される対数尤度log(P({St,Yt}|φnew))の期待値を意味する。
EMアルゴリズムのEステップの処理では、式(7)の条件付き完全データ対数尤度の期待値Q(φnew|φ)(に相当する値)が求められ、EMアルゴリズムのMステップの処理では、Eステップの処理で求められた期待値Q(φnew|φ)を、より大にする新たなモデルパラメータφnewが求められ、モデルパラメータφが、(期待値Q(φnew|φ)をより大にする)新たなモデルパラメータφnewに更新される。
図6は、監視システム(図3)が行う、EMアルゴリズムに従ったFHMMの学習の処理(学習処理)を説明するフローチャートである。
ステップS11において、モデル学習部14は、モデル記憶部13に記憶されたFHMMのモデルパラメータφとしての初期状態確率P(S(m) 1)、遷移確率P(S(m) t|S(m) t-1)、分散C、及び、固有波形W(m)を初期化し、処理は、ステップS12に進む。
ここで、初期状態確率P(S(m) 1)としてのK行の列ベクトルのk行目のコンポーネント、すなわち、ファクタ#mのk番目の初期状態確率π(m) kは、例えば、1/Kに初期化される。
遷移確率P(S(m) t|S(m) t-1)としてのK行K列の行列のi行j列目のコンポーネント(i,j=1,2,・・・,K)、すなわち、ファクタ#mにおいて、i番目の状態#iからj番目の状態#jに遷移する遷移確率P(m) i,jは、例えば、乱数を用いて、式P(m) i,1+P(m) i,2+・・・+P(m) i,K=1を満たすように、初期化される。
分散CとしてのD行D列の行列は、例えば、乱数を用いて、対角成分を設定し、他の成分(コンポーネント)を0としたD行D列の対角行列に初期化される。
固有波形W(m)としてのD行K列の行列のk列目の列ベクトル、すなわち、ファクタ#mの状態#kの固有波形W(m) kとしてのD行の列ベクトルの各コンポーネントは、例えば、乱数を用いて初期化される。
ステップS12では、データ取得部11が、所定の時間T分の電流波形を取得し、各時刻t=1,2・・・,Tの電流波形を、計測波形Y1,Y2,・・・,YTとして、状態推定部12、及び、モデル学習部14に供給して、処理は、ステップS13に進む。
ここで、データ取得部11は、時刻t=1,2・・・,Tの電流波形とともに、電圧波形も取得する。データ取得部11は、時刻t=1,2・・・,Tの電圧波形を、データ出力部16に供給する。
データ出力部16では、データ取得部11からの電圧波形が、消費電力の算出に用いられる。
ステップS13では、状態推定部12が、データ取得部11からの計測波形Y1ないしYTを用いて、Eステップの処理を行い、処理は、ステップS14に進む。
すなわち、ステップS13では、状態推定部12は、データ取得部11からの計測波形Y1ないしYTを用いて、モデル記憶部13に記憶されたFHMMの各ファクタ#mの各状態にいる状態確率等を求める状態推定を行い、その状態推定の推定結果を、モデル学習部14、及び、データ出力部16に供給する。
ここで、図5で説明したように、家電分離においては、ファクタ#mの状態は、そのファクタ#mが対応する家電#mの稼働状態に対応する。したがって、FHMMのファクタ#mの状態#kにいる状態確率は、家電#mの稼働状態が状態#kである程度を表すので、そのような状態確率を求める状態推定は、家電の稼働状態を求めている(推定している)、ということができる。
ステップS14では、モデル学習部14は、データ取得部11からの計測波形Y1ないしYT、及び、状態推定部12からの状態推定の推定結果を用いて、Mステップの処理を行い、処理は、ステップS15に進む。
すなわち、ステップS14では、モデル学習部14は、データ取得部11からの計測波形Y1ないしYT、及び、状態推定部12からの状態推定の推定結果を用いて、モデル記憶部13に記憶された、各ファクタが3以上の状態を有するFHMMの学習を行うことにより、モデル記憶部13に記憶されたFHMMのモデルパラメータφとしての初期状態確率π(m) k、遷移確率P(m) i,j、分散C、及び、固有波形W(m)を更新する。
ステップS15では、モデル学習部14は、モデルパラメータφの収束条件が満たされているかどうかを判定する。
ここで、モデルパラメータφの収束条件としては、例えば、Eステップ及びMステップの処理があらかじめ設定された所定の回数だけ繰り返されたことや、FHMMにおいて、計測波形Y1ないしYTが観測される尤度の、モデルパラメータφの更新前と更新後との間の変化量が、あらかじめ設定された閾値以内であること等を採用することができる。
ステップS15で、モデルパラメータφの収束条件が満たされていないと判定された場合、処理は、ステップS13に戻り、以下、同様の処理が繰り返される。
また、ステップS15において、モデルパラメータφの収束条件が満たされると判定された場合、学習処理は、終了する。
図7は、図3の監視システムが、図6のステップS13で行うEステップの処理を説明するフローチャートである。
ステップS21において、評価部21は、モデル記憶部13に記憶された全体モデルφとしてのFHMMの分散C、及び、固有波形W(m)、並びに、データ取得部11からの計測波形Yt={Y1,Y2,・・・,YT}を用い、各時刻t={1,2,・・・,T}の、状態の各組み合わせStについて、式(4)の観測確率P(Yt|St)を、評価値Eとして求め、推定部22に供給して、処理は、ステップS22に進む。
ステップS22では、推定部22が、評価部21からの観測確率P(Yt|St)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,j(及び初期状態確率π(m))を用いて、計測波形Y1,Y2,・・・,Ytを観測し、時刻tに、状態の組み合わせ(時刻tにいるファクタ#1の状態と、ファクタ#2の状態と、・・・、ファクタ#Mの状態との組み合わせ)zにいる前向き確率αt,zを求め、処理は、ステップS23に進む。
ここで、HMMの前向き確率の求め方については、例えば、C.M. ビショップ, 「パターン認識と機械学習 下 ベイズ理論による統計的予測」, シュプリンガー・ジャパン, 2008(以下、文献Bともいう)の336ページに記載されている。
前向き確率αt,zは、例えば、1時刻前の前向き確率αt-1,wを用いた漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)に従って求めることができる。
漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)において、Σは、wを、FHMMの状態の組み合わせのすべてに変えてとるサメーションを表す。
また、漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)において、wは、1時刻前の時刻t-1にいる状態の組み合わせを表す。P(z|w)は、時刻t-1に、状態の組み合わせwにいて、時刻tに状態の組み合わせzに遷移する遷移確率を表し、P(Yt|z)は、時刻tに、状態の組み合わせzにおいて、計測波形Ytを観測する観測確率を表す。
なお、前向き確率αt,zの初期値、すなわち、時刻t=1のときの前向き確率α1,zとしては、状態の組み合わせzを構成する各ファクタ#mの状態#kの初期状態確率π(m) kの積が採用される。
ステップS23では、推定部22が、評価部21からの観測確率P(Yt|St)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,jを用いて、時刻tに、状態の組み合わせzにいて、その後、計測波形Yt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zを求め、処理は、ステップS24に進む。
ここで、HMMの後ろ向き確率の求め方については、例えば、上述の文献Bの336ページに記載されている。
後ろ向き確率βt,zは、例えば、1時刻後の後ろ向き確率βt+1,wを用いた漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wに従って求めることができる。
漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wにおいて、Σは、wを、FHMMの状態の組み合わせのすべてに変えてとるサメーションを表す。
また、漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wにおいて、wは、1時刻後の時刻t+1にいる状態の組み合わせを表す。P(w|z)は、時刻tに、状態の組み合わせzにいて、時刻t+1に状態の組み合わせwに遷移する遷移確率を表し、P(Yt|z)は、時刻tに、状態の組み合わせzにおいて、計測波形Ytを観測する観測確率を表す。
なお、後ろ向き確率βt,zの初期値、すなわち、時刻t=Tのときの後ろ向き確率βT,zとしては、1が採用される。
ステップS24では、推定部22は、前向き確率αt,zと後ろ向き確率βt,zを用いて、式(8)に従い、全体モデルφとしてのFHMMにおいて、時刻tに、状態の組み合わせzにいる事後確率γt,zを求め、処理は、ステップS25に進む。
Figure 0006020880
・・・(8)
ここで、式(8)の右辺の分母のΣは、wを、時刻tに取り得る状態の組み合わせStのすべてに変えてとるサメーションを表す。
式(8)によれば、事後確率γt,zは、前向き確率αt,zと後ろ向き確率βt,zとの積αt,zβt,zを、その積αt,wβt,wの、FHMMが取り得る状態の組み合わせw∈Stについての総和Σαt,wβt,wで正規化することにより求められる。
ステップS25では、推定部22は、事後確率γt,zを用い、ファクタ#mにおいて、時刻tに、状態S(m) tにいる事後確率<S(m) t>と、時刻tに、ファクタ#mにおいて、状態S(m) tにいて、他のファクタ#nにおいて、状態S(n) tにいる事後確率<S(m) tS(n) t'>とを求め、処理は、ステップS26に進む。
ここで、事後確率<S(m) t>は、式(9)に従って求められる。
Figure 0006020880
・・・(9)
式(9)によれば、ファクタ#mにおいて、時刻tに、状態S(m) tにいる事後確率<S(m) t>は、時刻tに、状態の組み合わせzにいる事後確率γt,zを、ファクタ#mの状態を含まない状態の組み合わせzについて周辺化することにより求められる。
なお、事後確率<S(m) t>は、例えば、時刻tに、ファクタ#mのK個の状態のうちのk番目の状態いる状態確率(事後確率)を、k行目のコンポーネントとするK行の列ベクトルであることとする。
事後確率<S(m) tS(n) t'>は、式(10)に従って求められる。
Figure 0006020880
・・・(10)
式(10)によれば、時刻tに、ファクタ#mにおいて、状態S(m) tにいて、他のファクタ#nにおいて、状態S(n) tにいる事後確率<S(m) tS(n) t'>は、時刻tに、状態の組み合わせzにいる事後確率γt,zを、ファクタ#mの状態と、ファクタ#nの状態との両方を含まない状態の組み合わせzについて周辺化することにより求められる。
なお、事後確率<S(m) tS(n) t'>は、例えば、時刻tに、ファクタ#mの状態#kと、他のファクタ#nの状態#k'とにいる状態確率(事後確率)を、k行k'列目のコンポーネントとするK行K列の行列であることとする。
ステップS26では、推定部22は、前向き確率αt,z、後ろ向き確率βt,z、遷移確率P(z|w)、及び、評価部21からの観測確率P(Yt|St)を用いて、ファクタ#mにおいて、時刻t-1に、状態S(m) t-1にいて、次の時刻tに、状態S(m) tにいる事後確率<S(m) t-1S(m) t'>を求める。
そして、推定部22は、事後確率<S(m) t>,<S(m) tS(n) t'>、及び、<S(m) t-1S(m) t'>を、状態推定の推定結果として、モデル学習部14、ラベル取得部15、及び、データ出力部16に供給し、Eステップの処理からリターンする。
ここで、事後確率<S(m) t-1S(m) t'>は、式(11)に従って求められる。
Figure 0006020880
・・・(11)
式(11)の事後確率<S(m) t-1S(m) t'>の算出にあたり、状態の組み合わせwから状態の組み合わせzに遷移する遷移確率P(z|w)は、式(3)に従い、状態の組み合わせwを構成するファクタ#1の状態#i(1)から状態の組み合わせzを構成するファクタ#1の状態#j(1)への遷移確率P(1) i(1),j(1)、状態の組み合わせwを構成するファクタ#2の状態#i(2)から状態の組み合わせzを構成するファクタ#2の状態#j(2)への遷移確率P(2) i(2),j(2)、・・・、及び、状態の組み合わせwを構成するファクタ#Mの状態#i(M)から状態の組み合わせzを構成するファクタ#Mの状態#j(M)への遷移確率P(M) i(M),j(M)の積P(1) i(1),j(1)×P(2) i(2),j(2)×・・・×P(M) i(M),j(M)として求められる。
なお、事後確率<S(m) t-1S(m) t'>は、例えば、ファクタ#mにおいて、時刻t-1に状態#iにいて、次の時刻tに状態jにいる状態確率(事後確率)を、i行j列目のコンポーネントとするK行K列の行列であることとする。
図8は、FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zと、(通常の)HMMの前向き確率αt,i、及び、後ろ向き確率βt,jとの関係を説明する図である。
FHMMについては、そのFHMMと等価なHMMを構成することができる。
あるFHMMと等価なHMMは、そのFHMMの各ファクタの状態の組み合わせzに相当する状態を有する。
そして、FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zは、そのFHMMと等価なHMMの前向き確率αt,i、及び、後ろ向き確率βt,jに一致する。
図8Aは、2つの状態#1及び#2を有するファクタ#1と#2からなるFHMMを示している。
図8AのFHMMでは、ファクタ#1の状態#kとファクタ#2の状態#k'との組み合わせz=[k,k']として、ファクタ#1の状態#1とファクタ#2の状態#1との組み合わせ[1,1]、ファクタ#1の状態#1とファクタ#2の状態#2との組み合わせ[1,2]、ファクタ#1の状態#2とファクタ#2の状態#1との組み合わせ[2,1]、及び、ファクタ#1の状態#2とファクタ#2の状態#2との組み合わせ[2,2]の4通りがある。
図8Bは、図8AのFHMMと等価なHMMを示している。
図8BのHMMは、図8AのFHMMの状態の4つの組み合わせ[1,1],[1,2],[2,1]、及び、[2,2]それぞれに相当する4つの状態#(1,1),#(1,2),#(2,1)、及び、#(2,2)を有する。
そして、図8AのFHMMの前向き確率αt,z={αt,[1,1],αt,[1,2],αt,[2,1],αt,[2,2]}は、図8BのHMMの前向き確率αt,i={αt,(1,1),αt,(1,2),αt,(2,1),αt,(2,2)}と一致する。
同様に、図8AのFHMMの後ろ向き確率βt,z={βt,[1,1],βt,[1,2],βt,[2,1],βt,[2,2]}は、図8BのHMMの前向き確率βt,i={βt,(1,1),βt,(1,2),βt,(2,1),βt,(2,2)}と一致する。
例えば、上述の式(8)の右辺の分母、つまり、積αt,wβt,wの、FHMMが取り得る状態の組み合わせw∈Stについての総和Σαt,wβt,wは、図8AのFHMMについては、式Σαt,wβt,w=αt,[1,1]βt,[1,1]+αt,[1,2]βt,[1,2]+αt,[2,1]βt,[2,1]+αt,[2,2]βt,[2,2]で表される。
図9は、図3の監視システムが、図6のステップS14で行うMステップの処理を説明するフローチャートである。
ステップS31において、波形分離学習部31は、データ取得部11からの計測波形Yt、並びに、推定部22からの事後確率<S(m) t>、及び、<S(m) tS(n) t'>を用いて、波形分離学習を行うことにより、固有波形W(m)の更新値W(m)newを求め、その更新値W(m)newによって、モデル記憶部13に記憶された固有波形W(m)を更新して、処理は、ステップS32に進む。
すなわち、波形分離学習部31は、波形分離学習として、式(12)を計算することにより、固有波形W(m)の更新値W(m)newを求める。
Figure 0006020880
・・・(12)
ここで、Wnewは、D行K列の行列であるファクタ#mの固有波形W(m)の更新値W(m)newが、ファクタ(のインデクス)#m順に、左から右方向に並んだD行K×M列の行列である。D行K×M列の行列である固有波形(の更新値)Wnewの(m-1)K+k列の列ベクトルは、ファクタ#mの状態#kの固有波形W(m) k(の更新値)になっている。
<St'>は、K行の列ベクトルである事後確率<S(m) t>が、ファクタ#m順に、上から下方向に並んだK×M行の列ベクトルを転置したK×M列の行ベクトルである。K×M列の行ベクトルである事後確率<St'>の(m-1)K+k列目のコンポーネントは、時刻tに、ファクタ#mの状態#kにいる状態確率になっている。
<StSt'>は、K行K列の行列である事後確率<S(m) tS(n) t'>が、ファクタ#m順に、上から下方向に並び、かつ、ファクタ#n順に、左から右方向に並んだK×M行K×M列の行列である。K×M行K×M列の行列である事後確率<StSt'>の(m-1)K+k行(n-1)K+k'列目のコンポーネントは、時刻tに、ファクタ#mの状態#kと、他のファクタ#nの状態#k'とにいる状態確率になっている。
上付のアスタリスク(*)は、逆行列、又は、擬似逆行列を表す。
式(12)を計算する波形分離学習によれば、計測波形Ytと式(5)の平均値μt=ΣW(m)S*(m) tとの誤差が、なるべく小さくなるように、計測波形Ytが、固有波形W(m)に分離される。
ステップS32では、分散学習部32が、データ取得部11からの計測波形Yt、推定部22からの事後確率<S(m) t>、及び、及び、モデル記憶部13に記憶された固有波形W(m)を用いて、分散学習を行うことにより、分散Cの更新値Cnewを求め、モデル記憶部13に記憶された分散Cを更新して、処理は、ステップS33に進む。
すなわち、分散学習部32は、分散学習として、式(13)を計算することにより、分散Cの更新値Cnewを求める。
Figure 0006020880
・・・(13)
ステップS33では、状態変動学習部33が、推定部22からの事後確率<S(m) t>、及び、<S(m) t-1S(m) t'>を用いて、状態変動学習を行うことにより、遷移確率P(m) i,jの更新値P(m) i,j new、及び、初期状態確率π(m)の更新値π(m)newを求め、その更新値P(m) i,j new、及び、π(m)newによって、モデル記憶部13に記憶された遷移確率P(m) i,j、及び、初期状態確率π(m)を更新して、Mステップの処理からリターンする。
すなわち、状態変動学習部33は、状態変動学習として、式(14)、及び、式(15)を計算することにより、それぞれ、遷移確率P(m) i,jの更新値P(m) i,j new、及び、初期状態確率π(m)の更新値π(m)newを求める。
Figure 0006020880
・・・(14)
Figure 0006020880
・・・(15)
ここで、<S(m) t-1,iS(m) t,j>は、K行K列の行列である事後確率<S(m) t-1S(m) t'>のi行j列目のコンポーネントであり、ファクタ#mにおいて、時刻t-1に状態#iにいて、次の時刻tに状態#jにいる状態確率を表す。
<S(m) t-1,i>は、K行の列ベクトル事後確率<S(m) t-1>のi行目のコンポーネントであり、時刻t-1に、ファクタ#mの状態#iいる状態確率を表す。
π(m)(π(m)new)は、ファクタ#mの状態#kの初期状態確率π(m) k(の更新値π(m) k new)を、k行目のコンポーネントとするK行の列ベクトルである。
図10は、監視システム(図3)が行う、家電#mの情報を提示する情報提示処理を説明するフローチャートである。
ステップS41において、データ出力部16は、データ取得部11からの電圧波形(電流波形である計測波形Ytに対応する電圧波形)Vt、状態推定部12からの状態推定の推定結果としての事後確率<S(m) t>、及び、モデル記憶部13に記憶された固有波形W(m)を用いて、各ファクタ#mの消費電力U(m)を求め、処理は、ステップS42に進む。
ここで、データ出力部16は、時刻tの電圧波形Vtと、時刻tのファクタ#mに対応する家電#mの消費電流Atとを用いて、時刻tのファクタ#mに対応する家電#mの消費電力U(m)を求める。
データ出力部16において、時刻tのファクタ#mに対応する家電#mの消費電流Atは、以下のようにして求められる。
すなわち、データ出力部16は、例えば、ファクタ#mにおいて、事後確率<S(m) t>が最大の状態#kの固有波形W(m)を、時刻tのファクタ#mに対応する家電#mの消費電流Atとして求める。
また、データ出力部16は、例えば、K行の列ベクトルである事後確率<S(m) t>のコンポーネントである、時刻tのファクタ#mの各状態の状態確率を重みとして用いた、ファクタ#mの各状態の固有波形W(m) 1,W(m) 2,・・・,W(m) Kの重み付け加算値を、時刻tのファクタ#mに対応する家電#mの消費電流Atとして求める。
なお、FHMMの学習が進行し、ファクタ#mが、家電#mを適切に表現する家電モデルとなると、時刻tのファクタ#mの各状態の状態確率は、時刻tの家電#mの稼働状態に対応する状態の状態確率がほぼ1になり、残りのK-1個の状態の状態確率はほぼ0となる。
その結果、ファクタ#mにおいて、事後確率<S(m) t>が最大の状態#kの固有波形W(m)と、時刻tのファクタ#mの各状態の状態確率を重みとして用いた、ファクタ#mの各状態の固有波形W(m) 1,W(m) 2,・・・,W(m) Kの重み付け加算値とは、ほぼ同一となる。
ステップS42では、ラベル取得部15が、各家電モデル#mが表す家電#m、すなわち、FHMMの各ファクタ#mに対応する家電#mを識別する家電ラベルL(m)を取得し、データ出力部16に供給して、処理は、ステップS43に進む。
ここで、ラベル取得部15では、例えば、データ出力部16において求められる各ファクタ#mに対応する家電#mの消費電流Atや、消費電力U(m)、その消費電力U(m)から認識される家電#mの使用時間帯を表示し、その消費電流Atや、消費電力U(m)、使用時間帯にあてはまる家電の名称を、ユーザに入力してもらうことで、ユーザにより入力された家電の名称を、家電ラベルL(m)として取得することができる。
また、ラベル取得部15では、例えば、様々な家電について、その消費電力や、電流波形(消費電流)、使用時間帯等の属性と、家電の名称とを対応付けて登録したデータベースを事前に用意しておき、データベースにおいて、データ出力部16で求められる各ファクタ#mに対応する家電#mの消費電流Atや、消費電力U(m)、その消費電力U(m)から認識される家電#mの使用時間帯に対応付けられている家電の名称を、家電ラベルL(m)として取得することができる。
なお、ラベル取得部15において、既に、家電ラベルL(m)が取得され、データ出力部16に供給されている家電#mに対応するファクタ#mについては、ステップS42の処理をスキップすることができる。
ステップS43では、データ出力部16が、各ファクタ#mの消費電力U(m)を、そのファクタ#mの家電ラベルL(m)とともに、図示せぬディスプレイに表示すること等により、ユーザに提示して、情報提示処理は終了する。
図11は、図10の情報提示処理で行われる消費電力U(m)の表示例を示す図である。
データ出力部16では、例えば、図11に示すように、各ファクタ#mに対応する家電#mの消費電力U(m)の時系列が、その家電#mの名称等の家電ラベルL(m)とともに、図示せぬディスプレイに表示される。
以上のように、監視システムでは、各ファクタが3以上の状態を有するFHMMによって、各家電の稼働状態をモデル化するFHMMの学習が行われるので、モードや設定等によって消費電力(電流)が変動するエアコン等の変動負荷家電について、正確な消費電力等を求めることができる。
また、監視システムでは、配電盤等の1箇所で、家庭内の各家電で消費されている電流の総和を計測することにより、家庭内の各家電の消費電力を求めることができるので、各コンセントにスマートタップを取り付ける場合に比較して、コスト、及び、労力のいずれの面からも、容易に、家庭内の各家電の消費電力の「見える化」を実現することができる。
そして、家庭内の各家電の消費電力の「見える化」によれば、例えば、家庭での節電の意識を高めることができる。
なお、監視システムで得られる家庭内の各家電の消費電力については、例えば、サーバ等で収集し、各家庭の家電の消費電力から、家電の使用時間帯、ひいていは、生活パターンを推定し、マーケティング等に役立てることができる。
[本技術を適用した監視システムの第2実施の形態]
図12は、本技術を適用した監視システムの第2実施の形態の構成例を示すブロックである。
なお、図中、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図12の監視システムは、データ取得部11ないしデータ出力部16を有する点で、図3の監視システムと共通する。
但し、図12の監視システムは、モデル学習部14の分散学習部32に代えて、個別分散学習部52が設けられている点で、図3の監視システムと相違する。
図3の分散学習部32では、分散学習において、全体モデルとしてのFHMMについて、1の分散Cが求められるが、図12の個別分散学習部52では、分散学習において、全体モデルとしてのFHMMについて、ファクタ#mごと、又は、各ファクタ#mの状態#kごとに、個別の分散(以下、個別分散ともいう)σ(m)が求められる。
ここで、個別分散σ(m)が、各ファクタ#mの状態#kごとに個別の分散である場合、個別分散σ(m)は、例えば、ファクタ#mの状態#kの分散σ(m) kを、k列目のコンポーネントとするK列の行ベクトルである。
なお、以下では、説明を簡単にするため、個別分散σ(m)が、ファクタ#mごとに個別の分散である場合、個別分散σ(m)としてのK列の行ベクトルのすべてのコンポーネントσ(m) 1,σ(m) 2,・・・,σ(m) Kを、ファクタ#mに共通の同一の値(ファクタ#mについての分散としての同一のスカラ値、又は、(共分散)行列)とすることで、ファクタ#mごとに個別の個別分散σ(m)を、各ファクタ#mの状態#kごとに個別の個別分散σ(m)と同一に扱うこととする。
個別分散σ(m)としてのK列の行ベクトルのk列目のコンポーネントであるファクタ#mの状態#kの分散σ(m) kは、分散としてのスカラ値、又は、共分散行列としてのD行D列の行列である。
個別分散学習部52において、個別分散σ(m)が求められる場合、評価部21では、その個別分散σ(m)を用い、式(4)に代えて、式(16)に従って、観測確率P(Yt|St)が求められる。
Figure 0006020880
・・・(16)
ここで、式(16)のΣtは、式(17)に従って求められる。
Figure 0006020880
・・・(17)
S*(m) tは、式(6)に示したように、時刻tにいるファクタ#mの状態を表し、K行のうちの1行のみのコンポーネントが0で、他の行のコンポーネントが0のK行の列ベクトルである。
個別分散学習部52において、個別分散σ(m)は、以下のようにして求められる。
すなわち、実際に計測(観測)される計測波形Ytに対する全体モデルφとしてのFHMMの分散σの期待値<σ>は、式(18)に示すように、計測波形Ytとしての電流波形と、全体モデルφとしてのFHMMにおいて生成(観測)される生成波形Y^tとしての電流波形との自乗誤差|Yt-Y^t|2の期待値<|Yt-Y^t|2>に等しい。
Figure 0006020880
・・・(18)
分散σの期待値<σ>は、各ファクタ#mの状態#kごとに個別の個別分散σ(m)の期待値σ(m)<S(m) t>のファクタ#mについての総和σ(1)<S(1) t>+σ(2)<S(2) t>+・・・+σ(M)<S(M) t>に等価である。
また、計測波形Ytと生成波形Y^tとの自乗誤差|Yt-Y^t|2の期待値<|Yt-Y^t|2>は、計測波形Ytと、個別波形W(m)の期待値W(m)<S(m) t>のファクタ#mについての総和W(1)<S(1) t>+W(2)<S(2) t>+・・・+W(M)<S(M) t>との自乗誤差|Yt-(W(1)<S(1) t>+W(2)<S(2) t>+・・・+W(M)<S(M) t>)|2に等価である。
したがって、式(18)は、式(19)と等価である。
Figure 0006020880
・・・(19)
式(19)を満たす個別分散σ(m)=σ(m)newは、個別分散σ(m)が負ではないという制約がある制約付き2次計画法により、式(20)に従って求めることができる。
Figure 0006020880
・・・(20)
個別分散学習部52は、式(20)に従って、個別分散σ(m)の更新値σ(m)newを求め、その更新値σ(m)newによって、モデル記憶部13に記憶された個別分散σ(m)を更新する。
以上のように、個別分散学習部52において、ファクタ#mごと、又は、各ファクタ#mの状態#kごとの個別分散σ(m)を求める場合には、1の分散Cを用いる場合よりも、全体モデルφとしてのFHMMの、家電を表現する表現能力が向上するとともに、推定部22での状態推定の精度が向上するので、より正確な消費電力等を求めることができる。
特に、例えば、吸引の状態によって消費電流がばらつく掃除機等の変動負荷家電について、個別分散σ(m)を用いることにより、より正確な消費電力を求めることができる。
図12の監視システムでは、分散Cに代えて、個別分散σ(m)が用いられることを除き、図3の監視システムと同様の処理(図6の学習処理や、図10の情報提示処理)が行われる。
図13は、図12の監視システムが、図6のステップS13で行うEステップの処理を説明するフローチャートである。
ステップS61において、評価部21は、モデル記憶部13に記憶された全体モデルφとしてのFHMMの個別分散σ(m)、及び、固有波形W(m)、並びに、データ取得部11からの計測波形Yt={Y1,Y2,・・・,YT}を用い、各時刻t={1,2,・・・,T}の、状態の各組み合わせStについて、(式(4)ではなく)式(16)及び式(17)に従って、観測確率P(Yt|St)を求め、推定部22に供給して、処理は、ステップS62に進む。
以下、ステップS62ないしS66では、図7のステップS22ないしS26とそれぞれ同様の処理が行われる。
図14は、図12の監視システムが、図6のステップS14で行うMステップの処理を説明するフローチャートである。
ステップS71において、波形分離学習部31は、図9のステップS31と同様に、波形分離学習によって、固有波形W(m)の更新値W(m)newを求め、その更新値W(m)newによって、モデル記憶部13に記憶された固有波形W(m)を更新して、処理は、ステップS72に進む。
ステップS72では、個別分散学習部52が、データ取得部11からの計測波形Yt、推定部22からの事後確率<S(m) t>、及び、及び、モデル記憶部13に記憶された固有波形W(m)を用いて、分散学習としての式(20)に従って、個別分散σ(m)の更新値σ(m)newを求める。
そして、個別分散学習部52は、、個別分散σ(m)の更新値σ(m)newによって、モデル記憶部13に記憶された個別分散σ(m)を更新し、処理は、ステップS72からステップS73に進む。
ステップS73では、状態変動学習部33は、図9のステップS33と同様に、状態変動学習によって、遷移確率P(m) i,jの更新値P(m) i,j new、及び、初期状態確率π(m)の更新値π(m)newを求め、その更新値P(m) i,j new、及び、π(m)newによって、モデル記憶部13に記憶された遷移確率P(m) i,j、及び、初期状態確率π(m)を更新して、Mステップの処理からリターンする。
[本技術を適用した監視システムの第3実施の形態]
図15は、本技術を適用した監視システムの第3実施の形態の構成例を示すブロックである。
なお、図中、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図15の監視システムは、データ取得部11ないしデータ出力部16を有する点で、図3の監視システムと共通する。
但し、図15の監視システムは、状態推定部12の推定部22に代えて、近似推定部42が設けられている点で、図3の監視システムと相違する。
近似推定部42は、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、事後確率(状態確率)<S(m) t>等を求める。
ここで、例えば、事後確率<S(m) t>は、式(9)に従い、事後確率γt,zを周辺化することで求められる。
事後確率γt,zは、式(8)に従い、前向き確率αt,zと後ろ向き確率βt,zを用い、FHMMの各ファクタの状態の組み合わせzすべてについて求められる。
ところで、FHMMの各ファクタの状態の組み合わせzの数は、KM通りだけ存在し、ファクタの数Mの増加に対して、指数のオーダで増加する。
したがって、FHMMが、ある程度の数のファクタを有する場合に、各ファクタの状態の組み合わせzすべてについて、前向き確率αt,z、及び、後ろ向き確率βt,z、さらには、事後確率γt,zを、文献Aに記載されているように厳密に計算するのでは、計算量が膨大になる。
そこで、FHMMの状態推定については、例えば、Gibbs Samplingや、Completely Factorized Variational Approximation、Structured Variational Approximation等の近似推定手法が文献Aにおいて提案されている。しかしながら、これらの近似推定手法では、計算量が依然として大きいことや、近似による精度の低下が著しいことがある。
ところで、家庭内のすべての家電の稼働状態が、各時刻に変化(変動)する可能性は、停電等の異常なケースを除けば、極めて低い。
そこで、近似推定部42は、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、事後確率<S(m) t>等を求める。
状態遷移制限としては、1時刻に状態が遷移するファクタの数を、例えば、1個や数個等以下に制限することを採用することができる。
状態遷移制限によれば、事後確率<S(m) t>等を求めるのに用いられる事後確率γt,z、ひいては、前向き確率αt,z、及び、後ろ向き確率βt,zを、厳密に計算する必要がある状態の組み合わせzの数が、大幅に削減され、さらに、その削減される状態の組み合わせは、生じる可能性が極めて低い組み合わせであるため、事後確率(状態確率)<S(m) t>等の精度を大きく損なうことなく、計算量を大幅に少なくすることができる。
近似推定部42において、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、事後確率<S(m) t>等を求める方法としては、Eステップの処理に、パーティクルフィルタを適用する方法、すなわち、FHMMの状態の組み合わせzに、パーティクルフィルタを適用する方法がある。
ここで、パーティクルフィルタについては、例えば、上述の文献Bの364ページに記載されている。
また、本実施の形態では、状態遷移制限として、1時刻に状態が遷移するファクタの数を、例えば、1個以下に制限することを採用することとする。
FHMMの状態の組み合わせzに、パーティクルフィルタを適用する場合、パーティクルフィルタのp番目のパーティクルSpは、FHMMの状態のある組み合わせを表現する。
ここで、パーティクルSpは、そのパーティクルSpが表現する、ファクタ#1の状態S(1) p、ファクタ#2の状態S(2) p、・・・、ファクタ#Mの状態S(M) pの組み合わせであり、式Sp={S(1) p,S(2) p,・・・,S(M) p}で表現される。
また、FHMMの状態の組み合わせzに、パーティクルフィルタを適用する場合、状態の組み合わせStにおいて、計測波形Ytが観測される式(4)の観測確率P(Yt|St)に代えて、パーティクルSp(が表現する状態の組み合わせ)において、計測波形Ytが観測される観測確率P(Yt|Sp)が用いられる。
観測確率P(Yt|Sp)は、例えば、式(21)に従って計算することができる。
Figure 0006020880
・・・(21)
式(21)の観測確率P(Yt|Sp)は、平均値(平均ベクトル)が、μtではなく、μpである点で、式(4)の観測確率P(Yt|St)と異なっている。
平均値μpは、平均値μtと同様に、電流波形Ytと同様のD行の列ベクトルであり、固有波形W(m)を用いて、式(22)で表される。
Figure 0006020880
・・・(22)
ここで、S*(m) pは、パーティクルSpとしての状態の組み合わせを構成する状態のうちの、ファクタ#mの状態を表し、以下、パーティクルSpのファクタ#mの状態S*(m) pともいう。パーティクルSpのファクタ#mの状態S*(m) pは、例えば、式(23)に示すように、K行のうちの1行のみのコンポーネントが0で、他の行のコンポーネントが0のK行の列ベクトルである。
Figure 0006020880
・・・(23)
パーティクルSpとしての状態の組み合わせを構成するファクタ#mの状態が、状態#kである場合、パーティクルSpのファクタ#mの状態S*(m) pとしてのK行の列ベクトルS*(m) pは、k行目のコンポーネントだけが1とされ、他のコンポーネントは0とされる。
式(22)によれば、パーティクルSpとしての状態の組み合わせを構成する各ファクタ#mの状態#kの固有波形W(m) kの総和が、時刻tの電流波形Ytの平均値μpとして求められる。
図16は、FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、前向き確率αt,pを求める方法を説明する図である。
なお、図16では(後述する図17及び図18でも同様)、例えば、FHMMのファクタの数が4個であり、各ファクタが、オン状態とオフ状態とを稼働状態として表す2個の状態を有することとする。
評価部21は、モデル記憶部13に記憶された全体モデルφとしてのFHMMの分散C、及び、固有波形W(m)、並びに、データ取得部11からの計測波形Yt={Y1,Y2,・・・,YT}を用い、各時刻t={1,2,・・・,T}の、各パーティクルSp={S1,S2,・・・,SR}としての状態の組み合わせについて、式(21)の観測確率P(Yt|Sp)を求め、近似推定部42に供給する。
そして、近似推定部42は、評価部21からの観測確率P(Yt|Sp)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,j(及び初期状態確率π(m))を用いて、計測波形Y1,Y2,・・・,Ytを観測し、時刻tに、パーティクルSpとしての状態の組み合わせにいる前向き確率αt,pを求める。
前向き確率αt,pは、例えば、1時刻前の前向き確率αt-1,rを用いた漸化式αt,p=Σαt-1,rP(Sp|r)P(Yt|Sp)に従って求めることができる。
漸化式αt,p=Σαt-1,rP(Sp|r)P(Yt|Sp)において、rは、1時刻に状態が遷移するファクタの数を1状態以下に制限する状態遷移制限の下で、時刻tのパーティクルSpとしての状態の組み合わせに遷移することができる時刻t-1のパーティクルとしての状態の組み合わせrを表す。
したがって、状態の組み合わせrとなり得るのは、パーティクルSpとしての状態の組み合わせと同一の状態の組み合わせと、パーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる状態の組み合わせとなる。
漸化式αt,p=Σαt-1,rP(Sp|r)P(Yt|Sp)において、Σは、状態の組み合わせrすべてについてとるサメーションを表す。
また、漸化式αt,p=Σαt-1,rP(Sp|r)P(Yt|Sp)において、P(Sp|r)は、時刻t-1にパーティクルとしての状態の組み合わせrにいて、時刻tにパーティクルSpとしての状態の組み合わせに遷移する遷移確率を表し、全体モデルφとしてのFHMMの遷移確率P(m) i,jを用い、式(3)に従って求められる。
なお、前向き確率αt,pの初期値としては、例えば、状態の組み合わせすべての中から、パーティクルSpとして、ランダムに選択される状態の組み合わせを構成する各ファクタ#mの状態#kの初期状態確率π(m) kの積が採用される。
近似推定部42は、FHMMが取り得る状態の組み合わせのすべてではなく、パーティクルSpとしての状態の組み合わせについてだけ、前向き確率αt,pを求める。
時刻tに存在するパーティクルSpの数をR個とすると、R個の前向き確率αt,pが求められる。
近似推定部42は、時刻tのR個のパーティクルSp={S1,S2,・・・,SR}について、前向き確率αt,pを求めると、その前向き確率αt,pに基づいて、R個のパーティクルSp={S1,S2,・・・,SR}の中からのパーティクルのサンプリングを行う。
すなわち、近似推定部42は、R個のパーティクルSp={S1,S2,・・・,SR}の中から、前向き確率αt,pの大きい順に、所定数であるP個のパーティクルSp={S1,S2,・・・,SP}をサンプリングし、そのP個のパーティクルSpだけを、時刻tのパーティクルとして残す。
なお、P≧Rの場合は、R個のパーティクルSpすべてがサンプリングされる。
また、パーティクルSpをサンプリングする個数Pは、FHMMが取り得る状態の組み合わせの数よりも小さい値であり、例えば、監視システムに許容される計算コスト等に基づいて設定される。
近似推定部42は、時刻tのP個のパーティクルSp={S1,S2,・・・,SP}をサンプリングすると、そのP個のパーティクルSp={S1,S2,・・・,SP}それぞれについて、1時刻後である時刻t+1のパーティクルを、状態遷移制限の下で予測する。
1時刻に状態が遷移するファクタの数を1状態以下に制限する状態遷移制限の下では、時刻t+1のパーティクルSqとしては、パーティクルSpとしての状態の組み合わせと同一の状態の組み合わせと、パーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる状態の組み合わせとが予測される。
上述したように、FHMMのファクタの数が4個であり、各ファクタが、オン状態とオフ状態とを稼働状態として表す2個の状態を有する場合には、時刻tのあるパーティクルSpについては、その時刻tのパーティクルSpとしての状態の組み合わせと同一の1通りの状態の組み合わせと、時刻tのパーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる4通りの状態の組み合わせとの、合計で5通りの組み合わせが、時刻t+1のパーティクルSqとして予測される。
近似推定部42は、時刻t+1のパーティクルSq={S1,S2,・・・,SQ}の予測後、その時刻t+1のパーティクルSqについて、時刻tのパーティクルSpの場合と同様に、前向き確率αt+1,qを求め、以下、同様にして、各時刻t=1,2,・・・,Tの前向き確率を求める。
以上のように、近似推定部42は、各ファクタ#mの状態の組み合わせを、パーティクルとして、1時刻後のパーティクルを、状態遷移制限の下で予測し、前向き確率αt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、各時刻tについて、パーティクルとしての状態の組み合わせzの前向き確率αt,zを求める。
図17は、FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、後ろ向き確率βt,pを求める方法を説明する図である。
近似推定部42は、評価部21からの観測確率P(Yt|St)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,jを用いて、時刻tに、パーティクルSpとしての状態の組み合わせにいて、その後、計測波形Yt,Yt+1,・・・,YTを観測する後ろ向き確率βt,pを求める。
後ろ向き確率βt,pは、例えば、1時刻後の後ろ向き確率βt+1,rを用いた漸化式βt,p=ΣP(Yt|Sp)P(r|Spt+1,rに従って求めることができる。
漸化式βt,p=ΣP(Yt|Sp)P(r|Spt+1,rにおいて、rは、1時刻に状態が遷移するファクタの数を1状態以下に制限する状態遷移制限の下で、時刻tのパーティクルSpとしての状態の組み合わせから遷移することができる時刻t+1のパーティクルとしての状態の組み合わせrを表す。
したがって、状態の組み合わせrとなり得るのは、パーティクルSpとしての状態の組み合わせと同一の状態の組み合わせと、パーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる状態の組み合わせとなる。
漸化式βt,p=ΣP(Yt|Sp)P(r|Spt+1,rにおいて、Σは、状態の組み合わせrすべてについてとるサメーションを表す。
また、漸化式βt,p=ΣP(Yt|Sp)P(r|Spt+1,rにおいて、P(r|Sp)は、時刻tにパーティクルSpとしての状態の組み合わせにいて、時刻t+1にパーティクルとしての状態の組み合わせrに遷移する遷移確率を表し、全体モデルφとしてのFHMMの遷移確率P(m) i,jを用い、式(3)に従って求められる。
なお、後ろ向き確率βt,pの初期値βT,pとしては、1が採用される。
近似推定部42は、前向き確率αt,pと同様に、FHMMが取り得る状態の組み合わせのすべてではなく、パーティクルSpとしての状態の組み合わせについてだけ、後ろ向き確率βt,pを求める。
時刻tに存在するパーティクルSpの数をR個とすると、R個の後ろ向き確率βt,pが求められる。
近似推定部42は、時刻tのR個のパーティクルSp={S1,S2,・・・,SR}について、後ろ向き確率βt,pを求めると、その後ろ向き確率βt,pに基づいて、R個のパーティクルSp={S1,S2,・・・,SR}の中からのパーティクルのサンプリングを行う。
すなわち、近似推定部42は、前向き確率αt,pの場合と同様に、R個のパーティクルSp={S1,S2,・・・,SR}の中から、後ろ向き確率βt,pの大きい順に、所定数であるP個のパーティクルSp={S1,S2,・・・,SP}をサンプリングし、そのP個のパーティクルSpだけを、時刻tのパーティクルとして残す。
近似推定部42は、時刻tのP個のパーティクルSp={S1,S2,・・・,SP}をサンプリングすると、そのP個のパーティクルSp={S1,S2,・・・,SP}それぞれについて、1時刻前である時刻t-1のパーティクルを、状態遷移制限の下で予測する。
1時刻に状態が遷移するファクタの数を1状態以下に制限する状態遷移制限の下では、時刻t-1のパーティクルSqとしては、パーティクルSpとしての状態の組み合わせと同一の状態の組み合わせと、時刻tのパーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる状態の組み合わせとが予測される。
上述したように、FHMMのファクタの数が4個であり、各ファクタが、オン状態とオフ状態とを稼働状態として表す2個の状態を有する場合には、時刻tのあるパーティクルSpについては、その時刻tのパーティクルSpとしての状態の組み合わせと同一の1通りの状態の組み合わせと、時刻tのパーティクルSpとしての状態の組み合わせとは1個だけ状態が異なる4通りの状態の組み合わせとの、合計で5通りの組み合わせが、時刻t-1のパーティクルSqとして予測される。
近似推定部42は、時刻t-1のパーティクルSq={S1,S2,・・・,SQ}について、時刻tのパーティクルSpの場合と同様に、後ろ向き確率βt+1,qを求め、以下、同様にして、各時刻t=T,T-1,・・・,1の後ろ向き確率を求める。
以上のように、近似推定部42は、各ファクタ#mの状態の組み合わせを、パーティクルとして、1時刻前のパーティクルを、状態遷移制限の下で予測し、後ろ向き確率βt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、各時刻tについて、パーティクルとしての状態の組み合わせzの後ろ向き確率βt,zを求める。
図18は、FHMMの状態の組み合わせzに、パーティクルフィルタを適用して、事後確率γt,pを求める方法を説明する図である。
近似推定部42は、各時刻tにおいて、前向き確率αt,pが求められたパーティクル(以下、前向きパーティクルともいう)Spとしての状態の組み合わせと、後ろ向き確率βt,p'が求められたパーティクル(以下、後ろ向きパーティクルともいう)Sp'としての状態の組み合わせとが、同一の状態の組み合わせzである場合、その状態の組み合わせzについて、前向き確率αt,zと後ろ向き確率βt,zを用いて、式(23)に従い、全体モデルφとしてのFHMMにおいて、時刻tに、状態の組み合わせzにいる事後確率γt,zを求める。
Figure 0006020880
・・・(24)
ここで、式(24)の右辺の分母のΣは、wを、時刻tの前向きパーティクルSpと後ろ向きパーティクルSp'との両方に共通に残っている状態の組み合わせSp∩Sp'のすべてに変えてとるサメーションを表す。
なお、時刻tに前向きパーティクルSpとして残っていない状態の組み合わせzの前向き確率αt,z、及び、時刻tに後ろ向きパーティクルSp'として残っていない状態の組み合わせzの後ろ向き確率βt,zは、例えば、いずれも、0とされる。
したがって、時刻tの前向きパーティクルSpと後ろ向きパーティクルSp'との両方に共通に残っている状態の組み合わせSp∩Sp'以外の状態の組み合わせの事後確率γt,zは、0となる。
図15の監視システムでは、FHMMの状態の組み合わせzに、パーティクルフィルタを適用することにより、状態遷移制限の下で、事後確率<S(m) t>等を求めることを除き、図3の監視システムと同様の処理が行われる。
図19、及び、図20は、図15の監視システムが、図6のステップS13で行うEステップの処理を説明するフローチャートである。
なお、図20は、図19に続くフローチャートである。
ステップS81において、近似推定部42は、時刻(を表す変数)tを、前向き確率についての初期値としての1に初期化して、処理は、ステップS82に進む。
ステップS82では、近似推定部42は、FHMMが取り得る状態の組み合わせの中から、所定の数の状態の組み合わせを、例えば、ランダムに、パーティクルSpとして選択(サンプリング)する。なお、ステップS82では、FHMMが取り得る状態の組み合わせすべてを、パーティクルSpとして選択することができる。
近似推定部42は、パーティクルSpとしての状態の組み合わせについて、前向き確率αt,pの初期値α1,pを求め、処理は、ステップS82からステップS83に進む。
ステップS83では、時刻tが、計測波形Yt={Y1,Y2,・・・,YT}の系列の最後の時刻(系列長)Tに等しいかどうかを判定する。
ステップS83において、時刻tが、計測波形Ytの系列の最後の時刻Tに等しくないと判定された場合、すなわち、時刻tが時刻T未満である場合、処理は、ステップS84に進み、近似推定部42は、所定の条件としての状態遷移制限の下で、パーティクルSpとしての状態の組み合わせについて、1時刻後である時刻t+1のパーティクルを予測し、処理は、ステップS85に進む。
ステップS85では、近似推定部42は、時刻tを1だけインクリメントして、処理は、ステップS86に進む。
ステップS86では、評価部21は、モデル記憶部13に記憶された全体モデルφとしてのFHMMの分散C、及び、固有波形W(m)、並びに、データ取得部11からの計測波形Yt={Y1,Y2,・・・,YT}を用い、時刻tの、各パーティクルSp={S1,S2,・・・,SR}としての状態の組み合わせについて、式(21)の観測確率P(Yt|Sp)を求める。評価部21は、観測確率P(Yt|Sp)を、近似推定部42に供給して、処理は、ステップS86からステップS87に進む。
ステップS87では、近似推定部42は、評価部21からの観測確率P(Yt|Sp)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,jを用いて、計測波形Y1,Y2,・・・,Ytを観測し、時刻tに、パーティクルSpとしての状態の組み合わせにいる前向き確率αt,pを求め、処理は、ステップS88に進む。
ステップS88では、近似推定部42は、前向き確率αt,pに基づき、パーティクルSpの中から、前向き確率αt,pの大きい順に、所定数のパーティクルをサンプリングし、時刻tのパーティクルとして残す。
その後、処理は、ステップS88からステップS83に戻り、以下、同様の処理が繰り返される。
そして、ステップS83において、時刻tが、計測波形Ytの系列の最後の時刻Tに等しいと判定された場合、処理は、図20のステップS91に進む。
ステップS91では、近似推定部42は、時刻tを、後ろ向き確率についての初期値としてのTに初期化して、処理は、ステップS92に進む。
ステップS92では、近似推定部42は、FHMMが取り得る状態の組み合わせの中から、所定の数の状態の組み合わせを、例えば、ランダムに、パーティクルSpとして選択する。なお、ステップS92では、FHMMが取り得る状態の組み合わせすべてを、パーティクルSpとして選択することができる。
近似推定部42は、パーティクルSpとしての状態の組み合わせについて、後ろ向き確率βt,pの初期値αT,pを求め、処理は、ステップS92からステップS93に進む。
ステップS93では、時刻tが、計測波形Yt={Y1,Y2,・・・,YT}の系列の最初の時刻1に等しいかどうかを判定する。
ステップS93において、時刻tが、計測波形Ytの系列の最初の時刻1に等しくないと判定された場合、すなわち、時刻tが時刻1より大である場合、処理は、ステップS94に進み、近似推定部42は、所定の条件としての状態遷移制限の下で、パーティクルSpとしての状態の組み合わせについて、1時刻前である時刻t-1のパーティクルを予測し、処理は、ステップS95に進む。
ステップS95では、近似推定部42は、時刻tを1だけデクリメントして、処理は、ステップS96に進む。
ステップS96では、評価部21は、モデル記憶部13に記憶された全体モデルφとしてのFHMMの分散C、及び、固有波形W(m)、並びに、データ取得部11からの計測波形Yt={Y1,Y2,・・・,YT}を用い、時刻tの、各パーティクルSp={S1,S2,・・・,SR}としての状態の組み合わせについて、式(21)の観測確率P(Yt|Sp)を求める。評価部21は、観測確率P(Yt|Sp)を、近似推定部42に供給して、処理は、ステップS96からステップS97に進む。
ステップS97では、近似推定部42は、評価部21からの観測確率P(Yt|St)、及び、モデル記憶部13に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,jを用いて、時刻tに、パーティクルSpとしての状態の組み合わせにいて、その後、計測波形Yt,Yt+1,・・・,YTを観測する後ろ向き確率βt,pを求め、処理は、ステップS98に進む。
ステップS98では、近似推定部42は、後ろ向き確率βt,pに基づき、パーティクルSpの中から、後ろ向き確率βt,pの大きい順に、所定数のパーティクルをサンプリングし、時刻tのパーティクルとして残す。
その後、処理は、ステップS98からステップS93に戻り、以下、同様の処理が繰り返される。
そして、ステップS93において、時刻tが、計測波形Ytの系列の最初の時刻1に等しいと判定された場合、処理は、ステップS99に進む。
ステップS99では、近似推定部42は、前向き確率αt,z(=αt,p)と後ろ向き確率βt,z(=βt,p)を用いて、式(24)に従い、全体モデルφとしてのFHMMにおいて、時刻tに、状態の組み合わせzにいる事後確率γt,zを求め、処理は、ステップS100に進む。
以下、ステップS100及びS101では、図7のステップS25及びS26とそれぞれ同様の処理が行われ、事後確率<S(m) t>,<S(m) tS(n) t'>、及び、<S(m) t-1S(m) t>が求められる。
る。
以上のように、近似推定部42において、FHMMの状態の組み合わせzに、パーティクルフィルタを適用することで、状態遷移制限の下で、事後確率<S(m) t>等を求めることにより、可能性が低い状態の組み合わせについての計算を省略し、事後確率<S(m) t>等の計算の効率化を図ることができる。
[本技術を適用した監視システムの第4実施の形態]
図21は、本技術を適用した監視システムの第4実施の形態の構成例を示すブロックである。
なお、図中、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図21の監視システムは、データ取得部11ないしデータ出力部16を有する点で、図3の監視システムと共通する。
但し、図21の監視システムは、モデル学習部14の波形分離学習部31に代えて、制約付き分離学習部51が設けられている点で、図3の監視システムと相違する。
図3の分離学習部31では、特に制約なしで、固有波形W(m)が求められるが、制約付き波形分離学習部51は、家電(家電分離)に特有の所定の制約の下で、固有波形W(m)を求める。
ここで、図3の分離学習部31では、Mステップにおいて、固有波形W(m)の算出にあたり、特に、制約は課されていない。
そのため、図3の分離学習部31では、計測波形Ytが、複数の電流波形を重畳した波形であることのみを考慮して、波形分離学習により、固有波形W(m)が算出される。
すなわち、図3の分離学習部31の波形分離学習では、計測波形Ytが、複数の電流波形を重畳した波形であるとして、その複数の電流波形としての固有波形W(m)に分離される。
固有波形W(m)の算出に、何らの制約もない場合、波形分離学習の解の自由度(冗長性)、すなわち、計測波形Ytから分離することができる複数の電流波形の自由度は、非常に高ため、家電の電流波形としては不適切な電流波形としての固有波形W(m)が求められることがあり得る。
そこで、制約付き波形分離学習部51では、家電に特有の所定の制約の下で、波形分離学習を行うことで、家電の電流波形としては不適切な電流波形としての固有波形W(m)が求められることを防止し、家電の正確な電流波形としての固有波形W(m)を求める。
ここで、所定の制約の下で行われる波形分離学習を、制約付き波形分離学習ともいう。
図21の監視システムでは、制約付き波形分離学習が行われることを除き、図3の監視システムと同様の処理が行われる。
制約付き波形分離学習において、家電に特有の制約としては、例えば、負荷制約や基底波形制約がある。
負荷制約は、家電#mの電流波形としての固有波形W(m)と、家電#mにかかる電圧の電圧波形、すなわち、電流波形である計測波形Ytに対応する電圧波形Vtとの乗算により求められる家電の消費電力U(m)が、負の値にならない(家電#mが発電をしない)という制約である。
基底波形制約は、家電#mの各稼働状態の消費電流の電流波形である固有波形W(m)は、その家電#mについて、基底波形としてあらかじめ用意された複数の波形の1個以上の組み合わせで表現されるという制約である。
図22は、図21の監視システムが、負荷制約を課して行う図6のステップS14のMステップの処理を説明するフローチャートである。
ステップS121において、制約付き波形分離学習部51は、データ取得部11からの計測波形Yt、並びに、推定部22からの事後確率<S(m) t>、及び、<S(m) tS(n) t'>を用い、負荷制約の下で、波形分離学習を行うことにより、固有波形W(m)の更新値W(m)newを求め、その更新値W(m)newによって、モデル記憶部13に記憶された固有波形W(m)を更新して、処理は、ステップS122に進む。
すなわち、制約付き波形分離学習部51は、負荷制約の下での波形分離学習として、式(25)を、制約付きの2次計画法を用いて解くことにより、固有波形W(m)の更新値W(m)newを求める。
Figure 0006020880
・・・(25)
ここで、式(25)では、固有波形W(m)の更新値W(m)newとなる固有波形Wに、負荷制約としての式0≦V'Wを満たす制約が課されている。
Vは、計測波形Ytとしての電流波形に対応する電圧波形Vtを表すD行の列ベクトルであり、V'は、列ベクトルVを転置した行ベクトルである。
なお、式(25)の固有波形の更新値Wnew、事後確率<St'>、及び、<StSt'>は、式(12)で説明したそれと一致する。
すなわち、固有波形の更新値Wnewは、D行K×M列の行列であり、その(m-1)K+k列の列ベクトルは、ファクタ#mの状態#kの固有波形W(m) kの更新値になっている。
事後確率<St'>は、K×M列の行ベクトルであり、その(m-1)K+k列目のコンポーネントは、時刻tに、ファクタ#mの状態#kにいる状態確率になっている。
事後確率<StSt'>は、K×M行K×M列の行列であり、その(m-1)K+k行(n-1)K+k'列目のコンポーネントは、時刻tに、ファクタ#mの状態#kと、他のファクタ#nの状態#k'とにいる状態確率になっている。
なお、式(25)の固有波形Wは、固有波形の更新値Wnewと同様のD行K×M列の行列であり、式(25)の右辺のargmin{X}のXを最小にする固有波形Wが、固有波形の更新値Wnewとして、2次計画法により求められる。
ステップS122及びS123では、図9のステップS32及びS33と同様の処理が行われる。
図23は、負荷制約を説明する図である。
すなわち、図23Aは、負荷制約のない波形分離学習により求められる電流波形としての固有波形W(m)を示しており、図23Bは、負荷制約の下で行われた波形分離学習により求められる電流波形としての固有波形W(m)を示している。
なお、図23では、ファクタの数Mを2個として、ファクタ#1のある状態#kの固有波形W(1) kと、ファクタ#2のある状態#k'の固有波形W(2) k'とを示してある。
図23A及び図23Bでは、ファクタ#1の固有波形W(1) kである電流波形は、いずれも、電圧波形Vtと同相になっている。
しかしながら、図23Aでは、負荷制約がされていないため、ファクタ#2の固有波形W(2) k'である電流波形は、電圧波形Vtと逆相になっている。
一方、図23Bでは、負荷制約が課された結果、ファクタ#2の固有波形W(2) k'である電流波形は、電圧波形Vtと同相になっている。
計測波形Ytは、図23Aに示したファクタ#1の固有波形W(1) kと、ファクタ#2の固有波形W(2) k'とに分離することもできるし、図23Bに示したファクタ#1の固有波形W(1) kと、ファクタ#2の固有波形W(2) k'とに分離することもできる。
しかしながら、計測波形Ytを、図23Aに示したファクタ#1の固有波形W(1) kと、ファクタ#2の固有波形W(2) k'とに分離した場合には、固有波形W(2) k'が電圧波形Vtと逆相になっているファクタ#2に対応する家電#2は、発電を行っていることになり、適切な家電分離を行うことが困難となるおそれがある。
一方、負荷制約を課した場合には、計測波形Ytは、図23Bに示したファクタ#1の固有波形W(1) kと、ファクタ#2の固有波形W(2) k'とに分離される。
図23Bの固有波形W(1) k、及び、固有波形W(2) k'は、いずれも、電圧波形Vtと同相になっており、したがって、負荷制約によれば、ファクタ#1に対応する家電#1、及び、ファクタ#2に対応する家電#2が、いずれも、電力を消費する負荷であるとして、適切な家電分離を行うことができる。
図24は、基底波形制約を説明する図である。
図24において、Yは、D行の列ベクトルである計測波形Ytが、時刻t順に、左から右方向に並んだD行T列の行列である。D行T列の行列である計測波形Yのt列目の列ベクトルは、時刻tの計測波形Ytになっている。
図24において、Wは、D行K列の行列であるファクタ#mの固有波形W(m)が、ファクタ#m順に、左から右方向に並んだD行K×M列の行列である。D行K×M列の行列である固有波形Wの(m-1)K+k列の列ベクトルは、ファクタ#mの状態#kの固有波形W(m) kになっている。
図24において、Fは、K×Mを表す。
図24において、<St>は、K行の列ベクトルである時刻tの事後確率<S(m) t>がファクタ#m順に上から下方向に並んだF=K×M行の列ベクトルが、時刻t順に、左から右方向に並んだをK×M行T列の行列である。K×M行T列の行列である事後確率<St>の(m-1)K+k行t列目のコンポーネントは、時刻tに、ファクタ#mの状態#kにいる状態確率になっている。
波形分離学習では、FHMMにおいて、図24に示すように、固有波形Wと事後確率<St>との積W×<St>が、計測波形Yとして観測されることとして、固有波形Wが求められる。
基底波形制約は、上述したように、家電#mの各稼働状態の消費電流の電流波形である固有波形W(m)が、その家電#mについて、基底波形としてあらかじめ用意された複数の波形の1個以上の組み合わせで表現されるという制約であるため、基底波形制約を課した波形分離学習では、図24に示すように、固有波形Wが、所定の数Nの基底波形Bと、所定の係数Aとの積B×Aで表されることとして、固有波形Wが求められる。
ここで、所定の数Nの基底波形Bのうちの、n番目の基底波形Bを、Bnと表すこととすると、Bnは、例えば、波形のサンプル値をコンポーネントとするD行の列ベクトルであり、基底波形Bは、D行の列ベクトルである基底波形Bnが、インデクスn順に、左から右方向に並んだD行N列の行列である。
係数Aは、N行K×M列の行列であり、n行(m-1)K+k列目のコンポーネントは、固有波形W(m) kを、N個の基底波形B1,B2,・・・,BNの組み合わせ(重畳)で表現するのに、n番目の基底波形Bnに乗算される係数になっている。
ここで、固有波形W(m) kを、N個の基底波形B1ないしBNの組み合わせで表現するのに、N個の基底波形B1ないしBNと乗算される係数としての、例えば、N行の列ベクトルを、係数A(m) kと表し、その係数A(m) kを、ファクタ#mのK個の状態#1ないし#Kの順に、左から右方向に並べたN行K列の行列を、係数A(m)と表すこととすると、係数Aは、係数A(m)を、ファクタ#m順に、左から右方向に並べた行列である。
基底波形Bは、例えば、画像処理等で用いられるICA(Independent Component Analysis)やNMF(Non-negative Matrix Factorization)等の基底抽出を、計測波形Yを対象に行うことにより用意(取得)することができる。
また、メーカ等が、家電の基底波形を、サイト等で公開している場合には、基底波形Bは、サイトにアクセスすることにより用意することができる。
図25は、図21の監視システムが、基底波形制約を課して行う図6のステップS14のMステップの処理を説明するフローチャートである。
ステップS131において、制約付き波形分離学習部51は、データ取得部11からの計測波形Yt、並びに、推定部22からの事後確率<S(m) t>、及び、<S(m) tS(n) t'>を用い、基底波形制約の下で、波形分離学習を行うことにより、固有波形W(m)の更新値W(m)newを求め、その更新値W(m)newによって、モデル記憶部13に記憶された固有波形W(m)を更新して、処理は、ステップS132に進む。
すなわち、制約付き波形分離学習部51は、基底波形制約の下での波形分離学習として、式(26)を、制約付きの2次計画法を用いて解くことにより、固有波形Wを、基底波形Bの組み合わせで表現するための係数Anewを求める。
Figure 0006020880
・・・(26)
ここで、式(26)では、固有波形Wが、所定の数Nの基底波形Bと、所定の係数Aとの積B×Aで表されること、及び、係数Aを最小化すること(minA)が、基底波形制約として課されている。
係数Aを最小化すること(minA)とは、係数AであるN行K×M列の行列の各コンポーネントの値(大きさ)を最小化することを意味し、ひいては、係数AであるN行K×M列の行列を、なるべくスパースにすることを意味する。
係数AであるN行K×M列の行列を、なるべくスパースにすることにより、固有波形W(m) kは、なるべく少ない数の基底波形Bnの組み合わせで表されることとなる。
制約付き波形分離学習部51は、式(26)に従って、係数Anewを求めると、式(27)に従い、係数Anewと基底波形Bとを用いて、固有波形W(m)の更新値W(m)newを求める。
Figure 0006020880
・・・(27)
ステップS132及びS133では、図9のステップS32及びS33と同様の処理が行われる。
家電で消費される消費電流が、基底波形の1以上の組み合わせの波形になる場合には、基底波形制約を課すことにより、家電で消費される消費電流としてあり得ない電流の波形が、固有波形として求められることを防止して、家電に適切な固有波形を求めることができる。
なお、以上においては、負荷制約と、基底波形制約とを、別個に課すこととしたが、負荷制約と、基底波形制約とは、同時に課すことができる。
負荷制約と基底波形制約とを同時に課す場合には、制約付き波形分離学習部51は、Mステップにおいて、負荷制約、及び、基底波形制約の下での波形分離学習として、式(28)を、制約付きの2次計画法を用いて解くことにより、固有波形Wを、基底波形Bの組み合わせで表現するための係数Anewであって、固有波形Wを用いて求められる家電の消費電力を負の値にしない係数Anewを求める。
Figure 0006020880
・・・(28)
そして、制約付き波形分離学習部51は、式(28)に従って求められた係数Anewと、基底波形Bとを用い、式(29)に従って、固有波形W(m)の更新値W(m)newを求める。
Figure 0006020880
・・・(29)
[本技術を適用した監視システムの第5実施の形態]
図26は、本技術を適用した監視システムの第5実施の形態の構成例を示すブロックである。
なお、図中、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図26の監視システムは、データ取得部11ないしデータ出力部16を有する点で、図3の監視システムと共通する。
但し、第1に、図26の監視システムは、モデル学習部14の分散学習部32に代えて、図12の個別分散学習部52が設けられている点で、図3の監視システムと相違する。
第2に、図26の監視システムは、状態推定部12の推定部22に代えて、図15の近似推定部42が設けられている点で、図3の監視システムと相違する。
第3に、図26の監視システムは、モデル学習部14の波形分離学習部31に代えて、図21の制約付き分離学習部51が設けられている点で、図3の監視システムと相違する。
したがって、図26の監視システムでは、ファクタ#mごと、又は、各ファクタ#mの状態#kごとに、個別の分散(個別分散)σ(m)を求める個別分散学習が行われる。
さらに、図26の監視システムでは、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、事後確率(状態確率)<S(m) t>等を求める近似推定が行われる。
また、図26の監視システムでは、制約付き波形分離学習により、固有波形W(m)が求められる。
なお、監視システムでは、個別分散学習、近似推定、及び、制約付き波形分離学習のそれぞれを単独で行うことや、個別分散学習、近似推定、及び、制約付き波形分離学習のすべてを行うことの他、個別分散学習、近似推定、及び、制約付き波形分離学習のうちの任意の2つを行うことが可能である。
[家電分離以外への監視システムの適用]
以上、FHMMの学習を行う監視システムにおいて、総和データとしての電流波形を監視(モニタ)して、家電分離を行う場合について説明したが、FHMMの学習を行う監視システムは、その他、1以上の信号が重畳されている重畳信号を監視して、その重畳信号に重畳されている信号を分離する任意のアプリケーションに適用することができる。
図27は、FHMMの学習を行う監視システムによる話者分離の概要を説明する図である。
FHMMの学習を行う監視システムによれば、家電分離で計測波形Ytとして用いた電流波形に代えて、複数の話者の発話が重畳されている音声信号を用いることで、その複数の話者の発話が重畳されている音声信号から、各話者の音声を分離する話者分離を行うことができる。
FHMMの学習を行う監視システムにおいて、話者分離を行う場合にも、家電分離の場合と同様に、個別分散学習や、近似推定、制約付き波形分離学習を行うことができる。
話者分離において、ファクタ#mごと、又は、各ファクタ#mの状態#kごとの個別分散σ(m)を用いる場合には、1の分散Cを用いる場合よりも、FHMMの表現能力が向上するので、話者分離の精度を向上させることができる。
また、複数の話者のすべての発話状態が、各時刻に変化する可能性は極めて低いことから、1時刻に、発話状態が変化する話者を、1人や数人以下に制限しても、話者分離の精度に、大きな影響はない。
そこで、話者分離では、1時刻に状態が遷移するファクタの数を、例えば、1個以下に制限する(発話状態が変化する話者を1人以下に制限する)状態遷移制限の下で、事後確率<S(m) t>等を求める近似推定を行うことができる。そして、状態遷移制限の下で、事後確率<S(m) t>等を求める近似推定によれば、事後確率<S(m) t>等を求めるのに用いられる事後確率γt,zを、厳密に計算する必要がある状態の組み合わせzの数が、大幅に削減されるので、計算量を大幅に少なくすることができる。
さらに、話者分離において、個別波形W(m)は、人の音声の波形であるから、その周波数成分は、人の音声が取り得る周波数帯域に存在する。したがって、話者分離で行う制約付き波形分離学習では、個別波形W(m)の周波数成分を、人の音声が取り得る周波数帯域内の周波数成分に制限するという、人の音声に特有の制約を採用することができる。この場合、人の音声の波形として、適切な固有波形W(m)を求めることができる。
なお、話者分離において、制約付き波形分離学習で課す制約としては、その他、例えば、家電分離の場合と同様に、基底波形制約を採用することができる。
[本技術を適用した監視システムの第6実施の形態]
図28は、本技術を適用した監視システムの第6実施の形態の構成例を示すブロックである。
なお、図中、図3の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図28の監視システムは、データ取得部11ないしデータ出力部16を有する点で、図3の監視システムと共通する。
但し、第1に、図28の監視システムは、状態推定部12において、評価部21及び推定部22に代えて、評価部71及び推定部72が、それぞれ設けられている点で、図3の監視システムと相違する。
第2に、図28の監視システムは、モデル学習部14において、波形分離学習部31に代えて、制約付き分離学習部81が設けられており、分散学習部32及び状態変動学習部33が設けられていない点で、図3の監視システムと相違する。
図3の監視システムでは、FHMMを、全体モデルφとして用いて、家電分離を行うが、図28の監視システムでは、FHMMではないモデル、すなわち、例えば、固有波形W(m)のみをモデルパラメータとして有するモデル(以下、波形モデルともいう)を、全体モデルφとして用いて、家電分離を行う。
したがって、図28では、モデル記憶部13には、波形モデルが、全体モデルφとして記憶される。ここで、波形モデルは、固有波形W(m)をモデルパラメータとして有するが、かかる波形モデルにおいては、1つの固有波形W(m)が、家電モデル#mに相当する。
状態推定部12は、評価部71及び推定部72を有し、データ取得部11から供給される総和データとしての計測波形Yt、及び、モデル記憶部13に記憶された波形モデルを用いて、複数としてのM個の家電#1,#2,・・・,#mの稼働状態を求める状態推定を行う。
すなわち、評価部71は、モデル記憶部13に記憶された全体モデルφとしての波形モデルを構成する各家電モデル#mにおいて、データ取得部11から供給される電流波形Yが観測される程度を評価した評価値Eを求め、推定部72に供給する。
推定部72は、評価部71から供給される評価値Eを用い、各家電モデル#mが表す家電の各時刻tの稼働状態C(m) t,kを、例えば、整数計画法によって推定し、モデル学習部14、ラベル取得部15、及び、データ出力部16に供給する。
ここで、推定部72は、例えば、式(30)の整数計画問題を、整数計画法によって解くことにおり、家電#mの稼働状態C(m) t,kを推定する。
Figure 0006020880
・・・(30)
ここで、式(30)において、Eは、計測波形Ytと、全体モデルφとしての波形モデルにおいて観測される総和データとしての電流波形ΣΣW(m) kC(m) t,kとの誤差を表し、推定部72では、この誤差Eを最小化する(minimize)稼働状態C(m) t,kが求められる。
また、式(30)において、固有波形W(m) kは、家電#mの稼働状態C(m) t,kに固有の電流の波形である固有波形を表し、計測波形Ytと同様に、D行の列ベクトルである。
さらに、式(30)において、K(m)は、家電#mの稼働状態C(m) t,kの数(種類数)を表す。
稼働状態C(m) t,kは、0以上の整数で、スカラ値であり、時刻tの家電#mの稼働状態を表す。稼働状態C(m) t,kは、例えば、家電#mのモード(設定)に相当し、家電#mにおいて、オンとなることができるモードが、例えば、1個以下に制限されていることとする。
家電#mにおいて、オンとなることができるモードが1個以下に制限されていることは、式(31)で表される。
Figure 0006020880
・・・(31)
式(31)によれば、0以上の整数である稼働状態C(m) t,kが取り得る値は、0又は1となる。
なお、家電の稼働状態を、整数計画法によって推定することについては、例えば、「電気機器の非侵入型稼働状態モニタリングシステム」、稲垣伸吉、江上司、鈴木達也(名古屋大学)、中村久栄、伊藤公一((株)トーエネック)、第42回計測自動制御学会離散事象システム研究会,pp.33-38,Dec 20,2008,大阪大学に記載されている。
以上のように、推定部72が、式(30)を解くことにより、家電#mの稼働状態C(m) t,kを推定する場合、評価部71は、データ取得部11から供給される計測波形Yt、及び、モデル記憶部13に記憶された波形モデルの固有波形W(m) kを用いて、式(30)の誤差Eを求め、評価値Eとして、推定部72に供給する。
モデル学習部14において、制約付き波形分離学習部81は、図21の制約付き波形分離学習部51と同様に、家電に特有の所定の制約の下での波形分離学習(制約付き波形分離学習)を行うことで、家電の電流波形としては不適切な電流波形としての固有波形W(m) kが求められることを防止し、家電の正確な電流波形としての固有波形W(m) kを求める。
すなわち、制約付き波形分離学習部81は、データ取得部11から供給される計測波形Yt、並びに、推定部72から供給される家電#mの稼働状態C(m) t,kを用い、例えば、負荷制約の下で、波形分離学習を行うことにより、固有波形W(m) kの更新値W(m)new kを求め、その更新値W(m)new kによって、モデル記憶部13に記憶された固有波形W(m) kを更新する。
すなわち、制約付き波形分離学習部81は、負荷制約の下での波形分離学習として、例えば、式(32)の2次計画問題を、2次計画法によって解くことにより、固有波形W(m) kの更新値W(m)new kを求める。
Figure 0006020880
・・・(32)
ここで、式(32)では、固有波形W(m) kの更新値W(m)new kとなる固有波形Wに、負荷制約としての式0≦V'Wを満たす制約が課されている。
式(32)において、Vは、計測波形Ytとしての電流波形に対応する電圧波形Vtを表すD行の列ベクトルであり、V'は、列ベクトルVを転置した行ベクトルである。
また、稼働状態C(m) t,kがオン、オフを表す家電#mのモードを、モード#kということとすると、式(32)において、Wは、(m-1)K+k列の列ベクトルが、家電#mのモード#k(がオンのとき)の固有波形になっているD行K×M列の行列である。なお、Kは、ここでは、例えば、K(1),K(2),・・・,K(M)の中の最大値を表すこととする。
固有波形の更新値Wnewは、D行K×M列の行列であり、その(m-1)K+k列の列ベクトルは、ファクタ#mの状態#kの固有波形W(m) kの更新値になっている。
また、式(32)において、Ctは、(m-1)K+k行のコンポーネントが、稼働状態C(m) t,kになっているK×M行の列ベクトルである。
なお、制約付き波形分離学習部81では、その他の制約を課すことができる。すなわち、制約付き波形分離学習部81では、例えば、図21の制約付き波形分離学習部51と同様に、負荷制約に代えて、基底波形制約を課すことや、負荷制約及び基底波形制約の両方を課すことができる。
図29は、図28の監視システムが行う波形モデルの学習の処理(学習処理)を説明するフローチャートである。
ステップS151において、モデル学習部14は、モデル記憶部13に記憶された全体モデルのモデルパラメータφとしての固有波形W(m) kを初期化し、処理は、ステップS152に進む。
ここで、固有波形W(m) kとしてのD行の列ベクトルの各コンポーネントは、例えば、乱数を用いて初期化される。
ステップS152では、データ取得部11が、所定の時間T分の電流波形を取得し、各時刻t=1,2・・・,Tの電流波形を、計測波形Y1,Y2,・・・,YTとして、状態推定部12、及び、モデル学習部14に供給して、処理は、ステップS153に進む。
ここで、データ取得部11は、時刻t=1,2・・・,Tの電流波形とともに、電圧波形も取得する。データ取得部11は、時刻t=1,2・・・,Tの電圧波形を、データ出力部16に供給する。
データ出力部16では、情報提示処理(図10)において、データ取得部11からの電圧波形が、消費電力の算出に用いられる。
ステップS153では、状態推定部12の評価部71が、データ取得部11からの計測波形Y1ないしYT、及び、モデル記憶部13に記憶された波形モデルの固有波形W(m) kを用いて、各家電#mの稼働状態C(m) t,kを求めるための式(30)の評価値Eとしての誤差Eを求める。
さらに、評価部71は、誤差Eを、推定部72に供給し、処理は、ステップS153からステップS154に進む。
ステップS154では、推定部72は、評価部71からの式(30)の誤差Eを最小化することにより、各家電#mの稼働状態C(m) t,kを推定し、モデル学習部14、ラベル取得部15、及び、データ出力部16に供給して、処理は、ステップS155に進む。
ステップS155では、モデル学習部14の制約付き波形分離学習部81は、データ取得部11から供給される計測波形Yt、並びに、推定部72から供給される家電#mの稼働状態C(m) t,kを用い、負荷制約等の所定の制約の下で、波形分離学習を行うことにより、固有波形W(m) kの更新値W(m)new kを求める。
すなわち、制約付き波形分離学習部81は、例えば、負荷制約の下での波形分離学習として、式(32)を解くことにより、固有波形W(m) kの更新値W(m)new kを求める。
そして、制約付き波形分離学習部81は、固有波形W(m) kの更新値W(m)new kによって、モデル記憶部13に記憶された固有波形W(m) kを更新し、処理は、ステップS155からステップS156に進む。
ステップS156では、モデル学習部14は、モデルパラメータφの収束条件が満たされているかどうかを判定する。
ここで、モデルパラメータφの収束条件としては、例えば、ステップS154の稼働状態C(m) t,kの推定と、ステップS155の制約付き波形分離学習による固有波形W(m) kの更新とがあらかじめ設定された所定の回数だけ繰り返されたことや、式(30)の誤差Eの、モデルパラメータφの更新前と更新後との間の変化量が、あらかじめ設定された閾値以内であること等を採用することができる。
ステップS156で、モデルパラメータφの収束条件が満たされていないと判定された場合、処理は、ステップS153に戻り、以下、ステップS153ないしS156の処理が繰り返される。
ステップS153ないしS156の処理が繰り返し行われることにより、ステップS154の稼働状態C(m) t,kの推定と、ステップS155の制約付き波形分離学習による固有波形W(m) kの更新とが交互に繰り返され、ステップS154で求められる稼働状態C(m) t,kと、ステップS155で求められる固有波形W(m) k(の更新値)とは、精度が増していく。
その後、ステップS156において、モデルパラメータφの収束条件が満たされると判定された場合、学習処理は、終了する。
なお、状態推定部12では、整数計画法や、FHMMを用いない任意のその他の方法で、家電の稼動状態を推定することができる。
[本技術を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図30は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
[1]
複数の電気機器で消費される電流の総和に関する総和データを用いて、FHMM(Factorial Hidden Markov Model)の各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、
前記状態確率を用いて、各ファクタが3以上の状態を有する前記FHMMの学習を行うモデル学習部と
を備えるデータ処理装置。
[2]
前記FHMMは、
各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、
各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の分散と、
各ファクタの状態が初期状態である初期状態確率と、
各ファクタの状態が遷移する遷移確率と
を、モデルパラメータとして有し、
前記モデル学習部は、
前記固有波形を求める波形分離学習を行う波形分離学習部と、
前記分散を求める分散学習を行う分散学習部と、
前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部と
を有する
[1]に記載のデータ処理装置。
[3]
前記分散学習部は、前記ファクタごとに個別の分散、又は、各ファクタの状態ごとに個別の分散を求める
[2]に記載のデータ処理装置。
[4]
前記状態推定部は、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、前記状態確率を求める
[2]又は[3]に記載のデータ処理装置。
[5]
前記状態推定部は、
前記平均値、及び、前記分散を用いて、各ファクタの状態の組み合わせにおいて、前記総和データが観測される観測確率を求め、
前記観測確率、及び、前記遷移確率を用いて、前記総和データの系列Y1,Y2,・・・,YTについて、前記総和データY1,Y2,・・・,Ytを観測し、時刻tに、各ファクタの状態の組み合わせzにいる前向き確率αt,zと、時刻tに、各ファクタの状態の組み合わせzにいて、その後、前記総和データYt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zとを求め、
前記前向き確率αt,z、及び、前記後ろ向き確率βt,zを用いて、時刻tに、各ファクタの状態の組み合わせzにいる事後確率γt,zを求め、
前記事後確率γt,zを周辺化することにより、前記状態確率を求める
場合において、
各ファクタの状態の組み合わせを、パーティクルとして、
1時刻後のパーティクルを、前記状態遷移制限の下で予測し、前記前向き確率αt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、前記パーティクルとしての状態の組み合わせzの前記前向き確率αt,zを求め、
1時刻前のパーティクルを、前記状態遷移制限の下で予測し、前記後ろ向き確率βt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、前記パーティクルとしての状態の組み合わせzの前記後ろ向き確率βt,zを求める
[4]に記載のデータ処理装置。
[6]
前記波形分離学習部は、前記電気機器に特有の制約の下で、前記固有波形を求める
[2]ないし[5]のいずれかに記載のデータ処理装置。
[7]
前記波形分離学習部は、前記固有波形を用いて求められる前記電気機器の消費電力が負の値にならない負荷制約の下で、前記固有波形を求める
[6]に記載のデータ処理装置。
[8]
前記波形分離学習部は、前記固有波形が、前記電気機器について用意された複数の基底波形の1以上の組み合わせで表現される基底波形制約の下で、前記固有波形を求める
[6]に記載のデータ処理装置。
[9]
複数の電気機器で消費される電流の総和に関する総和データを用いて、FHMM(Factorial Hidden Markov Model)の各ファクタの状態にいる状態確率を求める状態推定を行い、
前記状態確率を用いて、各ファクタが3以上の状態を有する前記FHMMの学習を行う
ステップを含むデータ処理方法。
[10]
複数の電気機器で消費される電流の総和に関する総和データを用いて、FHMM(Factorial Hidden Markov Model)の各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、
前記状態確率を用いて、各ファクタが3以上の状態を有する前記FHMMの学習を行うモデル学習部と
して、コンピュータを機能させるためのプログラム。
11 データ取得部, 12 状態推定部, 13 モデル記憶部, 14 モデル学習部, 15 ラベル取得部, 16 データ出力部, 21 評価部, 22 推定部, 31 波形分離学習部, 32 分散学習部, 33 状態変動学習部, 42 推定部, 51 制約付き波形分離学習部, 52 個別分散学習部, 71 評価部, 72 推定部, 81 制約付き波形分離学習部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体

Claims (13)

  1. 複数の時系列信号の混合信号を表すデータを取得するデータ取得部と、
    前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、
    前記状態確率を用いて、前記確率生成モデルの学習を行うモデル学習部と
    を備え、
    前記モデル学習部は、
    前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習を行う波形分離学習部と、
    前記分散を求める分散学習を行う分散学習部と、
    前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部と
    を有する
    データ処理装置。
  2. 前記確率生成モデルは、FHMM(Factorial Hidden Markov Model)である
    請求項1に記載のデータ処理装置。
  3. 前記モデル学習部は、各ファクタが3以上の状態を有する前記FHMMの学習を行う
    請求項2に記載のデータ処理装置。
  4. 前記ファクタの3以上の状態は、前記一の時系列信号に関する3以上の信号波形に対応する
    請求項3に記載のデータ処理装置。
  5. 前記複数の時系列信号の混合信号に関する前記FHMMを記憶するモデル記憶部をさらに備え、
    前記状態推定部は、前記モデル記憶部から前記FHMMの1以上のモデルパラメータを取得して状態推定を行う
    請求項2ないし4のいずれかに記載のデータ処理装置。
  6. 前記状態推定部は、1時刻に状態が遷移するファクタの数を制限する状態遷移制限の下で、前記状態確率を求める
    請求項1ないし5のいずれかに記載のデータ処理装置。
  7. 前記状態推定部は、
    前記平均値、及び、前記分散を用いて、各ファクタの状態の組み合わせにおいて、前記データが観測される観測確率を求め、
    前記観測確率、及び、前記遷移確率を用いて、前記データの系列Y1,Y2,・・・,YTについて、前記データY1,Y2,・・・,Ytを観測し、時刻tに、各ファクタの状態の組み合わせzにいる前向き確率αt,zと、時刻tに、各ファクタの状態の組み合わせzにいて、その後、前記データYt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zとを求め、
    前記前向き確率αt,z、及び、前記後ろ向き確率βt,zを用いて、時刻tに、各ファクタの状態の組み合わせzにいる事後確率γt,zを求め、
    前記事後確率γt,zを周辺化することにより、前記状態確率を求める
    場合において、
    各ファクタの状態の組み合わせを、パーティクルとして、
    1時刻後のパーティクルを、前記状態遷移制限の下で予測し、前記前向き確率αt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、前記パーティクルとしての状態の組み合わせzの前記前向き確率αt,zを求め、
    1時刻前のパーティクルを、前記状態遷移制限の下で予測し、前記後ろ向き確率βt,zに基づいて、所定数のパーティクルをサンプリングすることを繰り返しながら、前記パーティクルとしての状態の組み合わせzの前記後ろ向き確率βt,zを求める
    請求項6に記載のデータ処理装置。
  8. 前記分散学習部は、前記ファクタごとに個別の分散、又は、各ファクタの状態ごとに個別の分散を求める
    請求項1ないし7のいずれかに記載のデータ処理装置。
  9. 前記波形分離学習部は、前記固有波形を用いて求められる前記時系列信号の振幅が負の値にならない負荷制約の下で、前記固有波形を求める
    請求項1ないし8のいずれかに記載のデータ処理装置。
  10. 前記波形分離学習部は、前記固有波形が、前記一の時系列信号について用意された複数の基底波形の1以上の組み合わせで表現される基底波形制約の下で、前記固有波形を求める
    請求項1ないし9のいずれかに記載のデータ処理装置。
  11. 前記FHMMを使用した前記データ処理において、少なくとも一部の前記データの処理を、クラウドコンピューティングで行う
    請求項2ないしのいずれかに記載のデータ処理装置。
  12. 複数の時系列信号の混合信号を表すデータを取得するデータ取得部と、
    前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、
    前記状態確率を用いて、前記確率生成モデルの学習を行うモデル学習部と
    を備え、
    前記モデル学習部は、
    前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習を行う波形分離学習部と、
    前記分散を求める分散学習を行う分散学習部と、
    前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部と
    を有するデータ処理装置のデータ処理方法であって、
    前記データ取得部が前記データを取得するデータ取得ステップと、
    前記状態推定部が前記状態推定を行う状態推定ステップと、
    前記モデル学習部が前記確率生成モデルの学習を行うモデル学習ステップと
    を有し、
    前記モデル学習ステップは、
    前記波形分離学習部が前記波形分離学習を行う波形分離学習ステップと、
    前記分散学習部が前記分散学習を行う分散学習ステップと、
    前記状態変動学習部が前記状態変動学習を行う状態変動学習ステップと
    を有するデータ処理方法。
  13. 複数の時系列信号の混合信号を表すデータを取得するデータ取得部と、
    前記データを用いて、前記複数の時系列信号のうちの一の時系列信号をモデリングするためのモデルパラメータであって、各ファクタの状態が初期状態である初期状態確率と、各ファクタの状態が遷移する遷移確率と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、各ファクタの状態の組み合わせにおいて観測される前記データの観測値の分散とを含むモデルパラメータを有する確率生成モデルの各ファクタの状態にいる状態確率を求める状態推定を行う状態推定部と、
    前記状態確率を用いて、前記確率生成モデルの学習を行うモデル学習部であって、
    前記一の時系列信号に特有の制約の下で、前記固有波形を求める波形分離学習を行う波形分離学習部と、
    前記分散を求める分散学習を行う分散学習部と、
    前記初期状態確率と、前記遷移確率とを求める状態変動学習を行う状態変動学習部と
    を有するモデル学習部と
    して、コンピュータを機能させるためのプログラム。
JP2012079579A 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム Expired - Fee Related JP6020880B2 (ja)

Priority Applications (17)

Application Number Priority Date Filing Date Title
JP2012079579A JP6020880B2 (ja) 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム
PCT/JP2013/002181 WO2013145778A2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
MX2014011325A MX353420B (es) 2012-03-30 2013-03-29 Aparato de procesamiento de datos, metodo y programa de procesamiento de datos.
SG11201405498XA SG11201405498XA (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
US14/387,307 US10452986B2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
EP13716072.7A EP2831758B1 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
PCT/JP2013/002182 WO2013145779A2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
KR1020147026147A KR102065801B1 (ko) 2012-03-30 2013-03-29 데이터 처리 장치, 데이터 처리 방법, 및 프로그램
AU2013238679A AU2013238679B2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
US14/389,604 US9767415B2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
CN201380016155.8A CN104205090A (zh) 2012-03-30 2013-03-29 数据处理设备、数据处理方法及程序
CA2865873A CA2865873A1 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
EP13716073.5A EP2831759A2 (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
MYPI2014702710A MY178816A (en) 2012-03-30 2013-03-29 Data processing apparatus, data processing method, and program
RU2014138479/08A RU2598601C2 (ru) 2012-03-30 2013-03-29 Устройство обработки данных, способ обработки данных и программа
JP2013124267A JP5669051B2 (ja) 2012-03-30 2013-06-13 電気機器をモニタするための方法、及び、モニタ装置
ZA2014/06584A ZA201406584B (en) 2012-03-30 2014-09-08 Data processing apparatus, data processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012079579A JP6020880B2 (ja) 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム
JP2013124267A JP5669051B2 (ja) 2012-03-30 2013-06-13 電気機器をモニタするための方法、及び、モニタ装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013124267A Division JP5669051B2 (ja) 2012-03-30 2013-06-13 電気機器をモニタするための方法、及び、モニタ装置

Publications (3)

Publication Number Publication Date
JP2013210755A JP2013210755A (ja) 2013-10-10
JP2013210755A5 JP2013210755A5 (ja) 2015-03-19
JP6020880B2 true JP6020880B2 (ja) 2016-11-02

Family

ID=61402563

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012079579A Expired - Fee Related JP6020880B2 (ja) 2012-03-30 2012-03-30 データ処理装置、データ処理方法、及び、プログラム
JP2013124267A Active JP5669051B2 (ja) 2012-03-30 2013-06-13 電気機器をモニタするための方法、及び、モニタ装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013124267A Active JP5669051B2 (ja) 2012-03-30 2013-06-13 電気機器をモニタするための方法、及び、モニタ装置

Country Status (1)

Country Link
JP (2) JP6020880B2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2977772B1 (en) 2013-11-01 2018-05-09 Informetis Corporation Signal processing system, signal processing method, and signal processing program
KR101557116B1 (ko) 2013-11-13 2015-10-02 주식회사 케이티 개별 부하의 운영상태를 추정하는 장치 및 방법
TWI481881B (zh) * 2013-11-22 2015-04-21 Inst Information Industry 耗電預測裝置、方法及其電腦程式產品
WO2015097845A1 (ja) * 2013-12-27 2015-07-02 インフォメティス株式会社 信号処理システム、信号処理方法および信号処理プログラム
CN106170708B (zh) * 2014-03-13 2017-09-22 斋藤参郎 个体电设备工作状态估计装置及其方法
EP3174004A4 (en) * 2014-07-25 2018-04-25 Sony Corporation Control device, control method, information processing device, information processing method, and program
JP2016102775A (ja) * 2014-11-12 2016-06-02 日本電信電話株式会社 電気機器の動作状態同定方法及びシステム
KR101735550B1 (ko) * 2015-07-17 2017-05-15 부산대학교 산학협력단 소비전력 모델 생성 및 전처리를 통한 가전 기기의 분류 장치 및 방법
KR101727390B1 (ko) * 2015-07-28 2017-04-26 엘에스산전 주식회사 전력 측정 시스템 및 이를 이용한 부하 전력 모니터링 시스템 및 그 동작 방법
KR101717853B1 (ko) 2015-09-02 2017-03-27 엘에스산전 주식회사 전력 모니터링 시스템 및 그의 전력 모니터링 방법
KR101707745B1 (ko) * 2015-09-02 2017-02-16 엘에스산전 주식회사 전력 모니터링 시스템 및 그의 전력 모니터링 방법
KR101717854B1 (ko) 2015-09-03 2017-03-17 엘에스산전 주식회사 전력 모니터링 시스템 및 그의 전력 모니터링 방법
JP6602609B2 (ja) * 2015-09-04 2019-11-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 電力使用状態推定方法
US20190277894A1 (en) * 2016-09-12 2019-09-12 Nec Corporation Waveform disaggregation apparatus, method and non-transitory medium
JP6966216B2 (ja) 2017-04-21 2021-11-10 株式会社日立製作所 在宅判定システム
JP6901039B2 (ja) * 2017-08-03 2021-07-14 日本電気株式会社 モデル構造選択装置、方法、ディスアグリゲーションシステムおよびプログラム
WO2019123883A1 (ja) * 2017-12-22 2019-06-27 住友電気工業株式会社 判定装置、太陽光発電システム、判定方法および判定プログラム
US11586703B2 (en) 2018-02-08 2023-02-21 Nec Corporation Feature transformation apparatus and method, and recording medium
JP2020193917A (ja) * 2019-05-29 2020-12-03 パナソニックIpマネジメント株式会社 異常検知システム、異常検知方法、プログラム、及び分電盤
JP7285480B2 (ja) * 2019-06-14 2023-06-02 大成建設株式会社 消費電力推定装置および消費電力推定方法
CN112803408B (zh) * 2021-03-18 2023-02-28 山东大学 一种配电系统及负荷侧协同状态估计方法及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0735811A (ja) * 1993-07-16 1995-02-07 Showa Electric Wire & Cable Co Ltd 部分放電信号の判別方法及びこれを用いた部分放電発生位置の標定方法
JP2007003296A (ja) * 2005-06-22 2007-01-11 Toenec Corp 電気機器モニタリングシステム
JP5191412B2 (ja) * 2009-02-05 2013-05-08 中国電力株式会社 行動判別システム
JP2011243088A (ja) * 2010-05-20 2011-12-01 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP5598200B2 (ja) * 2010-09-16 2014-10-01 ソニー株式会社 データ処理装置、データ処理方法、およびプログラム
JP5720491B2 (ja) * 2011-08-23 2015-05-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2013187295A1 (ja) * 2012-06-13 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP5669051B2 (ja) 2015-02-12
JP2013210755A (ja) 2013-10-10
JP2013213825A (ja) 2013-10-17

Similar Documents

Publication Publication Date Title
JP6020880B2 (ja) データ処理装置、データ処理方法、及び、プログラム
KR102065801B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 및 프로그램
JP5888375B2 (ja) データ処理装置、データ処理方法、およびプログラム
JP7322997B2 (ja) データ変換装置
He et al. A generic optimisation-based approach for improving non-intrusive load monitoring
Capra et al. An accelerated-time model for response curves
Nott et al. Bayesian variable selection and the Swendsen-Wang algorithm
JP5071851B2 (ja) 時間情報を用いた予測装置、予測方法、予測プログラムおよびそのプログラムを記録した記録媒体
JP6056172B2 (ja) データ処理装置、データ処理方法、及び、プログラム
Su et al. Local prediction of chaotic time series based on polynomial coefficient autoregressive model
JP2019066339A (ja) 音による診断装置、診断方法、および診断システム
JP4433323B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009104273A (ja) 情報処理装置、情報処理方法、およびプログラム
Dong et al. Nonparametric interaction selection
JP2009104275A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2024032154A (ja) 異常予測処理装置、異常予測処理方法及び異常予測処理プログラム
Su et al. Local functional coefficient autoregressive model for multistep prediction of chaotic time series
Xiong Essays in big data and forecasting methods in financial econometrics
Yang et al. Dealing with measurement error in estimating a cross-level interaction: Nonlinear multilevel latent variable modeling approach with a metropolis-hastings robbins-monro algorithm
Wytock Time-varying Linear Regression with Total Variation Regularization
Mori et al. Integration of graphical modeling with fuzzy clustering for casual relationship of electric load forecasting

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160921

R151 Written notification of patent or utility model registration

Ref document number: 6020880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees