WO2016013411A1 - 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム - Google Patents

制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
WO2016013411A1
WO2016013411A1 PCT/JP2015/069828 JP2015069828W WO2016013411A1 WO 2016013411 A1 WO2016013411 A1 WO 2016013411A1 JP 2015069828 W JP2015069828 W JP 2015069828W WO 2016013411 A1 WO2016013411 A1 WO 2016013411A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
label
unit
information
operating state
Prior art date
Application number
PCT/JP2015/069828
Other languages
English (en)
French (fr)
Inventor
高田 昌幸
正一 土居
昌裕 森田
義樹 竹岡
倉田 宜典
厚志 石原
茶谷 公之
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2016535873A priority Critical patent/JP6597612B2/ja
Priority to CN201580039393.XA priority patent/CN106537369A/zh
Priority to EP15824919.3A priority patent/EP3174004A4/en
Priority to US15/327,173 priority patent/US20170176967A1/en
Publication of WO2016013411A1 publication Critical patent/WO2016013411A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J13/00Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network
    • H02J13/00001Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network characterised by the display of information or by user interaction, e.g. supervisory control and data acquisition systems [SCADA] or graphical user interfaces [GUI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R19/00Arrangements for measuring currents or voltages or for indicating presence or sign thereof
    • G01R19/25Arrangements for measuring currents or voltages or for indicating presence or sign thereof using digital measurement techniques
    • G01R19/2513Arrangements for monitoring electric power systems, e.g. power lines or loads; Logging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R21/00Arrangements for measuring electric power or power factor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/041Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a variable is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J13/00Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J13/00Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network
    • H02J13/00002Circuit arrangements for providing remote indication of network conditions, e.g. an instantaneous record of the open or closed condition of each circuitbreaker in the network; Circuit arrangements for providing remote control of switching means in a power distribution network, e.g. switching in and out of current consumers by using a pulse code signal carried by the network characterised by monitoring
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2642Domotique, domestic, home control, automation, smart house
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J2310/00The network for supplying or distributing electric power characterised by its spatial reach or by the load
    • H02J2310/10The network having a local or delimited stationary reach
    • H02J2310/12The local stationary network supplying a household or a building
    • H02J2310/14The load or loads being home appliances
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02JCIRCUIT ARRANGEMENTS OR SYSTEMS FOR SUPPLYING OR DISTRIBUTING ELECTRIC POWER; SYSTEMS FOR STORING ELECTRIC ENERGY
    • H02J2310/00The network for supplying or distributing electric power characterised by its spatial reach or by the load
    • H02J2310/70Load identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02B90/20Smart grids as enabling technology in buildings sector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S20/00Management or operation of end-user stationary applications or the last stages of power distribution; Controlling, monitoring or operating thereof

Definitions

  • the present technology relates to a control device, a control method, an information processing device, an information processing method, and a program.
  • device separation for obtaining power consumption of each of a plurality of devices such as homes can be quickly performed.
  • the present invention relates to a control device, a control method, an information processing device, an information processing method, and a program.
  • NILM Non-Intrusive Load Monitoring
  • FHMM Factor Hidden Markov Model
  • the device In order to perform device separation to obtain the current consumption of each device from the current information measured by the distribution board, the device is turned on or off, for example, by changing the operating state of the device. It is necessary for the current consumption of the device to change as a result.
  • the operating state of the device can be changed, for example, by the user's operation. However, depending on the user's operation, it takes time to separate the devices.
  • This technology has been made in view of such a situation, and enables device separation to be performed quickly.
  • the information processing apparatus or the first program of the present technology operates a device, recognizes the operation state of the device, and transmits a device label representing the device and an operation state label representing the operation state of the device.
  • the device information acquisition unit that acquires the device label and the operation state label from the control device, and the total data regarding the total current consumed by a plurality of devices, the consumption of each operation state of each device
  • a device that separates the current consumption of each device by updating the pattern information based on the possibility information representing the possibility that the current consumption represented by the pattern information is consumed, which is obtained for the pattern information representing the current.
  • the device is operated, the operating state of the device is recognized, the device label representing the device, and the operating state of the device are represented.
  • the device label and the operating state label are acquired from the control device that transmits the operating state label.
  • the consumption current represented by the pattern information obtained for the pattern information representing the consumption current in each operating state of each device is consumed by using the sum data relating to the sum of the current consumed by multiple devices.
  • the possibility information obtained in the device separation for separating the current consumption of each device is acquired by updating the pattern information based on the possibility information representing the property. Then, based on the possibility information, pattern information indicating current consumption consumed in the current operating state of the device represented by the device label is specified, and the device label and the operating state label are included in the pattern information. Corresponding labeling is performed.
  • the control method of the present technology includes a step of operating a device, a step of recognizing the operation state of the device, and sum data relating to a sum of currents consumed by a plurality of devices, and each operation state of each device.
  • the current consumption of each device is separated by updating the pattern information based on the possibility information representing the possibility that the current consumption represented by the pattern information is consumed, which is obtained for the pattern information representing the current consumption.
  • a control method including a step of transmitting a device label representing the device and an operation state label representing an operation state of the device to a device separation apparatus that performs device separation.
  • the device is operated and the operating state of the device is recognized. Then, using the sum data on the sum of the currents consumed by multiple devices, the current consumption represented by the pattern information obtained for the pattern information representing the current consumption in each operating state of each device may be consumed. Based on the possibility information that represents the device, by updating the pattern information, the device separation device for separating the current consumption of each device, the device label representing the device, and the operating state of the device An operating state label representing is transmitted.
  • the information processing device and the control device may be independent devices or may be internal blocks constituting one device.
  • the program can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
  • FIG. 3 is a block diagram illustrating a configuration example of a device separation device 16. It is a figure explaining FHMM. It is a figure explaining the outline
  • FIG. 4 is a perspective view showing an external configuration example of an agent 14.
  • FIG. 4 is a block diagram illustrating an example of an internal configuration of an agent 14.
  • 4 is a diagram illustrating an example of a device table stored in a semiconductor memory 115.
  • FIG. It is a block diagram which shows the structural example of the label acquisition part 35 in case the agent 14 and the apparatus separation apparatus 16 operate
  • 6 is a diagram illustrating an example of a correspondence table stored in a correspondence storage unit 204.
  • FIG. 1 is a diagram illustrating a configuration example of an embodiment of a device separation system to which the present technology is applied.
  • a distribution board 11 is attached to the user's home (home, company, etc.).
  • the electric power provided from the electric power company is drawn into the distribution board 11 via the wattmeter 12, and is supplied from the distribution board 11 to devices such as home appliances (connected to an outlet or the like) at the user's house. .
  • the current sensor 13 is attached to the distribution board 11, for example.
  • the current sensor 13 measures the total current consumed by all the devices (one or more devices) in the user's home at one location at the root of the distribution board 11 that supplies power to the user's home. Then, the data is transmitted to the device separation device 16 configured on the cloud, for example, via the network 15 such as the Internet.
  • the agent 14 is, for example, a movable pet-type robot imitating a dog, and functions as a control device that controls equipment at the user's home.
  • the agent 14 moves the hand or foot to directly operate the buttons provided on the device or the remote controller of the device, thereby operating the device such as turning on / off the device or changing the operation mode. I do.
  • the agent 14 operates (controls) the device by emitting infrared rays similar to the infrared rays emitted by the remote controller of the device, or by performing wireless or wired communication with the device via the home network. can do.
  • the agent 14 can operate the device by holding a stick or the like by hand and operating a button provided on the device with the stick.
  • the agent 14 recognizes the operating state (for example, ON or OFF state, mute state, etc.) of the device at the user's home, and supplies it to the device separation device 16 via the network 15 as device information related to the device. To do.
  • the operating state for example, ON or OFF state, mute state, etc.
  • the device separation device 16 receives the sum of currents transmitted from the current sensor 13 of the user's home via the network 15, and from the current sum series (current waveform series), for example, TV ( Equipment separation that separates current consumption and power consumption consumed by individual equipment such as television receivers), electric pots, refrigerators, and lighting.
  • TV Equipment separation that separates current consumption and power consumption consumed by individual equipment such as television receivers
  • electric pots refrigerators
  • lighting lighting.
  • the device separation device 16 uses the device information from the agent 14 to label the current consumption, etc. obtained as a result of the device separation, indicating in what operating state of which device.
  • the device separation information 16 detects the operating state of the device at the user's home from the current consumption obtained as a result of the device separation and transmits it to the agent 14 via the network 15.
  • FIG. 2 is a diagram for explaining an example of processing of the device separation system of FIG.
  • the device separation device 16 receives the sum of currents transmitted from the current sensor 13 at the user's home, and calculates the current consumed by each device in the user's home from the current sum series (current waveform series). Equipment separation is performed.
  • the agent 14 at the user's home moves within the user's home as necessary, and operates, for example, a button provided on the device or a device remote controller to turn on / off the device. Perform the operation.
  • the sum of the current consumption of devices # 1 to # 4 when a device is turned off or the devices # 1 to # 4 when the power of other devices is turned on The total power consumption when the devices # 1 to # 4 are in various operating states, such as the total current consumption, is transmitted from the current sensor 13 to the device separation device 16.
  • the device separation device 16 performs device separation using the sum of the power consumption when the devices # 1 to # 4 are in various operating states, whereby the consumption of each of the devices # 1 to # 4 is performed. The current is separated.
  • the device separation device 16 detects the operating state of the device at the user's home from the current consumption of each of the devices # 1 to # 4 obtained as a result of the device separation, and transmits it to the agent 14 via the network 15.
  • the agent 14 receives the operating state of the device at the user's home from the device separating apparatus 16, and performs a predetermined action according to the operating state.
  • the agent 14 when the agent 14 receives from the device separation device 16 the operating state of the device indicating that the illumination of the entrance of the user's house is turned on, the illumination of the entrance of the agent 14 is not required even if the agent 14 is not at the entrance of the user's home. You can recognize that it is turned on.
  • the agent 14 can notify the user near the current location by voice or the like that the front door lighting of the user's house has been turned on.
  • a current sensor 13 is provided on the distribution board 12, and the current sensor 13 simply measures the total current consumed by the devices in the user's home, and the current sum series (current waveform series). ), Current consumption (power consumption) of individual devices in the user's home is separated.
  • total data relating to the total current consumed by each device such as the total current consumed by each device can be employed.
  • the sum data the sum of the values that can be added can be used.
  • the total data in addition to the total current consumed by each device itself, for example, the sum of the power consumed by each device and the waveform of the current consumed by each device can be FFT.
  • the sum of the frequency components obtained by (Fast Fourier Transform) or the like can be adopted.
  • the sum of currents consumed by each device is adopted as the sum data, and in device separation, for example, from the waveform of the sum of currents as sum data, consumed by individual devices.
  • the waveform of the current is separated.
  • waveform separation learning is performed to obtain the current consumption waveform of each device from the total data.
  • the characteristic waveform W (m) consumed by each device #m is obtained.
  • FIG. 4 there are five devices # 1 to # 5 in the user's home, and devices # 1, # 2, # 4, and # 5 are turned on among the five devices # 1 to # 5. Is in a state (a state in which power is consumed), and device # 3 is in an off state (a state in which power is not consumed).
  • FIG. 5 is a block diagram illustrating a configuration example of the device separation device 16 of FIG.
  • the communication unit 30 communicates with the current sensor 13 and the agent 14 via the network 15.
  • the communication unit 30 receives the time series (current time series) of the current waveform Y as the total data transmitted from the current sensor 13 via the network 15 and supplies it to the data acquisition unit 31.
  • the communication unit 30 receives data transmitted from the agent 14 via the network 15 and supplies the data to the label acquisition unit 35 and the data output unit 36. Further, the communication unit 30 transmits data supplied from the label acquisition unit 35 and the data output unit 36 to the agent 14 via the network 15.
  • the communication may be any of wireless communication, wired communication, and communication in which wireless and wired are mixed.
  • the data acquisition unit 31 acquires a time series (current time series) of the current waveform Y as total data transmitted from the current sensor 13 by receiving via the communication unit 30, and the state estimation unit 32, model The data is supplied to the learning unit 34 and the data output unit 36.
  • the data acquisition unit 31 acquires a time series (voltage time series) of a voltage waveform (voltage waveform) V corresponding to the current waveform Y as total data, a state estimation unit 32, a model learning unit 34, and The data is supplied to the data output unit 36.
  • the voltage waveform V can be measured by the distribution board 12 and transmitted to the device separation device 16 via the network 15 in the same manner as the current waveform Y. Further, as the voltage waveform V, a sin wave having a predetermined value such as 100 V and an effective value of a predetermined frequency such as 50 Hz or 60 Hz, which approximates a voltage supplied from an electric power company, can be employed.
  • the state estimation unit 32 uses the current waveform Y from the data acquisition unit 31 and the overall model (model parameter) ⁇ stored in the model storage unit 33 as a model of the entire device in the user home. The state estimation for estimating the state of the entire model corresponding to each device is performed. Then, the state estimation unit 32 supplies the state estimation result (state of the entire model) ⁇ of the state estimation to the model learning unit 34, the label acquisition unit 35, and the data output unit 36.
  • the state estimation unit 32 includes an evaluation unit 41 and an estimation unit 42.
  • the evaluation unit 41 is supplied from the data acquisition unit 31 (to the state estimation unit 32) in each combination of the states of the plurality of device models # 1 to #M constituting the overall model ⁇ stored in the model storage unit 33.
  • An evaluation value E that evaluates the degree to which the current waveform Y is observed is obtained and supplied to the estimation unit 42.
  • the estimation unit 42 uses the evaluation value E supplied from the evaluation unit 41 to estimate the state ⁇ of each of the plurality of device models # 1 to #M constituting the overall model ⁇ stored in the model storage unit 33, and the model The data is supplied to the learning unit 34, the label acquisition unit 35, and the data output unit 36.
  • the overall model ⁇ is composed of a plurality of device models # 1 to #M which are models (representing current consumption) of devices.
  • the device models # 1 to #M and the overall model ⁇ composed of the device models # 1 to #M are, for example, a probability generation model or a state transition model, and have a plurality of states.
  • the parameter ⁇ of the overall model includes a current waveform parameter that represents current consumption for each state of the device model #m (operating state of the corresponding device).
  • the model parameter ⁇ of the entire model stored in the model storage unit 33 is referred to as necessary by the evaluation unit 41 and the estimation unit 42 of the state estimation unit 32, the label acquisition unit 35, and the data output unit 36, and the model It is updated by a waveform separation learning unit 51, a distributed learning unit 52, and a state variation learning unit 53, which will be described later, of the learning unit.
  • the model learning unit 34 includes the current waveform Y supplied from the data acquisition unit 31 and the state estimation result of state estimation supplied from the state estimation unit 32 (the estimation unit 42 thereof) (each device model constituting the overall model). Model learning is performed to update the model parameter ⁇ of the entire model stored in the model storage unit 33 using the state #m).
  • the waveform separation learning unit 51 includes the current waveform Y supplied from the data acquisition unit 31 (to the model learning unit 34) and the state estimation result of each device model #m supplied from the state estimation unit 32 (the estimation unit 42 thereof).
  • waveform separation learning for obtaining (updating) the current waveform parameter as the model parameter ⁇ is performed, and the current waveform parameter stored in the model storage unit 33 is determined by the current waveform parameter obtained by the waveform separation learning. Update.
  • the distributed learning unit 52 includes the current waveform Y supplied from the data acquisition unit 31 (to the model learning unit 34) and the state estimation result ⁇ of each device model #m supplied from the state estimation unit 32 (the estimation unit 42 thereof). Is used to perform (learn) a dispersion parameter as the model parameter ⁇ , and the dispersion parameter stored in the model storage unit 33 is updated with the dispersion parameter obtained by the dispersion learning.
  • the state variation learning unit 53 uses the state estimation result ⁇ of each device model #m supplied from the state estimation unit 32 (the estimation unit 42 thereof) to obtain the initial state parameter and the state variation parameter as the model parameter ⁇ .
  • the obtained (updated) state variation learning is performed, and the initial state parameter and the state variation parameter stored in the model storage unit 33 are respectively updated with the initial state parameter and the state variation parameter obtained by the state variation learning. .
  • the label acquisition unit 35 includes a state estimation result ⁇ of each device model #m supplied from the state estimation unit 32 (its estimation unit 42), the overall model ⁇ stored in the model storage unit 33, and a data output unit 36.
  • the data output unit 36 stores the voltage waveform V supplied from the data acquisition unit 31, the state estimation result ⁇ of each device model #m supplied from the state estimation unit 32 (the estimation unit 42), and the model storage unit 33. Using the stored overall model, the power consumption U (m) of each device in the user's home represented by each device model #m (corresponding to each device model #m ) is obtained, and the device supplied from the label acquisition unit 35 Along with the label L (m) , it is provided to the user at the user's house.
  • the data output unit 36 detects the operating state of each device in the user's house according to the state estimation result ⁇ of each device model #m, and sends an operating state label indicating the operating state from the communication unit 30 to the network 15. To the agent 14 via.
  • the agent 14 can take a predetermined action according to the operating state (label) of each device at the user's home from the data output unit 36.
  • FIG. 6 is a diagram for explaining the FHMM.
  • the FHMM has a configuration having a plurality of HMMs.
  • Each HMM that the FHMM has is called a factor.
  • the m-th factor included in the FHMM is also referred to as factor #m.
  • a combination of a plurality of states S (1) t to S (M) t at time t is a combination of the states of factor #m at time t (factor # 1 and factor # 2 State, ..., set of factor #M).
  • FIG. 7 shows an FHMM with a factor number M of 3.
  • one factor corresponds to one device (one factor corresponds to one device).
  • factor #m corresponds to device #m.
  • factor # 1 is in the state # 14 (indicated by a thick circle) among the four states # 11, # 12, # 13, and # 14. ),
  • Factor # 2 is state # 21 (indicated by a bold circle) among the four states # 21, # 22, # 23, and # 24.
  • factor # 3 is state # 33 (indicated by a thick circle) among the four states # 31, # 32, # 33, and # 34.
  • the state of factor #m corresponds to the operating state of device #m corresponding to factor #m, for example.
  • state # 11 corresponds to the off state of device # 1
  • state # 14 corresponds to the so-called normal mode on state of device # 1.
  • state # 12 corresponds to the so-called sleep mode on state of device # 1
  • state # 13 represents the so-called energy saving mode on of device # 1. Corresponds to the state.
  • W (2) # 21 is observed.
  • FHMM a composite waveform that combines the unique waveforms observed in each factor is generated as an observed value observed in FHMM.
  • the total (addition) of eigen waveforms can be employed.
  • weighted addition of eigen waveforms or logical sum of eigen waveforms when the eigen waveform values are 0 and 1) can be used. The sum of is adopted.
  • the device model #m constituting the overall model ⁇ corresponds to the factor #m.
  • the number M of FHMM factors a value larger by a predetermined number as a margin than the maximum number of devices assumed to exist in the user's home is adopted.
  • the FHMM as the overall model ⁇ , an FHMM in which each factor is in a state of 2 or 3 or more can be adopted.
  • S t- 1) is the time t-1
  • the state of the combination S t-1 Niite, at time t represents the transition probability of transition to a combination of state S t.
  • S t ) can be calculated as follows.
  • a column vector of rows (a matrix of K rows and 1 column).
  • S t ⁇ 1 ) can be calculated according to equation (3).
  • S t ) can be calculated according to equation (4).
  • the dash (') represents transposition
  • the superscript -1 represents the reciprocal (inverse matrix).
  • represents the absolute value (determinant) of C (determinant operation).
  • the current sensor 13 uses a timing at which a zero crossing occurs when the voltage changes from a negative value to a positive value as a timing at which the phase of the current is 0, at a predetermined sampling interval, for one cycle. (In Japan, 1/50 or 1/60 second) is sampled, and a column vector having the sampled value as a component is output as a current waveform Y t for one time.
  • the current waveform Y t is a column vector of D rows.
  • the observed value Y t follows a normal distribution with an average value (average vector) of ⁇ t and a variance (covariance matrix) of C.
  • the average value ⁇ t is a D-row column vector similar to the current waveform Y t
  • the variance C is a D-row D-column matrix (a diagonal component is a variance matrix).
  • the average value ⁇ t is expressed by Expression (5) using the natural waveform W (m) described in FIG.
  • eigen waveform of state #k with factor #m is expressed as W (m) k
  • eigen waveform W (m) k of state #k with factor #m is, for example, current waveform Y t and It is a column vector of similar D rows.
  • the characteristic waveform W (m) is the characteristic waveform W (m) 1 , W (m) 2 , ..., W (m ) A matrix of D rows and K columns having a column vector that is a collection of K and a natural waveform W (m) k of state #k with factor #m as a component of the kth column.
  • S * (m) t represents the state of factor #m at time t, and hereinafter, S * (m) t is also referred to as the current state of factor #m at time t.
  • Current state S * (m) t factors #m of time t, for example, as shown in equation (6), a component of only one row of the K line 1, the other rows component is 0 It is a column vector of K rows.
  • the column vector S * (m) t of K rows as the current state S * (m) t of factor #m at time t is k rows Only the eye component is set to 1, and the other components are set to 0.
  • the total sum of the characteristic waveforms W (m) k of the state #k of each factor #m at time t is obtained as the average value ⁇ t of the current waveform Y t at time t.
  • the model parameters ⁇ of the FHMM are the initial state probability P (S (m) 1 ) in equation (2), the transition probability P (S (m) t
  • S (m) t-1 ) in equation ( 3 ), 4) dispersion C and the characteristic waveform W (m) ( W (m) 1 , W (m) 2 ,..., W (m) K ) of equation (5), and the model of FIG.
  • the learning unit 34 obtains model parameters ⁇ of these FHMMs.
  • the waveform separation learning unit 51 obtains the unique waveform W (m) as a current waveform parameter by waveform separation learning.
  • the distributed C is obtained as a distributed parameter by distributed learning.
  • the state variation learning unit 53 obtains the initial state probability P (S (m) 1 ) and the transition probability P (S (m) t
  • the HMM status is expressed when the operating status (combination) of 20 devices is expressed by a normal HMM.
  • Is 2 20 1,048,576, and the number of transition probabilities is 1,099,511,627,776 of the square.
  • the number of FHMM states total number
  • FHMM learning that is, initial state probability P (S (m) 1 ), transition probability P (S (m) t
  • the update of the waveform W (m) can be performed according to an EM (Expectation-Maximization) algorithm as described in Document A, for example.
  • ⁇ ) of the conditional complete data log likelihood is a new model parameter when the complete data ⁇ S t , Y t ⁇ is observed under the model parameter ⁇ .
  • ⁇ new it means the expected value of log likelihood log (P ( ⁇ S t , Y t ⁇
  • ⁇ ) of the conditional complete data log likelihood of the equation (7) is obtained (the value corresponding to), and in the processing of the M step of the EM algorithm, A new model parameter ⁇ new is obtained that increases the expected value Q ( ⁇ new
  • step S11 the model learning unit 34 has an initial state probability P (S (m) 1 ) and a transition probability P (S (m) t
  • the k-th row component of the column vector of K rows as the initial state probability P (S (m) 1 ), that is, the k-th initial state probability ⁇ (m) k of the factor #m is, for example, 1 Initialized to / K.
  • the i-th row and j-th column components (i, j 1,2,..., K) of the K-row and K-column matrix as the transition probability P (S (m) t
  • S (m) t ⁇ 1 ), That is, in the factor #m, the transition probability P (m) i, j for transition from the i-th state #i to the j-th state #j is expressed by the expression P (m) i, 1 + P using a random number, for example. (m) i, 2 +... + P (m) Initialized to satisfy i, K 1.
  • the matrix of D rows and D columns as the variance C is initialized to a diagonal matrix of D rows and D columns, for example, by setting a diagonal component using random numbers and setting other components (components) to 0.
  • the column vector of the kth column of the matrix of D rows and K columns as the eigen waveform W (m) that is, each component of the column vector of the D row as the eigen waveform W (m) k of the state #k with factor #m
  • initialization is performed using a random number.
  • the voltage waveform from the data acquisition unit 31 is used for calculation of power consumption.
  • step S13 the state estimation unit 32 performs an E step process using the measurement waveforms Y 1 to Y T from the data acquisition unit 31, and the process proceeds to step S14.
  • step S13 the state estimation unit 32 uses the measured waveforms Y 1 to Y T from the data acquisition unit 31 to state probability of being in each state of each factor #m of the FHMM stored in the model storage unit 33. Etc., and the state estimation result of the state estimation is supplied to the model learning unit 34 and the data output unit 36.
  • step S14 the model learning unit 34 performs an M step process using the measurement waveforms Y 1 to Y T from the data acquisition unit 31 and the state estimation result from the state estimation unit 32. Proceed to S15.
  • step S14 the model learning unit 34 uses the measured waveforms Y 1 to Y T from the data acquisition unit 31 and the state estimation result from the state estimation unit 32 to store the FHMM stored in the model storage unit 33.
  • step S15 If it is determined in step S15 that the convergence condition of the model parameter ⁇ is not satisfied, the process returns to step S13, and the same process is repeated thereafter.
  • step S15 If it is determined in step S15 that the convergence condition of the model parameter ⁇ is satisfied, the learning process ends.
  • steps S12 to S15 are repeated regularly or irregularly.
  • FIG. 9 is a flowchart for explaining the processing of step E performed by the device separation apparatus 16 in FIG. 5 in step S13 in FIG.
  • the estimation unit 42 includes the observation probability P (Y t
  • j and initial state probability ⁇ (m) ) are used to observe the measured waveforms Y 1 , Y 2 ,..., Y t , and at time t, the state combination (state of factor # 1 at time t)
  • the combination of the state of factor # 2 and the combination of the state of factor #M) determines the forward probability ⁇ t, z in z , and the process proceeds to step S23.
  • the product of k is adopted.
  • step S23 the estimation unit 42 determines the observation probability P (Y t
  • the combination of the states z Niite then measured waveform Y t obtains a Y t + 1, ⁇ ⁇ ⁇ , backward probability observing Y T beta t, z, the process, step Proceed to S24.
  • step S24 the estimation unit 42 is in the state combination z at time t in the FHMM as the overall model ⁇ according to the equation (8) using the forward probability ⁇ t, z and the backward probability ⁇ t, z .
  • the posterior probability ⁇ t, z is obtained, and the process proceeds to step S25.
  • ⁇ of the denominator of the right side of the equation (8) represents the summation of Nikki changing the w, all combinations S t of possible states at time t.
  • the posterior probability ⁇ t, z is obtained by calculating the product ⁇ t, z ⁇ t, z of the forward probability ⁇ t, z and the backward probability ⁇ t, z as the product ⁇ t, w ⁇ t. , of w, obtained by normalizing the sum ⁇ t, w ⁇ t, w of the combination W ⁇ S t of possible states is FHMM.
  • step S25 the estimation unit 42 uses the posterior probability ⁇ t, z and, at the factor #m, at the time t, the posterior probability ⁇ S (m) t > in the state S (m) t and the time t In factor #m, we are in state S (m) t , and in other factor #n, we find the posterior probability ⁇ S (m) t S (n) t '> in state S (n) t. The process proceeds to step S26.
  • Equation (9) the posterior probability ⁇ S (m) t > is obtained according to Equation (9).
  • Equation (9) the posterior probability ⁇ S (m) t > in state S (m) t at time t in factor #m is the posterior probability ⁇ t in state combination z at time t. , z is obtained by marginalizing a state combination z not including the state of factor #m.
  • the posterior probability ⁇ S (m) t > is, for example, the state probability (posterior probability) of the kth state among the K states of factor #m at time t as the component of the kth row. It is a column vector of K rows.
  • the posterior probability ⁇ S (m) t S (n) t ′> is, for example, the state probability (at time t) in the state #k of factor #m and the state #k ′ of other factor #n ( (A posteriori probability) is a matrix of K rows and K columns with the components of k rows and k 'columns.
  • step S26 the estimation unit 42 calculates the forward probability ⁇ t, z , the backward probability ⁇ t, z , the transition probability P (z
  • Equation (11) the posterior probability ⁇ S (m) t ⁇ 1 S (m) t ′> is obtained according to Equation (11).
  • w) of transition from the state combination w to the state combination z is expressed by the equation (11) 3) According to 3), the transition probability P (1) i (1 ) from the state #i (1) of the factor # 1 constituting the state combination w to the state #j (1) of the factor # 1 constituting the state combination z ), j (1) , transition probability P (2) from state #i (2) of factor # 2 constituting state combination w to state #j (2) of factor # 2 constituting state combination z i (2), j (2 ), ⁇ , and factors #M constituting the combination z from one state factor #M constituting the combination w state #i (M) state #j (M ) Transition probability P (M) i (M), j (M) product P (1) i (1), j (1) ⁇ P (2) i (2), j (2) ⁇ XP (M) Obtained as i (M), j
  • the posterior probability ⁇ S (m) t-1 S (m) t '> is, for example, the state probability of being in state #i at time t-1 and in state j at the next time t in factor #m.
  • This is a matrix of K rows and K columns with (posterior probability) as a component of i row and j column.
  • FIG. 10 illustrates the relationship between the FHMM forward probability ⁇ t, z and backward probability ⁇ t, z and the (normal) HMM forward probability ⁇ t, i and backward probability ⁇ t, j.
  • FIG. 10 illustrates the relationship between the FHMM forward probability ⁇ t, z and backward probability ⁇ t, z and the (normal) HMM forward probability ⁇ t, i and backward probability ⁇ t, j.
  • an HMM equivalent to that FHMM can be configured.
  • An HMM equivalent to a certain FHMM has a state corresponding to a state combination z of each factor of the FHMM.
  • the forward probability ⁇ t, z and the backward probability ⁇ t, z of the FHMM coincide with the forward probability ⁇ t, i and the backward probability ⁇ t, j of the HMM equivalent to the FHMM.
  • 10A shows an FHMM composed of factors # 1 and # 2 having two states # 1 and # 2.
  • FIG. 10B shows an HMM equivalent to the FHMM of FIG.
  • the HMM in FIG. 10B corresponds to four combinations [1,1], [1,2], [2,1], and [2,2] of the states of the FHMM in FIG. It has two states # (1,1), # (1,2), # (2,1), and # (2,2).
  • the backward probability ⁇ t, z ⁇ t, [1,1] , ⁇ t, [1,2] , ⁇ t, [2,1] , ⁇ t, [2 of the FHMM in FIG. , 2]
  • FIG. 11 is a flowchart for explaining the process of the M step performed by the device separating apparatus 16 of FIG. 5 in step S14 of FIG.
  • the waveform separation learning unit 51 obtains an updated value W (m) new of the natural waveform W (m) by calculating Expression (12) as waveform separation learning.
  • W new is a D-row and K-column matrix
  • the updated value W (m) new of the characteristic waveform W (m) of factor #m is arranged from left to right in the order of factor (index) #m. It is a matrix of D rows and K x M columns.
  • the column vector of the (m-1) K + k columns of the eigen waveform (updated value) W new that is a matrix of D rows and K ⁇ M columns is the eigen waveform W (m) k ( Update value).
  • ⁇ S t '> is a K ⁇ M column vector in which the posterior probability ⁇ S (m) t >, which is a column vector of K rows, is transposed from top to bottom in order of factor #m A row vector of columns.
  • the (m-1) K + k column component of the posterior probability ⁇ S t '>, which is a row vector of K ⁇ M columns, has the state probability of being in state #k with factor #m at time t. .
  • ⁇ S t S t '> is a matrix of K rows and K columns, the posterior probabilities ⁇ S (m) t S (n) t '> are arranged in the order of factor #m from top to bottom, and factor # A matrix of K ⁇ M rows and K ⁇ M columns arranged in order from left to right in n order.
  • the component of the (m-1) K + k row (n-1) K + k 'column of the posterior probability ⁇ S t S t '> which is a matrix of K ⁇ M rows and K ⁇ M columns is at time t. It is the state probability of being in state #k with factor #m and state #k ′ with other factor #n.
  • the superscript asterisk (*) represents an inverse matrix or a pseudo inverse matrix.
  • the measurement waveform Y t is separated into the natural waveform W (m) .
  • the distributed learning unit 52 calculates the updated value C new of the distributed C by calculating Expression (13) as distributed learning.
  • step S33 the state variation learning unit 53 uses the posterior probabilities ⁇ S (m) t > and ⁇ S (m) t ⁇ 1 S (m) t ′> from the estimation unit 42 to perform state variation learning.
  • the updated value P (m) i, j new of the transition probability P (m) i, j and the updated value ⁇ (m) new of the initial state probability ⁇ (m) and the updated value P (m) i, j new and ⁇ (m) new are used to update the transition probability P (m) i, j and initial state probability ⁇ (m) stored in the model storage unit 33, and M Return from step processing.
  • the state fluctuation learning unit 53 calculates the expressions (14) and (15) as the state fluctuation learning, thereby obtaining the updated values P (m) i of the transition probabilities P (m) i and j , respectively. , j new and the updated value ⁇ (m) new of the initial state probability ⁇ (m) are obtained.
  • ⁇ S (m) t-1, i S (m) t, j > is the i of the posterior probability ⁇ S (m) t-1 S (m) t '> which is a matrix of K rows and K columns. This is a component in the row j column, and represents the state probability of being in the state #i at the time t-1 and in the state #j at the next time t in the factor #m.
  • ⁇ S (m) t-1, i > is a component of the i -th row of column vector posterior probability ⁇ S (m) t-1 > of K row, and at time t-1, state # of factor #m i represents the state probability.
  • ⁇ (m) ( ⁇ (m) new ) is K with the initial state probability ⁇ (m) k (updated value ⁇ (m) k new ) of state #k with factor #m as the component in the k-th row A column vector of rows.
  • FIG. 12 is a flowchart for explaining an example of an information presentation process for presenting information on the device #m performed by the device separation device 16 (FIG. 5).
  • step S41 the data output unit 36 (voltage waveform corresponding to the current waveform Y t) the voltage waveform from the data acquisition unit 31 V t, the posterior probability of the state estimation result from the state estimation unit 32 ⁇ S (m)
  • the power consumption U (m) of each factor #m is obtained using t > and the natural waveform W (m) stored in the model storage unit 33, and the process proceeds to step S42.
  • the data output unit 36 using the voltage waveform V t at time t, the current consumption A t of instrument #m corresponding to factor #m time t, corresponding to a factor #m time t equipment Obtain the power consumption U (m) of #m.
  • the current consumption At of the device #m corresponding to the factor #m at the time t is obtained as follows.
  • the data output unit 36 uses the device # corresponding to the factor #m of the time t as the characteristic waveform W (m) of the state #k having the maximum posterior probability ⁇ S (m) t > in the factor #m. calculated as the current consumption a t of m.
  • the data output unit 36 uses, for example, a factor that uses a state probability of each state of factor #m at time t as a weight, which is a component of a posteriori probability ⁇ S (m) t > that is a column vector of K rows.
  • Current consumption of device #m corresponding to factor #m at time t with the weighted addition value of eigen waveform W (m) 1 , W (m) 2 ,..., W (m) K in each state of #m Calculate as At.
  • the characteristic waveform W (m) of the state #k having the maximum posterior probability ⁇ S (m) t > and the state probability of each state of the factor #m at the time t are used as weights.
  • the weighted addition values of the characteristic waveforms W (m) 1 , W (m) 2 ,..., W (m) K in each state of factor #m are substantially the same.
  • step S42 the label acquisition unit 35 acquires a device label L (m) that identifies a device #m represented by each device model #m, that is, a device #m corresponding to each factor #m of the FHMM, and outputs the data.
  • the process proceeds to step S43.
  • the label obtaining unit 35 for example, consumption and current A t of instrument #m corresponding to each factor #m obtained in the data output unit 36, from the power consumption U (m), the power consumption U (m)
  • the usage time zone of the recognized device #m can be transmitted to the user's home from the communication unit 30 via the network 15 and displayed on the display device at the user's home to be presented to the user.
  • the label obtaining unit 35 for example, and the current consumption A t which is presented to the user, the power consumption U (m), the name of the device that applies the use time period, asked to enter a user, the network 15, and a communication
  • the name of the device input by the user can be acquired as the device label L (m) .
  • the label acquisition unit 35 prepares in advance a database in which attributes such as power consumption, current waveform (current consumption), usage time zone, and the like are registered in association with the names of devices for various devices. ; then, in the database, is recognized consumption and current a t of instrument #m corresponding to each factor #m sought data output unit 36, from the power consumption U (m), the power consumption U (m)
  • the name of the device associated with the usage time zone of the device #m can be acquired as the device label L (m) .
  • the label acquisition unit 35 has already acquired the device label L (m), and for the factor #m corresponding to the device #m supplied to the data output unit 36, the processing in step S42 may be skipped. it can.
  • step S43 the data output unit 36 sends the power consumption U (m) of the device corresponding to each factor #m together with the device label L (m) of the factor #m from the communication unit 30 via the network 15.
  • the information presenting process is completed by presenting it to the user by transmitting it to the home and displaying it on the display device at the user's home.
  • FIG. 13 is a diagram showing a display example of the power consumption U (m) displayed on the display device at the user's home in the information presentation process of FIG.
  • the time series of the power consumption U (m) of the device #m corresponding to each factor #m is displayed together with the device label L (m) such as the name of the device #m. Can be displayed.
  • the device separation device 16 can determine the power consumption of each device in the user's home simply by measuring the total current consumed by each device in the user's home at one location such as the distribution board 12. Therefore, it is possible to easily “visualize” the power consumption of each device in the user's home from both the cost and labor aspects.
  • the awareness of power saving at the user's home can be increased.
  • the device separation device 16 collects the power consumption of each device in many user homes, and estimates the usage time zone of the device and thus the life pattern from the power consumption of the devices in each user home, which is useful for marketing and the like. be able to.
  • the device separation device 16 by using the current waveform Y t measured by the current sensor 13, in performing the current consumption or the like device separating seeking of each device of the user's home, and change operational state of the device, the device It is necessary that the current consumption changes.
  • the operating state of the device changes depending on, for example, a user's operation. However, since it depends only on the user's operation for changing the operating state of the device, it takes time to separate the devices.
  • the device name input by the user is acquired as the device label L (m) , so that the user is given the name of the device to be the device label L (m). It is necessary to have the user input, and the user may feel annoyed.
  • the agent 14 and the device separation device 16 operate in a coordinated manner, so that the operating state of the device is quickly changed, and the device separation is performed quickly. Yes.
  • the agent 14 and the device separation device 16 operate in cooperation so that the user does not have to input the device label L (m) (name of the device to be).
  • the device label L (m) of the device corresponding to the factor #m is acquired and associated with the factor #m.
  • FIG. 14 is a perspective view showing an external configuration example of the agent 14 of FIG.
  • the agent 14 is a pet-type robot imitating a dog, and is roughly divided into a body unit 1, leg units 102 ⁇ / b> A, 102 ⁇ / b> B, 102 ⁇ / b> C, 102 ⁇ / b> D, a head unit 103, and a tail. Part unit 104.
  • Leg units 102A, 102B, 102C, 102D corresponding to the legs are connected to the front, rear, left and right of the body unit 101 corresponding to the body, respectively, and the front end portion and the rear end portion of the body unit 101 are respectively
  • a head unit 103 corresponding to the head and a tail unit 104 corresponding to the tail are connected.
  • a back sensor 101 ⁇ / b> A is provided on the upper surface of the trunk unit 101.
  • the head unit 103 is provided with a head sensor 103A at the top and a chin sensor 103B at the bottom. Note that each of the back sensor 101A, the head sensor 103A, and the chin sensor 103B is configured by a pressure sensor, and detects pressure applied to the part.
  • the tail unit 104 is attached to the body unit 101 so as to be swingable in the horizontal direction and the vertical direction.
  • FIG. 15 is a block diagram showing an example of the internal configuration of the agent 14 of FIG.
  • the body unit 101 includes a control unit 111, an A / D (Analog / Digital) conversion unit 112, a D / A conversion unit 113, a communication unit 114, a semiconductor memory 115, a back sensor 101A, and the like. Stored.
  • a / D Analog / Digital
  • the control unit 111 controls the entire agent 14 and performs various processes.
  • the A / D conversion unit 112 converts the analog signals output from the microphone 121, the CCD cameras 122L and 122R, the back sensor 101A, the head sensor 103A, and the chin sensor 103B into digital signals, and sends them to the control unit 111. Supply.
  • the D / A converter 113 converts the digital signal supplied from the controller 111 into an analog signal by D / A conversion, and supplies the analog signal to the speaker 123.
  • the communication unit 114 communicates with the outside wirelessly or by wire. That is, the communication unit 114 receives data transmitted from the outside and supplies the data to the control unit 111. In addition, the communication unit 114 transmits data supplied from the control unit 111 to the outside.
  • the semiconductor memory 115 can be configured to be detachable from a slot (not shown) provided in the body unit 101.
  • the back sensor 101A is provided in a part corresponding to the back of the agent 14 in the torso unit 101.
  • the back sensor 101A detects a pressure from the user applied thereto and outputs a pressure detection signal corresponding to the pressure to the A / D.
  • the data is output to the control unit 111 via the conversion unit 112.
  • the body unit 101 also stores, for example, a battery (not shown) serving as a power source for the agent 14, a circuit for detecting the remaining battery capacity, and the like.
  • a battery (not shown) serving as a power source for the agent 14, a circuit for detecting the remaining battery capacity, and the like.
  • the head sensor 103A and the chin sensor 103B corresponding to a tactile sensation that senses a pressure applied by touching the user or the like, for example, are provided at corresponding portions, respectively.
  • a speaker 123 corresponding to the “mouth” of the agent 14 is installed, for example, in a corresponding part.
  • the joint portions of the leg units 102A to 102D, the connection portions of the leg units 102A to 102D and the body unit 101, the connection portions of the head unit 103 and the body unit 101, and the tail unit 104 and the body Actuators are installed at the connecting parts of the unit units 101.
  • the actuator operates each unit based on an instruction from the control unit 111. That is, for example, the leg units 102A to 102D are moved by the actuator, whereby the robot walks.
  • the microphone 121 installed in the head unit 103 collects surrounding sounds (sounds) including utterances from the user, and sends the obtained audio signals to the control unit 111 via the A / D conversion unit 112. Output.
  • the image sensors 122 ⁇ / b> L and 122 ⁇ / b> R capture the surrounding situation and output the obtained image signal to the control unit 111 via the A / D conversion unit 112.
  • the head sensor 103A provided at the upper part of the head unit 103 and the chin sensor 103B provided at the lower part of the head unit 103 were received by physical actions such as “blow” and “slap” from the user, for example.
  • the pressure is detected, and the detection result is output as a pressure detection signal to the control unit 111 via the A / D conversion unit 112.
  • control unit 111 includes an action determination unit 131, a recognition unit 132, a position detection unit 133, an operation control unit 134, a notification control unit 135, and a table generation unit 136.
  • the action determining unit 131 is, for example, a voice signal, an image signal, or a pressure given from the microphone 121, the image sensors 122L and 122R, the back sensor 101A, the head sensor 103A, and the chin sensor 103B via the A / D conversion unit 112. Based on the detection signal or the like, the surrounding situation, the instruction from the user, the presence / absence of the user's action, and the like are determined, and the action to be taken next by the agent 14 is determined based on the determination result. And the action determination part 131 drives a required actuator based on the determination result of action, and, thereby, the head unit 103 can be shaken up and down, right and left, and the tail part unit 104 can be moved.
  • the action determining unit 131 drives the leg units 102A to 102D to take actions such as walking the agent 14 and operating devices at the user's home.
  • the behavior determination unit 131 generates a synthesized sound based on the determination result of the behavior, and supplies the synthesized sound to the speaker 123 via the D / A conversion unit 113 for output, or the “eye” of the agent 14.
  • the LED Light Emitting Diode (not shown) provided at the position “” is turned on, turned off, or blinked.
  • the action determination unit 131 causes the agent 14 to autonomously take action based on the surrounding situation, the user who is in contact with the user, and the like.
  • the recognition unit 132 recognizes the operation target device based on the image signal of the operation target device supplied from the image sensors 122L and 122R, and identifies the operation target device such as the model name and model number. Is acquired as the device label of the operation target device.
  • the recognition unit 132 recognizes the operating state of the operation target device based on the image signal of the operation target device supplied from the image sensors 122L and 122R, for example, and acquires an operation state label indicating the operation state.
  • the recognition unit 132 when the recognition unit 132 recognizes that the operation target device is powered off or on as the operating state of the operation target device, the recognition unit 132 indicates that the power is off or on, respectively. Is obtained by generating a character string “power off” or “power on” representing the operating state label.
  • the recognition unit 132 recognizes that the operation mode of the operation target device is the power saving mode as the operation state of the operation target device, the character string “power saving mode” indicating the power saving mode is displayed. ”Is generated as an operating state label.
  • the operation target device and the operation state of the operation target device can be recognized by, for example, listening to the user about the operation target device and the operation state of the operation target device.
  • the agent 14 asks the user about the operation target device or the operation state of the operation target device by synthetic sound or the like, and recognizes the answer by the user's voice to the question.
  • the operating state of the operation target device can be recognized.
  • the voice recognition result of the answer by the user's voice can be adopted as the device label or the operating state label.
  • the position detection unit 133 detects the position of the operation target device using, for example, GPS (Global Positioning System) and outputs position information indicating the position.
  • GPS Global Positioning System
  • an absolute three-dimensional coordinate system can be defined, and the coordinates of the three-dimensional coordinate system can be adopted as the position information of the operation target device.
  • the agent 14 obtains a sketch of the user's house by creating a sketch of the user's house and the coordinates of the coordinate system with reference to a predetermined position on the sketch or a place on the sketch (for example, a living room, a bedroom, etc.) Etc.) can be employed as the position information of the operation target device.
  • the operation control unit 134 controls the operation of the operation target device by the agent 14.
  • the operation control unit 134 determines what operation is to be performed on the operation target device, and requests the action determination unit 131 to perform the operation.
  • the behavior determination unit 131 determines the behavior of the agent 14 and drives a necessary actuator so that an operation according to the request of the operation control unit 134 is performed.
  • the notification control unit 135 acquires an operating state label that is transmitted from the device separating apparatus 16 and indicates the operating state of the device at the user's home, and responds to the operating state label. To control the operation status of the device.
  • the device separation device 16 transmits an operation state label indicating the operation state of the user's home device to the agent 14 via the network 15 as necessary.
  • the notification control unit 135 transmits the operation state label from the device separation device 16 via the communication unit 114.
  • the behavior determining unit 131 is requested to acquire and notify the operating state of the device according to the operating state label.
  • the behavior determination unit 131 determines, for example, to output the operation state of the device by voice, generates a synthesized sound for informing the operation state of the device, and generates a D / A conversion unit 113. Through the speaker 123.
  • the table generation unit 136 associates the device label of the device (operation target device) obtained by the recognition unit 132 with the position information of the device obtained by the position detection unit 133 and registers it in the device table stored in the semiconductor memory 115. To do.
  • the agent 14 operates the operation target device under the control of the operation control unit 134, and the recognition unit 132 recognizes the operation state of the operation target device after the operation, and displays the operation state label of the operation state. If acquired, the operating state label is transmitted from the communication unit 114 to the device separating apparatus 16 via the network 15.
  • the operation control unit 134 searches, for example, from the server on the Internet what operating state the operation target device can take as its operation state, and from among the operation states that the operation target device can take The operation state to be taken by the operation target device can be selected as the instruction operation state. In this case, the operation control unit 134 can control the operation of the operation target device so as to be in the instruction operation state. Furthermore, in this case, the recognition unit 132 can recognize the instruction operation state as the operation state of the operation target device.
  • FIG. 16 is a diagram showing an example of a device table stored in the semiconductor memory 115 of FIG.
  • the agent 14 autonomously moves in the user's home, and the recognition unit 132 receives the image signal supplied from the image sensors 122L and 122R to the control unit 111 via the A / D conversion unit 112 during the movement. Based on the above, the device is recognized, and the device is selected as a candidate device that is a candidate for the operation target device.
  • the recognition unit 132 acquires the device label of the candidate device, and causes the position information detection unit 133 to detect the position information of the candidate device. Then, the recognizing unit 132 determines whether the set of the device label and the position information of the candidate device is registered in the device table.
  • the recognition unit 132 When the set of the device label and the position information of the candidate device is registered in the device table, the recognition unit 132 recognizes that the candidate device has already been selected as the operation target device. Then, the recognizing unit 132 reselects another device as a candidate device, and thereafter repeats the same processing.
  • the recognition unit 132 selects the candidate device as the operation target device and controls the table generation unit 136.
  • the device label of the operation target device (which is a candidate device) is associated with the position information and registered in the device table stored in the semiconductor memory 115.
  • FIG. 17 is a block diagram illustrating a configuration example of the label acquisition unit 35 in FIG. 5 when the agent 14 and the device separating apparatus 16 operate in cooperation.
  • the label acquisition unit 35 includes acquisition units 201 and 202, a labeling unit 203, a correspondence storage unit 204, and a control unit 205.
  • the device information of the operation target device is information related to the operation target device, and in this embodiment, the device information includes a device label of the operation target device, position information, and an operating state label.
  • each operation of each device is performed using the current waveform Y t as the sum data regarding the sum of the currents consumed by all devices in the user's house.
  • the current consumption of each device is separated (the inherent waveform W ( m) k is a current consumption in operating state of the apparatus #m corresponding to the state #k factors #m, is separated from the current waveform Y t), it can be said that.
  • the updating of the specific waveform W (m) k as pattern information the specific waveform W (m) k, consumed by the device #m consumption current representing its own waveform W (m) k corresponds to the factor #m
  • the state probability ⁇ S (m) t > as possibility information representing the possibility of being generated is obtained using the current waveform Y t and is based on the state probability ⁇ S (m) t > as the possibility information
  • the characteristic waveform W (m) k as the pattern information is updated.
  • the acquisition unit 202 performs state probability ⁇ S (m) t > as possibility information obtained by the state estimation unit 32 for the characteristic waveform W (m) k (having the state #k) in the device separation as described above. Is acquired from the state estimation unit 32.
  • the labeling unit 203 registers the correspondence information obtained as a result of labeling in the correspondence table stored in the correspondence storage unit 204.
  • the correspondence relationship storage unit 204 stores a correspondence relationship table.
  • control unit 205 monitors the labeling unit 203 and, based on the monitoring result, communicates with the communication unit 30 (FIG. 5) and the agent 14 (the communication unit 114) via the network 15. , Exchange necessary messages.
  • FIG. 18 is a diagram showing an example of a correspondence table stored in the correspondence storage unit 204 of FIG.
  • the device label, the position information, the factor #m corresponding to the device (factor number #m as information specifying the device), and the state map are associated with the device at the user's home.
  • the state #k of factor #m corresponding to device #m (state number #k as information for specifying) and the operation state label of the operation state of device #m are associated with each other.
  • the device label of the association information and the factor #m it is possible to recognize the factor #m corresponding to the device represented by the device label and to recognize the device label of the device corresponding to the factor #m.
  • the device recognizes the factor #m state #k corresponding to the operation state of the device indicated by the device label, and the device corresponding to the factor #m state #k ( The operating label of the operating state of the device corresponding to the factor #m can be recognized.
  • the factor #m state #k corresponding to the device #m is associated with the operating state label of the operating state of the device #m. It is possible to recognize the correspondence with the operating state (the operating state label) of the device corresponding to the factor #m.
  • the factor #m state #k is because it has a unique waveform W (m) k as pattern information, a state map, the specific waveform W (m) k as the pattern information, the inherent waveform W (m ) It can be said that the operating state label of the operating state of the device #m that consumes the current represented by k is labeled.
  • the state map in which the operation state label as described above is labeled with the unique waveform W (m) k (having the state #k) as the pattern information is associated with the device label. Therefore, the characteristic waveform W (m) k as the pattern information is labeled with the device label of the device #m that consumes the current represented by the specific waveform W (m) k. .
  • the device waveform of the device that consumes the current represented by the waveform W (m) k and the operation status label of the operation status of the device are included in the waveform W (m) k as the pattern information. Can be said to be labeled.
  • the device label of the device corresponding to the factor #m can be recognized. Furthermore, according to the association information, it is possible to recognize the operating state label of the operating state (of the device #m) corresponding to the state #k of the factor #m.
  • FIG. 19 is a flowchart showing an example of processing performed by the agent 14 in FIG. 15 as labeling processing for registering the association information in the correspondence table.
  • step S101 the recognition unit 132 detects, for example, a device reflected in the visual sense of the agent 14 based on an image signal supplied from the image sensors 122L and 122R to the control unit 111 via the A / D conversion unit 112 ( And any one of the devices is selected as a candidate device, and the process proceeds to step S102.
  • step S102 the recognition unit 132 generates (acquires) the device label of the candidate device, the position information detection unit 133 detects the position information of the candidate device, and the process proceeds to step S103.
  • step S103 the recognition unit 132 determines whether the candidate device is not registered in the device table (FIG. 16) based on the set of the device label and the position information of the candidate device.
  • step S102 If it is determined in step S102 that the candidate device is not registered, that is, if the set of the device label and the position information of the candidate device is already registered in the device table, the process returns to step S101. Thereafter, the same processing is repeated.
  • step S102 If it is determined in step S102 that the candidate device is not registered, that is, if the set of the device label and the position information of the candidate device is not registered in the device table, the process proceeds to step S104.
  • the recognition unit 132 selects the candidate device as the operation target device and controls the table generation unit 136 to associate the device label of the operation target device with the position information, and stores the device label in the semiconductor memory 115. Register in the device table.
  • step S104 the recognizing unit 132 controls the communication unit 114 to transmit the device label and position information of the operation target device to the device separating apparatus 16, and the process proceeds to step S105.
  • the device label and the position information of the operation target device transmitted from the communication unit 114 of the agent 14 are received by the communication unit 30 (FIG. 5) of the device separation apparatus 16 via the network 15, and the label acquisition unit 35. (FIG. 17).
  • step S105 the operation control unit 134 waits for the RESULT: READY message to be transmitted from the device separating apparatus 16, and then causes the agent 14 to operate the device to be operated in a predetermined operating state (for example, an operation in which the power is on).
  • the operation target device is operated so as to be in the state), and the process proceeds to step S106.
  • step S106 the recognition unit 132 recognizes the operation state of the operation target device, generates (acquires) an operation state label indicating the operation state, and the process proceeds to step S107.
  • the operating state label of the operation target device transmitted from the communication unit 114 of the agent 14 is received by the communication unit 30 (FIG. 5) of the device separating apparatus 16 via the network 15, and the label acquisition unit 35 (FIG. 5). 17).
  • step S108 the operation control unit 134 determines whether a RESULT: FINISHED message has been received from the device separation device 16.
  • the RESULT: FINISHED message is a message indicating that the label acquisition unit 35 (FIG. 17) of the device separating apparatus 16 has registered the association information of the operation target device in the correspondence table (FIG. 18).
  • the data is transmitted from the control unit 205 of the acquisition unit 35 to the agent 14 via the communication unit 30 (FIG. 5) and the network 15.
  • step S108 it is determined whether the RESULT: FINISHED message as described above is transmitted from the device separation device 16 and received by the communication unit 114 (FIG. 15).
  • the RESULT: MORE message is a message requesting to change the operation state of the operation target device to another operation state, and is transmitted from the control unit 205 of the label acquisition unit 35 (FIG. 17) to the communication unit 30 (FIG. 5) and sent to the agent 14 via the network 15.
  • step S109 it is determined whether or not the RESULT: MORE message as described above is transmitted from the device separation device 16 and received by the communication unit 114 (FIG. 15).
  • step S109 If it is determined in step S109 that the RESULT: MORE message has not been received, the process returns to step S108, and the same process is repeated thereafter.
  • step S109 determines whether the RESULT: MORE message has been received. If it is determined in step S109 that the RESULT: MORE message has been received, the process proceeds to step S110, and the operation control unit 134 causes the agent 14 to change the operation target device to an operation state different from the current operation state. For example, the operation target device is operated so that the power source is switched from the on-operation state to the off-operation state, and the process proceeds to step S111.
  • step S111 the recognition unit 132 recognizes the operation state of the operation target device after the operation by the agent in step S110, generates (acquires) an operation state label indicating the operation state, Proceed to S112.
  • step S112 the recognizing unit 132 controls the communication unit 114 to cause the device separating apparatus 16 to transmit the operation state label of the operation state of the operation target device after the operation by the agent in step S110 is performed. Returns to step S108, and the same processing is repeated thereafter.
  • step S108 When it is determined in step S108 that the RESULT: FINISHED message has been received, that is, in the label acquisition unit 35 of the device separating apparatus 16, the association information of the operation target device is registered in the correspondence table (FIG. 18). In the case where it is found, the process returns to step S101, and the same process is repeated thereafter.
  • FIG. 20 is a flowchart showing an example of processing performed by the label acquisition unit 35 (FIG. 17) of the device separation apparatus 16 as labeling processing for registering the association information in the correspondence table.
  • step S121 the acquisition unit 201 waits for the device label and position information of the operation target device to be transmitted from the agent 14, and acquires the device label and position information.
  • the agent 14 transmits the device label and position information of the operation target device in step S104 of FIG. Since the device label and position information of the operation target device from the agent 14 are received by the communication unit 30 of the device separation device 16 (FIG. 5), the acquisition unit 201 receives the device of the operation target device received by the communication unit 30. The label and position information are acquired and supplied to the labeling unit 203.
  • step S122 the acquisition unit 201 waits for the operation state label of the operation state of the operation target device to be transmitted from the agent 14, and acquires the operation state label.
  • the agent 14 transmits an operation state label indicating the operation state of the operation target device in steps S107 and S122 of FIG. Since the operation state label of the operation state of the operation target device from the agent 14 is received by the communication unit 30 of the device separation device 16 (FIG. 5), the acquisition unit 201 receives the operation target device received by the communication unit 30. The operating state label of the operating state is acquired and supplied to the labeling unit 203.
  • step S122 the acquisition unit 202 obtains each factor obtained by device separation using the current waveform Y t of the user's home when the operation target device is in the current operating state.
  • State probabilities (posterior probabilities) ⁇ S (m) t > as possibility information about the characteristic waveform W (m) k as pattern information of each state #k of #m are obtained from the state estimation unit 32 (FIG. 5). The information is acquired and supplied to the labeling unit 203, and the process proceeds to step S124.
  • step S124 the labeling unit 203, based on the state probability ⁇ S (m) t > from the acquisition unit 202, of the characteristic waveform W (m) k as the pattern information of each state #k of each factor #m.
  • the target specific waveform W (m) k representing the current consumption consumed in the current operating state of the operation target device is identified from the inside, and the process proceeds to step S125.
  • step S124 for example, the eigen waveforms W (1) 1 , W (1) 2 ,..., W (1 ) possessed by all states # 1 to #k of all factors # 1 to #M, respectively.
  • the natural waveform can be identified as the target natural waveform W (m) k .
  • the specific waveform with the lowest state probability ⁇ S (m) t > is selected as the target specific waveform W (m) k Can be specified.
  • target-specific waveform W (m) k of state probabilities ⁇ S (m) t> i.e., the factor #m with object inherent waveform W (m) k states #k state
  • the probability that the target specific waveform W (m) k represents the current consumption in the current operating state of the operation target device is determined.
  • the target is unique waveform W (m) k state probability of ⁇ S (m) t>, if it is less than 1.0 the probability of more than a threshold value close to 1.0, certainly the object inherent waveform W (m) k It is determined to likely target specific waveform W (m) k state probability of ⁇ S (m) t>, if not a probability more than a threshold value, it is determined that the target-specific waveform W (m) k is not like certain.
  • step S125 If it is determined in step S125 that the target specific waveform W (m) k is not accurate, the process proceeds to step S126, and the control unit 205 controls the operation target device to change the current consumption of the operation target device.
  • a RESULT: MORE message for requesting to change the operating state to another operating state is generated and transmitted to the agent 14 from the communication unit 30 (FIG. 5). And a process returns to step S122 from step S126, and the same process is repeated hereafter.
  • step S125 if it is determined in step S125 that the target specific waveform W (m) k is likely, the process proceeds to step S127, and the labeling unit 203 acquires the target specific waveform W (m) k in the acquisition unit 201.
  • the association information (FIG. 18) that associates the device label and the position information of the operation target device with the operation status label is generated.
  • the labeling unit 203 sets the factor #m having the state #k as the target specific waveform W (m) k as the corresponding factor #m corresponding to the operation target device, and the corresponding factor #m (factor number #m). ) And the device label and position information of the operation target device are associated with each other and included in the association information of the operation target device.
  • the labeling unit 203 sets the corresponding factor #m state #k having the target specific waveform W (m) k as the corresponding state #k corresponding to the current operating state of the operation target device, and In the attachment information state map (FIG. 18), the correspondence state #k (the state number #k) and the operation state label of the current operation state of the operation target device are registered in association with each other.
  • step S128 the control unit 205 generates a RESULT: FINISHED message indicating that the association information of the operation target device has been registered in the correspondence table, and transmits the RESULT: FINISHED message to the agent 14 from the communication unit 30 (FIG. 5). And a process returns to step S121 from step S128, and the same process is repeated hereafter.
  • the agent 14 at the user's home operates the operation target device and recognizes the operating state of the operation target device. Then, the device label representing the operation target device and the operation state label representing the operation state of the operation target device are transmitted from the agent 14 to the device separation apparatus 16.
  • the device separation device 16 obtains the operation target device label and the operation state label from the agent 14, and the state probability as possibility information obtained in device separation using the current waveform Y of the user's house ⁇ S (m) t > is obtained. Then, in the device separation device 16, the unique waveform as the pattern information indicating the current consumption consumed in the current operating state of the operation target device based on the state probability ⁇ S (m) t > as the possibility information. W (m) k is specified, and the device label and the operating state label of the operation target device are associated with the specific waveform W (m) k as the pattern information.
  • the agent 14 transmits a device label representing the device and an operation state label representing the operation state of the device to the device separation device 16, and the device separation device 16 uses the unique waveform W (m) k as pattern information. based on the state probability of potentially information indicating the possibility of being consumed current consumption represents ⁇ S (m) t>, the specific waveform W (m) k as pattern information, equipment label and health labels Therefore, it is possible to present which device in the user's home is in what operating state by the device label and the operating state label.
  • a person recognizes the device that consumes the current consumption represented by the pattern information associated with the device label and the operating state label, and the operating state of the device.
  • the operating state of the operation target device can be changed autonomously by the agent 14 in addition to being changed according to the RESULT: MORE message transmitted from the device separating apparatus 16 to the agent 14. That is, the agent 14 can take an action of operating the operation target device autonomously so as to change the operating state of the operation target device.
  • the data output unit 36 includes an acquisition unit 211, a detection target storage unit 212, and an operating state detection unit 213.
  • the operating state detection request message transmitted by the agent 14 includes the device label of the detection target device.
  • the operating state detection unit 213 selects the association information including the device label stored in the detection target storage unit 212 from the correspondence table as the target association information, and the factor # included in the target association information A state probability ⁇ S (m) t > as possibility information of each state #k of m is acquired from the state estimation unit 32.
  • the operating state detection unit 213 displays the operating state label associated with the state #k having the highest state probability ⁇ S (m) t > in the state map included in the target association information.
  • the target operating state label representing the current operating state is transmitted from the communication unit 30 (FIG. 5) to the agent 14 together with the device label of the detection target device.
  • FIG. 22 is a flowchart illustrating an example of a process performed by the agent 14 of FIG. 15 as an operation state notification process for notifying the user of the operation state of the user's home device.
  • step S141 the notification control unit 135 determines a detection target device (device to be detected) from devices whose device labels are registered in the device table (FIG. 16) stored in the semiconductor memory 115.
  • the agent 14 cannot recognize the operating state from the current location (for example, from the current location, the image sensor).
  • One or more of the devices that cannot be photographed by 122L and 122R can be determined as detection target devices.
  • the notification control unit 135 After determining the detection target device, the notification control unit 135 includes, from the communication unit 114, a device separation device that includes an operation state detection request message that includes the device label of the detection target device and requests detection of the operation state of the detection target device. 16 to transmit.
  • the MONITOR: TV # 1 message that includes the device label and requests detection of the operation state of the detection target device is sent as an operation state detection request message Is done.
  • the notification control unit 135 After transmitting the operating state detection request message, the notification control unit 135 waits for a RESULT: FINISHED message indicating that the reception of the request for detecting the operating state of the detection target device has been completed from the device separation device 16. Then, the RESULT: FINISHED message is acquired, and the process proceeds from step S141 to step S142.
  • the device separating apparatus 16 when the device separating apparatus 16 receives the operation state detection request message from the agent 14, it transmits a RESULT: FINISHED message to the agent 14.
  • the communication unit 114 receives the RESULT: FINISHED message from the device separation device 16 and supplies it to the notification control unit 135. Therefore, the notification control unit 135 is supplied from the communication unit 114 as described above.
  • the RESULT: FINISHED message from the agent 14 is acquired.
  • step S142 the notification control unit 135 waits for the device label and the operation state label of the detection target device to be transmitted from the device separation device 16, and acquires the device label and the operation state label. The process proceeds to step S143.
  • the device separation device 16 detects the operating state of the detection target device and transmits the operating state label of the operating state together with the device label of the detection target device.
  • the communication unit 114 receives the device label and the operating state label of the detection target device from the device separation device 16 and supplies them to the notification control unit 135. The device label and the operating state label of the detection target device supplied from 114 are acquired.
  • step S143 the notification control unit 135 notifies the user of the operating state of the device to be detected of the device label acquired in step S142 according to the operating state label acquired in step S142, and the process proceeds to step S144. move on.
  • the notification control unit 135 causes the agent 14 to output a message indicating that the device to be detected of the device label is in the operating state represented by the operating state label by the synthesized sound.
  • the notification control unit 135 communicates with a display device among the devices at the user's home via the communication unit 114, and the device targeted for detection of the device label is in the operation state represented by the operation state label. Can be output by voice or displayed on the screen.
  • the notification control unit 135 communicates via the communication unit 114 so that the user has a message indicating that the device label detection target device is in the operating state indicated by the operating state label.
  • a mobile terminal such as a smartphone, it is possible to notify the user of the operating state of the detection target device.
  • step S144 the notification control unit 135 displays a RESULT: CHANGE message indicating that the operation state of the detection target device has changed, the device label of the detection target device, and the operation state before and after the change from the device separation device 16. Waiting for the operating status label to be transmitted, the RESULT: CHANGE message, the device label and the operating status label are acquired, and the process proceeds to step S145.
  • the device separation device 16 detects the operating state of the detection target device, and when the operating state changes, along with the RESULT: CHANGE message, the device label of the detection target device and the operating state indicating the operating state before and after the change.
  • Send a label the agent 14, the communication unit 114 receives the RESULT: CHANGE message from the device separation device 16, the device label of the detection target device, and the operation state label indicating the operation state before and after the change, and the notification control unit 135. Therefore, the notification control unit 135 supplies the RESULT: CHANGE message, the device label of the detection target device, and the operation state label indicating the operation state before and after the change, which are supplied from the communication unit 114 in this manner. To get.
  • step S145 the notification control unit 135 notifies the user of the operation state (change) of the detection target device of the device label acquired in step S144 according to the operation state label acquired in step S144. finish.
  • the device label of the detection target device is “TV # 1” representing a certain TV
  • the operation state label indicating the operation state before the change indicates that the power is turned off
  • the agent 14 If the operating state label indicating the operating state indicates that the power is on, the agent 14 generates a message such as “TV # 1 has been turned on”, for example. Then, by outputting as described in step S143, the operating state (change) of the detection target device can be notified to the user.
  • the device separation device 16 can also transmit the position information of the detection target device together with the device label and the operation state label of the detection target device to the agent 14.
  • the agent 14 can generate a message notifying the user of the operating state (change) of the detection target device using the position information of the detection target device.
  • the device label of the detection target device is “TV # 1” representing a certain TV
  • the operation state label indicating the operation state before the change indicates that the power is turned off
  • the location information of the detection target device recognizes that the detection target device is installed in the living room of the user's house
  • the agent 14 can generate a message such as “Someone has started watching TV # 1 in the living room” using the position information of the device to be detected.
  • the device label of the detection target device is a label representing a certain illumination
  • the operation state label representing the operation state before the change represents that the illumination is turned off, and represents the operation state after the change. Recognizing that the lighting as the detection target device is installed at the entrance of the user's house from the position information of the detection target device when the operating state label indicates that the lighting is on.
  • the agent 14 can generate a message such as “Entrance electricity (lighting) has been turned on” using the position information of the detection target device.
  • FIG. 23 is a flowchart showing an example of processing performed by the data output unit 36 (FIG. 21) of the device separation apparatus 16 as the operation state notification processing for notifying the user of the operation state of the device at the user's home.
  • step S151 the acquisition unit 211 waits for an operating state detection request message for requesting detection of the operating state of the detection target device in step S141 of FIG.
  • the request message is acquired, and the process proceeds to step S152.
  • the acquisition unit 211 receives the operation state detection request message received by the communication unit 30. get.
  • step S152 the acquisition unit 211 supplies the device label of the detection target device included in the operation state detection request message to the detection target storage unit 212 and registers it in the detection list stored in the detection target storage unit 212.
  • the acquisition unit 211 generates a RESULT: FINISHED message indicating that the reception of the request for detecting the operating state of the detection target device is completed, and transmits the message to the agent 14 from the communication unit 30 (FIG. 5).
  • the process proceeds from step S152 to step S153.
  • step S153 the operating state detection unit 213 is obtained by device separation using the current waveform Y t of the user's home including the current consumption of the detection target device whose device label is registered in the detection list of the detection target storage unit 212.
  • State probabilities posterior probabilities
  • the process proceeds to step S154.
  • step S154 the operating state detection unit 213 refers to the correspondence relationship table (FIG. 18) stored in the correspondence relationship storage unit 204, and calculates the factor #m associated with the device label of the detection target device. Recognized as factor #m corresponding to.
  • the operating state detection unit 213 refers to the correspondence table (FIG. 18) stored in the correspondence storage unit 204, and among the state probabilities ⁇ S (m) t > acquired in step S153, the detection target device. Is detected based on the state probability ⁇ S (m) t > of each state #k of factor #m corresponding to.
  • the operating state detection unit 213 uses the factor #m state #k corresponding to the detection target device in the state map associated with the device label of the detection target device in the correspondence table stored in the correspondence storage unit 204.
  • the operation state indicated by the operation state label associated with the state #k having the highest state probability ⁇ S (m) t > is detected as the operation state of the detection target device.
  • step S154 proceeds from step S154 to step S155, and the operation state detection unit 213 receives the device label of the detection target device and the operation state label (the operation state label of the operation state detected in step S154) as the communication unit 30.
  • the agent 14 is transmitted from (FIG. 5), and the process proceeds to step S156.
  • step S155 the position information of the detection target device registered in the correspondence table (FIG. 18) in association with the device label of the detection target device is also provided together with the device label of the detection target device and the operation state label. , Can be sent to the agent 14.
  • step S156 the operating state detection unit 213 waits for the device separation using the current waveform Y t at the next time t in the user's house, including the current consumption of the detection target device, for example.
  • the state probability (posterior probability) ⁇ S (m) t > of each state #k of each factor #m obtained by the separation is acquired from the state estimation unit 32 (FIG. 5), and the process proceeds to step S157.
  • step S157 the operation state detection unit 213 detects the current operation state of the detection target device based on the state probability ⁇ S (m) t > in the same manner as in step S154, and the process proceeds to step S158.
  • step S158 If it is determined in step S158 that the operating state of the detection target device has not changed, the process returns to step S156, and the same process is repeated thereafter.
  • step S158 If it is determined in step S158 that the operation state of the detection target device has changed, the process proceeds to step S159, and the operation state detection unit 213 indicates that the operation state of the detection target device has changed.
  • the message, the device label of the detection target device, and the operation state label indicating the operation state before and after the change of the detection target device are transmitted from the communication unit 30 (FIG. 5) to the agent 14, and the process proceeds to step S160. move on.
  • step S160 the operating state detection unit 213 deletes the device label of the detection target device that has transmitted the device label to the agent 14 from the detection list in the detection target storage unit 212, and the process ends.
  • step S153 to step S160 is performed when the plurality of device labels (of the detection target device) are registered in the detection list of the detection target storage unit 212. Done for each.
  • the device separation device 16 detects the operating state of the detection target device based on the state probability ⁇ S (m) t > as the possibility information, and determines the device label and the operating state label of the detection target device.
  • the agent 14 acquires the device label and the operation state label of the detection target device from the device separation apparatus 16 and transmits the operation state of the detection target device indicated by the device label according to the operation state label. For example, the agent 14 notifies the operating status of a device that cannot recognize the operating status from the current location (for example, a device that cannot be imaged by the image sensors 122L and 122R from the current location). It can be recognized on the spot and notified to the user.
  • the agent 14 determines all devices in the user's home (all devices whose device labels are registered in the device table (FIG. 16)) as detection target devices, so that the agent 14 The operating state of the device can be recognized in real time.
  • the agent 14 is notified of the operating state of the detection target device according to the operating state label of the detection target device obtained from the device separation device 16.
  • an action corresponding to the operation state of the detection target device can be taken.
  • the agent 14 recognizes that the user has returned home and welcomes the user to the entrance. You can take action to go to.
  • the movable agent 14 is used as a control device for controlling the device at the user's home.
  • a control device for controlling the device in addition to a movable robot such as the agent 14, A device (for example, a home network server) that can control the power on / off of the device and the setting (change) of the operation mode by wireless or wired communication via a home network or the like can be employed. .
  • the inherent waveform W (m) k obtained for the inherent waveform W (m) k representing the current consumption in each operating state of each device.
  • the current consumption of each device is separated by obtaining (updating ) the natural waveform W (m) k
  • equipment separation was adopted, other equipment separation using any possibility information that represents the possibility that the current consumption represented by the pattern information other than the state probability ⁇ S (m) t > is consumed is adopted. be able to.
  • an error between the predicted value of the total data (current waveform Y t ) obtained using the current consumption represented by the pattern information and the actual total data is adopted, and based on the error, Device separation that separates the current consumption of each device can be employed by updating the pattern information so as to reduce the error.
  • the series of processing of the agent 14 and the device separation device 16 described above can be performed by hardware or can be performed by software.
  • a program constituting the software is installed in a computer or the like.
  • FIG. 24 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
  • the program can be recorded in advance in a hard disk 305 or ROM 303 as a recording medium built in the computer.
  • the program can be stored (recorded) in a removable recording medium 311.
  • a removable recording medium 311 can be provided as so-called package software.
  • examples of the removable recording medium 311 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disc, a DVD (Digital Versatile Disc), a magnetic disc, a semiconductor memory, and the like.
  • the computer includes a CPU (Central Processing Unit) 302, and an input / output interface 310 is connected to the CPU 302 via the bus 301.
  • a CPU Central Processing Unit
  • an input / output interface 310 is connected to the CPU 302 via the bus 301.
  • the CPU 302 executes a program stored in a ROM (Read Only Memory) 303 accordingly. .
  • the CPU 302 loads a program stored in the hard disk 305 to a RAM (Random Access Memory) 304 and executes it.
  • the CPU 302 performs processing according to the flowchart described above or processing performed by the configuration of the block diagram described above. Then, the CPU 302 causes the processing result to be output from the output unit 306 or transmitted from the communication unit 308 via the input / output interface 310, or recorded on the hard disk 305, for example, as necessary.
  • the input unit 307 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 306 includes an LCD (Liquid Crystal Display), a speaker, and the like.
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
  • the program may be processed by one computer (processor), or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the present technology can take a cloud computing configuration in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can take the following structures.
  • a possibility information acquisition unit for acquiring the possibility information obtained in device separation for separating the current consumption of each device; Based on the possibility information, the pattern information indicating the current consumption consumed in the current operating state of the device represented by the device label is specified, and the device label and the operating state label are associated with the pattern information
  • An information processing apparatus comprising: a labeling unit that performs labeling. ⁇ 2> Based on the possibility information, the pattern information determines the probability of representing the current consumption of the current operating state of the device represented by the device label, and if the pattern information is not certain, the control device The information processing apparatus according to ⁇ 1>, wherein the operation state of the device represented by the device label is requested to be changed to another operation state.
  • ⁇ 3> Based on the possibility information, further comprising an operating state detection unit that detects the current operating state of the device, The information according to ⁇ 1> or ⁇ 2>, wherein the device label and the operation state label associated with the pattern information representing the current consumption consumed in the current operation state of the device are transmitted to the control device. Processing equipment. ⁇ 4> The device information acquisition unit also acquires position information indicating the position of the device, The labeling unit associates the position information with the pattern information together with the device label and the operation state label, The position information is also transmitted to the control device together with the device label and the operation state label associated with the pattern information indicating the current consumption consumed in the current operation state of the device. Information processing device.
  • the FHMM is A unique waveform unique to each state of each factor, used to determine the average of the observed values of the summation data observed in the combination of states of each factor; The variance of the observed value of the sum data observed in the combination of states of each factor; The initial state probability that the state of each factor is the initial state, and The transition probability that the state of each factor transitions is as a model parameter, In the FHMM learning, As the pattern information, waveform separation learning for obtaining the unique waveform; Distributed learning to determine the variance; The information processing device according to ⁇ 5>, wherein the state variation learning for obtaining the initial state probability and the transition probability is performed.
  • the pattern information that represents the current consumption in each operating state of each device, and that the current consumption represented by the pattern information may be consumed.
  • An information processing method comprising the steps of: ⁇ 9> Operate the device, Recognizing the operating state of the device, From the control device that transmits the device label that represents the device and the operation state label that represents the operation state of the device, the device information acquisition unit that acquires the device label and the operation state label, Using the sum data on the sum of the current consumed by multiple devices, it is possible to obtain the pattern information that represents the current consumption in each operating state of each device, and that the current consumption represented by the pattern information may be
  • a possibility information acquisition unit for acquiring the possibility information obtained in device separation for separating the current consumption of each device; Based on the possibility information, the pattern information indicating the current consumption consumed in the current operating state of the device represented by the device label is specified, and the device label and the operating state label are associated with the pattern information
  • the device separation device that performs device separation that separates the current consumption of each device, the device label representing the device, and the operating state of the device are represented.
  • a control device comprising: a communication unit that transmits an operating state label. ⁇ 11> The control device according to ⁇ 10>, wherein the control device is a movable agent. ⁇ 12> The control device according to ⁇ 11>, wherein the operation control unit controls the operation of the device so as to change the operation state of the device to another operation state in response to a request from the device separation device.
  • an operation state label representing an operation state of the device and a device label representing the device obtained based on the possibility information are acquired, and the device label is obtained according to the operation state label.
  • the control apparatus in any one of ⁇ 10> thru
  • the recognition unit also recognizes the position of the device,
  • the communication unit also transmits position information indicating the position of the device to the device separating apparatus, The control device according to ⁇ 13>, wherein the notification control unit controls notification of an operation state of the device represented by the device label according to the operation state label and the position information.
  • ⁇ 15> The control unit according to any one of ⁇ 10> to ⁇ 14>, wherein the recognition unit recognizes the device and an operating state of the device by listening to a user.
  • ⁇ 16> A step of operating the device; Recognizing the operating state of the device; Using the sum data on the sum of the current consumed by multiple devices, it is possible to obtain the pattern information that represents the current consumption in each operating state of each device, and that the current consumption represented by the pattern information may be consumed.
  • the device separation device that performs device separation that separates the current consumption of each device, the device label representing the device, and the operating state of the device are represented. Sending a health label.
  • An operation control unit for controlling the operation of the device;
  • a recognition unit for recognizing the operating state of the device;
  • Using the sum data on the sum of the current consumed by multiple devices it is possible to obtain the pattern information that represents the current consumption in each operating state of each device, and that the current consumption represented by the pattern information may be consumed.
  • the device separation device that performs device separation that separates the current consumption of each device, the device label representing the device, and the operating state of the device are represented.
  • a program that causes a computer to function as a communication unit that transmits operating status labels.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Power Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Automation & Control Theory (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Remote Monitoring And Control Of Power-Distribution Networks (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Selective Calling Equipment (AREA)

Abstract

 本技術は、家庭内等の複数の機器それぞれの消費電力等を求める機器分離を、迅速に行うことができる制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラムに関する。 エージェント等の制御装置は、機器を操作し、機器の稼働状態を認識し、機器を表す機器ラベルと機器の稼働状態を表す稼働状態ラベルを送信する。機器分離装置等の情報処理装置は、制御装置から、機器ラベルと稼働状態ラベルを取得する。さらに、情報処理装置は、各機器の消費電流を分離する機器分離において得られる可能性情報を取得する。可能性情報は、機器で、パターン情報が表す消費電流が消費されている可能性を表す。情報処理装置は、可能性情報に基づいて、機器の現在の稼働状態の消費電流を表すパターン情報を特定し、そのパターン情報に、機器ラベルと稼働状態ラベルを対応付けるラベル付けを行う。本技術は、例えば、各機器の消費電流を分離する機器分離に適用できる。

Description

制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム
 本技術は、制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラムに関し、特に、例えば、家庭等の複数の機器それぞれの消費電力等を求める機器分離を、迅速に行うことができるようにする制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラムに関する。
 例えば、家庭等において、分電盤(配電盤)で計測した電流の情報から、その先に繋がっている家庭内の家電(家庭用電化製品)等の機器(電気機器、電子機器)の個々の消費電力や消費電流等を求めるNILM(Non-Intrusive Load Monitoring)と呼ばれる技術が注目されている。
 本件出願人は、FHMM(Factorial Hidden Markov Model)を用いて、稼働状態が、オンとオフの2状態だけの機器はもちろん、3状態以上の稼働状態がある機器についても、分電盤で計測した電流の情報から、各機器の消費電流等を、容易かつ正確に求めるNILMとしての機器分離(家電分離)の技術を、先に提案している(例えば、特許文献1を参照)。
特開2013-210755号公報
 分電盤で計測した電流の情報から、各機器の消費電流等を求める機器分離を行うには、機器の稼働状態が変化することにより、すなわち、例えば、機器がオンになったり、オフになったりすることにより、機器の消費電流が変化することが必要である。
 機器の稼働状態は、例えば、ユーザの操作によって変化させることができるが、ユーザの操作に頼るのでは、機器分離を行うのに時間を要する。
 本技術は、このような状況に鑑みてなされたものであり、機器分離を、迅速に行うことができるようにするものである。
 本技術の情報処理装置、又は、第1のプログラムは、機器を操作し、前記機器の稼働状態を認識し、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得する機器情報取得部と、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得する可能性情報取得部と、前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うラベル付け部とを備える情報処理装置、又は、そのような情報処理装置として、コンピュータを機能させるためのプログラムである。
 本技術の情報処理方法は、機器を操作し、前記機器の稼働状態を認識し、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得するステップと、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得するステップと、前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うステップとを含む情報処理方法である。
 本技術の情報処理装置、情報処理方法、及び、第1のプログラムにおいては、機器を操作し、前記機器の稼働状態を認識し、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する制御装置から、前記機器ラベル、及び、前記稼働状態ラベルが取得される。また、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報が取得される。そして、前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報が特定され、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けが行われる。
 本技術の制御装置、又は、第2のプログラムは、機器の操作を制御する操作制御部と、前記機器の稼働状態を認識する認識部と、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する通信部とを備える制御装置、又は、そのような制御装置として、コンピュータを機能させるためのプログラムである。
 本技術の制御方法は、機器を操作するステップと、前記機器の稼働状態を認識するステップと、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信するステップとを含む制御方法である。
 本技術の制御装置、制御方法、及び、第2のプログラムにおいては、機器が操作され、前記機器の稼働状態が認識される。そして、複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルが送信される。
 なお、情報処理装置や制御装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本技術によれば、機器分離を、迅速に行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した機器分離システムの一実施の形態の構成例を示す図である。 機器分離システムの処理の例を説明する図である。 機器分離装置16で行われる機器分離の概要を説明する図である。 機器分離で行われる波形分離学習の概要を説明する図である。 機器分離装置16の構成例を示すブロックである。 FHMMを説明する図である。 FHMMによる機器分離の定式化の概要を説明する図である。 機器分離装置16が行う、EMアルゴリズムに従ったFHMMの学習の処理(学習処理)を説明するフローチャートである。 機器分離装置16がステップS13で行うEステップの処理を説明するフローチャートである。 FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zと、HMMの前向き確率αt,i、及び、後ろ向き確率βt,jとの関係を説明する図である。 機器分離装置16がステップS14で行うMステップの処理を説明するフローチャートである。 機器分離装置16が行う、機器#mの情報を提示する情報提示処理を説明するフローチャートである。 情報提示処理で行われる消費電力U(m)の表示例を示す図である。 エージェント14の外観構成例を示す斜視図である。 エージェント14の内部構成例を示すブロック図である。 半導体メモリ115に記憶される機器テーブルの例を示す図である。 エージェント14と機器分離装置16とが協調して動作する場合のラベル取得部35の構成例を示すブロック図である。 対応関係記憶部204に記憶される対応関係テーブルの例を示す図である。 対応付け情報を対応関係テーブルに登録するためのラベル付け処理として、エージェント14が行う処理の例を示すフローチャートである。 対応付け情報を対応関係テーブルに登録するためのラベル付け処理として、ラベル取得部35が行う処理の例を示すフローチャートである。 エージェント14と機器分離装置16とが協調して動作する場合のデータ出力部36の構成例を示すブロック図である。 ユーザ宅の機器の稼働状態をユーザに報知する稼働状態報知処理として、エージェント14が行う処理の例を示すフローチャートである。 ユーザ宅の機器の稼働状態をユーザに報知する稼働状態報知処理として、データ出力部36が行う処理の例を示すフローチャートである。 本技術を適用したコンピュータの一実施の形態のハードウェアの構成例を示すブロック図である。
 <機器分離システムの構成例>
 図1は、本技術を適用した機器分離システムの一実施の形態の構成例を示す図である。
 ユーザ宅(家庭や会社等)には、分電盤11が取り付けられている。電力会社から提供される電力は、電力計12を経由して、分電盤11に引き込まれ、分電盤11から、ユーザ宅の(コンセント等に接続された)家電等の機器に供給される。
 電流センサ13は、例えば、分電盤11に取り付けられている。電流センサ13は、分電盤11の、ユーザ宅内に電力を供給している、いわば根元の1箇所において、ユーザ宅内のすべての機器(1以上の機器)で消費されている電流の総和を計測し、インターネット等のネットワーク15を介して、例えば、クラウド上に構成された機器分離装置16に送信する。
 エージェント14は、例えば、犬を模した、移動可能なペット型ロボットであり、ユーザ宅の機器を制御する制御装置として機能する。
 すなわち、エージェント14は、手や足を動かすことにより、機器に設けられたボタンや、機器のリモートコントローラを直接操作することで、機器の電源のオンやオフ、動作モードの変更等の機器の操作を行う。
 その他、エージェント14は、機器のリモートコントローラが発する赤外線と同様の赤外線を発すること、あるいは、機器との間で、ホームネットワークを介した無線や有線の通信を行うことで、機器を操作(制御)することができる。
 また、エージェント14は、例えば、手で、棒などを持ち、その棒によって、機器に設けられたボタンを操作することで、機器の操作を行うことができる。
 エージェント14は、ユーザ宅の機器の稼働状態(例えば、オン又はオフになっている状態や、ミュート状態等)を認識し、機器に関する機器情報として、ネットワーク15を介して、機器分離装置16に供給する。
 さらに、エージェント14は、機器分離装置16から、ネットワーク15を介して、ユーザ宅の機器の稼働状態を受信し、その稼働状態に応じて、所定の行動をとることができる。
 機器分離装置16は、ユーザ宅の電流センサ13からネットワーク15を介して送信されてくる電流の総和を受信し、その電流の総和の系列(電流波形系列)から、ユーザ宅内の、例えば、TV(テレビジョン受像機)や、電気ポット、冷蔵庫、照明等の個々の機器で消費されている消費電流や消費電力を分離する機器分離を行う。
 さらに、機器分離装置16は、機器分離の結果得られる消費電流等が、どの機器のどのような稼働状態で消費されるのかを表すラベル付けを、エージェント14からの機器情報を用いて行う。
 また、機器分離情報16は、機器分離の結果得られる消費電流等から、ユーザ宅の機器の稼働状態を検知し、ネットワーク15を介して、エージェント14に送信する。
 図2は、図1の機器分離システムの処理の例を説明する図である。
 電流センサ13では、ユーザ宅内のすべての機器で消費されている電流の総和が計測され、ネットワーク15を介して、機器分離装置16に送信される。
 機器分離装置16では、ユーザ宅の電流センサ13から送信されてくる電流の総和を受信し、その電流の総和の系列(電流波形系列)から、ユーザ宅内の個々の機器で消費されている電流を分離する機器分離が行われる。
 図1及び図2では、ユーザ宅には、機器#1,#2,#3,#4があり、機器分離装置16は、ユーザ宅の機器#1ないし#4それぞれで消費されている電流(消費電流)を分離する機器分離を行う。
 ここで、機器分離装置16において、機器#1ないし#4それぞれの消費電流を分離するには、機器の消費電流が変化することが必要である。
 そこで、ユーザ宅のエージェント14は、必要に応じて、ユーザ宅内を移動し、例えば、機器に設けられたボタンや、機器のリモートコントローラを操作することで、機器の電源のオンやオフ等の機器の操作を行う。
 これにより、ある機器の電源がオフになっているときの、機器#1ないし#4の消費電流の総和や、他の機器の電源がオンになっているときの、機器#1ないし#4の消費電流の総和等の、機器#1ないし#4が様々な稼働状態になっているときの消費電力の総和が、電流センサ13から機器分離装置16に送信される。
 そして、機器分離装置16では、機器#1ないし#4が様々な稼働状態になっているときの消費電力の総和を用いて機器分離が行われ、これにより、機器#1ないし#4それぞれの消費電流が分離される。
 また、機器分離装置16は、機器分離の結果得られる機器#1ないし#4それぞれの消費電流から、ユーザ宅の機器の稼働状態を検知し、ネットワーク15を介して、エージェント14に送信する。
 エージェント14は、機器分離装置16からの、ユーザ宅の機器の稼働状態を受信し、その稼働状態に応じて、所定の行動をとる。
 例えば、エージェント14は、機器分離装置16から、ユーザ宅の玄関の照明がオンになった旨の機器の稼働状態を受信した場合には、ユーザ宅の玄関にいなくても、玄関の照明がオンになったことを認識することができる。
 この場合、エージェント14は、ユーザ宅のユーザが帰宅したと認識し、ユーザ宅の任意の部屋から玄関に出迎えに行く行動をとることができる。
 あるいは、エージェント14は、現在地の近くにいるユーザに、ユーザ宅の玄関の照明がオンになった旨を、音声等で報知することができる。
 <機器分離>
 図3は、図1の機器分離装置16で行われる機器分離の概要を説明する図である。
 各ユーザ宅において、電力会社から提供される電力は、分電盤12に引き込まれ、分電盤12から、ユーザ宅内の家電等の機器に供給される。
 機器分離では、分電盤12に、電流センサ13を設け、その電流センサ13で、ユーザ宅内の機器で消費されている電流の総和を計測するだけで、その電流の総和の系列(電流波形系列)から、ユーザ宅内の、個々の機器の消費電流(消費電力)が分離される。
 なお、機器分離に用いるデータとしては、各機器で消費されている電流の総和そのもの等の、各機器で消費されている電流の総和に関する総和データを採用することができる。
 総和データとしては、加算が成立する値の総和を採用することができる。具体的には、総和データとしては、各機器で消費されている電流の総和そのものの他、例えば、各機器で消費されている電力の総和や、各機器で消費されている電流の波形をFFT(Fast Fourier Transform)等することによって得られる周波数成分の総和等を採用することができる。
 また、機器分離では、総和データから、個々の機器で消費されている電流等の、個々の機器で消費されている電流に関する情報を分離することができる。具体的には、機器分離では、総和データから、例えば、個々の機器で消費されている電流や電力、それらの周波数成分を分離することができる。
 以下の説明では、総和データとして、例えば、各機器で消費されている電流の総和を採用するとともに、機器分離において、例えば、総和データとしての電流の総和の波形から、個々の機器で消費されている電流(消費電流)の波形を分離することとする。
 図4は、機器分離で行われる波形分離学習の概要を説明する図である。
 機器分離では、総和データから、各機器の消費電流の波形を求める波形分離学習が行われる。
 波形分離学習では、各時刻tの総和データとしての電流波形Ytが、各機器#mの消費電流を表す固有波形W(m)の加算値(総和)であるとして、電流波形Ytから、個々の機器#mで消費されている固有波形W(m)が求められる。
 図4では、ユーザ宅内に、5個の機器#1ないし#5があり、その5個の機器#1ないし#5のうちの、機器#1,#2,#4、及び、#5がオン状態(電力を消費する状態)になっており、機器#3がオフ状態(電力を消費しない状態)になっている。
 そのため、図4では、総和データとしての電流波形Ytが、機器#1,#2,#4、及び、#5それぞれの消費電流W(1),W(2),W(4)、及び、W(5)の加算値(総和)になっている。
 <機器分離装置16の構成例>
 図5は、図1の機器分離装置16の構成例を示すブロックである。
 図5において、機器分離装置16は、通信部30、データ取得部31、状態推定部32、モデル記憶部33、モデル学習部34、ラベル取得部35、及び、データ出力部36を有する。
 通信部30は、ネットワーク15を介して、電流センサ13やエージェント14との間で通信を行う。
 すなわち、通信部30は、電流センサ13からネットワーク15を介して送信されてくる総和データとしての電流波形Yの時系列(電流時系列)を受信し、データ取得部31に供給する。
 また、通信部30は、エージェント14からネットワーク15を介して送信されてくるデータを受信して、ラベル取得部35やデータ出力部36に供給する。さらに、通信部30は、ラベル取得部35やデータ出力部36から供給されるデータを、ネットワーク15を介して、エージェント14に送信する。
 なお、本実施の形態において、通信は、無線の通信、有線の通信、及び、無線と有線とが混在する通信のいずれであってもよい。
 データ取得部31は、電流センサ13から送信されてくる総和データとしての電流波形Yの時系列(電流時系列)を、通信部30を介して受信することにより取得し、状態推定部32、モデル学習部34、及び、データ出力部36に供給する。
 また、データ取得部31は、総和データとしての電流波形Yに対応する電圧の波形(電圧波形)Vの時系列(電圧時系列)を取得し、状態推定部32、モデル学習部34、及び、データ出力部36に供給する。
 なお、電圧波形Vは、電流波形Yと同様に、分電盤12で計測し、ネットワーク15を介して、機器分離装置16に送信することができる。また、電圧波形Vとしては、電力会社から供給される電圧を近似する、例えば、50Hzや60Hz等の所定周波数で、実効値が100V等の所定値のsin波を採用することができる。
 状態推定部32は、データ取得部31からの電流波形Yと、モデル記憶部33に記憶された、ユーザ宅内の機器全体のモデルである全体モデル(のモデルパラメータ)φとを用いて、ユーザ宅内の各機器に対応する全体モデルの状態を推定する状態推定を行う。そして、状態推定部32は、状態推定の状態推定結果(としての全体モデルの状態)Γを、モデル学習部34、ラベル取得部35、及び、データ出力部36に供給する。
 すなわち、図5において、状態推定部32は、評価部41、及び、推定部42を有する。
 評価部41は、モデル記憶部33に記憶された全体モデルφを構成する複数の機器モデル#1ないし#Mそれぞれの状態の各組み合わせにおいて、データ取得部31から(状態推定部32に)供給される電流波形Yが観測される程度を評価した評価値Eを求め、推定部42に供給する。
 推定部42は、評価部41から供給される評価値Eを用い、モデル記憶部33に記憶された全体モデルφを構成する複数の機器モデル#1ないし#Mそれぞれの状態Γを推定し、モデル学習部34、ラベル取得部35、及び、データ出力部36に供給する。
 モデル記憶部33は、複数の機器全体のモデルである全体モデル(のモデルパラメータ)φを記憶する。
 全体モデルφは、複数であるM個の、機器の(消費電流を表現する)モデルである機器モデル#1ないし#Mから構成される。機器モデル#1ないし#M、及び、その機器モデル#1ないし#Mから構成される全体モデルφは、例えば、確率生成モデル、あるいは、状態遷移モデルであり、複数の状態を有する。
 全体モデルのパラメータφには、機器モデル#mの状態(に対応する機器の稼働状態)ごとの消費電流を表す電流波形パラメータが含まれる。
 全体モデルのパラメータφには、その他、例えば、機器モデル#mの状態(に対応する機器の稼働状態)の遷移(変動)を表す状態変動パラメータ、機器モデル#mの状態(に対応する機器の稼働状態)の初期状態を表す初期状態パラメータ、及び、全体モデルにおいて観測(生成)される電流波形Yの観測値の分散に関する分散パラメータを含めることができる。
 モデル記憶部33に記憶された全体モデルのモデルパラメータφは、状態推定部32の評価部41と推定部42、ラベル取得部35、及び、データ出力部36で、必要に応じて参照され、モデル学習部34の後述する波形分離学習部51、分散学習部52、及び、状態変動学習部53によって更新される。
 モデル学習部34は、データ取得部31から供給される電流波形Yと、状態推定部32(の推定部42)から供給される状態推定の状態推定結果((全体モデルを構成する)各機器モデル#mの状態)Γとを用いて、モデル記憶部33に記憶された全体モデルのモデルパラメータφを更新するモデル学習を行う。
 すなわち、図5において、モデル学習部34は、波形分離学習部51、分散学習部52、及び、状態変動学習部53を有する。
 波形分離学習部51は、データ取得部31から(モデル学習部34に)供給される電流波形Yと、状態推定部32(の推定部42)から供給される各機器モデル#mの状態推定結果Γとを用いて、モデルパラメータφとしての電流波形パラメータを求める(更新する)波形分離学習を行い、その波形分離学習によって得られる電流波形パラメータによって、モデル記憶部33に記憶された電流波形パラメータを更新する。
 分散学習部52は、データ取得部31から(モデル学習部34に)供給される電流波形Yと、状態推定部32(の推定部42)から供給される各機器モデル#mの状態推定結果Γとを用いて、モデルパラメータφとしての分散パラメータを求める(更新する)分散学習を行い、その分散学習によって得られる分散パラメータによって、モデル記憶部33に記憶された分散パラメータを更新する。
 状態変動学習部53は、状態推定部32(の推定部42)から供給される各機器モデル#mの状態推定結果Γを用いて、モデルパラメータφとしての初期状態パラメータ、及び、状態変動パラメータを求める(更新する)状態変動学習を行い、その状態変動学習によって得られる初期状態パラメータ、及び、状態変動パラメータによって、モデル記憶部33に記憶された初期状態パラメータ、及び、状態変動パラメータをそれぞれ更新する。
 ラベル取得部35は、状態推定部32(の推定部42)から供給される各機器モデル#mの状態推定結果Γ、モデル記憶部33に記憶された全体モデルφ、及び、データ出力部36で得られる、各機器モデル#mが表す機器の消費電力U(m)、通信部30から供給されるエージェント14からのデータ等を、必要に応じて用いて、各機器モデル#mに対応する機器を表す(機器を識別するための)機器ラベルL(m)を取得し、必要に応じて、データ出力部36に供給する。
 データ出力部36は、データ取得部31から供給される電圧波形V、状態推定部32(の推定部42)から供給される各機器モデル#mの状態推定結果Γ、及び、モデル記憶部33に記憶された全体モデルを用いて、各機器モデル#mが表す(各機器モデル#mに対応する)ユーザ宅の各機器の消費電力U(m)を求め、ラベル取得部35から供給される機器ラベルL(m)とともに、ユーザ宅のユーザ等に提供する。
 すなわち、データ出力部36は、ユーザ宅の各機器の消費電力U(m)、及び、機器ラベルL(m)を、通信部30からネットワーク15を介して、エージェント14に送信する。エージェント14は、例えば、ユーザ宅のTVや、ユーザ宅のユーザが有するスマートフォン等のディスプレイを有するディスプレイ機器と通信を行うことにより、ディスプレイ機器に、データ出力部36からの消費電力U(m)、及び、機器ラベルL(m)を送信して表示させることができる。
 また、データ出力部36は、各機器モデル#mの状態推定結果Γに応じて、ユーザ宅の各機器の稼働状態を検知し、その稼働状態を表す稼働状態ラベルを、通信部30からネットワーク15を介して、エージェント14に送信する。エージェント14は、データ出力部36からのユーザ宅の各機器の稼働状態(ラベル)に応じて、所定の行動をとることができる。
 以上のように構成される機器分離装置16において、モデル記憶部33に記憶される全体モデルとしては、例えば、FHMM(Factorial Hidden Markov Model)を採用することができる。
 <FHMM>
 図6は、FHMMを説明する図である。
 すなわち、図6のAは、通常のHMMのグラフィカルモデルを示しており、図6のBは、FHMMのグラフィカルモデルを示している。
 通常のHMMでは、時刻tに、その時刻tにいる1つの状態Stにおいて、1つの観測値Ytが観測される。
 一方、FHMMでは、時刻tに、その時刻tにいる複数の状態S(1) t,S(2) t,・・・,S(M) tの組み合わせにおいて、1つの観測値Ytが観測される。
 FHMMは、Zoubin Ghahramaniらが提案した確率生成モデルであり、その詳細については、例えば、Zoubin Ghahramani, and Michael I. Jordan, Factorial Hidden Markov Models’, Machine Learning Volume 29, Issue 2-3 ,Nov./Dec. 1997(以下、文献Aともいう)に記載されている。
 図7は、FHMMによる機器分離の定式化の概要を説明する図である。
 ここで、FHMMは、複数のHMMを有する構成になっている。FHMMが有する各HMMは、ファクタと呼ばれる。以下、FHMMが有するm番目のファクタを、ファクタ#mとも記載する。
 FHMMにおいて、時刻tにいる複数の状態S(1) tないしS(M) tの組み合わせとは、時刻tにいる各ファクタ#mの状態の組み合わせ(ファクタ#1の状態と、ファクタ#2の状態と、・・・、ファクタ#Mの状態とのセット)である。
 図7は、ファクタの数Mが3のFHMMを示している。
 機器分離においては、例えば、1つのファクタが1つの機器に対応する(1つのファクタと1つの機器とを対応させる)。図7では、ファクタ#mが、機器#mに対応している。
 FHMMにおいて、ファクタを構成する状態の数は、ファクタごとに任意であるが、図7では、3つのファクタ#1,#2,#3の状態の数は、いずれも、4個になっている。
 図7では、時刻t=t0において、ファクタ#1は、4つの状態#11,#12,#13,#14のうちの、状態#14(太線の丸印で示す)になっており(いて)、ファクタ#2は、4つの状態#21,#22,#23,#24のうちの、状態#21(太線の丸印で示す)になっている。また、時刻t=t0において、ファクタ#3は、4つの状態#31,#32,#33,#34のうちの、状態#33(太線の丸印で示す)になっている。
 機器分離においては、ファクタ#mの状態は、例えば、そのファクタ#mが対応する機器#mの稼働状態に対応する。
 例えば、機器#1に対応するファクタ#1において、状態#11は、機器#1のオフ状態に対応し、状態#14は、機器#1の、いわゆる通常モードのオン状態に対応する。また、例えば、機器#1に対応するファクタ#1において、状態#12は、機器#1の、いわゆるスリープモードのオン状態に対応し、状態#13は、機器#1の、いわゆる省エネモードのオン状態に対応する。
 FHMMにおいて、ファクタ#mの状態#miでは、各ファクタの状態ごとに固有の波形である固有波形W(m) #miが観測(生成)される。
 図7において、ファクタ#1では、時刻t=t0にいる状態#14において、固有波形W(1) #14が観測され、ファクタ#2では、時刻t=t0にいる状態#21において、固有波形W(2) #21が観測される。さらに、ファクタ#3では、時刻t=t0にいる状態#33において、固有波形W(3) #33が観測される。
 FHMMでは、各ファクタにおいている状態で観測される固有波形を合成した合成波形が、FHMMにおいて観測される観測値として生成される。
 ここで、固有波形の合成としては、例えば、固有波形の総和(加算)を採用することができる。その他、固有波形の合成としては、例えば、固有波形の重み付け加算や、固有波形の論理和(固有波形の値が0と1の場合)等を採用することができるが、機器分離では、固有波形の総和が採用される。
 FHMMの学習では、FHMMにおいて、各時刻t=・・・,t0,t1,・・・の総和データとしての電流波形・・・,Yt0,Yt0+1,・・・が観測されるように、FHMMのモデルパラメータが求められる(更新される)。
 モデル記憶部33(図5)に記憶される全体モデルφとして、以上のようなFHMMを採用する場合、全体モデルφを構成する機器モデル#mは、ファクタ#mに相当する。
 なお、FHMMのファクタの数Mとしては、ユーザ宅内に存在すると想定される機器の最大数よりも、マージンとしての所定数だけ大きい値が採用される。
 また、全体モデルφとしてのFHMMとしては、各ファクタが2の状態又は3以上の状態を有するFHMMを採用することができる。
 ファクタの状態数が2状態である場合には、そのファクタに対応する機器の稼働状態として、例えば、オフ状態とオン状態との2つの稼働状態だけを表現することができる。したがって、ファクタの状態数が2状態である場合には、モードや設定等によって消費電力(電流)が変動するエアコンディショナ等の、3つ以上の稼働状態を有する機器(変動負荷機器)については、正確な消費電力等を求めることが困難になる。
 一方、全体モデルφとしてのFHMMとして、各ファクタが3以上の状態を有するFHMMを採用する場合には、3つ以上の稼働状態を有する変動負荷機器について、正確な消費電力等を求めることが可能となる。
 全体モデルφとして、FHMMを採用する場合、FHMMにおいて観測される電流波形Ytの系列と、各ファクタ#mの状態S(m) tの組み合わせStの系列との同時分布P({St,Yt})は、マルコフ性を仮定することにより、式(1)で計算される。
Figure JPOXMLDOC01-appb-M000001
                        ・・・(1)
 ここで、同時分布P({St,Yt})は、時刻tにおいて、各ファクタ#mの状態S(m) tの組み合わせ(M個のファクタそれぞれの状態の組み合わせ)Stにおいて、電流波形Ytが観測される確率を表す。
 P(S)は、最初の時刻t=1において、各ファクタ#mの状態S(m) 1の組み合わせS1にいる初期状態確率を表す。
 P(St|St-1)は、時刻t-1に、状態の組み合わせSt-1にいて、時刻tに、状態の組み合わせStに遷移する遷移確率を表す。
 P(Yt|St)は、時刻tに、状態の組み合わせStにおいて、電流波形Ytが観測される観測確率を表す。
 時刻tにおける状態の組み合わせStは、M個のファクタ#1ないし#Mそれぞれの、時刻tにおける状態S(1) t,S(2) t,・・・,S(M) tの組み合わせであり、式St={S(1) t,S(2) t,・・・,S(M) t}で表現される。
 なお、機器#mの稼働状態は、他の機器#m'とは独立に変動すると仮定し、ファクタ#mの状態S(m) tは、他のファクタ#m'の状態S(m') tとは独立に遷移することとする。
 また、FHMMのファクタ#mとしてのHMMの状態の数K(m)としては、他のファクタ#m'としてのHMMの状態の数K(m')とは独立な数を採用することができる。但し、ここでは、説明を簡単にするため、ファクタ#1ないし#Mの状態の数K(1)ないしK(M)は、式K(1)=K(2)=・・・=K(M)=Kで表される通り、同一の数Kであることとする。
 FHMMにおいて、式(1)の同時分布P({St,Yt})の計算に必要な初期状態確率P(S)、遷移確率P(St|St-1)、及び、観測確率P(Yt|St)は、以下のように計算することができる。
 すなわち、初期状態確率P(S)は、式(2)に従って計算することができる。
Figure JPOXMLDOC01-appb-M000002
                        ・・・(2)
 ここで、P(S(m) 1)は、ファクタ#mの状態S(m) 1が、最初の時刻t=1にいる状態(初期状態)である初期状態確率を表す。
 初期状態確率P(S(m) 1)は、例えば、ファクタ#mのk番目(k=1,2,・・・,K)の状態の初期状態確率を、k行目のコンポーネントとするK行の列ベクトル(K行1列の行列)である。
 遷移確率P(St|St-1)は、式(3)に従って計算することができる。
Figure JPOXMLDOC01-appb-M000003
                        ・・・(3)
 ここで、P(S(m) t|S(m) t-1)は、ファクタ#mにおいて、時刻t-1に状態S(m) t-1にいて、時刻tに状態S(m) tに遷移する遷移確率を表す。
 遷移確率P(S(m) t|S(m) t-1)は、例えば、ファクタ#mのk番目の状態#kから、k'番目(k'=1,2,・・・,K)の状態#k'に遷移する遷移確率を、k行k'列目のコンポーネントとするK行K列の行列(正方行列)である。
 観測確率P(Yt|St)は、式(4)に従って計算することができる。
Figure JPOXMLDOC01-appb-M000004
                        ・・・(4)
 ここで、ダッシュ(’)は転置を表し、上付きの-1は、逆数(逆行列)を表す。また、|C|は、Cの絶対値(行列式)(determinant演算)を表す。
 また、Dは、観測値Ytの次元を表す。
 例えば、電流センサ13は、電圧が、負の値から正の値に変化するときのゼロ交差のあるタイミングを、電流の位相が0になっているタイミングとして、所定のサンプリング間隔で、1周期分(日本では、1/50又は1/60秒)の電流をサンプリングし、そのサンプリング値をコンポーネントとする列ベクトルを、1時刻分の電流波形Ytとして出力する。
 電流センサ13が1周期分の電流をサンプリングするサンプリングの回数がD回であるとすると、電流波形Ytは、D行の列ベクトルである。
 式(4)の観測確率P(Yt|St)によれば、観測値Ytは、平均値(平均ベクトル)がμtで、分散(共分散行列)がCの正規分布に従う。
 平均値μtは、電流波形Ytと同様のD行の列ベクトルであり、分散Cは、D行D列の行列(対角成分が分散の行列)である。
 平均値μtは、図7で説明した固有波形W(m)を用い、式(5)で表される。
Figure JPOXMLDOC01-appb-M000005
                        ・・・(5)
 ここで、ファクタ#mの状態#kの固有波形を、W(m) kと表すこととすると、ファクタ#mの状態#kの固有波形W(m) kは、例えば、電流波形Ytと同様のD行の列ベクトルである。
 また、固有波形W(m)は、ファクタ#mの各状態#1,#2,・・・,#Kの固有波形W(m) 1,W(m) 2,・・・,W(m) Kの集まりであり、ファクタ#mの状態#kの固有波形W(m) kである列ベクトルを、k列目のコンポーネントとするD行K列の行列である。
 さらに、S*(m) tは、時刻tにいるファクタ#mの状態を表し、以下、S*(m) tを、時刻tのファクタ#mの現在状態ともいう。時刻tのファクタ#mの現在状態S*(m) tは、例えば、式(6)に示すように、K行のうちの1行のみのコンポーネントが1で、他の行のコンポーネントが0のK行の列ベクトルである。
Figure JPOXMLDOC01-appb-M000006
                        ・・・(6)
 時刻tにいるファクタ#mの状態が、状態#kである場合、時刻tのファクタ#mの現在状態S*(m) tとしてのK行の列ベクトルS*(m) tは、k行目のコンポーネントだけが1とされ、他のコンポーネントは0とされる。
 式(5)によれば、時刻tにいる各ファクタ#mの状態#kの固有波形W(m) kの総和が、時刻tの電流波形Ytの平均値μtとして求められる。
 FHMMのモデルパラメータφは、式(2)の初期状態確率P(S(m) 1)、式(3)の遷移確率P(S(m) t|S(m) t-1)、式(4)の分散C、及び、式(5)の固有波形W(m)(=W(m) 1,W(m) 2,・・・,W(m) K)であり、図5のモデル学習部34では、これらのFHMMのモデルパラメータφが求められる。
 すなわち、波形分離学習部51は、波形分離学習によって、固有波形W(m)を、電流波形パラメータとして求める。分散学習部52では、分散学習によって、分散Cを、分散パラメータとして求める。状態変動学習部53は、状態変動学習によって、初期状態確率P(S(m) 1)、及び、遷移確率P(S(m) t|S(m) t-1)を、それぞれ、初期状態パラメータ、及び、状態変動パラメータとして求める。
 ここで、例えば、個々の機器の稼働状態が、オンとオフの2状態であっても、通常のHMMによって、20個の機器の稼働状態(の組み合わせ)を表現する場合には、HMMの状態の数は、220=1,048,576個になり、遷移確率の数は、その2乗の1,099,511,627,776個になる。
 一方、FHMMによれば、稼働状態がオンとオフの2状態しかないM個の機器は、各ファクタが2状態の、M個のファクタによって表現することができる。したがって、各ファクタにおいて、状態の数は、2個であり、遷移確率の数は、その2乗の4個であるから、FHMMによって、M=20個の機器(ファクタ)の稼働状態を表現する場合には、FHMMの状態の数(総数)は、40=2×20個という少ない数で済み、遷移確率の数も、80=4×20個という少ない数で済む。
 FHMMの学習、すなわち、FHMMのモデルパラメータφとしての初期状態確率P(S(m) 1)、遷移確率P(S(m) t|S(m) t-1)、分散C、及び、固有波形W(m)の更新は、例えば、文献Aに記載されているように、EM(Expectation-Maximization)アルゴリズムに従って行うことができる。
 EMアルゴリズムによるFHMMの学習では、式(7)の条件付き完全データ対数尤度の期待値Q(φnew|φ)を最大化するために、Eステップの処理とMステップの処理とが、交互に繰り返される。
Figure JPOXMLDOC01-appb-M000007
                        ・・・(7)
 ここで、条件付き完全データ対数尤度の期待値Q(φnew|φ)とは、モデルパラメータφの下で、完全データ{St,Yt}が観測される場合において、新たなモデルパラメータφnewの下で、完全データ{St,Yt}が観測される対数尤度log(P({St,Yt}|φnew))の期待値を意味する。
 EMアルゴリズムのEステップの処理では、式(7)の条件付き完全データ対数尤度の期待値Q(φnew|φ)(に相当する値)が求められ、EMアルゴリズムのMステップの処理では、Eステップの処理で求められた期待値Q(φnew|φ)を、より大にする新たなモデルパラメータφnewが求められ、モデルパラメータφが、(期待値Q(φnew|φ)をより大にする)新たなモデルパラメータφnewに更新される。
 <機器分離としてのFHMMのモデル学習>
 図8は、機器分離装置16(図5)が行う機器分離としての、EMアルゴリズムに従ったFHMMのモデル学習の処理(学習処理)の例を説明するフローチャートである。
 ステップS11において、モデル学習部34は、モデル記憶部33に記憶されたFHMMのモデルパラメータφとしての初期状態確率P(S(m) 1)、遷移確率P(S(m) t|S(m) t-1)、分散C、及び、固有波形W(m)を初期化し、処理は、ステップS12に進む。
 ここで、初期状態確率P(S(m) 1)としてのK行の列ベクトルのk行目のコンポーネント、すなわち、ファクタ#mのk番目の初期状態確率π(m) kは、例えば、1/Kに初期化される。
 遷移確率P(S(m) t|S(m) t-1)としてのK行K列の行列のi行j列目のコンポーネント(i,j=1,2,・・・,K)、すなわち、ファクタ#mにおいて、i番目の状態#iからj番目の状態#jに遷移する遷移確率P(m) i,jは、例えば、乱数を用いて、式P(m) i,1+P(m) i,2+・・・+P(m) i,K=1を満たすように、初期化される。
 分散CとしてのD行D列の行列は、例えば、乱数を用いて、対角成分を設定し、他の成分(コンポーネント)を0としたD行D列の対角行列に初期化される。
 固有波形W(m)としてのD行K列の行列のk列目の列ベクトル、すなわち、ファクタ#mの状態#kの固有波形W(m) kとしてのD行の列ベクトルの各コンポーネントは、例えば、乱数を用いて初期化される。
 ステップS12では、データ取得部31が、電流センサ13で計測された所定の時間T分の電流波形を取得し、各時刻t=1,2・・・,Tの電流波形(以下、計測波形ともいう)Y1,Y2,・・・,YTを、状態推定部32、及び、モデル学習部34に供給して、処理は、ステップS13に進む。
 ここで、データ取得部31は、時刻t=1,2・・・,Tの電流波形とともに、電圧波形も取得する。データ取得部31は、時刻t=1,2・・・,Tの電圧波形を、データ出力部36に供給する。
 データ出力部36では、データ取得部31からの電圧波形が、消費電力の算出に用いられる。
 ステップS13では、状態推定部32が、データ取得部31からの計測波形Y1ないしYTを用いて、Eステップの処理を行い、処理は、ステップS14に進む。
 すなわち、ステップS13では、状態推定部32は、データ取得部31からの計測波形Y1ないしYTを用いて、モデル記憶部33に記憶されたFHMMの各ファクタ#mの各状態にいる状態確率等を求める状態推定を行い、その状態推定の状態推定結果を、モデル学習部34、及び、データ出力部36に供給する。
 ここで、図7で説明したように、機器分離においては、ファクタ#mの状態は、そのファクタ#mが対応する機器#mの稼働状態に対応する。FHMMのファクタ#mの状態#kにいる状態確率は、機器#mの稼働状態が状態#kに対応する程度を表し、したがって、そのような状態確率を求める状態推定は、機器の稼働状態を求めている(推定している)、ということができる。
 ステップS14では、モデル学習部34は、データ取得部31からの計測波形Y1ないしYT、及び、状態推定部32からの状態推定結果を用いて、Mステップの処理を行い、処理は、ステップS15に進む。
 すなわち、ステップS14では、モデル学習部34は、データ取得部31からの計測波形Y1ないしYT、及び、状態推定部32からの状態推定結果を用いて、モデル記憶部33に記憶されたFHMMの学習を行うことにより、モデル記憶部33に記憶されたFHMMのモデルパラメータφとしての初期状態確率π(m) k、遷移確率P(m) i,j、分散C、及び、固有波形W(m)を更新する。
 ステップS15では、モデル学習部34は、モデルパラメータφの収束条件が満たされているかどうかを判定する。
 ここで、モデルパラメータφの収束条件としては、例えば、Eステップ及びMステップの処理があらかじめ設定された所定の回数だけ繰り返されたことや、FHMMにおいて、計測波形Y1ないしYTが観測される尤度の、モデルパラメータφの更新前と更新後との間の変化量が、あらかじめ設定された閾値以内であること等を採用することができる。
 ステップS15で、モデルパラメータφの収束条件が満たされていないと判定された場合、処理は、ステップS13に戻り、以下、同様の処理が繰り返される。
 また、ステップS15において、モデルパラメータφの収束条件が満たされると判定された場合、学習処理は、終了する。
 なお、ステップS12ないしS15の処理は、定期的又は不定期に、繰り返し行われる。
 図9は、図5の機器分離装置16が、図8のステップS13で行うEステップの処理を説明するフローチャートである。
 ステップS21において、評価部41は、モデル記憶部33に記憶された全体モデルφとしてのFHMMの分散C、及び、固有波形W(m)、並びに、データ取得部31からの計測波形Yt={Y1,Y2,・・・,YT}を用い、各時刻t={1,2,・・・,T}の、状態の各組み合わせStについて、式(4)の観測確率P(Yt|St)を、評価値Eとして求め、推定部42に供給して、処理は、ステップS22に進む。
 ステップS22では、推定部42が、評価部41からの観測確率P(Yt|St)、及び、モデル記憶部33に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,j(及び初期状態確率π(m))を用いて、計測波形Y1,Y2,・・・,Ytを観測し、時刻tに、状態の組み合わせ(時刻tにいるファクタ#1の状態と、ファクタ#2の状態と、・・・、ファクタ#Mの状態との組み合わせ)zにいる前向き確率αt,zを求め、処理は、ステップS23に進む。
 ここで、HMMの前向き確率の求め方については、例えば、C.M. ビショップ, 「パターン認識と機械学習 下 ベイズ理論による統計的予測」, シュプリンガー・ジャパン, 2008(以下、文献Bともいう)の336ページに記載されている。
 前向き確率αt,zは、例えば、1時刻前の前向き確率αt-1,wを用いた漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)に従って求めることができる。
 漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)において、Σは、wを、FHMMの状態の組み合わせのすべてに変えてとるサメーションを表す。
 また、漸化式αt,z=Σαt-1,wP(z|w)P(Yt|z)において、wは、1時刻前の時刻t-1にいる状態の組み合わせを表す。P(z|w)は、時刻t-1に、状態の組み合わせwにいて、時刻tに状態の組み合わせzに遷移する遷移確率を表し、P(Yt|z)は、時刻tに、状態の組み合わせzにおいて、計測波形Ytを観測する観測確率を表す。
 なお、前向き確率αt,zの初期値、すなわち、時刻t=1のときの前向き確率α1,zとしては、状態の組み合わせzを構成する各ファクタ#mの状態#kの初期状態確率π(m) kの積が採用される。
 ステップS23では、推定部42が、評価部41からの観測確率P(Yt|St)、及び、モデル記憶部33に記憶された全体モデルφとしてのFHMMの遷移確率P(m) i,jを用いて、時刻tに、状態の組み合わせzにいて、その後、計測波形Yt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zを求め、処理は、ステップS24に進む。
 ここで、HMMの後ろ向き確率の求め方については、例えば、上述の文献Bの336ページに記載されている。
 後ろ向き確率βt,zは、例えば、1時刻後の後ろ向き確率βt+1,wを用いた漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wに従って求めることができる。
 漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wにおいて、Σは、wを、FHMMの状態の組み合わせのすべてに変えてとるサメーションを表す。
 また、漸化式βt,z=ΣP(Yt|z)P(w|z)βt+1,wにおいて、wは、1時刻後の時刻t+1にいる状態の組み合わせを表す。P(w|z)は、時刻tに、状態の組み合わせzにいて、時刻t+1に状態の組み合わせwに遷移する遷移確率を表し、P(Yt|z)は、時刻tに、状態の組み合わせzにおいて、計測波形Ytを観測する観測確率を表す。
 なお、後ろ向き確率βt,zの初期値、すなわち、時刻t=Tのときの後ろ向き確率βT,zとしては、1が採用される。
 ステップS24では、推定部42は、前向き確率αt,zと後ろ向き確率βt,zを用いて、式(8)に従い、全体モデルφとしてのFHMMにおいて、時刻tに、状態の組み合わせzにいる事後確率γt,zを求め、処理は、ステップS25に進む。
Figure JPOXMLDOC01-appb-M000008
                        ・・・(8)
 ここで、式(8)の右辺の分母のΣは、wを、時刻tに取り得る状態の組み合わせStのすべてに変えてとるサメーションを表す。
 式(8)によれば、事後確率γt,zは、前向き確率αt,zと後ろ向き確率βt,zとの積αt,zβt,zを、その積αt,wβt,wの、FHMMが取り得る状態の組み合わせw∈Stについての総和Σαt,wβt,wで正規化することにより求められる。
 ステップS25では、推定部42は、事後確率γt,zを用い、ファクタ#mにおいて、時刻tに、状態S(m) tにいる事後確率<S(m) t>と、時刻tに、ファクタ#mにおいて、状態S(m) tにいて、他のファクタ#nにおいて、状態S(n) tにいる事後確率<S(m) tS(n) t'>とを求め、処理は、ステップS26に進む。
 ここで、事後確率<S(m) t>は、式(9)に従って求められる。
Figure JPOXMLDOC01-appb-M000009
                        ・・・(9)
 式(9)によれば、ファクタ#mにおいて、時刻tに、状態S(m) tにいる事後確率<S(m) t>は、時刻tに、状態の組み合わせzにいる事後確率γt,zを、ファクタ#mの状態を含まない状態の組み合わせzについて周辺化することにより求められる。
 なお、事後確率<S(m) t>は、例えば、時刻tに、ファクタ#mのK個の状態のうちのk番目の状態いる状態確率(事後確率)を、k行目のコンポーネントとするK行の列ベクトルである。
 事後確率<S(m) tS(n) t'>は、式(10)に従って求められる。
Figure JPOXMLDOC01-appb-M000010
                       ・・・(10)
 式(10)によれば、時刻tに、ファクタ#mにおいて、状態S(m) tにいて、他のファクタ#nにおいて、状態S(n) tにいる事後確率<S(m) tS(n) t'>は、時刻tに、状態の組み合わせzにいる事後確率γt,zを、ファクタ#mの状態と、ファクタ#nの状態との両方を含まない状態の組み合わせzについて周辺化することにより求められる。
 なお、事後確率<S(m) tS(n) t'>は、例えば、時刻tに、ファクタ#mの状態#kと、他のファクタ#nの状態#k'とにいる状態確率(事後確率)を、k行k'列目のコンポーネントとするK行K列の行列である。
 ステップS26では、推定部42は、前向き確率αt,z、後ろ向き確率βt,z、遷移確率P(z|w)、及び、評価部41からの観測確率P(Yt|St)を用いて、ファクタ#mにおいて、時刻t-1に、状態S(m) t-1にいて、次の時刻tに、状態S(m) tにいる事後確率<S(m) t-1S(m) t'>を求める。
 そして、推定部42は、事後確率<S(m) t>,<S(m) tS(n) t'>、及び、<S(m) t-1S(m) t'>を、状態推定結果として、モデル学習部34、ラベル取得部35、及び、データ出力部36に供給し、Eステップの処理からリターンする。
 ここで、事後確率<S(m) t-1S(m) t'>は、式(11)に従って求められる。
Figure JPOXMLDOC01-appb-M000011
                       ・・・(11)
 式(11)の事後確率<S(m) t-1S(m) t'>の算出にあたり、状態の組み合わせwから状態の組み合わせzに遷移する遷移確率P(z|w)は、式(3)に従い、状態の組み合わせwを構成するファクタ#1の状態#i(1)から状態の組み合わせzを構成するファクタ#1の状態#j(1)への遷移確率P(1) i(1),j(1)、状態の組み合わせwを構成するファクタ#2の状態#i(2)から状態の組み合わせzを構成するファクタ#2の状態#j(2)への遷移確率P(2) i(2),j(2)、・・・、及び、状態の組み合わせwを構成するファクタ#Mの状態#i(M)から状態の組み合わせzを構成するファクタ#Mの状態#j(M)への遷移確率P(M) i(M),j(M)の積P(1) i(1),j(1)×P(2) i(2),j(2)×・・・×P(M) i(M),j(M)として求められる。
 なお、事後確率<S(m) t-1S(m) t'>は、例えば、ファクタ#mにおいて、時刻t-1に状態#iにいて、次の時刻tに状態jにいる状態確率(事後確率)を、i行j列目のコンポーネントとするK行K列の行列である。
 図10は、FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zと、(通常の)HMMの前向き確率αt,i、及び、後ろ向き確率βt,jとの関係を説明する図である。
 FHMMについては、そのFHMMと等価なHMMを構成することができる。
 あるFHMMと等価なHMMは、そのFHMMの各ファクタの状態の組み合わせzに相当する状態を有する。
 そして、FHMMの前向き確率αt,z、及び、後ろ向き確率βt,zは、そのFHMMと等価なHMMの前向き確率αt,i、及び、後ろ向き確率βt,jに一致する。
 図10のAは、2つの状態#1及び#2を有するファクタ#1と#2からなるFHMMを示している。
 図10のAのFHMMでは、ファクタ#1の状態#kとファクタ#2の状態#k'との組み合わせz=[k,k']として、ファクタ#1の状態#1とファクタ#2の状態#1との組み合わせ[1,1]、ファクタ#1の状態#1とファクタ#2の状態#2との組み合わせ[1,2]、ファクタ#1の状態#2とファクタ#2の状態#1との組み合わせ[2,1]、及び、ファクタ#1の状態#2とファクタ#2の状態#2との組み合わせ[2,2]の4通りがある。
 図10のBは、図10のAのFHMMと等価なHMMを示している。
 図10のBのHMMは、図10のAのFHMMの状態の4つの組み合わせ[1,1],[1,2],[2,1]、及び、[2,2]それぞれに相当する4つの状態#(1,1),#(1,2),#(2,1)、及び、#(2,2)を有する。
 そして、図10のAのFHMMの前向き確率αt,z={αt,[1,1],αt,[1,2],αt,[2,1],αt,[2,2]}は、図10のBのHMMの前向き確率αt,i={αt,(1,1),αt,(1,2),αt,(2,1),αt,(2,2)}と一致する。
 同様に、図10のAのFHMMの後ろ向き確率βt,z={βt,[1,1],βt,[1,2],βt,[2,1],βt,[2,2]}は、図10のBのHMMの前向き確率βt,i={βt,(1,1),βt,(1,2),βt,(2,1),βt,(2,2)}と一致する。
 例えば、上述の式(8)の右辺の分母、つまり、積αt,wβt,wの、FHMMが取り得る状態の組み合わせw∈Stについての総和Σαt,wβt,wは、図10のAのFHMMについては、式Σαt,wβt,w=αt,[1,1]βt,[1,1]+αt,[1,2]βt,[1,2]+αt,[2,1]βt,[2,1]+αt,[2,2]βt,[2,2]で表される。
 図11は、図5の機器分離装置16が、図8のステップS14で行うMステップの処理を説明するフローチャートである。
 ステップS31において、波形分離学習部51は、データ取得部31からの計測波形Yt、並びに、推定部42からの事後確率<S(m) t>、及び、<S(m) tS(n) t'>を用いて、波形分離学習を行うことにより、固有波形W(m)の更新値W(m)newを求め、その更新値W(m)newによって、モデル記憶部33に記憶された固有波形W(m)を更新して、処理は、ステップS32に進む。
 すなわち、波形分離学習部51は、波形分離学習として、式(12)を計算することにより、固有波形W(m)の更新値W(m)newを求める。
Figure JPOXMLDOC01-appb-M000012
                       ・・・(12)
 ここで、Wnewは、D行K列の行列であるファクタ#mの固有波形W(m)の更新値W(m)newが、ファクタ(のインデクス)#m順に、左から右方向に並んだD行K×M列の行列である。D行K×M列の行列である固有波形(の更新値)Wnewの(m-1)K+k列の列ベクトルは、ファクタ#mの状態#kの固有波形W(m) k(の更新値)になっている。
 <St'>は、K行の列ベクトルである事後確率<S(m) t>が、ファクタ#m順に、上から下方向に並んだK×M行の列ベクトルを転置したK×M列の行ベクトルである。K×M列の行ベクトルである事後確率<St'>の(m-1)K+k列目のコンポーネントは、時刻tに、ファクタ#mの状態#kにいる状態確率になっている。
 <StSt'>は、K行K列の行列である事後確率<S(m) tS(n) t'>が、ファクタ#m順に、上から下方向に並び、かつ、ファクタ#n順に、左から右方向に並んだK×M行K×M列の行列である。K×M行K×M列の行列である事後確率<StSt'>の(m-1)K+k行(n-1)K+k'列目のコンポーネントは、時刻tに、ファクタ#mの状態#kと、他のファクタ#nの状態#k'とにいる状態確率になっている。
 上付のアスタリスク(*)は、逆行列、又は、擬似逆行列を表す。
 式(12)を計算する波形分離学習によれば、計測波形Ytと式(5)の平均値μt=ΣW(m)S*(m) tとの誤差が、なるべく小さくなるように、計測波形Ytが、固有波形W(m)に分離される。
 ステップS32では、分散学習部52が、データ取得部31からの計測波形Yt、推定部42からの事後確率<S(m) t>、及び、及び、モデル記憶部33に記憶された固有波形W(m)を用いて、分散学習を行うことにより、分散Cの更新値Cnewを求め、モデル記憶部33に記憶された分散Cを更新して、処理は、ステップS33に進む。
 すなわち、分散学習部52は、分散学習として、式(13)を計算することにより、分散Cの更新値Cnewを求める。
Figure JPOXMLDOC01-appb-M000013
                       ・・・(13)
 ステップS33では、状態変動学習部53が、推定部42からの事後確率<S(m) t>、及び、<S(m) t-1S(m) t'>を用いて、状態変動学習を行うことにより、遷移確率P(m) i,jの更新値P(m) i,j new、及び、初期状態確率π(m)の更新値π(m)newを求め、その更新値P(m) i,j new、及び、π(m)newによって、モデル記憶部33に記憶された遷移確率P(m) i,j、及び、初期状態確率π(m)を更新して、Mステップの処理からリターンする。
 すなわち、状態変動学習部53は、状態変動学習として、式(14)、及び、式(15)を計算することにより、それぞれ、遷移確率P(m) i,jの更新値P(m) i,j new、及び、初期状態確率π(m)の更新値π(m)newを求める。
Figure JPOXMLDOC01-appb-M000014
                       ・・・(14)
Figure JPOXMLDOC01-appb-M000015
                       ・・・(15)
 ここで、<S(m) t-1,iS(m) t,j>は、K行K列の行列である事後確率<S(m) t-1S(m) t'>のi行j列目のコンポーネントであり、ファクタ#mにおいて、時刻t-1に状態#iにいて、次の時刻tに状態#jにいる状態確率を表す。
 <S(m) t-1,i>は、K行の列ベクトル事後確率<S(m) t-1>のi行目のコンポーネントであり、時刻t-1に、ファクタ#mの状態#iいる状態確率を表す。
 π(m)(π(m)new)は、ファクタ#mの状態#kの初期状態確率π(m) k(の更新値π(m) k new)を、k行目のコンポーネントとするK行の列ベクトルである。
 <情報提示処理>
 図12は、機器分離装置16(図5)が行う、機器#mの情報を提示する情報提示処理の例を説明するフローチャートである。
 ステップS41において、データ出力部36は、データ取得部31からの電圧波形(電流波形Ytに対応する電圧波形)Vt、状態推定部32からの状態推定結果としての事後確率<S(m) t>、及び、モデル記憶部33に記憶された固有波形W(m)を用いて、各ファクタ#mの消費電力U(m)を求め、処理は、ステップS42に進む。
 ここで、データ出力部36は、時刻tの電圧波形Vtと、時刻tのファクタ#mに対応する機器#mの消費電流Atとを用いて、時刻tのファクタ#mに対応する機器#mの消費電力U(m)を求める。
 データ出力部36において、時刻tのファクタ#mに対応する機器#mの消費電流Atは、以下のようにして求められる。
 すなわち、データ出力部36は、例えば、ファクタ#mにおいて、事後確率<S(m) t>が最大の状態#kの固有波形W(m)を、時刻tのファクタ#mに対応する機器#mの消費電流Atとして求める。
 また、データ出力部36は、例えば、K行の列ベクトルである事後確率<S(m) t>のコンポーネントである、時刻tのファクタ#mの各状態の状態確率を重みとして用いた、ファクタ#mの各状態の固有波形W(m) 1,W(m) 2,・・・,W(m) Kの重み付け加算値を、時刻tのファクタ#mに対応する機器#mの消費電流Atとして求める。
 なお、FHMMの学習が進行し、ファクタ#mが、機器#mを適切に表現する機器モデルとなると、時刻tのファクタ#mの各状態の状態確率は、時刻tの機器#mの稼働状態に対応する状態の状態確率がほぼ1になり、残りのK-1個の状態の状態確率はほぼ0となる。
 その結果、ファクタ#mにおいて、事後確率<S(m) t>が最大の状態#kの固有波形W(m)と、時刻tのファクタ#mの各状態の状態確率を重みとして用いた、ファクタ#mの各状態の固有波形W(m) 1,W(m) 2,・・・,W(m) Kの重み付け加算値とは、ほぼ同一となる。
 ステップS42では、ラベル取得部35が、各機器モデル#mが表す機器#m、すなわち、FHMMの各ファクタ#mに対応する機器#mを識別する機器ラベルL(m)を取得し、データ出力部36に供給して、処理は、ステップS43に進む。
 ここで、ラベル取得部35では、例えば、データ出力部36において求められる各ファクタ#mに対応する機器#mの消費電流Atや、消費電力U(m)、その消費電力U(m)から認識される機器#mの使用時間帯を、通信部30からネットワーク15を介してユーザ宅に送信して、ユーザ宅のディスプレイ機器に表示させることで、ユーザに提示することができる。
 そして、ラベル取得部35では、例えば、ユーザに提示した消費電流Atや、消費電力U(m)、使用時間帯にあてはまる機器の名称を、ユーザに入力してもらい、ネットワーク15、及び、通信部30を介して受信することで、ユーザにより入力された機器の名称を、機器ラベルL(m)として取得することができる。
 また、ラベル取得部35では、例えば、様々な機器について、その消費電力や、電流波形(消費電流)、使用時間帯等の属性と、機器の名称とを対応付けて登録したデータベースを事前に用意しておき、そのデータベースにおいて、データ出力部36で求められる各ファクタ#mに対応する機器#mの消費電流Atや、消費電力U(m)、その消費電力U(m)から認識される機器#mの使用時間帯に対応付けられている機器の名称を、機器ラベルL(m)として取得することができる。
 なお、ラベル取得部35において、既に、機器ラベルL(m)が取得され、データ出力部36に供給されている機器#mに対応するファクタ#mについては、ステップS42の処理をスキップすることができる。
 ステップS43では、データ出力部36が、各ファクタ#mに対応する機器の消費電力U(m)を、そのファクタ#mの機器ラベルL(m)とともに、通信部30からネットワーク15を介してユーザ宅に送信して、ユーザ宅のディスプレイ機器に表示させること等により、ユーザに提示して、情報提示処理は終了する。
 図13は、図12の情報提示処理において、ユーザ宅のディスプレイ機器で表示される消費電力U(m)の表示例を示す図である。
 ディスプレイ機器では、例えば、図13に示すように、各ファクタ#mに対応する機器#mの消費電力U(m)の時系列を、その機器#mの名称等の機器ラベルL(m)とともに表示することができる。
 機器分離装置16では、各ファクタが3以上の状態を有するFHMMによって、各機器の稼働状態をモデル化するFHMMの学習を、機器分離として行うことで、モードや設定等によって消費電力(電流)が変動するエアコンディショナ等の変動負荷機器について、正確な消費電力等を求めることができる。
 また、機器分離装置16では、分電盤12等の1箇所で、ユーザ宅内の各機器で消費されている電流の総和を計測するだけで、ユーザ宅内の各機器の消費電力を求めることができるので、コスト、及び、労力のいずれの面からも、容易に、ユーザ宅内の各機器の消費電力の「見える化」を実現することができる。
 以上のような、ユーザ宅内の各機器の消費電力の「見える化」によれば、例えば、ユーザ宅での節電の意識を高めることができる。
 また、機器分離装置16では、多くのユーザ宅内の各機器の消費電力を収集し、各ユーザ宅の機器の消費電力から、機器の使用時間帯、ひいては、生活パターンを推定し、マーケティング等に役立てることができる。
 ところで、機器分離装置16において、電流センサ13で計測された電流波形Ytを用いて、ユーザ宅の各機器の消費電流等を求める機器分離を行うには、機器の稼働状態が変化し、機器の消費電流が変化することが必要である。
 機器の稼働状態は、例えば、ユーザの操作によって変化するが、機器の稼働状態の変化を、ユーザの操作だけに頼るのでは、機器分離を行うのに時間を要する。
 また、機器分離装置16のラベル取得部35において、ユーザにより入力された機器の名称を、機器ラベルL(m)として取得するのでは、ユーザに、機器ラベルL(m)となる機器の名称を入力してもらう必要があり、ユーザに煩わしさを感じさせることがあり得る。
 そこで、図1の機器分離システムでは、エージェント14と機器分離装置16とが協調して動作することで、機器の稼働状態を、迅速に変化させ、機器分離が、迅速に行われるようになっている。
 さらに、図1の機器分離システムでは、エージェント14と機器分離装置16とが協調して動作することで、ユーザに、機器ラベルL(m)(となる機器の名称)を入力してもらうことなく、ファクタ#mに、そのファクタ#mに対応する機器の機器ラベルL(m)を取得して対応付けるようになっている。
 以下、以上のように協調して動作するエージェント14、及び、機器分離装置16について説明する。
 <エージェント14の構成例>
 図14は、図1のエージェント14の外観構成例を示す斜視図である。
 図14の実施の形態において、エージェント14は、犬を模したペット型ロボットであり、大きく分けて、胴体部ユニット1、脚部ユニット102A,102B,102C,102D、頭部ユニット103、及び、尻尾部ユニット104から構成されている。
 胴体に相当する胴体部ユニット101の前後左右には、それぞれ、脚に相当する脚部ユニット102A,102B,102C,102Dが連結され、胴体部ユニット101の前端部と後端部には、それぞれ、頭部に相当する頭部ユニット103と尻尾に相当する尻尾部ユニット104が連結されている。
 胴体部ユニット101の上面には背中センサ101Aが設けられている。また、頭部ユニット103には、その上部に頭センサ103Aが、下部に顎センサ103Bがそれぞれ設けられている。なお、背中センサ101A、頭センサ103A、顎センサ103Bは、いずれも圧力センサで構成され、その部位に与えられる圧力を検知する。
 尻尾部ユニット104は、胴体部ユニット101に対して、水平方向、及び、上下方向に揺動自在に取り付けられている。
 図15は、図14のエージェント14の内部構成例を示すブロック図である。
 図15に示すように、胴体部ユニット101には、制御部111、A/D(Analog/Digital)変換部112、D/A変換部113、通信部114、半導体メモリ115、背中センサ101A等が格納されている。
 制御部111は、エージェント14全体の制御、及び、各種の処理を行う。
 A/D変換部112は、マイク121、CCDカメラ122L及び、122R、背中センサ101A、頭センサ103A、顎センサ103Bが出力するアナログ信号をA/D変換することによりディジタル信号とし、制御部111に供給する。D/A変換部113は、制御部111から供給されるディジタル信号をD/A変換することによりアナログ信号とし、スピーカ123に供給する。
 通信部114は、外部と無線や有線で通信する。すなわち、通信部114は、外部から送信されているデータを受信して、制御部111に供給する。また、通信部114は、制御部111から供給されるデータを、外部に送信する。
 半導体メモリ115は、例えば、RAM(Random Access Memory)等の揮発性メモリや、EEPROM(Electrically Erasable Programmable Read-only Memory)等の不揮発性メモリで構成される。半導体メモリ115は、制御部111の制御に従い、例えば、後述する機器テーブル、その他の必要なデータ等を記憶する。
 なお、半導体メモリ115は、胴体部ユニット101に設けられた図示せぬスロットに対して、着脱可能なように構成することができる。
 背中センサ101Aは、胴体部ユニット101において、エージェント14の背中に対応する部位に設けられており、そこに与えられるユーザからの圧力を検出し、その圧力に対応する圧力検出信号を、A/D変換部112を介して制御部111に出力する。
 なお、胴体部ユニット101には、その他、例えば、エージェント14の動力源となるバッテリ(図示せず)や、そのバッテリ残量を検出する回路等も格納されている。
 頭部ユニット103においては、図15に示すように、外部からの刺激を感知するセンサとしての、音を感知する「耳」に相当するマイク121、光を感知する「左目」及び、「右目」に相当するイメージセンサ122L及び122R、並びに、ユーザが触れること等により与えられる圧力を感知する触覚に相当する頭センサ103A及び顎センサ103Bが、例えば、それぞれ対応する部位に設けられている。また、頭部ユニット103には、エージェント14の「口」に相当するスピーカ123が、例えば、対応する部位に設置されている。
 脚部ユニット102Aないし102Dのそれぞれの関節部分、脚部ユニット102Aないし102Dのそれぞれと胴体部ユニット101の連結部分、頭部ユニット103と胴体部ユニット101の連結部分、並びに、尻尾部ユニット104と胴体部ユニット101の連結部分等には、アクチュエータが設置されている。アクチュエータは、制御部111からの指示に基づいて各部を動作させる。即ち、アクチュエータによって、例えば、脚部ユニット102Aないし102Dが動き、これにより、ロボットが歩行する。
 頭部ユニット103に設置されているマイク121は、ユーザからの発話を含む周囲の音声(音)を集音し、得られた音声信号を、A/D変換部112を介して制御部111に出力する。イメージセンサ122L及び122Rは、周囲の状況を撮像し、得られた画像信号を、A/D変換部112を介して制御部111に出力する。頭部ユニット103の上部に設けられた頭センサ103Aや、頭部ユニット103の下部に設けられた顎センサ103Bは、例えば、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号として、A/D変換部112を介して、制御部111に出力する。
 ここで、図15において、制御部111は、行動決定部131、認識部132、位置検出部133、操作制御部134、報知制御部135、及び、テーブル生成部136を有する。
 行動決定部131は、例えば、マイク121や、イメージセンサ122L及び122R、背中センサ101A、頭センサ103A、顎センサ103Bから、A/D変換部112を介して与えられる音声信号や、画像信号、圧力検出信号等に基づいて、周囲の状況や、ユーザからの指令、ユーザからの働きかけ等の有無を判断し、その判断結果に基づいて、エージェント14が次にとる行動を決定する。そして、行動決定部131は、行動の決定結果に基づいて、必要なアクチュエータを駆動させ、これにより、頭部ユニット103を上下左右に振らせたり、尻尾部ユニット104を動かせたりする。また、行動決定部131は、各脚部ユニット102Aないし102Dを駆動して、エージェント14を歩行させたり、ユーザ宅の機器を操作させる等の行動をとらせる。
 また、行動決定部131は、行動の決定結果に基づいて、合成音を生成し、それを、D/A変換部113を介して、スピーカ123に供給して出力させたり、エージェント14の「目」の位置に設けられた、図示しないLED(Light Emitting Diode)を点灯、消灯又は点滅させたりする。
 以上のように、行動決定部131は、周囲の状況や、接してくるユーザ等に基づいて、エージェント14に、自律的に行動をとらせる。
 認識部132は、例えば、イメージセンサ122L及び122Rから、A/D変換部112を介して制御部111に供給される画像信号に基づき、エージェント14が操作の対象とする機器(以下、操作対象機器ともいう)を認識し、その操作対象機器を表す機器ラベルを取得する。
 すなわち、認識部132は、例えば、イメージセンサ122L及び122Rから供給される操作対象機器の画像信号に基づき、その操作対象機器を認識し、その機種名や型番等の、操作対象機器を識別する情報を、操作対象機器の機器ラベルとして取得する。
 操作対象機器の機器ラベルとしての機種名や型番等は、例えば、インターネット上のサーバから検索し、通信部114を介してダウンロードすること等により取得することができる。
 その他、操作対象機器の機器ラベルとしての機種名や型番等は、通信部114を介して、操作対象機器と通信することにより取得することができる。
 また、認識部132は、例えば、イメージセンサ122L及び122Rから供給される操作対象機器の画像信号に基づき、その操作対象機器の稼働状態を認識し、その稼働状態を表す稼働状態ラベルを取得する。
 すなわち、認識部132は、例えば、操作対象機器の稼働状態として、操作対象機器の電源がオフ又はオンになっていることを認識した場合には、それぞれ、電源がオフ又はオンになっている旨を表す文字列「電源オフ」又は「電源オン」を、稼働状態ラベルとして生成することにより取得する。
 また、認識部132は、例えば、操作対象機器の稼働状態として、操作対象機器の動作モードが省電力モードになっていることを認識した場合には、省電力モードを表す文字列「省電力モード」を、稼働状態ラベルとして生成することにより取得する。
 なお、認識部132において、操作対象機器や、操作対象機器の稼働状態は、操作対象機器の画像信号に基づいて認識する他、例えば、通信部114を介して、操作対象機器と通信することにより認識することができる。
 また、認識132において、操作対象機器や、操作対象機器の稼働状態は、例えば、操作対象機器や、操作対象機器の稼働状態を、ユーザに聞くことで認識することができる。
 すなわち、例えば、エージェント14において、合成音等によって、操作対象機器や、操作対象機器の稼働状態を、ユーザに質問し、その質問に対するユーザの音声による回答を音声認識することにより、操作対象機器や、操作対象機器の稼働状態を認識することができる。
 この場合、例えば、ユーザの音声による回答の音声認識結果を、機器ラベルや稼働状態ラベルとして採用することができる。
 位置検出部133は、例えば、GPS(Global Positioning System)等を利用して、操作対象機器の位置を検出し、その位置を表す位置情報を出力する。
 例えば、ある絶対的な3次元座標系を定義し、その3次元座標系の座標を、操作対象機器の位置情報として採用することができる。また、例えば、エージェント14において、ユーザ宅の見取り図を作成すること等により取得し、その見取り図上の所定の位置を基準とする座標系の座標や、見取り図上の場所(例えば、リビングルームや、寝室等)を、操作対象機器の位置情報として採用することができる。
 操作制御部134は、エージェント14による操作対象機器の操作を制御する。
 すなわち、操作制御部134は、操作対象機器に対して、どのような操作を行うかを決定し、その操作を行うように、行動決定部131に要求する。行動決定部131は、操作制御部134の要求に従った操作が行われるように、エージェント14の行動を決定し、必要なアクチュエータを駆動させる。
 ユーザ宅の機器の稼働状態の検知を、ネットワーク15を介して機器分離装置16に要求する。そして、報知制御部135は、稼働状態の検知の要求に対して、機器分離装置16から送信されてくる、ユーザ宅の機器の稼働状態を表す稼働状態ラベルを取得し、その稼働状態ラベルに応じて、機器の稼働状態の報知を制御する。
 すなわち、機器分離装置16は、後述するように、必要に応じて、ユーザ宅の機器の稼働状態を表す稼働状態ラベルを、ネットワーク15を介して、エージェント14に送信する。
 報知制御部135は、機器分離装置16から、ユーザ宅の機器の稼働状態を表す稼働状態ラベルが送信されてきた場合に、その機器分離装置16からの稼働状態ラベルを、通信部114を介して取得し、その稼働状態ラベルに応じて、機器の稼働状態を報知するように、行動決定部131に要求する。行動決定部131は、操作制御部134の要求に従い、例えば、機器の稼働状態を音声で出力することを決定し、機器の稼働状態を報知する合成音を生成して、D/A変換部113を介して、スピーカ123から出力させる。
 テーブル生成部136は、認識部132で得られる機器(操作対象機器)の機器ラベルと、位置検出部133で得られる機器の位置情報とを対応付け、半導体メモリ115に記憶された機器テーブルに登録する。
 ここで、機器テーブルに登録される機器(操作対象機器)の機器ラベル及び位置情報は、通信部114から、ネットワーク15を介して、機器分離装置16に送信される。
 また、操作制御部134の制御によって、エージェント14が、操作対象機器の操作を行い、認識部132が、その操作後の操作対象機器の稼働状態を認識して、その稼働状態の稼働状態ラベルを取得した場合には、その稼働状態ラベルは、通信部114から、ネットワーク15を介して、機器分離装置16に送信される。
 なお、操作制御部134では、例えば、インターネット上のサーバから、操作対象機器が、その稼働状態として、どのような稼働状態をとり得るのかを検索し、操作対象機器がとり得る稼働状態の中から、操作対象機器にとらせる稼働状態を、指示稼働状態として選択することができる。この場合、操作制御部134では、指示稼働状態になるように、操作対象機器の操作を制御することができる。さらに、この場合、認識部132では、指示稼働状態を、操作対象機器の稼働状態として認識することができる。
 図16は、図15の半導体メモリ115に記憶される機器テーブルの例を示す図である。
 機器テーブルには、認識部132で得られる機器の機器ラベルと、位置検出部133で得られる機器の位置情報とが対応付けられて登録される。
 エージェント14は、例えば、ユーザ宅内を自律的に移動し、その移動中に、認識部132は、イメージセンサ122L及び122Rから、A/D変換部112を介して制御部111に供給される画像信号に基づき、機器を認識して、その機器を、操作対象機器の候補である候補機器に選択する。
 さらに、認識部132は、候補機器の機器ラベルを取得し、位置情報検出部133に、候補機器の位置情報を検出させる。そして、認識部132は、候補機器の機器ラベルと位置情報とのセットが、機器テーブルに登録されているかどうかを判定する。
 候補機器の機器ラベルと位置情報とのセットが、機器テーブルに登録されている場合、認識部132は、候補機器が、既に、操作対象機器に選択されたことがあると認識する。そして、認識部132は、別の機器を、候補機器に選択し直し、以下、同様の処理を繰り返す。
 一方、候補機器の機器ラベルと位置情報とのセットが、機器テーブルに登録されていない場合、認識部132は、候補機器を、操作対象機器に選択し、テーブル生成部136を制御することで、(候補機器であった)操作対象機器の機器ラベルと位置情報とを対応付けて、半導体メモリ115に記憶された機器テーブルに登録させる。
 <ラベル取得部35の構成例>
 図17は、エージェント14と機器分離装置16とが協調して動作する場合の図5のラベル取得部35の構成例を示すブロック図である。
 ラベル取得部35は、取得部201及び202、ラベル付け部203、対応関係記憶部204、及び、制御部205を有する。
 (機器情報)取得部201は、エージェント14から、ネットワーク15を介して送信され、通信部30(図5)で受信される操作対象機器の機器情報を取得し、ラベル付け部203に供給する。
 ここで、操作対象機器の機器情報とは、操作対象機器に関する情報であり、本実施の形態では、機器情報として、操作対象機器の機器ラベルや、位置情報、稼働状態ラベルがある。
 (可能性情報)取得部202は、ユーザ宅の電流波形Ytを用いた機器分離により得られる状態確率(事後確率)<S(m) t>を、状態推定部32(の推定部42)から取得し、ラベル付け部203に供給する。
 ここで、機器分離装置16での機器分離では、上述したことから、ユーザ宅のすべての機器で消費されている電流の総和に関する総和データとしての電流波形Ytを用いて、各機器の各稼働状態の消費電流を表すパターン情報としての各ファクタ#mの各状態#kの固有波形W(m) kを更新する(求める)ことにより、各機器の消費電流が分離される(固有波形W(m) kが、ファクタ#mの状態#kに対応する機器#mの稼働状態での消費電流として、電流波形Ytから分離される)、ということができる。
 そして、パターン情報としての固有波形W(m) kの更新では、固有波形W(m) kについて、その固有波形W(m) kが表す消費電流がファクタ#mに対応する機器#mで消費されている可能性を表す可能性情報としての状態確率<S(m) t>が、電流波形Ytを用いて求められ、その可能性情報としての状態確率<S(m) t>に基づいて、パターン情報としての固有波形W(m) kが更新される、ということができる。
 取得部202は、以上のような機器分離において、固有波形W(m) k(を有する状態#k)について、状態推定部32で得られる可能性情報としての状態確率<S(m) t>を、状態推定部32から取得する。
 ラベル付け部203は、取得部202からの可能性情報としての状態確率<S(m) t>に基づいて、操作対象機器の現在の稼働状態において消費されている消費電流を表すパターン情報としての固有波形W(m) kを特定し、その固有波形W(m) k(を有する状態#k)に、取得部201からの機器情報としての操作対象機器の機器ラベルと稼働状態ラベルを対応付けるラベル付けを行う。
 そして、ラベル付け部203は、ラベル付けの結果得られる対応付け情報を、対応関係記憶部204に記憶された対応関係テーブルに登録する。
 対応関係記憶部204は、対応関係テーブルを記憶する。
 制御部205は、例えば、ラベル付け部203を監視し、その監視結果に基づいて、通信部30(図5)、及び、ネットワーク15を介して、エージェント14(の通信部114)との間で、必要なメッセージのやりとりを行う。
 図18は、図17の対応関係記憶部204に記憶される対応関係テーブルの例を示す図である。
 対応関係テーブルには、対応付け情報が登録される。
 対応付け情報では、ユーザ宅の機器について、機器ラベル、位置情報、機器に対応するファクタ#m(を特定する情報としてのファクタ番号#m)、及び、状態マップが対応付けられている。
 状態マップでは、機器#mに対応するファクタ#mの状態#k(を特定する情報としての状態番号#k)と、その機器#mの稼働状態の稼働状態ラベルとが対応付けられている。
 ここで、対応付け情報の機器ラベルとファクタ#mによれば、機器ラベルが表す機器に対応するファクタ#mを認識するとともに、ファクタ#mに対応する機器の機器ラベルを認識することができる。
 また、対応付け情報の機器ラベルと状態マップによれば、機器ラベルが表す機器の稼働状態に対応するファクタ#mの状態#kを認識するとともに、ファクタ#mの状態#kに対応する機器(ファクタ#mに対応する機器)の稼働状態の稼働ラベルを認識することができる。
 すなわち、状態マップでは、機器#mに対応するファクタ#mの状態#kと、その機器#mの稼働状態の稼働状態ラベルとが対応付けられているので、ファクタ#mの状態#kと、そのファクタ#mに対応する機器の稼働状態(の稼働状態ラベル)との対応を認識することができる。
 ここで、ファクタ#mの状態#kは、パターン情報としての固有波形W(m) kを有するので、状態マップでは、パターン情報としての固有波形W(m) kに、その固有波形W(m) kが表す電流が消費される機器#mの稼働状態の稼働状態ラベルがラベル付けされている、ということができる。
 また、対応付け情報では、以上のような稼働状態ラベルがパターン情報としての固有波形W(m) k(を有する状態#k)にラベル付けされている状態マップと、機器ラベルとが対応付けられているので、パターン情報としての固有波形W(m) kには、その固有波形W(m) kが表す電流が消費される機器#mの機器ラベルがラベル付けされている、ということもできる。
 したがって、対応付け情報では、パターン情報としての固有波形W(m) kに、その固有波形W(m) kが表す電流が消費される機器の機器ラベルと、その機器の稼働状態の稼働状態ラベルとがラベル付けされている、ということができる。
 対応付け情報によれば、ファクタ#mに対応する機器の機器ラベルを認識することができる。さらに、対応付け情報によれば、ファクタ#mの状態#kに対応する(機器#mの)稼働状態の稼働状態ラベルを認識することができる。
 <ラベル付け処理>
 図19は、対応付け情報を対応関係テーブルに登録するためのラベル付け処理として、図15のエージェント14が行う処理の例を示すフローチャートである。
 ステップS101において、認識部132は、例えば、イメージセンサ122L及び122Rから、A/D変換部112を介して制御部111に供給される画像信号に基づき、いわばエージェント14の視覚に映る機器を検出(認識)し、その機器の任意の1つを、候補機器に選択して、処理は、ステップS102に進む。
 ステップS102では、認識部132は、候補機器の機器ラベルを生成(取得)し、位置情報検出部133は、候補機器の位置情報を検出して、処理は、ステップS103に進む。
 ステップS103では、認識部132は、候補機器の機器ラベルと位置情報とのセットに基づき、候補機器が、機器テーブル(図16)に未登録であるかどうかを判定する。
 ステップS102において、候補機器が未登録でないと判定された場合、すなわち、候補機器の機器ラベルと位置情報とのセットが、機器テーブルに、既に登録されている場合、処理は、ステップS101に戻り、以下、同様の処理が繰り返される。
 また、ステップS102において、候補機器が未登録であると判定された場合、すなわち、候補機器の機器ラベルと位置情報とのセットが、機器テーブルに登録されていない場合、処理は、ステップS104に進み、認識部132は、候補機器を、操作対象機器に選択し、テーブル生成部136を制御することで、その操作対象機器の機器ラベルと位置情報とを対応付けて、半導体メモリ115に記憶された機器テーブルに登録させる。
 さらに、ステップS104では、認識部132は、通信部114を制御することにより、操作対象機器の機器ラベル及び位置情報を、機器分離装置16に送信させ、処理は、ステップS105に進む。
 ここで、エージェント14の通信部114から送信される操作対象機器の機器ラベル及び位置情報は、ネットワーク15を介して、機器分離装置16の通信部30(図5)で受信され、ラベル取得部35(図17)に供給される。
 ステップS105では、操作制御部134は、機器分離装置16から、RESULT:READYメッセージが送信されてくるのを待って、エージェント14に、操作対象機器が所定の稼働状態(例えば、電源がオンの稼働状態)になるように、操作対象機器を操作させ、処理は、ステップS106に進む。
 ここで、RESULT:READYメッセージは、機器分離装置16のラベル取得部35(図17)において、対応付け情報を対応関係テーブル(図18)に登録する準備ができた旨を表すメッセージであり、ラベル取得部35の制御部205から、通信部30(図5)及びネットワーク15を介して、エージェント14に送信される。以上のようにして、機器分離装置16からエージェント14に送信されるRESULT:READYメッセージは、通信部114で受信され、操作制御部134に供給される。
 ステップS106では、認識部132は、操作対象機器の稼働状態を認識し、その稼働状態を表す稼働状態ラベルを生成(取得)して、処理は、ステップS107に進む。
 ステップS107では、認識部132は、通信部114を制御することにより、操作対象機器の稼働状態の稼働状態ラベルを、機器分離装置16に送信させ、処理は、ステップS108に進む。
 ここで、エージェント14の通信部114から送信される操作対象機器の稼働状態ラベルは、ネットワーク15を介して、機器分離装置16の通信部30(図5)で受信され、ラベル取得部35(図17)に供給される。
 ステップS108では、操作制御部134は、機器分離装置16から、RESULT:FINISHEDメッセージを受信したかどうかを判定する。
 ここで、RESULT:FINISHEDメッセージは、機器分離装置16のラベル取得部35(図17)において、操作対象機器の対応付け情報を対応関係テーブル(図18)に登録した旨を表すメッセージであり、ラベル取得部35の制御部205から、通信部30(図5)及びネットワーク15を介して、エージェント14に送信される。
 ステップS108では、機器分離装置16から、以上のようなRESULT:FINISHEDメッセージが送信され、通信部114(図15)で受信されたかどうかが判定される。
 ステップS108において、RESULT:FINISHEDメッセージを受信していないと判定された場合、すなわち、機器分離装置16のラベル取得部35において、操作対象機器の対応付け情報が対応関係テーブルに登録されていない場合、処理は、ステップS109に進み、操作制御部134は、機器分離装置16から、RESULT:MOREメッセージを受信したかどうかを判定する。
 ここで、RESULT:MOREメッセージは、操作対象機器の稼働状態を他の稼働状態に変更することを要求するメッセージであり、ラベル取得部35(図17)の制御部205から、通信部30(図5)及びネットワーク15を介して、エージェント14に送信される。
 ステップS109では、機器分離装置16から、以上のようなRESULT:MOREメッセージが送信され、通信部114で(図15)で受信されたかどうかが判定される。
 ステップS109において、RESULT:MOREメッセージを受信していないと判定された場合、処理は、ステップS108に戻り、以下、同様の処理が繰り返される。
 一方、ステップS109において、RESULT:MOREメッセージを受信したと判定された場合、処理は、ステップS110に進み、操作制御部134は、エージェント14に、操作対象機器が現在の稼働状態と異なる稼働状態になるように(例えば、電源がオンの稼働状態からオフの稼働状態になるように)、操作対象機器を操作させ、処理は、ステップS111に進む。
 ステップS111では、認識部132は、ステップS110でエージェントによる操作がされた後の操作対象機器の稼働状態を認識し、その稼働状態を表す稼働状態ラベルを生成(取得)して、処理は、ステップS112に進む。
 ステップS112では、認識部132は、通信部114を制御することにより、ステップS110でエージェントによる操作がされた後の操作対象機器の稼働状態の稼働状態ラベルを、機器分離装置16に送信させ、処理は、ステップS108に戻り、以下、同様の処理が繰り返される。
 そして、ステップS108において、RESULT:FINISHEDメッセージを受信したと判定された場合、すなわち、機器分離装置16のラベル取得部35において、操作対象機器の対応付け情報が対応関係テーブル(図18)に登録された場合、処理は、ステップS101に戻り、以下、同様の処理が繰り返される。
 図20は、対応付け情報を対応関係テーブルに登録するためのラベル付け処理として、機器分離装置16のラベル取得部35(図17)が行う処理の例を示すフローチャートである。
 ステップS121において、取得部201は、エージェント14から、操作対象機器の機器ラベル及び位置情報が送信されてくるのを待って、その機器ラベル及び位置情報を取得する。
 すなわち、エージェント14では、図19のステップS104で、操作対象機器の機器ラベル及び位置情報が送信される。エージェント14からの操作対象機器の機器ラベル及び位置情報は、機器分離装置16(図5)の通信部30で受信されるので、取得部201は、通信部30で受信された操作対象機器の機器ラベル及び位置情報を取得し、ラベル付け部203に供給する。
 制御部205は、取得部201からラベル付け部203に、操作対象機器の機器ラベル及び位置情報が供給されると、対応付け情報を対応関係テーブル(図18)に登録する準備ができた旨のRESULT:READYメッセージを生成し、通信部30(図5)からエージェント14に送信させ、処理は、ステップS121からステップS122に進む。
 ステップS122では、取得部201は、エージェント14から、操作対象機器の稼働状態の稼働状態ラベルが送信されてくるのを待って、その稼働状態ラベルを取得する。
 すなわち、エージェント14では、図19のステップS107やS122で、操作対象機器の稼働状態の稼働状態ラベルが送信される。エージェント14からの操作対象機器の稼働状態の稼働状態ラベルは、機器分離装置16(図5)の通信部30で受信されるので、取得部201は、通信部30で受信された操作対象機器の稼働状態の稼働状態ラベルを取得し、ラベル付け部203に供給する。
 その後、処理は、ステップS122からステップS123に進み、取得部202は、操作対象機器が現在の稼働状態になっているときのユーザ宅の電流波形Ytを用いた機器分離により得られる、各ファクタ#mの各状態#kのパターン情報としての固有波形W(m) kについての可能性情報としての状態確率(事後確率)<S(m) t>を、状態推定部32(図5)から取得し、ラベル付け部203に供給して、処理は、ステップS124に進む。
 ステップS124では、ラベル付け部203は、取得部202からの状態確率<S(m) t>に基づいて、各ファクタ#mの各状態#kのパターン情報としての固有波形W(m) kの中から、操作対象機器の現在の稼働状態で消費されている消費電流を表す対象固有波形W(m) kを特定し、処理は、ステップS125に進む。
 ここで、ステップS124では、例えば、すべてのファクタ#1ないし#Mのすべての状態#1ないし#kそれぞれが有する固有波形W(1) 1,W(1) 2,・・・,W(1) K,W(2) 1,W(2) 2,・・・,W(1) K,・・・W(M) 1,W(M) 2,・・・,W(M) Kの中で、操作対象機器の稼働状態が変更された後に、その稼働状態の変更前と比較して、状態確率<S(m) t>が最も向上した(ファクタ#mの状態#kが有する)固有波形を、対象固有波形W(m) kに特定することができる。
 なお、操作対象機器の稼働状態の変更が、まだ行われたことがない場合には、例えば、状態確率<S(m) t>が最も低い固有波形等を、対象固有波形W(m) kに特定することができる。
 ステップS125では、ラベル付け部203は、対象固有波形W(m) kの状態確率<S(m) t>、すなわち、対象固有波形W(m) kを有するファクタ#mの状態#kの状態確率<S(m) t>に基づいて、対象固有波形W(m) kが、操作対象機器の現在の稼働状態の消費電流を表している確からしさを判定する。
 例えば、ステップS125では、対象固有波形W(m) kの状態確率<S(m) t>が、1.0に近い1.0未満の閾値以上の確率である場合、対象固有波形W(m) kが確からしいと判定され、対象固有波形W(m) kの状態確率<S(m) t>が、閾値以上の確率ではない場合、対象固有波形W(m) kが確からしくないと判定される。
 ステップS125において、対象固有波形W(m) kが確からしくないと判定された場合、処理は、ステップS126に進み、制御部205は、操作対象機器の消費電流を変更させるために、操作対象機器の稼働状態を他の稼働状態に変更することを要求するRESULT:MOREメッセージを生成し、通信部30(図5)からエージェント14に送信させる。そして、処理は、ステップS126からステップS122に戻り、以下、同様の処理が繰り返される。
 一方、ステップS125において、対象固有波形W(m) kが確からしいと判定された場合、処理は、ステップS127に進み、ラベル付け部203は、対象固有波形W(m) kに、取得部201からの操作対象機器の機器ラベル及び位置情報、並びに、稼働状態ラベルを対応付けた対応付け情報(図18)を生成する。
 すなわち、ラベル付け部203は、状態#kが対象固有波形W(m) kを有するファクタ#mを、操作対象機器に対応する対応ファクタ#mとして、その対応ファクタ#m(のファクタ番号#m)と、操作対象機器の機器ラベル及び位置情報とを対応付け、操作対象機器の対応付け情報に含める。
 さらに、ラベル付け部203は、対象固有波形W(m) kを有する対応ファクタ#mの状態#kを、操作対象機器の現在の稼働状態に対応する対応状態#kとして、操作対象機器の対応付け情報の状態マップ(図18)に、対応状態#k(の状態番号#k)と、操作対象機器の現在の稼働状態の稼働状態ラベルとを対応付けて登録する。
 そして、ラベル付け部203は、操作対象機器の対応付け情報を、対応関係記憶部204の対応関係テーブルに登録し、処理は、ステップS128に進む。
 ステップS128では、制御部205は、操作対象機器の対応付け情報を対応関係テーブルに登録した旨を表すRESULT:FINISHEDメッセージを生成し、通信部30(図5)からエージェント14に送信させる。そして、処理は、ステップS128からステップS121に戻り、以下、同様の処理が繰り返される。
 以上のように、ユーザ宅のエージェント14では、操作対象機器が操作され、操作対象機器の稼働状態が認識される。そして、操作対象機器を表す機器ラベル、及び、操作対象機器の稼働状態を表す稼働状態ラベルが、エージェント14から機器分離装置16に送信される。
 一方、機器分離装置16では、エージェント14からの操作対象機器ラベル、及び、稼働状態ラベルが取得されるとともに、ユーザ宅の電流波形Yを用いた機器分離において得られる可能性情報としての状態確率<S(m) t>が取得される。そして、機器分離装置16では、その可能性情報としての状態確率<S(m) t>に基づいて、操作対象機器の現在の稼働状態において消費されている消費電流を表すパターン情報としての固有波形W(m) kが特定され、そのパターン情報としての固有波形W(m) kに、操作対象機器の機器ラベルと稼働状態ラベルが対応付けられる。
 したがって、エージェント14によって、機器が操作されることにより、機器の消費電流が変化するので、その消費電流を含む電流波形Yを用いた、機器分離装置16での機器分離を、迅速に行うことができる。
 さらに、エージェント14では、機器を表す機器ラベル、及び、機器の稼働状態を表す稼働状態ラベルが、機器分離装置16に送信され、機器分離装置16では、パターン情報としての固有波形W(m) kが表す消費電流が消費されている可能性を表す可能性情報としての状態確率<S(m) t>に基づいて、パターン情報としての固有波形W(m) kに、機器ラベルと稼働状態ラベルが対応付けられるので、ユーザ宅のどの機器が、どのような稼働状態にあるのかを、機器ラベルと稼働状態ラベルによって提示することが可能になる。
 すなわち、機器ラベルと稼働状態ラベルによれば、その機器ラベルと稼働状態ラベルが対応付けられているパターン情報が表す消費電流が消費されている機器と、その機器の稼働状態を、人が認識することができる形で提示することができる。
 なお、操作対象機器の稼働状態は、機器分離装置16からエージェント14に送信されるRESULT:MOREメッセージに従って変更する他、エージェント14において、自律的に変更することができる。すなわち、エージェント14は、操作対象機器の稼働状態を変更するように、自律的に、操作対象機器を操作する行動をとることができる。
 <データ出力部36の構成例>
 図21は、エージェント14と機器分離装置16とが協調して動作する場合の図5のデータ出力部36の構成例を示すブロック図である。
 データ出力部36は、取得部211、検知対象記憶部212、及び、稼働状態検知部213を有する。
 (稼働状態検知要求)取得部211は、エージェント14から、ネットワーク15を介して送信され、通信部30(図5)で受信される、機器の稼働状態の検知を要求する稼働状態検知要求メッセージを取得し、検知対象記憶部212に供給する。
 検知対象記憶部212は、取得部211からの稼働状態検知要求メッセージに含まれる、稼働状態の検知の対象とする機器である検知対象機器の機器ラベルを登録するリストである検知リストを記憶する。
 ここで、エージェント14が送信する稼働状態検知要求メッセージには、検知対象機器の機器ラベルが含まれる。
 稼働状態検知部213は、ラベル取得部35の対応関係記憶部204に記憶された対応関係テーブル(図18)を参照し、検知対象記憶部212に記憶された検知リストに機器ラベルが登録された検知対象機器の現在の稼働状態を検知する。
 すなわち、稼働状態検知部213は、対応関係テーブルから、検知対象記憶部212に記憶された機器ラベルを含む対応付け情報を、対象対応付け情報として選択し、その対象対応付け情報に含まれるファクタ#mの各状態#kの可能性情報としての状態確率<S(m) t>を、状態推定部32から取得する。
 さらに、稼働状態検知部213は、対象対応付け情報に含まれるファクタ#mの各状態#kの状態確率<S(m) t>に基づき、その対象対応付け情報に含まれるファクタ#mの状態#kの中で、状態確率<S(m) t>が最も高い状態#kを、検知対象機器の現在の稼働状態に対応する状態として検知する。
 そして、稼働状態検知部213は、対象対応付け情報に含まれる状態マップにおいて、状態確率<S(m) t>が最も高い状態#kに対応付けられている稼働状態ラベルを、検知対象機器の現在の稼働状態を表す対象稼働状態ラベルとして、検知対象機器の機器ラベルとともに、通信部30(図5)から、エージェント14に送信させる。
 <稼働状態報知処理>
 図22は、ユーザ宅の機器の稼働状態をユーザに報知する稼働状態報知処理として、図15のエージェント14が行う処理の例を示すフローチャートである。
 ステップS141において、報知制御部135は、半導体メモリ115に記憶された機器テーブル(図16)に機器ラベルが登録された機器の中から、検知対象機器(とする機器)を決定する。
 ここで、報知制御部135では、例えば、エージェント14が、機器テーブルに機器ラベルが登録された機器の中で、現在地からでは、稼働状態を認識することができない機器(例えば、現在地から、イメージセンサ122L及び122Rで撮影することができない機器)の1以上を、検知対象機器に決定することができる。
 報知制御部135は、検知対象機器の決定後、その検知対象機器の機器ラベルを含み、その検知対象機器の稼働状態の検知を要求する稼働状態検知要求メッセージを、通信部114から、機器分離装置16に送信させる。
 例えば、検知対象機器の機器ラベルが"TV#1"である場合、その機器ラベルを含み、検知対象機器の稼働状態の検知を要求するMONITOR:TV#1メッセージが、稼働状態検知要求メッセージとして送信される。
 報知制御部135は、稼働状態検知要求メッセージの送信後、機器分離装置16から、検知対象機器の稼働状態の検知の要求の受付を完了した旨のRESULT:FINISHEDメッセージが送信されてくるのを待って、そのRESULT:FINISHEDメッセージを取得し、処理は、ステップS141からステップS142に進む。
 すなわち、機器分離装置16は、エージェント14からの稼働状態検知要求メッセージを受信すると、RESULT:FINISHEDメッセージを、エージェント14に送信する。エージェント14では、通信部114が、機器分離装置16からのRESULT:FINISHEDメッセージを受信し、報知制御部135に供給するので、報知制御部135は、そのようにして通信部114から供給される、エージェント14からのRESULT:FINISHEDメッセージを取得する。
 ステップS142では、報知制御部135は、機器分離装置16から、検知対象機器の機器ラベル及び稼働状態ラベルが送信されてくるのを待って、その機器ラベル及び稼働状態ラベルを取得し、処理は、ステップS143に進む。
 すなわち、機器分離装置16は、検知対象機器の稼働状態を検出し、その稼働状態の稼働状態ラベルを、検知対象機器の機器ラベルとともに送信する。エージェント14では、通信部114が、機器分離装置16からの検知対象機器の機器ラベル及び稼働状態ラベルを受信し、報知制御部135に供給するので、報知制御部135は、そのようにして通信部114から供給される、検知対象機器の機器ラベル及び稼働状態ラベルを取得する。
 ステップS143では、報知制御部135は、ステップS142で取得した稼働状態ラベルに応じて、同じくステップS142で取得した機器ラベルの検知対象機器の稼働状態を、ユーザに報知し、処理は、ステップS144に進む。
 すなわち、報知制御部135は、例えば、エージェント14に、合成音によって、機器ラベルの検知対象機器が、稼働状態ラベルが表す稼働状態になっている旨のメッセージを出力させる。
 あるいは、報知制御部135は、ユーザ宅の機器のうちのディスプレイ機器と、通信部114を介して通信を行い、ディスプレイ機器に、機器ラベルの検知対象機器が、稼働状態ラベルが表す稼働状態になっている旨のメッセージを、音声で出力させたり、画面に表示させたりすることができる。
 その他、報知制御部135は、例えば、通信部114を介して通信を行うことにより、機器ラベルの検知対象機器が、稼働状態ラベルが表す稼働状態になっている旨のメッセージを、ユーザが所持するスマートフォン等の携帯端末に送信することで、検知対象機器の稼働状態を、ユーザに報知することができる。
 ステップS144では、報知制御部135は、機器分離装置16から、検知対象機器の稼働状態が変化した旨のRESULT:CHANGEメッセージ、並びに、検知対象機器の機器ラベル、及び、変化前後それぞれの稼働状態を表す稼働状態ラベルが送信されてくるのを待って、そのRESULT:CHANGEメッセージ、並びに、機器ラベル及び稼働状態ラベルを取得し、処理は、ステップS145に進む。
 すなわち、機器分離装置16は、検知対象機器の稼働状態を検出し、その稼働状態が変化すると、RESULT:CHANGEメッセージとともに、検知対象機器の機器ラベル、及び、変化前後それぞれの稼働状態を表す稼働状態ラベルを送信する。エージェント14では、通信部114が、機器分離装置16からのRESULT:CHANGEメッセージ、並びに、検知対象機器の機器ラベル、及び、変化前後それぞれの稼働状態を表す稼働状態ラベルを受信し、報知制御部135に供給するので、報知制御部135は、そのようにして通信部114から供給される、RESULT:CHANGEメッセージ、並びに、検知対象機器の機器ラベル、及び、変化前後それぞれの稼働状態を表す稼働状態ラベルを取得する。
 ステップS145では、報知制御部135は、ステップS144で取得した稼働状態ラベルに応じて、同じくステップS144で取得した機器ラベルの検知対象機器の稼働状態(の変化)を、ユーザに報知し、処理は終了する。
 すなわち、例えば、検知対象機器の機器ラベルが、あるTVを表す"TV#1"であり、変化前の稼働状態を表す稼働状態ラベルが、電源がオフになっている旨を表し、変化後の稼働状態を表す稼働状態ラベルが、電源がオンになっている旨を表している場合には、エージェント14では、例えば、「TV#1の電源がオンにされました。」等のメッセージを生成し、ステップS143で説明したように出力することで、検知対象機器の稼働状態(の変化)を、ユーザに報知することができる。
 なお、機器分離装置16では、検知対象機器の機器ラベル及び稼働状態ラベルとともに、その検知対象機器の位置情報も、エージェント14に送信することができる。
 この場合、エージェント14では、検知対象機器の稼働状態(の変化)をユーザに報知するメッセージを、検知対象機器の位置情報を用いて生成することができる。
 すなわち、例えば、検知対象機器の機器ラベルが、あるTVを表す"TV#1"であり、変化前の稼働状態を表す稼働状態ラベルが、電源がオフになっている旨を表し、変化後の稼働状態を表す稼働状態ラベルが、電源がオンになっている旨を表している場合において、検知対象機器の位置情報から、検知対象機器が、ユーザ宅のリビングルームに設置してあることを認識することができるときには、エージェント14では、検知対象機器の位置情報を用いた、例えば、「誰かが、リビングにあるTV#1を見始めたよ。」等のメッセージを生成することができる。
 また、例えば、検知対象機器の機器ラベルが、ある照明を表すラベルであり、変化前の稼働状態を表す稼働状態ラベルが、照明がオフになっている旨を表し、変化後の稼働状態を表す稼働状態ラベルが、照明がオンになっている旨を表している場合において、検知対象機器の位置情報から、検知対象機器としての照明が、ユーザ宅の玄関に設置してあることを認識することができるときには、エージェント14では、検知対象機器の位置情報を用いた、例えば、「玄関の電気(照明)がつきました。」等のメッセージを生成することができる。
 図23は、ユーザ宅の機器の稼働状態をユーザに報知する稼働状態報知処理として、機器分離装置16のデータ出力部36(図21)が行う処理の例を示すフローチャートである。
 ステップS151において、取得部211は、エージェント14から、図22のステップS141で、検知対象機器の稼働状態の検知を要求する稼働状態検知要求メッセージが送信されてくるのを待って、その稼働状態検知要求メッセージを取得し、処理は、ステップS152に進む。
 すなわち、エージェント14が送信する稼働状態検知要求メッセージは、機器分離装置16(図5)の通信部30で受信されるので、取得部211は、通信部30で受信された稼働状態検知要求メッセージを取得する。
 ステップS152では、取得部211は、稼働状態検知要求メッセージに含まれる検知対象機器の機器ラベルを、検知対象記憶部212に供給し、検知対象記憶部212に記憶された検知リストに登録する。
 そして、取得部211は、検知対象機器の稼働状態の検知の要求の受付を完了した旨のRESULT:FINISHEDメッセージを生成し、通信部30(図5)からエージェント14に送信させ、処理は、ステップS152からステップS153に進む。
 ステップS153では、稼働状態検知部213は、検知対象記憶部212の検知リストに機器ラベルが登録された検知対象機器の消費電流を含む、ユーザ宅の電流波形Ytを用いた機器分離により得られる、各ファクタ#mの各状態#kのパターン情報としての固有波形W(m) kについての可能性情報としての状態確率(事後確率)<S(m) t>を、状態推定部32(図5)から取得し、処理は、ステップS154に進む。
 ステップS154では、稼働状態検知部213は、対応関係記憶部204に記憶された対応関係テーブル(図18)を参照し、検知対象機器の機器ラベルに対応付けられたファクタ#mを、検知対象機器に対応するファクタ#mとして認識する。
 さらに、稼働状態検知部213は、対応関係記憶部204に記憶された対応関係テーブル(図18)を参照し、ステップS153で取得した状態確率<S(m) t>のうちの、検知対象機器に対応するファクタ#mの各状態#kの状態確率<S(m) t>に基づいて、検知対象機器の現在の稼働状態を検知する。
 すなわち、稼働状態検知部213は、対応関係記憶部204に記憶された対応関係テーブルの検知対象機器の機器ラベルに対応付けられた状態マップにおいて、検知対象機器に対応するファクタ#mの状態#kの中の、状態確率<S(m) t>が最も高い状態#kに対応付けられた稼働状態ラベルが表す稼働状態を、検知対象機器の稼働状態として検知する。
 その後、処理は、ステップS154からステップS155に進み、稼働状態検知部213は、検知対象機器の機器ラベル、及び、稼働状態ラベル(ステップS154で検知した稼働状態の稼働状態ラベル)を、通信部30(図5)からエージェント14に送信させ、処理は、ステップS156に進む。
 ここで、ステップS155では、検知対象機器の機器ラベル、及び、稼働状態ラベルとともに、検知対象機器の機器ラベルに対応付けて対応関係テーブル(図18)に登録されている検知対象機器の位置情報も、エージェント14に送信することができる。
 ステップS156では、稼働状態検知部213は、例えば、検知対象機器の消費電流を含む、ユーザ宅の、次の時刻tの電流波形Ytを用いた機器分離が行われるのを待って、その機器分離により得られる、各ファクタ#mの各状態#kの状態確率(事後確率)<S(m) t>を、状態推定部32(図5)から取得し、処理は、ステップS157に進む。
 ステップS157では、稼働状態検知部213は、状態確率<S(m) t>に基づき、ステップS154と同様にして、検知対象機器の現在の稼働状態を検知し、処理は、ステップS158に進む。
 ステップS158では、稼働状態検知部213は、検知対象機器の稼働状態が変化したかどうか(検知対象機器について稼働状態の最新の検知の結果と、前回の検知の結果とが異なるかどうか)を判定する。
 ステップS158において、検知対象機器の稼働状態が変化していないと判定された場合、処理は、ステップS156に戻り、以下、同様の処理が繰り返される。
 また、ステップS158において、検知対象機器の稼働状態が変化したと判定された場合、処理は、ステップS159に進み、稼働状態検知部213は、検知対象機器の稼働状態が変化した旨のRESULT:CHANGEメッセージ、並びに、検知対象機器の機器ラベル、及び、検知対象機器の変化前後それぞれの稼働状態を表す稼働状態ラベルを、通信部30(図5)からエージェント14に送信させ、処理は、ステップS160に進む。
 ここで、ステップS159では、RESULT:CHANGEメッセージ、並びに、検知対象機器の機器ラベル、及び、稼働状態ラベルとともに、検知対象機器の機器ラベルに対応付けて対応関係テーブル(図18)に登録されている検知対象機器の位置情報も、エージェント14に送信することができる。
 ステップS160では、稼働状態検知部213は、検知対象記憶部212の検知リストから、エージェント14に機器ラベルを送信した検知対象機器の機器ラベルを削除し、処理は終了する。
 なお、ステップS153ないしステップS160の処理は、検知対象記憶部212の検知リストに、複数の(検知対象機器の)機器ラベルが登録されている場合には、その複数の機器ラベルが表す検知対象機器それぞれについて行われる。
 以上のように、機器分離装置16において、可能性情報としての状態確率<S(m) t>に基づき、検知対象機器の稼働状態を検知し、その検知対象機器の機器ラベルと稼働状態ラベルを、エージェント14に送信する一方、エージェント14において、機器分離装置16からの検知対象機器の機器ラベルと稼働状態ラベルを取得し、その稼働状態ラベルに応じて、機器ラベルが表す検知対象機器の稼働状態を報知する場合には、エージェント14は、例えば、現在地からでは、稼働状態を認識することができない機器(例えば、現在地から、イメージセンサ122L及び122Rで撮影することができない機器)の稼働状態を、その場で認識し、ユーザに報知することができる。
 なお、エージェント14において、ユーザ宅内のすべての機器(機器テーブル(図16)に機器ラベルが登録された機器のすべて)を、検知対象機器に決定することにより、エージェント14は、ユーザ宅内のすべての機器の稼働状態を、リアルタイムで認識することができる。
 また、本実施の形態では、エージェント14において、機器分離装置16から得られる検知対象機器の稼働状態ラベルに応じて、検知対象機器の稼働状態を報知することとしたが、その他、エージェント14では、機器分離装置16から得られる検知対象機器の稼働状態ラベルに応じて、検知対象機器の稼働状態に応じた行動をとることができる。
 例えば、検知対象機器が、玄関の照明であり、その玄関の照明がオフからオンになった場合には、エージェント14は、ユーザ宅に、ユーザが帰宅したと認識して、玄関にユーザを出迎えに行く行動をとることができる。
 なお、本実施の形態では、移動可能なエージェント14を、ユーザ宅の機器を制御する制御装置として採用したが、機器を制御する制御装置としては、エージェント14のような移動可能なロボットの他、ホームネットワーク等による無線や有線の通信によって、機器の電源のオン/オフや、動作モードの設定(変更)等を制御することができる装置(例えば、ホームネットワークのサーバ等)を採用することができる。
 また、本実施の形態では、総和データとしての電流波形Ytを用いて、各機器の各稼働状態の消費電流を表す固有波形W(m) kについて得られる、その固有波形W(m) kが表す消費電流が消費されている可能性を表す状態確率<S(m) t>に基づいて、固有波形W(m) kを求める(更新する)ことにより、各機器の消費電流を分離する機器分離を採用したが、その他、例えば、状態確率<S(m) t>以外の、パターン情報が表す消費電流が消費されている可能性を表す任意の可能性情報を用いる機器分離を採用することができる。
 すなわち、例えば、可能性情報として、パターン情報が表す消費電流を用いて求められる総和データ(電流波形Yt)の予測値と、実際の総和データとの誤差を採用し、その誤差に基づいて、誤差を小さくするように、パターン情報を更新することにより、各機器の消費電流を分離する機器分離を採用することができる。
 <本技術を適用したコンピュータの説明>
 次に、上述したエージェント14や機器分離装置16の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にインストールされる。
 そこで、図24は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
 プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク305やROM303に予め記録しておくことができる。
 あるいはまた、プログラムは、リムーバブル記録媒体311に格納(記録)しておくことができる。このようなリムーバブル記録媒体311は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体311としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
 なお、プログラムは、上述したようなリムーバブル記録媒体311からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク305にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
 コンピュータは、CPU(Central Processing Unit)302を内蔵しており、CPU302には、バス301を介して、入出力インタフェース310が接続されている。
 CPU302は、入出力インタフェース310を介して、ユーザによって、入力部307が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)303に格納されているプログラムを実行する。あるいは、CPU302は、ハードディスク305に格納されたプログラムを、RAM(Random Access Memory)304にロードして実行する。
 これにより、CPU302は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU302は、その処理結果を、必要に応じて、例えば、入出力インタフェース310を介して、出力部306から出力、あるいは、通信部308から送信、さらには、ハードディスク305に記録等させる。
 なお、入力部307は、キーボードや、マウス、マイク等で構成される。また、出力部306は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 なお、本技術は、以下のような構成をとることができる。
 <1>
  機器を操作し、
  前記機器の稼働状態を認識し、
  前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
 制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得する機器情報取得部と、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得する可能性情報取得部と、
 前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うラベル付け部と
 を備える情報処理装置。
 <2>
 前記可能性情報に基づいて、前記パターン情報が、前記機器ラベルが表す機器の現在の稼働状態の消費電流を表している確からしさを判定し、前記パターン情報が確からしくない場合、前記制御装置に、前記機器ラベルが表す機器の稼働状態を、他の稼働状態に変更することを要求する
 <1>に記載の情報処理装置。
 <3>
 前記可能性情報に基づいて、前記機器の現在の稼働状態を検知する稼働状態検知部をさらに備え、
 前記機器の現在の稼働状態において消費されている消費電流を表すパターン情報に対応付けられた前記機器ラベル及び前記稼働状態ラベルを、前記制御装置に送信する
 <1>又は<2>に記載の情報処理装置。
 <4>
 前記機器情報取得部は、前記機器の位置を表す位置情報も取得し、
 前記ラベル付け部は、前記パターン情報に、前記機器ラベル及び前記稼働状態ラベルとともに、前記位置情報も対応付け、
 前記機器の現在の稼働状態において消費されている消費電流を表すパターン情報に対応付けられた前記機器ラベル及び前記稼働状態ラベルとともに、前記位置情報も、前記制御装置に送信する
 <3>に記載の情報処理装置。
 <5>
 前記機器分離では、
  前記総和データを用いて、FHMM(Factorial Hidden Markov Model)の各ファクタの状態にいる状態確率を、前記可能性情報として求める状態推定を行い、
  前記状態確率を用いて、前記FHMMの学習を行う
 <1>ないし<4>のいずれかに記載の情報処理装置。
 <6>
 前記FHMMは、
  各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、
  各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の分散と、
  各ファクタの状態が初期状態である初期状態確率と、
  各ファクタの状態が遷移する遷移確率と
 を、モデルパラメータとして有し、
 前記FHMMの学習では、
  前記パターン情報として、前記固有波形を求める波形分離学習と、
  前記分散を求める分散学習と、
  前記初期状態確率と、前記遷移確率とを求める状態変動学習と
 を行う
 <5>に記載の情報処理装置。
 <7>
 前記状態推定では、
  前記平均値、及び、前記分散を用いて、各ファクタの状態の組み合わせにおいて、前記総和データが観測される観測確率を求め、
  前記観測確率、及び、前記遷移確率を用いて、前記総和データの系列Y1,Y2,・・・,YTについて、前記総和データY1,Y2,・・・,Ytを観測し、時刻tに、各ファクタの状態の組み合わせzにいる前向き確率αt,zと、時刻tに、各ファクタの状態の組み合わせzにいて、その後、前記総和データYt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zとを求め、
  前記前向き確率αt,z、及び、前記後ろ向き確率βt,zを用いて、時刻tに、各ファクタの状態の組み合わせzにいる事後確率γt,zを求め、
  前記事後確率γt,zを周辺化することにより、前記状態確率を求める
 <6>に記載の情報処理装置。
 <8>
  機器を操作し、
  前記機器の稼働状態を認識し、
  前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
 制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得するステップと、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得するステップと、
 前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うステップと
 を含む情報処理方法。
 <9>
  機器を操作し、
  前記機器の稼働状態を認識し、
  前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
 制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得する機器情報取得部と、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得する可能性情報取得部と、
 前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うラベル付け部と
 して、コンピュータを機能させるためのプログラム。
 <10>
 機器の操作を制御する操作制御部と、
 前記機器の稼働状態を認識する認識部と、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する通信部と
 を備える制御装置。
 <11>
 移動可能なエージェントである
 <10>に記載の制御装置。
 <12>
 前記操作制御部は、前記機器分離装置からの要求に応じて、前記機器の稼働状態を、他の稼働状態に変更するように、前記機器の操作を制御する
 <11>に記載の制御装置。
 <13>
 前記機器分離装置において、前記可能性情報に基づいて得られる、前記機器の稼働状態を表す稼働状態ラベル、及び、前記機器を表す機器ラベルを取得し、その稼働状態ラベルに応じて、前記機器ラベルが表す前記機器の稼働状態の報知を制御する報知制御部をさらに備える
 <10>ないし<12>のいずれかに記載の制御装置。
 <14>
 前記認識部は、前記機器の位置も認識し、
 前記通信部は、前記機器の位置を表す位置情報も、前記機器分離装置に送信し、
 前記報知制御部は、前記稼働状態ラベル、及び、前記位置情報に応じて、前記機器ラベルが表す前記機器の稼働状態の報知を制御する
 <13>に記載の制御装置。
 <15>
 前記認識部は、前記機器、及び、前記機器の稼働状態を、ユーザに聞くことで認識する
 <10>ないし<14>のいずれかに記載の制御装置。
 <16>
 機器を操作するステップと、
 前記機器の稼働状態を認識するステップと、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信するステップと
 を含む制御方法。
 <17>
 機器の操作を制御する操作制御部と、
 前記機器の稼働状態を認識する認識部と、
 複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する通信部と
 して、コンピュータを機能させるためのプログラム。
 11 分電盤, 12 電力計, 13 電流センサ, 14 エージェント, 15 ネットワーク, 16 機器分離装置, 30 通信部, 31 データ取得部, 32 状態推定部, 33 モデル記憶部, 34 モデル学習部, 35 ラベル取得部, 36 データ出力部, 41 評価部, 42 推定部, 51 波形分離学習部, 52 分散学習部, 53 状態変動学習部, 101 胴体部ユニット, 101A 背中センサ, 102Aないし102D 脚部ユニット, 103 頭部ユニット, 103A 頭センサ, 103B 顎センサ, 104 尻尾部ユニット, 111 制御部, 112 A/D変換部, 113 D/A変換部, 114 通信部, 115 半導体メモリ, 121 マイク, 122L,122R イメージセンサ, 123 スピーカ, 131 行動決定部, 132 認識部, 133 位置検出部, 134 操作制御部, 135 報知制御部, 136 テーブル生成部, 201,202 取得部, 203 ラベル付け部, 204 対応関係記憶部, 205 制御部, 211 取得部, 212 検知対象記憶部, 213 稼働状態検知部, 301 バス, 302 CPU, 303 ROM, 304 RAM, 305 ハードディスク, 306 出力部, 307 入力部, 308 通信部, 309 ドライブ, 310 入出力インタフェース, 311 リムーバブル記録媒体

Claims (17)

  1.   機器を操作し、
      前記機器の稼働状態を認識し、
      前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
     制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得する機器情報取得部と、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得する可能性情報取得部と、
     前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うラベル付け部と
     を備える情報処理装置。
  2.  前記可能性情報に基づいて、前記パターン情報が、前記機器ラベルが表す機器の現在の稼働状態の消費電流を表している確からしさを判定し、前記パターン情報が確からしくない場合、前記制御装置に、前記機器ラベルが表す機器の稼働状態を、他の稼働状態に変更することを要求する
     請求項1に記載の情報処理装置。
  3.  前記可能性情報に基づいて、前記機器の現在の稼働状態を検知する稼働状態検知部をさらに備え、
     前記機器の現在の稼働状態において消費されている消費電流を表すパターン情報に対応付けられた前記機器ラベル及び前記稼働状態ラベルを、前記制御装置に送信する
     請求項2に記載の情報処理装置。
  4.  前記機器情報取得部は、前記機器の位置を表す位置情報も取得し、
     前記ラベル付け部は、前記パターン情報に、前記機器ラベル及び前記稼働状態ラベルとともに、前記位置情報も対応付け、
     前記機器の現在の稼働状態において消費されている消費電流を表すパターン情報に対応付けられた前記機器ラベル及び前記稼働状態ラベルとともに、前記位置情報も、前記制御装置に送信する
     請求項3に記載の情報処理装置。
  5.  前記機器分離では、
      前記総和データを用いて、FHMM(Factorial Hidden Markov Model)の各ファクタの状態にいる状態確率を、前記可能性情報として求める状態推定を行い、
      前記状態確率を用いて、前記FHMMの学習を行う
     請求項3に記載の情報処理装置。
  6.  前記FHMMは、
      各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の平均値を求めるのに用いられる、各ファクタの各状態に固有の固有波形と、
      各ファクタの状態の組み合わせにおいて観測される前記総和データの観測値の分散と、
      各ファクタの状態が初期状態である初期状態確率と、
      各ファクタの状態が遷移する遷移確率と
     を、モデルパラメータとして有し、
     前記FHMMの学習では、
      前記パターン情報として、前記固有波形を求める波形分離学習と、
      前記分散を求める分散学習と、
      前記初期状態確率と、前記遷移確率とを求める状態変動学習と
     を行う
     請求項5に記載の情報処理装置。
  7.  前記状態推定では、
      前記平均値、及び、前記分散を用いて、各ファクタの状態の組み合わせにおいて、前記総和データが観測される観測確率を求め、
      前記観測確率、及び、前記遷移確率を用いて、前記総和データの系列Y1,Y2,・・・,YTについて、前記総和データY1,Y2,・・・,Ytを観測し、時刻tに、各ファクタの状態の組み合わせzにいる前向き確率αt,zと、時刻tに、各ファクタの状態の組み合わせzにいて、その後、前記総和データYt,Yt+1,・・・,YTを観測する後ろ向き確率βt,zとを求め、
      前記前向き確率αt,z、及び、前記後ろ向き確率βt,zを用いて、時刻tに、各ファクタの状態の組み合わせzにいる事後確率γt,zを求め、
      前記事後確率γt,zを周辺化することにより、前記状態確率を求める
     請求項6に記載の情報処理装置。
  8.   機器を操作し、
      前記機器の稼働状態を認識し、
      前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
     制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得するステップと、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得するステップと、
     前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うステップと
     を含む情報処理方法。
  9.   機器を操作し、
      前記機器の稼働状態を認識し、
      前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する
     制御装置から、前記機器ラベル、及び、前記稼働状態ラベルを取得する機器情報取得部と、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離において得られる前記可能性情報を取得する可能性情報取得部と、
     前記可能性情報に基づいて、前記機器ラベルが表す機器の現在の稼働状態において消費されている消費電流を表すパターン情報を特定し、そのパターン情報に、前記機器ラベルと前記稼働状態ラベルを対応付けるラベル付けを行うラベル付け部と
     して、コンピュータを機能させるためのプログラム。
  10.  機器の操作を制御する操作制御部と、
     前記機器の稼働状態を認識する認識部と、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する通信部と
     を備える制御装置。
  11.  移動可能なエージェントである
     請求項10に記載の制御装置。
  12.  前記操作制御部は、前記機器分離装置からの要求に応じて、前記機器の稼働状態を、他の稼働状態に変更するように、前記機器の操作を制御する
     請求項11に記載の制御装置。
  13.  前記機器分離装置において、前記可能性情報に基づいて得られる、前記機器の稼働状態を表す稼働状態ラベル、及び、前記機器を表す機器ラベルを取得し、その稼働状態ラベルに応じて、前記機器ラベルが表す前記機器の稼働状態の報知を制御する報知制御部をさらに備える
     請求項12に記載の制御装置。
  14.  前記認識部は、前記機器の位置も認識し、
     前記通信部は、前記機器の位置を表す位置情報も、前記機器分離装置に送信し、
     前記報知制御部は、前記稼働状態ラベル、及び、前記位置情報に応じて、前記機器ラベルが表す前記機器の稼働状態の報知を制御する
     請求項13に記載の制御装置。
  15.  前記認識部は、前記機器、及び、前記機器の稼働状態を、ユーザに聞くことで認識する
     請求項12に記載の制御装置。
  16.  機器を操作するステップと、
     前記機器の稼働状態を認識するステップと、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信するステップと
     を含む制御方法。
  17.  機器の操作を制御する操作制御部と、
     前記機器の稼働状態を認識する認識部と、
     複数の機器で消費されている電流の総和に関する総和データを用いて、各機器の各稼働状態の消費電流を表すパターン情報について得られる、そのパターン情報が表す消費電流が消費されている可能性を表す可能性情報に基づいて、前記パターン情報を更新することにより、各機器の消費電流を分離する機器分離を行う機器分離装置に、前記機器を表す機器ラベル、及び、前記機器の稼働状態を表す稼働状態ラベルを送信する通信部と
     して、コンピュータを機能させるためのプログラム。
PCT/JP2015/069828 2014-07-25 2015-07-10 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム WO2016013411A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016535873A JP6597612B2 (ja) 2014-07-25 2015-07-10 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム
CN201580039393.XA CN106537369A (zh) 2014-07-25 2015-07-10 控制装置、控制方法、信息处理装置、信息处理方法以及程序
EP15824919.3A EP3174004A4 (en) 2014-07-25 2015-07-10 Control device, control method, information processing device, information processing method, and program
US15/327,173 US20170176967A1 (en) 2014-07-25 2015-07-10 Control apparatus, control method, information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-152407 2014-07-25
JP2014152407 2014-07-25

Publications (1)

Publication Number Publication Date
WO2016013411A1 true WO2016013411A1 (ja) 2016-01-28

Family

ID=55162940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/069828 WO2016013411A1 (ja) 2014-07-25 2015-07-10 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US20170176967A1 (ja)
EP (1) EP3174004A4 (ja)
JP (1) JP6597612B2 (ja)
CN (1) CN106537369A (ja)
WO (1) WO2016013411A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018056890A (ja) * 2016-09-30 2018-04-05 Kddi株式会社 自動学習装置、方法、プログラム、自動学習システムおよび自動モニタ装置
JP2020514931A (ja) * 2016-12-15 2020-05-21 ビジェリー・インコーポレーテッド 低頻度エネルギー分解技法の改善

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013251524B2 (en) 2012-04-25 2016-05-12 Bidgely Inc. Energy disaggregation techniques for low resolution whole-house energy consumption data
WO2016037013A1 (en) 2014-09-04 2016-03-10 Bidgely Inc. Systems and methods for optimizing energy usage using energy disaggregation data and time of use information
US11126525B2 (en) * 2015-09-09 2021-09-21 Arris Enterprises Llc In-home legacy device onboarding and privacy enhanced monitoring
US10657110B2 (en) 2017-01-23 2020-05-19 Bidgely Inc. Systems and methods for disaggregating appliance loads
US20190050430A1 (en) * 2017-01-23 2019-02-14 Bidgely Inc. Systems and Methods for Disaggregating Appliance Loads
KR101976424B1 (ko) * 2017-01-25 2019-05-09 엘지전자 주식회사 이동 로봇
SG11201908070WA (en) * 2017-03-30 2019-10-30 Mitsubishi Electric Corp Phase group estimation device, phase group estimation method, and phase group estimation program
JP7187397B2 (ja) * 2019-07-18 2022-12-12 オークマ株式会社 工作機械における診断モデルの再学習要否判定方法及び再学習要否判定装置、再学習要否判定プログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268509A1 (en) * 2006-05-18 2007-11-22 Xerox Corporation Soft failure detection in a network of devices
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム
JP2012138123A (ja) * 2012-04-16 2012-07-19 Mitsubishi Electric Corp 省エネ支援装置、省エネ支援システム
JP2013044736A (ja) * 2011-08-26 2013-03-04 Mitsubishi Electric Corp 稼働状況判別装置、稼働状況判別プログラム、稼働状況判別方法、波形パターン学習装置、波形パターン学習プログラム、及び波形パターン学習方法
JP2013045197A (ja) * 2011-08-23 2013-03-04 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2013109742A (ja) * 2011-11-21 2013-06-06 Jiaotong Univ ユーザーフィードバック情報に基づく電気器具検出方法とシステム
WO2013094687A1 (ja) * 2011-12-22 2013-06-27 大和ハウス工業株式会社 エネルギー管理システム及び管理装置
JP2013213825A (ja) * 2012-03-30 2013-10-17 Infometis Co Ltd 電気機器をモニタするための方法、及び、モニタ装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001058649A1 (fr) * 2000-02-14 2001-08-16 Sony Corporation Systeme robotique, dispositif robotise et procede de controle d'un tel systeme et dispositif et procede de traitement de donnees
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
JP2006155329A (ja) * 2004-11-30 2006-06-15 Toshiba Corp 機器の制御方法及び装置
PL2619879T3 (pl) * 2010-09-22 2017-06-30 Philips Lighting Holding B.V. Urządzenie do dezagregacji do identyfikacji urządzenia w sieci elektrycznej
US8812427B2 (en) * 2011-04-27 2014-08-19 Hewlett-Packard Development Company, L.P. System and method for disaggregating power load
AU2013238679B2 (en) * 2012-03-30 2017-04-13 Sony Corporation Data processing apparatus, data processing method, and program
JP5670498B2 (ja) * 2013-03-08 2015-02-18 シャープ株式会社 機能管理装置、遠隔制御システム、機能管理装置の制御方法、制御プログラムおよび記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268509A1 (en) * 2006-05-18 2007-11-22 Xerox Corporation Soft failure detection in a network of devices
JP2012064023A (ja) * 2010-09-16 2012-03-29 Sony Corp データ処理装置、データ処理方法、およびプログラム
JP2013218715A (ja) * 2010-09-16 2013-10-24 Infometis Co Ltd 電気機器推定装置並びにその方法およびプログラム
JP2013045197A (ja) * 2011-08-23 2013-03-04 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2013044736A (ja) * 2011-08-26 2013-03-04 Mitsubishi Electric Corp 稼働状況判別装置、稼働状況判別プログラム、稼働状況判別方法、波形パターン学習装置、波形パターン学習プログラム、及び波形パターン学習方法
JP2013109742A (ja) * 2011-11-21 2013-06-06 Jiaotong Univ ユーザーフィードバック情報に基づく電気器具検出方法とシステム
WO2013094687A1 (ja) * 2011-12-22 2013-06-27 大和ハウス工業株式会社 エネルギー管理システム及び管理装置
JP2013213825A (ja) * 2012-03-30 2013-10-17 Infometis Co Ltd 電気機器をモニタするための方法、及び、モニタ装置
JP2012138123A (ja) * 2012-04-16 2012-07-19 Mitsubishi Electric Corp 省エネ支援装置、省エネ支援システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3174004A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018056890A (ja) * 2016-09-30 2018-04-05 Kddi株式会社 自動学習装置、方法、プログラム、自動学習システムおよび自動モニタ装置
JP2020514931A (ja) * 2016-12-15 2020-05-21 ビジェリー・インコーポレーテッド 低頻度エネルギー分解技法の改善

Also Published As

Publication number Publication date
CN106537369A (zh) 2017-03-22
US20170176967A1 (en) 2017-06-22
JP6597612B2 (ja) 2019-10-30
EP3174004A1 (en) 2017-05-31
JPWO2016013411A1 (ja) 2017-04-27
EP3174004A4 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
JP6597612B2 (ja) 制御装置、制御方法、情報処理装置、情報処理方法、及び、プログラム
JP5873864B2 (ja) オブジェクト追跡及び認識方法及び装置
US10824921B2 (en) Position calibration for intelligent assistant computing device
JP6616791B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
CN106923839B (zh) 运动辅助装置、运动辅助方法以及记录介质
JP6093792B2 (ja) 測位装置、測位方法、測位プログラム、および、測位システム
KR102065801B1 (ko) 데이터 처리 장치, 데이터 처리 방법, 및 프로그램
JP5720491B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2013206273A (ja) 情報処理装置、情報処理方法、および情報処理システム
CA3137309A1 (en) Systems and methods for predictive environmental fall risk identification
EP3866685B1 (en) Systems and methods for micro impulse radar detection of physiological information
JP2013213825A (ja) 電気機器をモニタするための方法、及び、モニタ装置
JP2008269215A (ja) 特異パターン検出システム、モデル学習装置、特異パターン検出方法、及び、コンピュータプログラム
US10382219B2 (en) Method, apparatus, and non-transitory computer-readable recording medium storing program for estimating operator
JP2020027370A (ja) 最適化装置、シミュレーションシステム及び最適化方法
Toris et al. Temporal persistence modeling for object search
JP2016058078A (ja) 連想メモリによって分類されたフレームを使用して位置に対する計量値を取得すること
CN104977038B (zh) 使用与关联存储器耦合的运动感测设备识别移动
Singh et al. Decision tree based mobile crowdsourcing for agriculture advisory system
JP7409486B2 (ja) データ処理装置、システム、データ処理方法、およびプログラム
JP6000767B2 (ja) 学習装置、判別装置、行動状態判別システム、および判別方法
JP6045014B2 (ja) 情報処理装置およびその方法、サーバ装置およびその制御方法、並びにプログラム
JP2016189073A (ja) 個性推定装置、個性推定プログラムおよび個性推定方法
JP2019032767A (ja) 脳活動予測装置、知覚認知内容推定システム、及び脳活動予測方法
US20220040844A1 (en) Information processing apparatus, information processing method and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15824919

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016535873

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015824919

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15327173

Country of ref document: US

Ref document number: 2015824919

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE