WO2019013335A1 - 機器制御システム - Google Patents

機器制御システム Download PDF

Info

Publication number
WO2019013335A1
WO2019013335A1 PCT/JP2018/026542 JP2018026542W WO2019013335A1 WO 2019013335 A1 WO2019013335 A1 WO 2019013335A1 JP 2018026542 W JP2018026542 W JP 2018026542W WO 2019013335 A1 WO2019013335 A1 WO 2019013335A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
sound
voice
information
processing
Prior art date
Application number
PCT/JP2018/026542
Other languages
English (en)
French (fr)
Inventor
志明 鄭
健次 喜多
安部 剛夫
香蓮 李
晶子 白井
ナビーン グントゥル
池田 誠
知美 久木田
賢二 天野
太田 優
喜多 雄一
前田 敏行
久典 大島
哲志 津田
Original Assignee
ダイキン工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイキン工業株式会社 filed Critical ダイキン工業株式会社
Priority to EP18831043.7A priority Critical patent/EP3653943B1/en
Priority to CN201880035642.1A priority patent/CN110691947B/zh
Priority to CN202111030438.0A priority patent/CN113639419B/zh
Priority to EP24160502.1A priority patent/EP4354042A3/en
Priority to EP24160490.9A priority patent/EP4354041A3/en
Priority to JP2019529808A priority patent/JP7011189B2/ja
Priority to US16/618,463 priority patent/US20200126549A1/en
Publication of WO2019013335A1 publication Critical patent/WO2019013335A1/ja
Priority to JP2021183399A priority patent/JP2022020777A/ja
Priority to JP2021183400A priority patent/JP7284426B2/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • F24F11/32Responding to malfunctions or emergencies
    • F24F11/38Failure diagnosis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/30Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring
    • F24F11/49Control or safety arrangements for purposes related to the operation of the system, e.g. for safety or monitoring ensuring correct operation, e.g. by trial operation or configuration checks
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • F24F11/52Indication arrangements, e.g. displays
    • F24F11/526Indication arrangements, e.g. displays giving audible indications
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • F24F11/64Electronic processing using pre-stored data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/89Arrangement or mounting of control or safety devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2130/00Control inputs relating to environmental factors not covered by group F24F2110/00
    • F24F2130/40Noise
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2614HVAC, heating, ventillation, climate control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present disclosure relates to a device control system.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-285969 discloses a remote controller that controls equipment such as an air conditioner in accordance with a user's voice command.
  • Patent Document 2 Patent No. 5963155 discloses a system in which a robot measures the noise level of a real estate property and presents it to a prospective tenant.
  • Patent Document 3 Japanese Patent Application Laid-Open No. 06-027986 discloses a device control system using a voice recognition device that can be dealt with in an emergency by simply making a loud voice by the operator.
  • the microphone of the remote controller is generally designed specifically for detecting human voice, it is not necessarily suitable for analysis of the operating noise of the air conditioner from the viewpoint of frequency characteristics and other aspects. Furthermore, the measurement object of the robot used for evaluation of real estate properties is often simply the noise level (sound size). Furthermore, since the conventional device control system that can cope with an emergency does not know the content of the voice, there is a possibility that appropriate abnormal processing may not be performed.
  • a first problem is to provide a management system capable of detecting or predicting an abnormality based on a driving noise for an air conditioner that receives an instruction by voice.
  • the second problem is to provide information about the room in a more useful way than before based on the measurement of sound.
  • the third problem is to perform appropriate abnormal processing based on the content of the voice.
  • a management system includes an air conditioner, a voice input unit, a driving sound analysis unit, a first pre-processing unit, a command extraction unit, and a control unit.
  • the voice input unit is installed in the same room as the air conditioner and acquires voice data.
  • the driving sound analysis unit analyzes the driving sound included in the voice data by a predetermined analysis method to derive a determination result regarding the presence or absence of abnormality of the air conditioner or the content of the abnormality.
  • the first pre-processing unit performs first pre-processing of audio data.
  • the command extraction unit extracts the user's command from the voice data subjected to the first pre-processing.
  • the control unit controls the air conditioner based on the command.
  • the first pre-processing is performed on the voice data received by the command extraction unit, and the first pre-processing is not performed on the voice data transferred to the driving sound analysis unit. Therefore, since the voice data of the characteristic different from the voice data directed to the command extraction unit can be passed to the driving sound analysis unit, the management system is suitable for the analysis of the driving noise for abnormality detection.
  • the first pre-processing unit extracts a component related to a frequency band of human voice from voice data.
  • the audio data passed to the driving sound analysis unit is not subjected to the first pre-processing for extracting the component related to the frequency band of the human voice. Therefore, the driving sound analysis unit can receive voice data more suitable for analysis.
  • the management system is the management system according to the second aspect, further including a driving sound data storage unit that stores driving sounds.
  • the driving sound analysis unit derives the determination result by analyzing the driving sound data accumulated in the past in the driving sound data storage unit and the latest driving sound data.
  • the management system is the management system according to the third aspect, further including a second pre-processing unit that performs second pre-processing of audio data.
  • the second pre-processing unit extracts the driving sound from the voice data.
  • the driving sound data storage unit stores the driving sound extracted from the second pre-processing unit.
  • the voice data stored in the driving sound data storage unit is subjected to the second pre-processing for removing the component related to the frequency band of the human voice. Therefore, since the voice data from which noise other than the operation noise of the air conditioner has been removed is analyzed, the accuracy of abnormality detection is improved.
  • the management system is the management system according to any one of the first to fourth aspects, wherein the voice input unit further includes a voice gate unit for passing or blocking voice data.
  • the speech gate unit recognizes a predetermined keyword uttered by the user, the speech gate unit passes the speech data for a predetermined time.
  • the predetermined analysis method is a command, the number of years of use of the air conditioner, among a plurality of analysis methods, and It is selected based on at least one of the types of air conditioners.
  • the optimum analysis method is selected according to the command, the year, the model, and the like. Therefore, the accuracy of anomaly detection is further improved.
  • a management system is the management system according to any one of the third aspect to the sixth aspect, wherein the management system according to the seventh aspect includes a command acquisition mode for acquiring a command from a user's voice included in voice data; And a driving sound acquisition mode for acquiring a driving sound of the air conditioner.
  • the management system has two modes of the command acquisition mode and the driving sound acquisition mode. Therefore, when the command is not acquired, the accumulation of the driving sound data can be enhanced.
  • the management system is the management system according to any one of the third aspect to the seventh aspect, wherein one of the commands is a driving sound acquisition command for commanding acquisition of driving sound data from an air conditioner.
  • the command extraction unit extracts the driving sound acquisition command
  • the driving sound data storage unit accumulates the driving sound data for a predetermined time.
  • driving sound data is accumulated according to the user's or the serviceman's will. Therefore, the user or the service person can supplement driving sound data and check the operation of the management system.
  • the management system according to a ninth aspect is the management system according to any one of the third aspect to the eighth aspect, wherein the control unit causes the driving sound data storage unit to periodically accumulate the driving sound data.
  • the management system is the management system according to any one of the third aspect to the ninth aspect, wherein the driving sound data storage unit associates the driving sound data with the command extracted by the command extraction unit. accumulate. The driving sound analysis unit derives the determination result using the command.
  • the driving sound data and the command are associated. Therefore, since the relationship between the operation and the operation noise that the user tried to cause the air conditioner to execute can be grasped, the accuracy of abnormality detection is further improved.
  • the management system is the management system according to any one of the third aspect to the tenth aspect, wherein the driving sound data storage unit further associates the driving sound data with the driving information sent from the air conditioner Accumulate.
  • the driving sound analysis unit derives the determination result using the driving information.
  • the driving sound data and the driving information are associated.
  • the operation information means the state of each part sensed by the air conditioner in operation, the posture of the actuator, and the like. Therefore, since the relationship between the state of the air conditioner and the operating noise can be grasped, the accuracy of abnormality detection is further improved.
  • the management system further includes, in the management system according to any one of the third to eleventh aspects, an output unit controlled by the control unit.
  • the control unit causes the output unit to notify the user of the action to be taken based on the content of the abnormality related to the determination result.
  • the management system further includes a service center terminal in the management system according to any one of the third to twelfth aspects.
  • the determination result is transmitted from the driving sound analysis unit to the service center terminal.
  • the service center terminal can receive the determination result. Therefore, since the serviceman can know the occurrence of abnormality of the air conditioner, prompt maintenance becomes possible.
  • the management system is the management system according to any one of the third aspect to the thirteenth aspect, wherein the air conditioners are a plurality of air conditioners.
  • the plurality of air conditioners have different identification numbers.
  • the driving sound data storage unit the driving sound data is stored in association with the identification number corresponding to the driving sound data.
  • the operation sound data of the plurality of air conditioners is accumulated. Therefore, it is easy to discover abnormalities in a plurality of air conditioners.
  • An information providing system for providing information on a room.
  • the information providing system includes a measurement unit, a data processing unit, and an information generation unit.
  • the measuring unit measures the sound in the room.
  • the data processing unit analyzes the data of the sound measured by the measurement unit, and extracts the first sound.
  • the first sound is a voice uttered by a person in the room and / or a sound resulting from an action of a person in the room.
  • the information generation unit generates information on the room based on the processing result of the data processing unit using information on at least the first sound.
  • the sound measured in the room is analyzed in the data processing unit.
  • the information generation unit generates information on the room using the information on the first sound extracted by the data processing unit. Since this generated information is generated using information relating to the first sound, which is a sound emitted by a human voice in a room and / or a human activity in a room, for example, a person in a room It can be determined whether or not a person is preferable in terms of noise.
  • the first sound may be, for example, a voice of a resident of the room or a voice of a guest staying in a hotel room, a sound of a step of a person in the room, a television or audio of which the volume is increased by the person in the room. Sounds of music and the like flowing from the device, sounds of washing machines and vacuum cleaners moved by people in the room, and the like can be mentioned.
  • the loudness of the voice of the person in the room for example, the loudness of the sound of the footsteps of the person in the room, the loudness of the sound flowing from the television and audio equipment, washing machine and cleaning
  • the sound and size of the aircraft for example, the size of the human voice according to the time of day, the volume of the equipment, and information on who and what the sound originates from, etc. can be mentioned.
  • the information includes noise evaluation information on one apartment based on the evaluation information of each room.
  • An information providing system is the information providing system according to the fifteenth aspect, further including an apparatus operation unit and a storage unit.
  • the device operation unit operates devices in the room in response to an instruction from a person in the room.
  • the storage unit stores an instruction received by the device operation unit.
  • the data processing unit recognizes the sound emitted by the device operated by the human instruction in the room based on the time of the sound measured by the measurement unit and the time of the instruction stored in the storage unit. .
  • the storage unit stores the instruction received by the device operation unit, and recognizes the sound emitted from the device based on the time of the instruction and the time when the sound is measured. According to the present invention, the accuracy of the information relating to the first sound is improved, and the data processing unit that performs this processing can more accurately distinguish the sound emitted by the device from other sounds. Information is also more useful.
  • An information provision system is the information provision system according to the fifteenth or sixteenth aspect, wherein the first sound is caused by the voice emitted by the person in the room and the action of the person in the room Sound.
  • the data processing unit further divides the first sound into a voice uttered by a person in the room and a sound resulting from an action of a person in the room.
  • An information providing system is the information providing system according to any of the fifteenth through seventeenth aspects, wherein the measuring unit is installed in a plurality of rooms.
  • the information generation unit is installed outside the room.
  • the information generation unit generates information on an evaluation on noise of a room or a building including a room, or information on evaluation on noise generation of a person present in the room as the information on the first sound.
  • the information generator can collect sound data from many rooms. And since information on the first sound in each room is gathered, more useful information can be provided.
  • the measurement part installed in each room has a sound collection microphone, for example, built in an air conditioning indoor unit installed in a ceiling or a side wall, built in a lighting apparatus, or portable type
  • the microphone built-in device is supposed to be placed on a desk or shelf in a room.
  • An information providing system is the information providing system according to the eighteenth aspect, wherein the information generating unit presents evaluation information to a manager of a room or a building or an information terminal owned by a person in the room.
  • a manager who is the owner of the room or a management agent, or a person who borrows the room can obtain information on the evaluation from the information generation unit and confirm it on the information terminal.
  • This allows, for example, the owner who operates the rental apartment to obtain a rating on the noise of the lessee renting the room and alert the lessee to stop noise damage in the vicinity of the room Become.
  • a tenant who wishes to refinance a room can obtain a history of his / her past noise evaluation and present it to the lender of the next room, making it easier to borrow the room. Can also be expected.
  • An information providing system is an information providing system for providing information on a room.
  • the information providing system includes a measurement unit, a data processing unit, and an information generation unit.
  • the measuring unit measures the sound in the room.
  • the data processing unit analyzes sound data measured by the measurement unit.
  • the information generation unit generates information on a room based on the processing result of the data processing unit.
  • the sound measured in the room is analyzed in the data processing unit. And an information generation part generates information about a room. If the information generated here is used, for example, it can be determined whether a person in a room is a preferable person in terms of noise.
  • the device is to receive the control instruction from an information processing device that outputs a control instruction in accordance with a voice input acquired via the voice input receiving device.
  • This device includes a reception unit and an abnormality processing execution unit.
  • the reception unit receives an abnormality processing instruction corresponding to the abnormal sound generated in the space where the voice input reception device is installed.
  • the abnormality processing execution unit executes the abnormality processing in response to the abnormality processing instruction.
  • the abnormality processing system includes an apparatus and a voice input receiving device for receiving voice input.
  • the device receives the control instruction from an information processing device that outputs a control instruction in accordance with a voice input acquired via the voice input receiving device.
  • the device also includes a reception unit and an abnormality processing execution unit.
  • the reception unit receives an abnormality processing instruction corresponding to the abnormal sound generated in the space where the voice input reception device is installed.
  • the abnormality processing execution unit executes the abnormality processing in response to the abnormality processing instruction.
  • the abnormality processing system according to a twenty-third aspect is the abnormality processing system according to the twenty-second aspect, wherein the apparatus for receiving the voice input is incorporated.
  • Such a configuration can provide a device that can be controlled by voice input.
  • the abnormality processing system is the abnormality processing system according to the twenty-second or twenty-third aspect, further comprising an information processing device for outputting a control instruction in accordance with a voice input acquired via the voice input receiving device. .
  • voice analysis can be performed with high accuracy.
  • the abnormality processing system of a twenty-fifth aspect is the abnormality processing system of the twenty-second aspect to the twenty-fourth aspect, wherein the information processing apparatus includes an abnormal sound determination unit and a transmission unit.
  • the abnormal sound determination unit determines a predetermined abnormal sound from the sound information acquired via the voice input reception device.
  • the transmission unit transmits an abnormality processing instruction corresponding to the abnormal sound to the device. With such a configuration, it is possible to analyze sound information with high accuracy and transmit an abnormality processing instruction.
  • the abnormality processing system is the abnormality processing system according to the twenty-fifth aspect, wherein the abnormal sound determination unit excludes predetermined sound information as the excluded sound from the abnormal sound. Such a configuration can prevent malfunction.
  • the anomaly processing system is the anomaly processing system according to the twenty-second aspect, wherein the voice input accepting device is capable of switching to a pause state in which transmission of sound information corresponding to voice input is paused. It is a thing. In addition, even in the pause state, the voice input reception device transmits the acquired sound information to the information processing device when the predetermined sound information is acquired. With such a configuration, it is possible to provide an abnormality processing system that operates properly at the time of abnormality.
  • the abnormality processing system is the abnormality processing system according to the twenty-second aspect from the twenty-sixth aspect, wherein the voice input accepting device includes an acceptance side determination unit and an acceptance side transmission unit.
  • the reception side determination unit determines predetermined abnormal sound information from the acquired sound information.
  • the reception side transmission unit transmits an abnormality processing instruction corresponding to the determined abnormal sound to the device.
  • the abnormality processing system according to the twenty-ninth aspect is the abnormality processing system according to the twenty-second aspect from the twenty-sixth aspect, wherein the device is capable of switching to a stopped state where the reception of the control instruction is stopped. Further, even when the device is in the stopped state, the device executes the abnormality processing when the abnormality processing instruction is received. With such a configuration, it is possible to provide an abnormality processing system that operates properly at the time of abnormality.
  • FIG. 6 is a block diagram of a configuration of a management system 90.
  • FIG. 6 is a block diagram according to functional aspects of a management system 90. It is a graph which shows the method of the abnormality detection based on the waveform or frequency spectrum of a driving sound.
  • It is the schematic of the management system 90 which concerns on the 1st modification of 1st Embodiment of 1st structure.
  • It is the schematic of the management system 90 which concerns on the 2nd modification of 1st Embodiment of 1st structure.
  • It is a block diagram by the functional surface of management system 90A concerning a 2nd embodiment of the 1st composition.
  • It is a block diagram by the functional surface of management system 90B concerning a 3rd embodiment of the 1st composition.
  • [Second configuration] It is a schematic block diagram of the apparatus control system containing the information-provision system which concerns on one Embodiment of 2nd structure. It is a control block diagram of an apparatus control system. It is a flow which shows the noise judgment processing in an air-conditioner. It is a flow which shows preparation and presentation of information concerning noise in a server for noise evaluation.
  • FIG. 3 It is a schematic diagram for demonstrating the concept of the apparatus control system 3001 which concerns on 1st Embodiment of 3rd structure, and the abnormality processing system 3003.
  • FIG. It is a schematic diagram which shows the structure of the apparatus control system 3001 and the abnormality processing system 3 which concern on the embodiment.
  • FIG. 18 is a sequence diagram for explaining the operation of the abnormality processing system 3003 according to Modification C. It is a schematic diagram which shows the structure of the refrigerant
  • FIG. FIG. 16 is a schematic view showing a configuration of a refrigerant cycle used in application example 3; It is a schematic diagram which shows the structure of apparatus control system 3001S which concerns on 2nd Embodiment of 3rd structure, and abnormality processing system 3003S. It is a sequence diagram for demonstrating operation
  • FIG. 1 shows a device control system according to a first embodiment of the present invention.
  • the device control system is configured as a management system 1090 such as an air conditioner.
  • the management system 1090 includes a server 1040, a router 1061 installed in a building 1060, an air conditioner 1062, a voice input / output device 1063, and a service center terminal 1071 installed in a service center 1070.
  • the server 1040, the air conditioner 1062, the voice input / output device 1063, and the service center terminal 1071 are connected by a network 1050.
  • Air conditioner 1062 The air conditioner 1062 is connected to the network 1050 via a router 1061 having a switching hub.
  • the link between the router 1061 and the air conditioner 1062 may be realized by either wired communication or wireless communication.
  • the voice input / output device 1063 is installed in the same room as the air conditioner 1062.
  • the voice input / output device 1063 is connected to the network 1050 via the router 1061.
  • the voice input / output unit 1064 and the voice output unit 1065 are provided in the voice input / output device 1063.
  • the link between the router 1061 and the voice input / output device 1063 may be realized by either wired communication or wireless communication.
  • the network 1050 is, for example, the Internet constructed using the PSTN (Public Switched Telephone Network) or the like.
  • PSTN Public Switched Telephone Network
  • the server 1040 is installed at a remote place from the building 1060 and connected to the network 1050. There is.
  • the server 1040 controls various devices in response to the voice emitted by the user of the air conditioner 1062. Furthermore, the server 1040 performs abnormality detection and other processing from the operation noise of the air conditioner 1062.
  • the server 1040 may be configured as a single computer, or may be configured from a plurality of computers 1040 a and 1040 b each having different functions.
  • one computer 1040a may be responsible for voice analysis and command execution, and another computer 1040b may be responsible for driving sound accumulation and anomaly detection.
  • the plurality of computers 1040a and 1040b may be installed at remote locations and owned or controlled by different companies.
  • Service center terminal 1071 is a terminal used by a service person in the service center 1070.
  • FIG. 2 is a block diagram of the configuration of the management system 1090.
  • the air conditioner 1062 includes an input / output interface unit 1621, a processor 1622, and a refrigerant circuit 1623.
  • the input / output interface unit 1621 is connected to the network 1050 via the router 1061 and exchanges information with other devices.
  • the refrigerant circuit 1623 includes a sensor and an actuator to balance the air in the room.
  • the processor 1622 controls an actuator of the air conditioner 1062, reads an output of the sensor, and exchanges information with the input / output interface unit 1621.
  • the voice input / output device 1063 includes an input / output interface unit 1631, a voice input unit 1064, and a voice output unit 1065.
  • the input / output interface unit 1621 is connected to the network 1050 via the router 1061 and exchanges information with other devices.
  • the audio input unit 1064 includes a microphone 1641, an amplifier 1642, an AD converter 1643, and an audio gate unit 1644.
  • the microphone 1641 acquires an analog voice signal.
  • An amplifier 1642 amplifies the acquired analog audio signal.
  • the AD converter 1643 AD converts the amplified analog audio signal to obtain audio data SD.
  • the voice gate unit 1644 passes or blocks the voice data SD according to an external control signal or according to the analysis result of the voice data SD by itself.
  • the audio data SD that has passed through the audio gate unit 1644 is sent to the input / output interface 1631 unit.
  • the voice gate unit 1644 detects that a predetermined keyword is uttered by human voice as the voice data SD, the voice data SD may be passed for a predetermined time.
  • the audio output unit 1065 includes a DA converter 1653, an amplifier 1652, and a speaker 1651.
  • the DA converter 1653 performs DA conversion on the output data OD received from the input / output interface unit 1631 and sends the obtained analog output signal to the amplifier 1652.
  • An amplifier 1652 amplifies the analog output signal.
  • the speaker 1651 emits a sound corresponding to the amplified analog output signal.
  • the server 40 has computers 1040a and 1040b.
  • the number of computers included in the server 1040 may be any number.
  • the computer 1040 a includes an input / output interface unit 1041, a processor 1042, and a memory 1043.
  • the input / output interface unit 1041 is connected to the network 1050.
  • the processor 1042 performs various processes. The processing includes transmission / reception of information via the input / output interface unit 1041, various arithmetic operations, and the like.
  • the memory 1043 stores information by the writing operation of the processor 1042 or the like.
  • FIG. 3 is a functional block diagram of the management system 1090.
  • the management system 1090 includes a plurality of functional blocks in addition to the voice input unit 1064 and the voice output unit 1065, that is, a first pre-processing unit 1011, a text conversion unit 1013, a command extraction unit 1014, a driving sound data storage unit 1015, a driving A sound analysis unit 1016, a control unit 1017, and a mode determination unit 1019 are included.
  • These functional blocks 1011 to 1019 may themselves be configured as hardware such as an integrated circuit or a hard drive. Alternatively, it may be configured as software such as a program stored in the memory 1043 of the computers 1040 a and 1040 b of the server 1040 and executed by the processor 1042.
  • the physical mounting positions of the functional blocks 1011 to 1019 may be the computers 1040 a and 1040 b or may be the voice input / output device 1063, the air conditioner 1062, or other places.
  • the first pre-processing unit 1011 is configured as hardware.
  • the management system 1090 has two types of modes: command acquisition mode MC and driving sound acquisition mode MO.
  • the command acquisition mode MC is a mode in which a command is obtained from the user's voice obtained by the voice input unit 1064 and the command is executed. Examples of the command include start of operation, stop of operation, change of set temperature, change of operation mode (for example, heating, cooling, dehumidification, air blowing) and the like.
  • the operation sound acquisition mode MO acquires the operation sound of the air conditioner 1062 by the voice input unit 1064 and compares it with the operation sound data accumulated so far to check whether the air conditioner 1062 is abnormal or not. This mode is for obtaining the determination result.
  • the voice input unit 1064 obtains voice data SD.
  • the voice data SD may be the voice of the user or the operation sound of the air conditioner 1062.
  • the mode determination unit 1019 determines which of the command acquisition mode MC and the driving sound acquisition mode MO the process should be performed on the voice data SD. Various methods described below can be adopted as the mode determination method.
  • Audio data SD For example, the mode can be determined from the feature of the audio data SD.
  • the voice data SD contains many features of the human voice
  • the command acquisition mode MC is entered.
  • the processing shifts to the driving noise acquisition mode MO.
  • the voice gate unit 1644 When the voice gate unit 1644 recognizes that a predetermined keyword is uttered by human voice as voice data SD, the voice gate unit 1644 passes the voice data SD. At this time, the command acquisition mode MC may be performed for a predetermined time, and then the driving sound acquisition mode MO may be performed for a predetermined time. After the series of operations, the audio gate unit 1644 may shut off the audio data SD.
  • the mode determination unit 19 changes the MO from the command acquisition mode MC to the driving sound acquisition mode. You may decide.
  • Periodic acquisition Mode determination may be performed using elapsed time. That is, the operation of the driving sound acquisition mode MO may be performed at each elapse of a predetermined period.
  • the fixed period may be, for example, one hour, one week, one month, or one year. This operation is performed as a periodic diagnosis of the air conditioner 62.
  • the voice data SD is the user's voice.
  • the audio data SD acquired by the audio input unit 1064 is subjected to the first preprocessing in the first preprocessing unit 1011 configured as hardware.
  • the first pre-processing includes a filtering process of extracting a component related to the frequency band of human voice from the voice data SD.
  • the output of the first pre-processing unit 1011 is sent to the text conversion unit 1013.
  • the text conversion unit 1013 converts the first pre-processed speech data into text in consideration of the feature of the language in which the user is supposed to use.
  • the output of the text conversion unit 1013 is sent to the command extraction unit 1014.
  • the command extraction unit 1014 analyzes the syntax of the text and extracts a command CM to be transmitted to the air conditioner 1062.
  • the obtained command CM is transmitted to the air conditioner 1062 by the control unit 1017.
  • the voice data SD is the driving sound of the air conditioner 1062.
  • the function of the first pre-processing unit 1011 configured as hardware is invalidated, and the first pre-processing unit 1011 directly uses the voice data SD obtained by the voice input unit 1064 as it is. Let it pass.
  • the voice data SD is accumulated in the driving sound data storage unit 1015 as the driving sound data OS without being subjected to the first pre-processing in the first pre-processing unit 1011.
  • the operating sound analysis unit 1016 collates the latest operating sound data OS with the operating sound data OS accumulated in the past, and determines whether or not there is an abnormality in the air conditioner 1062 and what type of abnormality is present.
  • the determination result RE derived by the driving sound analysis unit 1016 is sent to the control unit 1017.
  • the control unit 1017 performs, for example, the following operation according to the determination result RE.
  • the air conditioner 1062 is controlled.
  • the determination result RE is abnormal, control of the air conditioner 1062 different from that in the normal state is performed.
  • the determination result RE is abnormal, the user is notified of the content of the abnormality through the voice output unit 1065.
  • a message is issued to notify the user of a countermeasure for the abnormality through the voice output unit 1065.
  • Examples of the contents of the message are to clean the air filter of the air conditioner 1062, to clean the friction part of the flap for adjusting the blowing direction and to remove foreign matter, to call a service man, Etc.)
  • the determination result RE is abnormal, the content of the abnormality is transmitted to the service center terminal 1071.
  • a learned model may be created by machine learning from the accumulation of the driving sound data OS and the presence / absence of the corresponding abnormality and information of the contents, and the learned model may be used as artificial intelligence of the driving sound analysis unit 1016.
  • an expert system reflecting the skill of a skilled service person may be constructed, and artificial intelligence using the expert system may be used as the driving sound analysis unit 1016.
  • one analysis method may be selected according to the situation.
  • the analysis method may be determined based on at least one of the parameters including the content of the user's instruction, the age of the air conditioner 1062, the type of the air conditioner 1062, and the like.
  • the voice data SD passed to the driving sound analysis unit 1016 is not subjected to the first pre-processing for extracting the component related to the frequency band of the human voice. Therefore, the driving sound analysis unit can receive audio data SD more suitable for analysis.
  • the optimum analysis method is selected according to the command, the age, the model, and the like. Therefore, the accuracy of anomaly detection is further improved.
  • the management system 1090 has two modes, a command acquisition mode MC and a driving sound acquisition mode MO. Therefore, when the command is not acquired, accumulation of the driving sound data OS can be enhanced.
  • the driving sound data OS is accumulated according to the intention of the user or the service person. Therefore, the user or the serviceman can perform the replenishment of the driving sound data OS and the operation check of the management system 1090.
  • the driving sound data OS is accumulated periodically. Therefore, since the information that can be used for analysis is enriched, the accuracy of anomaly detection is improved.
  • the service center terminal 1071 can receive the determination result RE. Therefore, since the serviceman can know the occurrence of an abnormality of the air conditioner 1062, quick maintenance is possible.
  • the installation space of the management system 1090 in the building 1060 can be reduced.
  • the number of air conditioners 1062 included in the management system 1090 is one.
  • the management system 1090 may include a plurality of air conditioners 1062.
  • the plurality of air conditioners 1062 have different identification numbers.
  • the driving sound data OS is stored in association with the identification number corresponding to the driving sound data OS.
  • the operating sound data OS of the plurality of air conditioners 1062 is accumulated. Therefore, it is easy to find an abnormality in a plurality of air conditioners 1062.
  • the output regarding the presence or absence of abnormality and the content of the abnormality may be performed by the display panel or the LED regardless of the sound emitted by the audio output unit 1065.
  • the user can visually obtain information about the abnormality.
  • FIG. 7 is a functional block diagram of a management system 1090A according to the second embodiment of the present invention.
  • the first pre-processing unit 1011 is configured as software.
  • the voice data SD is subjected to the first pre-processing by the first pre-processing unit 1011, and the voice data having undergone the first pre-processing is sent to the text conversion unit 1013.
  • the voice data SD is sent to the driving sound data storage unit 1015 as the driving sound data OS as it is without receiving the first pre-processing.
  • the first preprocessing unit 1011 is configured by the processors 1042 of the computers 1040a and 1040b. Therefore, it is not necessary to prepare dedicated hardware for the first pre-processing unit 1011.
  • FIG. 8 is a functional block diagram of a management system 1090B according to the third embodiment of the present invention.
  • the present embodiment differs from the first embodiment in that the second pre-processing unit 1012 is provided, that the driving sound data storage unit 1015 also records information other than the driving sound data OS, and other points. .
  • the second pre-processing unit 1012 performs second pre-processing on the audio data SD.
  • the second pre-processing includes a filtering process for removing a component related to the frequency band of human voice from the voice data SD.
  • Both the first pre-processing unit 1011 and the second pre-processing unit 1012 may be configured as hardware or may be configured as software.
  • the driving sound data storage unit 1015 stores the driving sound data OS in association with the contents of the driving information OI or the command CM.
  • the operation information OI is information indicating the operation state of the air conditioner 1062, and is obtained, for example, from the operation mode of the air conditioner 1062, the operation content of the actuator mounted on the air conditioner 1062, and the sensor mounted on the air conditioner 1062. Data etc.
  • the command CM relates to an operation that the user wants the air conditioner 1062 to execute, which is extracted by the command extraction unit 1014.
  • the voice data OS stored in the driving sound data storage unit 1015 is subjected to the second pre-processing for removing the component related to the frequency band of human voice. Therefore, since the voice data from which noise other than the operation noise of the air conditioner 1062 has been removed is analyzed, the accuracy of abnormality detection is improved.
  • the device control system 2001 includes an information providing system.
  • the following embodiments are specific examples of the present invention, and do not limit the technical scope of the present invention.
  • the following embodiments can be appropriately modified without departing from the scope of the present invention.
  • FIG. 9 is a schematic configuration diagram of a device control system 2001 including the information providing system.
  • FIG. 10 is a schematic block diagram of the device control system 2001. In FIG. 10, the drawing of a part of the device control system 2001 is omitted.
  • the basic function of the device control system 2001 is to control the air conditioner 2010 installed in the room R with an instruction by the voice of the resident who is the lessee in the room R for rent.
  • the device control system 2001 is also instructed by the voice of the resident and includes devices 2050a, 2050b, ... 2050n included in a first device group 2050 described later, and devices 2060a, 2060b, 2060 included in a second device group 2060. .. 2060 m are also provided.
  • the device control system 2001 also has a function as an information providing system that provides information on the noise regarding the noise of the lessee to the lessee in the room R and the owner of the room R in the lease.
  • the device control system 2001 as an information providing system generates a noise evaluation of the lessee using data of sound collected by a microphone 2140 built in the air conditioner 2010 described later.
  • the device control system 2001 includes an air conditioner 2010, a first device group 2050, a second device group 2060, an infrared transmitter 2040, an analysis server 2020, an air conditioner server 2030, an device server 2070, and noise evaluation.
  • the server 2200 is mainly included (see FIG. 9).
  • the air conditioner 2010, the first device group 2050, the second device group 2060, and the infrared ray transmitter 2040 are devices disposed in the room R (see FIG. 9).
  • the room R is one room of an apartment house (apartment or apartment) having a plurality of rooms each of which is a single room.
  • the owner of each room R equips each room R with household appliances, furniture, etc. beforehand.
  • Room R is equipped with one air conditioner 2010.
  • devices 2050a, 2050b, ... 2050n such as audio devices, microwave ovens, ventilation fans, desk lighting devices, and devices 2060a such as TVs, washing machines, refrigerators, electric water heaters, ceiling lighting devices, etc. 2060b, ... 2060m are also provided.
  • the analysis server 2020, the air conditioner server 2030, the device server 2070, and the noise evaluation server 2200 are usually installed in a place different from the room R (a remote place outside the room R).
  • the number of may be one or more than one, regardless of the number depicted in FIG.
  • the air conditioner 2010, the first device group 2050, the second device group 2060, the infrared ray transmitter 2040, the analysis server 2020, the air conditioner server 2030, the device server 2070, and the noise evaluation server 2200 will be further described below.
  • the air conditioner 2010 mainly includes an indoor unit 2012, an outdoor unit 2014, a refrigerant communication pipe connecting these, a communication unit 2016, a controller 2018, and a microphone 2140 (see FIG. 9 and 10)).
  • the air conditioner 2010 is a device that performs air conditioning of the internal space of the room R.
  • the air conditioner 2010 is an air conditioner operable by inputting an instruction voice to the microphone 2140 (see FIG. 10).
  • the instruction voice is, for example, a voice such as “air conditioning on”, “setting temperature set to 25 ° C.” and the like.
  • the air conditioner 2010 according to the present embodiment is configured to be operable by a general remote control.
  • the microphone 2140 can also receive instruction voices for the devices 2050a, 2050b, ... 2050n of the first device group 2050 and the devices 2060a, 2060b, ... 2060m of the second device group 2060. ing. Further, the microphone 140 also collects voices uttered by people in the room R and operation sounds generated from the respective devices 2050a, 2050b,..., 2050n, 2060a, 2060b,.
  • the microphone 2140 functions as a measurement unit that measures sound in the room R.
  • the operation of the air conditioner 2010 is controlled by the controller 2018.
  • the controller 2018 includes, for example, a control substrate 2018a of the indoor unit 2012 and a control substrate (not shown) of the outdoor unit 2014.
  • the operation of each component of the indoor unit 2012 is mainly controlled by the control substrate 2018a of the indoor unit 2012
  • the operation of each component of the outdoor unit 2014 is mainly controlled by the control substrate of the outdoor unit 2014.
  • the CPUs of the control boards of the indoor unit 2012 and the outdoor unit 2014 constituting the controller 2018 execute a program for air conditioning control to respond to a command C or the like, which will be described later, transmitted from the air conditioner server 2030. Control the operation of each part of
  • the indoor unit 2012 includes a speech processing chip 2170 as another electronic component of the control board 2018a.
  • the voice processing chip 2170 is preferably integrated with the control board 2018a. That is, the indoor unit 2012 preferably has a module 2180 in which the control board 2018a and the voice processing chip 2170 are integrated (see FIG. 10).
  • the voice processing chip 2170 is an integrated circuit that processes the instruction voice acquired by the microphone 2140 and generates a signal S described later. Further, the voice processing chip 2170 recognizes only a specific instruction voice of the instruction voices acquired by the microphone 2140 (performs voice recognition processing on the instruction voice and recognizes only the specific instruction voice), and the predetermined instruction C0. Integrated circuit to generate
  • the specific instruction sound is, for example, a sound requesting that the air conditioner 2010 prepares for the input of the next instruction sound.
  • the predetermined command C0 includes, for example, a command to request the microphone 2140 to receive a subsequent command sound.
  • predetermined instruction C0 is, for example, a signal S based on an instruction voice other than the specific instruction voice (accepted subsequently to the specific instruction voice) among the instruction voices received by microphone 2140 in transmission unit 2016a of communication unit 2016 described later. Including a command requesting preparation for the transmission of
  • the specific instruction voice may not be a voice that requests the air conditioner 2010 to prepare for the input of the next instruction voice.
  • the specific instruction voice is a voice requesting execution of the basic operation (for example, on / off) of the air conditioner 2010, and the predetermined command C0 generated in response to this is the controller 2018 of the air conditioner 2010. It may be a command requesting operation / stop. Then, a signal S based on an instruction voice that is an operation of the air conditioner 2010 and requires execution other than the basic operation may be transmitted to the outside (the analysis server 2020).
  • the speech processing chip 2170 is also capable of detecting a certain level of sound (predetermined level), for example, when a sound of 50 db or more enters the microphone 2140 Analyze the data. Based on the frequency of the sound, it is judged whether it is human voice or other sound. Other sounds include TV sound, washing machine sound, electric water heater sound, music generated from audio equipment, sound of a ventilation fan, sound of a room R resident stepping or hitting a wall, etc. However, detailed analysis of sound data relating to sounds other than human voice is not performed by the voice processing chip 2170, and the detailed analysis is performed by a noise evaluation server 2200 described later.
  • FIG. 11 shows a flow of noise determination processing by the voice processing chip 2170 of the air conditioner 2010.
  • the voice processing chip 2170 constantly monitors the level of the sound input to the microphone 2140, and determines whether the level of the sound being collected exceeds a predetermined level (step S11).
  • step S11 If it is determined in step S11 that the sound level exceeds the predetermined level, the voice processing chip 2170 determines whether the sound is a human voice (step S12). This determination is made based on the frequency analysis of sound and the like.
  • step S12 If it is determined in step S12 that the sound exceeding the predetermined level is a human voice, the process proceeds to step S13, and the voice processing chip 2170 starts storing information such as the sound level, time, and duration in the memory. Information on the sound level and time is stored in the memory until the human voice whose volume exceeds the predetermined level continues to fall below the predetermined level for a certain period of time (step S14).
  • step S12 determines whether the sound exceeding the predetermined level is human voice. If it is determined in step S12 that the sound exceeding the predetermined level is not human voice, the process proceeds to step S16, and the voice processing chip 2170 stores the sound level, time, duration, and frequency analysis result in the memory. Start doing it. This is continued until the sound level continues and falls below the predetermined level (step S17).
  • the air conditioner 2010 has a communication unit 2016 for communicating with the analysis server 2020 outside the air conditioner 2010 and the air conditioner server 2030.
  • the air conditioner 2010 (communication unit 2016) is connected to the analysis server 2020 and the air conditioner server 2030 via the network 2080 (see FIG. 9).
  • the network 2080 is here the Internet but may be another WAN.
  • the air conditioner 2010 is connected to the router 2082 by a wireless LAN, and is connected to the network 2080 via the router 2082 (see FIG. 9).
  • the router 2082 has an interface on the WAN side and an interface on the LAN side, and interconnects the WAN and the LAN.
  • the air conditioner 2010 and the router 2082 may be connected not by a wireless LAN but by a wired LAN.
  • the network 2080 may be a LAN.
  • the communication unit 2016 is, for example, a wireless LAN adapter that performs wireless communication with the router 2082.
  • the communication unit 2016 includes, as functional units, a transmission unit 2016a that transmits information and a reception unit 2016b that receives information (see FIG. 10).
  • the transmission unit 2016a transmits a signal S based on the instruction voice accepted by the microphone 2140 to the outside (see FIG. 10).
  • transmission unit 2016a transmits a signal S based on an instruction voice other than the specific instruction voice among the instruction voices received by microphone 2140 to the outside.
  • the present invention is not limited to this, and the transmitting unit 2016a may transmit the signal S based on the instruction voice to the outside for all the instruction voices accepted by the microphone 2140.
  • the signal S is a digital audio signal obtained by AD-converting the instruction voice by the audio processing chip 2170.
  • the signal S may be, for example, data in which a digital audio signal is further compressed by the audio processing chip 2170 using various audio data compression methods (for example, MP3 or the like). Further, the signal S may be data in which the instruction voice is textified by the voice processing chip 2170 (data in which the voice is replaced with text).
  • the transmission unit 2016a preferably transmits the signal S to a plurality of addresses (for example, to the analysis server 2020 and the air conditioner server 2030).
  • the transmission unit 2016a transmits, to the air conditioner server 2030, information J about the state amount of at least one of the air conditioner 2010 and the air conditioning target space.
  • the state quantities related to the air conditioner 2010 include, for example, the temperature / pressure of the refrigerant measured by sensors (not shown) at various places in the refrigerant circuit, the inverter control motor (not shown) of the compressor of the outdoor unit 2014 The rotational speed, the opening degree of the expansion valve of the outdoor unit 2014, and the like are included.
  • the state quantities related to the air conditioning target space include the temperature of the air conditioning target space measured by a sensor (not shown) and the like.
  • the reception unit 2016b receives from the outside a command C corresponding to the signal S transmitted by the transmission unit 2016a (in particular, the signal S based on an instruction voice related to control of the air conditioner 2010). More specifically, the receiving unit 2016b receives the command C generated based on the analysis result of the signal S by the analysis server 2020 (in particular, the signal S based on the instruction voice related to the control of the air conditioner 2010).
  • the air conditioner server 2030 analyzes the signal S by the analysis server 2020 (in particular, the signal S based on the instruction voice related to control of the air conditioner 2010) and the transmitting unit 2016a from the air conditioner server 2030 And the command C generated based on the information J about the state quantity transmitted to the.
  • the controller 2018 that controls the operation of the air conditioner 2010 controls the operation of the air conditioner 2010 based on the command C.
  • the instruction C changes on / off of the operation of the air conditioner 2010, switching of the operation mode of the air conditioner 2010 (cooling / heating / dehumidifying / blowing etc.), change of the set temperature (target temperature of the space to be air conditioned), outdoor unit
  • the target value of the rotation speed of the inverter control motor (not shown) of the compressor 2014, the target value of the opening degree of the expansion valve of the outdoor unit 2014, and the rotation of the fan motor 2160 of inverter control of the fan 2150 of the indoor unit 2012 Relate to at least one of the target values of the number.
  • the transmission unit 2016a generates noise data D (see FIG. 10) for the data in the memory related to the sound exceeding the predetermined level stored by the voice processing chip 2170 described above. It transmits to the noise evaluation server 2200 via the air conditioner server 2030 as reference).
  • steps S14 and S17 in FIG. 11 has been described in the description of the noise determination of the voice processing chip described above, but the steps after that will be described below.
  • step S14 If it is determined in step S14 that the level of the human voice is lower than the predetermined level continuously for a predetermined time, the process proceeds to step S15.
  • step S15 the transmission unit 2016a transmits the data of the level, time, and duration of the human voice sound that has been stored so far to the air conditioner server 2030 as noise data D.
  • the air conditioner server 2030 sends it to the noise evaluation server 200.
  • step S17 If it is determined in step S17 that the level of the sound other than the human voice is continuously lower than the predetermined level for a predetermined time, the process proceeds to step S18.
  • the transmission unit 2016a transmits the data of the level, time, duration, and frequency analysis result of the sound stored up to that point to the air conditioner server 2030 as noise data D.
  • the air conditioner server 2030 receives the noise data D, the air conditioner server 2030 sends it to the noise evaluation server 2200.
  • the devices 2050a, 2050b, ... 2050n of the first device group 2050 are devices that can be operated by an infrared signal.
  • the devices 2050 a, 2050 b,... 2050 n of the first device group 2050 are not connected to the network 2080.
  • the devices 2050 a, 2050 b,... 2050 n of the first device group 2050 are operated by the infrared signal transmitted from the infrared transmitter 2040 in response to the input of the instruction voice to the microphone 2140 of the air conditioner 2010.
  • the contents operable by the infrared signal include, for example, on / off of the devices 2050a, 2050b,... 2050n, a change in brightness in the case of a desk lamp, a change in volume in the case of an audio device, and the like.
  • the devices 2050a, 2050b,... 2050n of the first device group 2050 in addition to the voice operation (in addition to the operation by the infrared signal transmitted from the infrared transmitter 2040 in response to the input of the instruction voice), It is configured to be operable also by a typical infrared remote control and switches provided on the main body of the devices 2050a, 2050b,... 2050n.
  • the devices 2060 a, 2060 b,... 2060 m of the second device group 2060 are devices operable by a signal transmitted via the network 2080.
  • the devices 2060a, 2060b,... 2060m of the second device group 2060 have a wireless LAN adapter (not shown) and are connected to the network 2080 via the router 2082 (see FIG. 9).
  • the devices 2060a, 2060b,... 2060m of the second device group 2060 are communicably connected to at least one of the analysis server 2020 and the device server 2070 via the network 2080 (see FIG. 9).
  • the devices 2060a, 2060b,... 2060m of the second device group 2060 are operated by a signal transmitted from the analysis server 2020 or the device server 2070 in response to the input of an instruction voice to the microphone 2140 of the air conditioner 2010.
  • the contents operable by the signal transmitted from the analysis server 2020 or the device server 2070 include, for example, on / off of the devices 2060a, 2060b,... 2060m, a change in television channel or volume, and the like.
  • the devices 2060a, 2060b,... 2060m of the second device group 2060 in addition to the voice operation (in addition to the operation by the signal transmitted via the network 2080 according to the input of the instruction voice), It is configured to be operable also by a remote control used in the prior art and a switch provided on a main body of the devices 2060a, 2060b,... 2060m.
  • the analysis server 2020 is connected to the air conditioner 2010 (communication unit 2016) via the network 2080. Then, when the microphone 2140 of the air conditioner 2010 receives the instruction voice, as described above, the transmission unit 2016a of the air conditioner 2010 sends the signal S based on the instruction voice to the analysis server 2020 via the network 2080 (see FIG. 10).
  • the instruction voice received by the microphone 2140 includes an instruction voice related to control of the air conditioner 2010, an instruction voice related to control of the devices 2050a, 2050b,... 2050n of the first device group 2050, a device 2060a of the second device group 2060, 2060b,... 2060 m including instruction voice regarding control.
  • the analysis server 2020 receives the signal S based on the instruction voice regarding the control of the air conditioner 2010, the devices 2050a, 2050b, ... 2050n, and the devices 2060a, 2060b, ... 2060m.
  • the analysis server 2020 is communicably connected to the air conditioner server 2030 and the device server 2070 via the network 2080.
  • the analysis server 2020 is a computer that analyzes the received signal S by executing a program stored in a storage device (not shown). For example, specifically, the analysis server 2020 performs speech recognition of the received speech signal.
  • operable devices in each room R air conditioner 2010, devices 2050a, 2050b,... 2050n of the first device group 2050, and the second device group A list of the devices 2060a, 2060b, ... 2060m) of 2060 is stored. That is, the analysis server 2020 grasps the devices that can be operated directly or through the infrared transmitter 2040.
  • the devices 2060a, 2060b, ... 2060m of the second device group 2060 whether or not the devices 2060a, 2060b, ... 2060m to be controlled are direct control targets of the analysis server 2020 (analysis server Information regarding which server of 2020 and the device server 2070 is to be controlled is also stored.
  • the analysis server 2020 analyzes the voice as the signal S to obtain its feature quantity, and generates text information from the feature quantity using a speech recognition dictionary including an acoustic model, a language model and a pronunciation dictionary stored in the storage device Do.
  • the text information generated by the analysis server 2020 is, for example, text information such as “air conditioner on”, “set air conditioner set temperature to 25 degrees”, “ceiling illumination off”, “television on”, and the like.
  • the analysis server 2020 analyzes the analysis result of the signal S (that is, the generated text information) It transmits to the air conditioner server 2030 via the network 2080 (see FIG. 10).
  • the analysis server 2020 A command to send an infrared signal according to the analysis result of the signal S (that is, the generated text information) is transmitted to the infrared transmitter 2040.
  • the analysis server 2020 transmits infrared light A command is sent to the machine 2040 to send an infrared signal instructing the table lamp to turn off.
  • the command to the infrared transmitter 2040 is transmitted from the analysis server 2020 to the infrared transmitter 2040 via the network 2080.
  • the analysis server 2020 functions as a device operation unit.
  • the analysis server 2020 A command according to the analysis result of the signal S (that is, the generated text information) is transmitted to the devices 2060a, 2060b,... 2060m of the second device group 2060.
  • the analysis server 2020 sends a message to the television. Send a command to increase the volume.
  • the command for the devices 2060a, 2060b,... 2060m of the second device group 2060 is transmitted from the analysis server 2020 to the devices 2060a, 2060b,... 2060m of the second device group 2060 via the network 2080.
  • the devices 2060a, 2060b, ... 2060m to be controlled are directly connected to the analysis server 2020.
  • the text information is transmitted to the device server 2070 that controls the devices 2060a, 2060b, ... 2060m.
  • the text information relates to an electric water heater of “hot water at boiling point XX”
  • the text information is transmitted to the device server 2070.
  • a command is transmitted from the device server 2070 to the devices 2060a, 2060b,... 2060m via the network 2080.
  • Air conditioner server 2030 transmits the analysis result of the signal S by the analysis server 2020 transmitted from the analysis server 2020 (that is, the text information generated by the analysis server 2020) and the transmission unit 2016a of the air conditioner 2010.
  • the command C is generated on the basis of the information J about the state quantity related to at least one of the air conditioner 2010 and the air conditioning target space appropriately transmitted from the above.
  • the air conditioner server 2030 transmits the command C to the reception unit 2016b of the air conditioner 2010 via the network 2080.
  • the air conditioner server 2030 functions as a device operation unit.
  • the air conditioner server 2030 generates the command C based on the information J in addition to the result of analysis of the signal S by the analysis server 2020, but is not limited to this.
  • the air conditioner server 2030 may generate the command C based only on the result of the analysis of the signal S by the analysis server 2020.
  • the air conditioner server 2030 accumulates the signal S transmitted from the transmission unit 2016 a of the air conditioner 2010, and performs various analyzes using the signal S.
  • the air conditioner server 2030 is connected to the noise evaluation server 2200 which is adjacent and connected by wire, and the operation information of each device obtained from the analysis server 2020 or the device server 2070 is transmitted to the noise evaluation server 2200. send. The details will be described later.
  • the device server 2070 is a device of the second device group 2060 based on the result of analysis of the signal S by the analysis server 2020 (that is, text information generated by the analysis server 2020) transmitted from the analysis server 2020. 2060 a, 2060 b,... Generate commands for 2060 m. Then, the device server 2070 transmits a command via the network 2080 to the devices 2060a, 2060b,... 2060m of the second device group 2060 of the operation target. Thus, the device server 2070 functions as a device operation unit.
  • the device server 2070 may not exist.
  • the infrared transmitter 2040 is a memory (not shown) for storing an infrared signal pattern for control according to the device and operation content of the devices 2050a, 2050b, ... 2050n of the first device group 2050. have.
  • the infrared transmitter 2040 utilizes the infrared signal pattern stored in the memory, and in response to the command transmitted from the analysis server 2020, the devices 2050a, 2050b, ... of the first device group 2050 to be operated. Send an infrared signal to 2050n.
  • the noise evaluation server 2200 collects sound information on the room R, and rents the room R to a monitoring terminal (such as a computer) 2280 of the owner who is the room R or a manager who is a management representative. It is possible to notify information on the noise generation status of people. In addition, the noise evaluation server 2200 notifies the noise evaluation of the renter and the housing complex to the portable terminal 2290 owned by the resident who is the renter of the room R and the tenant of the housing complex including the room R. Can.
  • the noise evaluation server 2200 receives the noise data D transferred from the air conditioner server 2030.
  • the noise data D includes sound level, time, and duration data of human voice above a predetermined level (hereinafter referred to as voice noise data) and sound level above a predetermined level other than human voice. Both time, duration, and data of frequency analysis results (hereinafter referred to as noise data other than voice).
  • the noise evaluation server 2200 receives the operation information of each of the devices 2050a, 2050b, ... 2050n, 2060a, 2060b, ... 2060m, which are sent from the analysis server 2020 or the device server 2070.
  • the noise evaluation server 2200 receives, from the air conditioner server 2030, operation information of the air conditioner 2010.
  • a storage device (storage unit) 2240 having a large capacity is provided, and in the storage device 2240, several databases D1 to D4 described later are stored.
  • the noise evaluation server 2200 receives noise data of voice and noise data other than voice from the air conditioner 2010.
  • Step S21 Operation information of the air conditioner 2010 and each device 2050a, 2050b, ... 2050n, 2060a, 2060b, ... 2060m is received from the analysis server 2020, the air conditioner server 2030, and the device server 2070 (step S22) ). This is as described above.
  • the data processing unit 2210 of the noise evaluation server 2200 inputs them into the database D1 that stores the operation history of the air conditioner and each device, and adds new data to the data thus far (Step S23).
  • the data processing unit 2210 includes the information on the time when the operation of the air conditioner 2010 and each device 2050a, 2050b, ... 2050n, 2060a, 2060b, ... 2060m stored in the database D1 is performed.
  • the information on the time included in the noise data other than the voice received from the air conditioner 2010 via the air conditioner server 2030 is collated.
  • the data processing unit 2210 determines what device is producing a loud sound of a predetermined level or more included in the noise data other than voice.
  • the data processing unit 2210 uses the database D2 related to the operation sound of the air conditioner 2010 and each of the devices 2050a, 2050b, ... 2050n, 2060a, 2060b, ... 2060m in addition to the collation of the time, On the basis of the result of frequency analysis of sounds of a predetermined level or higher included in noise data other than the above, the generation source of a large sound of noise data other than voice is determined.
  • the noise evaluation server 2200 initially registers the model number and the like of the device in each room R, and applies different data for each room R in the detailed analysis in the data processing unit 2210.
  • database D 2 stores data of frequency characteristics of sounds of human jumping on the floor and sounds of human hitting a wall. These data are divided according to the material of the floor of the room R, the size of the wall, the thickness and the like, and different data are stored for each room R.
  • step S26 the data processing unit 2210 inputs data of sounds other than voice to the databases D3 and D4 in a form distinguished for each sound generation source as a cause. Specifically, for example, the sound of a step or a wall smashing the renter in room R, the sound of a renter from a television or audio device whose volume has been raised, the sound of a washing machine or a vacuum cleaner moved by the renter, etc. It can be mentioned as a sound source. Further, the data processing unit 2210 also inputs noise data of the voice received from the air conditioner 2010 into the databases D3 and D4 in the same manner.
  • the input items are level (volume), time of occurrence, duration, and the like for each sound generation source.
  • the database D3 stores various data (address, etc.) for specifying the housing complex and its manager.
  • the database D4 is associated with personal information (e.g., the e-mail address of a portable terminal) of the lessor in the room R, while the surrounding environment, the location, and the like are associated with each other.
  • step S27 the information generation unit 2220 generates noise of each collective housing having a plurality of rooms R based on the information stored in the database D3. Create a rating. For example, for a multi-family home having 20 rooms R, if the noise level of the renter in each room R is quieter than the average level, an evaluation is made that the multi-family home is quiet as a whole.
  • the information generation unit 2220 can also create noise information on a neighboring room of a room to be moved in, for a person who wants to move in the room R of the collective housing.
  • the information generation unit 2220 inputs the generated information into the noise history database D3 of the housing complex, and updates the database D3.
  • step S28 Creation of noise information of the lessee by the information generation unit
  • the information generation unit 2220 creates noise information on each of the lessees based on the information stored in the database D4. For example, for a certain lessee, the monthly average noise level is kept stored, and after moving, the new room R keeps a record of the noise level of the lessee. This allows the lessor to have historical data about noise over the past few years. By showing this historical data, the lessee who wants to move can easily borrow a new room.
  • the information generation unit 2220 inputs the generated information into the noise history database D4 of the lessee, and updates the database D4.
  • step S29 it is determined whether the manager of the room R, a renter, or the like has requested the presentation of noise information.
  • This request is, for example, a request via a web browser when the noise evaluation server 2200 provides information on the web, and when a dedicated application is installed in the portable terminal, the application Through the request.
  • the information generation unit 2220 presents the generated noise evaluation of the apartment complex and the noise information regarding the lessee to the manager, the lessee, and the like of the room R (step S30).
  • the presented information can be browsed, for example, by the monitoring terminal 2280 or the portable terminal 2290 owned by the manager of the room R or the lessee.
  • the contract will be made first with the room R manager and the lessee. For example, the lessee can make the condition of the contract not to present his / her noise information to anyone other than the manager of the room R.
  • the sound measured by the microphone 2140 of the air conditioner 2010 is detected by the voice processing chip 2170 of the air conditioner 2010 and the data processing unit 2210 of the noise evaluation server 2200. Is analyzed in Then, for sounds exceeding a predetermined level, a sound determined by the voice processing chip 2170 to be a human voice and a sound determined by the data processing unit 2210 to be a sound caused by an act of a tenant in a room are extracted. .
  • the noise caused by the renter in room R is the sound of a step or the wall of the renter in room R, the sound of the renter from a television or audio device that raised the volume, the renter moved The sound of a washing machine or vacuum cleaner, etc.
  • the information generation unit of the noise evaluation server 2200 using noise data of human voice and information of sound resulting from the act of the tenant in the room R extracted by the voice processing chip 2170 and the data processing unit 2210. 2220 generates information about room R.
  • the noise evaluation of the apartment house and the noise information on the lessee are created by the information generation unit 2220.
  • the evaluations and information on the noise of the room R are useful information for the room R manager and the room R renter. For example, in the position of the manager of the room R, it can be determined whether the lessee in the room R is a preferable person from the viewpoint of noise, and for example, alerting can be performed as needed.
  • noise generation time, a sound level, and the like be included for each noise generation source in the noise evaluation of the apartment house and the noise information on the lessee.
  • the data processing unit 2210 of the noise evaluation server 2200 has a database D1 for storing the operation history of the air conditioner 2010 and each device. Then, based on the time of each operation instruction and the time when the noise is measured, the data processing unit 2210 recognizes which device emits the sound. Since it is possible to easily recognize the sound emitted by the device by checking the time, even when it is difficult to specify the device only by the result of the frequency analysis of the sound, the evaluation and the information regarding the noise generated by the information generation unit 220 are accurate. Improves the quality.
  • noise data of human voice and information of sound resulting from the act of a renter in the room R are distinguished, and based on them, noise evaluation and renter of an apartment house Noise information about has been created. Therefore, for example, in the noise information on whether the renter in the room R is a preferable person in terms of noise, the viewpoint of whether the voice of the renter is large or the noise of the equipment operated by the renter is large. It can be included.
  • an air conditioner 2010 having a microphone 2140 is installed in each room R of an apartment house, and sound is measured in a plurality of rooms R.
  • the noise evaluation server 2200 is installed at a place far from the room R. For this reason, the noise evaluation server 2200 can collect sound data from the rooms R of many apartment houses, and it is also possible to improve the sound analysis capability by, for example, a learning function.
  • a storage device (storage unit) 2240 having a large capacity is provided in the noise evaluation server 2200, and in the storage device 2240, several databases D1 to D4 described later are stored.
  • the noise evaluation server 2200 can easily perform detailed analysis of sounds that can not be analyzed in terms of capabilities by the voice processing chip 2170 and the controller 2018 of the air conditioners 2010 in each room R.
  • the manager of the room R and the lessee can view the noise evaluation on the apartment complex and the noise information on the lessee created by the information generation unit 2220 using the monitoring terminal 2280 or the portable terminal 2290 owned by the room R. it can. Therefore, the manager or the lessee of the room R can check the information of the evaluation from the information generation unit 2220 with the portable terminal 2290 or the like.
  • the owner who operates the rental apartment knows the noise evaluation of the renter who is renting the room R, it warns the renter to stop the noise damage in the vicinity of the room R It becomes possible.
  • a tenant who wishes to refinance a room R gets a history of his / her past noise evaluation and presents it to the lender of the next room, making it easier to borrow a room You can also expect benefits.
  • the noise information may be generated based only on the information of the sound caused by the act of the lessee who is in the room R.
  • the sound generated outside the room R is not taken into consideration, if there is a room R in the environment where a sound with a volume higher than a predetermined level comes from the outside of the room R, the room R It is preferable that the external noise can be recognized by the data processing unit 2210 and the history of the external noise be left in the database.
  • the data processing unit 2210 corrects the noise data of the human voice and the sound data resulting from the act of the lessee in the room R. That is, even in the room R located in the surrounding environment where the external noise is large, the noises not due to the renter in the room R are eliminated to properly generate the evaluation regarding the noise of the renter in the room It becomes possible.
  • members of the family may be recognized by the speech processing chip based on the way of speaking, and noise information may be created for each member, or one piece of noise information may be created for the entire family.
  • the microphone 2140 for measuring the sound of the room R is built in the air conditioner 2010, but instead, a dedicated microphone built-in device may be placed in the room R and connected to the network, or the other A microphone may be incorporated in a ceiling lighting device of
  • the influence of noise not caused by the tenant in the room R can be properly eliminated including the influence of the noise on the inside of the room R, and the noise of the room R renter can be correctly evaluated. it can.
  • the information generation unit 220 may add additional information related to this to the noise information.
  • the information generation unit 2220 is not simply notifying a warning that the noise level is high, but based on analysis of sound such as loud voice, loud audio, moving a vacuum cleaner or a washing machine at night, etc. Detailed warnings (or advice) can be added as additional information.
  • a tenant who receives such a warning can be expected to check it on a mobile terminal or the like at any time and refrain from acts that would be annoying around them.
  • the sound measured by the microphone 2140 of the air conditioner 2010 is analyzed by the voice processing chip 2170 of the air conditioner 2010 and the data processing unit 2210 of the noise evaluation server 2200. It may be integrated into one or the other. For example, it is also possible to adopt a configuration in which sound data collected by the microphone 2140 is sent to the noise evaluation server 2200 in real time, and the data processing unit 2210 can analyze all the sounds. In this case, although the amount of communication via the network 2080 is larger than that of the above embodiment, the disadvantage can be reduced by techniques such as data compression.
  • the microphone 2140 is disposed in the room R, and the data processing unit 2210 of the noise evaluation server 2200 installed outside the room performs many analysis processes.
  • the data processing unit 2210 of the noise evaluation server 2200 installed outside the room performs many analysis processes.
  • the information generation unit 2220 of the noise evaluation server 2200 installed outside the room performs the noise evaluation of the multiple dwelling house and the noise information of the lessee. It is also possible to complete the information providing system in the room R by installing a computer on the
  • FIG. 13 is a schematic view for explaining the concept of the device control system 3001 and the abnormality processing system 3003 according to the first embodiment.
  • FIG. 14 is a schematic view showing the configuration of a device control system 3001 and an abnormality processing system 3003 according to the embodiment.
  • the device control system 3001 includes a voice input device 3060 and a server 3100.
  • the user 3005 can control a predetermined control device by inputting a control instruction to the voice input device 3060.
  • the control device is assumed to be disposed in the space O.
  • the abnormality processing system 3003 includes the device control system 1 and the device 3020 capable of executing the abnormality processing.
  • the configuration of the abnormality processing system 3003 is not limited to this, and may be configured from the voice input device 3060 and the device 3020.
  • the server 3100 can be connected to any number of devices and can manage these devices.
  • the device 3020 is directly controlled by the server 3100 via the network NW.
  • an apparatus 3020 a fan 3020a, a lighting apparatus 3020b, a television 3020c, an air conditioner 3020d and the like can be mentioned.
  • the device 3020 includes a communication unit 3023 and a processing unit 3025.
  • the communication unit 3023 enables communication with the server 3100 via the network NW.
  • the function of the communication unit (reception unit) 3023 enables the device 3020 to receive an abnormality processing instruction corresponding to the abnormal sound generated in the space R in which the voice input device 3060 is installed.
  • the processing unit 3025 enables each information processing in the device 3020 to be executable.
  • the abnormality processing is executed in the device 3020 by the function of the processing unit (abnormal processing execution unit) 3025.
  • the “abnormal process” is an operation performed on the device 3020 in response to the reception of the abnormal process instruction, and is different for each type of abnormal sound and device. For example, when the abnormal sound indicates a fire and the device 3020 is a television, processing for reflecting a display such as “a fire occurred at the installation place of the voice input device 3060” is executed on the screen. Also, for example, when the abnormal sound indicates a fire and the device 3020 is an air conditioner, the processing for switching to the “pump down operation” is executed. Further examples of abnormality processing will be described later.
  • reference numeral 3020 is used to indicate an arbitrary device, and subscripts of lower case letters are added to indicate an individual device.
  • the voice input device 3060 receives an input of a control instruction to a predetermined device 3020.
  • the voice input device 3060 has a microphone, and can receive a control instruction on the device 3020 by the user 3005 by voice input through the microphone. Then, the voice input device 3060 transmits sound information corresponding to the received voice input to the server 3100.
  • the server 3100 determines whether the sound information includes a control instruction. Therefore, when the voice input device 3060 detects a voice emitted by the user 3005, the voice input device 3060 transmits the sound information to the server 3100 as it is.
  • the space R in which the voice input device 3060 is installed and the space O in which the device 3020 is installed are the same space.
  • the server 3100 includes an input unit 3101, an output unit 3102, a communication unit 3103, a storage unit 3104, and a processing unit 3105, and the voice input device 3060 is connected via a network NW such as the Internet. Connected
  • the input unit 3101 is realized by an arbitrary input device, and enables input of various information to the server 3100.
  • the output unit 3102 is realized by an arbitrary output device, and outputs various information from the server 3100.
  • the communication unit 3103 is configured of an arbitrary communication device, is connected to an external network NW, and enables information communication.
  • the storage unit 3104 is implemented by a ROM, a RAM, and the like, and stores information input to the server 3100, information calculated by the server 3100, and the like. In addition, the storage unit 3104 stores “device database (DB) 3104 K” and “abnormal sound database (DB) 3104 I”.
  • the device DB 3104 K manages individual information of each device 3020. For example, the device DB 3104 K associates and stores identification information assigned to the device 3020 and identification information assigned to the voice input device 3060. By using the device DB 3104 K, the device 3020 operated by the voice input of the voice input device 3060 is specified.
  • the abnormal sound DB 3104I stores the execution information of the abnormal process executed by the device 3020 in association with the sound information of the abnormal sound generated due to the abnormality assumed at the place where the voice input device 3060 is installed and the device 3020. .
  • the abnormal sound is sound information corresponding to a fire and the device 3020 is the air conditioner 3020 d 1
  • the abnormal sound DB 3104 I stores a pump-down operation execution command as an abnormal process.
  • the abnormal sound DB 3104I is sound information in which the abnormal sound corresponds to the fire, and when the device 3020 is the television 3020c2, stores an execution instruction of abnormal display as abnormal processing.
  • the abnormal sound DB 3104I is sound information in which the abnormal sound corresponds to an earthquake, and when the device 3020 is the air conditioner 3020d2, stores an execution instruction of the ejection operation (see below) as the abnormality processing. Further, when the abnormal sound is sound information corresponding to an earthquake and the device 3020 is the television 3020 c 1, the abnormal sound DB 3104 I stores an execution instruction of an abnormal display as an abnormal process.
  • the processing unit 3105 is realized by a CPU, a GPU, a cache memory, and the like, and executes information processing in the server 3100.
  • the processing unit 3105 functions as an “input analysis unit 3110”, “control content specification unit 3120”, “control unit 3135”, and “abnormal sound determination unit 3145” by executing a program stored in the storage unit 3104. .
  • the input analysis unit 3110 analyzes the content of the input received from the voice input device 3060. For example, when the voice input device 3060 receives a voice input, the content of the voice input is converted into text information and analyzed. When analyzing the content of speech input, the input analysis unit 3110 can perform analysis with high accuracy by using a recurrent neural network or the like.
  • the control content specification unit 3120 specifies the control content including the control device and the control instruction from the analysis result by the input analysis unit 3110. For example, when the voice input device 3060 receives a voice input, the control content identification unit 3120 determines whether the text information converted by the input analysis unit 3110 includes language information corresponding to the control device and the control instruction. To identify the control content.
  • control unit 3135 controls the device 3020 via the network NW based on the control content.
  • the abnormal sound determination unit 3145 determines a predetermined abnormal sound from the sound information acquired via the voice input device 3060.
  • the abnormal sound determination unit 3145 extracts a corresponding abnormal processing instruction from the abnormal sound DB 3104I and transmits the instruction to the device 3020 via the communication unit 3103.
  • the server 3100 detects sound information corresponding to a fire, the server 3100 transmits, to the device 3020, an abnormality processing instruction including a pump down operation execution instruction.
  • FIG. 17 is a sequence diagram for explaining the operation of the device control system 1 according to the present embodiment.
  • the voice input device 3060 is used by the user 3005 to perform voice input to the device 3020 (S1). Then, the voice input device 3060 transmits input information corresponding to the received voice input to the server 3100 (S2).
  • the server 3100 receives the input information (S3), and analyzes the contents of the input (S4). Next, the server 3100 specifies control contents including the device 3020 and a control instruction for the device 3020 (S5). The server 3100 controls the device 3020 via the network NW based on the control content (S6, S7).
  • the device control system 3001 can execute voice analysis with high accuracy by using the server 3100 that realizes a deep neural network or the like built on the network NW.
  • the device 3020 and the control instruction can be specified in detail even with voice input.
  • FIG. 18 is a sequence diagram for explaining the operation of the abnormality processing system 3003 according to the present embodiment.
  • a device 3020 capable of executing an abnormality process is used as a control device, and the device 3020, the voice input device 3060, and the server 3100 realize an abnormality processing system 3003.
  • the configuration of the abnormality processing system 3003 is not limited to this.
  • the voice input device 3060 when the voice input device 3060 receives a voice input (voice input reception mode), sound information is transmitted to the server 3100 via the voice input device 3060 as needed (T1, T2).
  • the server 3100 receives the input sound information (T3), and analyzes the contents of the sound information (T4).
  • the server 3100 determines, from the analysis result of the sound information, whether or not the abnormal sound indicating the abnormality of the space R in which the voice input device 3050 is installed is included (T5).
  • the server 3100 detects an abnormal sound in the input sound information, the server 3100 transmits an abnormal processing instruction corresponding to the abnormal sound to the device 3020 (T5-Yes, T6).
  • the device 3020 executes an abnormality processing corresponding to the abnormality processing instruction (T7, T8).
  • the device 3020 receives a control instruction from the server 3100 that outputs a control instruction in accordance with a voice input acquired via the voice input device 3060 (voice input receiving device). Further, the device 3020 receives an abnormality processing instruction corresponding to the abnormal sound generated in the space R in which the voice input device 3060 is installed, and executes the abnormality processing according to the abnormality processing instruction. With such a configuration, the device 3020 is controlled to be in an optimal state at the time of abnormality.
  • the device 3020 is an air conditioner or a television including a remote control having a screen (display unit) or the like, and a word (“fire”) representing a fire or a word representing an earthquake (abnormal sound)
  • a display (“fire occurrence”, “earthquake occurrence”, etc.) corresponding to abnormal sound information may be displayed on the screen as abnormal processing corresponding to such abnormal sound. It can.
  • the abnormality processing system 3003 includes a voice input device 3060 (voice input reception device) that receives voice input, and a device 3020.
  • the device 3020 receives a control instruction from the server 30100 that outputs a control instruction according to a voice input acquired via the voice input device 3060. Further, the device 3020 receives an abnormality processing instruction corresponding to the abnormal sound generated in the space R in which the voice input device 3060 is installed, and executes the abnormality processing according to the abnormality processing instruction.
  • the device takes an optimal state at the time of abnormality.
  • the abnormality processing system 3003 includes a server 3100 that outputs a control instruction in accordance with the voice input acquired via the voice input device 3060. Since the server 3100 is present on the network NW, coordination of calculation resources is easy. As a result, highly accurate analysis of speech information becomes possible.
  • an abnormal sound determination unit 3145 that determines a predetermined abnormal sound
  • an abnormality processing instruction corresponding to the abnormal sound And a communication unit (transmission unit) 3103 for transmitting data to 3020. Therefore, the abnormal processing instruction can be executed using the server 3100 on the network NW.
  • the abnormality processing system 3003 is configured of the device 3020, the voice input device 3060, and the server 3100, but the abnormality processing system 3003 is not limited to such a configuration. . As described later, the abnormality processing system 3003 may be configured of an apparatus 3020 and a voice input device 3060.
  • the voice input device 3060 and the device 3020 are described as separate devices, but both may be integrated. Specifically, the voice input device 3060 may be built in the device 3020. With such a configuration, it is possible to provide an apparatus 3020 that can be controlled by voice input at normal times and that performs abnormality processing at the time of abnormality.
  • the above-mentioned abnormal sound determination unit 3145 may have a function of excluding predetermined sound information as an excluded sound from the abnormal sound at the time of the determination of the abnormal sound. For example, it may have a function of excluding sound information output from a television as an excluded sound. As a result, even if no abnormality (fire, earthquake, etc.) actually occurs, the sound processing corresponding to the abnormal sound such as “fire”, “earthquake” or the like is generated from the television etc. Can be avoided. As a result, the reliability of the abnormality processing system 3003 can be improved.
  • the voice input device 3060 may be capable of switching to a pause state in which transmission of sound information corresponding to voice input is paused. Further, even in the pause state, the voice input device 3060 may transmit the acquired sound information to the server 3100 when the predetermined sound information is acquired.
  • the voice input device 3060 detects sound information as needed even in the pause state in which transmission of sound information corresponding to voice input is paused (C1, C2). When it is determined that the detected sound information corresponds to predetermined release sound information, the voice input device 3060 releases the pause state (C2-Yes, C3). When the pause state is released, the voice input device 3060 transmits the detected sound information to the server 3100 as needed (C4, C5). Thereafter, in steps C6 to C10, the same processes as the above-described steps T4 to T8 are performed.
  • the voice input device 3060 when the voice input device 3060 is not used, it can be in the paused state. On the other hand, in an emergency where an abnormal sound is generated, the device 3020 can execute the abnormal processing quickly.
  • the device 3020 may be capable of switching to a stop state in which the reception of the control instruction is stopped. Furthermore, even when the device 3020 is in the stopped state, the abnormal processing may be executed when the abnormal processing instruction is received. With such a configuration, when the device 3020 is not used, it can be in a stopped state. On the other hand, in an emergency where the abnormal processing instruction is received, the device 3020 can execute the abnormal processing quickly.
  • an air conditioner 3020d having a refrigerant circuit as shown in FIG. 20 or 21 can be adopted.
  • the outdoor unit 220 and the indoor unit 3240 are connected to each other through the refrigerant pipes 3211 and 3212 and the closing valves 3213 and 3214.
  • the outdoor unit 3220 mainly includes a compressor 3221, a four-way switching valve 3222, an outdoor heat exchanger 3223, an outdoor fan 3224, an expansion mechanism 3225, and the like.
  • the indoor unit 3240 mainly includes an indoor heat exchanger 3241, an indoor fan 3242 and the like.
  • the “expansion mechanism” refers to a mechanism capable of depressurizing the refrigerant, and, for example, an expansion valve and a capillary tube correspond to this.
  • an open valve 3244 is added to the refrigerant circuit shown in FIG.
  • an air conditioner 3020d1 having a refrigerant circuit as shown in FIG. 20 and using a flammable refrigerant or a slightly flammable refrigerant can be employed.
  • the abnormal sound it can be a word (“fire”) representing a fire, a word (“earthquake”) representing an earthquake, or the like.
  • execution of pump down operation can be adopted as an abnormal processing corresponding to such an abnormal sound.
  • the “pump down operation” refers to an operation in which the refrigerant is concentrated on the outdoor unit 3220 of the air conditioner 3020 d 1. Specifically, the pump down operation is performed by fully closing the expansion mechanism 3225 in the cooling cycle operation.
  • the refrigerant When the pump-down operation is performed, the refrigerant is moved to the space P outside the room. Therefore, for example, when a fire occurs, ignition of the refrigerant in the space O in the room can be suppressed. In addition, in the case of an earthquake, the occurrence of a secondary disaster can be suppressed.
  • an air conditioner 3020d2 having a refrigerant cycle as shown in FIG. 20 and including an outdoor unit 3220 using a flammable refrigerant or a slightly flammable refrigerant can be adopted.
  • the abnormal sound it can be a word (“fire”) representing a fire, a word (“earthquake”) representing an earthquake, or the like.
  • outdoor open operation which opens a refrigerant to space P in which outdoor unit 3200 is arranged can be adopted as abnormal processing corresponding to such abnormal sound.
  • the “outdoor open operation” is performed, for example, by opening the closing valves 3213 and 3214 of the outdoor unit 3220 and ejecting the flammable refrigerant or the slightly flammable refrigerant into the atmosphere.
  • Such outdoor opening operation can suppress ignition of the refrigerant in the indoor space O, for example, in the case of a fire.
  • the occurrence of a secondary disaster can be suppressed.
  • an air conditioner having a refrigerant circuit as shown in FIG. 21 and including an indoor unit 3240 using a CO 2 refrigerant can be employed.
  • the abnormal sound it can be a word ("fire") or the like that represents a fire.
  • a jetting operation of jetting a CO 2 refrigerant into the installation space of the indoor unit 3240.
  • the “ejection operation” is performed by opening the open valve 3244 and ejecting the CO 2 refrigerant into the installation space.
  • the position of the open valve 3244 is preferably low pressure during normal operation and high pressure by stopping the indoor fan 3242 when open.
  • the space can be filled with CO 2 and the fire extinguishing can be promoted.
  • the space O in which the indoor unit 3240 is installed is a narrow space, the effect of extinguishing can be enhanced.
  • FIG. 22 is a schematic view showing the configuration of a device control system 1S and an abnormality processing system 3S according to the second embodiment.
  • parts that are the same as the parts described above are given the same reference numerals, and duplicate explanations are omitted.
  • the suffix S may be added in the present embodiment.
  • the voice input device 3060S includes a communication unit 3063 and a processing unit 3065.
  • the communication unit 3063 is configured of any communication device, and enables communication with the device 3020.
  • An abnormality processing instruction corresponding to the abnormal sound determined by the processing unit 3065 is transmitted to the control target device 3020 by the function of the communication unit 3063 (reception side transmission unit).
  • the processing unit 3065 is realized by a CPU, a cache memory, and the like, and executes various information processing.
  • the processing unit 3065 does not access the server 3100 for the specific sound information corresponding to the specific operation among the input sound information, and gives the device 3020 a control instruction corresponding to the specific operation. Output.
  • the processing unit 3065 (reception side determination unit) has a function of detecting a predetermined abnormal sound from the input sound information. Then, when the processing unit 3065 detects the sound information corresponding to the abnormal sound among the input sound information, the processing unit 3065 does not access the server 3100, and instructs the device 3020 an abnormal processing instruction corresponding to the abnormal sound. Output.
  • the output control instruction and the abnormality processing instruction are transmitted to the device 3020 via the communication unit 3063.
  • FIG. 23 is a sequence diagram for explaining the operation of the device control system 3001S according to the present embodiment.
  • the user 3005 uses the voice input device 3060S to perform voice input to the device 3020 (U1).
  • the voice input device 3060S transmits a control instruction corresponding to the specific operation to the device 3020 (U2-Yes, U3).
  • the device 3020 executes a specific operation corresponding to the control instruction (U4, U5).
  • step U2 If it is determined in step U2 that the voice input device 3060S does not determine that the voice input corresponds to the specific operation, voice information corresponding to the voice input is transmitted to the server 3100 (U2-No). In this case, processing similar to that of steps S3 to S7 is subsequently performed.
  • the device control system 3001S executes analysis processing by the voice input device 3060S for voice analysis with a low load of information processing amount. Thereby, access to the network NW is avoided, and quick device operation is realized.
  • voice information can be analyzed with high accuracy by using the server 3100.
  • the server 3100 implements a deep neural network or the like on the network NW.
  • FIG. 24 is a sequence diagram for explaining the operation of the abnormality processing system 3S according to the present embodiment.
  • the voice input device 3060S is in the pause state in which transmission of sound information corresponding to voice input is paused (D1). Even in such a resting state, the voice input device 3060S detects sound information generated around it as needed (D2). When it is determined that the detected sound information corresponds to the predetermined release sound information, the voice input device 3060 releases the pause state (D2-Yes, D3). When the speech input device 3060 releases the pause state, it determines whether the release sound information is predetermined abnormal sound information (D4).
  • the voice input device 3060S transmits an abnormal processing instruction corresponding to the abnormal sound to the device 3020 (D4-Yes, D5).
  • the apparatus 3020 executes the abnormality processing corresponding to the abnormality processing instruction (D6, D7).
  • the voice input device 3060 detects an abnormal sound to the device 3020, it transmits an abnormality processing instruction to the device 3020. Therefore, the server 3100 on the network NW The apparatus 3020 can be made to execute an abnormality process without accessing the As a result, it is possible to provide an abnormality processing system 3003S capable of rapidly realizing the abnormality processing of the device 3020.
  • the analysis processing is executed by the voice input device 3060 for sound analysis with a low load of information processing amount. Thereby, access to the network NW can be avoided, and abnormality processing of the device 3020 can be realized quickly.
  • the present disclosure is not limited to the above embodiments.
  • the present disclosure can be embodied by modifying components without departing from the scope of the present disclosure.
  • the present disclosure can form various disclosures by appropriate combinations of a plurality of components disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the components may be combined as appropriate in different embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Air Conditioning Control Device (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Telephonic Communication Services (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Navigation (AREA)
  • Alarm Systems (AREA)

Abstract

管理システム(1090)は、空調機(1062)と、音声入力部(1064)と、運転音解析部(1016)と、第1前処理部(1011)と、指令抽出部(1014)と、制御部(1017)と、を備える。音声入力部(1064)は、空調機と同じ部屋に設置され、音声データ(SD)を取得する。運転音解析部(1016)は、音声データを所定の解析手法により解析することによって、空調機の異常の有無または異常の内容に関する判定結果(RE)を導出する。第1前処理部(1011)は、音声データの第1前処理をする。指令抽出部(1014)は、第1前処理をされた音声データからユーザの指令(CM)を抽出する。制御部(1017)は、指令に基づいて空調機を制御する。

Description

機器制御システム
 本開示は、機器制御システムに関する。
 特許文献1(特開2001-285969号)には、ユーザの音声による指令に従って空調機などの機器を制御するリモートコントローラが開示されている。
 特許文献2(特許第5963155号)では、ロボットによって不動産物件の騒音レベルを測定し、それを入居希望者に提示するというシステムを開示している。
 特許文献3(特開平06-027986号公報)には、作業者が単に大声を出すだけで緊急時に対処できる音声認識装置利用の機器制御システムが開示されている。
 リモートコントローラのマイクは一般的に人間の声を検出することに特化された設計がなされているので、周波数特性やその他の観点から、空調機の運転音の解析には必ずしも適していない。さらに、不動産物件の評価に用いられるロボットの測定対象は単に騒音レベル(音の大きさ)であることが多い。さらに、緊急時に対処できる従来の機器制御システムは、音声の内容については関知しないので、適切な異常処理が行なわれない場合がある。
 第1の課題は、音声による指令を受け付ける空調機につき、運転音に基づいて異常を検知または予知できるような管理システムを提供することである。
 第2の課題は、音の測定に基づき、部屋に関する情報を、今までよりも有用な形で提供することにある。
 第3の課題は、音声の内容に基づいて適切な異常処理を行うことである。
 〔第1構成〕
 第1観点に係る管理システムは、空調機と、音声入力部と、運転音解析部と、第1前処理部と、指令抽出部と、制御部と、を備える。音声入力部は、空調機と同じ部屋に設置され、音声データを取得する。運転音解析部は、音声データに含まれる運転音を所定の解析手法により解析することによって、空調機の異常の有無または異常の内容に関する判定結果を導出する。第1前処理部は、音声データの第1前処理をする。指令抽出部は、第1前処理をされた音声データからユーザの指令を抽出する。制御部は、指令に基づいて空調機を制御する。
 この構成によれば、指令抽出部が受け取る音声データには第1前処理がなされ、運転音解析部に渡される音声データには第1前処理がなされない。したがって、指令抽出部に向かう音声データとは異なる特性の音声データを運転音解析部に渡すことができるので、管理システムは異常検出のための運転音の解析に適している。
 第2観点に係る管理システムは、第1観点に係る管理システムにおいて、第1前処理部が、音声データから人間の声の周波数帯域に係る成分を抽出する。
 この構成によれば、運転音解析部に渡される音声データは、人間の声の周波数帯域に係る成分を抽出する第1前処理を受けない。したがって、解析により適した音声データを運転音解析部は受け取ることができる。
 第3観点に係る管理システムは、第2観点に係る管理システムにおいて、運転音を蓄積する運転音データ蓄積部、をさらに備える。運転音解析部は、運転音データ蓄積部に過去に蓄積された運転音データと、最新の運転音データとを、解析することによって、判定結果を導出する。
 この構成によれば、運転音データの蓄積を解析することによって、現在の運転音の異常の有無または内容の判定がなされる。したがって、異常検出の精度がさらに向上する。
 第4観点に係る管理システムは、第3観点に係る管理システムにおいて、音声データの第2前処理をする第2前処理部、をさらに備える。第2前処理部は、音声データから運転音を抽出する。運転音データ蓄積部は、第2前処理部から抽出した運転音を蓄積する。
 この構成によれば、運転音データ蓄積部に蓄積される音声データは、人間の声の周波数帯域に係る成分を除去する第2前処理を受ける。したがって、空調機の動作音以外のノイズが除去された音声データが解析されるので、異常検出の精度が向上する。
 第5観点に係る管理システムは、第1観点から第4観点のいずれか1つに係る管理システムにおいて、音声入力部が、音声データの通過または遮断を行う音声ゲート部をさらに有する。音声ゲート部は、ユーザが発声した所定のキーワードを認識すると、所定時間にわたり前記音声データを通過させる。
 この構成によれば、指令抽出部などの機能ブロックは、キーワードが発声されるまでは有意な動作ができない。したがって、キーワードが発声される前には機能ブロックの少なくとも一部をスリープさせておくことができるので、処理能力の浪費が抑制される。
 第6観点に係る管理システムは、第3観点から第5観点のいずれか1つに係る管理システムにおいて、所定の解析手法が、複数の解析手法の中から、指令、空調機の使用年数、および空調機の型式のうちの少なくとも1つに基づいて選択される。
 この構成によれば、複数の解析手法の中から、指令、年数、型式などに応じて最適な解析手法が選択される。したがって、異常検出の精度がより向上する。
 第7観点に係る管理システムは、第3観点から第6観点のいずれか1つに係る管理システムにおいて、音声データに含まれるユーザの声から指令を取得する指令取得モードと、音声データに含まれる空調機の運転音を取得する運転音取得モードと、を有する。
 この構成によれば、管理システムは、指令取得モードと、運転音取得モードの2つのモードを有する。したがって、指令の取得をしないときには、運転音データの蓄積を充実させることができる。
 第8観点に係る管理システムは、第3観点から第7観点のいずれか1つに係る管理システムにおいて、指令の1つは空調機から運転音データの取得を命じる運転音取得指令である。指令抽出部が運転音取得指令を抽出した場合には、運転音データ蓄積部は所定時間にわたり運転音データを蓄積する。
 この構成によれば、ユーザまたはサービスマンの意志に応じて運転音データが蓄積される。したがって、ユーザまたはサービスマンは、運転音データの補充や、管理システムの動作確認を行うことができる。
 第9観点に係る管理システムは、第3観点から第8観点のいずれか1つに係る管理システムにおいて、制御部が、定期的に、運転音データ蓄積部に運転音データの蓄積を行わせる。
 この構成によれば、定期的に運転音データが蓄積される。したがって、解析に用いることのできる情報が充実するので、異常検出の精度が向上する。
 第10観点に係る管理システムは、第3観点から第9観点のいずれか1つに係る管理システムにおいて、運転音データ蓄積部が、運転音データを、指令抽出部によって抽出された指令と関連付けて蓄積する。運転音解析部は、指令を用いて判定結果を導出する。
 この構成によれば、運転音データと指令が関連づけられる。したがって、ユーザが空調機に実行させようとした動作と運転音の関係が把握できるので、異常検出の精度がさらに向上する。
 第11観点に係る管理システムは、第3観点から第10観点のいずれか1つに係る管理システムにおいて、運転音データ蓄積部が、さらに、運転音データを、空調機から送られる運転情報と関連付けて蓄積する。運転音解析部は、運転情報を用いて判定結果を導出する。
 この構成によれば、運転音データと運転情報が関連づけられる。ここで、運転情報とは、動作中の空調機においてセンシングされた各部の状態およびアクチュエータの姿勢などを意味する。したがって、空調機の状態と運転音の関係が把握できるので、異常検出の精度がさらに向上する。
 第12観点に係る管理システムは、第3観点から第11観点のいずれか1つに係る管理システムにおいて、制御部により制御される出力部、をさらに備える。制御部は、判定結果に係る異常の内容に基づいて、出力部に、ユーザが行うべき対処法を通知させる。
 この構成によれば、空調機の異常が発生した場合に、ユーザは出力部から対処法を聞くことができる。したがって、空調機のユーザビリティが向上する。
 第13観点に係る管理システムは、第3観点から第12観点のいずれか1つに係る管理システムにおいて、サービスセンタ端末、をさらに備える。判定結果は、運転音解析部からサービスセンタ端末まで送信される。
 この構成によれば、サービスセンタ端末は判定結果を受け取ることができる。したがって、空調機の異常発生をサービスマンが知ることができるので、迅速なメンテナンスが可能になる。
 第14観点に係る管理システムは、第3観点から第13観点のいずれか1つに係る管理システムにおいて、空調機が、複数の空調機である。複数の空調機はそれぞれ異なる識別番号を有する。運転音データ蓄積部において、運転音データは、運転音データに対応する識別番号と関連付けて保存される。
 この構成によれば、複数の空調機の運転音データが蓄積される。したがって、複数の空調機についての異常を発見しやすい。
 〔第2構成〕
 第15観点に係る情報提供システムは、部屋に関する情報を提供する情報提供システムである。情報提供システムは、測定部と、データ処理部と、情報生成部とを備えている。測定部は、部屋において音を測定する。データ処理部は、測定部により測定された音のデータを解析し、第1の音を抽出する。第1の音は、部屋に居る人間が発した声、および/又は、部屋に居る人間の行為に起因する音である。情報生成部は、データ処理部の処理結果に基づき、少なくとも第1の音に関する情報を用いて、部屋に関する情報を生成する。
 ここでは、部屋で測定された音がデータ処理部において解析される。そして、データ処理部が抽出した第1の音に関する情報を用いて、情報生成部が部屋に関する情報を生成する。この生成される情報が、部屋に居る人間が発した声および/又は部屋に居る人間の行為に起因する音である第1の音に関する情報を用いて生成されるので、例えば部屋に居る人が騒音の観点で好ましい人であるか否かを判断することができる。
 また、仮に第1の音以外の音も用いて部屋に関する情報を生成する場合には、例えば、部屋に居る人が原因ではない騒音の影響を外して、その部屋に居る人の騒音に関する評価を生成することも可能になる。
 なお、第1の音としては、例えば、部屋の居住者の声やホテルの部屋に泊まっているゲストの声、部屋に居る人の足踏みの音、部屋に居る人がボリュームを上げたテレビやオーディオ機器から流れる音楽等の音、部屋に居る人が動かす洗濯機や掃除機の音、などが挙げられる。
 また、第1の音に関する情報としては、例えば、部屋に居る人の声の大きさ、部屋に居る人の足踏みの音の大きさ、テレビやオーディオ機器から流れる音の大きさ、洗濯機や掃除機の音と大きさ、時間帯別の人間の声の大きさや機器の音量、誰に起因する何の音なのかの情報、などが挙げられる。
 また、部屋に関する情報としては、例えば、アパートの賃借人やホテルのゲスト、病院の入院患者などの騒音面での評価情報、居住中の人の騒音を含むアパートの各部屋の騒音面での評価情報、それらの各部屋の評価情報に基づくアパート一棟に関する騒音評価情報、などが挙げられる。
 第16観点に係る情報提供システムは、第15観点の情報提供システムであって、機器操作部と、記憶部とをさらに備える。機器操作部は、部屋に居る人間の指示を受けて、部屋にある機器を動作させる。記憶部は、機器操作部が受けた指示を記憶する。そして、データ処理部は、測定部により測定された音の時刻と、記憶部に記憶されている指示の時刻とに基づいて、部屋に居る人間の指示によって動作した機器が発した音を認識する。
 ここでは、機器操作部が受けた指示を記憶部が記憶しており、その指示の時刻と音の測定された時刻とに基づいて機器が発した音を認識する。この処理を行うデータ処理部が、より正確に機器が発した音を他の音と区別できるようになるため、本発明によれば、第1の音に関する情報の正確性が向上し、部屋に関する情報もより有用なものとなる。
 第17観点に係る情報提供システムは、第15観点又は第16観点の情報提供システムであって、第1の音は、部屋に居る人間が発した声、および、部屋に居る人間の行為に起因する音である。データ処理部は、第1の音を、さらに、部屋に居る人間が発した声と、部屋に居る人間の行為に起因する音とに分ける。
 ここでは、例えば、部屋に居る人が騒音の観点で好ましい人であるか否かに関する情報を、部屋に関する情報として生成する場合に、部屋に居る人の声が大きいのか、それとも部屋に居る人が動かす機器の騒音が大きいのかという観点を含めることが可能になる。
 第18観点に係る情報提供システムは、第15観点から第17観点のいずれかの情報提供システムであって、測定部は、複数の部屋の中に設置される。情報生成部は、部屋の外に設置される。情報生成部は、第1の音に関する情報として、部屋あるいは部屋を含む建物の騒音に関する評価の情報、又は、部屋に居る人間の騒音発生に関する評価の情報、を生成する。
 ここでは、情報生成部が、沢山の部屋から音のデータを集めることができる。そして、各部屋における第1の音に関する情報が集まるため、より有用な情報を提供することができる。
 なお、各部屋に設置される測定部は、集音マイクを有していることが好ましく、例えば、天井や側壁に設置される空調室内機に内蔵させたり、照明機器に内蔵させたり、携帯型のマイク内蔵機器として部屋の机や棚の上に置いたりすることが想定される。
 第19観点に係る情報提供システムは、第18観点の情報提供システムであって、情報生成部は、評価の情報を、部屋あるいは建物の管理者、又は、部屋に居る人間が持つ情報端末に提示させる。
 ここでは、部屋の持ち主あるいは管理代行者である管理者や、部屋を借りている人間が、情報生成部から評価の情報を得て、情報端末で確認することができる。これにより、例えば、賃貸アパートを経営する所有者が、部屋を借りている賃借人の騒音に関する評価を得て、その部屋の近隣における騒音被害を食い止めるために賃借人に警告を行うことが可能になる。また、例えば、部屋の借り換えを希望している賃借人が、自らの過去の騒音に関する評価の履歴を入手して、それを次の部屋の貸し主に提示することで、部屋を借りやすくなるというメリットも期待できる。
 第20観点に係る情報提供システムは、部屋に関する情報を提供する情報提供システムである。情報提供システムは、測定部と、データ処理部と、情報生成部とを備えている。測定部は、部屋において音を測定する。データ処理部は、測定部により測定された音のデータを解析する。情報生成部は、データ処理部の処理結果に基づいて、部屋に関する情報を生成する。
 ここでは、部屋で測定された音がデータ処理部において解析される。そして、情報生成部が部屋に関する情報を生成する。ここで生成される情報を利用すれば、例えば部屋に居る人が騒音の観点で好ましい人であるか否かを判断することができる。
 〔第3構成〕
 第21観点の機器は、音声入力受付装置を介して取得される音声入力に応じて制御指示を出力する情報処理装置から前記制御指示を受け付けるものである。この機器は、受付部と異常処理実行部とを備える。受付部は、音声入力受付装置が設置された空間で生じた異常音に対応する異常処理指示を受け付ける。異常処理実行部は、異常処理指示に応じて異常処理を実行する。このような構成により、異常時に、最適な状態を採る機器を提供できる。
 第22観点の異常処理システムは、音声入力を受け付ける音声入力受付装置と、機器とを備える。機器は、音声入力受付装置を介して取得される音声入力に応じて制御指示を出力する情報処理装置から前記制御指示を受け付けるものである。また、この機器は、受付部と異常処理実行部とを備える。受付部は、音声入力受付装置が設置された空間で生じた異常音に対応する異常処理指示を受け付ける。異常処理実行部は、異常処理指示に応じて異常処理を実行する。このような構成により、異常時に、機器を最適な状態にする異常処理システムを提供できる。
 第23観点の異常処理システムは、第22観点の異常処理システムであって、音声入力受付装置が機器に内蔵されている。このような構成により、音声入力で制御できる機器を提供できる。
 第24観点の異常処理システムは、第22観点または第23観点の異常処理システムであって、音声入力受付装置を介して取得される音声入力に応じて制御指示を出力する情報処理装置をさらに備える。このような構成により、高精度に音声解析を実行できる。
 第25観点の異常処理システムは、第22観点から第24観点の異常処理システムであって、情報処理装置が異常音判定部と送信部とを有する。異常音判定部は、音声入力受付装置を介して取得される音情報から、所定の異常音を判定する。送信部は、異常音に対応する異常処理指示を機器に送信する。このような構成により、高精度に音情報を解析して、異常処理指示を送信できる。
 第26観点の異常処理システムは、第25観点の異常処理システムであって、異常音判定部が、所定の音情報を除外音として異常音から除外する。このような構成により、誤作動を回避できる。
 第27観点の異常処理システムは、第22観点から第26観点の異常処理システムであって、音声入力受付装置は、音声入力に対応する音情報の送信を休止する休止状態への切り替えが可能なものである。また、音声入力受付装置は、休止状態のときであっても、所定の音情報を取得した場合、取得した音情報を情報処理装置に送信する。このような構成により、異常時に適切に稼働する異常処理システムを提供できる。
 第28観点の異常処理システムは、第22観点から第26観点の異常処理システムであって、音声入力受付装置が、受付側判定部と受付側送信部とを有する。受付側判定部は、取得した音情報から、所定の異常音情報を判定する。受付側送信部は、判定した異常音に対応する異常処理指示を機器に送信する。このような構成により、簡易な構成の異常処理システムを提供できる。
 第29観点の異常処理システムは、第22観点から第26観点の異常処理システムであって、機器が、制御指示の受付を停止する停止状態への切り替えが可能なものである。また、機器は、停止状態のときであっても、異常処理指示を受け付けた場合は、異常処理を実行する。このような構成により、異常時に適切に稼働する異常処理システムを提供できる。
 〔第1構成〕
第1構成の第1実施形態に係る管理システム90の概略図である。 管理システム90の構成のブロック図である。 管理システム90の機能面によるブロック図である。 運転音の波形または周波数スペクトルに基づく異常検出の方法を示すグラフである。 第1構成の第1実施形態の第1変形例に係る管理システム90の概略図である。 第1構成の第1実施形態の第2変形例に係る管理システム90の概略図である。 第1構成の第2実施形態に係る管理システム90Aの機能面によるブロック図である。 第1構成の第3実施形態に係る管理システム90Bの機能面によるブロック図である。
 〔第2構成〕
第2構成の一実施形態に係る情報提供システムを含む機器制御システムの概略構成図である。 機器制御システムの制御ブロック図である。 空調機における騒音判定処理を示すフローである。 騒音評価用サーバにおける騒音に係る情報の作成・提示を示すフローである。
 〔第3構成〕
第3構成の第1実施形態に係る機器制御システム3001及び異常処理システム3003の概念を説明するための模式図である。 同実施形態に係る機器制御システム3001及び異常処理システム3の構成を示す模式図である。 同実施形態に係る情報処理装置3100の構成を示す模式図である。 同実施形態に係る異常音DB3104Iの構成を示す模式図である。 同実施形態に係る機器制御システム3001の動作を説明するためのシーケンス図である。 同実施形態に係る異常処理システム3003の動作を説明するためのシーケンス図である。 変形例Cに係る異常処理システム3003の動作を説明するためのシーケンス図である。 応用例1,2で用いられる冷媒サイクルの構成を示す模式図である。 応用例3で用いられる冷媒サイクルの構成を示す模式図である。 第3構成の第2実施形態に係る機器制御システム3001S及び異常処理システム3003Sの構成を示す模式図である。 同実施形態に係る機器制御システム3001Sの動作を説明するためのシーケンス図である。 同実施形態に係る異常処理システム3003Sの動作を説明するためのシーケンス図である。
 〔第1構成〕
 以下、図面を参照しながら、第1構成に係る機器制御システムについて説明する。
 <第1実施形態>
 (1)全体構成
 図1は、本発明の第1実施形態に係る機器制御システムを示す。機器制御システムは、空調機等の管理システム1090として構成されている。管理システム1090は、サーバ1040と、建物1060に設置されたルータ1061、空調機1062、および音声入出力装置1063と、サービスセンタ1070に設置されたサービスセンタ端末1071を含む。サーバ1040、空調機1062、音声入出力装置1063、およびサービスセンタ端末1071は、ネットワーク1050によって接続されている。
 (1-1)空調機1062
 空調機1062は、スイッチングハブを有するルータ1061を介してネットワーク1050に接続している。ルータ1061と空調機1062の間のリンクは、有線通信および無線通信のいずれによって実現されてもよい。
 (1-2)音声入出力装置1063
 音声入出力装置1063は、空調機1062と同じ部屋に設置されている。音声入出力装置1063は、ルータ1061を介してネットワーク1050に接続している。音声入出力装置1063には音声入力部1064と音声出力部1065が設けられている。ルータ1061と音声入出力装置1063の間のリンクは、有線通信および無線通信のいずれによって実現されてもよい。
 (1-3)ネットワーク1050
 ネットワーク1050は、例えばPSTN(公衆交換電話網)等を用いて構築されたインターネットである。
 (1-4)サーバ1040
 サーバ1040は建物1060から遠隔地に設置されており、ネットワーク1050に接続している。
いる。サーバ1040は、空調機1062のユーザが発する声に応答して各種機器を制御する。さらに、サーバ1040は、空調機1062の運転音から異常検知その他の処理を行う。サーバ1040は、単一のコンピュータとして構成されていてもよいし、それぞれ異なる機能を有する複数のコンピュータ1040a、1040bから構成されていてもよい。例えば、あるコンピュータ1040aは音声の解析および指令の実行を担当し、別のコンピュータ1040bは運転音の蓄積と異常検出を担当してもよい。この場合、複数のコンピュータ1040a、1040bは、互いに離れた場所に設置されて異なる企業に所有または管理されていてもよい。
 (1-5)サービスセンタ端末1071
 サービスセンタ端末1071は、サービスセンタ1070にいるサービスマンが使用する端末である。
 (2)詳細構成
 図2は管理システム1090の構成のブロック図である。
 (2-1)空調機1062
 空調機1062は、入出力インターフェイス部1621と、プロセッサ1622と、冷媒回路1623を有する。入出力インターフェイス部1621はルータ1061を介してネットワーク1050と接続されており、他の機器と情報を交換する。冷媒回路1623はセンサとアクチュエータを含み、部屋の空気を調和する。プロセッサ1622は空調機1062のアクチュエータを制御し、センサの出力を読み取るとともに、入出力インターフェイス部1621と情報を交換する。
 (2-2)音声入出力装置1063
 音声入出力装置1063は、入出力インターフェイス部1631と、音声入力部1064と、音声出力部1065を有する。入出力インターフェイス部1621はルータ1061を介してネットワーク1050と接続されており、他の機器と情報を交換する。
 音声入力部1064は、マイク1641、増幅器1642、AD変換器1643、音声ゲート部1644を有する。マイク1641はアナログ音声信号を取得する。増幅器1642は取得されたアナログ音声信号を増幅する。AD変換器1643は増幅されたアナログ音声信号をAD変換して、音声データSDを得る。音声ゲート部1644は、外部からの制御信号に応じて、または、自身による音声データSDの解析結果に応じて、音声データSDを通過または遮断する。音声ゲート部1644を通過した音声データSDは入出力インターフェイス1631部へ送られる。音声ゲート部1644が、音声データSDとして人間の声により所定のキーワードが発声されたことを検出した場合、音声データSDを所定時間にわたり通過させてもよい。
 音声出力部1065は、DA変換器1653、増幅器1652、スピーカ1651を有する。DA変換器1653は、入出力インターフェイス部1631から受け取った出力データODをDA変換して、得られたアナログ出力信号を増幅器1652へ送る。増幅器1652はアナログ出力信号を増幅する。スピーカ1651は、増幅されたアナログ出力信号に応じた音声を発する。
 (2-3)サーバ1040
 サーバ40はコンピュータ1040a、1040bを有する。サーバ1040に含まれるコンピュータの数はいくつであってもよい。ここでは、コンピュータ1040aの構成についてのみ説明する。コンピュータ1040aは、入出力インターフェイス部1041と、プロセッサ1042と、メモリ1043を有する。入出力インターフェイス部1041は、ネットワーク1050に接続されている。プロセッサ1042は、各種処理を実施する。処理の中には、入出力インターフェイス部1041を介した情報の送受信、および各種算術演算などが含まれる。メモリ1043は、プロセッサ1042の書き込み動作等により、情報を記憶する。
 (3)機能ブロック
 図3は、管理システム1090の機能面によるブロック図である。管理システム1090は、音声入力部1064および音声出力部1065の他に、複数の機能ブロック、すなわち、第1前処理部1011、テキスト変換部1013、指令抽出部1014、運転音データ蓄積部1015、運転音解析部1016、制御部1017、モード判定部1019を有する。これらの機能ブロック1011~1019は、それ自体が集積回路やハードドライブなどのハードウェアとして構成されていてもよい。あるいは、サーバ1040のコンピュータ1040a、1040bのメモリ1043に記憶され、プロセッサ1042に実行されるプログラムなどのソフトウェアとして構成されていてもよい。機能ブロック1011~1019の物理的な搭載位置は、コンピュータ1040a、1040bであってもよいし、音声入出力装置1063、空調機1062、またはその他の場所であってもよい。
 本実施形態においては、第1前処理部1011はハードウェアとして構成されている。
 (4)モード
 管理システム1090は、指令取得モードMCと運転音取得モードMOという2種類のモードを有する。
 (4-1)指令取得モードMC
 指令取得モードMCは、音声入力部1064が取得したユーザの声から指令を取得して、その指令を実行するモードである。指令の例としては、運転開始、運転停止、設定温度変更、運転モードの変更(例えば、暖房、冷房、除湿、送風)などが挙げられる。
 (4-2)運転音取得モードMO
 運転音取得モードMOは、音声入力部1064によって空調機1062の運転音を取得して、これまでに蓄積した運転音データと照合することにより、空調機1062の異常の有無、または異常の内容の判定結果を得るモードである。
 (5)動作
 (5-1)モード判定
 図3において、音声入力部1064によって音声データSDが取得される。音声データSDは、ユーザの声である場合もあるし、空調機1062の運転音である場合もある。モード判定部1019は、音声データSDに対して指令取得モードMCと運転音取得モードMOのいずれに関する処理をすべきかを判定する。モードの判定方法としては、以下に記す様々なものが採用できる。
 (5-1-1)音声データSD
 例えば、音声データSDの特徴からモードを決定することができる。この場合、音声データSDが人間の声の特徴を多く含む場合には、指令取得モードMCへ移行する。音声データSDの内容が空調機1062の運転音の特徴を多く含む場合には、運転音取得モードMOへ移行する。
 (5-1-2)キーワード
 音声データSDとして人間の声により所定のキーワードが発声されたことを音声ゲート部1644が認識した場合、音声ゲート部1644は音声データSDを通過させる。この時、所定時間にわたり指令取得モードMCが実行され、次いで、所定時間にわたり運転音取得モードMOが実行されてもよい。一連の動作が終わると、音声ゲート部1644は音声データSDを遮断してもよい。
 (5-1-3)指令の終了
 指令取得モードMCにおいて、指令抽出部1014が音声指令の終了を検知したとき、モード判定部19が、指令取得モードMCから運転音取得モードへMOの変更を決定してもよい。
 (5-1-4)運転音の取得を命じる指令
 管理システム1090が受け入れることが可能な指令群の中に、「運転音の蓄積」または「運転音の解析」などの運転音取得指令を設定しておいてもよい。指令取得モードMCにおいて、指令抽出部1014がこれらの指令を検知したとき、モード判定部19が指令取得モードMCから運転音取得モードへMOの変更を決定する。
 (5-1-5)定期取得
 経過時間を用いてモード判定を行ってもよい。すなわち、一定期間の経過ごとに運転音取得モードMOの動作を実行してもよい。一定期間は、例えば1時間であってもよいし、1週間、1ヶ月、1年であってもよい。この動作は、空調機62の定期診断として行われる。
 (5-2)指令取得モードMCにおける動作
 指令取得モードMCにおいては、音声データSDはユーザの声である。音声入力部1064によって取得された音声データSDは、ハードウェアとして構成された第1前処理部1011で第1前処理を受ける。この第1前処理は、音声データSDから人間の声の周波数帯域に係る成分を抽出するフィルタリング処理を含む。第1前処理部1011の出力は、テキスト変換部1013へ送られる。テキスト変換部1013は、ユーザの使用が想定されている言語の特徴を考慮して、第1前処理済みの音声データをテキストに変換する。テキスト変換部1013の出力は、指令抽出部1014へ送られる。指令抽出部1014は、テキストの構文を解析し、空調機1062へ送信すべき指令CMを抽出する。得られた指令CMは、制御部1017によって空調機1062へ送信される。
 (5-3)運転音取得モードMOにおける動作
 運転音取得モードMOにおいては、音声データSDは空調機1062の運転音である。運転音取得モードMOにおいては、ハードウェアとして構成された第1前処理部1011の機能は無効化されており、第1前処理部1011は、音声入力部1064によって取得された音声データSDをそのまま通過させる。音声データSDは、第1前処理部1011で第1前処理を受けることなく、運転音データOSとして運転音データ蓄積部1015に蓄積される。運転音解析部1016は、最新の運転音データOSを過去に蓄積した運転音データOSと照合し、空調機1062に異常があるかないか、および、どのような異常があるかを判定する。運転音解析部1016によって導出された判定結果REは制御部1017へ送られる。制御部1017は、判定結果REに応じて、例えば以下の動作を行う。
・判定結果REが正常のとき、空調機1062の制御を行う。
・判定結果REが異常のとき、正常時とは異なる空調機1062の制御を行う。
・判定結果REが異常のとき、音声出力部1065を介してユーザに異常の内容を通知する。
・判定結果REが異常のとき、音声出力部1065を介してユーザに異常の対処法を通知するメッセージを発する。(メッセージの内容の例としては、空調機1062の空気フィルタを清掃するよう薦めるもの、吹き出し方向調整用フラップの摩擦部を清掃して異物を取り除くように薦めるもの、サービスマンを呼び出すよう薦めるもの、などが挙げられる。)
・判定結果REが異常のとき、サービスセンタ端末1071へ異常の内容を送信する。
 (5-4)運転音解析部1016の解析手法
 運転音解析部1016による解析手法としては、様々なものが採用可能である。例えば、図4に示すように、空調機1062が正常運転している場合における運転音の波形または周波数スペクトルから、現在の動作音がどれだけ乖離しているかを判定することによって、異常検出を行ってもよい。異常判定には例えば閾値THとの比較を用いてもよい。
 あるいは、運転音データOSおよびそれに対応する異常の有無や内容の情報の蓄積から、機械学習によって学習済みモデルを作り、その学習済みモデルを運転音解析部1016の人工知能として利用してもよい。
 あるいは、熟練したサービスマンの技能を反映させたエキスパートシステムを構築し、そのエキスパートシステムを用いた人工知能を運転音解析部1016として利用してもよい。
 複数の解析手法の中から、状況に応じて1つの解析手法を選択してもよい。例えば、ユーザの指令の内容、空調機1062の使用年数、空調機1062の型式などを含むパラメータのうちの少なくとも1つに基づいて解析手法が決定されてもよい。
 (6)特徴
 (6-1)
 指令抽出部1014が受け取る音声データSDには第1前処理がなされ、運転音解析部1016に渡される音声データには第1前処理がなされない。したがって、指令抽出部1014に向かう音声データSDとは異なる特性の音声データSDを運転音解析部1016に渡すことができるので、管理システム1090は異常検出のための運転音の解析に適している。
 (6-2)
 運転音解析部1016に渡される音声データSDは、人間の声の周波数帯域に係る成分を抽出する第1前処理を受けない。したがって、解析により適した音声データSDを運転音解析部は受け取ることができる。
 (6-3)
 運転音データOSの蓄積を解析することによって、現在の運転音の異常の有無または内容の判定がなされる。したがって、異常検出の精度がさらに向上する。
 (6-4)
 指令抽出部1014などの機能ブロックは、キーワードが発声されるまでは有意な動作ができない。したがって、キーワードが発声される前には機能ブロックの少なくとも一部をスリープさせておくことができるので、処理能力の浪費が抑制される。
 (6-5)
 複数の解析手法の中から、指令、年数、型式などに応じて最適な解析手法が選択される。したがって、異常検出の精度がより向上する。
 (6-6)
 管理システム1090は、指令取得モードMCと、運転音取得モードMOの2つのモードを有する。したがって、指令の取得をしないときには、運転音データOSの蓄積を充実させることができる。
 (6-7)
 ユーザまたはサービスマンの意志に応じて運転音データOSが蓄積される。したがって、ユーザまたはサービスマンは、運転音データOSの補充や、管理システム1090の動作確認を行うことができる。
 (6-8)
 定期取得によれば、定期的に運転音データOSが蓄積される。したがって、解析に用いることのできる情報が充実するので、異常検出の精度が向上する。
 (6-9)
 空調機1062の異常が発生した場合に、ユーザは音声出力部1065から対処法を聞くことができる。したがって、空調機のユーザビリティが向上する。
 (6-10)
 この構成によれば、サービスセンタ端末1071は判定結果REを受け取ることができる。したがって、空調機1062の異常発生をサービスマンが知ることができるので、迅速なメンテナンスが可能になる。
 (7)変形例
 (7-1)
 上述の実施形態では空調機1062とは別体の音声入出力装置1063を採用している。これに代えて、図5に示すように、音声入力部1064と音声出力部1065を空調機1062に組み込んでもよい。
 この構成によれば、建物1060における管理システム1090の設置スペースを縮小できる。
 (7-2)
 上述の実施形態では管理システム1090に含まれる空調機1062は1台である。これに代えて、図6に示すように、管理システム1090は、複数の空調機1062を含んでもよい。複数の空調機1062はそれぞれ異なる識別番号を有する。運転音データOSは、その運転音データOSに対応する識別番号と関連付けて保存される。
 この構成によれば、複数の空調機1062の運転音データOSが蓄積される。したがって、複数の空調機1062についての異常を発見しやすい。
 (7-3)
 異常の有無や異常の内容に関する出力は、音声出力部1065が発する音声によらず、表示パネルやLEDにより行ってもよい。
 この構成によれば、ユーザは視覚的に異常についての情報を得ることができる。
 <第2実施形態>
 (1)構成
 図7は、本発明の第2実施形態に係る管理システム1090Aの機能面によるブロック図である。第2実施形態においては、第1前処理部1011がソフトウェアとして構成されている。指令取得モードMCにおいては、音声データSDは第1前処理部1011によって第1前処理を受け、第1前処理が済んだ音声データはテキスト変換部1013へ送られる。一方、運転音取得モードMOにおいては、音声データSDは敢えて第1前処理を受けることなく、そのまま運転音データOSとして運転音データ蓄積部1015へ送られる。
 (2)特徴
 この構成によれば、コンピュータ1040a、1040bのプロセッサ1042によって第1前処理部1011が構成される。したがって、第1前処理部1011のために専用のハードウェアを準備する必要がない。
 (3)変形例
 第1実施形態の変形例を本実施形態に適用してもよい。
 <第3実施形態>
 (1)構成
 図8は、本発明の第3実施形態に係る管理システム1090Bの機能面によるブロック図である。本実施形態は、第2前処理部1012が設けられている点、運転音データ蓄積部1015において運転音データOS以外の情報も記録される点、その他の点において第1実施形態と異なっている。
 第2前処理部1012は、音声データSDに第2前処理を行う。第2前処理は、音声データSDから、人間の声の周波数帯域に係る成分を除去するフィルタリング処理を含む。第1前処理部1011および第2前処理部1012は、いずれも、ハードウェアとして構成されていてもよいし、ソフトウェアとして構成されていてもよい。
 運転音データ蓄積部1015は、運転音データOSを、運転情報OIまたは指令CMの内容と関連付けて蓄積する。運転情報OIとは、空調機1062の運転状態を示す情報であり、例えば、空調機1062の運転モード、空調機1062に搭載されたアクチュエータの動作内容、空調機1062に搭載されたセンサから取得されたデータなどである。指令CMは、指令抽出部1014によって抽出された、ユーザが空調機1062に実行させたい動作に関するものである。
 (2)特徴
 (2-1)
 運転音データ蓄積部1015に蓄積される音声データOSは、人間の声の周波数帯域に係る成分を除去する第2前処理を受ける。したがって、空調機1062の動作音以外のノイズが除去された音声データが解析されるので、異常検出の精度が向上する。
 (2-2)
 運転音データOSと指令CMが関連づけられる。したがって、ユーザが空調機1062に実行させようとした動作と運転音の関係が把握できるので、異常検出の精度がさらに向上する。
 (2-3)
 運転音データOSと運転情報OIが関連づけられる。したがって、空調機1062の状態と運転音の関係が把握できるので、異常検出の精度がさらに向上する。
 (3)変形例
 第1実施形態の変形例を本実施形態に適用してもよい。
<その他>
 以上、本発明の実施形態を説明したが、特許請求の範囲に記載された本発明の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
 〔第2構成〕
 以下、図面を参照しながら、第2構成に係る機器制御システム2001について説明する。機器制御システム2001は、情報提供システムを含む。以下の実施形態は、本発明の具体例であって、本発明の技術的範囲を限定するものではない。以下の実施形態は、本発明の要旨を逸脱しない範囲で適宜変更可能である。
 (1)情報提供システムを含む機器制御システムの概要
 図9は、情報提供システムを含む機器制御システム2001の概略構成図である。図10は、機器制御システム2001の概略ブロック図である。なお、図10では、機器制御システム2001の一部構成については描画を省略している。
 機器制御システム2001の基本機能は、賃貸の部屋Rの賃借人である居住者の音声による指示で、部屋Rに設置されている空調機2010を制御することである。また、機器制御システム2001は、居住者の音声による指示で、後述する第1機器群2050に含まれる機器2050a,2050b,・・・2050nと、第2機器群2060に含まれる機器2060a,2060b,・・・2060mと、を制御する機能も備える。
 さらに、機器制御システム2001は、部屋Rの賃借人および賃貸の部屋Rのオーナーに対して賃借人の騒音に関する評価の情報を提供する情報提供システム、としての機能も兼ね備えている。情報提供システムとしての機器制御システム2001は、後述する空調機2010に内蔵されたマイク2140で集めた音のデータを利用して、賃借人の騒音評価を生成する。
 機器制御システム2001は、空調機2010と、第1機器群2050と、第2機器群2060と、赤外線発信機2040と、解析サーバ2020と、空調機サーバ2030と、機器サーバ2070と、騒音評価用サーバ2200と、を主に含む(図9参照)。
 空調機2010、第1機器群2050、第2機器群2060および赤外線発信機2040は、部屋Rに配置される機器である(図9参照)。ここでは、部屋Rは、各戸がワンルームである複数の部屋を有する集合住宅(アパート又はマンション)の1つの部屋である。各部屋Rには、予め各部屋Rのオーナーが、家電製品や家具などを備え付けている。部屋Rには、1つの空調機2010が備わる。また、部屋Rには、オーディオ機器、電子レンジ、換気扇、卓上照明機器などの機器2050a,2050b,・・・2050nと、テレビ、洗濯機、冷蔵庫、電気給湯器、天井照明機器などの機器2060a,2060b,・・・2060mも、備わっている。
 解析サーバ2020、空調機サーバ2030、機器サーバ2070および騒音評価用サーバ2200は、通常、部屋Rとは別の場所(部屋Rの外部の遠隔地)に設置される。
 なお、部屋Rに配置される空調機2010、第1機器群2050の機器2050a,2050b,・・・2050n、第2機器群2060の機器2060a,2060b,・・・2060mおよび赤外線発信機2040のそれぞれの台数は、図9に描画された台数によらず、1台であっても複数であってもよい。
 以下に、空調機2010、第1機器群2050、第2機器群2060、赤外線発信機2040、解析サーバ2020、空調機サーバ2030、機器サーバ2070および騒音評価用サーバ2200について更に説明する。
 (2)空調機
 空調機2010は、室内ユニット2012と、室外ユニット2014と、これらの間を接続する冷媒連絡配管と、通信部2016と、コントローラ2018と、マイク2140と、を主に有する(図9および図10参照)。空調機2010は、部屋Rの内部空間の空気調和を行う装置である。
 (2-1)マイク
 空調機2010は、マイク2140(図10参照)に指示音声を入力することで操作可能な空調機である。指示音声は、例えば、“空調オン”、“設定温度を25℃に設定”等の音声である。なお、本実施形態に係る空調機2010は、音声操作に加えて、一般的なリモコンによっても操作可能に構成されている。
 機器制御システム2001では、マイク2140は、第1機器群2050の機器2050a,2050b,・・・2050nおよび第2機器群2060の機器2060a,2060b,・・・2060mに対する指示音声も受付可能に構成されている。また、マイク140は、部屋Rの中に居る人間が発する声や、各機器2050a,2050b,・・・2050n,2060a,2060b,・・・2060mから生じる動作音も、集音する。
 このように、マイク2140は、部屋Rにおいて音を測定する測定部として機能する。
 (2-2)冷媒回路とコントローラ
 空調機2010では、室内ユニット2012と室外ユニット2014とが冷媒連絡配管を介して接続されることで、室内ユニット2012の室内熱交換器(図示省略)や、室外ユニット2014の圧縮機、室外熱交換器、膨張弁等(図示省略)が配管で接続され、冷媒回路が構成される。空調機2010では、冷媒回路内で冷媒を循環することで、室内ユニット2012の設置された部屋R内の空間の冷房/暖房が行われる。
 空調機2010の動作は、コントローラ2018により制御される。コントローラ2018は、例えば、室内ユニット2012が有する制御基板2018aと、室外ユニット2014が有する制御基板(図示せず)とを含む。なお、室内ユニット2012の各構成の動作は、主に室内ユニット2012の制御基板2018aにより制御され、室外ユニット2014の各構成の動作は、主に室外ユニット2014の制御基板により制御される。コントローラ2018を構成する室内ユニット2012および室外ユニット2014の制御基板のCPUは、空調制御用のプログラムを実行することで、空調機サーバ2030から送信されてくる後述する指令C等に応じて空調機2010の各部の動作を制御する。
 (2-3)音声処理チップ
 室内ユニット2012は、制御基板2018aの他の電子部品として、音声処理チップ2170を有する。音声処理チップ2170は、制御基板2018aと一体化されていることが好ましい。つまり、室内ユニット2012は、制御基板2018aと音声処理チップ2170とが一体化されたモジュール2180を有することが好ましい(図10参照)。
 (2-3-1)音声処理チップの指示音声の認識機能
 音声処理チップ2170は、マイク2140が取得した指示音声を処理して後述する信号Sを生成する集積回路である。また、音声処理チップ2170は、マイク2140が取得した指示音声のうち、特定指示音声だけを認識し(指示音声に対して音声認識処理を実行し、特定指示音声だけを認識し)、所定指令C0を生成する集積回路である。
 特定指示音声は、例えば、空調機2010が次の指示音声の入力に備えるよう要求する音声である。そして、所定指令C0は、例えば、マイク2140に、引き続く指示音声の受け付けを要求する指令を含む。また、所定指令C0は、例えば、通信部2016の後述する送信部2016aに、マイク2140が受け付けた指示音声のうち、特定指示音声以外の(特定指示音声に引き続いて受け付ける)指示音声に基づく信号Sの送信の準備を要求する指令を含む。
 なお、特定指示音声は、空調機2010が次の指示音声の入力に備えるよう要求する音声ではなくてもよい。例えば、特定指示音声は、空調機2010の基本的な動作(例えばオン/オフ)の実行を要求する音声であって、これに応じて生成される所定指令C0は、コントローラ2018に空調機2010の運転/停止を要求する指令であってもよい。そして、空調機2010の動作であって、基本的な動作以外の実行を要求する指示音声に基づく信号Sは、外部(解析サーバ2020)に送信されてもよい。
 (2-3-2)音声処理チップの騒音判定機能
 また、音声処理チップ2170は、一定の音のレベル(所定レベル)、例えば50db以上の音がマイク2140に入ってきたときに、その音のデータを解析する。音の周波数などに基づいて、人間の声なのか、それ以外の音なのかを判断する。それ以外の音としては、テレビの音声、洗濯機の音、電気給湯器の音、オーディオ機器から生じた音楽、換気扇の音、部屋Rの居住者が足踏みしたり壁を叩いたりする音、などが挙げられるが、人間の声以外に関する音のデータの詳細な解析は、音声処理チップ2170では行わない、その詳細な解析は、後述する騒音評価用サーバ2200が行う。
 図11に、空調機2010の音声処理チップ2170による騒音判定処理のフローを示す。
 音声処理チップ2170は、マイク2140に入力される音のレベルを常に監視しており、集音している音のレベルが所定レベルを超えているか否かの判断を行っている(ステップS11)。
 ステップS11で、音のレベルが所定レベルを超えていると判断すると、音声処理チップ2170は、その音が人間の声であるか否かを判断する(ステップS12)。この判断は、音の周波数分析などに基づいて行われる。
 ステップS12で、所定レベルを超えた音が人間の声であると判断すると、ステップS13に移行し、音声処理チップ2170は、音のレベル、時刻、継続時間といった情報をメモリに記憶させ始める。所定レベルを超えた音量の人間の声が一定時間継続して所定レベルを下回り続けるまで、音のレベルや時刻の情報はメモリに記憶される(ステップS14)。
 一方、ステップS12で、所定レベルを超えた音が人間の声ではないと判断すると、ステップS16に移行し、音声処理チップ2170は、音のレベル、時刻、継続時間および周波数分析結果をメモリに記憶させ始める。これは、音のレベルが継続して所定レベルを下回るまで継続される(ステップS17)。
 図11においてステップS15,ステップS18で示す、メモリに記憶させた音に関するデータの外部への送信については、後述する。
 (2-4)通信部
 空調機2010は、空調機2010の外部の解析サーバ2020や空調機サーバ2030と通信を行うための通信部2016を有している。空調機2010(通信部2016)は、ネットワーク2080を介して、解析サーバ2020および空調機サーバ2030と接続されている(図9参照)。ネットワーク2080は、ここではインターネットであるが、他のWANであってもよい。空調機2010は、無線LANによってルータ2082と接続され、ルータ2082を介してネットワーク2080と接続されている(図9参照)。ルータ2082は、WAN側のインターフェースと、LAN側のインターフェースとを有し、WANとLANを相互接続させる。なお、空調機2010とルータ2082とは、無線LANではなく、有線LANで接続されてもよい。また、ネットワーク2080はLANであってもよい。
 通信部2016は、例えば、ルータ2082との間で無線通信を行う無線LANアダプタである。通信部2016は、機能部として、情報を送信する送信部2016aと、情報を受信する受信部2016bとを有している(図10参照)。
 (2-4-1)指示音声に基づく信号の外部送信
 送信部2016aは、例えば、マイク2140が受け付けた指示音声に基づく信号Sを外部に送信する(図10参照)。特には、送信部2016aは、マイク2140が受け付けた指示音声のうち、特定指示音声以外の指示音声に基づく信号Sを外部に送信する。ただし、これに限定されるものではなく、送信部2016aは、マイク2140が受け付けた全ての指示音声について、指示音声に基づく信号Sを外部に送信してもよい。
 ここでは、信号Sは、指示音声が音声処理チップ2170によりAD変換されたデジタル音声信号である。なお、信号Sは、例えば、デジタル音声信号が、各種音声データ圧縮方式(例えばMP3等)を用いて音声処理チップ2170により更に圧縮されたデータであってもよい。また、信号Sは、指示音声が音声処理チップ2170によりテキスト化されたデータ(音声をテキストに置き換えたデータ)であってもよい。送信部2016aは、複数のアドレスに(例えば、解析サーバ2020と空調機サーバ2030とに)信号Sを送信することが好ましい。
 (2-4-2)空調機などの状態量の外部送信
 また、送信部2016aは、空調機2010および空調対象空間の少なくとも一方に関する状態量についての情報Jを空調機サーバ2030に対して送信することが好ましい(図10参照)。空調機2010に関する状態量には、例えば冷媒回路の様々な場所においてセンサ(図示せず)により測定される冷媒の温度/圧力や、室外ユニット2014の圧縮機のインバータ制御モータ(図示せず)の回転数や、室外ユニット2014の膨張弁の開度等を含む。空調対象空間に関する状態量には、センサ(図示せず)により測定されている空調対象空間の温度等を含む。
 受信部2016bは、例えば、送信部2016aが送信した信号S(特には、空調機2010の制御に関する指示音声に基づく信号S)に応じた指令Cを外部から受信する。より具体的には、受信部2016bは、解析サーバ2020による信号S(特には、空調機2010の制御に関する指示音声に基づく信号S)の解析の結果に基づいて生成された指令Cを受信する。好ましくは、受信部2016bは、空調機サーバ2030が解析サーバ2020による信号S(特には、空調機2010の制御に関する指示音声に基づく信号S)の解析の結果と、送信部2016aから空調機サーバ2030に対して送信された状態量についての情報Jとに基づいて生成した指令Cを受信する。
 空調機2010の動作を制御するコントローラ2018は、指令Cに基づいて空調機2010の動作を制御する。指令Cは、例えば、空調機2010の運転のオン/オフ、空調機2010の運転モード(冷房/暖房/除湿/送風等)の切換、設定温度(空調対象空間の目標温度)の変更、室外ユニット2014の圧縮機のインバータ制御モータ(図示せず)の回転数の目標値、室外ユニット2014の膨張弁の開度の目標値、および、室内ユニット2012のファン2150のインバータ制御のファンモータ2160の回転数の目標値の少なくとも1つに関する。
 (2-4-3)音に関するデータの外部送信
 また、送信部2016aは、上述した、音声処理チップ2170により記憶させた所定レベルを超えた音に関するメモリ内のデータを、騒音データD(図10参照)として、空調機サーバ2030を介して騒音評価用サーバ2200に送信する。
 上述の音声処理チップの騒音判定の説明において、図11のステップS14,ステップS17までのフローについて説明したが、以下、それ以降のステップについて説明する。
 ステップS14で、人間の声のレベルが一定時間継続して所定レベルを下回っていると判断すると、ステップS15に移行する。ステップS15では、それまで記憶させていた人間の声の音のレベル、時刻、継続時間の各データを、送信部2016aが、騒音データDとして空調機サーバ2030に送る。空調機サーバ2030は、騒音データDを受信すると、それを騒音評価用サーバ200に送る。
 ステップS17で、人間の声以外の音のレベルが一定時間継続して所定レベルを下回っていると判断すると、ステップS18に移行する。ステップS18では、それまで記憶させていた音のレベル、時刻、継続時間および周波数分析結果の各データを、送信部2016aが、騒音データDとして空調機サーバ2030に送る。空調機サーバ2030は、騒音データDを受信すると、それを騒音評価用サーバ2200に送る。
 (3)第1機器群
 第1機器群2050の機器2050a,2050b,・・・2050nは、赤外線信号により操作可能な機器である。第1機器群2050の機器2050a,2050b,・・・2050nは、ネットワーク2080には接続されていない。
 第1機器群2050の機器2050a,2050b,・・・2050nは、空調機2010のマイク2140に対する指示音声の入力に応じて赤外線発信機2040から送信される赤外線信号により操作される。赤外線信号により操作可能な内容には、例えば、機器2050a,2050b,・・・2050nのオン/オフ、卓上照明機器であれば明るさの変更、オーディオ機器であればボリュームの変更、等を含む。
 なお、第1機器群2050の機器2050a,2050b,・・・2050nは、音声操作に加えて(指示音声の入力に応じて赤外線発信機2040から送信される赤外線信号による操作に加えて)、一般的な赤外線リモコンや、機器2050a,2050b,・・・2050nの本体に設けられたスイッチによっても操作可能に構成されている。
 (4)第2機器群
 第2機器群2060の機器2060a,2060b,・・・2060mは、ネットワーク2080を介して送信される信号により操作可能な機器である。第2機器群2060の機器2060a,2060b,・・・2060mは、図示しない無線LANアダプタを有し、ルータ2082を介してネットワーク2080と接続されている(図9参照)。第2機器群2060の機器2060a,2060b,・・・2060mは、ネットワーク2080を介して、解析サーバ2020および機器サーバ2070の少なくとも一方と通信可能に接続されている(図9参照)。
 第2機器群2060の機器2060a,2060b,・・・2060mは、空調機2010のマイク2140に対する指示音声の入力に応じて解析サーバ2020又は機器サーバ2070から送信される信号により操作される。解析サーバ2020又は機器サーバ2070から送信される信号により操作可能な内容には、例えば、機器2060a,2060b,・・・2060mのオン/オフ、テレビのチャンネルやボリュームの変更、等を含む。
 なお、第2機器群2060の機器2060a,2060b,・・・2060mは、音声操作に加えて(指示音声の入力に応じてネットワーク2080を介して送信されてくる信号による操作に加えて)、一般的に用いられているリモコンや、機器2060a,2060b,・・・2060mの本体に設けられたスイッチによっても操作可能に構成されている。
 (5)解析サーバ
 解析サーバ2020は、空調機2010(通信部2016)とネットワーク2080を介して接続されている。そして、空調機2010のマイク2140が指示音声を受け付けると、上述したように、空調機2010の送信部2016aは、指示音声に基づく信号Sを、ネットワーク2080を介して解析サーバ2020に送信する(図10参照)。なお、マイク2140が受け付ける指示音声には、空調機2010の制御に関する指示音声、第1機器群2050の機器2050a,2050b,・・・2050nの制御に関する指示音声、第2機器群2060の機器2060a,2060b,・・・2060mの制御に関する指示音声を含む。言い換えれば、解析サーバ2020は、空調機2010、機器2050a,2050b,・・・2050n、および機器2060a,2060b,・・・2060mの制御に関する指示音声に基づく信号Sを受信する。
 また、解析サーバ2020は、ネットワーク2080を介して、空調機サーバ2030および機器サーバ2070と通信可能に接続されている。
 解析サーバ2020は、記憶装置(図示せず)に記憶されているプログラムを実行することで、受信した信号Sを解析するコンピュータである。例えば、具体的には、解析サーバ2020は、受信した音声信号の音声認識を行う。
 なお、解析サーバ2020の記憶装置には、プログラムの他、各部屋Rにある操作可能な機器(空調機2010、第1機器群2050の機器2050a,2050b,・・・2050n、および第2機器群2060の機器2060a,2060b,・・・2060m)のリストが記憶されている。つまり、解析サーバ2020は、直接あるいは赤外線発信機2040を介して操作可能な機器を把握している。また、第2機器群2060の機器2060a,2060b,・・・2060mに関しては、制御対象の機器2060a,2060b,・・・2060mが、解析サーバ2020の直接の制御対象であるか否か(解析サーバ2020および機器サーバ2070のいずれのサーバの制御対象であるか)に関する情報も記憶されている。
 解析サーバ2020は、信号Sとしての音声を分析してその特徴量を求め、記憶装置に記憶された音響モデル、言語モデルおよび発音辞書を含む音声認識辞書を利用して特徴量からテキスト情報を生成する。解析サーバ2020が生成するテキスト情報は、例えば“空調機オン”、“空調機の設定温度を25度に設定”、“天井照明オフ”、“テレビオン”等のテキスト情報である。
 解析サーバ2020は、テキスト情報が、空調機2010の制御に関するものである場合(例えば、テキスト情報が空調機に関するキーワードを含んでいる場合)、信号Sの解析結果(つまり生成したテキスト情報)を、ネットワーク2080を介して空調機サーバ2030に送信する(図10参照)。
 解析サーバ2020は、テキスト情報が第1機器群2050の機器2050a,2050b,・・・2050nの制御に関するものである場合(例えば、テキスト情報が第1機器群2050に関するキーワードを含んでいる場合)、赤外線発信機2040に対し、信号Sの解析結果(つまり生成したテキスト情報)に応じた赤外線信号の送信を命じる指令を送信する。例えば、テキスト情報が、第1機器群2050の機器2050a,2050b,・・・2050nに含まれる卓上照明機器に関する情報(例えば、“卓上照明オフ”)であった場合、解析サーバ2020は、赤外線発信機2040に対し、卓上照明機器に対して消灯を指示する赤外線信号を送信するように命じる指令を送信する。赤外線発信機2040に対する指令は、解析サーバ2020から、ネットワーク2080を介して赤外線発信機2040へと送信される。このように、解析サーバ2020は、機器操作部として機能する。
 解析サーバ2020は、テキスト情報が第2機器群2060の機器2060a,2060b,・・・2060mの制御に関するものである場合(例えば、テキスト情報が第2機器群2060に関するキーワードを含んでいる場合)、信号Sの解析結果(つまり生成したテキスト情報)に応じた指令を第2機器群2060の機器2060a,2060b,・・・2060mに送信する。例えば、テキスト情報が、第2機器群2060の機器2060a,2060b,・・・2060mに含まれるテレビに関する情報(例えば、“テレビ音量アップ”)であった場合、解析サーバ2020は、テレビに対し、音量を上げる指令を送信する。第2機器群2060の機器2060a,2060b,・・・2060mに対する指令は、解析サーバ2020から、ネットワーク2080を介して第2機器群2060の機器2060a,2060b,・・・2060mへと送信される。
 なお、テキスト情報が第2機器群2060の機器2060a,2060b,・・・2060mの制御に関するものである場合であって、制御対象の機器2060a,2060b,・・・2060mが解析サーバ2020の直接の制御対象でない場合には、その機器2060a,2060b,・・・2060mを制御する機器サーバ2070へとテキスト情報が送信される。例えば、テキスト情報が“XX時に給湯沸き上げ”という電気給湯器に関するものである場合、そのテキスト情報が機器サーバ2070へ送信される。そして、機器サーバ2070から機器2060a,2060b,・・・2060mへとネットワーク2080を介して指令が送信される。
 (6)空調機サーバ
 空調機サーバ2030は、解析サーバ2020から送信される、解析サーバ2020による信号Sの解析の結果(つまり解析サーバ2020が生成したテキスト情報)と、空調機2010の送信部2016aから適宜送信される空調機2010および空調対象空間の少なくとも一方に関する状態量についての情報Jとに基づいて指令Cを生成する。そして、空調機サーバ2030は、ネットワーク2080を介して、指令Cを空調機2010の受信部2016bに対して送信する。このように、空調機サーバ2030は、機器操作部として機能する。
 なお、ここでは、空調機サーバ2030は、解析サーバ2020による信号Sの解析の結果に加え、情報Jに基づいて指令Cを生成するが、これに限定されるものではない。空調機サーバ2030は、解析サーバ2020による信号Sの解析の結果だけに基づいて指令Cを生成してもよい。
 また、空調機サーバ2030は、空調機2010の送信部2016aから送信されてくる信号Sを蓄積し、信号Sを用いて各種解析を行う。
 なお、空調機サーバ2030は、隣接し有線で結ばれている騒音評価用サーバ2200に接続されており、解析サーバ2020や機器サーバ2070から入手した各機器の操作情報などを騒音評価用サーバ2200に送る。その詳細は後述する。
 (7)機器サーバ
 機器サーバ2070は、解析サーバ2020から送信される、解析サーバ2020による信号Sの解析の結果(つまり解析サーバ2020が生成したテキスト情報)に基づいて、第2機器群2060の機器2060a,2060b,・・・2060mに対する指令を生成する。そして、機器サーバ2070は、ネットワーク2080を介して指令を操作対象の第2機器群2060の機器2060a,2060b,・・・2060mに対して送信する。このように、機器サーバ2070は、機器操作部として機能する。
 なお、図9では機器サーバ2070は1台であるが、機器サーバ2070により操作される機器2060a,2060b,・・・2060mの種類が複数ある場合には、その種類の数だけ機器サーバ2070が存在することが好ましい。
 また、機器2060a,2060b,・・・2060mの全てが解析サーバ2020からの指令によって操作される場合には、機器サーバ2070は存在しなくてもよい。
 (8)赤外線発信機
 赤外線発信機2040は、第1機器群2050の機器2050a,2050b,・・・2050nの機器別かつ操作内容別に、制御用の赤外線信号パターンを記憶するメモリ(図示せず)を有している。赤外線発信機2040は、メモリに記憶されている赤外線信号パターンを利用して、解析サーバ2020から送信される指令に応じて、操作対象である第1機器群2050の機器2050a,2050b,・・・2050nに対して赤外線信号を送信する。
 (9)騒音評価用サーバ
 騒音評価用サーバ2200は、部屋Rに関する音の情報を収集し、部屋Rのオーナーや管理代行者である管理者の監視端末(コンピュータ等)2280に、部屋Rの賃借人の騒音発生状況の情報を通知することができる。また、騒音評価用サーバ2200は、部屋Rの賃借人である居住者や、部屋Rを含む集合住宅の賃借希望者が保有する携帯端末2290に、賃借人や集合住宅の騒音評価を通知することができる。
 上述のように、騒音評価用サーバ2200は、空調機サーバ2030から転送されてくる騒音データDを受信する。騒音データDは、所定レベルを上回った人間の声の音のレベル、時刻、継続時間のデータ(以下、声の騒音データという。)と、人間の声以外の所定レベルを上回った音のレベル、時刻、継続時間および周波数分析結果のデータ(以下、声以外の騒音データという。)との両方である。
 また、騒音評価用サーバ2200は、解析サーバ2020や機器サーバ2070から送られてくる各機器2050a,2050b,・・・2050n,2060a,2060b,・・・2060mの操作情報を受信する。
 さらに、騒音評価用サーバ2200は、空調機サーバ2030から、空調機2010の操作情報を受信する。
 なお、騒音評価用サーバ2200には、容量が大きい記憶装置(記憶部)2240が配備されており、この記憶装置2240の中に、後述する幾つかのデータベースD1~D4が保存されている。
 (9-1)データ処理部による、声以外の音のデータの解析処理
 図12に示すように、騒音評価用サーバ2200は、空調機2010から声の騒音データおよび声以外の騒音データを受信し(ステップS21)、解析サーバ2020、空調機サーバ2030および機器サーバ2070から空調機2010や各機器2050a,2050b,・・・2050n,2060a,2060b,・・・2060mの操作情報を受信する(ステップS22)。これは上述のとおりである。
 ステップS22で操作情報を入手すると、騒音評価用サーバ2200のデータ処理部2210は、それらを、空調機や各機器の操作履歴を蓄積するデータベースD1に入力し、それまでのデータに新しいデータを加える(ステップS23)。
 ステップS24では、データ処理部2210が、データベースD1に記憶されている空調機2010や各機器2050a,2050b,・・・2050n,2060a,2060b,・・・2060mの操作が行われた時刻の情報と、空調機サーバ2030を介して空調機2010から受信した声以外の騒音データに含まれる時刻の情報とを照合する。そして、ステップS25では、データ処理部2210が、声以外の騒音データに含まれる所定レベル以上の大きな音を出している機器が何であるのかを判定する。データ処理部2210は、それらの時刻の照合に加えて、空調機2010や各機器2050a,2050b,・・・2050n,2060a,2060b,・・・2060mの動作音に関するデータベースD2も利用して、声以外の騒音データに含まれる所定レベル以上の音の周波数分析の結果に基づいて、声以外の騒音データの大きな音の発生源を判別する。
 なお、空調機、洗濯機、給湯器、換気扇などの機器それぞれに、現実には多くの種類(メーカーや容量、グレードの違いなど)が存在するが、データベースD2には、数十の機器それぞれの多くの機種それぞれに関する動作音の周波数特性などの特性情報が記憶されている。騒音評価用サーバ2200は、各部屋Rの機器の機種番号などを初期登録し、データ処理部2210における詳細解析において、部屋Rごとの異なるデータを適用している。
 さらに、データベースD2には、人間が床を飛び跳ねる音や、人間が壁を叩く音の周波数特性のデータも記憶されている。これらのデータは、部屋Rの床の材質や壁のサイズ、厚み等によって区分けされており、部屋Rごとに異なるデータが記憶されている。
 ステップS26では、データ処理部2210が、声以外の音のデータを、原因となる音の発生源ごとに区別した形で、データベースD3,D4それぞれに入力する。具体的には、例えば、部屋Rの賃借人の足踏みや壁叩きの音、賃借人がボリュームを上げたテレビやオーディオ機器から流れる音、賃借人が動かした洗濯機や掃除機の音、などが音の発生源として挙げられる。また、データ処理部2210は、空調機2010から受信した声の騒音データについても、同様にデータベースD3,D4に入力する。入力項目は、音の発生源ごとの、レベル(音量)、発生時刻、継続時間、などである。
 なお、集合住宅の騒音履歴データベースD3と、各賃借人の騒音履歴データベースD4には、各種の同じ騒音データが記憶されるが、データベースD3は集合住宅やその管理者を特定する各種データ(住所、周囲環境、所在地など)が関連づけられているのに対し、データベースD4は部屋Rの賃貸者の個人情報(携帯端末のメールアドレスなど)が関連づけられている。
 (9-2)情報生成部による、集合住宅の騒音評価の作成
 ステップS27では、情報生成部2220が、データベースD3に記憶されている情報に基づいて、複数の部屋Rを有する集合住宅それぞれの騒音評価を作成する。例えば、20の部屋Rを有する集合住宅について、各部屋Rの賃借人の騒音レベルが平均的なレベルよりも静かである場合、その集合住宅は全体として静かであるという評価が作成される。また、情報生成部2220は、その集合住宅の部屋Rへの入居を希望している人に対して、入居を希望する部屋の近隣の部屋に関する騒音情報を作成することも可能である。
 情報生成部2220は、作成した情報を集合住宅の騒音履歴データベースD3に入力し、データベースD3を更新する。
 (9-3)情報生成部による、賃借人の騒音情報の作成
 ステップS28では、情報生成部2220が、データベースD4に記憶されている情報に基づいて、賃借人それぞれに関する騒音情報を作成する。例えば、ある賃借人に対し、月ごとの平均の騒音レベルを記憶し続け、引っ越し後も新しい部屋Rにおいてその賃借人の騒音レベルの記録を蓄積し続ける。これにより、賃貸人は、騒音に関する過去数年に渡る履歴データを持つことができる。この履歴データを示すことで、引っ越しを希望する賃借人は、新たな部屋を借りやすくなる。
 情報生成部2220は、作成した情報を賃借人の騒音履歴データベースD4に入力し、データベースD4を更新する。
 (9-4)情報生成部による、騒音評価や騒音情報の提示
 ステップS29では、部屋Rの管理者や賃借人などから騒音情報の提示の要求があったか否かの判断が為される。この要求は、例えば、騒音評価用サーバ2200がウェブ上で情報提供している場合には、ウェブブラウザを介した要求であり、携帯端末に専用のアプリケーションがインストールされている場合には、そのアプリケーションを介した要求である。
 ステップS29において、要求があると認識した場合、情報生成部2220は、生成した集合住宅の騒音評価や賃借人に関する騒音情報を、部屋Rの管理者や賃借人などに提示する(ステップS30)。提示された情報は、例えば、部屋Rの管理者や賃借人などが所有する監視端末2280や携帯端末2290で閲覧できる。ここで何を提示させるかについては、部屋Rの管理者や賃借人と最初に契約を結ぶことになる。例えば賃借人は、自己の騒音情報を、その部屋Rの管理者以外に提示しないことを契約の条件にすることができる。
 (10)機器制御システムの特徴
 (10-1)
 部屋Rに関する情報を提供する情報提供システムを兼ねる機器制御システム2001では、空調機2010のマイク2140で測定された音が、空調機2010の音声処理チップ2170および騒音評価用サーバ2200のデータ処理部2210において解析される。そして、所定レベルを超える音について、音声処理チップ2170が人間の声だと判断した音と、データ処理部2210が部屋に居る賃借人の行為に起因する音だと判断した音とが抽出される。部屋Rに居る賃借人の行為に起因する音とは、例えば、部屋Rの賃借人の足踏みや壁叩きの音、賃借人がボリュームを上げたテレビやオーディオ機器から流れる音、賃借人が動かした洗濯機や掃除機の音、などである。
 そして、音声処理チップ2170およびデータ処理部2210が抽出した、人間の声の騒音データと部屋Rに居る賃借人の行為に起因する音の情報とを用いて、騒音評価用サーバ2200の情報生成部2220が、部屋Rに関する情報を生成する。ここでは、部屋Rに関する情報として、集合住宅の騒音評価と、賃借人に関する騒音情報とが、情報生成部2220によって作成されている。
 これらの部屋Rの騒音に関する評価や情報は、部屋Rの管理者にとっても、部屋Rの賃借人にとっても、有用な情報となる。例えば、部屋Rの管理者の立場では、部屋Rに居る賃借人が騒音の観点で好ましい人であるか否かを判断することができ、例えば必要に応じて注意喚起を行うことができる。
 なお、集合住宅の騒音評価や、賃借人に関する騒音情報の中に、騒音の発生源ごとに、発生時刻、音のレベルなどが含まれることが好ましい。
 (10-2)
 機器制御システム2001では、騒音評価用サーバ2200のデータ処理部2210が、空調機2010や各機器の操作履歴を蓄積するデータベースD1を有している。そして、各操作指示の時刻と、騒音が測定された時刻とに基づいて、どの機器が発した音なのかをデータ処理部2210が認識する。時刻の照合により、容易に機器が発した音を認識できるようになるため、音の周波数分析結果だけでは機器の特定が難しいときにも、情報生成部220が作成する騒音に関する評価や情報の正確性が向上する。
 (10-3)
 機器制御システム2001では、上述のように、人間の声の騒音データと、部屋Rに居る賃借人の行為に起因する音の情報とを区別し、それらに基づいて集合住宅の騒音評価や賃借人に関する騒音情報が作成されている。このため、例えば、部屋Rに居る賃借人が騒音の観点で好ましい人であるか否かに関する騒音情報に、賃借人の声が大きいのか、それとも賃借人が動かす機器の騒音が大きいのかという観点を含めることが可能になる。
 (10-4)
 機器制御システム2001では、マイク2140を有する空調機2010を、集合住宅の各部屋Rに設置し、複数の部屋Rにおいて音の測定を行う。一方、騒音評価用サーバ2200は、部屋Rから遠く離れた場所に設置されている。このため、騒音評価用サーバ2200は、沢山の集合住宅の部屋Rから音のデータを集めることができ、例えば学習機能によって音の解析能力を向上させることも可能になっている。
 また、騒音評価用サーバ2200には、容量が大きい記憶装置(記憶部)2240が配備されており、この記憶装置2240の中に、後述する幾つかのデータベースD1~D4が保存されている。これにより、各部屋Rの空調機2010の音声処理チップ2170やコントローラ2018では能力的に分析できない音の詳細分析を、騒音評価用サーバ2200は容易に行うことが可能となっている。
 (10-5)
 機器制御システム2001では、情報生成部2220が作成した集合住宅の騒音評価や賃借人に関する騒音情報を、部屋Rの管理者や賃借人が、所有する監視端末2280や携帯端末2290で閲覧することができる。このため、部屋Rの管理者や賃借人が、情報生成部2220からの評価の情報を、携帯端末2290等で確認することができる。
 これにより、例えば、賃貸アパートを経営する所有者が、部屋Rを借りている賃借人の騒音に関する評価を知ったときに、その部屋Rの近隣における騒音被害を食い止めるために賃借人に警告を行うことが可能になる。また、例えば、部屋Rの借り換えを希望している賃借人が、自らの過去の騒音に関する評価の履歴を入手して、それを次の部屋の貸し主に提示することで、部屋を借りやすくなるというメリットも期待できる。
 (11)変形例
 (11-1)
 上記実施形態では、人間の声の騒音データと、部屋Rに居る賃借人の行為に起因する音の情報とを区別し、それらに基づいて集合住宅の騒音評価や賃借人に関する騒音情報を作成しているが、例えば、人間の声の騒音データのみに基づいて騒音情報を生成してもよい。
 また、逆に、部屋Rに居る賃借人の行為に起因する音の情報のみに基づいて騒音情報を生成してもよい。
 いずれの場合にも、その評価情報を用いて、賃借人に警告を行うこと等が可能になり、また、良い評価情報の場合には賃借人にもメリットが生まれる。
 (11-2)
 上記実施形態では、部屋Rの外で発生した音の考慮を行っていないが、所定レベル以上の音量の音が部屋Rの外部から入ってくる環境に部屋Rがある場合には、部屋Rの外の騒音についてもデータ処理部2210で認識できるようにして、その外部騒音の履歴をデータベースに残すことが好ましい。
 この場合、外部騒音の時刻も照合して、データ処理部2210が、人間の声の騒音データや、部屋Rに居る賃借人の行為に起因する音のデータを補正することになる。すなわち、外部騒音が大きい周辺環境に位置する部屋Rであっても、部屋Rに居る賃借人が原因ではない騒音の影響を排除して、その部屋に居る賃借人の騒音に関する評価を正しく生成することが可能になる。
 さらに、データベースに残している外部騒音そのものに対して、上記実施形態と同様に音の情報を評価することが好ましい。そうすれば、所定の騒音レベルを超えた騒音が発生した場合、それが降雨によるものか、交通事故によるものかなど、部屋Rの中に対して部屋Rの外で起こっている事象の情報を提供し、傘を持っていくなどのアドバイスを行うことも可能である。
 (11-3)
 上記実施形態では、各戸がワンルームである複数の部屋を有する集合住宅(アパート又はマンション)の部屋Rを対象として説明を行っているが、家族の複数の人間が幾つかの部屋を共有する家族向けの集合住宅であっても、本発明は適用可能である。
 この場合、話し方などから家族のメンバーを音声処理チップで認識し、メンバーごとに騒音情報を作成してもよいし、その家族全体に対して1つの騒音情報を作成してもよい。
 (11-4)
 上記実施形態では、部屋Rの音を測定するマイク2140を空調機2010に内蔵させているが、その代わりに、専用のマイク内蔵機器を部屋Rに置いてネットワークに接続させてもよいし、他の天井照明機器などにマイクを内蔵させてもよい。
 (11-5)
 上記実施形態では、特定の集合住宅の管理者に対する騒音情報の提供について述べたが、賃借人の騒音情報の履歴を、例えば不動産のネットワーク管理者に提供することも考えられる。例えば、外国人に部屋を貸す場合、なにも情報がなければ貸し出し難いが、その外国人に過去の騒音情報の履歴があり、それが信頼に値する良い情報であれば、貸すほうも貸してもらうほうも利益を享受できる。
 (11-6)
 上記実施形態では、賃借人が部屋Rに居る場合に音を測定することを説明しているが、賃借人が部屋Rに居ないときに音を測定し分析することも有益である。
 部屋Rを貸し出す前に、音の測定を数日間行い、飛行機の音や電車の音、エレベータの音などを測定しておけば、それを加味して貸し出した後の騒音評価等を行うことが可能になる。
 また、騒音評価用サーバ2200に事前登録を行い、その部屋Rがアパートの部屋なのかマンションの部屋なのかを決め、騒音評価の補正を行うことも有効である。
 さらに、騒音評価の補正にあたっては、部屋Rが含まれる建物(集合住宅等)が、木造か鉄筋コンクリート製か、といった建物の構造に関する情報に加えて、建物および部屋R自身の壁、天井、床などが持つ遮音性能に関する情報も登録することが好ましい。これにより、部屋Rに居る賃借人が原因ではない騒音の影響を、部屋Rの内部に与える騒音の影響の大小も含めて適切に排除し、部屋Rの賃借人の騒音を正しく評価することができる。
 (11-7)
 上記実施形態では、集合住宅(アパート又はマンション)の部屋Rを例にとって説明を行っているが、他にも、ホテルの部屋、病院の入院病棟の部屋などに本発明を適用してもよい。
 (11-8)
 上記実施形態では、賃貸アパートを経営する所有者が、部屋Rの賃借人の騒音評価が悪いときに、その部屋Rの近隣における騒音被害を食い止めるために賃借人に警告を行うことを述べた。これに関係する追加情報を、情報生成部220が騒音情報に付け加えてもよい。例えば、情報生成部2220は、単に騒音レベルが高いという警告を通知するのではなく、声が大きい、オーディオの音が大きい、夜中に掃除機や洗濯機を動かしている、といった音の分析に基づく詳細な警告(又は、アドバイス)を追加情報として加えることができる。
 このような警告の提示を受けた賃借人は、それを携帯端末などで随時チェックし、周りに迷惑になるような行為を控えるようになることが期待できる。
 (11-9)
 上記実施形態では、空調機2010のマイク2140で測定された音を、空調機2010の音声処理チップ2170および騒音評価用サーバ2200のデータ処理部2210で解析しているが、その解析処理を、いずれか一方に集約させてもよい。例えば、マイク2140で集音した音のデータを、リアルタイムで騒音評価用サーバ2200に送る構成を採り、データ処理部2210において全ての音の解析を行うことも可能である。この場合、上記実施形態よりもネットワーク2080を介した通信量が増えるが、そのデメリットはデータ圧縮等の技術によって軽減が可能である。
 また、上記実施形態では、部屋Rの中にマイク2140を配置し、部屋の外に設置する騒音評価用サーバ2200のデータ処理部2210で多くの解析処理を行わせているが、集合住宅の部屋Rの中に高性能のコンピュータを設置すれば、そこで全てのデータ解析処理を行うことが可能である。
 さらに、上記実施形態では、部屋の外に設置した騒音評価用サーバ2200の情報生成部2220が集合住宅の騒音評価や賃借人の騒音情報の作成を行っているが、これについても部屋Rの中にコンピュータを設置すれば、部屋Rの中で情報提供システムを完結させることも可能である。
 〔第3構成〕
 以下、図面を参照しながら、第3構成に係る機器制御システムについて説明する。
 <第1実施形態>
 (1)機器制御システム3001の構成
 図13は第1実施形態に係る機器制御システム3001及び異常処理システム3003の概念を説明するための模式図である。図14は同実施形態に係る機器制御システム3001及び異常処理システム3003の構成を示す模式図である。
 機器制御システム3001は、音声入力装置3060と、サーバ3100とを備える。機器制御システム3001では、ユーザ3005が音声入力装置3060に制御指示を入力することで、所定の制御機器を制御することができる。ここでは、制御機器は、空間Oの中に配置されているものとする。また、異常処理システム3003は、機器制御システム1と、異常処理を実行できる機器3020とから構成される。ただし、異常処理システム3003の構成はこれに限定されるものではなく、音声入力装置3060と機器3020とから構成されるものでもよい。
 なお、図13,14には、音声入力装置3060が一台ずつ示されているが、各装置の個数はこれに限定されるものではない。サーバ3100は任意の個数の装置と接続し、これらの装置を管理できるものである。
 機器3020は、ネットワークNW経由でサーバ3100により直接制御されるものである。このような機器3020としては、扇風機3020a、照明機器3020b、テレビ3020c、空調機3020dなどが挙げられる。ここでは、機器3020は、通信部3023と処理部3025とを備える。通信部3023はネットワークNW経由でサーバ3100との通信を実行可能にするものである。この通信部(受付部)3023の機能により、音声入力装置3060が設置された空間Rで生じた異常音に対応する異常処理指示を機器3020が受け付けることが可能となる。処理部3025は、機器3020における各情報処理を実行可能にするものである。ここでは、処理部(異常処理実行部)3025の機能により、機器3020において異常処理が実行される。「異常処理」は、異常処理指示の受信に応じて機器3020に関して行われる動作であり、異常音及び機器の種類毎に異なるものである。例えば、異常音が火事を示すものであり、機器3020がテレビである場合には、「音声入力装置3060の設置場所で火事が生じました」等の表示を画面に反映させる処理を実行する。また、例えば、異常音が火事を示すものであり、機器3020が空調機である場合には、「ポンプダウン運転」に切り換える処理を実行する。異常処理の更なる例については後述する。なお、以下の説明では、任意の機器を示す場合に符号3020を用い、個別の機器を示す場合には英小文字の添え字を付す。
 音声入力装置3060は、所定の機器3020に対する制御指示の入力を受け付けるものである。ここでは、音声入力装置3060は、マイクを有しており、このマイクを介してユーザ3005による機器3020に対する制御指示を音声入力で受け付けることができる。そして、音声入力装置3060は受け付けた音声入力に対応する音情報をサーバ3100に送信する。なお、音情報が制御指示を含むものであるか否かはサーバ3100により判定される。したがって、音声入力装置3060はユーザ3005が発する音声を検知した場合、その音情報をそのままサーバ3100に送信する。
 なお、ここでは、音声入力装置3060が設置される空間Rと、機器3020が設置される空間Oとは同一空間である。
 サーバ3100は、図15に示すように、入力部3101、出力部3102、通信部3103、記憶部3104、処理部3105を有しており、インターネットなどのネットワークNWを介して、音声入力装置3060に接続している。
 ここで、入力部3101は、任意の入力装置により実現され、サーバ3100への各種情報の入力を可能にするものである。出力部3102は、任意の出力装置により実現され、サーバ3100からの各種情報を出力するものである。通信部3103は、任意の通信装置により構成され、外部のネットワークNWと接続し、情報通信を可能にするものである。
 記憶部3104は、ROM,RAM等により実現され、サーバ3100に入力される情報、及び、サーバ3100で計算される情報等を記憶するものである。また、記憶部3104は、「機器データベース(DB)3104K」「異常音データベース(DB)3104I」を記憶する。
 機器DB3104Kは、機器3020毎の個別の情報を管理するものである。例えば、機器DB3104Kは、機器3020に割り当てられた識別情報と音声入力装置3060に割り当てられた識別情報とを関連付けて記憶する。この機器DB3104Kを用いることで、音声入力装置3060の音声入力により操作される機器3020が特定される。
 異常音DB3104Iは、音声入力装置3060が設置される場所で想定される異常により生じる異常音の音情報と、機器3020とに関連付けて、当該機器3020により実行される異常処理の実行命令を記憶する。例えば、異常音DB3104Iは、図16に示すように、異常音が火事に対応する音情報であり、機器3020が空調機3020d1である場合、異常処理としてポンプダウン運転の実行命令を記憶する。また、異常音DB3104Iは、異常音が火事に対応する音情報であり、機器3020がテレビ3020c2である場合、異常処理として異常表示の実行命令を記憶する。また、異常音DB3104Iは、異常音が地震に対応する音情報であり、機器3020が空調機3020d2である場合、異常処理として噴出運転(後述参照)の実行命令を記憶する。また、異常音DB3104Iは、異常音が地震に対応する音情報であり、機器3020がテレビ3020c1である場合、異常処理として異常表示の実行命令を記憶する。
 処理部3105は、CPU,GPU及びキャシュメモリ等により実現され、サーバ3100における情報処理を実行するものである。ここでは、処理部3105が、記憶部3104に記憶されたプログラムを実行することで、「入力解析部3110」「制御内容特定部3120」「制御部3135」「異常音判定部3145」として機能する。
 入力解析部3110は、音声入力装置3060から受信する入力の内容を解析する。例えば、音声入力装置3060が音声入力を受け付けた場合、その音声入力の内容をテキスト情報に変換して解析する。なお、入力解析部3110は、音声入力の内容を解析する場合には、リカレントニューラルネットワーク等を用いることで高精度に解析できる。
 制御内容特定部3120は、入力解析部3110による解析結果から、制御機器と制御指示とを含む制御内容を特定する。例えば、制御内容特定部3120は、音声入力装置3060が音声入力を受け付けた場合、入力解析部3110により変換されたテキスト情報に、制御機器及び制御指示に対応する言語情報が含まれているか否かを判定して制御内容を特定する。
 制御部3135は、制御内容特定部3120により機器3020に関する制御内容が特定された場合、その制御内容に基づいて機器3020をネットワークNW経由で制御する。
 異常音判定部3145は、音声入力装置3060を介して取得される音情報から、所定の異常音を判定する。異常音判定部3145は、異常音を判定した場合、対応する異常処理指示を異常音DB3104Iから抽出し、通信部3103を介して機器3020に送信する。例えば、サーバ3100は、火事に対応する音情報を検知した場合、ポンプダウン運転の実行命令を含む異常処理指示を機器3020に送信する。
 (2)機器制御システム1の動作
 図17は本実施形態に係る機器制御システム1の動作を説明するためのシーケンス図である。
 まず、ユーザ3005により音声入力装置3060が用いられて、機器3020に対する音声入力が行われる(S1)。そして、音声入力装置3060が、受け付けた音声入力に対応する入力情報をサーバ3100に送信する(S2)。
 続いて、サーバ3100が、入力情報を受信し(S3)、入力の内容を解析する(S4)。次に、サーバ3100は、機器3020と、その機器3020に対する制御指示とを含む制御内容を特定する(S5)。サーバ3100は、制御内容に基づいて機器3020をネットワークNW経由で制御する(S6,S7)。
 なお、音声入力により機器3020を制御しようとする場合、情報処理量が膨大となることがある。このような場合であっても、機器制御システム3001では、ネットワークNW上に構築されたディープニューラルネットワーク等を実現するサーバ3100を用いることで、音声解析を高精度に実行できる。これにより、音声入力であっても機器3020及び制御指示を細かく特定することができる。
 (3)異常処理システム3003の動作
 図18は本実施形態に係る異常処理システム3003の動作を説明するためのシーケンス図である。なお、制御機器として異常処理を実行できる機器3020が用いられ、この機器3020と音声入力装置3060とサーバ3100とにより異常処理システム3003が実現される。ただし、異常処理システム3003の構成はこれに限定されるものではない。
 異常処理システム3003では、音声入力装置3060が音声入力を受け付ける状態(音声入力受付モード)のときに、音声入力装置3060を介してサーバ3100に音情報が随時送信される(T1,T2)。
 そして、サーバ3100が、入力された音情報を受信し(T3)、音情報の内容を解析する(T4)。ここで、サーバ3100は、音情報の解析結果から、音声入力装置3050の設置されている空間Rの異常を示す異常音が含まれているか否かを判定する(T5)。サーバ3100は、入力された音情報に異常音を検知した場合、当該異常音に対応する異常処理指示を機器3020に送信する(T5-Yes,T6)。
 そして、機器3020が異常処理指示を受信すると、当該異常処理指示に対応する異常処理を実行する(T7,T8)。
 (4)特徴
 (4-1)
 以上説明したように、本実施形態に係る機器3020は、音声入力装置3060(音声入力受付装置)を介して取得される音声入力に応じて制御指示を出力するサーバ3100から制御指示を受け付ける。また、機器3020は、音声入力装置3060が設置された空間Rで生じた異常音に対応する異常処理指示を受け付け、異常処理指示に応じて異常処理を実行する。このような構成により、機器3020は、異常時に最適な状態になるように制御される。
 例えば、機器3020が、画面(表示部)を有するリモコン等を含む空調機またはテレビ等であり、異常音として、火事を表すような言葉(「火事だ」)や、地震を表すような言葉(「地震だ」)等が採用されている場合、このような異常音に対応する異常処理として、異常音情報に対応する表示(「火事発生」「地震発生」等)を画面に表示することができる。これにより、音声入力装置3060が設置される空間Rと機器3020が設置される空間Oが異なる場合であっても、機器3020のユーザに火事や地震等の異常が生じたことを即座に伝達することができる。
 (4-2)
 本実施形態に係る異常処理システム3003は、音声入力を受け付ける音声入力装置3060(音声入力受付装置)と、機器3020とを備えている。機器3020は、音声入力装置3060を介して取得される音声入力に応じて制御指示を出力するサーバ30100から制御指示を受け付ける。また、機器3020は、音声入力装置3060が設置された空間Rで生じた異常音に対応する異常処理指示を受け付け、異常処理指示に応じて異常処理を実行する。これにより、異常時に機器が最適な状態を採る得る異常処理システム3003を提供できる。
 また、異常処理システム3003は、音声入力装置3060を介して取得される音声入力に応じて制御指示を出力するサーバ3100を備える。サーバ3100は、ネットワークNW上に存在するので、計算資源の調整が容易である。結果として、高精度な音声情報の解析が可能となる。
 また、異常処理システム3003では、サーバ3100が、音声入力装置3060を介して取得される音情報から、所定の異常音を判定する異常音判定部3145と、異常音に対応する異常処理指示を機器3020に送信する通信部(送信部)3103と、を有する。したがって、ネットワークNW上のサーバ3100を用いて異常処理指示を実行できる。
 なお、上述の説明では、異常処理システム3003が、機器3020と音声入力装置3060とサーバ3100とから構成されるものとしたが、異常処理システム3003は、このような構成に限定されるものではない。後述するように、異常処理システム3003は、機器3020と音声入力装置3060とから構成されるものでもよい。
 (5)変形例
 (5-1)変形例A
 上記説明では、音声入力装置3060と機器3020とを別装置として説明したが、両者は一体化されていてもよい。具体的には、音声入力装置3060が機器3020に内蔵されているものでもよい。このような構成により、通常時に音声入力で制御できる機器3020であって、異常時に異常処理を実行する機器3020を提供できる。
 (5-2)変形例B
 上述の異常音判定部3145は、異常音の判定の際に、所定の音情報を除外音として異常音から除外する機能を有していてもよい。例えば、テレビから出力される音情報を除外音として除外する機能を有していてもよい。これにより、現実には異常(火事、地震等)が生じていないにもかかわらず、テレビ等から「火事だ」「地震だ」等の異常音に相当する音情報が生じた場合に、異常処理が実行されることを回避できる。結果として、異常処理システム3003の信頼性の向上することができる。
 (5-3)変形例C
 上述の異常処理システム3003において、音声入力装置3060は、音声入力に対応する音情報の送信を休止する休止状態への切り替えが可能なものでもよい。さらに、音声入力装置3060は、休止状態のときであっても、所定の音情報を取得した場合には、取得した音情報をサーバ3100に送信するものでもよい。
 具体的には、図19に示すように、音声入力装置3060は、音声入力に対応する音情報の送信を休止する休止状態のときでも音情報を随時検知する(C1,C2)。そして、音声入力装置3060は、検知した音情報が所定の解除音情報に該当すると判定した場合、休止状態を解除する(C2-Yes,C3)。休止状態を解除した場合、音声入力装置3060は、検知した音情報をサーバ3100に随時送信する(C4,C5)。この後は、ステップC6~C10において、上述したステップT4~T8と同様の処理が実行される。
 したがって、変形例Cに係る異常処理システム3003によれば、音声入力装置3060を使用しないときは休止状態としておくことができる。一方、異常音が生じるような緊急時には、機器3020が迅速に異常処理を実行できる。
 (5-4)変形例D
 また、機器3020は、制御指示の受付を停止する停止状態への切り替えが可能なものでもよい。さらに、機器3020は停止状態のときであっても、異常処理指示を受け付けた場合には、異常処理を実行するものでもよい。このような構成により、機器3020を使用しないときは停止状態としておくことができる。一方、異常処理指示を受け付けるような緊急時には、機器3020が迅速に異常処理を実行できる。
 (6)空調機への応用
 異常処理システム3003の機器3020として、図20又は図21に示すような冷媒回路を有する空調機3020dを採用することができる。
 ここで、図20に示す冷媒回路は、室外ユニット220と室内ユニット3240とが冷媒配管3211,3212及び閉鎖弁3213,3214を介して互いに接続されている。室外ユニット3220は、主に圧縮機3221、四路切換弁3222、室外熱交換器3223、室外ファン3224、膨張機構3225等を具備している。また、室内ユニット3240は、主に室内熱交換器3241、室内ファン3242等を具備している。なお、本実施形態において「膨張機構」とは、冷媒を減圧できるものをいい、例えば膨張弁、キャピラリーチューブがこれに該当する。また、図21に示す冷媒回路は、図20に示す冷媒回路に開放弁3244が追加されたものである。
 (6-1)応用例1
 機器3020として、図20に示すような冷媒回路を有し、可燃性冷媒又は微燃性冷媒を用いた空調機3020d1を採用することができる。また、異常音として、火事を表すような言葉(「火事だ」)や、地震を表すような言葉(「地震だ」)等とすることができる。そして、このような異常音に対応する異常処理として、ポンプダウン運転の実行を採用できる。「ポンプダウン運転」は、空調機3020d1の室外ユニット3220に冷媒を集中させる運転のことをいう。詳しくは、ポンプダウン運転は、冷房サイクル運転にして膨張機構3225を全閉することにより実行される。ポンプダウン運転が実行されると、冷媒が室外の空間Pに移動されることになるので、例えば火事の際に、室内の空間Oにおける冷媒への引火を抑制できる。また、地震の際に、2次災害の発生を抑制できる。
 (6-2)応用例2
 また、機器3020として、図20に示すような冷媒サイクルを有し、可燃性冷媒又は微燃性冷媒を用いた室外ユニット3220を含む空調機3020d2を採用することができる。また、異常音として、火事を表すような言葉(「火事だ」)や、地震を表すような言葉(「地震だ」)等とすることができる。そして、このような異常音に対応する異常処理として、室外ユニット3200の配置される空間Pに冷媒を開放する室外開放運転を採用できる。「室外開放運転」は、例えば、室外ユニット3220の閉鎖弁3213,3214を開け、大気中に可燃性冷媒又は微燃性冷媒を噴出させることにより実行される。このような室外開放運転により、例えば火事の際に、室内の空間Oにおける冷媒への引火を抑制できる。また、地震の際に、2次災害の発生を抑制できる。
 (6-3)応用例3
 また、機器3020として、図21に示すような冷媒回路を有し、CO冷媒を用いた室内ユニット3240を含む空調機を採用することができる。また、異常音として、火事を表すような言葉(「火事だ」)等とすることができる。そして、このような異常音に対応する異常処理として、室内ユニット3240の設置空間にCO冷媒を噴出する噴出運転を採用できる。「噴出運転」は、開放弁3244を開け、設置空間にCO冷媒を噴出させることにより実行される。なお、開放弁3244の位置としては、通常運転時は低圧、開放時は室内ファン3242を停止して高圧となるところが好適である。
 そして、このような噴出運転により、空間内をCOで満たすことができ、火の消火を促進できる。特に、室内ユニット3240が設置される空間Oが狭所空間の場合には消火の効果を高めることができる。
 <第2実施形態>
 図22は第2実施形態に係る機器制御システム1S及び異常処理システム3Sの構成を示す模式図である。なお、以下の説明において、既に説明した部分と同一の部分には略同一の符号を付し、重複した説明を省略する。また、他の実施形態と区別するために、本実施形態では添え字Sを付すことがある。
 第2実施形態に係る音声入力装置3060Sは、通信部3063と処理部3065とを備える。
 通信部3063は、任意の通信装置により構成され、機器3020との通信を可能にする。通信部3063(受付側送信部)の機能により、処理部3065が判定した異常音に対応する異常処理指示が制御対象の機器3020に送信される。
 処理部3065は、CPU及びキャッシュメモリ等により実現され、各種情報処理を実行する。ここでは、処理部3065は、入力された音情報のうち、特定操作に対応する特定の音情報に対しては、サーバ3100にアクセスせずに、その特定操作に対応する制御指示を機器3020に出力する。また、処理部3065(受付側判定部)は、入力された音情報から、所定の異常音を検知する機能を有している。そして、処理部3065は、入力された音情報のうち、異常音に対応する音情報を検知した場合には、サーバ3100にアクセスせずに、その異常音に対応する異常処理指示を機器3020に出力する。なお、出力された制御指示及び異常処理指示は通信部3063を介して機器3020に送信される。
 図23は本実施形態に係る機器制御システム3001Sの動作を説明するためのシーケンス図である。機器制御システム3001Sでは、ユーザ3005により音声入力装置3060Sが用いられて、機器3020に対する音声入力が行われる(U1)。次に、音声入力装置3060Sが、特定操作に対応する音声入力であるか否かを判定する(U2)。音声入力装置3060Sは、特定操作に対応する音声入力であると判定した場合には、その特定操作に対応する制御指示を機器3020に送信する(U2-Yes,U3)。機器3020は、制御指示を受信すると、その制御指示に対応する特定操作を実行する(U4,U5)。なお、ステップU2において、音声入力装置3060Sが、特定操作に対応する音声入力であると判定しない場合には、音声入力に対応する音声情報をサーバ3100に送信する(U2-No)。この場合は、その後、ステップS3~S7と同様の処理が実行される。
 このように、本実施形態に係る機器制御システム3001Sは、情報処理量の負荷が低い音声解析に対しては音声入力装置3060Sで解析処理を実行する。これにより、ネットワークNWへのアクセスを回避して、迅速な機器の操作が実現される。一方、情報処理量の負荷が高い音声解析に対しては、サーバ3100を用いることで、高精度に音声情報を解析できる。なお、サーバ3100は、ネットワークNW上にディープニューラルネットワーク等を実現する。
 図24は本実施形態に係る異常処理システム3Sの動作を説明するためのシーケンス図である。ここでは、音声入力装置3060Sが、音声入力に対応する音情報の送信を休止する休止状態であるとする(D1)。このような休止状態であったとしても、音声入力装置3060Sは、周囲で生じる音情報を随時検知している(D2)。そして、音声入力装置3060は、検知した音情報が所定の解除音情報に該当すると判定した場合、休止状態を解除する(D2-Yes,D3)。また、音声入力装置3060は、休止状態を解除した場合、解除音情報が所定の異常音情報であるか否かを判定する(D4)。そして、音声入力装置3060Sは、解除音情報が所定の異常音情報であると判定した場合、その異常音に対応する異常処理指示を機器3020に送信する(D4-Yes,D5)。機器3020では、異常処理指示を受信すると、その異常処理指示に対応する異常処理を実行する(D6,D7)。
 このように、本実施形態に係る異常処理システム3Sでは、音声入力装置3060が、機器3020に対する異常音を検知した場合、機器3020に対して異常処理指示を送信するので、ネットワークNW上のサーバ3100にアクセスせずに、機器3020に異常処理を実行させることができる。これにより、迅速に機器3020の異常処理を実現し得る異常処理システム3003Sを提供できる。
 補足すると、音声入力により機器3020を制御しようとする場合、情報処理量が膨大となるため、ネットワークNW上の音声解析装置(サーバ)を用いることがある。これに対し、本実施形態に係る異常処理システム3003Sでは、情報処理量の負荷が低い音解析に対しては音声入力装置3060で解析処理を実行する。これにより、ネットワークNWへのアクセスを回避して、迅速に機器3020の異常処理を実現できる。
 <他の実施形態>
 以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
 すなわち、本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
 〔第1構成〕
   1040   サーバ
   1050   ネットワーク
   1060   建物
   1061   ルータ
   1062   空調機
   1063   音声入出力装置
   1064   音声入力部
   1065   音声出力部
   1090   管理システム
   CM   指令
   OS   運転音データ
   OI   運転情報
   OD   出力データ
   SD   音声データ
 〔第2構成〕
   2001   情報提供システムを含む機器制御システム(情報提供システム)
   2020   解析サーバ(機器操作部)
   2030   空調機サーバ(機器操作部)
   2070   機器サーバ(機器操作部)
   2140   マイク(測定部)
   2170   音声処理チップ(データ処理部)
   2210   データ処理部
   2220   情報生成部
   2240   記憶装置(記憶部)
   2280   監視端末(情報端末)
   2290   携帯端末(情報端末)
 〔第3構成〕
   3001   制御システム
   3001S  制御システム
   3003   異常処理システム
   3003S  異常処理システム
   3005   ユーザ
   3020  機器
   3023  通信部(受付部)
   3025  処理部(異常処理実行部)
   3060  音声入力装置(音声入力受付装置)
   3060S 音声入力装置(音声入力受付装置)
   3063  通信部(受付側送信部)
   3065  処理部(受付側判定部)
   3100 サーバ
   3101 入力部
   3102 出力部
   3103 通信部(送信部)
   3104 記憶部
   3105 処理部(異常音判定部)
   3110 入力解析部
   3120 制御内容特定部
   3135 制御部
   3145 異常音判定部
   R   空間(音声入力装置が設置される空間)
   O   空間(機器が設置される空間、室内ユニットが設置される空間)
   P   空間(室外ユニットが設置される空間)
   NW  ネットワーク
特開2001-285969号 特許第5963155号 特開平06-027986号公報

Claims (10)

  1.  空調機(1062)と、
     前記空調機と同じ部屋に設置され、音声データ(SD)を取得する音声入力部(1064)と、
     前記音声データに含まれる運転音を所定の解析手法により解析することによって、前記空調機の異常の有無または異常の内容に関する判定結果(RE)を導出する運転音解析部(1016)と、
     前記音声データの第1前処理をする第1前処理部(1011)と、
     前記第1前処理をされた前記音声データからユーザの指令(CM)を抽出する指令抽出部(1014)と、
     前記指令に基づいて前記空調機を制御する制御部(1017)と、
    を備える、
    管理システム(1090)。
  2.  前記第1前処理部は、前記音声データから人間の声の周波数帯域に係る成分を抽出する、
    請求項1に記載の管理システム。
  3.  前記運転音を蓄積する運転音データ蓄積部(1015)、をさらに備え、
     前記運転音解析部は、前記運転音データ蓄積部に過去に蓄積された前記運転音データと、最新の前記運転音データとを、解析することによって、判定結果(RE)を導出する、
    請求項2に記載の管理システム。
  4.  前記音声データの第2前処理をする第2前処理部(1012)、
    をさらに備え、
     前記第2前処理部は、前記音声データから前記運転音を抽出し、
     前記運転音データ蓄積部は、前記第2前処理部から抽出した運転音を蓄積する、
    請求項3に記載の管理システム。
  5.  前記音声入力部は、前記音声データの通過または遮断を行う音声ゲート部(1644)をさらに有し、
     前記音声ゲート部は、前記ユーザが発声した所定のキーワードを認識すると、所定時間にわたり前記音声データを通過させる、
    請求項1から請求項4のいずれか1つに記載の管理システム。
  6.  部屋に関する情報を提供する情報提供システムであって、
     前記部屋において音を測定する測定部(2140)と、
     前記測定部により測定された音のデータを解析し、前記部屋に居る人間が発した声および/又は前記部屋に居る人間の行為に起因する音である第1の音を抽出する、データ処理部(2170,2210)と、
     前記データ処理部の処理結果に基づき、前記第1の音に関する情報を用いて、前記部屋に関する情報を生成する、情報生成部(2220)と、
    を備えた情報提供システム。
  7.  前記部屋に居る人間の指示を受けて、前記部屋にある機器を動作させる、機器操作部(2020,2030,2070)と、
     前記機器操作部が受けた前記指示を記憶する記憶部(2240)と、
    をさらに備え、
     前記データ処理部(2210)は、前記測定部により測定された音の時刻と、前記記憶部に記憶されている前記指示の時刻とに基づいて、前記部屋に居る人間の指示によって動作した機器が発した音を認識する、
    請求項6に記載の情報提供システム。
  8.  音声入力受付装置(3060,3060S)を介して取得される音声入力に応じて制御指示を出力する情報処理装置(3100)から前記制御指示を受け付ける機器(3020)であって、
     前記音声入力受付装置が設置された空間(R)で生じた異常音に対応する異常処理指示を受け付ける受付部(3023)と、
     前記異常処理指示に応じて異常処理を実行する異常処理実行部(25)と、
     を備える、機器(3020)。
  9.  音声入力を受け付ける音声入力受付装置(3060,3060S)と、
     前記音声入力受付装置を介して取得される音声入力に応じて制御指示を出力する情報処理装置(3100)から前記制御指示を受け付ける機器(3020)と、を備え、
     前記機器は、
     前記音声入力受付装置が設置された空間(R)で生じた異常音に対応する異常処理指示を受け付ける受付部(3023)と、
     前記異常処理指示に応じて異常処理を実行する異常処理実行部(3025)と、
     を有する、異常処理システム(3003,3003S)。
  10.  前記音声入力受付装置が、前記機器に内蔵されている、
     請求項9に記載の異常処理システム。
PCT/JP2018/026542 2017-07-14 2018-07-13 機器制御システム WO2019013335A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
EP18831043.7A EP3653943B1 (en) 2017-07-14 2018-07-13 Machinery control system
CN201880035642.1A CN110691947B (zh) 2017-07-14 2018-07-13 设备控制系统
CN202111030438.0A CN113639419B (zh) 2017-07-14 2018-07-13 信息提供系统
EP24160502.1A EP4354042A3 (en) 2017-07-14 2018-07-13 Device and abnormality processing system
EP24160490.9A EP4354041A3 (en) 2017-07-14 2018-07-13 Information providing system
JP2019529808A JP7011189B2 (ja) 2017-07-14 2018-07-13 機器制御システム
US16/618,463 US20200126549A1 (en) 2017-07-14 2018-07-13 Device control system
JP2021183399A JP2022020777A (ja) 2017-07-14 2021-11-10 機器制御システム
JP2021183400A JP7284426B2 (ja) 2017-07-14 2021-11-10 機器制御システム

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2017138576 2017-07-14
JP2017-138576 2017-07-14
JP2017-138570 2017-07-14
JP2017138570 2017-07-14
JP2018-088320 2018-05-01
JP2018088320 2018-05-01

Publications (1)

Publication Number Publication Date
WO2019013335A1 true WO2019013335A1 (ja) 2019-01-17

Family

ID=65001329

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026542 WO2019013335A1 (ja) 2017-07-14 2018-07-13 機器制御システム

Country Status (5)

Country Link
US (1) US20200126549A1 (ja)
EP (3) EP4354041A3 (ja)
JP (3) JP7011189B2 (ja)
CN (3) CN113739366A (ja)
WO (1) WO2019013335A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020180055A1 (en) 2019-03-05 2020-09-10 Samsung Electronics Co., Ltd. Air conditioner
JPWO2020084680A1 (ja) * 2018-10-23 2021-03-11 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JP2021113888A (ja) * 2020-01-17 2021-08-05 Tvs Regza株式会社 環境音出力装置、システム、方法およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202050B2 (ja) * 2015-06-25 2017-09-27 三菱電機ビルテクノサービス株式会社 エレベータシステム
KR102658966B1 (ko) * 2019-08-21 2024-04-19 엘지전자 주식회사 공기 조화기의 센서 데이터를 보정하는 인공 지능 공기 조화기 및 그 방법
CN111583898B (zh) * 2020-05-26 2021-06-29 苏州双福智能科技有限公司 一种空间环境多方位选择性降噪系统及方法
CN112897262A (zh) * 2021-02-26 2021-06-04 浙江理工大学 一种基于声音特征提取的电梯运行状态评估系统和方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627986A (ja) 1992-07-13 1994-02-04 Toshiba Corp 音声認識装置利用の機器制御システム
JP2001154694A (ja) * 1999-09-13 2001-06-08 Matsushita Electric Ind Co Ltd 音声認識装置及び方法
JP2001285969A (ja) 2000-03-29 2001-10-12 Shimizu Corp 住宅設備機器の制御システム
JP2002182688A (ja) * 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
US20020123896A1 (en) * 2001-02-28 2002-09-05 Tomas Diez Control module for HVAC systems
JP2005147492A (ja) * 2003-11-14 2005-06-09 Max Co Ltd 換気システム及びこれを備えた住宅構造
JP2010249349A (ja) * 2009-04-13 2010-11-04 Panasonic Corp 空気調和機
JP2012112570A (ja) * 2010-11-24 2012-06-14 Hitachi Appliances Inc 空気調和機
US20130268806A1 (en) * 2012-04-04 2013-10-10 Samsung Electronics Co., Ltd. System, method, and apparatus for performing fault diagnosis for an electronic appliance
JP2015111253A (ja) * 2013-10-31 2015-06-18 シャープ株式会社 サーバ、発話制御方法、発話装置、発話システムおよびプログラム
JP2015176477A (ja) * 2014-03-17 2015-10-05 大阪瓦斯株式会社 入居者意思決定支援システム
JP2016042018A (ja) * 2014-08-15 2016-03-31 台達電子工業股▲ふん▼有限公司Delta Electronics,Inc. 空調設備の制御方法
JP5963155B1 (ja) 2015-12-07 2016-08-03 小西 聡 不動産仲介業務支援システム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05312635A (ja) * 1992-05-14 1993-11-22 Auto Keenihi:Kk 異音検出装置
JPH0728481A (ja) * 1993-07-12 1995-01-31 Shimizu Corp 室内音環境評価システム
JPH0755236A (ja) * 1993-08-20 1995-03-03 Fujitsu General Ltd 空気調和機
DE60032982T2 (de) * 1999-09-13 2007-11-15 Matsushita Electric Industrial Co., Ltd., Kadoma Spracherkennung zur Steuerung eines Geräts
JP2003319472A (ja) * 2002-04-23 2003-11-07 Nippon Seiki Co Ltd 遠隔操作装置及びその送信確認方法
JP4394893B2 (ja) * 2002-08-09 2010-01-06 ダイキン工業株式会社 故障診断システム
WO2004097350A2 (en) * 2003-04-28 2004-11-11 The Board Of Trustees Of The University Of Illinois Room volume and room dimension estimation
JP2009031951A (ja) * 2007-07-25 2009-02-12 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012021969A (ja) * 2010-06-18 2012-02-02 Panasonic Electric Works Co Ltd 部屋、配線器具
CN103388873B (zh) * 2012-05-08 2016-04-27 珠海格力电器股份有限公司 空调系统的故障处理方法和装置
CN102748833A (zh) * 2012-07-13 2012-10-24 海尔集团公司 语音控制电器设备的方法、装置以及服务器
JP2014203208A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2015029362A1 (ja) * 2013-08-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 機器制御方法及び機器制御システム
JP6037980B2 (ja) * 2013-09-04 2016-12-07 三菱電機株式会社 空気調和機
JP2015163920A (ja) * 2014-02-28 2015-09-10 シャープ株式会社 音声システム
JP6345240B2 (ja) * 2014-06-20 2018-06-20 日立ジョンソンコントロールズ空調株式会社 表示装置、方法及びプログラム
US10079012B2 (en) * 2015-04-21 2018-09-18 Google Llc Customizing speech-recognition dictionaries in a smart-home environment
CN107810368A (zh) * 2015-05-04 2018-03-16 江森自控科技公司 具有包含成角度的电路板的外壳的用户控制装置
CN106328152B (zh) * 2015-06-30 2020-01-31 芋头科技(杭州)有限公司 一种室内噪声污染自动识别监测系统
CN205939565U (zh) * 2016-08-15 2017-02-08 珠海格力电器股份有限公司 空调控制系统和空调
CN106288182B (zh) * 2016-08-15 2019-05-24 珠海格力电器股份有限公司 一种压缩机监控方法、装置及空调
CN106248415A (zh) * 2016-08-16 2016-12-21 珠海格力电器股份有限公司 设备故障监控方法、装置及系统
JP2018063537A (ja) * 2016-10-12 2018-04-19 株式会社東芝 ホームネットワーク、電子機器、処理装置および表示方法
US10950230B2 (en) * 2016-10-28 2021-03-16 Panasonic Intellectual Property Corporation Of America Information processing device and information processing method
CN108010523B (zh) * 2016-11-02 2023-05-09 松下电器(美国)知识产权公司 信息处理方法以及记录介质
CN106642547B (zh) * 2016-11-29 2020-05-22 美的集团武汉制冷设备有限公司 空调器的控制方法及空调器
CN106524357A (zh) * 2016-12-07 2017-03-22 中山路得斯空调有限公司 一种中央空调智能控制系统
KR20180084392A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 전자 장치 및 그의 동작 방법
WO2018133307A1 (zh) * 2017-01-20 2018-07-26 华为技术有限公司 一种实现语音控制的方法和终端
US10964315B1 (en) * 2017-06-30 2021-03-30 Amazon Technologies, Inc. Monophone-based background modeling for wakeword detection
US11170762B2 (en) * 2018-01-04 2021-11-09 Google Llc Learning offline voice commands based on usage of online voice commands
EP3783496B1 (en) * 2018-04-17 2024-07-03 Mitsubishi Electric Corporation Apparatus control system and apparatus control method
CN208773802U (zh) * 2018-05-09 2019-04-23 创科(澳门离岸商业服务)有限公司 电动工具和用于电动工具的工件限位装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0627986A (ja) 1992-07-13 1994-02-04 Toshiba Corp 音声認識装置利用の機器制御システム
JP2001154694A (ja) * 1999-09-13 2001-06-08 Matsushita Electric Ind Co Ltd 音声認識装置及び方法
JP2001285969A (ja) 2000-03-29 2001-10-12 Shimizu Corp 住宅設備機器の制御システム
JP2002182688A (ja) * 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
US20020123896A1 (en) * 2001-02-28 2002-09-05 Tomas Diez Control module for HVAC systems
JP2005147492A (ja) * 2003-11-14 2005-06-09 Max Co Ltd 換気システム及びこれを備えた住宅構造
JP2010249349A (ja) * 2009-04-13 2010-11-04 Panasonic Corp 空気調和機
JP2012112570A (ja) * 2010-11-24 2012-06-14 Hitachi Appliances Inc 空気調和機
US20130268806A1 (en) * 2012-04-04 2013-10-10 Samsung Electronics Co., Ltd. System, method, and apparatus for performing fault diagnosis for an electronic appliance
JP2015111253A (ja) * 2013-10-31 2015-06-18 シャープ株式会社 サーバ、発話制御方法、発話装置、発話システムおよびプログラム
JP2015176477A (ja) * 2014-03-17 2015-10-05 大阪瓦斯株式会社 入居者意思決定支援システム
JP2016042018A (ja) * 2014-08-15 2016-03-31 台達電子工業股▲ふん▼有限公司Delta Electronics,Inc. 空調設備の制御方法
JP5963155B1 (ja) 2015-12-07 2016-08-03 小西 聡 不動産仲介業務支援システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020084680A1 (ja) * 2018-10-23 2021-03-11 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
WO2020180055A1 (en) 2019-03-05 2020-09-10 Samsung Electronics Co., Ltd. Air conditioner
CN113498466A (zh) * 2019-03-05 2021-10-12 三星电子株式会社 空调
EP3884215A4 (en) * 2019-03-05 2022-01-19 Samsung Electronics Co., Ltd. AIR CONDITIONER
US11933507B2 (en) 2019-03-05 2024-03-19 Samsung Electronics Co., Ltd. Air conditioner
JP2021113888A (ja) * 2020-01-17 2021-08-05 Tvs Regza株式会社 環境音出力装置、システム、方法およびプログラム

Also Published As

Publication number Publication date
CN113739366A (zh) 2021-12-03
EP3653943B1 (en) 2024-04-10
CN110691947A (zh) 2020-01-14
CN113639419A (zh) 2021-11-12
EP4354042A3 (en) 2024-05-01
US20200126549A1 (en) 2020-04-23
JP2022020777A (ja) 2022-02-01
JP7284426B2 (ja) 2023-05-31
CN110691947B (zh) 2022-06-21
JP2022016505A (ja) 2022-01-21
JPWO2019013335A1 (ja) 2020-08-27
JP7011189B2 (ja) 2022-02-10
EP4354041A3 (en) 2024-05-01
EP3653943A4 (en) 2021-06-30
EP4354042A2 (en) 2024-04-17
EP3653943A1 (en) 2020-05-20
CN113639419B (zh) 2023-05-30
EP4354041A2 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
JP7284426B2 (ja) 機器制御システム
US20200234709A1 (en) Method, control device, and program
US20170154629A1 (en) Voice control system and method
JP6552381B2 (ja) 制御装置、制御システムおよびプログラム
JP2018524534A (ja) 制御システムハブおよび遠隔センサを備えた多機能ホーム制御システム
WO2015029362A1 (ja) 機器制御方法及び機器制御システム
US11629875B2 (en) Operating system, information processing device, control system, and infrared output device
US9100207B2 (en) Systems, devices, and methods for mapping devices to realize building automation and energy management
JP6461713B2 (ja) 機器連動システムおよび機器
CN110036246A (zh) 控制装置、换气系统、换气装置、换气方法及程序
US20210256212A1 (en) Classifying devices of a building management system
JP4310648B2 (ja) 設備環境データ分析システムおよび設備環境データ分析方法
CN113037600A (zh) 通知控制装置、通知控制系统以及通知控制方法
JPWO2016021150A1 (ja) 空気質監視装置、空気質監視システム、空気質監視方法及びプログラム
JP2014238775A (ja) 住宅監視制御装置
CN115875797A (zh) 送风设备的故障检测方法和相关设备
US20210375278A1 (en) System and method for providing a health care related service
JP2017182382A (ja) ネットワークシステム、情報処理方法、およびサーバ
CN111009241A (zh) 一种基于智能门锁的音乐播放方法以及存储介质
WO2022075274A1 (ja) 空調トラブル発生頻度予測プログラム
JP2017151742A (ja) ネットワークシステム、サーバ、情報処理方法、および電気機器
JP2022085369A (ja) ポンプシステム及び監視装置
CN116659032A (zh) 空调外机屏蔽点设置方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18831043

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019529808

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018831043

Country of ref document: EP

Effective date: 20200214