WO2019058572A1 - 空気清浄機 - Google Patents

空気清浄機 Download PDF

Info

Publication number
WO2019058572A1
WO2019058572A1 PCT/JP2018/000291 JP2018000291W WO2019058572A1 WO 2019058572 A1 WO2019058572 A1 WO 2019058572A1 JP 2018000291 W JP2018000291 W JP 2018000291W WO 2019058572 A1 WO2019058572 A1 WO 2019058572A1
Authority
WO
WIPO (PCT)
Prior art keywords
utterance
air purifier
utterance content
unit
device state
Prior art date
Application number
PCT/JP2018/000291
Other languages
English (en)
French (fr)
Inventor
貴英 藤井
慎太郎 野村
大輔 森内
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201880061277.1A priority Critical patent/CN111108329B/zh
Priority to US16/640,528 priority patent/US11189285B2/en
Priority to JP2019542966A priority patent/JP6921969B2/ja
Publication of WO2019058572A1 publication Critical patent/WO2019058572A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • F24F11/52Indication arrangements, e.g. displays
    • F24F11/526Indication arrangements, e.g. displays giving audible indications
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/88Electrical aspects, e.g. circuits
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F8/00Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying
    • F24F8/10Treatment, e.g. purification, of air supplied to human living or working spaces otherwise than by heating, cooling, humidifying or drying by separation, e.g. by filtering
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • F24F11/56Remote control
    • F24F11/58Remote control using Internet communication
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2110/00Control inputs relating to air properties
    • F24F2110/50Air quality properties
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/20Feedback from users
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Definitions

  • the present invention relates to an air cleaner, and more particularly to an air cleaner having a speech function.
  • Patent Document 1 An air purifier having an utterance function of transmitting the state of the own machine and the like to the user by voice
  • the user is informed of the state of the device at present by uttering the state of the own machine and the like by voice. Therefore, when there are a plurality of contents indicating the status of the own machine, it is preferable to utter the contents with high priority to notify the user.
  • An object of one aspect of the present invention is to realize an air purifier capable of reliably uttering a content with high priority to be notified to the user of the uttered content.
  • the air cleaner concerning one mode of the present invention is an air cleaner which has an utterance function which utters the contents of utterance matched with the apparatus state which shows the state of an own machine,
  • the device state detection unit that detects the device state, the device state is classified into a plurality of types of categories, and the utterance content included in each category is associated with the device state detected by the device state detection unit
  • the utterance content extraction unit for extracting the utterance content
  • the utterance control unit for uttering the utterance content extracted by the utterance content extraction unit in the order of high priority given to the category including the utterance content It is characterized by
  • FIG. 1 It is a block diagram which shows schematic structure of the control part of the air cleaner which concerns on Embodiment 1 of this invention. It is a block diagram which shows schematic structure of the air cleaner shown in FIG. It is a figure for demonstrating the outline
  • FIG. 10 is an image diagram showing the contents to be processed in the second embodiment. It is a flowchart which shows the flow of the speech processing performed by the control part shown in FIG. It is a figure which shows the outline
  • FIG. 2 is a block diagram showing a schematic configuration of the air cleaner 10.
  • the air purifier 10 includes a control unit 11, a storage unit 12, a drive unit 13, a sensor unit 14, a communication unit 15, an operation panel 16, and an audio output unit 17.
  • the air purifier 10 has an utterance function of uttering the utterance content associated with the device state indicating the state of the own device. Details of the speech function will be described later.
  • the control unit 11 controls the operation of each unit of the air purifier 10.
  • the control unit 11 is, for example, a computer device configured of a central processing unit (CPU) or an arithmetic processing unit such as a dedicated processor.
  • the control unit 11 reads out and executes a program for performing various controls in the air purifier 10 stored in the storage unit 12 to control the operation of each part of the air purifier 10 in an integrated manner. The details of the control unit 11 will be described later.
  • the storage unit 12 stores various data used in the air cleaner 10, and includes a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and the like.
  • RAM random access memory
  • ROM read only memory
  • HDD hard disk drive
  • the drive unit 13 performs an air conditioning operation such as an air cleaning operation, a humidification operation, and the like in the air purifier 10 by being supplied with electric power.
  • Examples of the drive unit 13 include a blower fan for delivering air, a discharge device for generating ions and the like in the air, and a heater for evaporating water.
  • the drive unit 13 is controlled by the control unit 11.
  • the sensor unit 14 senses the indoor environment of the user home 50 in which the air purifier 10 is installed, and further functions as an equipment state detection unit that detects an equipment state indicating the state of the air purifier 10 Do.
  • the sensor unit 14 is mounted on the air cleaner 10, and is for detecting dust (dust) sensor 14a that detects particles such as dust, pollen, and PM2.5 floating in the room, and odor. It has an odor sensor 14b, an illuminance sensor 14c for detecting illuminance, a temperature sensor 14d for detecting temperature, a humidity sensor 14e for detecting humidity, and a human sensor 14f for detecting a human.
  • the sensor unit 14 may have a CO 2 sensor for detecting the concentration of CO 2 in the room.
  • these sensors can utilize a well-known thing, the detailed description is abbreviate
  • the air cleaner 10 performs an air cleaning operation so that each of the detection level of the particles such as dust and the detection level of the odor is equal to or less than a predetermined level.
  • the air cleaner 10 performs the air cleaning operation in a weak operation when the detection level of the illuminance is equal to or less than a predetermined level, that is, when the room is dark.
  • the environment sensed by the dust sensor 14a, the odor sensor 14b, and the illuminance sensor 14c is required for the air cleaner 10 to control the air cleaning operation.
  • the communication unit 15 performs mutual communication with the cloud server via an external network (a wide area communication network such as the Internet) under the control of the control unit 11.
  • an external network a wide area communication network such as the Internet
  • the operation panel 16 is a user interface for the user to input an instruction to the air purifier 10 or to notify the state of the air purifier 10 under the control of the control unit 11.
  • the state of the air purifier 10 the operation mode, the temperature and humidity of the room, the value converted to the electricity rate of power consumption, the degree of air pollution (dust, odor, etc.) of the room, the presence or absence of humidification, etc.
  • the audio output unit 17 is an audio output device such as a speaker.
  • the control unit 11 outputs a voice based on the voice data stored in the storage unit 12 from the voice output unit 17.
  • the air purifier 10 is configured to be capable of not only remote control from the portable terminal 30, but also operation by near field communication using infrared rays from a remote controller (not shown). Alternatively, operation by voice may be possible.
  • the air purifier 10 is disposed in the flow path of air in the air purifier 10, and a filter for capturing the above-mentioned fine particles in the air, because the air purifier 10 performs a humidifying operation
  • Various members such as a water tank for storing water are provided.
  • the sensor unit 14 includes various sensors such as a sensor that senses the amount of water stored in the water tank, and a sensor that senses clogging of the filter.
  • the clogging of the filter can be detected from changes in air volume and pressure, the light transmission of the filter, and the like.
  • the sensing of clogging of the filter is used for notification to prompt replacement of the filter. In addition, you may count the use time of the said filter, and you may utilize for the notification which urges
  • FIG. 1 is a block diagram showing a schematic configuration of a control unit 11 and a storage unit 12 for realizing an utterance function in the air cleaner 10.
  • the control unit 11 includes an utterance content extraction unit 11a and an utterance control unit 11b.
  • the storage unit 12 includes an utterance content table 12a.
  • the utterance content table 12a includes the utterance content in association with the utterance condition. Details of the utterance content table 12a will be described later.
  • the utterance content table 12a a plurality of utterance contents uttered by the air purifier 10 are stored for each category.
  • the category is classified into air pollution, notification, good night, burn-in, guidance, temperature / humidity change, etc., indicating the device status.
  • the utterance content is associated with a device state (utterance condition) indicating the state of the air purifier 10.
  • each category is given a priority, and the utterance content in the category is also given a priority. The details of the utterance content table 12a will be described later.
  • the utterance content extraction unit 11 a extracts, from the utterance content table 12 a of the storage unit 12, the utterance content associated with the device data (detection signal) indicating the device state sensed (detected) by the sensor unit 14 and extracts it.
  • the uttered content is sent to the uttering control unit 11b.
  • the utterance control unit 11 b causes the speech output unit 17 to utter the utterance content extracted by the utterance content extraction unit 11 a in the descending order of the priority assigned to the category including the utterance content.
  • the speech processing will be described below.
  • FIG. 3 is a view for explaining an outline of the speech processing in the control unit 11 of the air purifier 10 of the above configuration.
  • the utterance content extraction unit 11a extracts the utterance content matching the utterance condition from the utterance content classified into each category shown in FIG. 3A.
  • the utterance content matching the utterance condition is the utterance content associated with the device state indicating the state of the own device obtained from the sensing result by the sensor unit 14.
  • the contents of the utterance included in the category of air pollution, temperature / humidity change, guidance, etc. (utterances 1, 2,..., P: speech Q, Q + 1,..., R: speech S, S + 1,. , T)
  • the utterance content matching the utterance condition is extracted, and a list of the utterance content meeting the condition shown in (b) of FIG. 3 is created.
  • the device state also includes a signal indicating the operating state of the air purifier 10 (a signal indicating the operating mode, a signal when operating the operation panel 16, etc.).
  • the utterance content extraction unit 11a further extracts a plurality of extracted utterance content from the list of condition matches shown in (b) of FIG. 3 using the evaluation function, and the utterance content is shown in (c) of FIG. Create a list of utterances.
  • the evaluation function is a function for extracting high-priority utterance content based on the priority assigned to each utterance content.
  • the speech control unit 11 b causes the speech output unit 17 to utter the speech content included in the speech list shown in (c) of FIG. 3.
  • the utterance order at this time is the order of high priority given to the category including the utterance content.
  • the speech in the air purifier 10 is performed by the speech trigger.
  • the relationship between the type of the speech trigger and the speech category (speech content) corresponding to the speech trigger is as shown in FIG.
  • FIG. 4 is a table showing the relationship between the utterance trigger, the utterance category, and the priority when performing automatic utterance.
  • the automatic uttering is not uttering when the user operates, but uttering that the air purifier 10 automatically conveys the content to be notified to the user according to the sensing result by the sensor unit 14 or the like.
  • Sensor detection as an utterance trigger is associated with "stain of air” as an utterance category
  • water supply as an utterance trigger is associated with “notification” as an utterance category
  • an illuminance sensor "dark” as an utterance trigger “Good night” is associated as an utterance category
  • only "Aikari” as an utterance trigger is associated with “Amikari” as an utterance category
  • "error” as an utterance trigger is associated with "guidance” as an utterance category.
  • the pre-filter automatic cleaning start / end as an utterance trigger is associated with “pre-filter automatic cleaning” as an utterance category.
  • each utterance category includes an utterance content.
  • the priority of the "guidance” of the utterance category is 6 and it is larger than the priority 3 of the "notice” of the utterance category.
  • the utterance content included in the "guidance” is uttered earlier than the utterance content included in the "notice” of the utterance category. Then, next, the utterance content included in the "notice” is uttered.
  • the priority is also given to the plurality of utterance contents included in the utterance category.
  • the order of utterance is determined depending on the priority, but for the plurality of utterance contents in the same utterance category, the utterance contents with high priority (high numerical value) are selected, and the remaining utterance contents are not selected.
  • the utterance content to be uttered is randomly selected.
  • the utterance content in each utterance category is described in FIGS. 6 to 11 described later.
  • FIG. 5 is a flowchart showing the flow of the speech processing performed by the control unit 11.
  • FIG. 6 is a table showing the utterance content of the utterance category "dirt of air" along with two utterance conditions, priorities, and sounds (jingles) when uttering.
  • FIG. 7 is a table showing the utterance content of the utterance category "notice” together with two utterance conditions, priorities, and sounds (jingles) at the time of utterance.
  • FIG. 8 is a table showing the utterance content of the utterance category "Good night” together with two utterance conditions, priorities, and sounds (jingles) at the time of utterance.
  • FIG. 9 is a table showing the utterance content of the utterance category "Miyari" along with two utterance conditions, priorities, and sounds (jingles) at the time of utterance.
  • FIG. 10 is a table showing the utterance content of the utterance category "guidance" together with two utterance conditions, priorities, and sounds (jingles) when uttering.
  • FIG. 11 is a table showing the utterance content of the utterance category “pre-filter automatic cleaning” together with two utterance conditions, priorities, and sounds (jingles) at the time of utterance.
  • the tables shown in FIGS. 6 to 11 are stored in the storage unit 12 as the utterance content table 12a.
  • the utterance content extraction unit 11a determines whether or not there is an utterance trigger (step S11).
  • the utterance content extraction unit 11a determines whether any one of the utterance triggers shown in FIG. 4 has been started.
  • the utterance content extraction unit 11a extracts the utterance content (step S12).
  • the utterance content is identified by the utterance condition (1) as the utterance trigger and the utterance condition (2) shown in FIGS. 6 to 11, and the identified utterance content is extracted.
  • the utterance category is "dirt of air", as shown in FIG.
  • a change in the clean indicator to red is detected as the utterance condition (1) serving as the utterance trigger, and the odor monitor is detected as the utterance condition (2).
  • the utterance content extraction unit 11a finds "stain of air,” as the utterance content. "I will be beautiful in.” And identify the specified utterance content. The contents of the utterance are similarly extracted in the case of other utterance categories.
  • one utterance content when both of the speech condition (1) and the speech condition (2) match, one utterance content can be specified.
  • the present invention is not limited to this, and two or more utterance contents may be specified even if both the utterance condition (1) and the utterance condition (2) match. In such a case, priority may be given to the utterance content, and the one with high priority may be specified as the utterance content.
  • two or more utterance contents are specified and the priority of any of the utterance contents is the same, one utterance content may be specified at random.
  • the utterance control unit 11b specifies the utterance order (step S13).
  • the utterance control unit 11b causes the voice output unit 17 to utter in order from the utterance content having the highest priority given to each utterance category among the plurality of utterance contents extracted by the utterance content extraction unit 11a.
  • the utterance control unit 11 b causes the speech output unit 17 to utter the utterance content in accordance with the identified utterance order (step S 14).
  • the utterance content associated with the device state detected by the sensor unit 14 is uttered in descending order of the priority given to the category including the utterance content. As a result, it is possible to utter and notify the user of the utterance content with high priority.
  • the user can use the same category by designating only the utterance contents having the highest priority given in advance to the utterance contents. Even if there is, it is possible to hear only high-priority utterance content.
  • the user can more surely grasp the current state of the air purifier 10 only by listening to the content of the speech the air purifier 10 speaks.
  • a jingle is set for each utterance content, and when uttering, a utterance is made by the jingle set in the utterance content. That is, if the jingle is "normal", a normal voice is uttered when uttering the uttered content, and if the jingle is "good", the utterer voice is brighter than when the uttered content is uttered. It is uttered by Also, if the jingle is "guidance", it is uttered by mechanical voice when uttering the uttered content, or uttered by ordinary voice.
  • jingles are equivalent to those that indicate human emotions (Kyoraku), and if “Normal”, they are uttered with a voice that does not make you feel irritated. It is uttered by the voice that can be felt.
  • emotions are set in advance as jingles for the contents of utterances, but in the following embodiments, emotions are set regardless of the contents of utterances and speech is performed using the set emotion speech An example will be described.
  • FIG. 12 is a block diagram showing a schematic configuration of the control unit 11 and the storage unit 12 in the air purifier 10 according to the present embodiment.
  • the present embodiment is the same as the control unit 11 of the first embodiment except that the emotion determination unit 11 c is added.
  • the same utterance content table 12a as that of the first embodiment is used also for the utterance content table 12a.
  • the jingle portion described in the tables shown in FIGS. 6 to 11 stored as the utterance content table 12a is not used.
  • the emotion determination unit 11 c determines the emotion of the own device according to the device state detected by the sensor unit (device state detection unit) 14. Specifically, the emotion determination unit 11 c digitizes the sensor information (device state) detected by the sensor unit (device state detection unit) 14 and determines the presence or absence of the emotion set in advance according to the numerical value indicating the device state. judge. In the present embodiment, there are four types of emotions: joy, anger, ashamedy, and ordinary. However, the present invention is not limited to this, and “easiness” may be included. Information indicating the emotion determined to be present by the emotion determination unit 11c is transmitted to the speech control unit 11b.
  • the utterance control unit 11 b causes the voice output unit 17 to utter the utterance content extracted by the utterance content extraction unit 11 a with the emotion determined to be present by the emotion determination unit 11 c.
  • FIG. 13 is a diagram showing an image in which the air purifier 10 has emotions.
  • the air cleaner 10 detects emotions such as “very dirty”, “very dark”, and “many use” from the detection result by the sensor unit 14.
  • the information shown is uttered with a feeling of joy, anger, ashamedy or ordinary.
  • the air purifier 10 speaks with an angry feeling when it receives information that "it has been dirty all the time”, and has an emotional feeling when it has information that "it has been dark all the time.” If you get information that "I use it a lot,” I will speak with a feeling of joy.
  • the emotion determination unit 11c determines that "a lot of use is made” if the number of times of operation ("happy") of the operation panel 16 exceeds a preset number of times (threshold) within a preset period. Do. That is, if it is determined by the emotion determination unit 11 c that the “joy” degree exceeds the threshold, that is, if it is determined that the emotion of “joy” is present, the speech control unit 11 b has an emotion of “joy”. Let him speak.
  • the emotion determination unit 11 c says “very dark”. judge. In other words, if it is determined by the emotion determination unit 11c that the degree of ⁇ is more than the threshold value, that is, if it is determined that the emotion of ⁇ ⁇ is present, the speech control unit 11b has an emotion of ⁇ . Let him speak.
  • the degree of contamination of air (the degree of "angry") in which the emotion determination unit 11c integrates the detection results of the dust sensor 14a and the odor sensor 14b is a preset value exceeds a predetermined period (threshold). For example, it is determined that "it has been dirty”. That is, if it is determined by the emotion determination unit 11c that the degree of "angry" exceeds the threshold value, that is, if it is determined that the feeling of "angry" is present, the speech control unit 11b has an emotion of "angry”. Make them speak.
  • the scale for determining emotion may be changed. In this case, this is realized by changing the threshold for determining the presence or absence of an emotion in the emotion determination unit 11c. Thereby, since the emotions to be determined can be made different, it can appear as if the character of the air purifier 10 has changed like a human.
  • a voice in which three kinds of emotions (happyness, anger, ashamedy) are given in advance is registered in the utterance content table 12a for each utterance content. And it implement
  • the wavelength of the frequency of the voice of the uttered content may be changed to make the uttered content have an emotion and be made to utter.
  • the utterance content table 12a storing the utterance content is the same as that shown in FIGS. 6 to 11 as in the first embodiment.
  • the utterance content extraction unit 11a determines whether or not there is an utterance trigger (step S21).
  • the utterance content extraction unit 11a determines whether or not any of the utterance triggers shown in FIG. 4 of the first embodiment is started.
  • step S21 the utterance content extraction unit 11a extracts the utterance content (step S22).
  • the process here is the same process as step S12 shown in FIG. 5 of the first embodiment. Therefore, detailed description of step S22 is omitted.
  • the emotion determination unit 11 c determines whether the “joy” degree exceeds the threshold with respect to the utterance content extracted in step S ⁇ b> 22 (step S ⁇ b> 23).
  • the speech control unit 11b causes the "happiness” state to be uttered (step S24).
  • the utterance content extracted in step S22 is given a feeling of "joy” and is made to utter.
  • step S23 if the "joy" degree does not exceed the threshold, it is determined that there is no feeling of "joy”, and the process proceeds to step S25, and it is determined whether the other "feeling" degree exceeds the threshold.
  • the other "emotion” is any of the emotions except the above-mentioned "joy” of the emotions of the above-mentioned emotions.
  • step S25 if the other "feeling" degree exceeds the threshold value, it is determined that the other "feeling” is present, and speech is made in the state of the other "feeling" (step S26). Specifically, the utterance content extracted in step S22 is given the same emotion as the emotion of either the anger or phlegm determined in step S25, and is made to utter.
  • step S25 if it is determined in step S25 that the other "feeling" degree does not exceed the threshold value, it is determined that no feeling is present, and speech is made in the "normal" state (step S27). Specifically, the utterance content extracted in step S22 is uttered without giving any feeling of joy, anger, or ashamedy.
  • the degree of “joy” is determined, and thereafter, the degree of other emotions is determined.
  • the present invention is not limited to this, and any of the degree of emotions of anger and ashamedy may be determined first, or the degree of emotions of anger, anger and ashamedy may be determined in parallel.
  • the determination of emotions is determined using quantified data
  • the present invention is not limited to this, and other emotion determination methods may be used.
  • an utterance content when an utterance content is given an emotion, it is realized by performing an operation using various parameters as described in, for example, Japanese Patent Application Laid-Open No. 2003-233388.
  • the content of the utterance is registered in advance as a voice with emotion, and the registered voice is used as necessary, it is not necessary to perform complicated calculation.
  • one threshold for determining the presence or absence of emotion is described, but the present invention is not limited to this, and two or more thresholds may be used to express emotion in stages. You may For example, if two thresholds are used to determine the level of "happiness", the first threshold is exceeded and the second threshold is not exceeded, the emotion of "happiness” is suppressed, and the second threshold is exceeded. When you do, you will exaggerate the emotions of "happiness”. As described above, by expressing emotions stepwise by using a plurality of threshold values in judgment of emotions, it is possible to allow the user to intuitively grasp what kind of state the device state is at present.
  • the speech is given in order from the one with the highest priority given to the speech category including the speech content. That is, the voices are given in the specified order, with the emotion given.
  • an air purifier 10 having basically the same configuration as the first and second embodiments is used.
  • emotion is added to the utterance content for which the utterance order is specified, and the priority is changed.
  • a numerical value according to emotion is added to the priority.
  • the higher the numerical value according to the emotion the higher the urgency of notifying the user. Therefore, when the determined emotion is "very dirty", the urgency of notifying the user is high, so the value according to the emotion is high, and when "a lot is used", the urgency of notifying the user Because of the lower the number according to the emotion will be lower.
  • the utterance content is determined according to the priority if emotion is not considered. It will speak in order of B, A, and C. However, if the presence or absence of emotion in the utterance contents A, B, and C is determined, and the numerical value associated with the emotion determined to be present is added to the priority of each utterance content, the above-mentioned utterance order may be changed. . In this case, although the value of priority changes depending on the presence or absence of emotion, the value of priority changes depending on the type of emotion even if emotion is present.
  • the priority of each uttered content changes according to the presence or absence of the emotion given to each uttered content and the type of emotion, so the uttered content to be notified to the user That is, it is possible to give priority to utterance contents with high urgency.
  • the utterance content table 12a illustrated in FIGS. 6 to 11 is stored in the storage unit 12 in the air purifier 10 has been described.
  • the utterance content stored in the utterance content table 12a may be acquired from the cloud server 20 via the wide area communication network 60, the relay station 40, and the communication unit 15.
  • FIG. 15 is a diagram showing an outline of the air conditioning support system 1.
  • the air purifier 10 installed in the user home 50
  • the cloud server 20 and the portable terminal 30 are connected via the wide area communication network 60 (communication network).
  • the air conditioning support system 1 supports air conditioning that adjusts the state of air in the room of the user home 50.
  • the air cleaner 10, the cloud server 20, the portable terminal 30, and the user residence 50 are illustrated one each, it is not limited to these numbers and types.
  • the air purifier 10 purifies air in the room of the user home 50.
  • the air purifier 10 is a so-called network home appliance having a wireless communication function for connecting to the wide area communication network 60 and communicating with the cloud server 20.
  • the wireless communication function may be built in the air purifier 10 main body or may be provided in a communication adapter (not shown) externally attached to the air purifier 10 main body.
  • the air cleaner 10 has a humidification function, it does not need to have it.
  • the air cleaner 10 is installed in the user house 50 as shown in FIG. 15, an installation place is not limited, You may install in an office or a public place.
  • the portable terminal 30 and the air purifier 10 are registered in association with each other.
  • the portable terminal 30 is configured to be able to remotely control the air purifier 10 registered in association with itself at the cloud server 20 via the cloud server 20.
  • the portable terminal 30 receives, from the cloud server 20, various information related to the air purifier 10 registered in association with itself in the cloud server 20.
  • the portable terminal 30 can cite, for example, a smartphone, a tablet terminal, and the like.
  • a plurality of air purifiers 10 can be remotely controlled from one portable terminal 30.
  • one air purifier 10 can be remotely controlled from a plurality of portable terminals 30.
  • the utterance content table 12a described in the first to third embodiments is registered.
  • a wireless local area network which is a short range communication network
  • the relay station 40 of the wireless LAN is connected to a wide area communication network 60 including the Internet.
  • the relay station 40 is, for example, a communication device such as a WiFi (registered trademark) router or a WiFi (registered trademark) access point.
  • a configuration including the Internet is exemplified as the wide area communication network 60.
  • a telephone network, a mobile communication network, a CATV (CAble TeleVision) communication network, a satellite communication network, or the like can also be used.
  • the cloud server 20 and the air purifier 10 can communicate via the wide area communication network 60 and the relay station 40 of the wireless LAN. Further, the cloud server 20 and the mobile terminal 30 can communicate with each other via the wide area communication network 60.
  • the portable terminal 30 and the Internet in the wide area communication network 60 are connected using 3G (3rd Generation), LTE (Long Term Evolution), a home or public WiFi (registered trademark) access point, or the like.
  • the air cleaner 10 and the mobile terminal 30 are both wireless communication devices, and can communicate with each other via the relay station 40 without using the wide area communication network 60.
  • the cloud server 20 and the portable terminal 30 can utilize a well-known thing, the detailed description is abbreviate
  • storing the speech content table 12 a in the cloud server 20 eliminates the need for storing the speech content table 12 a in the air purifier 10.
  • control block (particularly, the control unit 11) of the air cleaner 10 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.
  • the air purifier 10 includes a computer that executes instructions of a program that is software that implements each function.
  • the computer includes, for example, at least one processor (control device) and at least one computer readable storage medium storing the program.
  • the processor reads the program from the recording medium and executes the program to achieve the object of the present invention.
  • a CPU Central Processing Unit
  • the above-mentioned recording medium a tape, a disk, a card, a semiconductor memory, a programmable logic circuit or the like can be used besides “a non-temporary tangible medium”, for example, a ROM (Read Only Memory).
  • a RAM Random Access Memory
  • the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program.
  • any transmission medium communication network, broadcast wave, etc.
  • one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the air purifier according to aspect 1 of the present invention is an air purifier 10 having an utterance function for uttering utterance content associated with an apparatus state indicating the state of the own apparatus, wherein the apparatus state for detecting the apparatus state
  • the detection unit (sensor unit 14) and the device state are classified into a plurality of types of categories, and are associated with the device state detected by the device state detection unit (sensor unit 14) from the utterance content included in each category
  • an utterance control unit 11b for uttering the utterance content extracted by the utterance content extraction unit 11a in the descending order of priority given to the category including the utterance content.
  • the utterance content associated with the device state detected by the device state detection unit is uttered in the descending order of the priority assigned to the category including the utterance content, whereby the priority is high. Utterance content can be uttered to inform the user.
  • the uttered content can surely utter the content with high priority to be notified to the user, the user can listen to the uttered content uttered by the air purifier, and the air purifier is now It is possible to know exactly what kind of state it is.
  • the utterance control unit 11 b adds in advance to the utterance content when there are a plurality of utterance contents extracted by the utterance content extraction unit 11 a in the same category Only the utterance content having the highest priority may be set as the utterance target.
  • the user when there are a plurality of utterance contents extracted by the utterance content extraction unit in the same category, the user can set only the utterance contents having the highest priority given in advance to the utterance contents as the utterance target. Even in the same category, it is possible to hear only high-priority utterance contents.
  • the user can more reliably grasp what state the air purifier is currently by just listening to the content of the speech the air purifier speaks.
  • the device state detection unit includes various sensors (dust sensor 14a, odor sensor 14b) mounted on the air cleaner 10. , Detection signals of the illuminance sensor 14c, the temperature sensor 14d, the humidity sensor 14e, the human sensor 14f, etc.) may be detected as the device state.
  • the device state detection unit (sensor portion 14) is a signal indicating an operation state of the air purifier 10 (operation mode, from the operation panel 16) Signal etc.) may be detected as the device state.
  • the emotion of the own device according to the device state detected by the device state detection unit (sensor unit 14) is determined
  • the speech control unit 11b is further provided with an emotion determination unit 11c, and the utterance control unit 11b may cause the utterance content extracted by the utterance content extraction unit 11a to be uttered with the emotion determined to be present by the emotion determination unit 11c. Good.
  • the user it is possible to make the user more easily understand the device state by making the utterance content associated with the device state have a feeling and make the utterance. For example, if the air in the vicinity of the air purifier has been dirty all the time, the load on the air purifier may be affected by making the utterance contents "being in a dirty state" with the emotion of "angry” It can make the user realize that it is present.
  • the device state is determined by using various sensors (dust sensor 14a, odor sensor 14b, illuminance sensor 14c, temperature sensor 14d, etc.) mounted on the air purifier 10. It may be digitized by detection signals of the humidity sensor 14e, the human sensor 14f, etc.).
  • the device state may be quantified by a signal (a signal from the operation panel 16 or the like) indicating the operation state of the air purifier.
  • the speech function of the air purifier according to each aspect of the present invention may be realized by a computer, and in this case, the computer is operated as each part (software element) provided with the speech function of the air purifier.
  • a speech control program of an air purifier that realizes a speech function of the air purifier by a computer, and a computer readable recording medium recording the same also fall within the scope of the present invention.
  • air cleaner of the present invention has a broad meaning and includes an air conditioner such as an air conditioner having an air cleaning function.
  • the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and can be obtained by appropriately combining the technical means disclosed in the different embodiments.
  • the embodiments are also included in the technical scope of the present invention.
  • new technical features can be formed by combining the technical means disclosed in each embodiment.
  • Reference Signs List 1 air conditioning support system 10 air purifier 11 control unit 11a utterance content extraction unit 11b utterance control unit 11c emotion determination unit 12 storage unit 12a utterance content table 13 drive unit 14 sensor unit (device state detection unit) 14a Dust sensor 14b Odor sensor 14c Illuminance sensor 14d Temperature sensor 14e Humidity sensor 14f Human sensor 15 Communication unit 16 Operation panel 17 Voice output unit 20 Cloud server 30 Mobile terminal 40 Relay station 50 User home 60 Wide area communication network

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Air Conditioning Control Device (AREA)
  • Disinfection, Sterilisation Or Deodorisation Of Air (AREA)
  • Ventilation (AREA)

Abstract

発話された発話内容がユーザに通知すべき優先度の高い内容の発話を確実に行なうこと。空気清浄機(10)は、機器状態に対応付けられた発話内容を抽出する発話内容抽出部(11a)と、上記発話内容抽出部(11a)によって抽出された発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させる発話制御部(11b)と、を備えている。

Description

空気清浄機
 本発明は、空気清浄機に関し、特に発話機能を有する空気清浄機に関する。
 近年、空気清浄機には様々な機能が搭載されている。例えば自機の状態等を音声によりユーザに伝える発話機能を有する空気清浄機が提案されている(特許文献1)。
日本国公開特許公報「特開2017-083165号公報(2017年5月18日公開)」
 ところで、発話機能を有する空気清浄機では、自機の状態等を音声にて発話することで、現在、機器がどのような状態であるかをユーザに知らせている。従って、自機の状態を示す内容が複数ある場合、優先度の高い内容を発話してユーザに知らせるのが好ましい。
 本発明の一態様は、発話された内容がユーザに通知すべき優先度の高い内容の発話を確実に行なうことができる空気清浄機を実現することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る空気清浄機は、自機の状態を示す機器状態に対応付けられた発話内容を発話する発話機能を有する空気清浄機であって、上記機器状態を検出する機器状態検出部と、上記機器状態が複数種類のカテゴリに分類され、各カテゴリに含まれる上記発話内容から、上記機器状態検出部によって検出された機器状態に対応付けられた発話内容を抽出する発話内容抽出部と、上記発話内容抽出部によって抽出された発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させる発話制御部と、を備えていることを特徴としている。
 本発明の一態様によれば、発話された発話内容がユーザに通知すべき優先度の高い内容の発話を確実に行なうことができる。
本発明の実施形態1に係る空気清浄機の制御部の概略構成を示すブロック図である。 図1に示す空気清浄機の概略構成を示すブロック図である。 図1に示す制御部における発話内容の抽出処理の概要を説明するための図である。 発話トリガ、発話カテゴリ、優先順位の関係を示す表示である。 図1に示す制御部で行なう発話処理の流れを示すフローチャートである。 カテゴリ(空気の汚れ)に関する発話内容と発話条件および優先度との関係を示す表示である。 カテゴリ(お知らせ)に関する発話内容と発話条件および優先度との関係を示す表示である。 カテゴリ(おやすみ)に関する発話内容と発話条件および優先度との関係を示す表示である。 カテゴリ(みはり)に関する発話内容と発話条件および優先度との関係を示す表示である。 カテゴリ(ガイダンス)に関する発話内容と発話条件および優先度との関係を示す表示である。 カテゴリ(プレフィルター自動掃除)に関する発話内容と発話条件および優先度との関係を示す表示である。 本発明の実施形態2に係る空気清浄機の制御部の概略構成を示すブロック図である。 本実施形態2で処理する内容を示すイメージ図である。 図12に示す制御部で行なう発話処理の流れを示すフローチャートである。 本発明の他の実施形態に係る空調支援システムの概要を示す図である。
 〔実施形態1〕
 以下、本発明の一実施形態について、詳細に説明する。
(空気清浄機の概要)
 図2は、空気清浄機10の概略構成を示すブロック図である。図2に示すように、空気清浄機10は、制御部11、記憶部12、駆動部13、センサ部14、通信部15、操作パネル16、および音声出力部17を備える。また、空気清浄機10は、自機の状態を示す機器状態に対応付けられた発話内容を発話する発話機能を有する。発話機能の詳細については後述する。
 制御部11は、空気清浄機10の各部の動作を制御するものであり、例えば、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部などにより構成されるコンピュータ装置から成る。制御部11は、記憶部12に記憶されている空気清浄機10における各種制御を実施するためのプログラムを読み出して実行することで、空気清浄機10の各部の動作を統括的に制御する。なお、制御部11の詳細については後述する。
 記憶部12は、空気清浄機10にて用いられる各種データを記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などを含む。
 駆動部13は、電力が供給されることにより、空気清浄機10における空気清浄動作、加湿動作等の空調動作を実行するものである。駆動部13の例としては、空気を送り出すための送風ファン、空気中にイオン等を発生させるための放電デバイス、水を蒸発させるためのヒータなどが挙げられる。駆動部13は制御部11によって制御される。
 センサ部14は、空気清浄機10の設置されたユーザ宅50の室内の環境をセンシングするものであり、さらに、当該空気清浄機10の状態を示す機器状態を検出する機器状態検出部としても機能する。本実施形態では、センサ部14は、空気清浄機10に搭載され、室内に浮遊している塵埃、花粉、PM2.5等の微粒子を検出する埃(ほこり)センサ14a、臭気を検出するための臭気センサ14b、照度を検出する照度センサ14c、温度を検出する温度センサ14d、湿度を検出する湿度センサ14e、および、人間を検出するための人感センサ14fを有する。さらに、センサ部14は、室内のCO2濃度を検出するためのCO2センサを有してもよい。なお、これらのセンサは、公知のものを利用できるので、その詳細な説明を省略する。
 空気清浄機10は、埃等の上記微粒子の検知レベルおよび臭気の検知レベルのそれぞれが所定のレベル以下になるように、空気清浄動作を行う。また、空気清浄機10は、照度の検知レベルが所定のレベル以下である場合、すなわち室内が暗い場合には、弱運転で空気清浄動作を行う。このように、埃センサ14a、臭気センサ14b、および照度センサ14cがセンシングする環境は、空気清浄機10が空気清浄動作を制御するのに必要なものである。
 通信部15は、制御部11の制御のもと、外部のネットワーク(インターネット等の広域通信ネットワーク)を介してクラウドサーバと相互通信を行なうものである。
 操作パネル16は、制御部11の制御のもと、空気清浄機10に対してユーザが指示を入力したり、空気清浄機10の状態を通知したりするためのユーザ・インターフェースである。空気清浄機10の状態の例としては、運転モード、室内の温度および湿度、消費電力の電気料金に換算した値、室内の空気の汚れ(埃、臭気など)の程度、加湿の有無などが挙げられる。
 音声出力部17は、スピーカなどの音声出力装置である。制御部11は、記憶部12に記憶された音声データに基づく音声を音声出力部17から出力する。
 なお、空気清浄機10は、携帯端末30からの遠隔操作だけでなく、図示しないリモコンからの例えば赤外線を用いた近距離無線通信による操作が可能に構成されている。或いは、音声による操作が可能あってもよい。
 なお、図面には示していないが、空気清浄機10には、空気清浄機10中の空気の流路に配置され、空気中の上記微粒子を捉えるフィルタ、空気清浄機10が加湿動作を行うための水を貯蔵する水タンクなど、各種の部材が設けられている。また、センサ部14は、上記水タンクの貯水量をセンシングするセンサ、上記フィルタの目詰まりをセンシングするセンサなど、各種のセンサを有している。上記フィルタの目詰まりは、風量や圧力の変化、上記フィルタの光透過度などから検知できる。上記フィルタの目詰まりのセンシングは、上記フィルタの交換を促す通知に利用される。なお、上記フィルタの使用時間をカウントして交換を促す通知に利用してもよい。
 (空気清浄機の詳細)
 図1は、空気清浄機10における発話機能を実現させるための制御部11および記憶部12の概略構成を示すブロック図である。図1に示すように、制御部11は、発話内容抽出部11a、発話制御部11bを備える。また、記憶部12は、発話内容テーブル12aを含む。
 発話内容テーブル12aは、発話内容を発話条件に関連付けて含むものである。発話内容テーブル12aについての詳細は後述する。
 発話内容テーブル12aには、空気清浄機10が発話する発話内容が、カテゴリ毎に複数格納されている。ここで、カテゴリは、機器状態を示す、空気の汚れ、お知らせ、おやすみ、みはり、ガイダンス、温湿度変化等に分類される。また、発話内容は、空気清浄機10の状態を示す機器状態(発話条件)に対応付けられている。さらに、各カテゴリには、優先度が付与され、且つ、カテゴリ内の発話内容にも優先度が付与されている。なお、発話内容テーブル12aの詳細は後述する。
 発話内容抽出部11aは、センサ部14にてセンシング(検出)された機器状態を示す機器データ(検出信号)に対応付けられた発話内容を、記憶部12の発話内容テーブル12aから抽出し、抽出した発話内容を発話制御部11bに送出する。
 発話制御部11bは、発話内容抽出部11aによって抽出された発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に音声出力部17に発話させる。この発話処理について以下に説明する。
 (発話処理の概要)
 図3は、上記構成の空気清浄機10の制御部11における発話処理の概要を説明するための図である。
 まず、発話内容抽出部11aによって、図3の(a)に示すカテゴリ毎に分類された発話内容から、発話条件に合致する発話内容を抽出する。なお、発話条件に合致する発話内容とは、センサ部14によるセンシング結果から得られる自機の状態を示す機器状態に対応付けられた発話内容である。ここでは、空気の汚れ、温湿度変化、ガイダンスなどのカテゴリに含まれる発話内容(発話1,2,・・・,P:発話Q,Q+1,・・,R:発話S,S+1,・・・,T)から、発話条件に合致する発話内容を抽出し、図3の(b)に示す条件合致した発話内容のリストを作成する。なお、機器状態には、空気清浄機10の運転状態を示す信号(運転モードを示す信号、操作パネル16を操作した信号等)も含まれる。
 次に、発話内容抽出部11aは、図3の(b)に示す条件合致のリストから評価関数を用いて、抽出された複数の発話内容をさらに抽出して、図3の(c)に示す発話のリストを作成する。ここで、評価関数は、各発話内容に付与された優先度に基づき、優先度の高い発話内容を抽出するための関数である。
 最後に、発話制御部11bは、図3の(c)に示す発話リストに含まれる発話内容を音声出力部17において発話させる。このときの発話順は、発話内容を含むカテゴリに付与された優先度の高い順である。
 基本的に、空気清浄機10における発話は、発話トリガによって行なわれる。この発話トリガの種類と、発話トリガに対応する発話カテゴリ(発話内容)との関係は、図4に示すようになる。
 図4は、自動発話を行なう際の、発話トリガ、発話カテゴリおよび優先順位の関係を示す表である。ここで、自動発話とは、ユーザが操作した場合の発話ではなく、空気清浄機10がセンサ部14によるセンシング結果等に応じて、ユーザに知らせるべき内容を自動で伝える発話をいう。
 発話トリガとしてのセンサ検知等は、発話カテゴリとして「空気の汚れ」が対応付けられ、発話トリガとしての給水等は、発話カテゴリとして「お知らせ」が対応付けられ、発話トリガとしての照度センサ「暗」は、発話カテゴリとして「おやすみ」が対応付けられ、発話トリガとしてのみはり検知等は、発話カテゴリとして「みはり」が対応付けられ、発話トリガとしてのエラー検知等は、発話カテゴリとして「ガイダンス」が対応付けられ、発話トリガとしてのプレフィルター自動掃除開始/終了は、発話カテゴリとして「プレフィルター自動掃除」が対応付けられている。
 そして、各発話カテゴリには、図4に示すように、優先度が数値として付与されており、優先度の高い順(数値の大きい順)に発話する順番が決まる。また、各発話カテゴリには、それぞれ発話内容が含まれている。例えば、発話トリガ「給水等」が始動すると、発話カテゴリの「お知らせ」に含まれる発話内容を発話する準備を行なう。ここで、もう一つの発話トリガ「エラー検知等」が始動すると、発話カテゴリの「ガイダンス」の優先度が6であり、発話カテゴリの「お知らせ」の優先度の3よりも大きいため、発話カテゴリの「ガイダンス」に含まれる発話内容が、発話カテゴリの「お知らせ」に含まれる発話内容よりも先に発話される。そして、次に、「お知らせ」に含まれる発話内容が発話される。
 なお、発話カテゴリに含まれる複数の発話内容にもそれぞれ優先度が付与されている。発話カテゴリ間は、優先度により発話する順番が決まるが、同一発話カテゴリ内の複数の発話内容は、優先度の高い(数値の高い)発話内容が選択され、残りの発話内容は選択されない。但し、優先度が同じ発話内容の場合、発話する発話内容はランダムに選択される。各発話カテゴリにおける発話内容については、後述する図6~図11に記載している。
 (発話処理の詳細)
 本実施形態における発話処理の詳細について、図5~図11を参照しながら以下に説明する。
 図5は、制御部11で行なう発話処理の流れを示すフローチャートである。
 図6は、発話カテゴリ「空気の汚れ」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 図7は、発話カテゴリ「お知らせ」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 図8は、発話カテゴリ「おやすみ」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 図9は、発話カテゴリ「みはり」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 図10は、発話カテゴリ「ガイダンス」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 図11は、発話カテゴリ「プレフィルター自動掃除」の発話内容を2つの発話条件、優先度、発話する際の音(ジングル)とともに示した表である。
 なお、図6~図11に示す表は、発話内容テーブル12aとして記憶部12に格納されている。
 まず、発話内容抽出部11aは、図5に示すように、発話トリガありか否かを判定する(ステップS11)。ここでは、発話内容抽出部11aは、図4に示した発話トリガの何れかが始動されているか否かを判定する。
 そして、発話内容抽出部11aは、ステップS11において、発話トリガありと判定(Yes)すれば、発話内容の抽出を行なう(ステップS12)。ここでは、図4に示す表に記載の発話トリガの何れであるかを判定し、判定した発話トリガに対応付けられた発話カテゴリに含まれる発話内容を抽出する。ここでは、図6~図11に示す、発話トリガである発話条件(1)と、発話条件(2)とにより発話内容を特定し、特定した発話内容を抽出する。例えば、発話カテゴリが「空気の汚れ」の場合、図6に示すように、発話トリガとなる発話条件(1)として、きれいミニターが赤に変化が検出され、発話条件(2)として、においモニターが橙、PM2.5モニターが消灯し、前回の「きれいモニター」発話から3時間経過していると判断したとき、発話内容抽出部11aは、発話内容として「空気の汚れ、見つけました。急いでキレイにしますね。」を特定し、特定した発話内容を抽出する。他の発話カテゴリの場合も同様に発話内容を抽出する。
 なお、本実施形態では、発話条件(1)と発話条件(2)との両方が合致していれば、一つの発話内容を特定できるようにしている。しかしながら、これに限定されるものではなく、発話条件(1)と発話条件(2)との両方が合致していても、2つ以上の発話内容を特定できるようにしてもよい。その場合には、発話内容に優先度を付して、優先度の高いものを発話内容として特定してもよい。さらに、2つ以上の発話内容が特定され、且つ、何れの発話内容の優先度も同じであれば、ランダムに一つの発話内容を特定してもよい。
 次に、ステップS12において発話内容が抽出されれば、発話制御部11bは、発話順を特定する(ステップS13)。ここでは、発話制御部11bは、発話内容抽出部11aによって抽出された複数の発話内容のうち、発話カテゴリ毎に付与された優先度の最も高い発話内容から順番に音声出力部17に発話させる順番を特定する。
 最後に、発話制御部11bは、特定された発話順に沿って発話内容を音声出力部17に発話させる(ステップS14)。
 (効果)
 上記の空気清浄機10によれば、センサ部14によって検出された機器状態に対応付けられた発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させている。これにより、優先度の高い発話内容を発話してユーザに知らせることができる。
 さらに、発話内容抽出部11aによって抽出された発話内容が同一カテゴリに複数存在する場合、発話内容に予め付与された優先度の最も高い発話内容のみを発話対象とすることで、ユーザは同一カテゴリであっても優先度の高い発話内容のみを聞くことができる。
 これにより、ユーザは、空気清浄機10が発話する発話内容を聞くだけで、空気清浄機10が現在どのような状態であるのかをより確実に把握することができる。
 なお、図6~図11に示す表には、発話内容毎にジングルが設定されており、発話する際に発話内容に設定されたジングルによって発話するようになっている。つまり、ジングルが「普通」であれば、発話内容を発話する際に普通の音声にて発話され、ジングルが「良い」であれば、発話内容を発話する際に普通の場合よりも明るめの音声にて発話される。また、ジングルが「ガイダンス」であれば、発話内容を発話する際に機械的な音声にて発話される、または普通の音声にて発話される。つまり、ジングルは、人間の感情(喜怒哀楽)を示すものと同等であり、「普通」であれば、喜怒哀楽が感じられない音声にて発話され、「良い」であれば、喜が感じられる音声にて発話される。
 上記のように、本実施形態では、発話内容に対して予めジングルとして感情が設定されているが、以下の実施形態では、発話内容に拘わらずに感情を設定し、設定した感情の音声で発話する例について説明する。
 〔実施形態2〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (空気清浄機の詳細)
 図12は、本実施形態に係る空気清浄機10における制御部11および記憶部12の概略構成を示すブロック図である。本実施形態では、感情判定部11cを追加している点以外は、前記実施形態1の制御部11と同じである。また、発話内容テーブル12aについても、前記実施形態1と同じ発話内容テーブル12aを利用する。但し、本実施形態では、発話内容テーブル12aとして格納されている図6~図11に示す表に記載のジングル部分は用いない。
 感情判定部11cは、センサ部(機器状態検出部)14によって検出される機器状態に応じた自機の感情を判定する。具体的には、感情判定部11cは、センサ部(機器状態検出部)14によって検出されるセンサ情報(機器状態)を数値化し、当該機器状態を示す数値に応じて予め設定した感情の有無を判定する。本実施形態では、感情として、嬉・怒・哀・普通の4種類とするが、これに限定されるものではなく、「楽」を含めてもよい。感情判定部11cにて有りと判定された感情を示す情報は、発話制御部11bに送出される。
 発話制御部11bは、発話内容抽出部11aにて抽出された発話内容を、感情判定部11cによって有りと判定された感情を持たせて音声出力部17に発話させる。
 (発話処理の概要)
 図13は、空気清浄機10が感情を持つイメージを示す図である。
 すなわち、空気清浄機10は、図13の(a)に示すように、センサ部14による検知結果から、「ずっと汚れている」、「ずっと暗い」、「多く使ってもらってる」等の感情を示す情報を得て、図13の(b)に示すように、嬉・怒・哀・普通の何れかの感情を持たせて発話する。例えば、空気清浄機10は、「ずっと汚れている」という情報が得られた場合、怒の感情を持たせて発話し、「ずっと暗い」という情報が得られた場合、哀の感情を持たせて発話し、「多く使ってもらってる」という情報が得られた場合、嬉の感情を持たせて発話する。
 例えば、感情判定部11cは、操作パネル16の操作回数(「嬉」度)が予め設定された期間内に、予め設定された回数(閾値)を超えれば、「多く使ってもらってる」と判定する。つまり、感情判定部11cによって「嬉」度が閾値を超えていると判定されれば、すなわち、「嬉」の感情有りと判定されれば、発話制御部11bは、「嬉」の感情を持たせて発話させる。
 また、感情判定部11cが、照度センサ14cによって検出された検出値(「哀」度)が予め設定された値以下の期間が所定の期間(閾値)を超えていれば、「ずっと暗い」と判定する。つまり、感情判定部11cによって「哀」度が閾値を超えていると判定されれば、すなわち、「哀」の感情有りと判定されれば、発話制御部11bは、「哀」の感情を持たせて発話させる。
 さらに、感情判定部11cが、埃センサ14a,臭気センサ14bの検出結果を統合した空気の汚れ度(「怒」度)が予め設定さ値以上の期間が所定の期間(閾値)を超えていれば、「ずっと汚れている」と判定する。つまり、感情判定部11cによって「怒」度が閾値を超えていると判定されれば、すなわち、「怒」の感情有りと判定されれば、発話制御部11bは、「怒」の感情を持たて発話させる。
 以上の構成により、発話する際に、空気の汚れ状態によって感情を変えることができる。例えば、空気がずっと汚れ状態が続いていたら疲労で「怒」、空気をきれいに出来たら「嬉」という感情を持たせて発話する。
 また、発話する際に、空気の気温、湿度状態によって感情を変えることができる。例えば、温度センサ14d、湿度センサ14eによる検出結果から、ずっと不快状態が続いていたら不快で「怒」、逆は「嬉」の感情を持たせて発話する。
 さらに、発話する際に、部屋の明/暗状態によって感情を変えることができる。例えば、照度センサ14cによる検出結果から、ずっと暗いと「哀」という感情を持たせて発話する。
 また、発話する際に、自機の使用状態によって感情を変えることができる。例えば人感センサ14fの検出結果、操作パネル16のスイッチ類の操作回数等によって人の往来が多い、スイッチが多く押されている場合「嬉」、逆は「哀」の感情を持たせて発話する。
 また、感情を決定する尺度を変更してもよい。この場合、感情判定部11cにおいて感情の有無を判定するための閾値を変更することで実現する。これにより、判定される感情を異ならせることができるため、人間のように空気清浄機10の性格が変ったかのように見せかけることができる。
 発話内容に感情を持たせて発話させる場合、予め3種類の感情(嬉・怒・哀)を持たせた音声を発話内容毎に発話内容テーブル12aに登録する。そして、感情判定部11cによって判定された感情を持たせた発話内容を発話内容テーブル12aから抽出することで実現する。つまり、発話内容テーブル12aに発話内容毎に3種類の感情を用意しておき、必要に応じて感情判定部11cが各感情を持たせた発話内容を抽出することで実現する。
 なお、上記の方法以外に、発話内容の音声の周波数の波長を変更して、発話内容に感情を持たせて発話させるようにしてもよい。
 (発話処理の詳細)
 本実施形態における発話処理の詳細について、図14に示すフローチャートを参照しながら以下に説明する。なお、発話内容を格納した発話内容テーブル12aは、前記実施形態1と同じ図6~図11に示すものと同じである。
 まず、発話内容抽出部11aは、図14に示すように、発話トリガありか否かを判定する(ステップS21)。ここでは、発話内容抽出部11aは、前記実施形態1の図4に示した発話トリガの何れかが始動されているか否かを判定する。
 そして、発話内容抽出部11aは、ステップS21において、発話トリガありと判定(Yes)すれば、発話内容の抽出を行なう(ステップS22)。ここでの処理は、前記実施形態1の図5に示すステップS12と同じ処理である。このため、ステップS22の詳細な説明は省略する。
 続いて、感情判定部11cは、ステップS22にて抽出した発話内容に対して、「嬉」度が閾値を超えているか否かを判定する(ステップS23)。ここで、「嬉」度が閾値を超えていれば、「嬉」の感情ありと判定し、発話制御部11bは、「嬉」状態で発話させる(ステップS24)。具体的には、ステップS22において抽出された発話内容に「嬉」の感情を持たせて発話させる。
 一方、ステップS23において、「嬉」度が閾値を超えていなければ、「嬉」の感情無しと判定し、ステップS25に移行し、他の「感情」度が閾値を超えているか否かを判定する。ここで、他の「感情」とは、上述した嬉・怒・哀の感情の「嬉」を除いた何れかの感情とする。
 ステップS25において、他の「感情」度が閾値を超えていれば、他の「感情」有りと判定され、他の「感情」の状態で発話させる(ステップS26)。具体的には、ステップS22において抽出された発話内容に、ステップS25において判定した怒・哀の何れかの感情と同じ感情を持たせて発話させる。
 一方、ステップS25において、他の「感情」度が閾値を超えていなければ、何れの感情も無しと判定され、「普通」の状態で発話させる(ステップS27)。具体的には、ステップS22において抽出された発話内容に、嬉・怒・哀の何れの感情を持たせないで発話させる。
 なお、上記の発話処理では、はじめに、「嬉」の度合いを判定し、その後で、他の感情の度合いを判定するものとなっている。しかしながら、これに限定されるものではなく、怒・哀の感情の度合いの何れかを最初に判定してよいし、嬉・怒・哀の感情の度合いを並行して判定してもよい。
 また、感情の判定を数値化したデータで判定しているが、これに限定されるものではなく、他の感情の判定方法を用いてもよい。
 (効果)
 上記構成の空気清浄機10によれば、機器状態に対応付けられた発話内容に、感情を持たせて発話させることで、ユーザに対して機器状態をより把握させ易くすることが可能となる。例えば、上述のように、フィルタが目詰まりしていて、フィルタがずっと汚れた状態であれば、「フィルタがずっと汚れた状態である」という発話内容を「怒」の感情を持たせて発話させることで、ユーザにフィルタの交換が必要であることを感じさせることができる。
 通常、発話内容に感情を持たせる場合には、例えば特開2003-233388号公報に記載されているように、各種パラメータを用いた演算を行なうことで実現している。これに対して、本実施形態では、発話内容を、予め感情を持たせた音声で登録しておき、登録した音声を必要に応じて使用するだけなので、複雑な演算を行なう必要がない。
 なお、本実施形態では、感情の有無を判定する閾値を一つとして、説明しているが、これに限定されるものではなく、閾値を2つ以上用いて、感情を段階的に表現するようにしてもよい。例えば、「嬉」度を判定する閾値を2つとした場合、一つ目の閾値を超え、二つ目の閾値を超えないときには、「嬉」の感情を控えめにし、二つ目の閾値を超えたときには、「嬉」の感情を大げさにする。このように、感情の判定に複数の閾値を用いて感情を段階的に表現することにより、ユーザに対して機器状態が現在どのような状態なのかを感覚的に把握させることが可能となる。
 また、ステップS22において抽出される発話内容が複数である場合には、さらに、発話する順番を特定する必要がある。本実施形態では、前記実施形態1と同様に、発話内容を含む発話カテゴリに付与された優先度の高いものから順番に発話を行なう。つまり、特定した順番に、感情を持たせた音声で発話する。
 下記の実施形態3では、感情がプラスされることで、優先度が変更される例について説明する。
 〔実施形態3〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 本実施形態では、前記実施形態1,2と基本的に同じ構成の空気清浄機10を用いる。異なるのは、発話順が特定された発話内容に、感情を加えて、優先順位を変更することである。この場合、優先度に、感情に応じた数値を加える。感情に応じた数値が高くなれば、ユーザに報知する緊急性が高くなる。従って、判定した感情が、「ずっと汚れている」という場合、ユーザに報知する緊急性が高いため、感情に応じた数値が高く、「多く使ってもらってる」という場合、ユーザに報知する緊急性が低いため、感情に応じた数値も低くなる。
 発話内容抽出部11aによって、例えば3つの発話内容A,B、Cが抽出され、それぞれのカテゴリの優先度が2,3,1である場合、感情を考慮しなければ、優先度に従って、発話内容B,A,Cの順に発話することになる。しかしながら、発話内容A,B,Cにおける感情の有無を判定し、有りと判定した感情に対応付けられた数値を各発話内容の優先度に加えれば、上記の発話順が変更になる場合がある。この場合、感情の有無によって優先度の値が変化するが、感情が有りの場合であっても、感情の種類によっても優先度の値が変化する。
 このように、発話内容の発話順が既に決まっていても、各発話内容に持たせる感情の有無、感情の種類によって、各発話内容の優先度が変化するため、よりユーザに報知すべき発話内容、すなわち、緊急性の高い発話内容を優先して発話するようにできる。
 〔変形例〕
 上記の実施形態1~3では、図6~図11に示す発話内容テーブル12aを空気清浄機10内の記憶部12に格納した例について説明した。しかしながら、図15に示すように、クラウドサーバ20から広域通信ネットワーク60、中継局40、および通信部15を介して、発話内容テーブル12aに格納された発話内容を取得するようにしてもよい。
 (空調支援システムの概要)
 図15は、空調支援システム1の概要を示す図である。図15に示すように、空調支援システム1では、ユーザ宅50に設置された空気清浄機10と、クラウドサーバ20と、携帯端末30とが、広域通信ネットワーク60(通信ネットワーク)を介して接続されている。空調支援システム1は、ユーザ宅50の室内の空気の状態を調える空気調和を支援するものである。なお、図1では、空気清浄機10、クラウドサーバ20、携帯端末30、およびユーザ宅50を1つずつ例示しているが、これらの数や種類に限定されるものではない。
 空気清浄機10は、ユーザ宅50の室内の空気を清浄にするものである。本実施形態では、空気清浄機10は、広域通信ネットワーク60に接続してクラウドサーバ20と通信するための無線通信機能を有する、いわゆるネットワーク家電である。無線通信機能は、空気清浄機10本体に内蔵されていてもよいし、空気清浄機10本体に外付けされる通信アダプタ(図示せず)に備えられていてもよい。なお、本実施形態では、空気清浄機10は、加湿機能を有しているが、有していなくてもよい。また、本実施形態では、空気清浄機10は、図15に示すようにユーザ宅50に設置されるが、設置場所は限定されず、オフィスや公共の場に設置されても構わない。
 クラウドサーバ20にて、携帯端末30と空気清浄機10とを対応づけて登録されている。携帯端末30は、クラウドサーバ20にて自身と対応づけて登録された空気清浄機10を、クラウドサーバ20を介して遠隔操作可能に構成されている。携帯端末30は、クラウドサーバ20にて自身と対応づけて登録された空気清浄機10に関する各種情報をクラウドサーバ20から受信する。携帯端末30は、例として、スマートフォン、タブレット端末などを挙げることができる。1台の携帯端末30から複数の空気清浄機10を遠隔操作することが可能である。また、複数の携帯端末30から、1つの空気清浄機10を遠隔操作することもできる。
 また、クラウドサーバ20は、前記実施形態1~3において説明した発話内容テーブル12aが登録されている。
 ユーザ宅50には、狭域通信ネットワークである無線LAN(Wireless Local Area Network)が整備されている。無線LANの中継局40は、インターネットを含む広域通信ネットワーク60と接続されている。中継局40は、例えば、WiFi(登録商標)ルータ、WiFi(登録商標)アクセスポイントなどの通信機器である。本実施形態では、広域通信ネットワーク60としてインターネットを含む構成を例示しているが、電話回線網、移動体通信網、CATV(CAble TeleVision)通信網、衛星通信網などを利用することもできる。
 クラウドサーバ20と空気清浄機10とは、広域通信ネットワーク60および無線LANの中継局40を介して通信可能となっている。また、クラウドサーバ20と携帯端末30とは、広域通信ネットワーク60を介して通信可能となっている。携帯端末30と広域通信ネットワーク60におけるインターネットとの間は、3G(3rd Generation)、LTE(Long Term Evolution)や、宅内或いは公衆のWiFi(登録商標)アクセスポイントなどを利用して接続される。なお、空気清浄機10と携帯端末30とは、何れも無線通信機器であり、広域通信ネットワーク60を介することなく、中継局40を介して相互に通信することもできる。なお、クラウドサーバ20および携帯端末30は、公知のものを利用できるので、その詳細な説明を省略する。
 このように、クラウドサーバ20に、発話内容テーブル12aを格納しておくことで、空気清浄機10に発話内容テーブル12aを格納する必要がなくなる。
 〔ソフトウェアによる実現例〕
 空気清浄機10の制御ブロック(特に制御部11)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、空気清浄機10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る空気清浄機は、自機の状態を示す機器状態に対応付けられた発話内容を発話する発話機能を有する空気清浄機10であって、上記機器状態を検出する機器状態検出部(センサ部14)と、上記機器状態が複数種類のカテゴリに分類され、各カテゴリに含まれる上記発話内容から、上記機器状態検出部(センサ部14)によって検出された機器状態に対応付けられた発話内容を抽出する発話内容抽出部11aと、上記発話内容抽出部11aによって抽出された発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させる発話制御部11bと、を備えている。
 上記の構成によれば、機器状態検出部によって検出された機器状態に対応付けられた発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させることで、優先度の高い発話内容を発話してユーザに知らせることができる。
 これにより、発話された内容がユーザに通知すべき優先度の高い内容の発話を確実に行なうことができるので、ユーザは、空気清浄機が発話する発話内容を聞くだけで、空気清浄機が現在どのような状態であるのかを確実に把握することができる。
 本発明の態様2に係る空気清浄機は、上記態様1において、上記発話制御部11bは、上記発話内容抽出部11aによって抽出された発話内容が同一カテゴリに複数存在する場合、発話内容に予め付与された優先度の最も高い発話内容のみを発話対象としてもよい。
 上記構成によれば、発話内容抽出部によって抽出された発話内容が同一カテゴリに複数存在する場合、発話内容に予め付与された優先度の最も高い発話内容のみを発話対象とすることで、ユーザは同一カテゴリであっても優先度の高い発話内容のみを聞くことができる。
 これにより、ユーザは、空気清浄機が発話する発話内容を聞くだけで、空気清浄機が現在どのような状態であるのかをより確実に把握することができる。
 本発明の態様3に係る空気清浄機は、上記態様1または2において、上記機器状態検出部(センサ部14)は、上記空気清浄機10に搭載された各種センサ(埃センサ14a、臭気センサ14b、照度センサ14c、温度センサ14d、湿度センサ14e、人感センサ14f等)の検出信号を機器状態として検出してもよい。
 本発明の態様4に係る空気清浄機は、上記態様1または2において、上記機器状態検出部(センサ部14)は、上記空気清浄機10の運転状態を示す信号(運転モード、操作パネル16からの信号等)を機器状態として検出してもよい。
 本発明の態様5に係る空気清浄機は、上記態様1~3の何れか1態様において、上記機器状態検出部(センサ部14)によって検出される機器状態に応じた自機の感情を判定する感情判定部11cをさらに備え、上記発話制御部11bは、上記発話内容抽出部11aにて抽出された発話内容を、上記感情判定部11cによって有りと判定された感情を持たせて発話させてもよい。
 上記構成によれば、機器状態に対応付けられた発話内容に、感情を持たせて発話させることで、ユーザに対して機器状態をより把握させ易くすることが可能となる。例えば、空気清浄機近傍の空気がずっと汚れている場合、「ずっと汚れた状態である」という発話内容を「怒」の感情を持たせて発話させることで、空気清浄機に負荷が係っていることをユーザに実感させることができる。
 本発明の態様6に係る空気清浄機は、上記態様5において、上記機器状態は、上記空気清浄機10に搭載された各種センサ(埃センサ14a、臭気センサ14b、照度センサ14c、温度センサ14d、湿度センサ14e、人感センサ14f等)の検出信号によって数値化されてもよい。
 本発明の態様7に係る空気清浄機は、上記態様5において、上記機器状態は、上記空気清浄機の運転状態を示す信号(操作パネル16からの信号等)によって数値化されてもよい。
 本発明の各態様に係る空気清浄機の発話機能は、コンピュータによって実現してもよく、この場合には、コンピュータを上記空気清浄機の発話機能が備える各部(ソフトウェア要素)として動作させることにより上記空気清浄機の発話機能をコンピュータにて実現させる空気清浄機の発話制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 また、本発明の「空気清浄機」は、広義の意味を持ち、空気清浄機能を有するエアコン等の空気調和機も含む。
 さらに、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 空調支援システム
10 空気清浄機
11 制御部
11a 発話内容抽出部
11b 発話制御部
11c 感情判定部
12 記憶部
12a 発話内容テーブル
13 駆動部
14 センサ部(機器状態検出部)
14a 埃センサ
14b 臭気センサ
14c 照度センサ
14d 温度センサ
14e 湿度センサ
14f 人感センサ
15 通信部
16 操作パネル
17 音声出力部
20 クラウドサーバ
30 携帯端末
40 中継局
50 ユーザ宅
60 広域通信ネットワーク

Claims (7)

  1.  自機の状態を示す機器状態に対応付けられた発話内容を発話する発話機能を有する空気清浄機であって、
     上記機器状態を検出する機器状態検出部と、
     上記機器状態が複数種類のカテゴリに分類され、各カテゴリに含まれる上記発話内容から、上記機器状態検出部によって検出された機器状態に対応付けられた発話内容を抽出する発話内容抽出部と、
     上記発話内容抽出部によって抽出された発話内容を、当該発話内容を含むカテゴリに付与された優先度の高い順に発話させる発話制御部と、
    を備えていることを特徴とする空気清浄機。
  2.  上記発話制御部は、
     上記発話内容抽出部によって抽出された発話内容が同一カテゴリに複数存在する場合、発話内容に予め付与された優先度の最も高い発話内容のみを発話対象とすることを特徴とする請求項1に記載の空気清浄機。
  3.  上記機器状態検出部は、
     上記空気清浄機に搭載された各種センサの検出信号を機器状態として検出することを特徴とする請求項1または2に記載の空気清浄機。
  4.  上記機器状態検出部は、
     上記空気清浄機の運転状態を示す信号を機器状態として検出することを特徴とする請求項1または2に記載の空気清浄機。
  5.  上記機器状態検出部によって検出される機器状態に応じた自機の感情を判定する感情判定部をさらに備え、
     上記発話制御部は、
     上記発話内容抽出部にて抽出された発話内容を、上記感情判定部によって判定された感情を持たせて発話させることを特徴とする請求項1~4の何れか1項に記載の空気清浄機。
  6.  上記機器状態は、上記空気清浄機に搭載された各種センサの検出信号によって数値化されることを特徴とする請求項5に記載の空気清浄機。
  7.  上記機器状態は、上記空気清浄機の運転状態を示す信号によって数値化されることを特徴とする請求項5に記載の空気清浄機。
PCT/JP2018/000291 2017-09-20 2018-01-10 空気清浄機 WO2019058572A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880061277.1A CN111108329B (zh) 2017-09-20 2018-01-10 空气净化机
US16/640,528 US11189285B2 (en) 2017-09-20 2018-01-10 Air purifier
JP2019542966A JP6921969B2 (ja) 2017-09-20 2018-01-10 空気清浄機

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-180591 2017-09-20
JP2017180591 2017-09-20

Publications (1)

Publication Number Publication Date
WO2019058572A1 true WO2019058572A1 (ja) 2019-03-28

Family

ID=65810661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000291 WO2019058572A1 (ja) 2017-09-20 2018-01-10 空気清浄機

Country Status (4)

Country Link
US (1) US11189285B2 (ja)
JP (1) JP6921969B2 (ja)
CN (1) CN111108329B (ja)
WO (1) WO2019058572A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058572A1 (ja) * 2017-09-20 2019-03-28 シャープ株式会社 空気清浄機
US11821645B2 (en) 2018-10-24 2023-11-21 Lennox Industries Inc. Wireless remote indoor sensor for home automation
US11526674B2 (en) * 2019-03-01 2022-12-13 Rakuten Group, Inc. Sentence extraction system, sentence extraction method, and information storage medium
US11393462B1 (en) * 2020-05-13 2022-07-19 Amazon Technologies, Inc. System to characterize vocal presentation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066453A1 (en) * 2010-11-16 2012-05-24 Koninklijke Philips Electronics N.V. Control of air treatment device with filter
JP2013029302A (ja) * 2011-06-20 2013-02-07 Mitsubishi Electric Corp 空気調和機および空気調和機のサポートシステム
JP2014240733A (ja) * 2013-06-12 2014-12-25 パナソニックIpマネジメント株式会社 環境判断システム、環境判断プログラム、及び、機器選択装置
JP2015135200A (ja) * 2014-01-16 2015-07-27 シャープ株式会社 空気調和機
JP2017083165A (ja) * 2017-01-10 2017-05-18 シャープ株式会社 空気清浄機
JP2017150692A (ja) * 2016-02-22 2017-08-31 シャープ株式会社 電気機器、および電気機器の制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG141462A1 (en) * 2004-09-28 2008-04-28 Daikin Ind Ltd Environmental control apparatus, environmental control system, environmental control method, and environmental control program
JP3852463B2 (ja) * 2004-09-28 2006-11-29 ダイキン工業株式会社 環境ナビゲーション装置及び環境ナビゲーションプログラム
US8907803B2 (en) * 2012-01-09 2014-12-09 Intwine Energy Networked air quality monitoring
EP3754588B1 (en) * 2014-02-28 2023-08-16 Delos Living LLC Systems, methods, and articles for enhancing wellness associated with habitable environments
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
DE102015111034B4 (de) * 2015-07-08 2019-07-25 Vorwerk & Co. Interholding Gmbh Luftreinigungssystem zum Reinigen von Raumluft und Verfahren zum Betreiben eines Luftreinigungssystems
US20170135407A1 (en) * 2015-11-17 2017-05-18 Lunatech, Llc Voice responsive electronic vapor system
JP6282681B2 (ja) * 2016-02-26 2018-02-21 シャープ株式会社 制御装置、および制御装置の制御方法
KR20180084392A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN110476021B (zh) * 2017-04-10 2022-02-11 夏普株式会社 空气清净机
JP7019674B2 (ja) * 2017-04-11 2022-02-15 シャープ株式会社 空気調和機およびその制御方法、並びに制御プログラム
KR102309031B1 (ko) * 2017-04-27 2021-10-06 삼성전자 주식회사 지능형 에이전트 관리 방법 및 장치
KR102371752B1 (ko) * 2017-08-31 2022-03-07 삼성전자주식회사 가전 기기 및 그의 제어방법
KR102338376B1 (ko) * 2017-09-13 2021-12-13 삼성전자주식회사 디바이스 그룹을 지정하기 위한 전자 장치 및 이의 제어 방법
WO2019058572A1 (ja) * 2017-09-20 2019-03-28 シャープ株式会社 空気清浄機

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066453A1 (en) * 2010-11-16 2012-05-24 Koninklijke Philips Electronics N.V. Control of air treatment device with filter
JP2013029302A (ja) * 2011-06-20 2013-02-07 Mitsubishi Electric Corp 空気調和機および空気調和機のサポートシステム
JP2014240733A (ja) * 2013-06-12 2014-12-25 パナソニックIpマネジメント株式会社 環境判断システム、環境判断プログラム、及び、機器選択装置
JP2015135200A (ja) * 2014-01-16 2015-07-27 シャープ株式会社 空気調和機
JP2017150692A (ja) * 2016-02-22 2017-08-31 シャープ株式会社 電気機器、および電気機器の制御方法
JP2017083165A (ja) * 2017-01-10 2017-05-18 シャープ株式会社 空気清浄機

Also Published As

Publication number Publication date
US20200357396A1 (en) 2020-11-12
CN111108329B (zh) 2021-10-12
JPWO2019058572A1 (ja) 2020-09-03
US11189285B2 (en) 2021-11-30
CN111108329A (zh) 2020-05-05
JP6921969B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
JP6921969B2 (ja) 空気清浄機
CN109282444B (zh) 空气调节器及其控制方法、装置和计算机可读存储介质
CN105135631A (zh) 一种空调语音播报装置、空调及语音播报方法
CN111853947B (zh) 空调装置及其控制方法
CN109240111A (zh) 智能家居控制方法、装置、系统及智能网关
CN110506185B (zh) 空气调和机及其控制方法、及控制程序
US20150287414A1 (en) Method for controlling device and device control system
WO2015024438A1 (zh) 空调的语音控制系统以及空调系统的控制方法
RU2015124595A (ru) Способ и устройство для выдачи подсказок по очистке воздуха, пользовательское оборудование и система
US20200126549A1 (en) Device control system
CN109584874A (zh) 电器设备控制方法、装置、电器设备及存储介质
CN112489413B (zh) 遥控器的控制方法及系统、存储介质、电子设备
JP6461713B2 (ja) 機器連動システムおよび機器
JP2018136062A (ja) 空気清浄機および空気清浄機の制御方法
KR102157239B1 (ko) 인공지능에 기반하여 일정에 대응하는 추천 정보를 제공하는 공기청정기 및 방법
CN205066045U (zh) 一种空调语音播报装置、空调
CN110958348B (zh) 语音处理方法、装置、用户设备及智能音箱
JP7364923B2 (ja) 空気調和システム、サーバ、空気調和システムの制御方法、プログラム及び記録媒体
US11852366B2 (en) System and method to control an air conditioning system using a voice command
CN210624837U (zh) 一种语音控制新风机
WO2020059879A1 (ja) 発話装置、サーバ、制御システム、制御方法、およびプログラム
JP2022175203A (ja) 電気機器及び発話システム
JP2021050844A (ja) 睡眠管理システム
CN113167496B (zh) 空气调节系统
KR102617738B1 (ko) 디스플레이부를 구비한 공기청정기를 이용한 멀티미디어 콘텐츠 제공방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18859014

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019542966

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18859014

Country of ref document: EP

Kind code of ref document: A1