WO2021038613A1 - 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム - Google Patents

電気機器システム、音出力装置、電気機器、音出力方法およびプログラム Download PDF

Info

Publication number
WO2021038613A1
WO2021038613A1 PCT/JP2019/032935 JP2019032935W WO2021038613A1 WO 2021038613 A1 WO2021038613 A1 WO 2021038613A1 JP 2019032935 W JP2019032935 W JP 2019032935W WO 2021038613 A1 WO2021038613 A1 WO 2021038613A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
person
sound output
information
electric device
Prior art date
Application number
PCT/JP2019/032935
Other languages
English (en)
French (fr)
Inventor
洋介 久下
藤原 奨
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021541751A priority Critical patent/JP7278390B2/ja
Priority to PCT/JP2019/032935 priority patent/WO2021038613A1/ja
Publication of WO2021038613A1 publication Critical patent/WO2021038613A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/50Control or safety arrangements characterised by user interfaces or communication
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B30/00Energy efficient heating, ventilation or air conditioning [HVAC]
    • Y02B30/70Efficient control or regulation technologies, e.g. for control of refrigerant flow, motor or heating

Definitions

  • the present invention relates to an electric device system, a sound output device, an electric device, a sound output method, and a program.
  • a sound output device called a smart speaker is known.
  • a sound output control an in-vehicle sound reproduction device is known that collects ambient noise with a microphone, performs frequency analysis, and changes the frequency characteristics of an audio signal emitted from a speaker (see, for example, Patent Document 1). .. Further, there is known a voice output control device having a plurality of microphones installed apart from each other as a means for detecting the direction of a noise source and analyzing a voice signal detected by the plurality of microphones (for example, Patent Document 2). reference).
  • An acoustic device has been proposed that stores information on the frequency characteristics of the sound of a noise source used for correcting an audio signal output from a speaker and corrects the output sound (see, for example, Patent Document 3).
  • the present invention has been made to solve the above problems, and is an electric device system, a sound output device, an electric device, and a sound output method that make it easy for a person to hear the sound output from a speaker anywhere in the room. And provides a program.
  • the electric device system includes the electric device that transmits indoor state information including information on the presence or absence of a person in the room and the direction of the person based on the electric device, a plurality of microphones that collect ambient sounds, and a plurality of microphones.
  • a speaker that outputs sound
  • a receiving means that receives the indoor state information from the electric device
  • a controller that determines the direction of the sound source with respect to the reference position by using the sound information collected by the plurality of microphones.
  • the controller has the sound output device having the above, and the controller combines the information on the direction of the source based on the sound information collected by the plurality of microphones with the indoor state information acquired from the electric device. It has a determination means for determining the direction of a person with respect to a reference position, and a sound output control means for controlling the sound output of the speaker by using the information on the direction of the person determined by the determination means.
  • the sound output device uses a plurality of microphones that collect ambient sound, a speaker that outputs sound, and sound information collected by the plurality of microphones, and directs the sound source from a reference position.
  • the controller has a controller for determining the presence or absence of a person in the room and a receiving means for receiving indoor state information including information on the direction of a person based on the electric device from the electric device.
  • the determination means for determining the direction of a person with respect to the reference position by combining the information on the direction of the source based on the sound information collected by the microphone with the indoor state information acquired from the electrical device, and the determination means. It has a sound output control means for controlling the sound output of the speaker by using the information of the direction of the person.
  • the electric device is an electric device that communicates with a sound output device that outputs sound, and is based on an infrared sensor that detects the presence or absence of a person and the direction of a person in a room and the detection result of the infrared sensor.
  • the sound output device obtains indoor state information including information on the presence / absence of a person in the room and the direction of the person based on the electrical device, and information on the presence / absence of the person and the direction of the person obtained by the analysis means. It has a transmission means for transmitting to.
  • the sound output method is a sound output method using a sound output device having a plurality of microphones for collecting ambient sounds, a speaker for outputting sound, and a receiving means for receiving information from an electric device.
  • the direction of the sound source is determined from the reference position, and the indoor state information including the presence / absence of a person in the room and the direction of the person based on the electric device.
  • the information on the direction of the source based on the sound information collected by the plurality of microphones is combined with the indoor state information acquired from the electric device to determine the direction of the person with respect to the reference position. It is determined, and the sound output of the speaker is controlled by using the information of the determined direction of the person.
  • the program according to the present invention is a sound collected by the plurality of microphones in an information processing device having a plurality of microphones for collecting ambient sounds, a speaker for outputting the sound, and a receiving means for receiving information from an electric device.
  • a means for determining the direction of the sound source from the reference position, and indoor state information including information on the presence or absence of a person in the room and the direction of the person based on the electric device is received from the electric device.
  • As a means for determining the direction of a person with respect to the reference position by combining the information on the direction of the source based on the sound information collected by the plurality of microphones with the indoor state information acquired from the electric device.
  • the means for controlling the sound output of the speaker is executed by using the determined information on the direction of the person.
  • the sound output device can more accurately determine the direction of a person in the room by using the information detected by the air conditioner, so that the sound output control and the correction of the output characteristics optimal for the position of the person can be performed. Control can be performed. As a result, it becomes easier for a person to hear the sound of the speaker regardless of the position in the room.
  • FIG. It is a figure which shows one configuration example of the electric equipment system which concerns on Embodiment 1.
  • FIG. It is a refrigerant circuit diagram which shows one configuration example of the air conditioner shown in FIG. It is an external perspective view which shows one installation example of the indoor unit shown in FIG.
  • FIG. It is a figure which shows an example of the range in the vertical direction of the temperature distribution detected by the infrared sensor shown in FIG.
  • FIG. 5 is a plan view showing an example of the sound output device shown in FIG. 9 when viewed from above.
  • FIG. 9 a functional block diagram which shows one configuration example of the controller shown in FIG.
  • FIG. 11 is a schematic diagram explaining the method of determining the direction of a person using the sound information collected by the microphone shown in FIG. 11.
  • FIG. 11 is a flowchart which shows the operation procedure of the sound output apparatus shown in FIG.
  • FIG. 5 is a schematic diagram for demonstrating an example of the method of determining the relative position of the sound output device shown in FIG.
  • FIG. 1 is a diagram showing a configuration example of an electric device system according to the first embodiment.
  • the electrical equipment system 1 includes an air conditioner 3 and a sound output device 2.
  • the air conditioner 3 has an indoor unit 4 installed in a room which is an air conditioning target space, and an outdoor unit 5 connected to the indoor unit 4 by a refrigerant pipe 6.
  • the electric device is the indoor unit 4 of the air conditioner 3
  • the electric device may be the air conditioner 3 including the indoor unit 4 and the outdoor unit 5.
  • the electrical equipment is not limited to the air conditioner 3.
  • FIG. 2 is a refrigerant circuit diagram showing a configuration example of the air conditioner shown in FIG.
  • the outdoor unit 5 includes a compressor 51 that compresses and discharges the refrigerant, a four-way valve 52 that switches the flow direction of the refrigerant, and a heat source side heat exchanger 53 that exchanges heat between the refrigerant and the outside air. And an expansion valve 54 that depressurizes and expands the refrigerant.
  • the outdoor unit 5 shown in FIG. 2 is provided with an outdoor fan 55 that supplies outside air to the heat source side heat exchanger 53 and an outside air temperature sensor 62 that detects the outside air temperature.
  • the indoor unit 4 includes a load side heat exchanger 41 that exchanges heat between the refrigerant and the indoor air, an indoor fan 42, a wind direction adjusting means 43, and a control device 10 that controls the operation of the air conditioner 3.
  • the indoor fan 42 sucks air from the room, supplies the sucked air to the load side heat exchanger 41, and sends out the air after heat exchange with the refrigerant by the load side heat exchanger 41 into the room.
  • the wind direction adjusting means 43 is provided at the air outlet of the indoor unit 4 and adjusts the wind direction of the air sent by the indoor fan 42 into the room.
  • the wind direction adjusting means 43 is, for example, a vertical flap and a horizontal flap.
  • the indoor unit 4 shown in FIG. 2 includes an infrared sensor 11 for detecting the temperature distribution in the room, a transmitting means 12 for transmitting information received from the control device 10 to the sound output device 2, and a room temperature sensor 61 for detecting the room temperature. And are provided.
  • the transmission means 12 is communicated and connected to the sound output device 2 by short-range wireless communication such as Bluetooth (registered trademark).
  • the infrared sensor 11 and the transmitting means 12 are connected to the control device 10 by a signal line.
  • the compressor 51, the heat source side heat exchanger 53, the expansion valve 54, and the load side heat exchanger 41 are connected by a refrigerant pipe 6, forming a refrigerant circuit 8 in which the refrigerant circulates.
  • the control device 10 communicates with the compressor 51, the four-way valve 52, the expansion valve 54, the outdoor fan 55, the outside air temperature sensor 62, the indoor fan 42, the wind direction adjusting means 43, and the room temperature sensor 61 via a signal line (not shown). Be connected.
  • FIG. 3 is an external perspective view showing an installation example of the indoor unit shown in FIG.
  • the indoor unit 4 is installed at the uppermost corner of one of the four walls in the room.
  • a case is shown in which a person M is present in the room and the sound output device 2 is placed on the floor.
  • a base station 7 for communicating with the network in which the sound output device 2 is not shown in the figure is installed in the room.
  • the communication connection between the base station 7 and the sound output device 2 may be wired or wireless.
  • FIG. 4 is a functional block diagram showing a configuration example of the control device shown in FIG.
  • the control device 10 is, for example, a microcomputer. As shown in FIG. 2, the control device 10 has a memory 13 for storing a program and a CPU (Central Processing Unit) 14 for executing processing according to the program. As shown in FIG. 4, the control device 10 includes a refrigeration cycle control means 31 that controls the refrigeration cycle of the refrigerant circuit 8, and an analysis means 32 that analyzes the temperature distribution information detected by the infrared sensor 11. The refrigeration cycle control means 31 and the analysis means 32 are configured by the CPU 14 executing the program.
  • the refrigeration cycle control means 31 and the analysis means 32 are configured by the CPU 14 executing the program.
  • the refrigeration cycle control means 31 controls the distribution direction of the four-way valve 52 in response to operation modes such as heating operation and cooling operation.
  • the refrigeration cycle control means 31 determines the operating frequency of the compressor 51, the opening degree of the expansion valve 54, and the outdoor fan 55 and the indoor fan 42 based on the room temperature, the outside air temperature, and the set temperature so that the room temperature becomes the set temperature. Controls the number of rotations of.
  • the refrigeration cycle control means 31 when the refrigeration cycle control means 31 receives the indoor state information including the information on the presence or absence of a person and the direction of the person based on the indoor unit 4 from the analysis means 32, the refrigeration cycle control means 31 reflects the indoor state information in the control of air conditioning. May be good.
  • the refrigeration cycle control means 31 controls the wind direction adjusting means 43 so that the wind direction of the air sent into the room by the indoor fan 42 is in the direction of a person.
  • the refrigeration cycle control means 31 may pass the operation state information indicating the operation state including the information of the air volume and the wind direction to the transmission means 12.
  • the air volume is, for example, the rotation speed of the indoor fan 42.
  • the wind direction is, for example, an angle indicating the direction of each of the vertical flap and the horizontal flap of the wind direction adjusting means 43.
  • the refrigeration cycle control means 31 may control the wind direction adjusting means 43 so as to blow air from the indoor fan 42 in a direction in which no one is present. For example, in the case of cooling operation, the sensible temperature of a person in the room is low. That is, the refrigeration cycle control means 31 controls the wind direction so that the detected air in the direction of the person has an optimum temperature.
  • FIG. 5 is a diagram showing an example of the horizontal range of the temperature distribution detected by the infrared sensor shown in FIG.
  • FIG. 6 is a diagram showing an example of the vertical range of the temperature distribution detected by the infrared sensor shown in FIG.
  • the angle of rotation from the horizontal reference Hax in the front direction (opposite direction of the Y-axis arrow) of the indoor unit 4 is defined as the horizontal angle ⁇ h.
  • the infrared sensor 11 is the center of the rotation axis
  • the angle ⁇ h in the clockwise direction from the horizontal reference Hax is a negative angle
  • the angle ⁇ h in the counterclockwise direction is a positive angle.
  • the reference numeral is not limited to the case shown in FIG.
  • the downward direction (opposite direction of the Z-axis arrow) of the indoor unit 4 is defined as the vertical reference Vax
  • the rotation angle in the clockwise direction from the vertical reference Vax is defined as the vertical angle ⁇ v.
  • the infrared sensor 11 has a constant range of an angle ⁇ v in the vertical direction and a horizontal direction with respect to the direction of the wall on which the indoor unit 4 faces (the direction opposite to the Y-axis arrow).
  • the temperature distribution in the room is measured within a certain range of the angle ⁇ h.
  • the infrared sensor 11 has a configuration in which a plurality of sensor elements are linearly arranged.
  • the temperature distribution may be detected by rotating to the minus side and the plus side of the angle ⁇ h shown in 5.
  • the infrared sensor 11 sends the detected value to the analysis means 32.
  • the analysis means 32 receives the detected value from the infrared sensor 11 and analyzes the received detected value.
  • FIG. 7 is an image diagram showing an example of a case where the analysis means shown in FIG. 4 displays the temperature distribution detected by the infrared sensor on a two-dimensional image. For illustration purposes, the boundaries between each of the walls, floors and ceilings and the other parts are shown by broken lines in FIG. In reality, since the thermal conductivity of each material of the wall, floor, and ceiling is different, the analysis means 32 detects each boundary by performing an image analysis of the detected value of the infrared sensor 11.
  • the image Img shown in FIG. 7 shows the case of heating operation, and the higher the density of the dot pattern, the higher the temperature. This is because warm air tends to stay closer to the ceiling than the floor FL. Since the temperature of the floor FL is low, the dot pattern is not displayed.
  • the analysis means 32 performs image analysis processing on the image Img shown in FIG. 7 and extracts the position of the person M from the difference between the surface temperature of the person M and the temperature of the floor surface FL. Further, the analysis means 32 performs an image analysis process on the image Img and extracts the position of the sound output device 2 from the difference between the surface temperature of the sound output device 2 and the temperature of the floor surface FL. Then, the analysis means 32 uses the position of the person M detected by the infrared sensor 11 and the angle ⁇ v indicating the direction of the person M with respect to the position of the room unit 4, and the distance from the room unit 4 to the person M. Ask for.
  • FIG. 8 is a plan view showing an example of a map in which the detection range of the infrared sensor shown in FIG. 5 is divided into a plurality of areas.
  • Analytical means 32 generates a temperature distribution in the room at angles ⁇ h and angles ⁇ v.
  • the case where the room is divided into 15 areas of areas AR1 to AR15 is shown.
  • FIG. 8 shows the case where the number of divisions of the floor in the room is 15, but the number of divisions is not limited to 15.
  • the analysis means 32 determines that the person M is present in the areas AR1 to AR15 because the temperature of the person M in the area AR8 is higher than that around the person M. For example, a threshold value Tth regarding the temperature difference is set as a criterion for determining whether or not there is a person M.
  • the analysis means 32 determines that the person M is located in a portion higher than the surroundings by a threshold value Tth or more from the temperature distribution based on the detected value of the infrared sensor 11.
  • the threshold value Tth is stored in the memory 13.
  • the analysis means 32 specifies the direction of the person M with reference to the indoor unit 4 based on the temperature distribution detected by the infrared sensor 11.
  • the analysis means 32 passes the indoor state information including the presence / absence of a person and the direction of the person to the transmission means 12 and the refrigeration cycle control means 31.
  • the indoor state information is, for example, information on the map shown in FIG. 8, the position of the indoor unit 4 on the map, and the area AR8 in which the person M is detected.
  • the transmission means 12 transmits the information received from the control device 10 to the sound output device 2.
  • the transmission means 12 transmits the indoor state information received from the analysis means 32 to the sound output device 2.
  • the transmission means 12 may transmit the operation state information received from the refrigeration cycle control means 31 to the sound output device 2.
  • FIG. 9 is a block diagram showing a configuration example of the sound output device shown in FIG.
  • the sound output device 2 is, for example, a smart speaker.
  • the sound output device 2 is an example of an information processing device.
  • the sound output device 2 includes a controller 21, a receiving means 22, a network communication means 23, microphones 24a to 24d, and speakers 25 and 26.
  • Microphones 24a to 24d collect information on surrounding sounds. Sound information is, for example, sound frequency and sound pressure level.
  • the speaker 25 outputs sounds such as voice and music.
  • the receiving means 22 communicates with the transmitting means 12 by short-range wireless communication.
  • the network communication means 23 communicates with the server (not shown) via the base station 7 and the network (not shown). The network communication means 23 serves to relay the exchange of information transmitted and received between the controller 21 and the server (not shown).
  • the short-range wireless communication may be wireless communication using infrared signals.
  • a LAN Local Area Network
  • the base station 7 and the device placed in the room communicate with each other by wire or wirelessly, and the transmitting means 12 and the receiving means 22 communicate with each other via the LAN. May be good.
  • FIG. 10 is a plan view showing an example of the sound output device shown in FIG. 9 when viewed from above.
  • the sound output device 2 has a rectangular parallelepiped housing 2a.
  • microphones 24a to 24d are provided corresponding to each of the four side surfaces of the housing 2a.
  • the speakers 25 and 26 are provided on the upper surface of the housing 2a. Since the microphones 24a to 24d and the speakers 25 and 26 do not appear in the appearance of the housing 2a, these configurations are shown by broken lines in FIG.
  • FIG. 11 is a functional block diagram showing a configuration example of the controller shown in FIG.
  • the controller 21 is, for example, a microcomputer. As shown in FIG. 9, the controller 21 has a memory 65 for storing a program and a CPU 66 for executing processing according to the program. As shown in FIG. 11, the controller 21 controls the determination means 121 for determining the position of the person M in the room and the speakers 25 and 26 to output sound in the direction of the person M determined by the determination means 121. It has an output control means 122. When the CPU 66 executes the program, the determination means 121 and the sound output control means 122 are configured.
  • the determination means 121 determines the direction of the sound source based on the sound information collected by the microphones 24a to 24d. Further, the determination means 121 combines the sound determination information collected by the microphones 24a to 24d with the indoor state information acquired from the air conditioner 3, and the direction of the person M with respect to the reference position with the sound output device 2 as the reference position. To judge.
  • FIG. 12 is a schematic diagram illustrating a method of determining the direction of a person using the sound information collected by the microphone shown in FIG.
  • the X-axis and Y-axis are defined as shown in FIG. 12, with the center of the housing 2a as the origin coordinates. As shown in FIG. 12, it is assumed that the person M who is the source of the sound is in the first quadrant of the X-axis and the Y-axis defined with the center of the housing 2a as the origin.
  • the position coordinates where the person M is located are unknown, and the coordinates are expressed as (xm, ym). If the coordinates of the microphone 24a are ( ⁇ x, 0) and the coordinates of the microphone 24b are (0, ⁇ y), the coordinates of the microphone 24a are ( ⁇ x, 0) and the coordinates of the microphone 24d are (0, ⁇ y). Become.
  • the direction of the voice generated by the person M can be determined from the difference in the arrival time of the microphones 24a to 24d to each microphone.
  • An example of the direction determination technique is disclosed in Japanese Patent Application Laid-Open No. 2017-125893. In the first embodiment, the detailed description of the direction determination method will be omitted.
  • the determination means 121 When the determination means 121 receives instruction information such as music playback and a weather forecast request via the microphones 24a to 24d, the determination means 121 transmits the received instruction information to the server (not shown) via the network communication means 23. .. When the determination means 121 receives the response information for the instruction information from the server (not shown) via the network communication means 23, the determination means 121 passes the response information to the sound output control means 122.
  • the response information is music data when the instruction information is music reproduction, and is weather forecast information when the instruction information is a weather forecast request.
  • the sound output control means 122 When the sound output control means 122 receives the response information from the determination means 121, the sound output control means 122 causes the speakers 25 and 26 to output the response information with a sound that is easy for the person M in the direction determined by the determination means 121 to hear. For example, as shown in FIG. 12, when the person M is located at a position farther from the sound output device 2 in the X-axis arrow direction, the volume of the speaker 26 shown in FIG. 10 is increased and the volume of the speaker 25 is decreased. .. Further, the sound output control means 122 is not limited to the volume, and may correct the phase or the frequency. Further, the sound output control means 122 may shift the phase of the sound output to the speaker 26 from the phase of the sound output to the speaker 25.
  • Sounds that are easy for human M to hear are, for example, sounds that have high localization of the original sound, sound with high reproducibility of frequency characteristics, and reach the position of the person regardless of the relative position including the distance and angle between the speakers 25 and 26 and the person. It is a sound whose sound is hard to change.
  • the sound output control means 122 may control any one or more of the volume, the phase, and the frequency.
  • the sound output control means 122 may control to increase the volume as the distance between the own device and a person increases.
  • FIG. 13 is a flowchart showing an operation procedure of the sound output device shown in FIG. It is assumed that the electric device system 1 repeats the flow shown in FIG. 13 at a constant cycle T.
  • the period T is, for example, 5 minutes.
  • the microphones 24a to 24d collect the noise generated by the operation of the indoor unit 4.
  • the determination means 121 determines the direction of the indoor unit 4, which is the source of the sound, from the reference position with the own device as the reference position, using the sound information collected by the microphones 24a to 24d (step S101). Subsequently, the microphones 24a to 24d collect human voice. For example, it is conceivable that a person in the room gives an instruction such as music playback to the sound output device 2.
  • the determination means 121 determines the direction of the person who is the source of the sound from the reference position with the own device as the reference position by using the information of the voice of the person collected by the microphones 24a to 24d (step S102). Then, the determination means 121 acquires indoor state information including information on the direction of a person with respect to the indoor unit 4 from the air conditioner 3 (step S103).
  • the determination means 121 collates the direction of the indoor unit 4 determined by using the indoor unit 4 as a noise source with the information indicating the direction of a person with respect to the indoor unit 4, and determines the relative position between the own device and the indoor unit 4. Determine (step S104). For example, the determination means 121 collates the position of a person on the map included in the indoor state information with the direction of the person determined by the own device, whereby the mutual positional relationship between the own device, the indoor unit 4, and the person. Even if it is not clear up to, it is possible to determine the shape of a triangle having three vertices. That is, the determination means 121 can specify the directions of the indoor unit 4 and the person with reference to the own device.
  • the determination means 121 re-determines the determination by combining the indoor state information with the information on the direction of the person determined from the sound information collected by the microphones 24a to 24d and determining the direction of the person with respect to the reference position (step). S105).
  • the determination means 121 notifies the sound output control means 122 of the determination result in step S105.
  • the sound output control means 122 generates a sound output signal so that the sound output to the speakers 25 and 26 becomes the optimum sound in the determined direction (step S106).
  • the optimum sound in the determined direction is, for example, a sound from which a surround sound effect can be obtained.
  • the sound output control means 122 transmits the sound output signal generated in step S106 to the speakers 25 and 26, and outputs the sound based on the generated sound output signal (step S107). For example, the sound output control means 122 may make the sound pressure of the sound output to the speaker 25 different from the sound pressure of the sound output to the speaker 26.
  • the process of determining the direction of a person by the voice of a person collected by the microphones 24a to 24d is called the main determination process, and the indoor state information acquired from the indoor unit 4 is combined with the main determination process to redetermine the direction of the person.
  • the process of performing is referred to as a correction process for confirming the direction and fine-tuning the direction.
  • the sound output device 2 determines the direction of the person with the own device as the reference position through the procedure of performing the main determination process and then performing the correction process, and outputs the optimum sound in the determined direction. Generates a signal and outputs the sound from the generated sound output signal.
  • the sound output device 2 repeatedly performs the main determination process and the correction process for the direction of the person in the cycle T according to the procedure shown in FIG. 13, so that the person in the room can easily hear the sound. When playing music, people in the room can obtain high-quality sound.
  • FIG. 14 is a schematic diagram for explaining an example of a method in which the sound output device shown in FIG. 1 determines a relative position with respect to a room unit.
  • FIG. 14 shows a case where the area AR5 shown in the figure is divided into four areas AR5-1 to AR5-4. It is assumed that person M is in the position of area AR5-4 and does not move.
  • X1 to x3 are defined as temporary X coordinates in the direction of the X-axis arrow shown in FIG.
  • the sound output device 2 is at the position where the X coordinate is x1.
  • the sound output device 2 can determine the directions of the indoor unit 4 and the person by the microphones 24a to 24d.
  • the sound output device 2 does not know exactly the distances from its own device to the indoor unit 4 and each person.
  • the method described with reference to FIG. 12 is an example.
  • the position of the sound output device 2 is x2 or x3, the direction of the person can be determined, but it is difficult to calculate the distance from each position to the person.
  • the indoor unit 4 can determine the direction of a person and the distance to a person from the information of the temperature distribution detected by the infrared sensor 11 with reference to the own device.
  • the angle ⁇ h in the direction of the person from the indoor unit 4 can be obtained from the detected value of the infrared sensor 11.
  • the angle ⁇ h is constant unless the person M moves.
  • the angle formed by the indoor unit 4 and the person M with the sound output device 2 at the apex changes depending on the sound output device 2.
  • the angle formed by the indoor unit 4 and the person M with x1 as the apex is represented by ⁇ 1 + ⁇ s.
  • the angle formed by the indoor unit 4 and the person M with x2 as the apex is represented by ⁇ 2 + ⁇ s.
  • the angle formed by the indoor unit 4 and the person M with x3 as the apex is represented by ⁇ 3 + ⁇ s.
  • the angles ⁇ 1, ⁇ 2 and ⁇ 3 have a relationship of ⁇ 1 ⁇ 2 ⁇ 3.
  • the sound output device 2 determines in which quadrant the indoor unit 4 exists in the first to fourth quadrants with its own device as the origin of the coordinates regardless of the position of x1 to x3. Can be done. In the case shown in FIG. 14, the indoor unit 4 is in the first quadrant.
  • the sound output device 2 can correctly determine the direction of the person M by determining in which position of the first quadrant to the fourth quadrant the indoor unit 4 is located with the own device as a reference position. Further, the determination means 121 determines the distance from the own device to the person based on the sound information collected by the microphones 24a to 24d by the method described with reference to FIG. 12, stores the determined distance in the memory 65, and stores the determined distance in the machine. The distance determination accuracy may be improved by the learning function. In this case, the accuracy of the relative angle between the sound output device 2 and the indoor unit 4 can also be improved.
  • the air conditioner 3 transmits the indoor state information to the sound output device 2 and the sound output device 2 uses the indoor state information to control the sound output
  • the information transmitted from the air conditioner 3 to the sound output device 2 is not limited to the indoor state information.
  • the air conditioner 3 transmits the operation state information to the sound output device 2, and the sound output control means 122 reflects the operation state information in the control of the sound output signal, which is a sound signal output in the direction of a person. May be good.
  • the operating state information includes, for example, the information that the air volume of the indoor fan 42 changes from a weak wind to a strong wind
  • the air volume increases, and the sound generated when the air hits the indoor unit 4 at the outlet becomes loud.
  • the change in sound is detected by the microphones 24a to 24d.
  • the sound output control means 122 acquires information on the sound frequency band after the rotation speed of the indoor fan 42 changes from the analysis means 32, and raises the sound pressure level of the acquired frequency band.
  • the sound output device 2 can acquire the operating state information from the air conditioner 3 at the timing when the air volume changes. Therefore, at the timing when the air volume changes, the sound pressure level of the sound having the same frequency as the sound frequency generated by the change in the air volume of the indoor fan 42 is compensated for the sound output from the speakers 25 and 26, and the sound pressure level decreases. Is suppressed. As a result, when the air volume of the indoor fan 42 changes, it is possible to prevent a person in the room from becoming difficult to hear the sound output from the speaker 25.
  • the operating state information is a change in air volume has been described, but the operating state information is not limited to the change in air volume.
  • the operating state information may be information on changes in the wind direction.
  • the operating state information may be parameters of various devices provided in the air conditioner 3.
  • the operating state information is not limited to the set air volume, and may be the rotation speed of the indoor fan 42.
  • the operating state information may be the angles of the vertical flaps and the horizontal flaps, and may be information on whether the horizontal flaps are in the fixed state or the swing state.
  • the operating state information may be the start and stop of the compressor 51. Changes in the parameters of these various devices change the operating noise generated by the indoor unit 4.
  • Driving noise includes noise level and frequency characteristics. Therefore, these parameters are useful parameters for the sound output device 2 for grasping the state of the air conditioner 3 as a noise source when outputting sound.
  • the sound output control means 122 When the sound output control means 122 controls the sound output signal in consideration of the direction of the person M, the sound output control means 122 corrects the sound output signal according to the noise generation state of the indoor unit 4, but the indoor unit 4 detected by the microphones 24a to 24d.
  • the correction calculation may be simplified by adding the operating state information to the noise state of.
  • the sound output signal correction process is, for example, amplifying a sound signal in a frequency band attenuated by the blowing sound of the indoor unit 4.
  • a simple database showing the relationship between the operating state of the air conditioner 3 and noise may be provided in the memory 65 shown in FIG. 9 in advance, and the database may be used as a reference value for the calculation. Conceivable.
  • Modification example 1 With reference to FIG. 14, the case where the sound output device 2 determines the relative position between the own device and the indoor unit 4 by using a human voice as a sound source and using a common sound has been described.
  • the position determination method is not limited to this method. It is conceivable that a person moves without making a voice or moves the sound output device 2.
  • the sound output device 2 determines the relative position between the own device and the indoor unit 4 based on the change in the air volume of the air blown from the indoor unit 4.
  • the analysis means 32 issues an instruction to change the air volume to the refrigeration cycle control means 31 at a constant cycle T.
  • the refrigeration cycle control means 31 changes the rotation speed of the indoor fan 42 according to the instruction of the analysis means 32.
  • the determination means 121 uses the sound information collected by the microphones 24a to 24d with respect to the change in the rotation speed of the indoor fan 42 to determine the position of the indoor unit 4 in the same manner as described with reference to FIG. Identify. Then, the determination means 121 obtains the relative position between the own device and the indoor unit.
  • the sound output device 2 is relative to the own device and the indoor unit 4.
  • the position can be updated with the correct relative position information.
  • Modification 2 In the second modification, the sound output device 2 determines the relative position between the own device and the indoor unit 4 based on the change in the wind direction of the air blown from the indoor unit 4.
  • the analysis means 32 issues an instruction to change the wind direction to the refrigeration cycle control means 31 at a constant cycle T.
  • the refrigerating cycle control means 31 controls the wind direction adjusting means 43 to change the wind direction according to the instruction of the analysis means 32.
  • the sound may not change even if the wind direction changes, but the sound may change due to a change in the object or place where the air sent from the indoor unit 4 hits. For example, when the air sent from the indoor unit 4 hits the wall, almost no sound is generated, but when it hits the magazine, the sound of turning the paper is generated.
  • the determination means 121 uses the sound information collected by the microphones 24a to 24d with respect to the change in the wind direction of the air sent from the indoor unit 4, and is similar to the method described with reference to FIG. Identify the position of 4. Then, the determination means 121 obtains the relative position between the own device and the indoor unit.
  • the sound output device 2 is relative to the own device and the indoor unit 4.
  • the position can be updated with the correct relative position information.
  • FIG. 15 is a functional block diagram for explaining the control of the control device in the modified example 3.
  • the alarm 44 shown in FIG. 15 is provided in the indoor unit 4 shown in FIG.
  • the alarm 44 outputs a sound having a predetermined frequency when an operation instruction from the analysis means 32 is input.
  • the frequency of the alarm sound output from the alarm 44 may be a frequency band inaudible to humans.
  • the output time of the alarm sound is, for example, 0.2 to 0.5 seconds.
  • the analysis means 32 instructs the alarm 44 to operate at a constant cycle T.
  • the alarm 44 outputs an alarm sound according to the instruction of the analysis means 32.
  • the determination means 121 identifies the position of the indoor unit 4 by using the sound information collected by the microphones 24a to 24d with respect to the operation of the alarm 44 in the same manner as the method described with reference to FIG. Then, the determination means 121 obtains the relative position between the own device and the indoor unit.
  • the sound output device 2 is relative to the own device and the indoor unit 4.
  • the position can be updated with the correct relative position information.
  • the analysis means 32 may operate the alarm 44 when it is determined from the temperature distribution information detected by the infrared sensor 11 that the person M has moved in the room. Further, when the refrigeration cycle control means 31 receives the information on the change in the direction of the person with respect to the indoor unit 4 from the analysis means 32, the refrigeration cycle control means 31 transmits the indoor state information after the change in the direction of the person to the sound output device 2. It may be transmitted via.
  • the determination means 121 determines that the alarm 44 has been activated based on the sound information collected by the microphones 24a to 24d and receives the indoor state information from the indoor unit 4 via the receiving means 22, the person M moves indoors. Judged as Then, the determination means 121 redetermines the direction of the person using the received indoor state information. In this case, the sound output device 2 can more accurately determine the direction of the person after the movement even if the person moves in the room without emitting a sound.
  • the electrical equipment system 1 of the first embodiment includes an air conditioner 3 and a sound output device 2.
  • the air conditioner 3 is provided in the indoor unit 4, the infrared sensor 11 provided in the indoor unit 4 to detect the temperature distribution in the room, the presence or absence of a person in the room based on the temperature distribution, and the direction of the person based on the indoor unit 4. It has an analysis means 32 for obtaining the above and a transmission means 12.
  • the transmission means 12 transmits the indoor state information including the information on the presence / absence of a person and the direction of the person obtained by the analysis means 32 to the sound output device 2.
  • the sound output device 2 uses a plurality of microphones 24a to 24d for collecting ambient sounds, a speaker for outputting sound, and sound information collected by the plurality of microphones 24a to 24d to generate a sound with respect to a reference position. It has a controller 21 for determining the direction of the above and a receiving means 22.
  • the receiving means 22 receives from the air conditioner 3 indoor state information including information on the presence / absence of a person in the room and the direction of the person based on the indoor unit.
  • the controller 21 has a determination means 121 and a sound output control means 122.
  • the determination means 121 determines the direction of a person with respect to the reference position by combining the indoor state information with the information on the direction of the source determined by the sound information collected by the plurality of microphones 24a to 24d.
  • the sound output control means 122 controls the sound output of the speaker by using the information of the direction of the person determined by the determination means 121.
  • the sound output device 2 can more accurately determine the direction of a person in the room by using the information detected by the air conditioner 3, the sound output control optimal for the position of the person. And the correction control of the output characteristics can be performed. As a result, it becomes easier for a person to hear the sound of the speaker regardless of the position in the room. When playing music, one can experience the realism of music.
  • the air conditioner 3 provides the sound output device 2 with information on detecting a person such as the presence or absence of a person in the room and information on the operating state of the device has been described.
  • the electrical equipment provided to the output device 2 is not limited to the air conditioner 3.
  • Modification example 4 is a case where the electric device is a cooker. In the fourth modification, the cooker provides the sound output device 2 with human detection information and operating state information.
  • FIG. 16 is a top view showing a configuration example of the electrical equipment system according to the modified example 4.
  • FIG. 17 is a block diagram showing a configuration example of the cooker shown in FIG.
  • FIG. 18 is a side view showing a configuration example of the electrical equipment system shown in FIG.
  • FIG. 19 is a perspective view showing a configuration example of the electrical equipment system shown in FIG.
  • the electric device system includes a cooker 70 and a sound output device 2.
  • the sound output device 2 is placed on the kitchen table 71.
  • the cooker 70 is, for example, an IH (Induction Heating) cooking heater.
  • the cooker 70 is provided with an infrared sensor 11a as a safety device that detects the presence or absence of a person and the direction of the person in the room where the cooker 70 is installed.
  • the cooker 70 includes a plurality of induction heating coils 74a to 74c, a controller 75 that controls the induction heating coils 74a to 74c, an operation unit 77 for the person M to input an instruction, and a transmission. It has means 12d.
  • the controller 75 is, for example, a microcomputer.
  • the controller 75 has an analysis means 32a that determines the direction of a person based on the presence / absence of a person in the room and the cooker 70 based on the detection result of the infrared sensor 11a.
  • the transmission means 12d transmits the indoor state information including the information on the presence / absence of a person and the direction of the person, which is obtained by the analysis means 32a, to the sound output device 2.
  • the angle ⁇ hk shown in FIG. 16 indicates the horizontal range in which the infrared sensor 11a detects the person M.
  • the infrared sensor 11a detects the person Mk not only when the person M is located near the cooker 70 but also when the person Mk is located at the position indicated by the broken line circle.
  • the side view of FIG. 18 shows that the range in which the person M is detected by the infrared sensor 11a is the range sandwiched between the two broken lines.
  • FIG. 19 it is shown that the detection range corresponding to the detection angle ⁇ hk by the infrared sensor 11a is between the two rectangles shown by the broken line.
  • the cooker 70 transmits the indoor state information to the sound output device 2.
  • the sound output device 2 combines the information on the direction of the sound source of the person M based on the sound information collected by the microphones 24a to 24d with the indoor state information acquired from the cooker 70, and the direction of the person M with respect to the reference position. To judge. Then, the sound output device 2 controls the sound output of the speakers 25 and 26 by using the information in the direction of the determined person M.
  • the cooker 70 provides the sound output device 2 with human detection information and operating state information such as the cooking state.
  • the sound output device 2 grasps the characteristics of the sound generated by the cooking state by collating the sound such as the boiling sound of the pot and the sound of the roasted food in the frying pan with the operating state information, and outputs the sound of the speaker. Add to signal correction.
  • Modification 4 is effective for sound output control when a cook installs a sound output device 2 around the kitchen and listens to music during cooking or causes a cooking recipe to respond to the sound output device 2 by voice instruction. Is.
  • Modification 5 is a case where the electric device is a ventilation fan.
  • the ventilation fan provides the sound output device 2 with human detection information and operating state information.
  • FIG. 20 is a top view showing a configuration example of the electrical equipment system according to the modified example 5.
  • FIG. 21 is a block diagram showing a configuration example of the ventilation fan shown in FIG.
  • FIG. 22 is a side view showing a configuration example of the electrical equipment system shown in FIG.
  • FIG. 23 is a perspective view showing a configuration example of the electrical equipment system shown in FIG.
  • the electrical equipment system includes a ventilation fan 80 and a sound output device 2.
  • the sound output device 2 is placed on the kitchen table 71.
  • the ventilation fan 80 is provided with an infrared sensor 11b that detects the presence or absence of a person and the direction of the person in the room where the ventilation fan 80 is installed.
  • the ventilation fan 80 includes a fan 84, a controller 85 that controls the fan 84, an operation unit 87 for the person M to input an instruction, and a transmission means 12b.
  • the controller 85 is, for example, a microcomputer.
  • the controller 85 has an analysis means 32b for determining the direction of a person based on the presence / absence of a person in the room and the ventilation fan 80 based on the detection result of the infrared sensor 11b.
  • the transmission means 12b transmits the indoor state information including the information on the presence / absence of a person and the direction of the person, which is obtained by the analysis means 32b, to the sound output device 2.
  • the angle ⁇ hr shown in FIG. 20 indicates the horizontal range in which the infrared sensor 11b detects the person M.
  • the infrared sensor 11b detects the person Mk not only when the person M is located near the ventilation fan 80 but also when the person Mk is located at the position indicated by the broken line circle.
  • the side view of FIG. 22 shows that the range of the vertical angle ⁇ vr in which the person M is detected by the infrared sensor 11b is the range sandwiched between the two broken lines.
  • FIG. 23 it is shown that the detection range corresponding to the detection angle ⁇ hr by the infrared sensor 11a is between the two rectangles shown by the broken line.
  • the ventilation fan 80 transmits the indoor state information to the sound output device 2.
  • the sound output device 2 combines the information on the direction of the sound source of the person M based on the sound information collected by the microphones 24a to 24d with the indoor state information acquired from the ventilation fan 80 to determine the direction of the person M with respect to the reference position. judge. Then, the sound output device 2 controls the sound output of the speakers 25 and 26 by using the information in the direction of the determined person M.
  • the ventilation fan 80 provides the sound output device 2 with human detection information and operating state information including a ventilation state indicating the rotation speed of the fan 84.
  • the sound output device 2 grasps the characteristics of the sound generated by the ventilation state by collating the ventilation sound of the ventilation fan 80 with the operation state information, and adds it to the correction of the sound output signals of the speakers 25 and 26.
  • the fifth modification is a case where a cook listens to music in a state where the sound output device 2 is installed around the kitchen and the ventilation fan 80 is operated, or the cooking recipe is made to respond to the sound output device 2 by voice instruction. Effective for sound output control.
  • Modification 6 is a case where the electric device is a television. In the sixth modification, the television provides the sound output device 2 with human detection information and driving state information.
  • FIG. 24 is a top view showing a configuration example of the electrical equipment system according to the modified example 6.
  • FIG. 25 is a block diagram showing a configuration example of the television shown in FIG. 24.
  • FIG. 26 is a side view showing a configuration example of the electrical equipment system shown in FIG. 24.
  • FIG. 27 is a perspective view showing a configuration example of the electrical equipment system shown in FIG. 24.
  • the electrical equipment system includes a television 90 and a sound output device 2.
  • the television 90 is placed on the television stand 91, and the sound output device 2 is placed on the table 92.
  • the television 90 is provided with an infrared sensor 11c that detects the presence or absence of a person and the direction of the person in the room where the television 90 is installed.
  • a receiving means 93 that receives radio waves through an antenna (not shown), a speaker 96 that outputs sound, a display unit 94 that displays an image, and a person M give instructions. It has an operation unit 97 for inputting, a controller 95, and a transmission means 12c.
  • the controller 95 is, for example, a microcomputer.
  • the controller 95 extracts audio data and image data from the radio waves, outputs the audio data to the speaker 96, and outputs the image data to the display unit 94. Further, the controller 95 may output the voice data to the transmission means 12c instead of the speaker 96 according to the instruction by the person M input via the operation unit 97.
  • the transmission means 12c transmits voice data to the sound output device 2.
  • the controller 95 has an analysis means 32c for determining the direction of a person based on the presence / absence of a person in the room and the television 90 based on the detection result of the infrared sensor 11c.
  • the transmission means 12c transmits the indoor state information including the information on the presence / absence of a person and the direction of the person, which is obtained by the analysis means 32c, to the sound output device 2.
  • the angle ⁇ ht shown in FIG. 24 indicates the horizontal range in which the infrared sensor 11c detects the person M.
  • the side view of FIG. 26 shows that the range of the horizontal angle ⁇ ht in which the person M is detected by the infrared sensor 11c is the range sandwiched by the two broken lines.
  • the side view of FIG. 26 shows that the range in which the person M is detected by the infrared sensor 11c is the range sandwiched by the two broken lines.
  • FIG. 27 it is shown that the detection range corresponding to the detection angle ⁇ ht by the infrared sensor 11c is between the two rectangles shown by the broken line.
  • the television 90 transmits the indoor state information to the sound output device 2.
  • the sound output device 2 combines the information on the direction of the sound source of the person M based on the sound information collected by the microphones 24a to 24d with the indoor state information acquired from the television 90 to determine the direction of the person M with respect to the reference position. judge. Then, the sound output device 2 controls the sound output of the speakers 25 and 26 by using the information in the direction of the determined person M.
  • the sixth modification is effective when the person M who watches the program broadcast on the television 90 causes the speakers 25 and 26 of the sound output device 2 to output the sound flowing in the program instead of the speaker 96.
  • the person M can easily hear the sound flowing in the program no matter where he / she moves within the detection range of the infrared sensor 11c.
  • the television 90 provides the sound output device 2 with human detection information and operating state information including the sound pressure and frequency characteristics of the sound output from the speaker 96.
  • the sound output device 2 grasps the characteristics of the sound output from the television 90 by collating the sound detected from the television 90 with the operation change state information, and adds it to the correction of the sound output signal.
  • the sixth modification is effective for sound output control when the person M who watches the program broadcast on the television 90 responds to the sound output device 2 by a voice instruction.
  • Embodiment 2 the sound output device 2 transmits information determined from the ambient sound to the air conditioner 3, and the air conditioner 3 uses the information received from the sound output device 2 for air conditioning control. is there.
  • the second embodiment is also a case where the electric device is an air conditioner.
  • the same reference numerals are given to the same configurations as those described in the first embodiment, and detailed description thereof will be omitted.
  • FIG. 28 is a functional block diagram showing a configuration example of a control device for the air conditioner according to the second embodiment.
  • FIG. 29 is a functional block diagram showing a configuration example of the controller of the sound output device of the second embodiment.
  • the indoor unit 4 of the air conditioner 3 of the second embodiment is provided with the communication means 12a shown in FIG. 28 instead of the transmission means 12 shown in FIG.
  • the communication means 12a transmits / receives information to / from the sound output device 2 by short-range wireless communication.
  • the sound output device 2 of the second embodiment is provided with the communication means 22a shown in FIG. 29 instead of the receiving means 22 shown in FIG.
  • the communication means 22a transmits / receives information to / from the communication means 12a of the indoor unit 4 by short-range wireless communication.
  • FIG. 30 is a flowchart showing an example of the operation procedure of the sound output device of the second embodiment.
  • FIG. 31 is a diagram showing an example of the process of step S203 shown in FIG.
  • FIG. 32 is a diagram showing an example of the process of step S204 shown in FIG.
  • FIG. 33 is a diagram showing an example of the process of step S205 shown in FIG.
  • the microphones 24a to 24d measure the noise level of the ambient sound (step S201).
  • the determination means 121 determines whether or not the noise level of the ambient sound is 30 dB or more (step S202). When the noise level of the ambient sound is less than 30 dB, the determination means 121 ends the process. On the other hand, when the noise level of the ambient sound is 30 dB or more, the determination means 121 analyzes the frequency of the ambient noise (step S203). As shown in FIG. 31, the determination means 121 creates a graph with the horizontal axis as the frequency and the vertical axis as the sound pressure level. Further, the determination means 121 determines a frequency band in which the sound pressure level is particularly high among the noise (step S204). As shown in FIG. 32, the determination means 121 determines a frequency band in which the sound pressure level is particularly high in the graph shown in FIG. 31. For example, a threshold value for determining whether or not the sound pressure level is high is determined. This threshold value is stored in the memory 65.
  • the determination means 121 notifies the sound output control means 122 of the determined frequency band.
  • the sound output control means 122 corrects the frequency band determined by the determination means 121 to amplify the same frequency band of the sound data to be output (step S205).
  • FIG. 33 shows an example of the amplified sound pressure level. Then, the sound output control means 122 causes the speakers 25 and 26 to output the sound of the corrected sound data (step S206).
  • the determination means 121 analyzes the frequency of the ambient noise, and the sound output control means 122 corrects the waveform of the sound output from the speakers 25 and 26 corresponding to the analyzed frequency.
  • This correction amplifies, for example, a frequency band that is attenuated by noise. Therefore, even if there is noise in the surroundings, the person in the room can easily hear the sound output from the speakers 25 and 26.
  • the determination means 121 may communicate with a server (not shown) that stores information on the cause of noise generation via the network communication means 23.
  • the information on the cause of the noise is, for example, the sound of the indoor fan 42, the sound of the ventilation fan (not shown) installed in the room, the sound of the boiling pot heated by the counter (not shown), and the like. ..
  • the determination means 121 refers to the information stored in the server (not shown), identifies the cause of noise generation, selects a pattern corresponding to the cause of occurrence from a plurality of patterns of determined correction control, and selects the pattern. Is notified to the sound output control means 122.
  • the plurality of patterns of correction control may be stored in the memory 65 or may be stored in the server (not shown).
  • the correction control may select one pattern from a plurality of patterns, so that the time for analysis processing and sound output control processing can be shortened. It is possible to control the frequency of sound easily and at low cost to improve the sound quality felt by humans.
  • the person in the room can enjoy the music with an easy-to-hear and comfortable sound regardless of the ambient noise, and can acquire the information from the sound output device 2.
  • the sound output device 2 may determine an attribute including the gender and age of the person M from the frequency of the voice of the person M in the room, and reflect the determined attribute in the sound output control. Specifically, in step S203 shown in FIG. 30, the determination means 121 determines the attribute from the frequency of the voice of the person M in the room. In step S205, the sound output control means 122 corrects the frequency band of the sound data to be output according to the attribute determined by the determination means 121. For example, when the person in the room is an elderly person, the sound output control means 122 raises the sound pressure level at a frequency higher than a predetermined threshold value so that the elderly person can easily hear the sound data.
  • the sound output device 2 may transmit the attribute information including the attribute information determined from the frequency of the voice of the person M in the room to the air conditioner 3.
  • the refrigeration cycle control means 31 can reflect the attribute information in the operation control of the air conditioner 3. For example, since children tend to have a higher sensible temperature than adults, the refrigeration cycle control means 31 controls the wind direction adjusting means 43 when the person in the room is a child during cooling operation, and the wind direction is a person. Make it suitable for. Further, since it is better for the elderly not to cool their bodies, the refrigerating cycle control means 31 controls the wind direction adjusting means 43 to direct the wind direction to the person when the person in the room is an elderly person during the cooling operation. Try not to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Air Conditioning Control Device (AREA)

Abstract

電気機器システムは、室内の人の有無および電気機器を基準とした人の方向の情報を含む室内状態情報を送信する電気機器と、周囲の音を収集する複数のマイクと、音を出力するスピーカと、室内状態情報を電気機器から受信する受信手段と、複数のマイクが収集した音の情報を用いて、基準位置に対する音の発生源の方向を判定するコントローラとを有する音出力装置と、を有し、コントローラは、複数のマイクが収集した音の情報による発生源の方向の情報に、電気機器から取得した室内状態情報を組み合わせて、基準位置に対する人の方向を判定する判定手段と、判定手段によって判定された人の方向の情報を用いてスピーカの音の出力を制御する音出力制御手段と、を有するものである。

Description

電気機器システム、音出力装置、電気機器、音出力方法およびプログラム
 本発明は、電気機器システム、音出力装置、電気機器、音出力方法およびプログラムに関する。
 スマートスピーカと呼ばれる音出力装置が知られている。音の出力制御として、周囲の騒音をマイクで集音して周波数分析を行い、スピーカから発する音声信号の周波数特性を変更する車載用音響再生装置が知られている(例えば、特許文献1参照)。また、騒音源の方向を検出する手段として離間して設置された複数のマイクを有し、複数のマイクが検出した音声信号を解析する音声出力制御装置が知られている(例えば、特許文献2参照)。
 スピーカから出力する音声信号の補正に用いる騒音源の音の周波数特性の情報を記憶し、出力する音を補正する音響装置が提案されている(例えば、特許文献3参照)。
特開平09-148867号公報 特開2014-197771号公報 特開2009-175558号公報
 特許文献1~3に開示された音出力装置では、人が室内を移動し、移動先で人から発せられる音声に基づいて人の方向を改めて判定する必要がある。人が音声を発しない状態で移動してしまうと、音出力装置は、人の方向を判定するのが困難になる。その結果、人は、音出力装置が音を出力しても、音が聞き取りにくいことがある。
 本発明は、上記のような課題を解決するためになされたもので、人が室内のどこにいてもスピーカから出力される音を聞き取りやすくする電気機器システム、音出力装置、電気機器、音出力方法およびプログラムを提供するものである。
 本発明に係る電気機器システムは、室内の人の有無および電気機器を基準とした人の方向の情報を含む室内状態情報を送信する前記電気機器と、周囲の音を収集する複数のマイクと、音を出力するスピーカと、前記室内状態情報を前記電気機器から受信する受信手段と、前記複数のマイクが収集した音の情報を用いて、基準位置に対する音の発生源の方向を判定するコントローラとを有する音出力装置と、を有し、前記コントローラは、前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する判定手段と、前記判定手段によって判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する音出力制御手段と、を有するものである。
 本発明に係る音出力装置は、周囲の音を収集する複数のマイクと、音を出力するスピーカと、前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定するコントローラと、室内の人の有無および電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信する受信手段と、を有し、前記コントローラは、前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する判定手段と、前記判定手段によって判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する音出力制御手段と、を有するものである。
 本発明に係る電気機器は、音を出力する音出力装置と通信する電気機器であって、室内における人の有無および人の方向を検出する赤外線センサと、前記赤外線センサの検出結果に基づいて、前記室内における人の有無および前記電気機器を基準として人の方向を求める分析手段と、前記分析手段によって求められた前記人の有無および前記人の方向の情報を含む室内状態情報を前記音出力装置に送信する送信手段と、を有するものである。
 本発明に係る音出力方法は、周囲の音を収集する複数のマイクと、音を出力するスピーカと、電気機器から情報を受信する受信手段とを有する音出力装置による音出力方法であって、前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定し、室内の人の有無および前記電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信し、前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定し、判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御するものである。
 本発明に係るプログラムは、周囲の音を収集する複数のマイクと、音を出力するスピーカと、電気機器から情報を受信する受信手段とを有する情報処理装置に、前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定する手段と、室内の人の有無および前記電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信する手段と、前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する手段と、判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する手段を実行させるものである。
 本発明によれば、音出力装置が、室内に居る人の方向を空気調和機で検出された情報を用いてより精度よく判定できるため、人の位置に最適な音出力制御および出力特性の補正制御を行うことができる。その結果、人は室内のどの位置にいても、スピーカの音が聞き取りやすくなる。
実施の形態1に係る電気機器システムの一構成例を示す図である。 図1に示した空気調和機の一構成例を示す冷媒回路図である。 図1に示した室内ユニットの一設置例を示す外観斜視図である。 図2に示した制御装置の一構成例を示す機能ブロック図である。 図3に示した赤外線センサが検出する温度分布の水平方向の範囲の一例を示す図である。 図3に示した赤外線センサが検出する温度分布の垂直方向の範囲の一例を示す図である。 図4に示した分析手段が赤外線センサによって検出された温度分布を2次元画像に表示した場合の一例を示すイメージ図である。 図5に示した赤外線センサの検出範囲を複数のエリアに区分けしたマップの一例を示す平面図である。 図1に示した音出力装置の一構成例を示すブロック図である。 図9に示した音出力装置を上から見たときの一例を示す平面図である。 図9に示したコントローラの一構成例を示す機能ブロック図である。 図11に示したマイクが収集した音の情報を用いた人の方向を判定する方法を説明する模式図である。 図1に示した音出力装置の動作手順を示すフローチャートである。 図1に示した音出力装置が室内ユニットとの相対位置を判定する方法の一例を説明するための模式図である。 変形例3における制御装置の制御を説明するための機能ブロック図である。 変形例4に係る電気機器システムの一構成例を示す上面図である。 図16に示す調理器の一構成例を示すブロック図である。 図16に示す電気機器システムの一構成例を示す側面図である。 図16に示す電気機器システムの一構成例を示す斜視図である。 変形例5に係る電気機器システムの一構成例を示す上面図である。 図20に示す換気扇の一構成例を示すブロック図である。 図20に示す電気機器システムの一構成例を示す側面図である。 図20に示す電気機器システムの一構成例を示す斜視図である。 変形例6に係る電気機器システムの一構成例を示す上面図である。 図24に示すテレビの一構成例を示すブロック図である。 図24に示す電気機器システムの一構成例を示す側面図である。 図24に示す電気機器システムの一構成例を示す斜視図である。 実施の形態2の空気調和機の制御装置の一構成例を示す機能ブロック図である。 実施の形態2の音出力装置のコントローラの一構成例を示す機能ブロック図である。 実施の形態2の音出力装置の動作手順の一例を示すフローチャートである。 図30に示すステップS203の処理の一例を示す図である。 図30に示すステップS204の処理の一例を示す図である。 図30に示すステップS205の処理の一例を示す図である。
実施の形態1.
 本実施の形態1の電気機器システムの構成を説明する。図1は、実施の形態1に係る電気機器システムの一構成例を示す図である。図1に示すように、電気機器システム1は、空気調和機3と、音出力装置2とを有する。空気調和機3は、空調対象空間である室内に設置される室内ユニット4と、室内ユニット4と冷媒配管6で接続される室外ユニット5とを有する。ここでは、電気機器が空気調和機3の室内ユニット4の場合で説明するが、電気機器は、室内ユニット4および室外ユニット5を含む空気調和機3であってもよい。電気機器は空気調和機3に限定されない。
 図2は、図1に示した空気調和機の一構成例を示す冷媒回路図である。図2に示すように、室外ユニット5は、冷媒を圧縮して吐出する圧縮機51と、冷媒の流通方向を切り替える四方弁52と、冷媒と外気とが熱交換を行う熱源側熱交換器53と、冷媒を減圧して膨張させる膨張弁54とを有する。また、図2に示す室外ユニット5には、外気を熱源側熱交換器53に供給する室外ファン55と、外気温度を検出する外気温度センサ62とが設けられている。
 室内ユニット4は、冷媒と室内の空気とが熱交換する負荷側熱交換器41と、室内ファン42と、風向調整手段43と、空気調和機3の運転を制御する制御装置10とを有する。室内ファン42は、室内から空気を吸い込み、吸い込んだ空気を負荷側熱交換器41に供給し、負荷側熱交換器41で冷媒と熱交換した後の空気を室内に送り出す。風向調整手段43は、室内ユニット4の空気吹出口に設けられ、室内ファン42が室内に送る空気の風向を調整する。風向調整手段43は、例えば、垂直フラップおよび水平フラップである。
 また、図2に示す室内ユニット4には、室内の温度分布を検出する赤外線センサ11と、制御装置10から受け取る情報を音出力装置2に送信する送信手段12と、室温を検出する室温センサ61とが設けられている。送信手段12は、Bluetooth(登録商標)等の近距離無線通信で音出力装置2と通信接続される。
 赤外線センサ11および送信手段12は制御装置10と信号線で接続されている。圧縮機51、熱源側熱交換器53、膨張弁54および負荷側熱交換器41が冷媒配管6で接続され、冷媒が循環する冷媒回路8が構成される。制御装置10は、図に示さない信号線を介して、圧縮機51、四方弁52、膨張弁54、室外ファン55、外気温度センサ62、室内ファン42、風向調整手段43および室温センサ61と通信接続される。
 図3は、図1に示した室内ユニットの一設置例を示す外観斜視図である。図3に示す設置例では、室内の4つの壁のうち、1つの壁の隅の最上部に室内ユニット4が設置されている。図3に示す例では、室内に人Mが居て、音出力装置2が床の上に置かれている場合を示す。また、音出力装置2が図に示さないネットワークと通信接続するための基地局7が室内に設置されている。基地局7と音出力装置2の通信接続は、有線であってもよく、無線であってもよい。
 図4は、図2に示した制御装置の一構成例を示す機能ブロック図である。制御装置10は、例えば、マイクロコンピュータである。制御装置10は、図2に示すように、プログラムを記憶するメモリ13と、プログラムにしたがって処理を実行するCPU(Central Processing Unit)14とを有する。図4に示すように、制御装置10は、冷媒回路8の冷凍サイクルを制御する冷凍サイクル制御手段31と、赤外線センサ11が検出する温度分布の情報を分析する分析手段32とを有する。CPU14がプログラムを実行することで、冷凍サイクル制御手段31および分析手段32が構成される。
 冷凍サイクル制御手段31は、暖房運転および冷房運転等の運転モードに対応して四方弁52の流通方向を制御する。冷凍サイクル制御手段31は、室温が設定温度になるように、室温、外気温度および設定温度に基づいて、圧縮機51の運転周波数と、膨張弁54の開度と、室外ファン55および室内ファン42の回転数とを制御する。
 また、冷凍サイクル制御手段31は、人の有無および室内ユニット4を基準とした人の方向の情報を含む室内状態情報を分析手段32から受け取ると、室内状態情報を空気調和の制御に反映させてもよい。例えば、冷凍サイクル制御手段31は、室内ファン42によって室内に送り出される空気の風向が人の方向になるように風向調整手段43を制御する。また、冷凍サイクル制御手段31は、風量および風向の情報を含む運転状態を示す運転状態情を送信手段12に渡してもよい。風量は、例えば、室内ファン42の回転数である。風向は、例えば、風向調整手段43の垂直フラップおよび水平フラップのそれぞれのフラップの方向を示す角度である。また、冷凍サイクル制御手段31は、室内ファン42から人の居ない方向に空気を吹き出すように風向調整手段43を制御してもよい。例えば、冷房運転の場合、室内に居る人の体感温度が低い場合である。つまり、冷凍サイクル制御手段31は、検知された人の方向の空気が最適な温度になるように風向を制御する。
 図5は、図3に示した赤外線センサが検出する温度分布の水平方向の範囲の一例を示す図である。図6は、図3に示した赤外線センサが検出する温度分布の垂直方向の範囲の一例を示す図である。室内ユニット4の正面方向(Y軸矢印と反対方向)の水平基準Haxからの回転角を水平方向の角度θhとする。図5では、赤外線センサ11を回転軸の中心として水平基準Haxから時計回りの方向の角度θhをマイナスの角度とし、反時計回りの方向の角度θhをプラスの角度であることを表現しているが、符号は図5に示す場合に限らない。
 一方、図6に示すように、室内ユニット4の下方向(Z軸矢印の反対方向)を垂直基準Vaxとして、垂直基準Vaxから時計回り方向の回転角を垂直方向の角度θvとする。赤外線センサ11は、図5および図6に示すように、室内ユニット4が対向する壁の方向(Y軸矢印と反対方向)に対して、垂直方向の角度θvの一定の範囲と、水平方向の角度θhの一定の範囲とにおける室内の温度分布を測定する。
 なお、本実施の形態1では、赤外線センサは回転動作せずに温度分布を検出する場合で説明するが、赤外線センサ11は、複数のセンサ素子が直線状に配置された構成を有し、図5に示した角度θhのマイナス側とプラス側に回転して温度分布を検出してもよい。
 赤外線センサ11は検出値を分析手段32に送る。分析手段32は、赤外線センサ11から検出値を受け取り、受け取った検出値を解析する。図7は、図4に示した分析手段が赤外線センサによって検出された温度分布を2次元画像に表示した場合の一例を示すイメージ図である。説明のために、図7において、壁、床および天井のそれぞれと他の部分との境を破線で示している。実際には、壁、床および天井の各材料の熱の伝導率が異なるため、分析手段32は、赤外線センサ11の検出値を画像解析することで、各境を検出する。
 図7に示す画像Imgは、暖房運転の場合であり、ドット模様の密度が高いほど温度が高いことを示している。暖かい空気は、床面FLよりも天井に近い側に滞留する傾向があるからである。床面FLは温度が低いため、ドット模様が表示されていない。分析手段32は、図7に示す画像Imgに画像解析処理を行って、人Mの表面温度と床面FLの温度との違いから、人Mの位置を抽出する。また、分析手段32は、画像Imgに画像解析処理を行って、音出力装置2の表面温度と床面FLの温度との違いから、音出力装置2の位置を抽出する。そして、分析手段32は、赤外線センサ11によって検出される人Mの位置と室内ユニット4の位置を基準とした人Mの方向を示す角度θvとを用いて、室内ユニット4から人Mまでの距離を求める。
 図8は、図5に示した赤外線センサの検出範囲を複数のエリアに区分けしたマップの一例を示す平面図である。分析手段32は、角度θhおよび角度θvで室内の温度分布を生成する。図8に示す例では、室内がエリアAR1~AR15の15個のエリアに分割された場合を示す。エリアAR8に人Mが居て、エリアAR14に音出力装置2が置かれている。図8では室内の床の分割数は15の場合を示しているが、分割数は15に限らない。
 分析手段32は、生成した温度分布から、エリアAR1~AR15のうち、エリアAR8の人Mが人Mの周りよりも温度が高くなっていることから、人Mが居ると判定する。例えば、人Mがいるか否かの判定基準として、温度差に関する閾値Tthが設定されている。分析手段32は、赤外線センサ11の検出値による温度分布から、周囲と比べて閾値Tth以上高い部分に人Mがいると判定する。閾値Tthはメモリ13によって記憶されている。
 分析手段32は、赤外線センサ11が検出した温度分布に基づいて、室内ユニット4を基準として人Mの方向を特定する。分析手段32は、人の有無および人の方向の情報を含む室内状態情報を送信手段12および冷凍サイクル制御手段31に渡す。室内状態情報は、例えば、図8に示すマップと、マップにおける室内ユニット4の位置と、人Mが検出されたエリアAR8との情報である。
 送信手段12は制御装置10から受け取る情報を音出力装置2に送信する。例えば、送信手段12は、分析手段32から受け取る室内状態情報を音出力装置2に送信する。送信手段12は、冷凍サイクル制御手段31から受け取る運転状態情報を音出力装置2に送信してもよい。
 次に、図1に示した音出力装置2の構成を説明する。図9は、図1に示した音出力装置の一構成例を示すブロック図である。音出力装置2は、例えば、スマートスピーカである。音出力装置2は情報処理装置の一例である。音出力装置2は、コントローラ21と、受信手段22と、ネットワーク通信手段23と、マイク24a~24dと、スピーカ25および26とを有する。
 マイク24a~24dは周囲の音の情報を収集する。音の情報は、例えば、音の周波数および音圧レベルである。スピーカ25は、音声および音楽等の音を出力する。受信手段22は近距離無線通信で送信手段12と通信する。ネットワーク通信手段23は、基地局7およびネットワーク(不図示)を介して、サーバ(不図示)と通信する。ネットワーク通信手段23は、コントローラ21とサーバ(不図示)との間で送受信される情報のやり取りを中継する役目を果たす。
 なお、本実施の形態1では、送信手段12および受信手段22が近距離無線通信で通信する場合で説明するが、近距離無線通信は赤外線信号を用いた無線通信でもよい。また、基地局7と室内に置かれた機器とが有線または無線で通信するLAN(Local Area Network)(不図示)が構成され、送信手段12と受信手段22とがLANを介して通信してもよい。
 図10は、図9に示した音出力装置を上から見たときの一例を示す平面図である。本実施の形態1では、音出力装置2は、直方体の筐体2aを有する。図10に示すように筐体2aの4つの側面のそれぞれに対応してマイク24a~24dのそれぞれが設けられている。スピーカ25および26は筐体2aの上面に設けられている。マイク24a~24d、ならびにスピーカ25および26のそれぞれは、筐体2aの外観に現れていないので、図10では、これらの構成を破線で示している。
 図11は、図9に示したコントローラの一構成例を示す機能ブロック図である。コントローラ21は、例えば、マイクロコンピュータである。コントローラ21は、図9に示すように、プログラムを記憶するメモリ65と、プログラムにしたがって処理を実行するCPU66とを有する。図11に示すように、コントローラ21は、室内における人Mの位置を判定する判定手段121と、判定手段121によって判定された人Mの方向にスピーカ25および26に音を出力させる制御を行う音出力制御手段122とを有する。CPU66がプログラムを実行することで、判定手段121および音出力制御手段122が構成される。
 判定手段121は、マイク24a~24dが収集した音の情報による音の発生源の方向を判定する。また、判定手段121は、マイク24a~24dが収集した音による判定の情報に、空気調和機3から取得した室内状態情報を組み合わせて、音出力装置2を基準位置として基準位置に対する人Mの方向を判定する。
 ここで、マイク24a~24dが収集した音の情報を用いて判定手段121が人Mの方向を判定する方法の一例を説明する。図12は、図11に示したマイクが収集した音の情報を用いた人の方向を判定する方法を説明する模式図である。
 筐体2aの中心を原点座標として、図12に示すようにX軸およびY軸を定義する。音の発生源となる人Mが、図12に示すように、筐体2aの中心を原点に定義したX軸およびY軸の第1象限に居るものとする。人Mのいる位置座標は未知であり、その座標を(xm,ym)と表す。マイク24aの座標を(-Δx,0)とし、マイク24bの座標を(0,Δy)とすると、マイク24aの座標は(Δx,0)となり、マイク24dの座標は(0,-Δy)となる。
 図12に示すように、マイク24a~24dのXY平面の座標が異なることから、人Mから発生した音声がマイク24a~24dの各マイクへの到達時間の差から方向を判定することができる。方向判定の技術の一例が特開2017-125893号公報に開示されている。本実施の形態1では、方向判定方法の詳細な説明を省略する。
 判定手段121は、マイク24a~24dを介して、音楽の再生および天気予報の要求などの指示情報を受け取ると、受け取った指示情報を、ネットワーク通信手段23を介してサーバ(不図示)に送信する。判定手段121は、指示情報に対する応答情報を、ネットワーク通信手段23を介してサーバ(不図示)から受け取ると、応答情報を音出力制御手段122に渡す。応答情報は、指示情報が音楽の再生の場合、音楽データであり、指示情報が天気予報の要求である場合、天気予報の情報である。
 音出力制御手段122は、応答情報を判定手段121から受け取ると、判定手段121によって判定された方向にいる人Mに対して聞き取りやすい音で、応答情報をスピーカ25および26に出力させる。例えば、図12に示すように、音出力装置2よりもX軸矢印方向に離れた位置に人Mがいる場合、図10に示したスピーカ26の音量を大きくし、スピーカ25の音量を小さくする。また、音出力制御手段122は、音量に限らず、位相を補正したり、周波数を補正したりしてもよい。また、音出力制御手段122は、スピーカ26に出力させる音の位相とスピーカ25に出力させる音の位相をずらしてもよい。人Mに聞き取りやすい音とは、例えば、原音の定位、周波数特性の再現性が高い音、ならびにスピーカ25および26と人との距離および角度を含む相対位置によらず、人の位置へ到達する音が変化しにくい音などである。
 なお、本実施の形態1では、音出力装置2に設けられるスピーカの数が2つの場合で説明したが、3つ以上であってもよく、1つであってもよい。スピーカが1つである場合、音出力制御手段122は、音量、位相および周波数のうち、いずれか1つ以上を制御すればよい。例えば、音出力制御手段122は、自装置と人との距離が離れているほど音量を大きくする制御を行えばよい。
 次に、本実施の形態1の音出力装置の動作を説明する。図13は、図1に示した音出力装置の動作手順を示すフローチャートである。図13に示すフローを電気機器システム1は、一定の周期Tで繰り返すものとする。周期Tは、例えば、5分である。
 マイク24a~24dは室内ユニット4の運転によって発生する騒音を収集する。判定手段121は、マイク24a~24dが収集した音の情報を用いて、自装置を基準位置として基準位置から音の発生源である室内ユニット4の方向を判定する(ステップS101)。続いて、マイク24a~24dは人の音声を収集する。例えば、室内に居る人が音楽再生などの指示を音出力装置2にする場合が考えられる。判定手段121は、マイク24a~24dが収集した人の音声の情報を用いて、自装置を基準位置として基準位置から音の発生源である人の方向を判定する(ステップS102)。そして、判定手段121は、室内ユニット4を基準とした人の方向の情報を含む室内状態情報を空気調和機3から取得する(ステップS103)。
 判定手段121は、室内ユニット4を騒音源として判定した室内ユニット4の方向と、室内ユニット4を基準とした人の方向を示す情報とを照合し、自装置と室内ユニット4との相対位置を判定する(ステップS104)。例えば、判定手段121は、室内状態情報に含まれるマップの人の位置と自装置で判定した人の方向とを照合することで、自装置、室内ユニット4および人の3者の相互の位置関係までは明確にならなくても、3者を頂点とする三角形の形状を判定することができる。つまり、判定手段121は、自装置を基準として、室内ユニット4および人のそれぞれの方向を特定できる。判定手段121は、マイク24a~24dが収集した音の情報で判定した人の方向の情報に、室内状態情報を組み合わせて、基準位置に対する人の方向を判定することで、判定をし直す(ステップS105)。
 判定手段121は、ステップS105の判定結果を音出力制御手段122に通知する。音出力制御手段122は、スピーカ25および26に出力させる音が、判定された方向で最適な音になるように音出力信号を生成する(ステップS106)。判定された方向における最適な音とは、例えば、サラウンド音響効果が得られる音である。音出力制御手段122は、ステップS106で生成した音出力信号をスピーカ25および26に送信し、生成した音出力信号による音を出力させる(ステップS107)。例えば、音出力制御手段122は、スピーカ25に出力させる音の音圧とスピーカ26に出力させる音の音圧とが異なるようにしてもよい。
 マイク24a~24dで収集される、人の音声で人の方向を判定する処理を主判定処理と称し、室内ユニット4から取得される室内状態情報を主判定処理に組み合わせて人の方向を再判定する処理を、方向の確認および方向の微調整のための補正処理と称する。このようにして、音出力装置2は、主判定処理を行った後、補正処理を行うという手順を経て、自装置を基準位置とした人の方向を決定し、決定した方向に最適な音声出力信号を生成し、生成した音出力信号による音を出力する。
 音出力装置2が、図13に示す手順にしたがって人の方向に対する主判定処理および補正処理を周期Tで繰り返し行うことで、室内に居る人は音が聞き取りやすくなる。音楽再生時などには、室内に居る人は質感の高い音を得ることができる。
 ここで、図13に示したステップS104の処理の一例を、詳しく説明する。図14は、図1に示した音出力装置が室内ユニットとの相対位置を判定する方法の一例を説明するための模式図である。
 図14では、図に示したエリアAR5を4分割してエリアAR5-1~AR5-4とした場合である。人MがエリアAR5-4の位置に居て移動しないものとする。図14に示すX軸矢印方向に、仮のX座標として、x1~x3を定義する。
 現在、音出力装置2は、X座標がx1の位置にあるものとする。音出力装置2は、マイク24a~24dによって室内ユニット4および人のそれぞれの方向を判定できる。ただし、音出力装置2は、自装置から室内ユニット4および人のそれぞれまでの距離は正確にはわからない。図12を参照して距離を算出する方法を説明したが、図12を参照して説明した方法は一例である。例えば、音源の音圧レベルが小さい場合など、図12を参照して説明した方法では、正確な距離を判定することが困難な場合もある。音出力装置2の位置がx2またはx3であっても、人の方向は判定できるが、各位置から人の距離までを算出するのは困難である。
 室内ユニット4は、赤外線センサ11が検出する温度分布の情報から、自装置を基準にして人の方向と人までの距離とを判定できる。人Mが移動しない場合、室内ユニット4から人の方向の角度θhは赤外線センサ11の検出値から求まる。角度θhは人Mが移動しない限り、一定である。
 これに対して、音出力装置2を頂点として室内ユニット4と人Mとでなす角度は、音出力装置2によって変化する。x1を頂点として室内ユニット4と人Mとでなす角度は、θ1+θsで表される。x2を頂点として室内ユニット4と人Mとでなす角度は、θ2+θsで表される。x3を頂点として室内ユニット4と人Mとでなす角度は、θ3+θsで表される。角度θ1、θ2およびθ3は、θ1<θ2<θ3の関係である。
 ただし、音出力装置2は、x1~x3のどの位置にあっても、自装置を座標の原点として、第1象限~第4象限のうち、室内ユニット4がいずれの象限に存在するかを判定することはできる。図14に示す場合では、室内ユニット4は第1象限にある。
 このようにして、音出力装置2は、自装置を基準位置として、第1象限~第4象限のどの位置に室内ユニット4があるかを判定することで、人Mの方向も正しく判定できる。さらに、判定手段121は、図12を参照して説明した方法でマイク24a~24dが収集する音の情報で自装置から人までの距離を判定し、判定した距離をメモリ65に記憶させ、機械学習機能によって距離の判定精度を向上させてもよい。この場合、音出力装置2と室内ユニット4との相対角度の精度も向上させることができる。
 なお、本実施の形態1では、空気調和機3が音出力装置2に室内状態情報を送信することで、音出力装置2が音の出力の制御に室内状態情報を用いる場合について説明したが、空気調和機3から音出力装置2に送信される情報は室内状態情報に限らない。例えば、空気調和機3は運転状態情報を音出力装置2に送信し、音出力制御手段122が運転状態情報を、人の方向に出力する音の信号である音出力信号の制御に反映させてもよい。
 運転状態情報が、例えば、室内ファン42の風量が弱風から強風に変化した情報を含む場合について説明する。室内ファン42の回転数が大きくなると、風量が大きくなり、吹き出し口で空気が室内ユニット4にぶつかって生じる音が大きくなる。その音の変化がマイク24a~24dによって検出される。音出力制御手段122は、室内ファン42の回転数が変化した後の音の周波数帯の情報を分析手段32から取得し、取得した周波数帯の音圧レベルを上げる。
 この場合、音出力装置2は、風量が変化するタイミングで運転状態情報を空気調和機3から取得することができる。そのため、風量が変化するタイミングで、スピーカ25および26から出力される音について、室内ファン42の風量の変化によって生じる音の周波数と同じ周波数の音の音圧レベルが補償され、音圧レベルが低下することが抑制される。その結果、室内ファン42の風量が変化したときに、室内に居る人にとって、スピーカ25から出力される音が聞きにくくなることを抑制できる。ここでは、運転状態情報が風量の変化の場合で説明したが、運転状態情報は風量の変化に限らない。運転状態情報は、風向の変化の情報であってもよい。
 また、運転状態情報は、空気調和機3に設けられた各種機器のパラメータであってもよい。例えば、運転状態情報は、設定された風量に限らず、室内ファン42の回転数であってもよい。運転状態情報は、垂直フラップおよび水平フラップの角度であってもよく、水平フラップが固定状態かスイング状態かの情報であってもよい。運転状態情報は、圧縮機51の起動および停止であってもよい。これらの各種機器におけるパラメータの変化は、室内ユニット4が発生する運転音が変化する。運転音は騒音レベル及び周波数特性を含む。そのため、これらのパラメータは、音出力装置2にとって、音を出力する際の雑音源としての空気調和機3の状態を把握するための有用なパラメータとなる。
 音出力制御手段122は、人Mの方向を考慮した音出力信号を制御する際、室内ユニット4の騒音発生状態による音出力信号の補正処理を行うが、マイク24a~24dが検知した室内ユニット4の騒音状態に運転状態情報を加えることで補正計算を単純化してもよい。音出力信号の補正処理は、例えば、室内ユニット4の送風音によって減衰する周波数帯域の音の信号を増幅させることである。また、補正計算の単純化として、例えば、空気調和機3の運転状態と騒音との関係を示す簡単なデータベースを予め図9に示したメモリ65に設け、データベースを計算の基準値として用いることが考えられる。
(変形例1)
 図14を参照して、音出力装置2が、人の音声を音の発生源として、共通の音を利用して自装置と室内ユニット4との相対位置を判定する場合を説明したが、相対位置の判定方法はこの方法に限らない。人が声を発しないで、移動する場合および音出力装置2を移動する場合が考えられる。変形例1は、音出力装置2が室内ユニット4から吹き出される空気の風量の変化に基づいて、自装置と室内ユニット4との相対位置を判定するものである。
 分析手段32は、一定の周期Tで、冷凍サイクル制御手段31に風量を変化させる指示を出す。冷凍サイクル制御手段31は、分析手段32の指示にしたがって、室内ファン42の回転数を変化させる。判定手段121は、室内ファン42の回転数の変化に対してマイク24a~24dが収集した音の情報を用いて、図12を参照して説明した方法と同様にして、室内ユニット4の位置を特定する。そして、判定手段121は、自装置と室内ユニットとの相対位置を求める。
 変形例1によれば、人が音出力装置2を持って音出力装置2の位置を変え、かつ人が音声を発しない場合でも、音出力装置2は、自装置と室内ユニット4との相対位置を正しい相対位置の情報に更新することができる。
(変形例2)
 変形例2は、音出力装置2が室内ユニット4から吹き出される空気の風向の変化に基づいて、自装置と室内ユニット4との相対位置を判定するものである。
 分析手段32は、一定の周期Tで、冷凍サイクル制御手段31に風向を変化させる指示を出す。冷凍サイクル制御手段31は、分析手段32の指示にしたがって、風向調整手段43を制御して風向を変化させる。ここで、風向が変化しても音が変化しない場合もあるが、室内ユニット4から送出される空気があたる物または場所が変わることで、音が変化することがある。例えば、室内ユニット4から送出される空気が壁にあたる場合には、音がほとんど発生しないが、雑誌にあたると、紙がめくれる音が発生する。
 判定手段121は、室内ユニット4から送出される空気の風向の変化に対してマイク24a~24dが収集した音の情報を用いて、図12を参照して説明した方法と同様にして、室内ユニット4の位置を特定する。そして、判定手段121は、自装置と室内ユニットとの相対位置を求める。
 変形例2によれば、人が音出力装置2を持って音出力装置2の位置を変え、かつ人が音声を発しない場合でも、音出力装置2は、自装置と室内ユニット4との相対位置を正しい相対位置の情報に更新することができる。
(変形例3)
 変形例3は、音出力装置2が室内ユニット4から出力されるアラーム音に基づいて、自装置と室内ユニット4との相対位置を判定するものである。図15は、変形例3における制御装置の制御を説明するための機能ブロック図である。
 変形例3の空気調和機3には、図15に示すアラーム44が図1に示した室内ユニット4に設けられている。アラーム44は、分析手段32からの動作指示が入力されると、決められた周波数の音を出力する。アラーム44から出力されるアラーム音の周波数は、人に聞こえない周波数帯であってもよい。アラーム音の出力時間は、例えば、0.2~0.5秒である。
 分析手段32は、一定の周期Tで、アラーム44に動作を指示する。アラーム44は、分析手段32の指示にしたがって、アラーム音を出力する。判定手段121は、アラーム44の動作に対してマイク24a~24dが収集した音の情報を用いて、図12を参照して説明した方法と同様にして、室内ユニット4の位置を特定する。そして、判定手段121は、自装置と室内ユニットとの相対位置を求める。
 変形例3によれば、人が音出力装置2を持って音出力装置2の位置を変え、かつ人が音声を発しない場合でも、音出力装置2は、自装置と室内ユニット4との相対位置を正しい相対位置の情報に更新することができる。
 また、変形例3において、分析手段32は、赤外線センサ11が検出する温度分布の情報から、室内において人Mが移動したと判定すると、アラーム44を動作させてもよい。さらに、冷凍サイクル制御手段31は、室内ユニット4を基準とした人の方向が変化した情報を分析手段32から受け取ると、人の方向が変化した後の室内状態情報を音出力装置2に送信手段を介して送信させてもよい。
 判定手段121は、マイク24a~24dが収集した音の情報に基づいてアラーム44が動作したと判定し、受信手段22を介して室内ユニット4から室内状態情報を受信すると、室内で人Mが移動したと判定する。そして、判定手段121は、受信した室内状態情報を用いて人の方向を再判定する。この場合、音出力装置2は、人が音声を発しない状態で室内を移動しても、移動後の人の方向をより正しく判定できる。
 本実施の形態1の電気機器システム1は、空気調和機3と、音出力装置2とを有する。空気調和機3は、室内ユニット4と、室内ユニット4に設けられ、室内の温度分布を検出する赤外線センサ11と、温度分布に基づいて室内における人の有無および室内ユニット4を基準として人の方向を求める分析手段32と、送信手段12とを有する。送信手段12は、分析手段32によって求められた、人の有無および人の方向の情報を含む室内状態情報を音出力装置2に送信する。
 音出力装置2は、周囲の音を収集する複数のマイク24a~24dと、音を出力するスピーカと、複数のマイク24a~24dが収集した音の情報を用いて、基準位置に対する音の発生源の方向を判定するコントローラ21と、受信手段22とを有する。受信手段22は、室内の人の有無および室内ユニットを基準とした人の方向の情報を含む室内状態情報を空気調和機3から受信する。コントローラ21は、判定手段121と、音出力制御手段122とを有する。判定手段121は、複数のマイク24a~24dが収集した音の情報によって判定した発生源の方向の情報に室内状態情報を組み合わせて、基準位置に対する人の方向を判定する。音出力制御手段122は、判定手段121によって判定された、人の方向の情報を用いてスピーカの音の出力を制御する。
 本実施の形態1によれば、音出力装置2が、室内に居る人の方向を空気調和機3で検出された情報を用いてより精度よく判定できるため、人の位置に最適な音出力制御および出力特性の補正制御を行うことができる。その結果、人は室内のどの位置にいても、スピーカの音が聞き取りやすくなる。音楽の再生であれば、人は音楽の臨場感を味わうことができる。
 なお、本実施の形態1では、空気調和機3が、室内の人の有無など人の検知情報および機器の運転状態情報を音出力装置2に提供する場合で説明したが、これらの情報を音出力装置2に提供する電気機器は空気調和機3に限らない。
(変形例4)
 変形例4は、電気機器が調理器の場合である。変形例4では、調理器が人の検知情報および運転状態情報を音出力装置2に提供する。図16は、変形例4に係る電気機器システムの一構成例を示す上面図である。図17は、図16に示す調理器の一構成例を示すブロック図である。図18は、図16に示す電気機器システムの一構成例を示す側面図である。図19は、図16に示す電気機器システムの一構成例を示す斜視図である。
 図16に示すように、電気機器システムは、調理器70と、音出力装置2とを有する。図16では、音出力装置2はキッチン台71の上に置かれている。調理器70は、例えば、IH(Induction Heating)クッキングヒータである。図18に示すように、調理器70には、安全装置として、調理器70が設置されている室内の人の有無および人の方向を検出する赤外線センサ11aが設けられている。図17に示すように、調理器70は、複数の誘導加熱コイル74a~74cと、誘導加熱コイル74a~74cを制御するコントローラ75と、人Mが指示を入力するための操作部77と、送信手段12dとを有する。コントローラ75は、例えば、マイクロコンピュータである。コントローラ75は、赤外線センサ11aの検出結果に基づいて、室内における人の有無および調理器70を基準として人の方向を求める分析手段32aを有する。送信手段12dは、分析手段32aによって求められた、人の有無および人の方向の情報を含む室内状態情報を音出力装置2に送信する。
 図16に示す角度θhkは、赤外線センサ11aが人Mを検出する水平方向の範囲を示す。人Mが調理器70に近い位置に居る場合に限らず、破線の丸印で示す位置に人Mkが居る場合でも、赤外線センサ11aは人Mkを検出する。図18の側面図では、赤外線センサ11aによって人Mが検出される範囲が2つの破線で挟まれる範囲であることを示している。図19の斜視図では、赤外線センサ11aによる検出角度θhkに対応する検出範囲が破線で示す2つの矩形の間であることを示す。
 調理器70は、赤外線センサ11aが人Mおよび調理器70を基準とした人Mの方向を検出すると、室内状態情報を音出力装置2に送信する。音出力装置2は、マイク24a~24dが収集した音の情報による人Mの音声の発生源の方向の情報に、調理器70から取得した室内状態情報を組み合わせて、基準位置に対する人Mの方向を判定する。そして、音出力装置2は、判定された人Mの方向の情報を用いてスピーカ25および26の音の出力を制御する。
 また、調理器70は、人の検知情報と、調理状態等の運転状態情報を音出力装置2に提供する。音出力装置2は、調理状態による鍋の沸騰音およびフライパンでの炒め物の音などの音と運転状態情報とを照合することで、調理状態によって生じる音の特性を把握し、スピーカの音出力信号の補正に追加する。変形例4は、調理する人がキッチン周辺に音出力装置2を設置して調理中に音楽を聴いたり、調理レシピを音声指示で音出力装置2に応答させたりする場合の音出力制御に有効である。
(変形例5)
 変形例5は、電気機器が換気扇の場合である。変形例5では、換気扇が人の検知情報および運転状態情報を音出力装置2に提供する。図20は、変形例5に係る電気機器システムの一構成例を示す上面図である。図21は、図20に示す換気扇の一構成例を示すブロック図である。図22は、図20に示す電気機器システムの一構成例を示す側面図である。図23は、図20に示す電気機器システムの一構成例を示す斜視図である。
 図20に示すように、電気機器システムは、換気扇80と、音出力装置2とを有する。図20では、音出力装置2はキッチン台71の上に置かれている。図22に示すように、換気扇80には、換気扇80が設置されている室内の人の有無および人の方向を検出する赤外線センサ11bが設けられている。図21に示すように、換気扇80は、ファン84と、ファン84を制御するコントローラ85と、人Mが指示を入力するための操作部87と、送信手段12bとを有する。コントローラ85は、例えば、マイクロコンピュータである。コントローラ85は、赤外線センサ11bの検出結果に基づいて、室内における人の有無および換気扇80を基準として人の方向を求める分析手段32bを有する。送信手段12bは、分析手段32bによって求められた、人の有無および人の方向の情報を含む室内状態情報を音出力装置2に送信する。
 図20に示す角度θhrは、赤外線センサ11bが人Mを検出する水平方向の範囲を示す。人Mが換気扇80に近い位置に居る場合に限らず、破線の丸印で示す位置に人Mkが居る場合でも、赤外線センサ11bは人Mkを検出する。図22の側面図では、赤外線センサ11bによって人Mが検出される垂直方向の角度θvrの範囲が2つの破線で挟まれる範囲であることを示している。図23の斜視図では、赤外線センサ11aによる検出角度θhrに対応する検出範囲が破線で示す2つの矩形の間であることを示す。
 換気扇80は、赤外線センサ11bが人Mおよび換気扇80を基準とした人Mの方向を検出すると、室内状態情報を音出力装置2に送信する。音出力装置2は、マイク24a~24dが収集した音の情報による人Mの音声の発生源の方向の情報に、換気扇80から取得した室内状態情報を組み合わせて、基準位置に対する人Mの方向を判定する。そして、音出力装置2は、判定された人Mの方向の情報を用いてスピーカ25および26の音の出力を制御する。
 また、換気扇80は、人の検知情報と、ファン84の回転数を示す送風状態を含む運転状態情報とを音出力装置2に提供する。音出力装置2は、換気扇80の送風音と運転状態情報とを照合することで、送風状態によって生じる音の特性を把握し、スピーカ25および26の音出力信号の補正に追加する。変形例5は、調理する人がキッチン周辺に音出力装置2を設置して換気扇80を動作させた状態で音楽を聴いたり、調理レシピを音声指示で音出力装置2に応答させたりする場合の音出力制御に有効である。
(変形例6)
 変形例6は、電気機器がテレビの場合である。変形例6では、テレビが人の検知情報および運転状態情報を音出力装置2に提供する。図24は、変形例6に係る電気機器システムの一構成例を示す上面図である。図25は、図24に示すテレビの一構成例を示すブロック図である。図26は、図24に示す電気機器システムの一構成例を示す側面図である。図27は、図24に示す電気機器システムの一構成例を示す斜視図である。
 図24に示すように、電気機器システムは、テレビ90と、音出力装置2とを有する。図24では、テレビ90はテレビ台91の上に置かれ、音出力装置2はテーブル92の上に置かれている。図26に示すように、テレビ90には、テレビ90が設置されている室内の人の有無および人の方向を検出する赤外線センサ11cが設けられている。図25に示すように、テレビ90は、図に示さないアンテナを介して電波を受信する受信手段93と、音を出力するスピーカ96と、画像を表示する表示部94と、人Mが指示を入力するための操作部97と、コントローラ95と、送信手段12cとを有する。コントローラ95は、例えば、マイクロコンピュータである。コントローラ95は、電波から音声データおよび画像データを抽出し、音声データをスピーカ96に出力し、画像データを表示部94に出力する。また、コントローラ95は、操作部97を介して入力される人Mによる指示にしたがって、音声データを、スピーカ96の代わりに、送信手段12cに出力してもよい。送信手段12cは、音声データを音出力装置2に送信する。
 さらに、コントローラ95は、赤外線センサ11cの検出結果に基づいて、室内における人の有無およびテレビ90を基準として人の方向を求める分析手段32cを有する。送信手段12cは、分析手段32cによって求められた、人の有無および人の方向の情報を含む室内状態情報を音出力装置2に送信する。
 図24に示す角度θhtは、赤外線センサ11cが人Mを検出する水平方向の範囲を示す。図26の側面図では、赤外線センサ11cによって人Mが検出される水平方向の角度θhtの範囲が2つの破線で挟まれる範囲であることを示している。図26の側面図では、赤外線センサ11cによって人Mが検出される範囲が2つの破線で挟まれる範囲であることを示している。図27の斜視図では、赤外線センサ11cによる検出角度θhtに対応する検出範囲が破線で示す2つの矩形の間であることを示す。
 テレビ90は、赤外線センサ11cが人Mおよびテレビ90を基準とした人Mの方向を検出すると、室内状態情報を音出力装置2に送信する。音出力装置2は、マイク24a~24dが収集した音の情報による人Mの音声の発生源の方向の情報に、テレビ90から取得した室内状態情報を組み合わせて、基準位置に対する人Mの方向を判定する。そして、音出力装置2は、判定された人Mの方向の情報を用いてスピーカ25および26の音の出力を制御する。変形例6は、テレビ90で放映される番組を視聴する人Mが、スピーカ96の代わりに、音出力装置2のスピーカ25および26に番組で流れる音を出力させる場合に有効である。人Mは、赤外線センサ11cの検出範囲内であれば、どこに移動しても、番組で流れる音が聞き取りやすい。
 また、テレビ90は、人の検知情報と、スピーカ96から出力される音の音圧および周波数特性を含む運転状態情報とを音出力装置2に提供する。音出力装置2は、テレビ90から検知する音と運転転状態情報とを照合することで、テレビ90から出力される音の特性を把握し、音出力信号の補正に追加する。変形例6は、テレビ90で放映される番組を視聴する人Mが音声指示で音出力装置2に応答させる場合の音出力制御に有効である。
実施の形態2.
 本実施の形態2は、音出力装置2が周囲の音から判定した情報を空気調和機3に送信し、空気調和機3が、音出力装置2から受け取る情報を空気調和の制御に用いるものである。本実施の形態2も電気機器が空気調和機の場合である。本実施の形態2では、実施の形態1で説明した構成と同一の構成について同一の符号を付し、その詳細な説明を省略する。
 本実施の形態2の電気機器システムの構成を説明する。図28は、実施の形態2の空気調和機の制御装置の一構成例を示す機能ブロック図である。図29は、実施の形態2の音出力装置のコントローラの一構成例を示す機能ブロック図である。
 本実施の形態2の空気調和機3の室内ユニット4には、図4に示した送信手段12の代わりに図28に示す通信手段12aが設けられている。通信手段12aは、音出力装置2と情報を近距離無線通信で送受信する。本実施の形態2の音出力装置2には、図9に示した受信手段22の代わりに図29に示す通信手段22aが設けられている。通信手段22aは、室内ユニット4の通信手段12aと情報を近距離無線通信で送受信する。
 次に、本実施の形態2の音出力装置2の動作を説明する。図30は、実施の形態2の音出力装置の動作手順の一例を示すフローチャートである。図31は、図30に示すステップS203の処理の一例を示す図である。図32は、図30に示すステップS204の処理の一例を示す図である。図33は、図30に示すステップS205の処理の一例を示す図である。
 マイク24a~24dは周囲の音の騒音レベルを計測する(ステップS201)。判定手段121は、周囲の音の騒音レベルが30dB以上か否かを判定する(ステップS202)。周囲の音の騒音レベルが30dBより小さい場合、判定手段121は処理を終了する。一方、周囲の音の騒音レベルが30dB以上である場合、判定手段121は、周囲の騒音の周波数を分析する(ステップS203)。図31に示すように、判定手段121は、横軸を周波数とし、縦軸を音圧レベルとしてグラフを作成する。さらに、判定手段121は、騒音のうち、音圧レベルが特に高い周波数帯を判定する(ステップS204)。図32に示すように、判定手段121は、図31に示したグラフにおいて、音圧レベルが特に高い周波数帯を判定する。例えば、音圧レベルが高いか否かを判定する閾値が決められている。この閾値はメモリ65に記憶されている。
 判定手段121は、判定した周波数帯を音出力制御手段122に通知する。音出力制御手段122は、判定手段121によって判定された周波数帯について、出力対象の音データの同じ周波数帯を増幅する補正を行う(ステップS205)。図33には、増幅される音圧レベルの一例を示す。そして、音出力制御手段122は、補正した音データの音をスピーカ25および26に出力させる(ステップS206)。
 このようにして、判定手段121が周囲の騒音の周波数を分析し、音出力制御手段122は、分析された周波数に対応してスピーカ25および26から出力される音の波形を補正する。この補正により、例えば、騒音で減衰する周波数帯が増幅される。そのため、周囲に騒音があっても、室内に居る人は、スピーカ25および26から出力される音が聞き取りやすくなる。
 また、判定手段121は、騒音の発生原因の情報を記憶するサーバ(不図示)とネットワーク通信手段23を介して通信してもよい。騒音の発生原因の情報とは、例えば、室内ファン42の送風音、室内に設置された換気扇(不図示)の送風音、調理台(不図示)で加熱されている鍋の沸騰音などである。判定手段121は、サーバ(不図示)が記憶する情報を参照して、騒音の発生原因を特定し、決められた補正制御の複数のパターンから発生原因に対応するパターンを選択し、選択したパターンを音出力制御手段122に通知する。補正制御の複数のパターンは、メモリ65が記憶してもよく、サーバ(不図示)が記憶していてもよい。
 この場合、騒音の発生原因を特定精度が向上するだけでなく、補正制御が複数のパターンから1つのパターンを選択すればよいので、分析処理および音出力制御処理の時間を短縮することができる。簡便、かつ低コストで音の周波数を制御し、人が感じる音質を改善することができる。
 このようにして、室内に居る人は、周囲の騒音によらず、聞き取りやすく快適な音で音楽を楽しみ、情報を音出力装置2から取得できる。
 また、音出力装置2は、室内に居る人Mの声の周波数から人Mの性別および年齢を含む属性を判定し、判定した属性を音出力制御に反映させてもよい。具体的には、図30に示したステップS203で、判定手段121は、室内に居る人Mの声の周波数から属性を判定する。ステップS205において、音出力制御手段122は、判定手段121によって判定された属性に対応して、出力対象の音データの周波数帯を補正する。例えば、室内に居る人が高齢者である場合、音出力制御手段122は、音データについて、高齢者に聞き取りやすいように、決められた閾値より高い周波数の音圧レベルを高くする。
 このようにして、室内に居る人の属性に合わせた音出力を行うことで、例えば、加齢による聴力の低下に対応した周波数の調整などを行うことができる。
 さらに、音出力装置2は、室内に居る人Mの声の周波数から判定した属性の情報を含む属性情報を空気調和機3に送信してもよい。冷凍サイクル制御手段31は、音出力装置2から属性情報を受信すると、属性情報を空気調和機3の運転の制御に反映させることができる。例えば、子供は大人に比べて体感温度が高い傾向があるため、冷凍サイクル制御手段31は、冷房運転の際、室内に居る人が子供である場合、風向調整手段43を制御して風向が人に向くようにする。また、高齢者は身体を冷やさない方がよいため、冷凍サイクル制御手段31は、冷房運転の際、室内に居る人が高齢者である場合、風向調整手段43を制御して風向が人に向かないようにする。
 このようにして、音出力装置2で判定された属性情報を空気調和の制御に反映させることで、室内に居る人の環境の快適性が向上する。
 1 電気機器システム、2 音出力装置、2a 筐体、3 空気調和機、4 室内ユニット、5 室外ユニット、6 冷媒配管、7 基地局、8 冷媒回路、10 制御装置、11、11a~11c 赤外線センサ、12、12b~12d 送信手段、12a 通信手段、13 メモリ、14 CPU、21 コントローラ、22 受信手段、22a 通信手段、23 ネットワーク通信手段、24a~24d マイク、25、26 スピーカ、31 冷凍サイクル制御手段、32、32a~32c 分析手段、41 負荷側熱交換器、42 室内ファン、43 風向調整手段、44 アラーム、51 圧縮機、52 四方弁、53 熱源側熱交換器、54 膨張弁、55 室外ファン、61 室温センサ、62 外気温度センサ、65 メモリ、66 CPU、70 調理器、71 キッチン台、74a~74c 誘導加熱コイル、75 コントローラ、77 操作部、80 換気扇、84 ファン、85 コントローラ、87 操作部、90 テレビ、91 テレビ台、92 テーブル、93 受信手段、94 表示部、95 コントローラ、96 スピーカ、97 操作部、121 判定手段、122 音出力制御手段。

Claims (14)

  1.  室内の人の有無および電気機器を基準とした人の方向の情報を含む室内状態情報を送信する前記電気機器と、
     周囲の音を収集する複数のマイクと、音を出力するスピーカと、前記室内状態情報を前記電気機器から受信する受信手段と、前記複数のマイクが収集した音の情報を用いて、基準位置に対する音の発生源の方向を判定するコントローラとを有する音出力装置と、を有し、
     前記コントローラは、
     前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する判定手段と、
     前記判定手段によって判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する音出力制御手段と、を有する、
     電気機器システム。
  2.  前記電気機器は、前記電気機器の運転状態を示す運転状態情報を前記音出力装置に送信し、
     前記音出力制御手段は、前記運転状態情報を、前記人の方向の情報を前記スピーカから出力される音の信号である音出力信号の制御に反映させる、請求項1に記載の電気機器システム。
  3.  前記判定手段は、
     前記複数のマイクが収集した音の情報によって判定される前記人の方向と、前記電気機器から取得した前記室内状態情報に含まれる前記人の方向の情報とを用いて、前記電気機器と前記音出力装置との相対位置を求める、請求項1または2に記載の電気機器システム。
  4.  前記電気機器は、空気調和機の室内ユニットであり、
     冷媒が室内の空気と熱交換する負荷側熱交換器と、
     前記負荷側熱交換器で前記冷媒と熱交換した後の空気を室内に送り出す室内ファンと、を有し、
     前記音出力制御手段は、前記電気機器の運転状態を示す運転状態情報が前記室内ファンの回転数の変化である場合、前記回転数が変化した後の音の周波数帯の音圧レベルを上げる、請求項3に記載の電気機器システム。
  5.  前記電気機器は、空気調和機の室内ユニットであり、
     冷媒が室内の空気と熱交換する負荷側熱交換器と、
     前記負荷側熱交換器で前記冷媒と熱交換した後の空気を室内に送り出す室内ファンと、を有し、
     前記空気調和機は、前記室内ファンの回転数を変化させる制御装置を有し、
     前記判定手段は、
     前記室内ファンの回転数の変化に対して前記複数のマイクが収集した前記音の情報を用いて、前記室内ユニットと前記音出力装置との相対位置を求める、請求項1に記載の電気機器システム。
  6.  前記電気機器は、空気調和機の室内ユニットであり、
     冷媒が室内の空気と熱交換する負荷側熱交換器と、
     前記負荷側熱交換器で前記冷媒と熱交換した後の空気を室内に送り出す室内ファンと、
     空気吹出口に設けられ、前記室内ファンが室内に送る空気の風向を調整する風向調整手段と、を有し、
     前記空気調和機は、前記風向調整手段を制御して前記風向を変える制御装置を有し、
     前記判定手段は、
     前記風向の変化に対して前記複数のマイクが収集した前記音の情報を用いて、前記室内ユニットと前記音出力装置との相対位置を求める、請求項1に記載の電気機器システム。
  7.  前記電気機器は、決められた周波数の音を出力するアラームと、前記アラームを動作させる制御装置とを有し、
     前記判定手段は、
     前記アラームの動作に対して前記複数のマイクが収集した前記音の情報を用いて、前記電気機器と前記音出力装置との相対位置を求める、請求項1に記載の電気機器システム。
  8.  前記制御装置は、前記電気機器を基準とした人の方向が変化すると、前記人の方向が変化した後の前記室内状態情報を前記音出力装置に送信するとともに、前記アラームを動作させ、
     前記判定手段は、
     前記複数のマイクが収集した前記音の情報に基づいて前記アラームが動作したと判定すると、前記電気機器から受信する前記室内状態情報を用いて、前記人の方向を再判定する、請求項7に記載の電気機器システム。
  9.  前記音出力装置は、前記電気機器に情報を送信する通信手段を有し、
     前記判定手段は、
     前記複数のマイクが収集した前記音の情報に基づいて人の属性を判定し、判定した前記属性を含む属性情報を、前記通信手段を介して前記電気機器に送信し、
     前記制御装置は、
     前記音出力装置から受信する前記属性情報を前記電気機器の運転の制御に反映させる、請求項5~8のいずれか1項に記載の電気機器システム。
  10.  周囲の音を収集する複数のマイクと、
     音を出力するスピーカと、
     前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定するコントローラと、
     室内の人の有無および電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信する受信手段と、を有し、
     前記コントローラは、
     前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する判定手段と、
     前記判定手段によって判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する音出力制御手段と、を有する、
     音出力装置。
  11.  前記音出力制御手段は、
     前記電気機器の運転状態を示す運転状態情報を前記電気機器から受信すると、前記運転状態情報を、前記人の方向の情報を前記スピーカから出力される音の信号である音出力信号の制御に反映させる、請求項10に記載の音出力装置。
  12.  音を出力する音出力装置と通信する電気機器であって、
     室内における人の有無および人の方向を検出する赤外線センサと、
     前記赤外線センサの検出結果に基づいて、前記室内における人の有無および前記電気機器を基準として人の方向を求める分析手段と、
     前記分析手段によって求められた前記人の有無および前記人の方向の情報を含む室内状態情報を前記音出力装置に送信する送信手段と、を有する、
     電気機器。
  13.  周囲の音を収集する複数のマイクと、音を出力するスピーカと、電気機器から情報を受信する受信手段とを有する音出力装置による音出力方法であって、
     前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定し、
     室内の人の有無および前記電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信し、
     前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定し、
     判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する、
     音出力方法。
  14.  周囲の音を収集する複数のマイクと、音を出力するスピーカと、電気機器から情報を受信する受信手段とを有する情報処理装置に、
     前記複数のマイクが収集した音の情報を用いて、基準位置から音の発生源の方向を判定する手段と、
     室内の人の有無および前記電気機器を基準とした人の方向の情報を含む室内状態情報を前記電気機器から受信する手段と、
     前記複数のマイクが収集した音の情報による前記発生源の方向の情報に、前記電気機器から取得した前記室内状態情報を組み合わせて、前記基準位置に対する人の方向を判定する手段と、
     判定された前記人の方向の情報を用いて前記スピーカの音の出力を制御する手段を実行させるためのプログラム。
PCT/JP2019/032935 2019-08-23 2019-08-23 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム WO2021038613A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021541751A JP7278390B2 (ja) 2019-08-23 2019-08-23 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム
PCT/JP2019/032935 WO2021038613A1 (ja) 2019-08-23 2019-08-23 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032935 WO2021038613A1 (ja) 2019-08-23 2019-08-23 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2021038613A1 true WO2021038613A1 (ja) 2021-03-04

Family

ID=74685017

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032935 WO2021038613A1 (ja) 2019-08-23 2019-08-23 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム

Country Status (2)

Country Link
JP (1) JP7278390B2 (ja)
WO (1) WO2021038613A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120459A (ja) * 2002-09-27 2004-04-15 Mitsubishi Electric Corp 音声出力装置
JP2007285560A (ja) * 2006-04-14 2007-11-01 Matsushita Electric Ind Co Ltd 空気調和機および空気調和機用コントローラ
JP2010011269A (ja) * 2008-06-30 2010-01-14 Yamaha Corp スピーカアレイ装置
WO2019069743A1 (ja) * 2017-10-03 2019-04-11 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、及び、オーディオシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257608B2 (en) 2016-09-23 2019-04-09 Apple Inc. Subwoofer with multi-lobe magnet

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120459A (ja) * 2002-09-27 2004-04-15 Mitsubishi Electric Corp 音声出力装置
JP2007285560A (ja) * 2006-04-14 2007-11-01 Matsushita Electric Ind Co Ltd 空気調和機および空気調和機用コントローラ
JP2010011269A (ja) * 2008-06-30 2010-01-14 Yamaha Corp スピーカアレイ装置
WO2019069743A1 (ja) * 2017-10-03 2019-04-11 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ、超音波スピーカ、及び、オーディオシステム

Also Published As

Publication number Publication date
JPWO2021038613A1 (ja) 2021-03-04
JP7278390B2 (ja) 2023-05-19

Similar Documents

Publication Publication Date Title
US9779734B2 (en) Speech recognition system and method for recognizing a command to control a target
CN114909780B (zh) 控制系统
JP2018532168A (ja) 建物内部における器械および他のオブジェクトをポインティング、アクセス、および制御するための直観的方法
JP4867836B2 (ja) 空調システム及び電磁波等発振等装置位置特定システム
WO2020052167A1 (zh) 空调吹风广角确定方法、装置以及空调
JP6775908B2 (ja) 人位置検知装置、人位置検知システム、人位置検知方法及びプログラム
WO2013179202A2 (en) Environmental parameter determination device and method using acoustics
CN110594943B (zh) 一种基于声源定位控制空调的方法及系统
CN110072177B (zh) 空间划分信息获取方法、装置及存储介质
JPWO2017183083A1 (ja) 空気調和システム
JP6355761B2 (ja) 状態検知システム、空調制御システム、及び、状態検知方法
JP6461713B2 (ja) 機器連動システムおよび機器
CN112185373A (zh) 一种控制智能家居设备的方法、装置和音响
WO2021038613A1 (ja) 電気機器システム、音出力装置、電気機器、音出力方法およびプログラム
JP7049167B2 (ja) 空気調和機
US10616684B2 (en) Environmental sensing for a unique portable speaker listening experience
JP5459151B2 (ja) 空気調和機
WO2020170289A1 (ja) 空気調和装置
JP2019074400A (ja) 位置推定装置、空調システム、位置推定方法及びプログラム
KR20170029316A (ko) 공기 조화기들을 연동시키는 이동통신 단말과 그 제어 방법
JP2016122876A (ja) 表示装置、表示システム、空気調和装置、照明装置、及び表示装置制御プログラム
WO2019097625A1 (ja) 室内機および空気調和機
JP7063716B2 (ja) 空調制御装置、空調制御システム、空調制御方法、及びプログラム
JP6658209B2 (ja) 空気調和機
WO2021223402A1 (zh) 一种空调控制方法、空调内机、遥控器及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19942654

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021541751

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19942654

Country of ref document: EP

Kind code of ref document: A1