WO2023013094A1 - 管理装置、管理システム、管理方法、及び、プログラム - Google Patents

管理装置、管理システム、管理方法、及び、プログラム Download PDF

Info

Publication number
WO2023013094A1
WO2023013094A1 PCT/JP2021/048132 JP2021048132W WO2023013094A1 WO 2023013094 A1 WO2023013094 A1 WO 2023013094A1 JP 2021048132 W JP2021048132 W JP 2021048132W WO 2023013094 A1 WO2023013094 A1 WO 2023013094A1
Authority
WO
WIPO (PCT)
Prior art keywords
speech
information
utterance
display
histories
Prior art date
Application number
PCT/JP2021/048132
Other languages
English (en)
French (fr)
Inventor
和宏 黒山
洋一 池田
由暉 大橋
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP21926056.9A priority Critical patent/EP4383746A1/en
Priority to JP2022554848A priority patent/JP7474967B2/ja
Priority to CN202180020365.9A priority patent/CN115943622A/zh
Priority to US17/908,851 priority patent/US20230230573A1/en
Publication of WO2023013094A1 publication Critical patent/WO2023013094A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts

Definitions

  • the present disclosure relates to a management device, management system, management method, and program for managing speech history.
  • a home appliance to be controlled communicates with a terminal device carried by a user, sequentially receives position information indicating the current position, and operates based on operation information, setting information, and movement history information.
  • a terminal device carried by a user
  • Disclosed is an apparatus that determines a control position before returning home for an appliance, and controls a target home appliance according to setting information when the current position of the user returning home reaches the control position before returning home based on the position information.
  • the device disclosed in Patent Document 1 displays the operation performed by the user on a plurality of electronic devices such as home appliances and the state of the electronic devices.
  • the display device notifies the user of an utterance history indicating the content of the utterance made by the device using an image or the like.
  • the display device it may be difficult for the user to check the speech history that the user wants to check when there are many speech histories. Therefore, when displaying the utterance history in this way, it is desired that the display be easy for the user to see.
  • the present disclosure provides a management device and the like that allows users to easily view the speech history.
  • a management device includes an extraction unit that extracts one or more speech histories based on a predetermined condition from among a plurality of speech histories each indicating the content of a speech output by a first device; a display control unit that causes the second device to display display information indicating the one or more speech histories.
  • a management system includes the management device, the first device, and the second device.
  • a management method includes an extracting step of extracting one or more speech histories based on a predetermined condition from among a plurality of speech histories each indicating the content of the speech output by the first device. and a display control step of causing the second device to display display information indicating the one or more speech histories.
  • a program according to one aspect of the present disclosure is a program for causing a computer to execute the management method.
  • FIG. 1 is a block diagram showing the configuration of a management system according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of an interest database according to the embodiment;
  • FIG. 3 is a diagram showing a first example of display information displayed by the display device according to the embodiment.
  • FIG. 4 is a diagram showing a second example of display information displayed by the display device according to the embodiment.
  • FIG. 5 is a diagram showing an example of display information displayed by the speech device according to the embodiment.
  • FIG. 6 is a diagram showing a third example of display information displayed by the display device according to the embodiment.
  • FIG. 7 is a flowchart of a processing procedure of the management device according to the embodiment;
  • each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same code
  • FIG. 1 is a block diagram showing the functional configuration of a management system 300 according to an embodiment.
  • the management system 300 includes information indicating that the state of processing (operation) has changed, information notifying of failure, information for prompting the user to replace parts such as filters, and information that the information source device 200
  • information such as information for notifying the user of a function (recommendation notification) is output, the system notifies (outputs) the information to the user by voice (in other words, utters the information).
  • the management system 300 includes an information source device 200 , a speaking device 210 , a display device 220 and a management device 100 .
  • the information source device 200 is a device capable of outputting the above-described information regarding the information source device 200.
  • the information source device 200 includes identification information that is a unique identifier that indicates the information source device 200, performance information that indicates the performance (specifications) of the information source device 200, processing content that has been processed (operated), and failure information.
  • the device information including the state information indicating the state of the information source device 200 such as is transmitted to the management device 100 .
  • the information source device 200 includes, for example, a communication interface for communicating with the management apparatus 100, an execution unit for executing processing such as refrigeration, washing, or heating, and a sensor for detecting the state of the information source device 200. and a control unit realized by a processor and memory for controlling various processes of the information source device 200 .
  • the communication interface is implemented by a connector or the like to which a communication line is connected.
  • the information source device 200 is, for example, a refrigerator, a washing machine, a microwave oven, a lighting device, or an electrical appliance (also called a home appliance) such as a door phone.
  • the information source device 200 is an example of a third device.
  • the utterance device 210 is a device equipped with a component capable of outputting voice, such as a speaker. For example, when voice information is received from the management device 100, the utterance device 210 outputs voice based on the received voice information.
  • the utterance device 210 includes, for example, a speaker, an amplifier, a memory storing a control program for outputting sound from the speaker based on the audio information received from the management device 100, a processor that executes the control program, and a management device.
  • a communication interface for communicating with 100 is provided.
  • the communication interface is realized by a connector or the like to which a communication line is connected, and when the communication device 210 and the management device 100 communicate by radio, it is realized by an antenna, a radio communication circuit, or the like.
  • the utterance device 210 is, for example, an electric appliance such as an air conditioner (air conditioner), a television (TV/Television), or an autonomous cleaner (a so-called robot cleaner).
  • the utterance device 210 may be any device capable of outputting voice, and may be a terminal device such as a smart phone or a mobile phone, for example.
  • the utterance device 210 is an example of the first device.
  • the two information source devices 200 and the two utterance devices 210 are placed inside the house where the user lives.
  • the management apparatus 100 is arranged outside the house, for example.
  • the display device 220 is a device that displays display information indicating the speech history.
  • the display device 220 displays one or more speech histories by, for example, receiving display information from the management device 100 and displaying the received display information.
  • the display device 220 includes, for example, a display, a memory that stores a control program for displaying display information indicating the speech history received from the management device 100 on the display, a processor that executes the control program, and communication with the management device 100. It has a communication interface for For example, when the display device 220 communicates with the management apparatus 100 by wire, the communication interface is realized by a connector or the like to which a communication line is connected.
  • the display device 220 is realized by, for example, a personal computer, a tablet terminal, or a smart phone. In this embodiment, the display device 220 is a smart phone.
  • the display device 220 may be any device capable of displaying display information, and may be, for example, a device having a display such as a television.
  • the display device 220 is an example of a second device.
  • the number of information source devices 200 included in the management system 300 may be one, three or more, and is not particularly limited.
  • the number of utterance devices 210 included in the management system 300 may be one, three or more, and is not particularly limited.
  • the number of display devices 220 provided in the management system 300 may be plural.
  • the management device 100 is a device that, based on information such as device information received from the information source device 200, causes the utterance device 210 to output a voice related to the information. For example, when receiving state information from the information source device 200 , the management device 100 selects voice information corresponding to the state information stored in the storage unit 170 and transmits the selected voice information to the utterance device 210 . As a result, speech based on the speech information is output from the speech device 210 .
  • the management device 100 is communicably connected to each of the information source device 200, the utterance device 210, and the display device 220 via a network such as the Internet.
  • management device 100 the information source device 200, the utterance device 210, and the display device 220 may be connected so as to be capable of wired communication, or may be connected so as to be capable of wireless communication.
  • the communication standards used for communication between the management device 100 and each of the information source device 200, the utterance device 210, and the display device 220 are not particularly limited.
  • Examples of communication standards include Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), and the like.
  • the management device 100 includes, for example, a communication interface for communicating with the information source device 200, the utterance device 210, and the display device 220, a nonvolatile memory storing a program, and a temporary storage for executing the program. It is implemented by a computer including a volatile memory that is an area, an input/output port for sending and receiving signals, and a processor that executes a program.
  • the management device 100 is, for example, a server device installed in a building of a company or the like instead of a house where the information source device 200 is installed.
  • the management device 100 includes a communication unit 110, an acquisition unit 120, a voice control unit 130, an estimation unit 140, an extraction unit 150, a display control unit 160, and a storage unit 170.
  • Storage unit 170 includes state information storage unit 171 , speech history storage unit 172 , and interest DB storage unit 173 .
  • the communication unit 110 is a communication interface for communicating with the information source device 200, the utterance device 210, and the display device 220.
  • the communication unit 110 is realized by a connector or the like to which a communication line is connected. It is realized by
  • the acquisition unit 120 is a processing unit that acquires device information including identification information of the information source device 200, performance information of the information source device 200, status information of the information source device 200, and the like.
  • the acquisition unit 120 acquires device information by communicating with the information source device 200 via the communication unit 110, for example.
  • the acquisition unit 120 may acquire device information via the reception device.
  • the acquisition unit 120 stores the acquired device information in the storage unit 170 and outputs it to the audio control unit 130 .
  • the acquisition unit 120 stores, for example, state information included in the acquired device information in the state information storage unit 171 .
  • the voice control unit 130 is a processing unit that causes the first device (the utterance device 210 in this embodiment) to output voice. Specifically, voice control unit 130 communicates with utterance device 210 via communication unit 110 to cause utterance device 210 to output voice. For example, the voice control unit 130 causes the voice device 210 to output voice by transmitting voice information to the voice device 210 via the communication unit 110 .
  • the audio information is information indicating the audio to be output by the utterance device 210 .
  • the voice control unit 130 determines the content of voice to be output by the utterance device 210 based on information such as the device information acquired by the acquisition unit 120, and transmits voice information indicating the determined content to the utterance device 210. .
  • the audio information includes audio data of a sentence (speech sentence) indicating that the information source device 200 has started operation, audio data of a sentence indicating that the information source device 200 has finished operating, Speech data of sentences indicating that they have been operated in cooperation, Speech data of sentences for urging the user to upgrade, Speech data of sentences for recommending the user to use the functions possessed by the information source device 200, and that the information source device 200 has failed.
  • Examples include audio data of sentences indicating .
  • the audio information is stored in the storage unit 170 in association with information such as device information, for example.
  • the voice control unit 130 selects voice information associated with the information acquired by the acquisition unit 120 and transmits the selected voice information to the utterance device 210 .
  • the voice information may be stored in the storage unit included in the utterance device 210.
  • the management device 100 may transmit the information acquired by the acquiring unit 120 to the utterance device 210, thereby causing the utterance device 210 to output a voice related to the information.
  • the voice control unit 130 may output voice from any one of the plurality of utterance devices 210, or output a voice from the plurality of utterance devices 210. Any two or more speech devices 210 out of 210 may output audio.
  • the speech control unit 130 causes the speech history storage unit 172 to store a plurality of speech histories each indicating the content of the speech output by the speech device 210 .
  • the utterance history is information indicating the content of the voice output by the utterance device 210 .
  • the utterance history is information including content information indicating the content of the voice output by the utterance device 210 .
  • the voice control unit 130 causes the utterance device 210 to utter "Laundry has started”
  • the content information is information indicating that the utterance device 210 has output "Laundry has started” by voice. is.
  • the voice control unit 130 stores content information, identification information indicating the utterance device 210 that has output the voice, and date and time information that indicates the date and time when the voice was output.
  • the speech history storage unit 172 stores the speech history (history information).
  • the estimation unit 140 is a processing unit that estimates the interests of the user using the third device based on the state information indicating the state of the third device (the information source device 200 in this embodiment).
  • the user's interest is, for example, matters related to cleaning of the information source device 200, cleanliness of the house where the information source device 200 is arranged, saving money, or the user's interests such as cooking or cleaning. , are matters that the user is particularly interested in when using the information source device 200 .
  • the estimating unit 140 identifies the usage status of the user of the information source device 200 based on the status information stored in the status information storage unit 171, and based on the specified usage status and the interest DB (Data Base) to estimate (determine) the user's interests.
  • the interest DB Data Base
  • the interest DB is a database (information) that indicates the correspondence between the usage status of the information source device 200 and the user's interests.
  • the interest DB is stored in advance in the interest DB storage unit 173, for example.
  • the interest DB indicates the correspondence between the usage status of the information source device 200, the user's interests, and the utterance history.
  • the extraction unit 150 is a processing unit that extracts one or more utterance histories based on a predetermined condition from among a plurality of utterance histories each indicating the content of the voice output by the first device. For example, the extraction unit 150 extracts one or more speech histories from the plurality of speech histories stored in the speech history storage unit 172 based on a predetermined condition.
  • the predetermined condition is, for example, the user's interests estimated by the estimation unit 140 .
  • the extraction unit 150 identifies one or more speech histories corresponding to the user's interests estimated by the estimation unit 140, and stores the identified one or more speech histories in the speech history storage unit 172. To extract from a plurality of stored utterance histories.
  • FIG. 2 is a diagram showing an example of an interest DB according to the embodiment. Specifically, FIG. 2 is a diagram schematically showing, in a table form, an interest DB in which the usage status of the user of the information source device 200 and the interests and utterance histories corresponding to the usage status are linked.
  • “Usage status” indicates the usage status of the user of the information source device 200 identified by the estimation unit 140 based on the status information stored in the status information storage unit 171 .
  • the washing machine which is an example of the information source device 200
  • uses the sterilization mode function at least once a week (“washing machine: sterilization mode used ⁇ once/week").
  • the estimation unit 140 estimates that the user is interested in the cleanliness of his surroundings, in other words, that the user's concern is "cleanliness of his surroundings.”
  • the extraction unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, speech histories considered to be correlated with the cleanliness of the surroundings, such as robot cleaner errors or garbage. (“robot cleaner (error/garbage)”) and the speech history about the air cleaner (“air cleaner”) are extracted.
  • the ventilation mode with sterilization function of the air conditioner which is an example of the information source device 200
  • air conditioner ventilation mode with sterilization function used ⁇ once/week
  • the estimation unit 140 estimates that the user's concern is "cleanliness around us”.
  • the extraction unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, speech histories considered to be correlated with the cleanliness of the surroundings, such as robot cleaner errors or garbage. (“robot cleaner (error/garbage)”) and the speech history about the air cleaner (“air cleaner”) are extracted.
  • the thorough cleaning mode function of the robot cleaner which is an example of the information source device 200, is used at a frequency of 30% or more of all the cleaning times of the robot cleaner ("robot cleaner : Thorough cleaning mode usage times / total cleaning times ⁇ 30%").
  • the estimation unit 140 estimates that the user's concern is "cleanliness around us”.
  • the extraction unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, speech histories considered to be correlated with the cleanliness of the surroundings, such as robot cleaner errors or garbage. (“robot cleaner (error/garbage)”) and the speech history about the air cleaner (“air cleaner”) are extracted.
  • the number of cleaning times of the robot cleaner which is an example of the information source device 200, is 10 times, and the frequency with which the acquisition unit 120 acquires the error information indicating that the dust is full as the status information is less than 1 time.
  • Robot vacuum cleaner full dust error frequency ⁇ 1 time/10 cleaning times”.
  • the estimation unit 140 estimates that the user's concern is "maintenance of home appliances”.
  • the extracting unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, an utterance history considered to be correlated with home appliance care, for example, an utterance about cleaning a washing machine. History (“washing machine (maintenance)”), speech history about the water tank of the refrigerator (“refrigerator (water supply)”), and speech history about the water tank of the air purifier (“air purifier (water supply)”) to extract
  • the estimation unit 140 estimates that the user's concern is "maintenance of home appliances".
  • the extracting unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, an utterance history considered to be correlated with home appliance care, for example, an utterance about cleaning a washing machine. History (“washing machine (maintenance)”), speech history about the water tank of the refrigerator (“refrigerator (water supply)”), and speech history about the water tank of the air purifier (“air purifier (water supply)”) to extract
  • the estimation unit 140 estimates that the user's concern is "saving”.
  • the extracting unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, speech histories considered to be correlated with saving, such as the user doing laundry again.
  • the estimation unit 140 estimates that the user's concern is "saving”. Further, in this case, for example, the extracting unit 150 extracts, from among the plurality of speech histories stored in the speech history storage unit 172, an utterance history considered to be correlated with saving, for example, an utterance notifying that laundry has been completed.
  • the history (“washing completed”) and the utterance history (“rice cooker forgetting to turn off heat retention”) notifying that the heat retention function of the rice cooker has been used for a predetermined time or longer are extracted.
  • the extraction unit 150 selects, among the plurality of speech histories stored in the speech history storage unit 172, the speech history that is considered to be correlated with the hard-to-see dirt, for example, lowers the temperature in the oven range. In order to suppress the propagation of germs, the utterance history related to the cooling inside the oven range ("cooling inside the oven range”) is extracted.
  • the estimation unit 140 estimates that the user's interest is “cooking”. Further, in this case, for example, the extraction unit 150 selects, from among the plurality of speech histories stored in the speech history storage unit 172, speech histories considered to be correlated with cooking, for example, speech histories related to rice cookers (“rice cookers ”) and the utterance history related to the oven range (“oven range”).
  • matters of interest corresponding to the usage status of the user's information source device 200 and the utterance history corresponding to the matters of interest described above are merely examples, and may be arbitrarily determined.
  • the predetermined condition may not be the user's concern as described above, and is not particularly limited.
  • the predetermined condition may be, for example, the type of the first device.
  • the type is, for example, the type (commodity classification) of home appliances such as televisions and air conditioners.
  • the management system 300 includes a plurality of information source devices 200 of the same product classification such as televisions, the type is the classification for each television.
  • the extracting unit 150 extracts one or more utterance histories based on the type of the first device that outputs the voice from among a plurality of utterance histories each indicating the content of the voice output by the first device. good too.
  • the management system 300 includes a robot cleaner, an air conditioner, and a television as the first devices
  • the extraction unit 150 extracts the contents of the voices output from the robot cleaner, the air conditioner, and the television, respectively.
  • An utterance history indicating the contents of the voice output from the television may be extracted from among the plurality of utterance histories shown.
  • the device that output the voice will display the speech history indicating the content of the voice.
  • the device that outputs the sound can be easily understood by the user.
  • the display control unit 160 is a processing unit that causes the second device (the display device 220 in this embodiment) to display display information indicating one or more speech histories extracted by the extraction unit 150 . Specifically, the display control unit 160 causes the display device 220 to display the display information, that is, one or more speech histories by transmitting the display information to the display device 220 via the communication unit 110 .
  • the display information is information indicating one or more speech histories extracted by the extraction unit 150 .
  • the display information may be information indicating only the one or more speech histories extracted by the extraction unit 150, or information indicating the one or more speech histories among the plurality of speech histories stored in the speech history storage unit 172. may include information indicating speech histories other than the one or more speech histories. For example, when the display information includes information indicating one or more speech histories extracted by the extraction unit 150 and one or more speech histories not extracted by the extraction unit 150, the display information further includes one or more speech histories extracted by the extraction unit 150. and one or more speech histories that are not extracted by the extraction unit 150 in a distinguishing manner.
  • the information for distinguishing and indicating is, for example, information indicating that the display position is different when the display information is displayed on the display device 220, and the extracted utterance history and the unextracted utterance history are displayed in different frames.
  • the different display mode means, for example, that the color of the character string indicating the spoken sentence displayed on the display device 220 is different, the font of the character string is different, or there are characters, photographs, icons, etc. around the character string. It is a mode such as whether or not Alternatively, for example, the different display mode is a dynamic mode such as the same icon with one blinking.
  • the display control unit 160 controls, for example, one or more speech histories extracted by the extraction unit 150 and a plurality of speech histories (in other words, speech history).
  • the display device 220 displays display information that distinguishes between speech histories that are not extracted by the extraction unit 150 among the plurality of speech histories stored in the storage unit 172 .
  • the display information may be information indicating the speech history, and may be image data or information such as a character string indicating the contents of the voice output by the speech device 210 .
  • the display device 220 may display the display information by generating an image based on the display information when information indicating the content of the voice output by the utterance device 210 is acquired as the display information.
  • the display control unit 160 may display the display information on any one display device 220 out of the plurality of display devices 220, or display the display information on a plurality of display devices. Any two or more display devices 220 out of 220 may display the display information.
  • the display control unit 160 may cause the utterance device 210 to display display information when the utterance device 210 includes a display unit such as a display. That is, the first device and the second device may be the same device (that is, one device).
  • Each of the acquisition unit 120, the voice control unit 130, the estimation unit 140, the extraction unit 150, and the display control unit 160 has a memory, a control program stored in the memory, and executes the control program. It is implemented by a processor such as a CPU (Central Processing Unit) that Also, these processing units may be implemented by one memory and one processor, or may be implemented by multiple memories and multiple processors in different or arbitrary combinations. Also, these processing units may be realized by, for example, a dedicated electronic circuit or the like.
  • the storage unit 170 is a storage device that stores information used by the management device 100, such as voice information, device information, display information, and interest DB.
  • the storage unit 170 is realized by, for example, an HDD (Hard Disk Drive), flash memory, or the like.
  • the state information storage unit 171 stores state information. Note that the state information storage unit 171 may also store identification information and the like included in the device information together with the state information. That is, the state information storage unit 171 may store device information.
  • the utterance history storage unit 172 stores an utterance history indicating the content of the voice output by the voice control unit 130 to the utterance device 210 .
  • the utterance history storage unit 172 stores, as the utterance history, content information indicating the content of the voice output by the voice control unit 130 to the utterance device 210, identification information indicating the utterance device 210, and output of the voice. Date and time information indicating the date and time is linked and stored. That is, the utterance history storage unit 172 stores, as an utterance history, for example, which utterance device 210 out of the one or more utterance devices 210 output what voice and when.
  • the interest DB storage unit 173 stores an interest DB.
  • the interest DB storage unit 173 stores, for example, information indicating the usage status of the information source device 200, information indicating an interest corresponding to the information indicating the usage status, and information indicating an utterance history corresponding to the interest. Store an interest DB that contains information.
  • state information storage unit 171, the speech history storage unit 172, and the interest DB storage unit 173 may be realized by a single HDD or the like, or may be realized by a plurality of HDDs or the like that are different from each other or are arbitrarily combined. may
  • FIG. 3 is a diagram showing a first example of display information displayed by the display device 220 according to the embodiment.
  • a first example is an example in which the estimating unit 140 estimates that the user's interest is "cleanliness of surroundings.”
  • the display device 220 for example, based on the display information received from the display control unit 160, the information indicating the interest estimated by the estimation unit 140, the speech history corresponding to the interest, That is, one or more utterance histories extracted by the extracting unit 150 are preferentially displayed on the upper side of the display screen of the display device 220 (immediately below the "notice regarding cleanliness of personal belongings"). Further, for example, the display device 220 displays the speech history that does not correspond to the interest, that is, the speech history that is not extracted by the extraction unit 150, below the speech history corresponding to the interest (immediately below “Other”). is displayed within the displayable range.
  • the display control unit 160 selects, for example, one or more speech histories extracted by the extraction unit 150 and a plurality of speech histories indicating the contents of the speech output by the speech control unit 130 from the speech device 210.
  • the speech history that is not extracted by the extraction unit 150 is displayed on the display device 220 in a distinguishable manner.
  • FIG. 4 is a diagram showing a second example of display information displayed by the display device 220 according to the embodiment.
  • a second example is an example in which the estimation unit 140 estimates that the user's interest is "maintenance of home appliances".
  • the display device 220 for example, based on the display information received from the display control unit 160, the information indicating the interest estimated by the estimation unit 140, the speech history corresponding to the interest, is preferentially displayed on the upper side of the display screen of the display device 220 (immediately below the “notification regarding home appliance care”). Further, for example, the display device 220 displays the speech history that does not correspond to the matter of interest below the speech history that corresponds to the matter of interest (immediately below “Others”) within a range that can be displayed.
  • the display control unit 160 selects, for example, one or more speech histories extracted by the extraction unit 150 and a plurality of speech histories indicating the contents of the speech output by the speech control unit 130 from the speech device 210.
  • the speech history that is not extracted by the extraction unit 150 is displayed on the display device 220 in a distinguishable manner.
  • FIG. 5 is a diagram showing an example of display information displayed by the utterance device 210 according to the embodiment.
  • FIG. 6 is a diagram showing a third example of display information displayed by the display device 220 according to the embodiment.
  • a third example is an example in which the utterance device 210 is a device such as a television equipped with a display capable of displaying display information. That is, in this example, the utterance device 210 is the first device and the second device.
  • a third example is an example in which the type of the utterance device 210 is used as the above-described predetermined condition.
  • the utterance device 210 for example, based on the display information received from the display control unit 160, the information indicating the type of the utterance device 210 (“notification that the television has spoken”) and the utterance device 210 and an utterance history showing the contents of the voice output by the .
  • the display control unit 160 causes the display device 220 to display only one or more speech histories extracted by the extraction unit 150 among the plurality of speech histories stored in the speech history storage unit 172, for example.
  • the display device 220 may display all of the plurality of speech histories stored in the speech history storage unit 172, as shown in FIG.
  • the management device 100 does not have to include the estimation unit 140 and the interest DB storage unit 173 .
  • FIG. 7 is a flow chart showing the processing procedure of the management device 100 according to the embodiment.
  • the acquisition unit 120 acquires information (S101).
  • the acquisition unit 120 acquires device information including state information from the information source device 200 via the communication unit 110 .
  • the acquisition unit 120 causes the storage unit 170 to store the acquired information (S102).
  • the acquiring unit 120 causes the acquired state information to be stored in the state information storage unit 171 .
  • the voice control unit 130 causes the utterance device 210 to output voice regarding the information (S103). For example, the voice control unit 130 determines content to be output by voice to the utterance device 210 based on the state information acquired by the acquisition unit 120 , and transmits voice information indicating the determined content to the utterance device 210 .
  • the speech device 210 outputs speech based on the received speech information.
  • the voice control unit 130 causes the utterance history storage unit 172 to store the utterance history indicating the contents of the voice output by the utterance device 210 (S104).
  • the management device 100 causes the speech history storage unit 172 to store a plurality of speech histories by repeatedly executing steps S101 to S104.
  • the estimation unit 140 estimates the user's interests based on the state information stored in the state information storage unit 171 (S105). For example, the estimation unit 140 determines the user's interests based on the state information stored in the state information storage unit 171 and the interest DB stored in the interest DB storage unit 173 .
  • step S105 may be executed in parallel with steps S103 and S104, before steps S103 and S104, or after steps S103 and S104.
  • the extraction unit 150 extracts one or more speech histories based on a predetermined condition from among the plurality of speech histories stored in the speech history storage unit 172 (S106). For example, the extraction unit 150 determines an utterance history corresponding to the user's interest estimated by the estimation unit 140 based on the interest DB, and selects the utterance history from the plurality of utterance histories stored in the utterance history storage unit 172. extract the utterance history.
  • the display control unit 160 causes the display device 220 to display display information indicating one or more speech histories extracted by the extraction unit 150 (S107). For example, the display control unit 160 transmits display information indicating one or more speech histories extracted by the extraction unit 150 to the display device 220 . The display device 220 displays the received display information.
  • step S105 does not have to be executed.
  • the extraction unit 150 may extract the speech history based on the type of the information source device 200 .
  • the extraction unit 150 may extract the utterance history of the air conditioner.
  • the extraction unit 150 may extract the speech history based on whether or not the speech device 210 was able to appropriately output the speech based on the speech information. For example, when voice information is received, the utterance device 210 outputs voice based on the voice information. Here, when the voice based on the voice information cannot be output due to an error or the like, the utterance device 210 transmits information indicating that the voice based on the voice information could not be output to the management device 100 .
  • the voice control unit 130 when the information is acquired via the communication unit 110 and the acquisition unit 120, the voice control unit 130 combines the information and the voice (more specifically, the voice that the utterance device 210 is caused to utter) is stored in the utterance history storage unit 172 in association with the utterance history indicating the content of the .
  • the extraction unit 150 extracts the speech history based on the information, for example.
  • the utterance device 210 may transmit information indicating whether or not the voice based on the voice information could be output due to an error or the like to the management device 100 .
  • the extraction unit 150 may extract an utterance history that includes information that the user needs to respond to.
  • the content of the voice output by the utterance device 210 may include, for example, information requesting the user to take action, such as a notification for resolving an error that has occurred in the information source device 200 .
  • the extraction unit 150 may extract a speech history containing such information.
  • the extraction unit 150 may extract only the latest speech history from among the plurality of speech histories with the same content. For example, when an error occurs in the information source device 200 and the error is not resolved, the information source device 200 may repeatedly transmit information indicating the error to the management device 100 as status information. In such a case, the voice control unit 130 causes the utterance device 210 to repeatedly output the voice indicating the error, and causes the utterance history storage unit 172 to repeatedly store the utterance history indicating the content of the voice. Therefore, the utterance history storage unit 172 stores a plurality of utterance histories that differ only in the date and time when the voice was output. In such a case, the extraction unit 150 may extract only the latest speech history out of the plurality of speech histories with the same content.
  • the extraction unit 150 extracts all the utterance histories stored in the utterance history storage unit 172 regardless of the predetermined conditions.
  • An utterance history may be extracted. That is, when the speech history storage unit 172 stores a predetermined number or more of speech histories, the extracting unit 150 selects a plurality of speech histories stored in the speech history storage unit 172 based on a predetermined condition. When one or more speech histories are extracted and less than a predetermined number of speech histories are stored in the speech history storage unit 172, all speech histories stored in the speech history storage unit 172 may be extracted.
  • the predetermined number is not particularly limited as long as it is 2 or more. Information indicating the predetermined number is stored in advance in the storage unit 170, for example.
  • the management device 100 selects from among a plurality of speech histories each indicating the content of the speech output by the first device (the speech device 210 in this embodiment) under a predetermined condition.
  • the predetermined condition is the type of the first device.
  • the utterance history of the device that output the voice will be displayed on the device. Therefore, it is possible for the user to easily understand which device has the speech history included in the displayed display information.
  • the management device 100 has an estimation unit 140 that estimates interests of the user using the third device based on state information indicating the state of the third device (the information source device 200 in the present embodiment). Further provide.
  • the predetermined condition is the user's interest estimated by the estimation unit 140 .
  • the speech history is extracted based on the user's interests, the speech history that the user particularly wants to check can be displayed preferentially and/or in an easy-to-understand manner. Therefore, according to the management device 100, it is possible to make it easier for the user to see the speech history.
  • the display control unit 160 distinguishes between the one or more speech histories extracted by the extraction unit 150 and the speech histories not extracted by the extraction unit 150 among the plurality of speech histories described above. is displayed on the second device.
  • the speech history desired by the user and other speech histories are distinguished, and, for example, they are grouped into different ranges and displayed on the second device. be. Therefore, according to the management device 100, it is possible to make it easier for the user to see the speech history.
  • the management system 300 includes a management device 100, a first device (for example, an utterance device 210), and a second device (for example, a display device 220).
  • the management method includes an extraction step (S106) of extracting one or more speech histories based on a predetermined condition from among a plurality of speech histories indicating the content of the voice output by the first device. and a display control step (S107) of causing the second device to display display information indicating the one or more speech histories.
  • the program according to the embodiment is a program for causing a computer to execute the management method according to the embodiment.
  • the first device, the second device, and the third device may each be realized by the same device (that is, integrated device) or by different devices (that is, separate devices). .
  • the management system 300 may be realized by a plurality of devices or may be realized by one device.
  • the information acquired by the acquisition unit 120 may be information (service information) related to services received by the user, such as information related to home delivery.
  • the information source device 200 may be, for example, an intercom, a server device of a company that performs a home delivery service, or the like.
  • the voice control unit 130 causes the utterance device 210 to audibly output information related to the service information indicating the absence notification at the time of home delivery, and utters the utterance history indicating that the utterance device 210 has output the information by voice. Stored in the history storage unit 172 .
  • all or part of the components of the processing units such as the acquisition unit 120 and the voice control unit 130 provided in each of the management apparatus and the management system may be configured with dedicated hardware. Alternatively, it may be implemented by executing a software program suitable for each component. Each component may be implemented by a program execution unit such as a CPU or processor reading and executing a software program recorded in a recording medium such as an HDD or a semiconductor memory.
  • the constituent elements of the processing unit may be composed of one or more electronic circuits.
  • Each of the one or more electronic circuits may be a general-purpose circuit or a dedicated circuit.
  • One or more electronic circuits may include, for example, a semiconductor device, an IC (Integrated Circuit), or an LSI (Large Scale Integration).
  • An IC or LSI may be integrated on one chip or may be integrated on a plurality of chips. Although they are called ICs or LSIs here, they may be called system LSIs, VLSIs (Very Large Scale Integration), or ULSIs (Ultra Large Scale Integration) depending on the degree of integration.
  • An FPGA Field Programmable Gate Array
  • general or specific aspects of the present disclosure may be implemented in systems, devices, methods, integrated circuits, or computer programs. Alternatively, it may be realized by a computer-readable non-temporary recording medium such as an optical disk, HDD, or semiconductor memory storing the computer program. Also, any combination of systems, devices, methods, integrated circuits, computer programs, and recording media may be implemented.
  • the present disclosure can be applied to devices capable of outputting sound, such as televisions or autonomous cleaners.
  • the present disclosure can be applied to a device that controls a device capable of outputting audio, such as a server device.
  • management device 110 communication unit 120 acquisition unit 130 voice control unit 140 estimation unit 150 extraction unit 160 display control unit 170 storage unit 171 state information storage unit 172 speech history storage unit 173 interest DB storage unit 200 information source device 210 utterance device 220 display Equipment 300 Management system

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

管理装置(100)は、第1機器(例えば、発話機器(210))に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出部(150)と、当該1以上の発話履歴を示す表示情報を第2機器(例えば、表示機器(220))に表示させる表示制御部(160)と、を備える。

Description

管理装置、管理システム、管理方法、及び、プログラム
 本開示は、発話履歴を管理する管理装置、管理システム、管理方法、及び、プログラムに関する。
 特許文献1には、ユーザに携帯される端末装置と通信を行い、現在位置を示す位置情報を逐次受信し、操作情報と、設定情報と、移動履歴情報とに基づいて、制御対象となる家電機器についての帰宅前制御位置を決定し、位置情報に基づいて、帰宅するユーザの現在位置が帰宅前制御位置に到達した際に、設定情報に従って、対象の家電機器を制御する装置が開示されている。また、特許文献1に開示されている装置は、家電等の複数の電子機器にユーザによってなされた操作及び電子機器の状態を表示する。
特開2015-154248号公報
 ところで、従来、機器の状態等を音声で出力(言い換えると、発話)する機器がある。ここで、例えば、機器に発話させた内容を示す発話履歴をユーザに画像等を用いて表示機器によって通知する。このような場合に、例えば、全ての発話履歴を表示機器によって表示させようとすると、発話履歴が多くあるとき、ユーザにとってはユーザが確認したい発話履歴が確認しにくいことがある。そのため、このように発話履歴を表示する場合、ユーザに見やすく表示されることが望まれる。
 本開示は、発話履歴をユーザに見やすくできる管理装置等を提供する。
 本開示の一態様に係る管理装置は、第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出部と、前記1以上の発話履歴を示す表示情報を第2機器に表示させる表示制御部と、を備える。
 また、本開示の一態様に係る管理システムは、前記管理装置と、前記第1機器と、前記第2機器と、を備える。
 また、本開示の一態様に係る管理方法は、第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出ステップと、前記1以上の発話履歴を示す表示情報を第2機器に表示させる表示制御ステップと、を含む。
 また、本開示の一態様に係るプログラムは、前記管理方法をコンピュータに実行させるためのプログラムである。
 なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 本開示によれば、発話履歴をユーザに見やすくできる管理装置等を提供できる。
図1は、実施の形態に係る管理システムの構成を示すブロック図である。 図2は、実施の形態に係る関心データベースの一例を示す図である。 図3は、実施の形態に係る表示機器が表示する表示情報の第1例を示す図である。 図4は、実施の形態に係る表示機器が表示する表示情報の第2例を示す図である。 図5は、実施の形態に係る発話機器が表示する表示情報の一例を示す図である。 図6は、実施の形態に係る表示機器が表示する表示情報の第3例を示す図である。 図7は、実施の形態に係る管理装置の処理手順を示すフローチャートである。
 以下では、本開示の実施の形態について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本開示の一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、ステップ及びステップの順序等は、一例であり、本開示を限定する趣旨ではない。よって、以下の実施の形態における構成要素のうち、本開示の独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
 (実施の形態)
 [構成]
 図1は、実施の形態に係る管理システム300の機能構成を示すブロック図である。
 管理システム300は、情報元機器200において、処理(動作)の状態が変わったことを示す情報、故障を通知する情報、フィルタ等の部品の交換をユーザに促すための情報、情報元機器200が有する機能をユーザに通知(おすすめ通知)するための情報等の情報が出力された場合に、当該情報を音声でユーザに通知(出力)する(言い換えると、当該情報を発話する)システムである。
 管理システム300は、情報元機器200と、発話機器210と、表示機器220と、管理装置100と、を備える。
 情報元機器200は、情報元機器200に関する上記した情報を出力可能な機器である。情報元機器200は、例えば、情報元機器200を示す固有の識別子である識別情報、情報元機器200の性能(スペック)等を示す性能情報、並びに、処理(動作)した処理内容、及び、故障等の情報元機器200の状態を示す状態情報等を含む機器情報を管理装置100に送信する。
 情報元機器200は、例えば、管理装置100と通信するための通信インターフェースと、冷蔵、洗濯、又は、加熱等の処理を実行する実行部と、情報元機器200の状態を検出するためのセンサ等により実現される検出部と、情報元機器200の各種処理を制御するプロセッサ及びメモリ等により実現される制御部と、を備える。当該通信インターフェースは、例えば、情報元機器200が管理装置100と有線通信する場合、通信線が接続されるコネクタ等により実現され、無線通信する場合、アンテナ及び無線通信回路等により実現される。情報元機器200は、例えば、冷蔵庫、洗濯機、電子レンジ、照明装置、又は、ドアホン等の電化製品(家電ともいう)等である。
 なお、情報元機器200は、第3機器の一例である。
 発話機器210は、スピーカ等の音声を出力可能な部品を備える機器である。発話機器210は、例えば、管理装置100から音声情報を受信した場合に、受信した音声情報に基づく音声を出力する。
 発話機器210は、例えば、スピーカ、アンプ、管理装置100から受信した音声情報に基づく音声を当該スピーカから出力させるための制御プログラムが記憶されたメモリ、当該制御プログラムを実行するプロセッサ、及び、管理装置100と通信するための通信インターフェースを備える。当該通信インターフェースは、例えば、発話機器210が管理装置100と有線通信する場合、通信線が接続されるコネクタ等により実現され、無線通信する場合、アンテナ及び無線通信回路等により実現される。発話機器210は、例えば、エアコン(エアコンディショナ)、テレビ(TV/Television)、又は、自律走行型掃除機(いわゆる、ロボット掃除機)等の電化製品である。発話機器210は、音声を出力可能な機器であればよく、例えば、スマートフォン又は携帯電話等の端末装置でもよい。
 なお、発話機器210は、第1機器の一例である。
 2つの情報元機器200及び2つの発話機器210のそれぞれは、例えば、ユーザが居住する家屋内に配置されている。また、管理装置100は、例えば、家屋の外部に配置されている。
 表示機器220は、発話履歴を示す表示情報を表示する装置である。表示機器220は、例えば、管理装置100から表示情報を受信し、受信した表示情報を表示することで、1以上の発話履歴を表示する。
 表示機器220は、例えば、ディスプレイ、管理装置100から受信した発話履歴を示す表示情報を当該ディスプレイに表示するための制御プログラムが記憶されたメモリ、当該制御プログラムを実行するプロセッサ、管理装置100と通信するための通信インターフェースを備える。当該通信インターフェースは、例えば、表示機器220が管理装置100と有線通信する場合、通信線が接続されるコネクタ等により実現され、無線通信する場合、アンテナ及び無線通信回路等により実現される。表示機器220は、例えば、パーソナルコンピュータ、タブレット端末、又は、スマートフォン等により実現される。本実施の形態では、表示機器220は、スマートフォンである。表示機器220は、表示情報を表示可能な機器であればよく、例えば、テレビ等のディスプレイを有する装置でもよい。
 なお、表示機器220は、第2機器の一例である。
 また、図1には、情報元機器200を2つ図示しているが、管理システム300が備える情報元機器200の数は、1つでもよいし、3つ以上でもよく、特に限定されない。
 また、図1には、発話機器210を2つ図示しているが、管理システム300が備える発話機器210の数は、1つでもよいし、3つ以上でもよく、特に限定されない。
 また、図1には、表示機器220を1つ図示しているが、管理システム300が備える表示機器220の数は、複数でもよい。
 管理装置100は、情報元機器200から受信した機器情報等の情報に基づいて、当該情報に関する音声を発話機器210に出力させる装置である。例えば、管理装置100は、情報元機器200から状態情報を受信した場合に、記憶部170に記憶された状態情報に応じた音声情報を選択して、選択した音声情報を発話機器210に送信することで、発話機器210から当該音声情報に基づく音声を出力させる。
 管理装置100は、情報元機器200、発話機器210、及び、表示機器220のそれぞれと、インターネット等のネットワークを介して通信可能に接続されている。
 なお、管理装置100と、情報元機器200、発話機器210、及び、表示機器220のそれぞれとは、有線通信可能に接続されていてもよいし、無線通信可能に接続されていてもよい。
 また、管理装置100と、情報元機器200、発話機器210、及び、表示機器220のそれぞれとの通信に用いられる通信規格は、特に限定されない。通信規格としては、Wi-Fi(登録商標)、Bluetooth(登録商標)、又は、ZigBee(登録商標)等が例示される。
 管理装置100は、例えば、情報元機器200、発話機器210、及び、表示機器220の装置と通信するための通信インターフェース、プログラムが格納された不揮発性メモリ、プログラムを実行するための一時的な記憶領域である揮発性メモリ、信号の送受信をするための入出力ポート、並びに、プログラムを実行するプロセッサ等を備えるコンピュータにより実現される。管理装置100は、例えば、情報元機器200が配置される家屋ではなく、企業等の建屋に配置されるサーバ装置である。
 管理装置100は、通信部110と、取得部120と、音声制御部130と、推定部140と、抽出部150と、表示制御部160と、記憶部170と、を備える。記憶部170は、状態情報記憶部171と、発話履歴記憶部172と、関心DB記憶部173と、を含む。
 通信部110は、情報元機器200、発話機器210、及び、表示機器220と通信するための通信インターフェースである。通信部110は、例えば、情報元機器200、発話機器210、及び、表示機器220と有線通信する場合、通信線が接続されるコネクタ等により実現され、無線通信する場合、アンテナ及び無線通信回路等により実現される。
 取得部120は、情報元機器200の識別情報、情報元機器200の性能情報、及び、情報元機器200の状態情報等を含む機器情報を取得する処理部である。取得部120は、例えば、通信部110を介して情報元機器200と通信することで、機器情報を取得する。
 なお、取得部120は、管理装置100がユーザからの入力を受け付けるマウス、キーボード等の受付装置を備える場合、当該受付装置を介して機器情報を取得してもよい。
 取得部120は、取得した機器情報を記憶部170に記憶させ、且つ、音声制御部130に出力する。取得部120は、例えば、取得した機器情報に含まれる状態情報を状態情報記憶部171に記憶させる。
 音声制御部130は、第1機器(本実施の形態では、発話機器210)に音声を出力させる処理部である。具体的には、音声制御部130は、通信部110を介して発話機器210と通信することで、発話機器210に音声を出力させる。例えば、音声制御部130は、通信部110を介して発話機器210に音声情報を送信することで、発話機器210から音声を出力させる。
 音声情報は、発話機器210に出力させる音声を示す情報である。音声制御部130は、例えば、取得部120が取得した機器情報等の情報に基づいて、発話機器210に出力させる音声の内容を決定し、決定した内容を示す音声情報を発話機器210に送信する。
 音声情報としては、情報元機器200が動作を開始したことを示す文章(発話文)の音声データ、情報元機器200が動作を終了したことを示す文章の音声データ、他の情報元機器200と連係して動作したことを示す文章の音声データ、バージョンアップをユーザに促すための文章の音声データ、情報元機器200が有する機能の利用をユーザにおすすめするための文章の音声データ、故障したことを示す文章の音声データ等が例示される。
 音声情報は、例えば、機器情報等の情報と紐付けられて記憶部170に記憶されている。音声制御部130は、例えば、取得部120が取得した情報と紐付く音声情報を選択し、選択した音声情報を発話機器210に送信する。
 なお、音声情報は、発話機器210が備える記憶部が記憶していてもよい。この場合、管理装置100は、例えば、取得部120が取得した情報を発話機器210に送信することで、発話機器210に当該情報に関する音声を出力させてもよい。
 また、音声制御部130は、管理システム300が複数の発話機器210を備える場合、複数の発話機器210のうちの任意の1つの発話機器210から音声を出力させてもよいし、複数の発話機器210のうちの任意の2以上の発話機器210から音声を出力させてもよい。
 また、音声制御部130は、発話機器210に出力させた音声の内容をそれぞれ示す複数の発話履歴を発話履歴記憶部172に記憶させる。
 発話履歴とは、発話機器210に出力させた音声の内容を示す情報である。具体的には、発話履歴は、発話機器210に出力させた音声の内容を示す内容情報を含む情報である。内容情報は、例えば、音声制御部130が発話機器210に「洗濯を開始しました」と発話させた場合に、「洗濯を開始しました」と発話機器210に音声で出力させたことを示す情報である。音声制御部130は、例えば、発話機器210に音声を出力させた場合に、内容情報と、音声を出力させた発話機器210を示す識別情報と、音声を出力させた日時を示す日時情報とを発話履歴(履歴情報)として発話履歴記憶部172に記憶させる。
 推定部140は、第3機器(本実施の形態では、情報元機器200)の状態を示す状態情報に基づいて、第3機器を使用するユーザの関心事を推定する処理部である。
 ユーザの関心事とは、例えば、情報元機器200の清掃に関する事柄、情報元機器200が配置される家屋内の清潔さ、節約、又は、料理若しくは掃除等のユーザの興味等の事柄であって、情報元機器200をユーザが使用するにあたり、ユーザが特に興味があると思われる事柄である。
 推定部140は、例えば、状態情報記憶部171に記憶されている状態情報に基づいて、情報元機器200のユーザの使用状況を特定し、特定した使用状況と関心DB(Data Base)とに基づいて、ユーザの関心事を推定(決定)する。
 関心DBとは、情報元機器200の使用状況とユーザの関心事との対応関係を示すデータベース(情報)である。関心DBは、例えば、関心DB記憶部173に予め記憶されている。本実施の形態では、関心DBは、情報元機器200の使用状況とユーザの関心事と発話履歴との対応関係を示す。
 抽出部150は、第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する処理部である。例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する。
 所定の条件は、例えば、推定部140が推定したユーザの関心事である。抽出部150は、例えば、関心DBに基づいて、推定部140が推定したユーザの関心事に対応する1以上の発話履歴を特定し、特定した1以上の発話履歴を、発話履歴記憶部172に記憶された複数の発話履歴の中から抽出する。
 図2は、実施の形態に係る関心DBの一例を示す図である。具体的には、図2は、情報元機器200のユーザの使用状況と、当該使用状況に対応する関心事及び発話履歴とが紐付けられた関心DBを表で模式的に示す図である。
 「使用状況」は、状態情報記憶部171に記憶された状態情報に基づいて推定部140によって特定された情報元機器200のユーザの使用状況を示す。
 例えば、情報元機器200の一例である洗濯機が有する除菌モードの機能が週に1回以上使用されたとする(「洗濯機:除菌モード使用≧1回/週」)。この場合、例えば、推定部140は、ユーザが身の回りの清潔に関心がある、言い換えると、ユーザの関心事が「身の回りの清潔」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、身の回りの清潔と相関があると考えられる発話履歴、例えば、ロボット掃除機のエラー又はゴミに関する発話履歴(「ロボット掃除機(エラー/ゴミ)」)と、空気清浄機に関する発話履歴(「空気清浄機」)とを抽出する。
 或いは、例えば、情報元機器200の一例であるエアコンが有する除菌機能付き送風モードが週に1回以上使用されたとする(「エアコン:除菌機能付き送風モード使用≧1回/週」)。この場合、例えば、推定部140は、ユーザの関心事が「身の回りの清潔」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、身の回りの清潔と相関があると考えられる発話履歴、例えば、ロボット掃除機のエラー又はゴミに関する発話履歴(「ロボット掃除機(エラー/ゴミ)」)と、空気清浄機に関する発話履歴(「空気清浄機」)とを抽出する。
 或いは、例えば、情報元機器200の一例であるロボット掃除機が有する徹底掃除モードの機能が、ロボット掃除機の全ての掃除回数に対して3割以上の頻度で使用されたとする(「ロボット掃除機:徹底掃除モード使用回数÷全掃除回数≧30%」)。この場合、例えば、推定部140は、ユーザの関心事が「身の回りの清潔」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、身の回りの清潔と相関があると考えられる発話履歴、例えば、ロボット掃除機のエラー又はゴミに関する発話履歴(「ロボット掃除機(エラー/ゴミ)」)と、空気清浄機に関する発話履歴(「空気清浄機」)とを抽出する。
 或いは、例えば、情報元機器200の一例であるロボット掃除機の掃除回数が10回あたり、ゴミが満杯であることを示すエラー情報を状態情報として取得部120が取得した頻度が1回未満であるとする(「ロボット掃除機:ゴミ満杯エラー頻度<1回/掃除10回」)。この場合、例えば、推定部140は、ユーザの関心事が「家電のお手入れ」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、家電のお手入れと相関があると考えられる発話履歴、例えば、洗濯機の洗浄に関する発話履歴(「洗濯機(お手入れ)」)と、冷蔵庫の給水タンクに関する発話履歴(「冷蔵庫(給水)」)と、空気清浄機の給水タンクに関する発話履歴(「空気清浄機(給水)」)とを抽出する。
 或いは、例えば、情報元機器200の一例である洗濯機から、自動投入用洗剤の残量が所定量より少ないことを示すエラー情報を状態情報として取得部120が取得した頻度が月1回未満であるとする(「洗濯機:自動投入用洗剤残量小エラー<1回/月」)。この場合、例えば、推定部140は、ユーザの関心事が「家電のお手入れ」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、家電のお手入れと相関があると考えられる発話履歴、例えば、洗濯機の洗浄に関する発話履歴(「洗濯機(お手入れ)」)と、冷蔵庫の給水タンクに関する発話履歴(「冷蔵庫(給水)」)と、空気清浄機の給水タンクに関する発話履歴(「空気清浄機(給水)」)とを抽出する。
 或いは、例えば、情報元機器200の一例である洗濯機から、洗濯時の自動投入用洗剤の投入量が「少な目」と設定されたことを示す状態情報を取得部120が取得したとする(「洗濯機:自動投入用洗剤量設定=少な目」)。この場合、例えば、推定部140は、ユーザの関心事が「節約」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、節約と相関があると考えられる発話履歴、例えば、ユーザが洗濯のやり直しをする等の無駄を避けたいと考える可能性が高いと推定されることから、洗濯が完了したことを通知する発話履歴(「洗濯完了」)と、炊飯器の保温機能が所定時間以上利用され続けていることを通知する発話履歴(「炊飯器保温切り忘れ」)とを抽出する。
 或いは、例えば、情報元機器200の一例であるエアコンの電源のオンとオフとが切り替えられる頻度が1日あたり3回以上であるとする(「エアコン:ON/OFF頻度≧3回/日)。この場合、例えば、推定部140は、ユーザの関心事が「節約」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、節約と相関があると考えられる発話履歴、例えば、洗濯が完了したことを通知する発話履歴(「洗濯完了」)と、炊飯器の保温機能が所定時間以上利用され続けていることを通知する発話履歴(「炊飯器保温切り忘れ」)とを抽出する。
 或いは、例えば、情報元機器200の一例である洗濯機の洗濯槽の洗浄をユーザに促す通知を行う設定がなされたとする(「洗濯機:槽洗浄サイン設定=ON)。この場合、例えば、推定部140は、ユーザの関心事が「見えにくい所の汚れ」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、見えにくい汚れと相関があると考えられる発話履歴、例えば、オーブンレンジ内の温度を下げることで雑菌の繁殖を抑制するために、オーブンレンジの庫内の冷却に関する発話履歴(「オーブンレンジ庫内冷却」)を抽出する。
 或いは、例えば、情報元機器200の一例であるテレビ又はレコーダで料理番組の予約録画又は料理番組の視聴が週に1回以上なされたとする(「TV/レコーダ:料理番組の予約/視聴≧1回/週)。この場合、例えば、推定部140は、ユーザの関心事が「料理」であると推定する。また、この場合、例えば、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴のうち、料理と相関があると考えられる発話履歴、例えば、炊飯器に関する発話履歴(「炊飯器」)と、オーブンレンジに関する発話履歴(「オーブンレンジ」)とを抽出する。
 なお、上記したユーザの情報元機器200の使用状況に対応する関心事及び当該関心事に対応する発話履歴はあくまで一例であって、任意に定められてよい。
 また、所定の条件は、上記したユーザの関心事ではなくてもよく、特に限定されない。
 所定の条件は、例えば、第1機器の種別でもよい。ここで、種別とは、例えば、テレビ、エアコン等の家電の種類(商品分類)のことである。或いは、種別とは、例えば、管理システム300がテレビ等の同じ商品分類の情報元機器200を複数備える場合、テレビ毎の分類である。
 抽出部150は、例えば、第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、音声を出力させた第1機器の種別に基づいて1以上の発話履歴を抽出してもよい。抽出部150は、例えば、管理システム300が、ロボット掃除機、エアコン、及び、テレビをそれぞれ第1機器として備える場合、ロボット掃除機、エアコン、及び、テレビのそれぞれから出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、テレビから音声で出力させた内容を示す発話履歴を抽出してもよい。
 これによれば、例えば、第1機器と第2機器とがテレビ等の1つの機器で実現される場合に、音声を出力した機器が当該音声の内容を示す発話履歴を表示することになるため、ユーザに音声を出力した機器を分かりやすくできる。
 表示制御部160は、抽出部150が抽出した1以上の発話履歴を示す表示情報を第2機器(本実施の形態では、表示機器220)に表示させる処理部である。具体的には、表示制御部160は、通信部110を介して表示情報を表示機器220に送信することで、表示機器220に表示情報、つまり、1以上の発話履歴を表示させる。
 表示情報は、抽出部150が抽出した1以上の発話履歴を示す情報である。表示情報は、抽出部150が抽出した1以上の発話履歴のみを示す情報でもよいし、当該1以上の発話履歴を示す情報以外に、発話履歴記憶部172に記憶された複数の発話履歴のうちの当該1以上の発話履歴以外の発話履歴を示す情報が含まれていてもよい。表示情報は、例えば、抽出部150が抽出した1以上の発話履歴と、抽出部150によって抽出されていない1以上の発話履歴とを示す情報を含む場合、さらに、抽出部150が抽出した1以上の発話履歴と、抽出部150によって抽出されていない1以上の発話履歴とを区別して示すための情報を含む。
 区別して示すための情報とは、例えば、表示機器220に表示情報が表示された場合に表示位置が異なることを示す情報、抽出された発話履歴と抽出されていない発話履歴とで互いに異なる枠で囲むことを示す情報、表示機器220に表示情報が表示される際に例えば抽出された発話履歴から順に上から表示され、その下に続いて抽出されていない発話履歴が示されることを示す情報、又は、抽出された発話履歴と抽出されていない発話履歴とで異なる表示態様とすることを示す情報等である。
 異なる表示態様とは、例えば、表示機器220に表示される発話文を示す文字列の色が異なる、文字列のフォントが異なる、又は、文字列の周囲に文字、写真、若しくは、アイコン等があるかないか等の態様である。或いは、例えば、異なる表示態様とは、同じアイコンで且つ一方が点滅している等、動的な態様である。
 表示制御部160は、例えば、抽出部150によって抽出された1以上の発話履歴と、音声制御部130が発話機器210に音声で出力させた内容をそれぞれ示す複数の発話履歴(言い換えると、発話履歴記憶部172に記憶された複数の発話履歴)のうちの抽出部150によって抽出されていない発話履歴とを区別して示す表示情報を表示機器220に表示させる。
 なお、表示情報は、発話履歴を示す情報であればよく、画像データでもよいし、発話機器210が出力した音声の内容を示す文字列等の情報であってもよい。例えば、表示機器220は、発話機器210が出力した音声の内容を示す情報を表示情報として取得した場合、表示情報に基づいて画像を生成することで表示情報を表示してもよい。
 また、表示制御部160は、管理システム300が複数の表示機器220を備える場合、複数の表示機器220のうち任意の1つの表示機器220に表示情報を表示させてもよいし、複数の表示機器220のうち任意の2以上の表示機器220に表示情報を表示させてもよい。
 また、表示制御部160は、発話機器210がディスプレイ等の表示部を備える場合、発話機器210に表示情報を表示させてもよい。つまり、第1機器と第2機器とは、同じ機器(つまり、1つの機器)であってもよい。
 取得部120と、音声制御部130と、推定部140と、抽出部150と、表示制御部160との各処理部は、メモリと、当該メモリに記憶された制御プログラムと、当該制御プログラムを実行するCPU(Central Processing Unit)等のプロセッサとから実現される。また、これらの処理部は、1つのメモリ及び1つのプロセッサから実現されてもよいし、互いに異なる又は任意の組み合わせで複数のメモリ及び複数のプロセッサによって実現されてもよい。また、これらの処理部は、例えば、専用の電子回路等により実現されてもよい。
 記憶部170は、音声情報、機器情報、表示情報、関心DB等の管理装置100が用いる情報が記憶される記憶装置である。
 記憶部170は、例えば、HDD(Hard Disk Drive)、又は、フラッシュメモリ等により実現される。
 状態情報記憶部171は、状態情報を記憶する。なお、状態情報記憶部171は、状態情報とともに、機器情報に含まれる識別情報等もあわせて記憶してもよい。つまり、状態情報記憶部171は、機器情報を記憶してもよい。
 発話履歴記憶部172は、音声制御部130が発話機器210に出力させた音声の内容を示す発話履歴を記憶する。例えば、発話履歴記憶部172は、発話履歴として、音声制御部130が発話機器210に出力させた音声の内容を示す内容情報と、当該発話機器210を示す識別情報と、当該音声を出力させた日時を示す日時情報とを紐付けて記憶する。つまり、発話履歴記憶部172は、例えば、1以上の発話機器210のうちのどの発話機器210からいつどのような内容の音声を出力させたかを発話履歴として記憶する。
 関心DB記憶部173は、関心DBを記憶する。関心DB記憶部173は、例えば、情報元機器200の使用状況を示す情報と、当該使用状況を示す情報に対応する関心事を示す情報と、当該関心事に対応する発話履歴を示す情報とを含む情報である関心DBを記憶する。
 なお、状態情報記憶部171と、発話履歴記憶部172と、関心DB記憶部173とは、1つのHDD等から実現されてもよいし、互いに異なる又は任意の組み合わせで複数のHDD等によって実現されてもよい。
 [表示情報の具体例]
 続いて、表示情報の具体例について説明する。
 <第1例>
 図3は、実施の形態に係る表示機器220が表示する表示情報の第1例を示す図である。第1例は、推定部140が、ユーザの関心事を「身の回りの清潔」と推定した場合の例である。
 図3に示すように、表示機器220は、例えば、表示制御部160から受信した表示情報に基づいて、推定部140によって推定された関心事を示す情報と、当該関心事に対応する発話履歴、つまり、抽出部150によって抽出された1以上の発話履歴とを表示機器220の表示画面の上側(「身の回りの清潔に関する通知」の直下)に優先的に表示する。また、例えば、表示機器220は、当該関心事に対応する発話履歴の下側(「その他」の直下)に、当該関心事に対応しない発話履歴、つまり、抽出部150によって抽出されていない発話履歴を表示できる範囲で表示する。このように、表示制御部160は、例えば、抽出部150によって抽出された1以上の発話履歴と、音声制御部130が発話機器210に音声で出力させた内容をそれぞれ示す複数の発話履歴のうちの抽出部150によって抽出されていない発話履歴とを区別して表示機器220に表示させる。
 <第2例>
 図4は、実施の形態に係る表示機器220が表示する表示情報の第2例を示す図である。第2例は、推定部140が、ユーザの関心事を「家電のお手入れ」と推定した場合の例である。
 図4に示すように、表示機器220は、例えば、表示制御部160から受信した表示情報に基づいて、推定部140によって推定された関心事を示す情報と、当該関心事に対応する発話履歴とを表示機器220の表示画面の上側(「家電のお手入れに関する通知」の直下)に優先的に表示する。また、例えば、表示機器220は、当該関心事に対応する発話履歴の下側(「その他」の直下)に、当該関心事に対応しない発話履歴を表示できる範囲で表示する。このように、表示制御部160は、例えば、抽出部150によって抽出された1以上の発話履歴と、音声制御部130が発話機器210に音声で出力させた内容をそれぞれ示す複数の発話履歴のうちの抽出部150によって抽出されていない発話履歴とを区別して表示機器220に表示させる。
 <第3例>
 図5は、実施の形態に係る発話機器210が表示する表示情報の一例を示す図である。図6は、実施の形態に係る表示機器220が表示する表示情報の第3例を示す図である。第3例は、発話機器210が表示情報を表示可能なディスプレイ等を備えるテレビ等の機器である場合の例である。つまり、本例では、発話機器210が第1機器及び第2機器である。第3例は、上記した所定の条件として発話機器210の種別が用いられた場合の例である。
 図5に示すように、発話機器210は、例えば、表示制御部160から受信した表示情報に基づいて、発話機器210の種別を示す情報(「テレビが発話した通知」)と、当該発話機器210によって出力された音声の内容を示す発話履歴とを表示する。このように、表示制御部160は、例えば、発話履歴記憶部172に記憶された複数の発話履歴のうち、抽出部150によって抽出された1以上の発話履歴のみを表示機器220に表示させる。
 なお、このような場合、図6に示すように、表示機器220は、発話履歴記憶部172に記憶された複数の発話履歴の全てを表示してもよい。
 また、本例においては、管理装置100は、推定部140及び関心DB記憶部173を備えなくてもよい。
 [処理手順]
 続いて、管理装置100が実行する処理手順について説明する。
 図7は、実施の形態に係る管理装置100の処理手順を示すフローチャートである。
 まず、取得部120は、情報を取得する(S101)。例えば、取得部120は、情報元機器200から、通信部110を介して、状態情報を含む機器情報を取得する。
 次に、取得部120は、取得した情報を記憶部170に記憶させる(S102)。例えば、取得部120は、取得した状態情報を状態情報記憶部171に記憶させる。
 次に、音声制御部130は、取得部120が取得した情報に基づいて、発話機器210に当該情報に関する音声を出力させる(S103)。例えば、音声制御部130は、取得部120が取得した状態情報に基づいて発話機器210に音声で出力させる内容を決定し、決定した内容を示す音声情報を発話機器210に送信する。発話機器210は、受信した音声情報に基づく音声を出力する。
 次に、音声制御部130は、発話機器210に出力させた音声の内容を示す発話履歴を発話履歴記憶部172に記憶させる(S104)。例えば、管理装置100は、ステップS101~ステップS104を繰り返し実行することで、複数の発話履歴を発話履歴記憶部172に記憶させる。
 また、ステップS103及びステップS104の処理と並行して、推定部140は、状態情報記憶部171に記憶された状態情報に基づいて、ユーザの関心事を推定する(S105)。例えば、推定部140は、状態情報記憶部171に記憶された状態情報と、関心DB記憶部173に記憶された関心DBとに基づいて、ユーザの関心事を決定する。
 なお、ステップS105は、ステップS103及びステップS104と並行して実行されてもよいし、ステップS103及びステップS104の前に実行されてもよいし、ステップS103及びステップS104の後に実行されてもよい。
 ステップS104及びステップS105の次に、抽出部150は、発話履歴記憶部172に記憶された複数の発話履歴の中から、所定の条件に基づいて、1以上の発話履歴を抽出する(S106)。例えば、抽出部150は、関心DBに基づいて、推定部140が推定したユーザの関心事に対応する発話履歴を決定し、発話履歴記憶部172に記憶された複数の発話履歴の中から、決定した発話履歴を抽出する。
 次に、表示制御部160は、抽出部150が抽出した1以上の発話履歴を示す表示情報を表示機器220に表示させる(S107)。例えば、表示制御部160は、抽出部150が抽出した1以上の発話履歴を示す表示情報を表示機器220に送信する。表示機器220は、受信した表示情報を表示する。
 なお、抽出部150は、ユーザの関心事ではなく発話機器210の種別等に基づいて発話履歴を抽出する場合、ステップS105は実行されなくてもよい。
 或いは、抽出部150は、情報元機器200の種別に基づいて、発話履歴を抽出してもよい。例えば、抽出部150は、表示機器220がテレビである場合には、エアコンの発話履歴を抽出してもよい。
 或いは、抽出部150は、発話機器210に音声情報に基づく音声を適切に出力させることができたか否かに基づいて、発話履歴を抽出してもよい。例えば、発話機器210は、音声情報を受信した場合に、音声情報に基づく音声を出力する。ここで、発話機器210は、エラー等により音声情報に基づく音声を出力できなかった場合には、音声情報に基づく音声を出力できなかったことを示す情報を管理装置100に送信する。例えば、音声制御部130は、当該情報を通信部110及び取得部120を介して取得した場合には、当該情報と発話機器210に発話させた(より具体的は、発話させようとした)音声の内容を示す発話履歴とを紐付けて発話履歴記憶部172に記憶させる。抽出部150は、例えば、当該情報に基づいて発話履歴を抽出する。なお、発話機器210は、エラー等により音声情報に基づく音声を出力できたか否かを示す情報を管理装置100に送信してもよい。
 或いは、抽出部150は、ユーザが対応する必要がある情報を含む発話履歴を抽出してもよい。発話機器210が出力する音声の内容には、例えば、情報元機器200で発生したエラーを解消させるための通知のような、ユーザに対応を求める情報が含まれる場合がある。抽出部150は、このような情報を含む発話履歴を抽出してもよい。
 或いは、抽出部150は、同一の内容の発話履歴が複数ある場合には、複数の同一の内容の発話履歴のうちの最新の発話履歴のみを抽出してもよい。例えば、情報元機器200においてエラーが発生した場合に、当該エラーが解消されないときには、情報元機器200は、当該エラーを示す情報を状態情報として管理装置100に繰り返し送信することがある。このようなときには、音声制御部130は、当該エラーを示す内容の音声を発話機器210に繰り返し出力させ、当該音声の内容を示す発話履歴を繰り返し発話履歴記憶部172に記憶させる。そのため、発話履歴記憶部172には、音声を出力させた日時のみが異なる複数の発話履歴が記憶される。このような場合には、抽出部150は、複数の同一の内容の発話履歴のうちの最新の発話履歴のみを抽出してもよい。
 また、予め任意に定められる所定の数未満の発話履歴しか発話履歴記憶部172に記憶されていない場合、抽出部150は、所定の条件に関わらず発話履歴記憶部172に記憶されている全ての発話履歴を抽出してもよい。つまり、抽出部150は、発話履歴記憶部172に所定の数以上の発話履歴が記憶されている場合、発話履歴記憶部172に記憶されている複数の発話履歴の中から所定の条件に基づいて1以上の発話履歴を抽出し、発話履歴記憶部172に所定の数未満の発話履歴が記憶されている場合、発話履歴記憶部172に記憶されている全ての発話履歴を抽出してもよい。この場合、例えば、所定の数は、2以上であればよく、特に限定されない。所定の数を示す情報は、例えば、記憶部170に予め記憶される。
 [効果等]
 以上のように、実施の形態に係る管理装置100は、第1機器に(本実施の形態では、発話機器210)出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出部150と、当該1以上の発話履歴を示す表示情報を第2機器(本実施の形態では、表示機器220)に表示させる表示制御部160と、を備える。
 これによれば、所定の条件が適切に設定されることで、ユーザが所望する発話履歴を第2機器に優先的に及び/又は分かりやすく表示させることができる。したがって、管理装置100によれば、発話履歴をユーザに見やすくできる。
 また、例えば、所定の条件は、第1機器の種別である。
 これによれば、例えば、第1機器と第2機器とが同じ機器である場合、音声を出力した機器の発話履歴が当該機器に表示されることになる。そのため、表示された表示情報に含まれる発話履歴が、どの機器が発話した内容を示す発話履歴なのかをユーザに分かりやすくできる。
 また、例えば、管理装置100は、第3機器(本実施の形態では、情報元機器200)の状態を示す状態情報に基づいて、第3機器を使用するユーザの関心事を推定する推定部140をさらに備える。この場合、所定の条件は、推定部140によって推定されたユーザの関心事である。
 これによれば、ユーザの関心事に基づいて発話履歴が抽出されるため、ユーザが特に確認したいと考えていると思われる発話履歴が優先的に及び/又は分かりやすく表示させることができる。したがって、管理装置100によれば、発話履歴をユーザにさらに見やすくできる。
 また、例えば、表示制御部160は、抽出部150によって抽出された1以上の発話履歴と、上記した複数の発話履歴のうちの抽出部150によって抽出されていない発話履歴とを区別して示す表示情報を第2機器に表示させる。
 これによれば、所定の条件が適切に設定されることで、ユーザが所望する発話履歴とそれ以外の発話履歴とが区別して、例えば、それぞれが異なる範囲に纏められて第2機器に表示される。したがって、管理装置100によれば、発話履歴をユーザにさらに見やすくできる。
 また、実施の形態に係る管理システム300は、管理装置100と、第1機器(例えば、発話機器210)と、第2機器(例えば、表示機器220)と、を備える。
 また、実施の形態に係る管理方法は、第1機器に出力させた音声の内容を示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出ステップ(S106)と、当該1以上の発話履歴を示す表示情報を第2機器に表示させる表示制御ステップ(S107)と、を含む。
 また、実施の形態に係るプログラムは、実施の形態に係る管理方法をコンピュータに実行させるためのプログラムである。
 これらによれば、上記した管理装置100と同様の効果を奏する。
 (その他の実施の形態)
 以上、本開示に係る管理装置等について、実施の形態に基づいて説明したが、本開示は、上記実施の形態に限定されるものではない。
 例えば、第1機器と第2機器と第3機器とは、それぞれ同じ機器(つまり、一体の機器)で実現されてもよいし、異なる機器(つまり、別体の機器)で実現されてもよい。
 また、管理システム300は、複数の機器により実現されてもよいし、1つの機器で実現されてもよい。
 また、取得部120が取得する情報は、宅配に関する情報等のユーザが受けるサービスに関する情報(サービス情報)であってもよい。この場合、例えば、情報元機器200は、インターホン、宅配サービスを実行する企業のサーバ装置等であってもよい。例えば、音声制御部130は、宅配時の不在通知を示すサービス情報に関する情報を発話機器210に音声で出力させ、且つ、当該情報を発話機器210に音声で出力させたことを示す発話履歴を発話履歴記憶部172に記憶させる。
 また、例えば、上記実施の形態において、管理装置及び管理システムのそれぞれが備える取得部120、音声制御部130等の処理部の構成要素の全部又は一部は、専用のハードウェアで構成されてもよく、或いは、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、HDD又は半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、例えば、上記処理部の構成要素は、1つ又は複数の電子回路で構成されてもよい。1つ又は複数の電子回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
 1つ又は複数の電子回路には、例えば、半導体装置、IC(Integrated Circuit)又はLSI(Large Scale Integration)等が含まれてもよい。IC又はLSIは、1つのチップに集積されてもよく、複数のチップに集積されてもよい。ここでは、IC又はLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、又は、ULSI(Ultra Large Scale Integration)と呼ばれるかもしれない。また、LSIの製造後にプログラムされるFPGA(Field Programmable Gate Array)も同じ目的で使うことができる。
 また、本開示の全般的又は具体的な態様は、システム、装置、方法、集積回路又はコンピュータプログラムで実現されてもよい。或いは、当該コンピュータプログラムが記憶された光学ディスク、HDD若しくは半導体メモリ等のコンピュータ読み取り可能な非一時的記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 その他、本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 本開示は、テレビ又は自律走行型掃除機等の音声を出力可能な機器に適用できる。或いは、本開示は、サーバ装置等の音声を出力可能な機器を制御する機器に適用できる。
 100 管理装置
 110 通信部
 120 取得部
 130 音声制御部
 140 推定部
 150 抽出部
 160 表示制御部
 170 記憶部
 171 状態情報記憶部
 172 発話履歴記憶部
 173 関心DB記憶部
 200 情報元機器
 210 発話機器
 220 表示機器
 300 管理システム

Claims (7)

  1.  第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出部と、
     前記1以上の発話履歴を示す表示情報を第2機器に表示させる表示制御部と、を備える
     管理装置。
  2.  前記所定の条件は、前記第1機器の種別である
     請求項1に記載の管理装置。
  3.  第3機器の状態を示す状態情報に基づいて、前記第3機器を使用するユーザの関心事を推定する推定部をさらに備え、
     前記所定の条件は、前記関心事である
     請求項1に記載の管理装置。
  4.  前記表示制御部は、前記1以上の発話履歴と、前記複数の発話履歴のうちの前記抽出部によって抽出されていない発話履歴とを区別して示す前記表示情報を前記第2機器に表示させる
     請求項3に記載の管理装置。
  5.  請求項1~4のいずれか1項に記載の管理装置と、
     前記第1機器と、
     前記第2機器と、を備える
     管理システム。
  6.  第1機器に出力させた音声の内容をそれぞれ示す複数の発話履歴の中から、所定の条件に基づいて1以上の発話履歴を抽出する抽出ステップと、
     前記1以上の発話履歴を示す表示情報を第2機器に表示させる表示制御ステップと、を含む
     管理方法。
  7.  請求項6に記載の管理方法をコンピュータに実行させるための
     プログラム。
PCT/JP2021/048132 2021-08-03 2021-12-24 管理装置、管理システム、管理方法、及び、プログラム WO2023013094A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21926056.9A EP4383746A1 (en) 2021-08-03 2021-12-24 Management device, management system, management method, and program
JP2022554848A JP7474967B2 (ja) 2021-08-03 2021-12-24 管理装置、管理システム、管理方法、及び、プログラム
CN202180020365.9A CN115943622A (zh) 2021-08-03 2021-12-24 管理装置、管理系统、管理方法、以及程序
US17/908,851 US20230230573A1 (en) 2021-08-03 2021-12-24 Management apparatus, management system, management method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-127765 2021-08-03
JP2021127765 2021-08-03

Publications (1)

Publication Number Publication Date
WO2023013094A1 true WO2023013094A1 (ja) 2023-02-09

Family

ID=85155526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048132 WO2023013094A1 (ja) 2021-08-03 2021-12-24 管理装置、管理システム、管理方法、及び、プログラム

Country Status (5)

Country Link
US (1) US20230230573A1 (ja)
EP (1) EP4383746A1 (ja)
JP (1) JP7474967B2 (ja)
CN (1) CN115943622A (ja)
WO (1) WO2023013094A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242480A (ja) * 1991-01-17 1992-08-31 Toshiba Corp プラントメッセージ解析装置
WO2013001701A1 (ja) * 2011-06-27 2013-01-03 パナソニック株式会社 情報通知装置、情報通知システム、情報通知方法、及びプログラム
JP2015154248A (ja) 2014-02-14 2015-08-24 三菱電機株式会社 制御装置、ホームネットワークシステム、制御方法、および、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242480A (ja) * 1991-01-17 1992-08-31 Toshiba Corp プラントメッセージ解析装置
WO2013001701A1 (ja) * 2011-06-27 2013-01-03 パナソニック株式会社 情報通知装置、情報通知システム、情報通知方法、及びプログラム
JP2015154248A (ja) 2014-02-14 2015-08-24 三菱電機株式会社 制御装置、ホームネットワークシステム、制御方法、および、プログラム

Also Published As

Publication number Publication date
EP4383746A1 (en) 2024-06-12
US20230230573A1 (en) 2023-07-20
CN115943622A (zh) 2023-04-07
JPWO2023013094A1 (ja) 2023-02-09
JP7474967B2 (ja) 2024-04-26

Similar Documents

Publication Publication Date Title
US20170212649A1 (en) Method and system for providing user interface for device control
JP6305883B2 (ja) 通知装置、出力装置、情報通知システム、通知装置の制御方法、および制御プログラム
JP6371707B2 (ja) 情報管理方法、制御システム及び表示機器の制御方法
JP6140201B2 (ja) 制御装置、制御装置の制御方法、制御システム、および制御プログラム
US10666450B2 (en) Operation execution control server, rule generation server, terminal device, linkage system, method for controlling operation execution control server, method for controlling rule generation server, method for controlling terminal device, and computer-readable recording medium
JP2023073359A (ja) 情報出力方法、情報出力装置及びプログラム
JP6181486B2 (ja) 通信システム、サーバ装置、携帯端末装置、および情報処理方法
WO2023013094A1 (ja) 管理装置、管理システム、管理方法、及び、プログラム
KR102149383B1 (ko) 빅데이터 기반 스마트 홈 가전정보 통합 관리 시스템
WO2020195387A1 (ja) 情報通知システム及び情報通知方法
CN114879523A (zh) 设备控制方法和相关装置
US20200341443A1 (en) Control device, home appliance, communication device, server, information presentation system, non-transitory computer readable medium, and control method
CN105051776B (zh) 信息处理设备、信息处理系统和信息处理方法
JP5735588B2 (ja) 宅内コントローラ、宅内機器管理システム、通知メッセージ表示方法及びプログラム
JP2022130218A (ja) サーバ装置、表示装置、及び、表示制御方法
WO2020195388A1 (ja) 情報通知システム及び情報通知方法
WO2022180882A1 (ja) 音声制御方法、サーバ装置、及び、発話体
JP7349642B2 (ja) 通知のオフを受け付ける提示システム
EP4350586A1 (en) Answering system, terminal device, answering method, and program
WO2023007774A1 (ja) 情報通知方法、情報通知装置及び情報通知プログラム
JP7262088B2 (ja) 音声発話装置、音声発話システム、及び、音声発話方法
CN108574612B (zh) 设备确定方法以及设备确定装置
KR20230116528A (ko) 전자 장치 및 그 제어 방법
JP2016045810A (ja) メッセージ送信サーバ、外部機器、メッセージ送信システム、メッセージ送信サーバの制御方法、制御プログラム、および記録媒体
CN117616726A (zh) 通知管理装置、通知系统、通知管理装置的控制方法及程序

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022554848

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21926056

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021926056

Country of ref document: EP

Effective date: 20240304