WO2015079669A1 - 制御装置、制御方法およびプログラム - Google Patents

制御装置、制御方法およびプログラム Download PDF

Info

Publication number
WO2015079669A1
WO2015079669A1 PCT/JP2014/005872 JP2014005872W WO2015079669A1 WO 2015079669 A1 WO2015079669 A1 WO 2015079669A1 JP 2014005872 W JP2014005872 W JP 2014005872W WO 2015079669 A1 WO2015079669 A1 WO 2015079669A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
question
data
control
environment
Prior art date
Application number
PCT/JP2014/005872
Other languages
English (en)
French (fr)
Inventor
光穂 山本
賢志 近藤
鈴木 竜一
直頼 丹澤
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/038,743 priority Critical patent/US9858926B2/en
Publication of WO2015079669A1 publication Critical patent/WO2015079669A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the present disclosure relates to a control device for controlling one or more electronic devices, and more particularly, to a control device that controls an in-vehicle device such as an air conditioner and a power window by interaction with a user.
  • an in-vehicle device such as an air conditioner and a power window by interaction with a user.
  • Patent Document 1 Conventionally, there has been proposed a control device for operating various in-vehicle devices such as an air conditioner and an audio by voice input of a user.
  • the device described in Patent Document 1 has a plurality of speech recognition dictionaries in which dedicated vocabularies are registered in correspondence with control target devices.
  • a technique is described in which a dedicated speech recognition dictionary corresponding to the source of information viewed by the speaker is selected, and speech recognition is performed using the selected dictionary, thereby increasing the recognition rate for the utterance content. .
  • Patent Document 1 specifies what operation the user intends for which device from the source of information that the speaker is viewing and the meaning of each vocabulary. , To perform the operation. Therefore, even if the user's utterance content is not as clear as a so-called voice command, an appropriate operation in accordance with the user's operation intention can be performed.
  • the technique described in Patent Document 1 when the control of a device unrelated to the source of information that the speaker is viewing is intended, the operation intention of the speaker is correctly understood and appropriate device control is performed. It is not possible.
  • the user's operation intention included in the utterance May be ambiguous. In such a case, it has been difficult to grasp the user's operation intention from the utterance and accurately control the device.
  • the present disclosure has been made in view of the above, and an object thereof is to provide a control device capable of controlling an electronic device in accordance with a user's intention.
  • a control device is a control device that controls at least one electronic device in response to an input query of a user, an input query reception unit that receives an input query from a user, and the input query
  • a dialogue model storage unit in which a dialogue model in which a question for the user, a candidate answer of the user for the question, and a control content for each electronic device are associated, and environmental data around the user are acquired.
  • An environmental prediction data calculation unit for calculating environmental prediction data of the control unit, and executed each control content based on the environmental prediction data Calculate the data indicating the degree of comfort of the user's surrounding environment, and refer to the dialog model stored in the dialog model storage unit to ask a question corresponding to the control content that maximizes the data indicating the comfort level
  • a control signal transmission unit that transmits the electronic device.
  • the environmental data refers to measurable data indicating environmental conditions such as temperature, humidity, and pollen concentration
  • the environmental prediction data refers to a predicted value of the environmental data.
  • the comfort level for the human body of the environmental state can be evaluated by a numerical value.
  • a control device is a control device that controls at least one electronic device according to a user input query, and includes an input query reception unit that receives an input query from a user, and the input query.
  • a dialogue model is stored in which the question for the user, the user's answer candidate for the question including cancellation of the dialogue for controlling the electronic device, and the control content for each electronic device are associated with each other.
  • An interaction model storage unit an environment data acquisition unit that acquires environment data around the user, and each control content associated with the question corresponding to the input query and its answer candidate in the interaction model based on the environment data
  • An environmental prediction data calculation unit that calculates environmental prediction data around the user after a predetermined time has elapsed when Data indicating comfort level of the user's surrounding environment when executing each control content based on environment prediction data, data indicating ease of answering the user for each question, and corresponding to the question in the dialogue model Calculating the data indicating the low probability of cancellation based on the cancellation probability stored, the data indicating the comfort level, the data indicating the ease of answering, and the data indicating the low probability of cancellation;
  • a question selection unit that selects a question corresponding to the control content that maximizes the sum of the values, an output unit that outputs the question selected by the question selection unit, and a response of the user to the output question
  • a control signal transmission unit that transmits a control signal for instructing execution of the control content to the electronic device.
  • the question presented to the user is determined by comprehensive evaluation of different indicators such as comfort level of the user's surrounding environment, ease of answering the question, and probability of canceling the conversation. Therefore, it is possible to accurately determine the appropriateness of the question to be presented to the user.
  • a control method is a control method for controlling at least one electronic device in accordance with a user input query, the step of receiving an input query from a user, and acquiring environmental data around the user.
  • a dialogue model in which a question for the user, a candidate answer of the user for the question, and a control content for each electronic device are associated with the input query stored in the dialogue model storage unit ,
  • the question corresponding to the control content that maximizes the data indicating the comfort level the step of outputting the question selected by the question selection unit, and the output of the question And a step of transmitting a control signal for instructing execution of the control content to the electronic device in response to the user's answer.
  • a program is a program for controlling at least one electronic device in response to an input query of a user, the computer receiving an input query from a user, and environmental data around the user And the input query stored in the dialogue model storage unit, the question for the user, the answer candidate of the user for the question, and the control content for each electronic device are associated with each other
  • the dialogue model a step of calculating environmental prediction data around the user after a predetermined time when each control content is executed based on the environmental data; and each control content based on the environmental prediction data
  • data indicating the comfort level of the user's surrounding environment is calculated and the dialog model description is calculated.
  • the electronic device With this configuration, it is possible to control the electronic device so that the user's operation intention is specified through appropriate dialogue and the user's surrounding environment becomes more comfortable.
  • the above-described program may be provided by being stored in a computer-readable non-transitory storage medium or may be provided through an electric communication line.
  • control device the control method, and the program described above, the control content that is predicted to be more comfortable in the environment around the user is specified, the question associated with the control content is selected, and the user who inputs the query Therefore, it is possible to control the electronic device so that the user's operation intention is specified through the dialogue and the user's surrounding environment becomes more comfortable.
  • FIG. 1 is a block diagram illustrating a configuration of a control device according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a conversion chart stored in the input query conversion chart storage unit.
  • FIG. 3 is a diagram illustrating an example of a dialogue model stored in the dialogue model storage unit according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of ideal environment data stored in the ideal environment data storage unit and an example of environment prediction data calculated by the environment prediction data calculation unit.
  • FIG. 5 is an operation flowchart of the control device according to the first embodiment.
  • FIG. 6 is a flowchart showing the flow of the question selection process of the control device in the first embodiment.
  • FIG. 7 is a flowchart showing the flow of the question selection process of the control device in the second embodiment.
  • FIG. 8 is a diagram illustrating an example of a dialogue model stored in the dialogue model storage unit according to the third embodiment.
  • FIG. 9 is a flowchart showing the flow of the question selection process of the control
  • FIG. 1 is a diagram illustrating a configuration of a control device 1 according to the first embodiment.
  • the control device 1 is connected to an in-vehicle device 50 such as an air conditioner 51, a power window 52, an audio 53, and a navigation device 54.
  • the control device 1 is mounted in the vehicle, transmits a control signal to the in-vehicle device 50, and controls the in-vehicle device 50.
  • the in-vehicle device 50 corresponds to an example of the electronic device of the present disclosure.
  • the control device 1 outputs a question to the user in response to a voice query input by the user, and clarifies the user's intention regarding the control of the in-vehicle device through a voice dialogue with the user.
  • the microphone 10 outputs the user's utterance to the control unit 20.
  • the control unit 20 uses the user's utterance input via the microphone 10 as an input query for operating the in-vehicle device 50, and the input query conversion chart storage unit 30, the dialogue model storage unit 31, and the ideal environment data storage unit 32. To select a question for clarifying the operation intention of the user.
  • the control unit 20 also transmits a control signal to the in-vehicle device 50 via the communication interface 40 in accordance with the user's answer to the question input via the microphone 10.
  • the speaker 11 outputs the question selected by the control unit 20 to the user by voice.
  • the microphone 10 corresponds to an example of the input query reception unit of the present disclosure.
  • the speaker 11 corresponds to an example of an output unit of the present disclosure.
  • the control unit 20 includes a voice recognition unit 21, an input query conversion unit 22, an in-vehicle device status confirmation unit 23, an environment data acquisition unit 24, an environment prediction data calculation unit 25, a question selection unit 26, and a control signal transmission. Part 27. These functions of the control unit 20 are realized by executing a program stored in a ROM (not shown) or the like. A program for realizing the function of the control unit 20 is also included in the scope of the present disclosure.
  • the voice recognition unit 21 performs voice recognition on the input user's utterance. If the recognized user utterance corresponds to a voice command, the voice recognition unit 21 outputs the voice command to the control signal transmission unit 27.
  • the voice command is a voice input in which the device to be controlled and the control content are clear from itself.
  • the control signal transmission unit 27 transmits a control signal corresponding to the voice command to the in-vehicle device 50 via the communication interface 40. If the recognized user utterance does not correspond to the voice command, the voice recognition unit 21 outputs the recognized content to the input query conversion unit 22.
  • the input query conversion unit 22 refers to data stored in the input query conversion chart storage unit 30 for user utterances (input queries) that do not correspond to the voice command, and converts the input query into a voice command or a standard query.
  • the input query conversion unit 22 outputs the voice command converted from the input query to the control signal transmission unit 27, and outputs the standard query converted from the input query to the question selection unit 26.
  • the voice query of the user is a) a voice command with a clear meaning and operation intention, b) a voice query with a clear operation intention, although the meaning is not as direct as the voice command, c )
  • Voice control is divided into three ambiguous voice queries, and the control device 1 converts b) into voice commands, and c) leads to appropriate device operation through voice dialogue.
  • the question selection unit 26 selects a question to be output to the user.
  • FIG. 2 is a diagram illustrating an example of an input query conversion chart stored in the input query conversion chart storage unit 30.
  • the voice commands “air conditioner / on” and “air conditioner / rear blowing / off” are associated with each other.
  • input queries such as “hot”, “over”, “hot”
  • a standard query of “hot” is associated instead.
  • a standard query is a representative expression of a plurality of input queries having the same meaning.
  • the in-vehicle device status confirmation unit 23 confirms the control state (ON / OFF, set temperature, volume, etc.) of the in-vehicle device 50, and outputs it to the question selection unit 26.
  • the question selection unit 26 extracts an action (control content) corresponding to the standard query from the dialogue model stored in the dialogue model storage unit 31 based on the state of the in-vehicle device 50, and sends it to the environment prediction data calculation unit 25. Output.
  • FIG. 3 is a diagram illustrating an example of a dialogue model stored in the dialogue model storage unit 31.
  • the interaction model is a database in which routes from standard queries to actuations (control contents) for in-vehicle devices are listed in association with questions to users and answer candidates from users.
  • Q1 Current set temperature is x degrees, how many times do you want to lower?”
  • Q2 Do you turn on the air conditioner?”
  • Q3 Three questions for the user, “How long will the window be opened?” Are associated, and the three questions are associated with answer candidates from the user for each question.
  • Each answer candidate from the user is associated with an actuation.
  • the control device 1 presents a question to the user who has input the voice query and performs a voice dialogue with the user in order to clarify the user's intention to operate. Therefore, it is important how to present appropriate questions to the user.
  • the “appropriate question” is regarded as a question that can ultimately lead to a result intended by the user, and such a question is selected. More specifically, a question that can reach an operation that makes the user's surrounding environment comfortable is selected. This is because the user is usually considered to perform an operation that makes the surrounding environment more comfortable.
  • the environmental data acquisition unit 24 acquires sensing data from a thermometer, a hygrometer, an odor sensor, a pollen sensor, and the like (not shown) and outputs them to the environmental prediction data calculation unit 25.
  • the environment prediction data calculation unit 25 obtains the environment prediction data after a predetermined time when the actuation extracted by the question selection unit 26 is executed based on the sensing data acquired by the environment data acquisition unit for each actuation. To calculate.
  • the environmental prediction data is a predicted value of data indicating the in-vehicle environment.
  • the environmental prediction data may be calculated by a predetermined calculation formula, or a representative value such as a mode value may be used based on statistical data.
  • the question selection unit 26 refers to the ideal environment data storage unit 32 and calculates the data indicating the comfort level of the user's surrounding environment, which is calculated using the environment prediction data and the distance between the ideal environment data and maximizes the data. Select the question that corresponds to the tuition.
  • the question selection unit 26 also outputs a question corresponding to the specified actuation to the speaker 11 as voice data.
  • the ideal environment data stored in the ideal environment data storage unit 32 is data indicating an in-vehicle environment that is evaluated as comfortable for the user's body, and is a numerical value indicating the intensity of temperature, humidity, and smell, pollen It is expressed using one or more parameters such as density and air volume. However, some parameters, such as pollen concentration, are important only at specific times. In addition, the temperature and humidity that are comfortable for the user's body may vary depending on the season. Therefore, the ideal environment data stored in the ideal environment data storage unit 23 may have different numbers of parameters and different values of each parameter for each period. Correspondingly, the type of environmental data acquired by the environmental data acquisition unit 24 and the type of environmental prediction data calculated by the environmental prediction data calculation unit 25 may be different depending on the time.
  • FIG. 4 is a diagram illustrating an example of ideal environment data stored in the ideal environment data storage unit 32 and environment prediction data calculated by the environment prediction data calculation unit.
  • the ideal environment data C i in FIG. 4 is ideal environment data in April, and includes parameters of temperature, odor, and pollen concentration.
  • C pA is environment prediction data when the actuation A is executed
  • C pB is environment prediction data when the actuation B is executed. Comparing C pA and C pB , C pA is closer to C i . This means that the in-vehicle environment becomes more comfortable when the actuation A is executed. In other words, C pA has a larger data indicating the comfort level. Therefore, the question selection unit 26 selects a question corresponding to the actuation A.
  • is a predetermined coefficient value.
  • C p is environment prediction data
  • C i is ideal environment data.
  • FIG. 5 is an operation flowchart of the control device 1.
  • the control device 1 performs voice recognition processing on the user input query, and determines whether or not it corresponds to the voice command (step S11).
  • the control device 1 transmits a control signal to the in-vehicle device 50 (step S12).
  • the control device 1 Even if the user's input query does not correspond to a voice command (No in step S11), if it can be converted into a voice command using the input query conversion chart (Yes in step S13), it is converted into a voice command ( Step S14), a control signal is transmitted.
  • step S13 when the user's utterance cannot be converted into a voice command (No in step S13), the control device 1 converts the user's input query into a standard query (step S15), and specifies the user's operation intention from the standard query. In order to do this, a question to be output to the user is selected (step S16). The process of step S16 will be described later. The question selected in step S16 is output to the user (step S17). Subsequently, an answer from the user is acquired (step S18). If there is no next question (No in step S19), an actuation for the in-vehicle device 50 is specified based on the acquired answer from the user, and a control signal is transmitted. Send.
  • step S19 If there is a next question (Yes in step S19), the question selection process (step S16) is repeated. In addition, based on the user's answer acquired in step S18, first, after transmitting a control signal to the in-vehicle device 50 (step S12), the presence or absence of the next question may be determined.
  • FIG. 6 is a flowchart showing the flow of the question selection process in step S16 of FIG.
  • the control device 1 confirms the status of the in-vehicle device 50 (step S161), and extracts the target actuation (step S162). For example, if the acquired standard query is “hot”, it is confirmed in step S161 that the air conditioner is off. In the interactive model of FIG. 3, “the set temperature is x degrees, The question “How many times do you want to lower?” Is inappropriate. Therefore, the route derived from this question is ignored, and the actions derived from the questions “Do you want to turn on the air conditioner?” And “How long can you open the window?”.
  • control device 1 calculates environmental prediction data when each extracted actuation is executed (step S163), and calculates S a (Q) for each actuation ( Step S164). Then, the control device 1 determines the question corresponding to the actuation with the largest calculated S a (Q) as the question to be output (step S165).
  • a question to be output from the dialogue model as shown in FIG. 3 is selected. For example, if the standard query is “hot”, there are three corresponding questions in FIG. 3 from Q1 to Q3, but when the air conditioner is off, the actions A4 to A7 that follow from Q2 and Q3 are Extracted. If S a (Q) of the actions A4, A6, and A7 is 0.8, 0.5, and 0.3, respectively, the question Q2 corresponding to the action A4 is selected.
  • the control device 1 when the user input query does not correspond to the voice command or cannot be converted into the voice command, the control device 1 according to the first embodiment can execute each action corresponding to the input query.
  • Environmental prediction data is calculated for each situation. Then, based on the distance between the environment prediction data and the ideal environment data, a Sa (Q) value indicating the comfort level of the user's surrounding environment after the lapse of a predetermined time is calculated, and the Sa (Q) value is maximized. Select the question that corresponds to the actuation. Therefore, even when the input query cannot be converted into a voice command, the in-vehicle device can be controlled so that the user's operation intention is specified and the in-vehicle environment becomes more comfortable.
  • the question corresponding to the actuation with the largest S a (Q) is determined as the question to be output has been described, but a plurality of S a (Q )
  • a value is calculated (that is, when a plurality of answer candidates and actuations are associated with one question)
  • the target actuation extraction process may not be performed, and in that case, the status of the in-vehicle device need not be confirmed.
  • the ideal environment data storage unit has been described with respect to the case where different ideal environment data is stored for each period.
  • the same ideal environment data may be stored.
  • different ideal environment data may be stored for each user, for example, only for users with hay fever and the pollen concentration is also included in the parameters.
  • the case where the user input query is voice data has been described.
  • the user input query may be text data or the like.
  • the control device 1 controls the air conditioner or the power window
  • other in-vehicle devices such as audio and navigation devices may be controlled.
  • the electronic device may be controlled.
  • a control device according to the second embodiment of the present disclosure will be described.
  • the control device of the second embodiment also presents a question to the user and performs a dialogue in order to clarify the user's operation intention.
  • an appropriate output to be output to the user As an element of the question, it is further considered whether the question is not a burden on the user.
  • the configuration of the control device of the second embodiment is the same as the configuration of the control device of the first embodiment.
  • the question selection unit 26 of the control device according to the second embodiment further calculates data S d (Q) indicating the user's ease of answering the outputted question.
  • the data S d (Q) indicating the ease of answering a question is an index indicating whether or not the user can easily answer the question that has been output. The larger the value, the smaller the burden on the user and the easier the answer is. It means that.
  • the following equation selects a question Q to maximize the sum of S a (Q) and S d (Q).
  • ⁇ and ⁇ are predetermined coefficient values
  • C n is the number of answer candidates of the user
  • Q n is the total number of questions included in the route including the question (including the question). That is, S d (Q) decreases as the number of answer candidates increases. This is because it is assumed that the greater the number of answer candidates, the more the user must think before answering. More specifically, Yes / No in the question to be answered is larger S d (Q) is a high degree of freedom question of the answer, S d (Q) becomes smaller. Also, the larger the total number of questions, the smaller S d (Q). This is because the number of dialogs with the user increases as the total number of questions increases.
  • S d (Q) calculated by the question selection unit 26 will be described with reference to FIG.
  • the question Q2 “Do you turn on the air conditioner?” Has one answer candidate, and the total number of questions on the route including Q2 is Q2 and Q4, so S d (Q) is , ⁇ ⁇ ⁇ / 2.
  • the question Q3 “How long can I open the window?” Has two answer candidates, there is no question other than Q3 on the route of Q3, and the total number of questions is 1, so S d (Q) is ⁇ ⁇ ⁇ / 2.
  • FIG. 7 is a flowchart showing the flow of question selection processing in the second embodiment.
  • the processing from step S161 to step S164 is the same as that in the first embodiment.
  • the control device 2 of the second embodiment calculates S d (Q) in the following step S165, and in step S166, based on S a (Q) and S d (Q), the question Q Select.
  • the S a (Q) values of A1 to A4, A6, and A7 are 0.7, 0.8, 0.7, 0.8, 0.5, 0.3, respectively.
  • Q1, Q2 and Q3 are 0.7, 0.8, 0.7, 0.8, 0.5, 0.3, respectively.
  • the control device calculates the data S d (Q) indicating the user's ease of answering the output question, and S a (Q) and S d (Q Since the question Q is selected based on the above, it is possible to operate the in-vehicle device through the dialogue so as to make the in-vehicle environment more comfortable without burdening the user.
  • the dialogue model storage unit 31 may store each question in association with each other. Further, in the above embodiment, when calculating S d (Q), the number of candidate answers C n associated with each question is used. However, all questions included in the route including the question (the question is also included). (Including) answer candidates may be used. In this case, S d (Q) is obtained by the following equation.
  • C k is the number of answer candidates in question k
  • n is the total number of questions included in the route including the question (including the question).
  • S d (Q) is ⁇ / 3 ⁇ ⁇ / 2.
  • the question selection unit 26 of the control device according to the third embodiment uses the data S q (Q indicating the low probability that the conversation is canceled by the user. ) Is calculated. Note that the basic configuration of the control device according to the third embodiment is the same as the configuration of the control device according to the first embodiment. Then, based on S a (Q) and S q (Q), a question is selected by the following equation.
  • is a predetermined coefficient value
  • P g (Q) is a probability of being canceled when a certain question is output to the user
  • i is a question number
  • n is the total number of questions included in the route to the question Including questions).
  • FIG. 8 is a diagram illustrating an example of a dialogue model stored in the dialogue model storage unit 31 in the third embodiment.
  • the dialog model of the third embodiment includes “cancel” as an answer candidate from the user. For example, when “No” is answered to the question, or when there is no answer corresponding to another answer candidate from the user for a predetermined time from the question output, it is determined as “Cancel”.
  • the numbers under each “cancel” indicate the respective probabilities (P g (Q)). Even when the same question is output, the cancellation probability may be different depending on the output time and time zone, and therefore different cancellation probabilities may be stored for each year and month and time zone.
  • Each P g (Q) may be a fixed value or may be updated at any time by learning an actual dialogue result with the user.
  • FIG. 9 is a flowchart showing the flow of the question selection process in the third embodiment.
  • the processing from step S161 to step S164 is the same as that in the first embodiment.
  • the control device 1 according to the second embodiment calculates S q (Q) in the following step S165, and in step S166, based on S a (Q) and S q (Q), the question Q Select.
  • the control device calculates data S q (Q) indicating a low probability that an operation is canceled by the user, and S a (Q) and S q ( Since the question Q is selected based on Q), the user can be guided to the operation of the in-vehicle device that makes the in-vehicle environment more comfortable through an appropriate dialogue in accordance with the user's operation intention.
  • the question Q is selected based on S a (Q) and S q (Q) has been described, but the question may be further selected using S d (Q). .
  • the question is selected based on the following formula.
  • a control device is a control device that controls at least one electronic device in response to a user input query, and includes an input query reception unit that receives an input query from the user, and the input query
  • a dialogue model storage unit storing a dialogue model in which a question for the user, a candidate answer of the user for the question, and a control content for each electronic device are stored, and environmental data around the user
  • the environmental data acquisition unit to acquire, and based on the environmental data, the question corresponding to the input query and the control content associated with the answer candidate in the interactive model are executed after a predetermined time has elapsed
  • An environment prediction data calculation unit for calculating environment prediction data around the user, and the control details based on the environment prediction data Data indicating the comfort level of the user's surrounding environment in the case of performing, and referring to the dialog model stored in the dialog model storage unit, corresponding to the control content that maximize
  • the environmental data refers to measurable data indicating environmental conditions such as temperature, humidity, and pollen concentration
  • the environmental prediction data refers to a predicted value of the environmental data.
  • the comfort level for the human body of the environmental state can be evaluated by a numerical value.
  • the data indicating the comfort level may be calculated based on the distance between the ideal environment data stored in the ideal environment data storage unit and each of the environment prediction data.
  • the data indicating the comfort level can be expressed objectively based on the distance between the ideal environment data and the environment prediction data. Therefore, the comfort level can be appropriately compared, and an appropriate question can be selected to make the user's surrounding environment more comfortable.
  • the ideal environment data storage unit stores a plurality of ideal environment data different depending on time, and the data indicating the comfort level includes the ideal environment data selected according to time and the environment. It may be calculated based on the distance from the prediction data.
  • the ideal environment data storage unit stores a plurality of different ideal environment data for each user, and the data indicating the comfort level includes the ideal environment data selected for each user and the ideal environment data. It may be calculated based on the distance from the environmental prediction data.
  • the control device further includes a control status confirmation unit for confirming a control status of the electronic device, wherein the question selection unit is configured to perform the operation in the dialogue model stored in the dialogue model storage unit according to the control status.
  • the control content that can be commanded to the electronic device is specified, and the environment prediction data calculation unit may calculate the environment prediction data for the control content specified by the question selection unit.
  • the question corresponding to the control content extracted according to the control status of the electronic device is the target of the question selection. Therefore, questions that are inappropriate depending on the status of the electronic device can be excluded, and more appropriate questions can be output to the user.
  • the control apparatus further includes an input query conversion unit that converts the input query into a command for controlling the electronic device, and the question selection unit is the input query conversion unit, and the input query is converted into the command. If conversion is not possible, a question to be output to the user may be selected.
  • the case where the user's input query can be converted into a command is, in other words, a case where the user's clear operation intention is included in the input query.
  • a dialogue with the user is performed only when the user's operation intention cannot be clarified. Therefore, the burden on the user for device control can be reduced.
  • the question selection unit calculates data indicating the ease of answering the user for each question, and maximizes the sum of the data indicating the comfort level and the data indicating the ease of answering.
  • the question corresponding to the control content may be selected.
  • the data indicating the ease of answering may be calculated based on the number of answer candidates for each question.
  • the data indicating the ease of answering may be calculated based on the total number of questions to be output to the user before reaching each question, including each question.
  • the answer candidate includes cancellation of a dialog for controlling the electronic device
  • the dialog model stores the probability of cancellation and the question in association with each other
  • the question selection The section calculates data indicating the low probability of cancellation and selects the question corresponding to the control content that maximizes the sum of the data indicating the comfort level and the data indicating the low probability of cancellation You can do it.
  • the reason why the dialogue for controlling the electronic device is cancelled is that the question output to the user is not appropriate. Therefore, by selecting the question based on the probability of cancellation, the user can be guided to the operation of the in-vehicle device that makes the surrounding environment more comfortable through an appropriate dialogue according to the user's operation intention.
  • a control device is a control device that controls at least one electronic device in response to a user input query, and includes an input query reception unit that receives an input query from the user, and the input query
  • a dialogue model is stored in which the question for the user, the user's answer candidate for the question including cancellation of the dialogue for controlling the electronic device, and the control content for each electronic device are associated with each other.
  • a dialogue model storage unit an environment data acquisition unit for obtaining environmental data around the user, and each control associated with the question corresponding to the input query and its answer candidate in the dialogue model based on the environment data
  • An environment prediction data calculation unit for calculating environment prediction data around the user after a predetermined time when content is executed; Corresponding to the question in the interactive model, data indicating the comfort level of the user's surrounding environment when executing each control content based on the environment prediction data, data indicating the user's ease of answering to each question, and Data indicating the low probability of cancellation based on the probability of cancellation stored together, data indicating the comfort level, data indicating the ease of answering, and data indicating the low probability of cancellation
  • a question selection unit that selects a question corresponding to the control content that maximizes the sum, an output unit that outputs the question selected by the question selection unit, and a response of the user to the output question
  • a control signal transmission unit that transmits a control signal for instructing execution of the control content to the electronic device.
  • the question presented to the user is determined by comprehensive evaluation of different indicators such as comfort level of the user's surrounding environment, ease of answering the question, and probability of canceling the conversation. Therefore, it is possible to accurately determine the appropriateness of the question to be presented to the user.
  • a control method is a control method for controlling at least one electronic device in accordance with a user input query, the step of receiving an input query from a user, and acquiring environmental data around the user.
  • a dialogue model in which a question for the user, a candidate answer of the user for the question, and a control content for each electronic device are associated with the input query stored in the dialogue model storage unit ,
  • a step of calculating environment prediction data around the user after a predetermined time when each control content is executed based on the environment data, and when each control content is executed based on the environment prediction data Calculates the data indicating the comfort level of the user's surrounding environment in the dialog, and the dialog stored in the dialog model storage unit Referring to Dell, selecting a question corresponding to a control content that maximizes the data indicating the comfort level, outputting a question selected by the question selection unit, and outputting the question And a step of transmitting a control signal for instructing execution of the control content to the electronic device in response to the user's answer.
  • a program is a program for controlling at least one electronic device in response to an input query of a user, the computer receiving an input query from the user, and environmental data around the user And the input query stored in the dialogue model storage unit, the question for the user, the answer candidate of the user for the question, and the control content for each electronic device are associated with each other
  • the dialogue model a step of calculating environmental prediction data around the user after a predetermined time when each control content is executed based on the environmental data; and each control content based on the environmental prediction data Calculate the data indicating the comfort level of the user's surrounding environment when executed, and the dialogue model Selecting the question corresponding to the control content that maximizes the data indicating the comfort level with reference to the dialogue model stored in the storage unit, and outputting the question selected by the question selection unit And a step of transmitting a control signal for instructing execution of the control content to the electronic device in accordance with the user's answer to the outputted question.
  • the electronic device With this configuration, it is possible to control the electronic device so that the user's operation intention is specified through appropriate dialogue and the user's surrounding environment becomes more comfortable.
  • the above-described program may be provided by being stored in a computer-readable non-transitory storage medium or may be provided through an electric communication line.
  • control device the control method, and the program described above, the control content that is predicted to be more comfortable in the environment around the user is specified, the question associated with the control content is selected, and the user who inputs the query Therefore, it is possible to control the electronic device so that the user's operation intention is specified through the dialogue and the user's surrounding environment becomes more comfortable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

 本開示の一実施形態に係る制御装置(1)は、ユーザからの入力クエリに対して、ユーザに対する質問と、回答候補と、各電子機器(50)に対する制御内容とが対応付けられた対話モデルが記憶された記憶部(31)と、ユーザ周辺の環境データを取得する取得部(24)と、環境データに基づいて、入力クエリに対応する各制御内容が実行された場合における所定時間経過後のユーザ周辺の環境予測データを算出す算出部(25)と、環境予測データに基づいて各制御内容を実行した場合におけるユーザの周辺環境の快適度を最大化する制御内容に対応する質問を選択する選択部(26)とを備えている。

Description

制御装置、制御方法およびプログラム 関連出願の相互参照
 本出願は、2013年11月26日に出願された日本国特許出願2013-243858号に基づくものであり、これをここに参照により援用する。
 本開示は、1つ以上の電子機器を制御するための制御装置に関し、特に、エアコン、パワーウィンドウ等の車載機器の制御をユーザとのインタラクションによって行う制御装置に関するものである。
 従来、エアコン、オーディオ等の様々な車載機器を、ユーザの音声入力によって操作するための制御装置が提案されている。例えば、特許文献1に記載された装置は、制御対象機器に対応させて専用の語彙が登録されている複数の音声認識辞書を有している。そして、発話者が視聴している情報のソースに対応した専用の音声認識辞書を選択し、選択した辞書を用いて音声認識を行うことによって、発話内容に対する認識率を高める技術が記載されている。
特開2007-286136号公報
 特許文献1に記載の技術は、要するに、発話者が視聴している情報のソースと、各語彙の意味とから、ユーザがどの機器に対してどのような操作を意図しているかを特定して、操作を実行するものである。したがって、ユーザの発話内容が、いわゆる音声コマンドほど明瞭でなくても、ユーザの操作意図に即した適切な操作を行うことができる。しかし、特許文献1に記載の技術では、発話者が視聴している情報のソースとは無関係な機器の制御を意図する場合、発話者の操作意図を正しく理解して、適切な機器制御を行うことはできない。
 また、ユーザが、各車載機器がどのような機能を有しているのかを知らないために、あるいは、各機能を実現するための操作方法を知らないために、発話に含まれるユーザの操作意図が曖昧となる場合がある。このような場合には、発話からユーザの操作意図を把握して的確に機器制御を行うことが困難であった。
 本開示は、上記に鑑みてなされたものであり、ユーザの意図に沿って電子機器の制御を行うことができる制御装置を提供することを目的とする。
 本開示の一態様の制御装置は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御装置であって、ユーザから入力クエリを受け付ける入力クエリ受付部と、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部と、ユーザ周辺の環境データを取得する環境データ取得部と、前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部と、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択する質問選択部と、前記質問選択部にて選択された質問を出力する出力部と、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信する制御信号送信部とを備えた構成を有している。
 この構成により、ユーザから入力クエリを受け付けると、ユーザ周辺の環境がより快適になると予測されるアクチュエーション(制御内容)が特定され、その制御内容に対応付けられた質問が選択されて、クエリを入力したユーザに出力される。そして、出力された質問に対するユーザの回答に応じて、電子機器の操作が実行される。通常、ユーザは、周辺環境が快適になることを望んでいると考えられる。したがって、ユーザの入力クエリに明確な操作指示が含まれなくても、適切な対話を通じて、ユーザの周辺環境がより快適になるような操作をユーザの操作意図として特定し、車載機器の制御を行うことができる。なお、環境データとは、例えば、温度、湿度、花粉濃度等、環境状態を示す計測可能なデータをいい、環境予測データとは、環境データの予測値をいう。また、環境データ及び環境予測データの具体的数値については、その環境状態の人体にとっての快適度を数値により評価することができる。
 本開示の別の態様の制御装置は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御装置であって、ユーザから入力クエリを受け付ける入力クエリ受付部と、前記入力クエリに対して、前記ユーザに対する質問と、前記電子機器の制御のための対話のキャンセルを含む前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部と、ユーザ周辺の環境データを取得する環境データ取得部と、前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部と、前記環境予測データに基づく前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータと、前記各質問に対する前記ユーザの回答容易性を示すデータと、前記対話モデルにおいて前記質問と対応付けて記憶されるキャンセルの確率に基づく前記キャンセルの確率の低さを示すデータとを算出し、前記快適度を示すデータと前記回答容易性を示すデータと前記キャンセルの確率の低さを示すデータとの和を最大化する制御内容に対応する質問を選択する質問選択部と、前記質問選択部にて選択された質問を出力する出力部と、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信する制御信号送信部とを備えた構成を有している。
 この構成によれば、ユーザに対して提示される質問が、ユーザの周辺環境の快適度、質問に対する回答容易性、対話キャンセル確率という異なる指標の総合評価により決定される。したがって、ユーザに対して提示すべき質問の適切性を精度よく判断することができる。
 本開示の一態様の制御方法は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御方法であって、ユーザから入力クエリを受け付けるステップと、ユーザ周辺の環境データを取得するステップと、対話モデル記憶部に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、前記質問選択部にて選択された質問を出力するステップと、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信するステップとを備える。
 この構成により、適切な対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。なお、本開示の制御方法に、上述した制御装置の各構成を適用することも可能である。
 本開示の一態様のプログラムは、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行うためのプログラムであって、コンピュータに、ユーザから入力クエリを受け付けるステップと、ユーザ周辺の環境データを取得するステップと、対話モデル記憶部に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、前記質問選択部にて選択された質問を出力するステップと、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信するステップとを実行させる。
 この構成により、適切な対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。なお、上述のプログラムに、上述した制御装置の各構成を適用することも可能である。また、上述のプログラムは、コンピュータ読み取り可能な非一時的な記憶媒体に記憶されて提供されてもよいし、電気通信回線を通じて提供されてもよい。
 上述の制御装置、制御方法およびプログラムによれば、ユーザ周辺の環境がより快適になると予測される制御内容が特定され、その制御内容に対応付けられた質問が選択されて、クエリを入力したユーザに出力されるので、対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。
図1は、第1の実施の形態における制御装置の構成を示すブロック図である。 図2は、入力クエリ変換チャート記憶部に記憶される変換チャートの例を示す図である。 図3は、第1の実施の形態における対話モデル記憶部に記憶される対話モデルの例を示す図である。 図4は、理想環境データ記憶部に記憶される理想環境データの例と環境予測データ算出部にて算出された環境予測データの例を示す図である。 図5は、第1の実施の形態における制御装置の動作フロー図である。 図6は、第1の実施の形態における制御装置の質問選択処理の流れを示すフロー図である。 図7は、第2の実施の形態における制御装置の質問選択処理の流れを示すフロー図である。 図8は、第3の実施の形態における対話モデル記憶部に記憶される対話モデルの例を示す図である。 図9は、第3の実施の形態における制御装置の質問選択処理の流れを示すフロー図である。
 以下、本開示の実施の形態の制御装置について、図面を参照しながら説明する。
(第1の実施の形態)
 図1は、第1の実施の形態の制御装置1の構成を示す図である。制御装置1は、エアコン51、パワーウィンドウ52、オーディオ53、ナビゲーション装置54等の車載機器50に接続されている。制御装置1は、車両内に搭載され、車載機器50に制御信号を送信し、車載機器50の制御を行う。車載機器50は、本開示の電子機器の一例に相当する。
 本実施の形態の制御装置1は、ユーザから入力された音声クエリに対して、ユーザに質問を出力し、ユーザとの音声対話を通じて、車載機器の制御に関するユーザの意図を明確化するための構成として、マイク10と、スピーカ11と、制御部20と、入力クエリ変換チャート記憶部30と、対話モデル記憶部31と、理想環境データ記憶部32と、通信インターフェース40とを有している。マイク10は、ユーザの発話を制御部20に出力する。制御部20は、マイク10を介して入力されたユーザの発話を車載機器50の操作を行うための入力クエリとし、入力クエリ変換チャート記憶部30、対話モデル記憶部31、理想環境データ記憶部32を参照して、ユーザの操作意図を明確にするための質問を選択する。制御部20は、また、マイク10を介して入力された、質問に対するユーザの回答に応じて、車載機器50に通信インターフェース40を介して制御信号を送信する。スピーカ11は、制御部20にて選択された質問を、ユーザに対して音声で出力する。マイク10は、本開示の入力クエリ受付部の一例に相当する。スピーカ11は、本開示の出力部の一例に相当する。
 制御部20は、音声認識部21と、入力クエリ変換部22と、車載機器ステータス確認部23と、環境データ取得部24と、環境予測データ算出部25と、質問選択部26と、制御信号送信部27とを有する。制御部20が有するこれらの機能は、図示しないROM等に記憶されたプログラムを実行することによって実現される。制御部20の機能を実現するプログラムも本開示の範囲に含まれる。
 音声認識部21は、入力されたユーザの発話について、音声認識を行う。音声認識部21は、認識されたユーザの発話が音声コマンドに該当する場合には、その音声コマンドを制御信号送信部27に出力する。音声コマンドとは、制御対象機器及び制御内容が、それ自体から明確な音声入力である。制御信号送信部27は、音声コマンドに対応する制御信号を、通信インターフェース40を介して車載機器50に送信する。音声認識部21は、認識されたユーザの発話が音声コマンドに該当しない場合には、認識内容を入力クエリ変換部22に出力する。入力クエリ変換部22は、音声コマンドに該当しないユーザの発話(入力クエリ)について、入力クエリ変換チャート記憶部30に記憶されるデータを参照して、入力クエリを音声コマンドまたは標準クエリに変換する。入力クエリ変換部22は、入力クエリから変換された音声コマンドは制御信号送信部27に出力し、入力クエリから変換された標準クエリは質問選択部26に出力する。このように、本実施の形態では、ユーザの音声クエリを、a)語意及び操作意図が明確な音声コマンド、b)語意は音声コマンドほど直接的ではないが、操作意図が明確な音声クエリ、c)語意も操作意図もあいまいな音声クエリの3つに分け、制御装置1は、b)については、音声コマンドに変換し、c)については、音声対話を通じて、適切な機器操作に誘導するために、質問選択部26にてユーザに出力すべき質問を選択する。
 図2は、入力クエリ変換チャート記憶部30に記憶された入力クエリ変換チャートの例を示す図である。例えば、「空調つけて」、「エアコン後ろ切って」という入力クエリからは、ユーザの操作意図(制御対象機器及び操作内容)を一義的に特定することができるので、これらの入力クエリには、それぞれ「エアコン/オン」、「エアコン/後方送風/オフ」という音声コマンドが対応付けられている。一方、「暑い」、「あちー」、「暑いよー」という入力クエリに対しては、例えば、窓を開ける、エアコンをつけるなどの複数の選択肢があり、ユーザの操作意図を特定することができないため、音声コマンドは対応付けられず、代わりに、「暑い」という標準クエリが対応付けられている。なお、標準クエリとは、同じ意味を持つ複数の入力クエリの代表的表現である。
 図1に戻り、車載機器ステータス確認部23は、車載機器50の制御状態(オン/オフ、設定温度、ボリューム等)を確認し、質問選択部26に出力する。質問選択部26は、対話モデル記憶部31に記憶される対話モデルから、車載機器50の状態に基づいて、標準クエリに対応するアクチュエーション(制御内容)を抽出し、環境予測データ算出部25に出力する。
 図3は、対話モデル記憶部31に記憶される対話モデルの例を示す図である。対話モデルは、標準クエリから車載機器に対するアクチュエーション(制御内容)までの経路を、ユーザへの質問及びそれに対するユーザからの回答候補と対応付けて列挙したデータベースである。図3に示すように、「暑い」という標準クエリに対しては、Q1「現在の設定温度はx度ですが、何度下げますか?」、Q2「エアコンをつけますか?」、Q3「窓をどのくらいあけますか?」という、ユーザに対する3つの質問が対応付けられており、3つの質問には、それぞれの質問に対するユーザからの回答候補が対応付けられている。また、ユーザからの回答候補のそれぞれには、アクチュエーションが対応付けられている。
 上述のように、制御装置1は、ユーザの操作意図を明確にするために、音声クエリを入力したユーザに対して質問を提示し、ユーザとの音声対話を行う。したがって、いかに適切な質問をユーザに対して提示するかが重要である。本実施の形態では、「適切な質問」を、最終的にユーザの意図する結果に導くことができる質問と捉え、このような質問を選択する。より具体的には、ユーザの周辺環境を快適にする操作にたどり着ける質問を選択する。これは、通常、ユーザは、周辺環境をより快適にする操作を意図していると考えられるためである。
 再び図1に戻り、環境データ取得部24は、図示しない温度計や湿度計、匂いセンサ、花粉センサ等からのセンシングデータを取得して、環境予測データ算出部25に出力する。環境予測データ算出部25は、環境データ取得部にて取得されたセンシングデータに基づき、質問選択部26にて抽出されたアクチュエーションを実行した場合における所定時間経過後の環境予測データをアクチュエーションごとに算出する。環境予測データとは、車両内環境を示すデータの予測値である。環境予測データは、所定の計算式によって算出されてもよいし、統計データに基づき、最頻値等の代表値を用いてもよい。
 質問選択部26は、理想環境データ記憶部32を参照し、環境予測データと、理想環境データとの距離とを用いて算出される、ユーザの周辺環境の快適度を示すデータを最も大きくするアクチュエーションに対応する質問を選択する。質問選択部26は、また、特定されたアクチュエーションに対応する質問を音声データとしてスピーカ11に出力する。
 ここで、理想環境データ記憶部32に記憶されている理想環境データとは、ユーザの身体にとって快適と評価される車両内環境を示すデータであり、温度、湿度、匂いの強弱を示す数値、花粉濃度、風量等の1つ以上のパラメータを用いて表される。ただし、花粉濃度のように、特定の時期においてのみ、重要性を持つパラメータもある。また、ユーザの身体にとって快適な温度や湿度は、季節によって変わり得る。したがって、理想環境データ記憶部23に記憶される理想環境データは、時期ごとに、パラメータの数も異なり得るとともに、各パラメータの数値も異なり得る。これに対応して、環境データ取得部24にて取得される環境データの種類及び環境予測データ算出部25にて算出される環境予測データの種類も、時期に応じて異なり得る。
 図4は、理想環境データ記憶部32に記憶される理想環境データと環境予測データ算出部にて算出された環境予測データの例を示す図である。図4の理想環境データCiは、4月における理想環境データであり、温度、匂い、花粉濃度のパラメータからなる。また、CpAは、アクチュエーションAが実行された場合における環境予測データであり、CpBは、アクチュエーションBが実行された場合における環境予測データである。CpAとCpBとを比較すると、CpAの方が、Ciとの距離が近い。これは、アクチュエーションAを実行した方が、車両内環境がより快適となることを意味する。つまり、CpAの方が、快適度を示すデータも大きくなる。したがって、質問選択部26は、アクチュエーションAに対応する質問を選択する。
 より具体的には、快適度を示すデータはSa(Q)で表され、次式により求められる。
Figure JPOXMLDOC01-appb-M000001
ここで、γは所定の係数値である。また、Cpは環境予測データ、Ciは理想環境データである。
 次に、第1の実施の形態の制御装置1の動作について説明する。図5は、制御装置1の動作フロー図である。制御装置1は、まず、ユーザの入力クエリに対して音声認識処理を行い、音声コマンドに該当するか否かを判断する(ステップS11)。ユーザの入力クエリが音声コマンドに該当する場合には(ステップS11にてYes)、制御装置1は、車載装置50に対して制御信号を送信する(ステップS12)。ユーザの入力クエリが音声コマンドに該当しない場合でも(ステップS11にてNo)、入力クエリ変換チャートを用いて音声コマンドに変換可能な場合は(ステップS13にてYes)、音声コマンドに変換して(ステップS14)、制御信号を送信する。
 一方、ユーザの発話が音声コマンドに変換できない場合(ステップS13にてNo)、制御装置1は、ユーザの入力クエリを標準クエリに変換して(ステップS15)、標準クエリからユーザの操作意図を特定するために、ユーザに対して出力する質問を選択する(ステップS16)。ステップS16の処理については、後述する。ステップS16にて選択された質問はユーザに対して出力される(ステップS17)。続いて、ユーザからの回答を取得し(ステップS18)、次の質問がなければ(ステップS19にてNo)取得したユーザからの回答に基づいて車載機器50に対するアクチュエーションを特定し、制御信号を送信する。次の質問があれば(ステップS19にてYes)、質問選択処理(ステップS16)を繰り返す。なお、ステップS18にて取得したユーザの回答に基づき、まずは車載機器50に対して制御信号を送信(ステップS12)した後に、次の質問の有無を判断してもよい。
 図6は、図5のステップS16の質問選択処理の流れを示すフロー図である。まず、制御機器装置1は、車載機器50のステータスを確認し(ステップS161)、対象アクチュエーションを抽出する(ステップS162)。例えば、取得した標準クエリが「暑い」であった場合、ステップS161にて、エアコンがオフとなっていることが確認されると、図3の対話モデルにおいて、「設定温度はx度ですが、何度下げますか?」という質問は不適切である。したがって、この質問から派生する経路は無視され、「エアコンをつけますか?」及び「窓をどのくらい開けますか?」という質問から派生するアクチュエーションが抽出されることになる。
 図6に戻り、制御装置1は、次に、抽出された各アクチュエーションが実行された場合における、環境予測データを算出し(ステップS163)、アクチュエーションごとにSa(Q)を算出する(ステップS164)。そして、制御装置1は、算出されたSa(Q)が最も大きくなるアクチュエーションに対応する質問を、出力すべき質問として決定する(ステップS165)。
 ステップS161からステップS165までの処理により、図3に示すような対話モデルから出力されるべき質問が選択される。例えば、標準クエリが「暑い」であったとすると、図3において、対応する質問はQ1からQ3の3つあるが、エアコンがオフ状態であった場合、Q2及びQ3から続くアクチュエーションA4からA7が抽出される。アクチュエーションA4、A6、A7のSa(Q)が、それぞれ、0.8、0.5、0.3であったとすると、アクチュエーションA4に対応する質問Q2が選択される。
 以上、説明したように、第1の実施の形態の制御装置1は、ユーザの入力クエリが音声コマンドに該当しないか、または、音声コマンドに変換することができない場合、入力クエリに対応する各アクチュエーションごとに環境予測データを算出する。そして、環境予測データと理想環境データとの距離に基づいて、所定時間経過後のユーザの周辺環境の快適度を示すSa(Q)値を算出し、Sa(Q)値が最大となるアクチュエーションに対応する質問を選択する。したがって、入力クエリを音声コマンドに変換することができない場合も、ユーザの操作意図を特定し、車両内環境がより快適になるように、車載機器の制御を行うことができる。
 また、上記の実施の形態では、車載機器の制御ステータスに応じて対象となるアクチュエーション及び質問を絞り込むため、ユーザに対してより適切な質問を出力することができる。
 なお、第1の実施の形態では、Sa(Q)が最も大きくなるアクチュエーションに対応する質問を、出力すべき質問として決定する場合について説明したが、1つの質問について複数のSa(Q)値が算出される場合(すなわち、1つの質問について、複数の回答候補及びアクチュエーションが対応付けられる場合)、Sa(Q)値の平均値等、分布状態を考慮した代表値の比較により、質問を選択してもよい。また、対象アクチュエーション抽出処理を行わなくてもよく、その場合、車載機器のステータスを確認しなくてよい。
 また、上記の実施の形態では、理想環境データ記憶部には、時期ごとに異なる理想環境データが記憶される場合について説明したが、同一の理想環境データが記憶されていてもよい。また、例えば、花粉症のユーザのみ、花粉濃度もパラメータに含めるなど、ユーザごとに異なる理想環境データが記憶されていてもよい。
 また、第1の実施の形態では、ユーザの入力クエリが音声データである場合について説明したが、ユーザの入力クエリはテキストデータ等であってもよい。さらに、上記の実施の形態では、制御装置1がエアコン又はパワーウィンドウの制御を行う場合について説明したが、オーディオやナビゲーション装置等の他の車載機器の制御を行ってもよいし、車載機器以外の電子機器を制御してもよい。
(第2の実施の形態)
 次に、本開示の第2の実施の形態の制御装置について説明する。第2の実施の形態の制御装置も、ユーザの操作意図を明確にするためにユーザに質問を提示して対話を行うが、第2の実施の形態では、ユーザに対して出力すべき適切な質問の要素として、さらに、ユーザの負担にならない質問であるか否かも考慮する。第2の実施の形態の制御装置の構成は、第1の実施の形態の制御装置の構成と同じである。しかし、第2の実施の形態の制御装置の質問選択部26は、さらに、出力された質問に対するユーザの回答容易性を示すデータSd(Q)を算出する。質問の回答容易性を示すデータSd(Q)は、ユーザが出力された質問に対して容易に回答できるか否かを示す指標であり、値が大きいほどユーザへの負担が小さく、回答容易であることを意味する。そして、Sa(Q)とSd(Q)とに基づいて、次式により、Sa(Q)とSd(Q)の和を最大にする質問Qを選択する。
Figure JPOXMLDOC01-appb-M000002
 ここで、Sd(Q)は、次式により求められる。
Figure JPOXMLDOC01-appb-M000003
上式において、α、βは、所定の係数値、Cnは、ユーザの回答候補数、Qnは、その質問を含む経路に含まれる質問総数(当該質問を含む)である。つまり、回答候補数が多いほどSd(Q)は小さくなる。これは、回答候補数が多いほど、ユーザが回答までに多くのことを考えなければならないと想定されるためである。具体的には、はい/いいえで答えられる質問は、Sd(Q)が大きくなり、回答の自由度の高い質問は、Sd(Q)が小さくなる。また、質問総数が大きいほど、Sd(Q)は小さくなる。これは、質問総数が多いほど、ユーザとの対話の回数が増えるためである。
 図3を参照して、質問選択部26が算出するSd(Q)の具体例を説明する。例えば、Q2「エアコンをつけますか?」という質問は、回答候補数が1つであり、また、Q2まを含む経路における質問総数は、Q2とQ4の2つなので、Sd(Q)は、α・β/2となる。一方、Q3「窓をどのくらい開けますか?」という質問は、回答候補数が2つあり、Q3の経路にQ3以外の質問はなく、質問総数は1つとなるので、Sd(Q)は、α・β/2となる。
 図7は、第2の実施の形態における質問選択処理の流れを示すフロー図である。ステップS161からステップS164までの処理は、第1の実施の形態と同じである。第2の実施の形態の制御装置2は、続くステップS165にて、Sd(Q)を算出し、ステップS166にて、Sa(Q)とSd(Q)とに基づいて、質問Qを選択する。
 例えば、図3の例で、A1からA4、及びA6、A7のSa(Q)値が、それぞれ、0.7、0.8、0.7、0.8、0.5、0.3であったとすると、Q1、Q2、Q3のそれぞれについて、
Figure JPOXMLDOC01-appb-M000004
は、α・β/3+0.8γ、α・β/2+0.8γ、α・β/2+0.5γとなる。α=β=γ=1のとき、α・β/2+0.8γが一番大きくなるので、エアコンがついていない状態であれば、Q2が選択される。
 以上説明したように、第2の実施の形態の制御装置は、出力された質問に対するユーザの回答容易性を示すデータSd(Q)を算出して、Sa(Q)とSd(Q)とに基づいて質問Qを選択するので、ユーザに負担をかけることなく、対話を通じて、車両内環境がより快適となるように、車載機器の操作を行うことができる。
 第2の実施の形態においては、Sa(Q)を算出した後にSd(Q)を算出する場合について説明したが、順序が逆であってもよく、また、Sd(Q)は予め対話モデル記憶部31において、各質問と対応付けて記憶されていてもよい。さらに、上記の実施の形態では、Sd(Q)を算出する際、各質問に対応付けられた回答候補数Cnを用いたが、その質問を含む経路に含まれる全質問(当該質問も含む)の回答候補数を用いてもよい。この場合、Sd(Q)は、次式により求められる。
Figure JPOXMLDOC01-appb-M000005
なお、Ckは、質問kにおける回答候補数、nはその質問を含む経路に含まれる質問総数(当該質問も含む)である。例えば、図3のQ2については、Q2を含む経路の質問総数は、Q2とQ4の2つであり、Q2についての回答候補数が1つ、Q4についての回答候補数が3つであるので、Sd(Q)は、α/3×β/2となる。
(第3の実施形態)
 次に、第3の実施の形態の制御装置について説明する。第3の実施の形態の制御装置も、ユーザの操作意図を明確にするためにユーザに質問を提示して対話を行う。対話の途中で、ユーザから対話をキャンセルされると、最終的にユーザの意図する結果にたどり着くことができないから、ユーザから対話をキャンセルされる質問は、適切な質問とは言えない。そこで、第3の実施の形態の制御装置の質問選択部26は、快適度を示すデータSa(Q)に加えて、ユーザから対話をキャンセルされる確率の低さを示すデータSq(Q)を算出する。なお、第3の実施の形態の制御装置の基本的な構成は、第1の実施の形態の制御装置の構成と同じである。そして、Sa(Q)とSq(Q)とに基づいて、次式により質問を選択する。
Figure JPOXMLDOC01-appb-M000006
q(Q)は、次式により求められる。
Figure JPOXMLDOC01-appb-M000007
ここで、δは所定係数値、Pg(Q)は、ある質問をユーザに出力した際にキャンセルされる確率、iは質問番号、nは、その質問までの経路に含まれる質問総数(当該質問を含む)である。
 図8は、第3の実施形態において、対話モデル記憶部31に記憶される対話モデルの例を示す図である。図8に示すように、第3の実施の形態の対話モデルには、ユーザからの回答候補として「キャンセル」が含まれる。例えば、質問に対して、「いいえ」と解答された場合や、質問出力から所定時間、ユーザから他の回答候補に該当する回答がなかった場合には、「キャンセル」と判断される。各「キャンセル」の下の数字は、それぞれの確率(Pg(Q))を示している。なお、同じ質問を出力した場合でも、出力された時期や時間帯によってキャンセルされる確率は異なり得るので、年月や時間帯ごとに異なるキャンセル確率が記憶されてもよい。また、各Pg(Q)は、固定値でもよいし、ユーザとの実際の対話結果の学習により随時更新させてもよい。
 図9は、第3の実施の形態における質問選択処理の流れを示すフロー図である。ステップS161からステップS164までの処理は、第1の実施の形態と同じである。第2の実施の形態の制御装置1は、続くステップS165にて、Sq(Q)を算出し、ステップS166にて、Sa(Q)とSq(Q)とに基づいて、質問Qを選択する。
 例えば、図8の例で、A1からA4、及びA6、A7のSa(Q)値が、それぞれ、0.7、0.8、0.7、0.8、0.5、0.3であり、Q1、Q2、Q3に対するキャンセル確率が、それぞれ、0.2、0.1、0.3であったとすると、Q1、Q2、Q3のそれぞれについて、Sa(Q)とSq(Q)との和は、0.8γ+0.8δ、0.8γ+0.9δ、0.5γ+0.7δとなる。α=β=δ=1のとき、0.8γ+0.9δが一番大きくなるので、エアコンがついていない状態であれば、Q2が選択されることになる。
 以上説明したように、第3の実施の形態の制御装置は、ユーザから操作をキャンセルされる確率の低さを示すデータSq(Q)を算出して、Sa(Q)とSq(Q)とに基づいて質問Qを選択するので、ユーザの操作意図に沿った適切な対話を通じて、車両内環境がより快適となるような車載機器の操作に、ユーザを誘導することができる。
 第3の実施の形態では、Sa(Q)とSq(Q)とに基づいて質問Qを選択する場合について説明したが、さらにSd(Q)を用いて質問を選択してもよい。この場合、質問の選択は、次式に基づいて行われる。
Figure JPOXMLDOC01-appb-M000008
このように、さらにSd(Q)を用いることで、ユーザに負担をかけずに、ユーザの意図する快適性を実現する操作に誘導するための質問を選択することができる。
 本開示によれば、様々な構成の制御装置、制御方法およびプログラムを提供できる。
例えば、本開示の一例に係る制御装置は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御装置であって、ユーザから入力クエリを受け付ける入力クエリ受付部と、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部と、ユーザ周辺の環境データを取得する環境データ取得部と、前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部と、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択する質問選択部と、前記質問選択部にて選択された質問を出力する出力部と、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信する制御信号送信部とを備えた構成を有している。
 この構成により、ユーザから入力クエリを受け付けると、ユーザ周辺の環境がより快適になると予測されるアクチュエーション(制御内容)が特定され、その制御内容に対応付けられた質問が選択されて、クエリを入力したユーザに出力される。そして、出力された質問に対するユーザの回答に応じて、電子機器の操作が実行される。通常、ユーザは、周辺環境が快適になることを望んでいると考えられる。したがって、ユーザの入力クエリに明確な操作指示が含まれなくても、適切な対話を通じて、ユーザの周辺環境がより快適になるような操作をユーザの操作意図として特定し、車載機器の制御を行うことができる。なお、環境データとは、例えば、温度、湿度、花粉濃度等、環境状態を示す計測可能なデータをいい、環境予測データとは、環境データの予測値をいう。また、環境データ及び環境予測データの具体的数値については、その環境状態の人体にとっての快適度を数値により評価することができる。
 上記制御装置において、前記快適度を示すデータは、理想環境データ記憶部に記憶された理想環境データと、各前記環境予測データとの距離に基づいて算出されてよい。
 この構成によれば、快適度を示すデータは、理想環境データと環境予測データとの距離に基づき客観的に表すことができる。したがって、快適度を適切に比較することができ、ユーザの周辺環境をより快適にするために適切な質問を選択することができる。
 上記制御装置において、前記理想環境データ記憶部には、時期に応じて異なる複数の理想環境データが記憶され、前記快適度を示すデータは、時期に応じて選択された前記理想環境データと前記環境予測データとの距離に基づいて算出されてよい。
 この構成によれば、同じ環境予測データが算出されても、時期に応じて異なる快適度を示すデータが算出され得る。したがって、ユーザ周辺の環境が快適となる制御内容をより精度よく特定することができ、より適切な質問を選択することができる。
 本開示の制御装置において、前記理想環境データ記憶部には、前記ユーザごとに異なる複数の理想環境データが記憶され、前記快適度を示すデータは、ユーザごとに選択された前記理想環境データと前記環境予測データとの距離に基づいて算出されてよい。
 この構成によれば、同じ環境予測データが算出されても、ユーザに応じて異なる快適度を示すデータが算出され得る。したがって、当該ユーザにとって、周辺環境が快適となる制御内容をより精度よく特定することができ、より適切な質問を選択することができる。
 上記制御装置において、前記電子機器の制御ステータスを確認する制御ステータス確認部をさらに備え、前記質問選択部は、前記制御ステータスに応じて、前記対話モデル記憶部に記憶された前記対話モデルにおいて、前記電子機器に対して命令可能な制御内容を特定し、前記環境予測データ算出部は、前記質問選択部にて特定された制御内容について前記環境予測データを算出してよい。
 この構成によれば、電子機器の制御ステータスに応じて抽出された制御内容に対応する質問が、質問選択の対象となる。したがって、電子機器のステータスによっては不適切である質問を除外し、ユーザに対してより適切な質問を出力することができる。
 上記制御装置において、前記入力クエリを前記電子機器を制御するためのコマンドに変換する入力クエリ変換部をさらに備え、前記質問選択部は、前記入力クエリ変換部にて、前記入力クエリが前記コマンドに変換できない場合に、前記ユーザに対して出力すべき質問を選択してよい。
 ユーザの入力クエリがコマンドに変換可能な場合とは、言い換えれば、入力クエリにユーザの明確な操作意図が含まれている場合である。すなわち、この構成により、ユーザの操作意図を明確にできない場合にのみ、ユーザとの対話が行われることになる。したがって、機器制御のためのユーザの負担を低減させることができる。
 本上記制御装置において、前記質問選択部は、前記各質問に対する前記ユーザの回答容易性を示すデータを算出し、前記快適度を示すデータと前記回答容易性を示すデータとの和を最大化する制御内容に対応する前記質問を選択してよい。
 この構成によれば、ユーザが回答容易である質問が選択されることになる。回答容易であるとは、ユーザが出力された質問に対して回答する際の負担が小さいということを意味する。したがって、この構成によれば、ユーザに負担をかけることなく、対話を通じて、周辺環境がより快適となるように、機器の制御を行うことができる。
 上記制御装置において、前記回答容易性を示すデータは、前記各質問に対する前記回答候補の数に基づいて算出されてよい。
 一般に、回答候補の数が少ないほど、ユーザはその質問に対して、容易に回答することができると考えらえる。したがって、この構成によれば、簡易かつ的確に、回答容易性を示すデータ算出及び質問の選択を行うことができる。
 上記制御装置において、前記回答容易性を示すデータは、前記各質問を含む、前記各質問に至るまでに前記ユーザに出力すべき質問の総数に基づいて算出されてよい。
 ユーザとの対話を繰り返すことになる質問は、ユーザにとって煩雑であり、回答容易でないと考えられる。したがって、この構成によれば、簡易かつ的確に、回答容易性を示すデータの算出及び質問の選択を行うことができる。
 上記制御装置において、前記回答候補には、前記電子機器の制御のための対話のキャンセルが含まれ、前記対話モデルにおいては、前記キャンセルの確率と前記質問とが対応付けて記憶され、前記質問選択部は、前記キャンセルの確率の低さを示すデータを算出し、前記快適度を示すデータと前記キャンセルの確率の低さを示すデータとの和を最大化する制御内容に対応する前記質問を選択してよい。
 電子機器の制御のための対話がキャンセルされるのは、ユーザに対して出力された質問が適切でなかったためであると考えられる。したがって、キャンセルの確率に基づいて質問を選択することで、ユーザの操作意図に沿った適切な対話を通じて、周辺環境がより快適となるような車載機器の操作に、ユーザを誘導することができる。
 本開示の他の例に係る制御装置は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御装置であって、ユーザから入力クエリを受け付ける入力クエリ受付部と、前記入力クエリに対して、前記ユーザに対する質問と、前記電子機器の制御のための対話のキャンセルを含む前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部と、ユーザ周辺の環境データを取得する環境データ取得部と、前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部と、前記環境予測データに基づく前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータと、前記各質問に対する前記ユーザの回答容易性を示すデータと、前記対話モデルにおいて前記質問と対応付けて記憶されるキャンセルの確率に基づく前記キャンセルの確率の低さを示すデータとを算出し、前記快適度を示すデータと前記回答容易性を示すデータと前記キャンセルの確率の低さを示すデータとの和を最大化する制御内容に対応する質問を選択する質問選択部と、前記質問選択部にて選択された質問を出力する出力部と、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信する制御信号送信部とを備えた構成を有している。
 この構成によれば、ユーザに対して提示される質問が、ユーザの周辺環境の快適度、質問に対する回答容易性、対話キャンセル確率という異なる指標の総合評価により決定される。したがって、ユーザに対して提示すべき質問の適切性を精度よく判断することができる。
 本開示の一例に係る制御方法は、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行う制御方法であって、ユーザから入力クエリを受け付けるステップと、ユーザ周辺の環境データを取得するステップと、対話モデル記憶部に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、前記質問選択部にて選択された質問を出力するステップと、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信するステップとを備える。
 この構成により、適切な対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。なお、本開示の制御方法に、上述した制御装置の各構成を適用することも可能である。
 本開示の一例に係るプログラムは、ユーザの入力クエリに応じて、少なくとも1つの電子機器の制御を行うためのプログラムであって、コンピュータに、ユーザから入力クエリを受け付けるステップと、ユーザ周辺の環境データを取得するステップと、対話モデル記憶部に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、前記質問選択部にて選択された質問を出力するステップと、出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器に送信するステップとを実行させる。
 この構成により、適切な対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。なお、上述のプログラムに、上述した制御装置の各構成を適用することも可能である。また、上述のプログラムは、コンピュータ読み取り可能な非一時的な記憶媒体に記憶されて提供されてもよいし、電気通信回線を通じて提供されてもよい。
 上述の制御装置、制御方法およびプログラムによれば、ユーザ周辺の環境がより快適になると予測される制御内容が特定され、その制御内容に対応付けられた質問が選択されて、クエリを入力したユーザに出力されるので、対話を通じてユーザの操作意図を特定し、ユーザの周辺環境がより快適になるように、電子機器の制御を行うことができる。
 以上、本開示に係る実施例および構成を例示したが、本開示に係る実施例および構成は、上述した各実施例および各構成に限定されるものではない。異なる実施例および構成にそれぞれ開示された技術的要素を適宜組み合わせて得られる実施例および構成についても本開示に係る実施例および構成の範囲に含まれる。

Claims (14)

  1.  ユーザの入力クエリに応じて、少なくとも1つの電子機器(50)の制御を行う制御装置であって、
     ユーザから入力クエリを受け付ける入力クエリ受付部(10)と、
     前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器(50)に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部(31)と、
     ユーザ周辺の環境データを取得する環境データ取得部(24)と、
     前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部(25)と、
     前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部(31)に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択する質問選択部(26)と、
     前記質問選択部(26)にて選択された質問を出力する出力部(11)と、
     出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器(50)に送信する制御信号送信部(27)と、
     を備える制御装置。
  2.  前記快適度を示すデータは、理想環境データ記憶部(32)に記憶された理想環境データと、各前記環境予測データとの距離に基づいて算出される、請求項1に記載の制御装置。
  3.  前記理想環境データ記憶部(32)には、時期に応じて異なる複数の理想環境データが記憶され、
     前記快適度を示すデータは、時期に応じて選択された前記理想環境データと前記環境予測データとの距離に基づいて算出される、請求項2に記載の制御装置。
  4.  前記理想環境データ記憶部(32)には、前記ユーザごとに異なる複数の理想環境データが記憶され、
     前記快適度を示すデータは、ユーザごとに選択された前記理想環境データと前記環境予測データとの距離に基づいて算出される、請求項2または3に記載の制御装置。
  5.  前記電子機器(50)の制御ステータスを確認する制御ステータス確認部(23)をさらに備え、
     前記質問選択部(26)は、前記制御ステータスに応じて、前記対話モデル記憶部(31)に記憶された前記対話モデルにおいて、前記電子機器(50)に対して命令可能な制御内容を特定し、
     前記環境予測データ算出部(25)は、前記質問選択部(26)にて特定された制御内容について前記環境予測データを算出する請求項1から4のいずれかに記載の制御装置。
  6.  前記入力クエリを、前記電子機器(50)を制御するためのコマンドに変換する入力クエリ変換部(22)をさらに備え、
     前記質問選択部(26)は、前記入力クエリ変換部(22)にて、前記入力クエリが前記コマンドに変換できない場合に、前記ユーザに対して出力すべき質問を選択する請求項1から5のいずれかに記載の制御装置。
  7.  前記質問選択部(26)は、前記各質問に対する前記ユーザの回答容易性を示すデータを算出し、前記快適度を示すデータと前記回答容易性を示すデータとの和を最大化する制御内容に対応する前記質問を選択する請求項1から6のいずれかに記載の制御装置。
  8.  前記回答容易性を示すデータは、前記各質問に対する前記回答候補の数に基づいて算出される請求項7に記載の制御装置。
  9.  前記回答容易性を示すデータは、前記対話モデルにおける、前記ユーザとの対話回数に基づいて算出される請求項7または8に記載の制御装置。
  10.  前記回答候補には、前記電子機器(50)の制御のための対話のキャンセルが含まれ、前記対話モデルにおいては、前記キャンセルの確率と前記質問とが対応付けて記憶され、
     前記質問選択部(26)は、前記キャンセルの確率の低さを示すデータを算出し、前記快適度を示すデータと前記キャンセルの確率の低さを示すデータとの和を最大化する制御内容に対応する前記質問を選択する請求項1から6のいずれかに記載の制御装置。
  11.  ユーザの入力クエリに応じて、少なくとも1つの電子機器(50)の制御を行う制御装置であって、
     ユーザから入力クエリを受け付ける入力クエリ受付部(10)と、
     前記入力クエリに対して、前記ユーザに対する質問と、前記電子機器(50)の制御のための対話のキャンセルを含む前記質問に対する前記ユーザの回答候補と、各電子機器(50)に対する制御内容とが対応付けられた対話モデルが記憶された対話モデル記憶部(31)と、
     ユーザ周辺の環境データを取得する環境データ取得部(24)と、
     前記環境データに基づいて、前記対話モデルにおいて前記入力クエリに対応する質問及びその回答候補に対応付けられた各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを算出する環境予測データ算出部(25)と、
     前記環境予測データに基づく前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータと、前記各質問に対する前記ユーザの回答容易性を示すデータと、前記対話モデルにおいて前記質問と対応付けて記憶されるキャンセルの確率に基づく前記キャンセルの確率の低さを示すデータとを算出し、前記快適度を示すデータと前記回答容易性を示すデータと前記キャンセルの確率の低さを示すデータとの和を最大化する制御内容に対応する質問を選択する質問選択部(26)と、
     前記質問選択部(26)にて選択された質問を出力する出力部(11)と、
     出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器(50)に送信する制御信号送信部(27)と、
     を備える制御装置。
  12.  ユーザの入力クエリに応じて、少なくとも1つの電子機器(50)の制御を行う制御方法であって、
     ユーザから入力クエリを受け付けるステップと、
     ユーザ周辺の環境データを取得するステップと、
     対話モデル記憶部(31)に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器(50)に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、
     前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部(31)に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、
     前記質問選択部(26)にて選択された質問を出力するステップと、
     出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器(50)に送信するステップと、
     を備える制御方法。
  13.  ユーザの入力クエリに応じて、少なくとも1つの電子機器(50)の制御を行うためのプログラムであって、コンピュータに、
     ユーザから入力クエリを受け付けるステップと、
     ユーザ周辺の環境データを取得するステップと、
     対話モデル記憶部(31)に記憶された、前記入力クエリに対して、前記ユーザに対する質問と、前記質問に対する前記ユーザの回答候補と、各電子機器(50)に対する制御内容とが対応付けられた対話モデルにおいて、前記各制御内容が実行された場合における所定時間経過後の前記ユーザ周辺の環境予測データを前記環境データに基づいて算出するステップと、
     前記環境予測データに基づいて前記各制御内容を実行した場合におけるユーザの周辺環境の快適度を示すデータを算出し、前記対話モデル記憶部(31)に記憶された前記対話モデルを参照して、前記快適度を示すデータを最大化する制御内容に対応する質問を選択するステップと、
     前記質問選択部(26)にて選択された質問を出力するステップと、
     出力された前記質問に対する前記ユーザの回答に応じて、前記制御内容の実行を指示する制御信号を前記電子機器(50)に送信するステップと、
     を実行させるプログラム。
  14.  請求項13に記載のプログラムを記憶する、コンピュータ読み取り可能な非一時的な記憶媒体。
PCT/JP2014/005872 2013-11-26 2014-11-24 制御装置、制御方法およびプログラム WO2015079669A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/038,743 US9858926B2 (en) 2013-11-26 2014-11-24 Dialog model for controlling environmental comfort

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-243858 2013-11-26
JP2013243858A JP6236303B2 (ja) 2013-11-26 2013-11-26 制御装置、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2015079669A1 true WO2015079669A1 (ja) 2015-06-04

Family

ID=53198636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005872 WO2015079669A1 (ja) 2013-11-26 2014-11-24 制御装置、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US9858926B2 (ja)
JP (1) JP6236303B2 (ja)
WO (1) WO2015079669A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3341934A4 (en) * 2015-11-10 2018-07-11 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
CN110081577A (zh) * 2019-04-30 2019-08-02 深圳创维空调科技有限公司 空调控制方法、装置、空调设备及存储介质
JP2019204157A (ja) * 2018-05-21 2019-11-28 株式会社日立ビルシステム 問合せ機器特定システム、問合せ機器特定方法
JP2021092651A (ja) * 2019-12-10 2021-06-17 トヨタ自動車株式会社 エージェント管理装置、プログラムおよびエージェント管理方法

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016157537A1 (ja) * 2015-04-03 2016-10-06 三菱電機株式会社 空気調和システム
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9826306B2 (en) 2016-02-22 2017-11-21 Sonos, Inc. Default playback device designation
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) * 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
JP2018054790A (ja) * 2016-09-28 2018-04-05 トヨタ自動車株式会社 音声対話システムおよび音声対話方法
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
KR102348124B1 (ko) * 2017-11-07 2022-01-07 현대자동차주식회사 차량의 기능 추천 장치 및 방법
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
CN115280355A (zh) * 2020-03-18 2022-11-01 三菱电机株式会社 舒适性解析装置以及环境控制用指令装置
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003185221A (ja) * 2001-12-21 2003-07-03 Aruze Corp 空調調整システム及び空調調整方法
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2009109586A (ja) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd 音声認識制御装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57147911A (en) * 1981-03-09 1982-09-13 Toyota Motor Corp Control device by voice for air conditioner
JP2003202888A (ja) * 2002-01-07 2003-07-18 Toshiba Corp 無線通信機能付きヘッドセットおよびこれを用いた音声処理システム
JP2004102691A (ja) * 2002-09-10 2004-04-02 Mitsubishi Heavy Ind Ltd ユビキタスシステム、およびユビキタスシステムを用いたリスク管理方法、ならびにリスク管理プログラム
JP4360308B2 (ja) * 2004-09-21 2009-11-11 株式会社デンソー 車載音響制御システム及びaiエージェント
KR100703696B1 (ko) * 2005-02-07 2007-04-05 삼성전자주식회사 제어 명령 인식 방법 및 이를 이용한 제어 장치
JP5014662B2 (ja) 2006-04-13 2012-08-29 アルパイン株式会社 車載用音声認識装置及び音声認識方法
JP4375428B2 (ja) * 2007-04-09 2009-12-02 株式会社デンソー 車載用音声ガイダンス装置
WO2009045861A1 (en) * 2007-10-05 2009-04-09 Sensory, Incorporated Systems and methods of performing speech recognition using gestures
US8963987B2 (en) * 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
US8670018B2 (en) * 2010-05-27 2014-03-11 Microsoft Corporation Detecting reactions and providing feedback to an interaction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003185221A (ja) * 2001-12-21 2003-07-03 Aruze Corp 空調調整システム及び空調調整方法
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2009109586A (ja) * 2007-10-26 2009-05-21 Panasonic Electric Works Co Ltd 音声認識制御装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3341934A4 (en) * 2015-11-10 2018-07-11 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
US10811002B2 (en) 2015-11-10 2020-10-20 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
JP2019204157A (ja) * 2018-05-21 2019-11-28 株式会社日立ビルシステム 問合せ機器特定システム、問合せ機器特定方法
CN110081577A (zh) * 2019-04-30 2019-08-02 深圳创维空调科技有限公司 空调控制方法、装置、空调设备及存储介质
JP2021092651A (ja) * 2019-12-10 2021-06-17 トヨタ自動車株式会社 エージェント管理装置、プログラムおよびエージェント管理方法
CN113051377A (zh) * 2019-12-10 2021-06-29 丰田自动车株式会社 智能体管理装置、存储介质及智能体管理方法
JP7287258B2 (ja) 2019-12-10 2023-06-06 トヨタ自動車株式会社 エージェント管理装置、プログラムおよびエージェント管理方法

Also Published As

Publication number Publication date
US9858926B2 (en) 2018-01-02
JP2015102728A (ja) 2015-06-04
US20160379634A1 (en) 2016-12-29
JP6236303B2 (ja) 2017-11-22

Similar Documents

Publication Publication Date Title
JP6236303B2 (ja) 制御装置、制御方法およびプログラム
US10832674B2 (en) Voice data processing method and electronic device supporting the same
CN105989841B (zh) 车载语音控制方法及装置
US20140324429A1 (en) Computer-implemented method for automatic training of a dialogue system, and dialogue system for generating semantic annotations
US9443507B2 (en) System and method for controlling a speech recognition system
CN108682419A (zh) 语音控制方法及设备、计算机可读存储介质及设备
JP6810764B2 (ja) ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体
KR20200113105A (ko) 응답을 제공하는 전자 장치와 이의 동작 방법
EP2112621A2 (en) Apparatus for forming good feeling of robot and method therefor
US20200043476A1 (en) Electronic device, control method therefor, and non-transitory computer readable recording medium
CN112639962A (zh) 处理用户话语的电子设备及其控制方法
KR20200042127A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
JP4533844B2 (ja) 機器制御装置、機器制御方法及びプログラム
EP3654170B1 (en) Electronic apparatus and wifi connecting method thereof
WO2005061249A1 (ja) エアコン制御装置及びエアコン制御方法
EP4220628A1 (en) Electronic device for supporting service for artificial intelligent agent that talks with user
KR20190059509A (ko) 전자장치 및 그 제어방법
US11769490B2 (en) Electronic apparatus and control method thereof
KR102511517B1 (ko) 음성 입력 처리 방법 및 이를 지원하는 전자 장치
CN113614713A (zh) 一种人机交互方法及装置、设备及车辆
KR20190037470A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US20230073916A1 (en) Monitoring Operator Fatigue
Saod et al. Speech-controlled vehicle for manufacturing operation
JP5610283B2 (ja) 外部機器制御装置、その外部機器制御方法及びプログラム
EP3839719B1 (en) Computing device and method of operating the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14866414

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15038743

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14866414

Country of ref document: EP

Kind code of ref document: A1