WO2019187256A1 - 話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム - Google Patents

話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム Download PDF

Info

Publication number
WO2019187256A1
WO2019187256A1 PCT/JP2018/037610 JP2018037610W WO2019187256A1 WO 2019187256 A1 WO2019187256 A1 WO 2019187256A1 JP 2018037610 W JP2018037610 W JP 2018037610W WO 2019187256 A1 WO2019187256 A1 WO 2019187256A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
information
behavior
action
timing determination
Prior art date
Application number
PCT/JP2018/037610
Other languages
English (en)
French (fr)
Inventor
康輔 佐々木
神谷 俊之
光洋 藤田
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to JP2020509578A priority Critical patent/JP6888860B2/ja
Publication of WO2019187256A1 publication Critical patent/WO2019187256A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Definitions

  • the present invention relates to a speaking timing determination device, a speaking timing determination method, and a program.
  • Patent Document 1 a system is disclosed that uses the timing at which the user's breathing changes from exhalation to inhalation in order to measure the timing of speech in a conversation with the user.
  • the timing at which the interactive robot speaks to the user is set by, for example, the distance between the robot and the user.
  • the state of the user is not considered at all, and it is unclear whether, for example, the user has just passed near the robot or approached to talk to the robot. In such a case, even if the robot talks to the user, there is a possibility that the user's behavior may be disturbed or annoying. It may get worse.
  • an object of the present invention is to provide a new system that can determine a suitable timing for the user.
  • the talking timing determination apparatus of the present invention includes: Including a storage unit, a behavior estimation unit, a state estimation unit, a listening tolerance calculation unit, and a talk determination unit;
  • the storage unit stores the behavior-related information of the person to be spoken, the dialogue success rate for each behavior, and a criterion value,
  • the behavior estimating unit estimates the behavior of the target person at a predetermined time from the behavior related information,
  • the state estimation unit calculates a state value indicating the state of the subject at the predetermined time from the behavior related information
  • the listening tolerance calculation unit may allow the subject to speak from the conversation success rate of the stored action corresponding to the estimated action, the calculated state value, and the predetermined time. Calculate the listening tolerance indicating
  • the speaking determination unit is configured to determine whether or not the target person is allowed to speak by comparing the listening tolerance and the determination reference value.
  • the talking timing determination method of the present invention is: Including an action estimation step, a state estimation step, a listening tolerance calculation step, and a talk determination step,
  • the behavior estimation step estimates the behavior of the target person at a predetermined time from the behavior related information of the talk target person
  • the state estimation step calculates a state value indicating the state of the subject at the predetermined time from the behavior related information
  • the listening tolerance calculation step the listening that indicates the possibility of allowing the subject to speak from the interaction success rate of the action corresponding to the estimated action, the calculated state value, and the predetermined time. Calculate tolerance
  • In the speaking determination step it is determined whether or not the target person is allowed to speak by comparing the listening tolerance with a determination reference value.
  • the program of the present invention is characterized by causing a computer to execute the method for determining a talk timing according to the present invention.
  • the recording medium of the present invention can be read by a computer in which the program of the present invention is recorded.
  • the dialogue apparatus includes the timing determination apparatus according to the present invention.
  • the present invention since it is determined whether or not it is a state in which talking is allowed from the behavior of the subject person with whom the automatic dialogue apparatus interacts, for example, the possibility of disturbing the user's behavior or causing trouble is reduced. Talking is possible.
  • FIG. 1 is a block diagram illustrating an example of a timing determination device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the timing determination device according to the first embodiment.
  • FIG. 3 is a flowchart illustrating an example of the timing determination method according to the first embodiment.
  • FIG. 4 is a block diagram illustrating an example of the timing determination device and the interactive robot according to the second embodiment.
  • FIG. 5 is a flowchart illustrating an example of a timing determination method according to the second embodiment.
  • FIG. 6 is a block diagram illustrating an example of the interactive apparatus according to the second embodiment.
  • the “talking target person” is a target person who interacts with the automatic dialog device (hereinafter referred to as “target person”).
  • target person is not particularly limited, and examples thereof include elderly persons, care recipients such as sick persons, etc., but the present invention is not limited to these.
  • the present invention can be applied not only to a nursing care area, but also to various fields such as guidance at hotels, concert venues, and customer service at stores.
  • FIG. 1 is a block diagram illustrating an example of a timing determination device according to the present embodiment.
  • the timing determination device 1 includes a storage unit 11, a behavior estimation unit 12, a state estimation unit 13, a listening tolerance calculation unit 14, and a talk determination unit 15.
  • the timing determination device 1 is also referred to as a timing determination system, for example.
  • the timing determination device 1 may be, for example, one device including the above-described units, or may be a device that can be connected to each of the units via a communication line network, for example.
  • the timing determination device 1 is a device that determines the timing at which the automatic dialogue device speaks to the subject in the dialogue with the subject by the automatic dialogue device.
  • the timing determination device 1 and the automatic dialog device may be the same device, or may be connectable via a communication line network.
  • the automatic dialogue apparatus includes the timing determination device 1.
  • an automatic dialog system including the timing determination device 1 and the automatic dialog device can be used.
  • the automatic dialogue apparatus will be described in another embodiment.
  • the storage unit 11 stores the behavior-related information 111 of the subject, the dialogue success rate 112 for each behavior, and the determination reference value 113.
  • the subject-related behavior-related information 111 may be information related to the behavior of the subject, and the type of the information is not limited.
  • the behavior related information 111 may be, for example, information obtained directly from the behavior of the target person, or may be information obtained indirectly from the behavior of the target person, and is recorded as a schedule by the target person. Information on behavior may be used. Since the behavior related information 111 is information related to the behavior of the subject, for example, based on such information, the behavior of the subject can be estimated as described later.
  • the storage unit 11 may store, for example, behavior related information of one target person, or may store behavior related information of a plurality of target persons. For example, the storage unit 11 stores the behavior-related information in association with the target person for each target person.
  • the dialogue success rate 112 for each action is, for example, when the automatic dialogue apparatus talks to a subject who performs a certain behavior X, the subject responds to the talk. Mean percentage.
  • the dialogue success rate 112 may be, for example, a success rate for a plurality of target persons or a success rate for a specific target person.
  • the dialogue success rate 112 is, for example, a success rate for a specific target person.
  • the past success rate may be set as the dialogue success rate 112, or an arbitrary success rate may be set, and the former is preferable.
  • the dialogue success rate is stored in association with an action.
  • the determination reference value 113 is a reference value S for listening tolerance described later, and can be arbitrarily set as a threshold in determining whether or not the target person is allowed to speak.
  • the determination reference value 113 can be appropriately set by, for example, the method for calculating the listening tolerance.
  • the behavior estimating unit 12 estimates the behavior of the target person at a predetermined time from the behavior related information 111.
  • the behavior related information 111 is information related to the behavior, for example, the behavior of the target person can be estimated according to the type of the information.
  • storage part 11 may memorize
  • behavior-related information is associated with each behavior for various behaviors. Based on the reference information, for example, the behavior of the subject can be estimated by comparing the behavior-related information of the subject with the reference information.
  • the timing determination device 1 is a device that determines the timing of speaking to the target person by the automatic dialog device, so that determination of the timing in real time is important. For this reason, it is preferable that the target behavior is, for example, an estimation of behavior at the time when the behavior-related information is obtained.
  • the state estimation unit 13 calculates a state value indicating the state of the subject at the predetermined time from the behavior related information 111.
  • the state value of the subject is not particularly limited, and is, for example, fatigue level and quietness.
  • the fatigue level is, for example, a value indicating the degree of fatigue of the subject at the predetermined time.
  • the degree of fatigue can be expressed as, for example, the degree of fatigue in the current state compared to the past state for the subject regarding the past and the current situation. Simply put, for example, it can be said that it shows the current degree of tiredness from the past action content.
  • the degree of fatigue can be expressed by, for example, a relative value, where a relative value of 0 is a state where the tiredness is relatively least, and a relative value of 1 is a state where the tiredness is relatively tired.
  • the busyness is, for example, a value indicating the degree of busyness of the target person at the predetermined time.
  • the degree of quietness is, for example, a value indicating a mental impatience inferred from the current state of the target person regarding the current and future situations, or busyness and importance of a scheduled action to be performed next. It can be said that the value reflects this.
  • the busyness can be expressed by, for example, a relative value, where a relative value of 0 is a relatively least busy state and a relative value of 1 is a relatively busy state.
  • the listening tolerance calculation unit 14 may allow the subject to speak from the conversation success rate of the stored action corresponding to the estimated action, the calculated state value, and the predetermined time. Listening tolerance is calculated.
  • the method of calculating the listening tolerance is not particularly limited and can be set arbitrarily.
  • the predetermined time can be converted into a relative value given in a time zone and used for the calculation.
  • the relative value of the time zone is, for example, an index indicating whether or not it is time that the user may speak, and as a specific example, for example, 24 hours are divided into a plurality of time zones, Whether or not to speak can be given as a relative value between 0 and 1.
  • Relative value 1 is a time zone in which it is considered that it is relatively busy in one day and it is possible to talk
  • a relative value 0 is a time zone in which it is relatively busy and cannot be talked in one day. It is.
  • a weekday morning time zone for example, 7:00 to 9:00
  • a weekday night time zone for example, From 22:00 to 24:00
  • the relative value is set high.
  • an expression that allows the listening tolerance to be higher as the possibility of allowing is higher, and that the listening tolerance is reduced as the possibility of allowing is lower (hereinafter referred to as “expression A”). May be set, and the lower the possibility of allowing, the greater the tolerance for listening, and the higher the possibility of accepting, the smaller the tolerance for listening (hereinafter referred to as “expression B”). May be set.
  • expression A an expression that allows the listening tolerance to be higher as the possibility of allowing is higher, and that the listening tolerance is reduced as the possibility of allowing is lower
  • expression A an expression that allows the listening tolerance to be higher as the possibility of allowing is higher, and that the listening tolerance is reduced as the possibility of allowing is lower
  • the higher the dialogue success rate ⁇ the higher the possibility of acceptance, and the lower the lower the possibility of acceptance, the lower the possibility of acceptance, and the state values (fatigue degree ⁇ and busyness).
  • is a factor in which the higher the relative value, the lower the possibility of tolerance, and the lower the relative value, the higher the possibility of tolerance.
  • the talking determination unit 15 determines whether or not the target person is allowed to speak by comparing the listening tolerance and the determination reference value. In the case of the formula A, for example, when the listening tolerance exceeds the reference value S (or is equal to or greater than the reference value S), it is determined that the state is acceptable, and is equal to or less than the reference value S (or the reference value S It is possible to determine that the condition is not acceptable.
  • the determination result that it is in an allowable state or the determination result that it is not in an allowable state may be output by, for example, an output unit.
  • FIG. 2 illustrates a block diagram of the hardware configuration of the timing determination device 1.
  • the timing determination device 1 includes, for example, a CPU (Central Processing Unit) 101, a memory 102, a bus 103, an input device 104, a display 105, a communication device 106, a storage device 107, and the like.
  • the units of the timing determination device 1 are connected to each other via the bus 103 by, for example, respective interfaces (I / F).
  • the CPU 101 is responsible for overall control of the timing determination device 1.
  • the CPU 101 executes, for example, a program 108 (including the program of the present invention), and various information is read and written.
  • the CPU 101 functions as the behavior estimation unit 12, the state estimation unit 13, the listening tolerance calculation unit 14, and the talk determination unit 15.
  • the bus 103 can be connected to, for example, an external device.
  • the timing determination apparatus 1 can be connected to a communication network via a communication device 106 connected to the bus 103, and can be connected to the external device via the communication network.
  • the timing determination device 1 is, for example, a device separate from the automatic dialog device, the timing determination device 1 can be connected to the automatic dialog device via a communication network.
  • the memory 102 includes, for example, a main memory, and the main memory is also referred to as a main storage device.
  • the main memory is, for example, a RAM (Random Access Memory).
  • the memory 102 further includes, for example, a ROM (read only memory).
  • the storage device 107 is also referred to as a so-called auxiliary storage device for the main memory (main storage device), for example.
  • the storage device 107 includes, for example, a storage medium and a drive that reads from and writes to the storage medium.
  • the storage medium is not particularly limited, and may be, for example, a built-in type or an external type, such as HD (hard disk), FD (floppy (registered trademark) disk), CD-ROM, CD-R, CD-RW, MO, Examples of the drive include a DVD, a flash memory, and a memory card, and the drive is not particularly limited.
  • Examples of the storage device 107 include a hard disk drive (HDD) in which a storage medium and a drive are integrated.
  • the storage device 107 is, for example, the storage unit 11 and may store behavior-related information 111, a conversation success rate 112, and a determination reference value 113.
  • the timing determination device 1 may further include an input device 104, a display 105, and the like.
  • the input device 104 is, for example, a touch panel or a keyboard.
  • Examples of the display 105 include an LED display and a liquid crystal display.
  • timing determination method of this embodiment will be described as an example with reference to the flowchart of FIG.
  • the timing determination method of this embodiment can be implemented using the timing determination apparatus 1 shown in FIG. 1 and FIG. 2, for example.
  • the timing determination method of this embodiment is not limited to use of the timing determination apparatus 1 shown in these drawings.
  • the description in the timing determination method of this embodiment can be used for the timing determination apparatus 1 mentioned above.
  • the behavior estimation unit 12 estimates the behavior of the subject at a predetermined time from the behavior related information of the subject stored in the storage unit 11 (S10).
  • the state estimation unit 13 calculates a state value indicating the state of the subject at the predetermined time from the behavior related information of the subject stored in the storage unit 11 (S11).
  • the listening tolerance calculation unit 14 calculates the interaction success rate of the action stored in the storage unit 11 corresponding to the estimated action, the calculated state value, and the predetermined time. Then, the listening tolerance indicating the possibility that the subject person is allowed to talk is calculated (S12).
  • the conversation determination unit 15 compares the listening tolerance with the determination reference value stored in the storage unit 11 to determine whether or not the target person is allowed to speak. Determine. Specifically, for example, it is determined whether or not the listening tolerance is equal to or greater than the determination reference value (S13), and if it is equal to or greater than the reference value (YES), it is determined that the talking is permitted. (S14) If it is less than the reference value (NO), it is determined that it is not in a state that allows talking (S15).
  • the timing determination device further includes, for example, a text generation unit and an output unit.
  • the timing determination apparatus may be connectable to, for example, a dialog robot that is a dialog terminal via a communication network.
  • a dialog robot that is a dialog terminal via a communication network.
  • FIG. 4 is a block diagram showing an example of an interactive device including the timing determining device 2 and the interactive robot 3.
  • the timing determination device 2 and the interactive robot 3 can be connected via the communication network 4.
  • the interactive apparatus is also referred to as an interactive system, for example.
  • the timing determination device 2 is a device that determines the timing to speak to the subject, and further determines the content of the utterance to the subject by determining whether or not the subject is in a state that allows talking. It is preferable to output the text information.
  • the timing determination device 2 performs timing determination and generation of text information of utterance contents, transmits the text information to the dialog robot 3, and utters the target person from the dialog robot 3. .
  • the timing determination device 2 is the same as the timing determination device 1 of the first embodiment except that the text generation unit 16 and the communication unit 17 are included as the output unit.
  • the text generation unit 16 generates text information of the utterance content. For example, the text information is transmitted to the dialog robot 3 and when the dialog robot 3 receives the text information, the voice output unit 32 synthesizes and outputs a voice based on the text information.
  • the text generation unit 16 may provide a text of bidirectional utterance content to the subject. Generate information.
  • the interactive utterance content is an utterance content that asks the target person for dialogue. As a specific example, for example, a dialog request such as “Do you speak a little now?” Or the like can be given.
  • Text information of the utterance content may be generated.
  • the one-way utterance content is not a content that asks the target person to talk but a content that is spoken to the action of the target person.
  • the subject is cleaning, thank you for "cleaning, thank you", “cleaning, hard work”, etc. It's a comment on the comment such as “This program is interesting”. If the target person is not in a state that allows the conversation, the dialogue robot 3 may block the action and thoughts of the target person when the interactive robot 3 performs the interactive utterance.
  • the text generation unit 16 when it is determined that it is not in a state that allows talking, the text generation unit 16 generates unidirectional utterance content while suppressing the action, thoughts, etc. of the target person, Can be involved.
  • the text information may not be generated in the case of an action that is highly likely to block the action or thought of the subject person by speaking.
  • the communication unit 17 outputs the text information generated by the text generation unit 16. Specifically, the timing determination device 2 transmits the text information to the interactive robot 3 via the communication network 4 by the communication unit 17.
  • the dialogue robot 3 receives the text information via the communication network 4 by the communication unit 31. Then, the dialogue robot 3 synthesizes and outputs a voice based on the text information by the voice output unit 32.
  • the dialog robot 3 includes various functional units included in a normal dialog robot in addition to the communication unit 31 and the voice output unit 32, for example, but the configuration is not limited at all.
  • the communication method between the timing determination device 2 and the interactive robot 3 is not limited at all, and specific examples include, for example, an Internet line, a telephone line, a LAN (Local Area Network), and a WiFi (Wireless Fidelity). It can be wired or wireless.
  • a wireless communication method is preferable.
  • a wireless LAN Local Area Network
  • WiFi Wireless Fidelity
  • Bluetooth registered trademark
  • the text generation unit 16 causes the interactive utterance content to be changed. Text information is generated (S20) and output to the interactive robot 3 by the communication unit 17 as an output unit (S22). On the other hand, when it is determined that it is not in an allowable state (S15), text information of unidirectional utterance content is generated by the text generation unit 16 (S21), and is output to the interactive robot 34 by the communication unit 17 (S22). .
  • the dialogue output unit 32 synthesizes and outputs a voice based on the text information by the voice output unit 32.
  • the reaction of the subject to the voice output by the dialogue robot 3 may be reflected in the dialogue success rate and updated and stored in the storage unit 11 as a new dialogue success rate, for example.
  • the current dialogue success rate ⁇ may be reset and updated. That is, when a positive response is obtained from the target person, for example, the conversation success rate ⁇ is updated to a higher value on the assumption that conversation is possible, and when a negative response is obtained, for example, a conversation is performed. If the conversation success rate ⁇ is updated with a lower value and there is no response, for example, the conversation success rate ⁇ may be updated with a lower value because there may be no room for conversation. May be.
  • the current dialogue success rate ⁇ may be reset and updated. That is, when a positive response is obtained from the subject, for example, there may be room for conversation, when the dialog success rate ⁇ is updated with a higher value, and a negative response is obtained For example, assuming that there is no room for conversation, the dialogue success rate ⁇ is left as it is, and when there is no response, for example, the dialogue success rate ⁇ is left as it is because there is no room for conversation.
  • the dialog success rate ⁇ may be updated, for example, for each conversation performed by the dialog robot 3, or may be updated at once based on all data stored in the storage unit 11.
  • the timing determination device 2 and the dialog robot 3 can be connected via the communication network 4.
  • the present invention is not limited to this, and the timing determination device 2 also serves as the dialog robot 3. Also good.
  • the timing determination apparatus 2 may further include, for example, a voice output unit 32, and may synthesize and output voice based on the text information generated by the text generation unit 16.
  • an interactive device including the timing determining device 2 and the interactive robot 3 is exemplified.
  • the interactive device has, for example, a form in which the interactive robot itself has the timing determining device. Also good. That is, in the present embodiment, an interactive device (also referred to as an interactive robot) includes the timing determination device of the present invention.
  • FIG. 6 is a block diagram showing an example of a dialogue robot as the dialogue device.
  • the dialogue robot 5 includes the timing determination device 1 in the first embodiment, and further includes a text generation unit 16 and a voice output unit 32.
  • the text generation unit 16 and the voice output unit 32 are as described above.
  • the dialogue robot 5 can use the above description as appropriate, for example, except that the conversation determination is performed by the timing determination device 1 and the text generation and speech synthesis and output are performed.
  • the behavior-related information may be information related to the behavior of the target person, and the type thereof is not limited at all.
  • the behavior-related information may be information obtained directly from the behavior of the subject, may be information obtained indirectly from the behavior of the subject, and relates to behavior recorded by the subject as a schedule. It may be information. Since the behavior related information is information indicating the state of the subject, it is preferable that the behavior related information is, for example, information with time.
  • the action related information includes, for example, sensing information of the target person sensed by a sensor.
  • the sensing information includes, for example, image information and acceleration information as direct information.
  • the image information is, for example, an image obtained by capturing the behavior of the subject by a camera sensor. Specific examples include still images and moving images over time.
  • the camera sensor is not particularly limited, and examples thereof include an RGB (D) camera.
  • the camera may be installed in the residence of the subject or may be mounted on the interactive robot 3 that is the interactive terminal.
  • Image information captured by the camera is stored in, for example, the storage unit 11 of the timing determination device 1.
  • the camera and the timing determination device 1 may be connected via a communication network, for example, and may receive the image information from the camera and store it in the storage unit 11.
  • the image information is, for example, information representing the position and orientation of the subject, and the behavior of the subject can be estimated from the position and orientation information represented by the image information as described above. Further, according to the image information, for example, the degree of fatigue and quietness can be estimated from the magnitude of the change in position and orientation information and the change in posture during the same type of action in the past.
  • “Change in position and orientation information” means, for example, a change over time at the present time, which can be represented by a change value of how much the subject moves around when viewed in a certain unit of time. It can be used as an index when estimating the fatigue level and quietness of a person.
  • the “change in posture during the same type of behavior in the past” is, for example, a comparison of the same behavior, and a comparison between the posture in the current behavior A and the posture in the past behavior A of the same type.
  • the subject was performing the same “washing” action yesterday and today, and the waist was bent during yesterday ’s “washing” action.
  • today's fatigue level is lower than yesterday if the back is stretched during today's “washing” behavior.
  • the acceleration information is information obtained by sensing the behavior of the subject by an acceleration sensor, for example.
  • the acceleration sensor may be installed in the residence of the subject, for example, or may be installed in the dialogue robot 3 that is the dialogue terminal.
  • the subject may be a smartphone or the like equipped with the acceleration sensor. You may carry a terminal or wearable device.
  • the acceleration sensor is not particularly limited, and examples thereof include a MEMS (Micro Electro Mechanical Systems) acceleration sensor (product name: BMX160, manufactured by Bosch Sensortec).
  • the wearable device is not particularly limited, and examples thereof include a bracelet type, a glasses type, and a wristwatch type.
  • the acceleration information from the acceleration sensor is stored in the storage unit 11 of the timing determination device 1, for example. In this case, the sensor and the timing determination device 1 may be connected via a communication network, for example, and may receive the acceleration information from the sensor and store it in the storage unit 11.
  • the acceleration information is, for example, information representing the movement of the subject, and the behavior of the subject can be estimated from the acceleration information as described above. Further, according to the acceleration information, for example, a graph of acceleration related to the current action is compared with a graph of acceleration related to the same type of action in the past, and the current action is compared with the action of the same type performed in the past.
  • the degree of fatigue and quietness can be estimated from the difference in acceleration. Specifically, for example, when the subject is cleaning, compared with the acceleration at the time of cleaning yesterday, when the acceleration at the time of cleaning is high today, today is less fatigue than yesterday, or It can be estimated that the degree of busyness is high.
  • the sensing information includes, for example, gas usage information, electricity usage information, and water usage information as indirect information.
  • the sensing information may be any one type or two or more types, for example. These sensing information is information that indirectly represents the state of the subject. Specifically, for example, the subject is cooking, taking a bath, washing the face, and cleaning. It is information that represents.
  • the amount of gas, electricity, and water used is sensed by sensors installed by, for example, a gas company, a power company, and a water station.
  • the timing determination device 1 can be connected to a database of a gas company, an electric power company, and a water station via a communication network, receives the sensing information from the database, and receives the received information. You may memorize
  • the sensing information is, for example, information that indirectly represents the behavior of the subject, and the behavior of the subject can be estimated from the sensing information. Further, according to the sensing information, for example, the degree of fatigue and the degree of quietness can be estimated from the usage amount or the usage time.
  • the information related to the action recorded by the subject as a schedule includes, for example, schedule information of the subject.
  • the schedule information is, for example, a time unit schedule, a date unit schedule, or the like.
  • the schedule information is stored in, for example, a cloud server, and the timing determination device 1 can be connected to the cloud server via a communication network, for example, and receives and receives the schedule information from the cloud server.
  • Information may be stored in the storage unit 11.
  • the behavior of the target person can be estimated. Further, according to the schedule information, for example, the degree of fatigue and the degree of quietness can be estimated from the remaining task amount of the target person, the over density of the daily schedule, and the like.
  • the fatigue degree ⁇ is a relative value indicating the fatigue of the subject
  • a relative value of 0 is a state in which the fatigue is relatively least tired
  • a relative value of 1 is relatively tired. Indicates the state.
  • the fatigue level (b) of the action name is a fatigue level calculated from the estimated action name, the sensing information, and the schedule information.
  • the fatigue level of the action name is stored in the storage unit 11 in advance in association with an action name indicating the type of action.
  • action ID (i) indicates the action of the day, and the larger the value, the next action is meant.
  • the number of actions (d) to date means the number of actions on the day of the day.
  • the weight of bi (i ⁇ d) is reduced.
  • the work time (t) means a work time (action time) related to the estimated current action, and for example, how many hours of activity per day are given as a weight.
  • the unit of last night's sleep time (s) is not particularly limited, and can be represented by, for example, time (hr).
  • Last night's sleep time (s) is, for example, based on 8 hours, and if the sleep time of the subject is 8 hours or less, weighting is performed to increase the degree of fatigue. Specifically, for example, if the sleep time of the subject is 7 hours, 1/8 is added to the fatigue level ⁇ , and if the sleep time is 3 hours, the sleep time of the subject is added. It means that the fatigue level ⁇ increases as the value decreases.
  • the equation (3A) is calculated, for example, from the importance (py (i)) of the next action predicted from the current action (i) and the busyness of the current action of the target person ⁇ .
  • the busyness ⁇ is a relative value indicating the busyness of the subject
  • the relative value 0 is a relatively unbusy state
  • the relative value 1 is a relatively busy state.
  • P indicates, for example, the importance of the action, and (i) indicates the action ID of the day as described above.
  • the next action name (y) predicted from the current action name is determined based on the current action, for example, based on the action that has occurred many times after the current action.
  • (py) indicates, for example, the importance (p) for the action name (y).
  • the momentum per unit time (m) is, for example, the momentum per unit time set for each action
  • m (overline) is, for example, the average momentum per unit time set for each action. is there.
  • the degree of quietness may be calculated using only p in equation (3A).
  • the timing determination apparatus further includes an individual identification unit, for example.
  • the storage unit 11 stores, for example, identification information for identifying an individual for each target person, and the individual identification unit compares the behavior related information with the identification information, for example, Identify the target audience.
  • the identification information includes, for example, the face image information of the target person, and specifies the target person of the action related information by comparing the face image information with the image information included in the action related information.
  • the identification of the individual by the individual identification unit is not limited to the authentication of the face image information, for example, as long as the individual can be identified, and may be gait recognition, voice recognition, footstep recognition, or the like.
  • the identification information includes, for example, exercise information, audio information, footstep information, etc. of the subject
  • the action related information of the subject also includes exercise information, audio information, footstep information, etc. of the subject. including.
  • the target person of the behavior related information is specified by collating each of the target person's exercise information, voice information, footstep information, etc. included in the identification information and the target person's behavior related information. To do.
  • the fatigue level b of the action name is the fatigue level for each action set for each individual
  • the work time is the work time for each action set for each individual.
  • the formula (2B) is an example, and is not limited to this.
  • the formula for calculating the degree of fatigue can be set in consideration of the following points. That is, the fatigue level with respect to behavior generally differs between individuals and with the type of behavior. For this reason, it is preferable to optimize the calculation of the degree of fatigue for each individual and for each action. For example, when the same person takes different actions (for example, washing and reading) even at the same time, it is preferable to set the degree of fatigue for each action because the feeling of fatigue differs for each action. Moreover, even if it is the same action, since the fatigue level felt by people changes, it is preferable to set the fatigue level with respect to an action for every individual.
  • weighting is preferably performed according to the length of the sleeping time last night (the maximum is set to 8 hours).
  • the fatigue level b is a variable. For example, when the conversation robot makes an utterance n times and a response different from the prediction is obtained from the target person, the fatigue level of common behavior before and after is changed. .
  • the subject's listening tolerance is greater than or equal to a reference value. Assume that you have spoken but have failed (because there was a negative response or no response, such as a response that was different from what you expected).
  • the interaction success rate ⁇ of the equation (1) is updated. Further, at that time, common behaviors among the behaviors performed by the subject before and after cleaning and washing are examined. For example, when the subject is cooking before the cleaning and washing, the subject can determine that the degree of fatigue due to cooking is high.
  • the weight of the fatigue level (bj) of the previous and subsequent actions that is, the cooking fatigue level (b) is updated to a light value.
  • the weighting is updated not only for a single action but also for the actions before and after that action.
  • the update of the fatigue level (bj) of the preceding and following actions is not only when the subject reacts differently than expected, but not only when the conversation robot fails to speak, for example, the subject reacts differently than expected. It can also be updated when the conversation robot talks successfully. That is, it is a case where talking is successful despite the subject's listening tolerance being less than a reference value. In this case, the behavior before and after the subject person in common is examined, and the weight of the fatigue level (bj) of the behavior before and after is updated to a heavy value.
  • the weights of the fatigue levels (bj) of actions in the plurality of types of common before and after actions are updated together.
  • the next action combination estimated from the current action is updated for each individual.
  • (y) is not only the action ID (i) but also the action ID to be executed next based on the personal ID (j) and the action ID (i). Output.
  • the combination of personal ID (j), action ID (i), and action ID performed next is updated for every individual, for example, also respond
  • the above formula (3B) is an example, and is not limited thereto.
  • the degree of impatience of the subject in the current action is set as a difference value from the average motion value, for example.
  • the program according to the present embodiment is a program that can execute the timing determination method according to each of the above-described embodiments on a computer. Or the program of this embodiment may be recorded on a computer-readable recording medium, for example.
  • the recording medium is not particularly limited, and examples thereof include the storage medium as described above.
  • Appendix 1 Including a storage unit, a behavior estimation unit, a state estimation unit, a listening tolerance calculation unit, and a talk determination unit;
  • the storage unit stores the behavior-related information of the person to be spoken, the dialogue success rate for each behavior, and a criterion value,
  • the behavior estimating unit estimates the behavior of the target person at a predetermined time from the behavior related information,
  • the state estimation unit calculates a state value indicating the state of the subject at the predetermined time from the behavior related information,
  • the listening tolerance calculation unit may allow the subject to speak from the conversation success rate of the stored action corresponding to the estimated action, the calculated state value, and the predetermined time.
  • the talking determination unit determines whether or not the target person is allowed to speak by comparing the listening tolerance and the determination reference value.
  • Appendix 2 The timing determination device according to appendix 1, wherein the behavior-related information includes sensing information of the subject and schedule information of the subject.
  • Appendix 3 The timing determination device according to appendix 2, wherein the sensing information includes at least one selected from the group consisting of image information, acceleration information, gas usage information, electricity usage information, and water usage information.
  • the target person is plural, The timing determination device according to any one of appendices 1 to 4, wherein the storage unit stores behavior-related information for each target person and stores a conversation success rate for each target person.
  • the text generation unit generates text information of interactive utterance content for the subject when the conversation determination unit determines that the subject is in a permitted state,
  • the timing determination device according to any one of appendices 1 to 5, wherein the output unit outputs the text information.
  • the text generation unit generates text information of unidirectional utterance content for the subject when the conversation determination unit determines that the subject is not in a permitted state,
  • the timing determination device according to appendix 6, wherein the output unit outputs the text information.
  • the behavior estimation step estimates the behavior of the target person at a predetermined time from the behavior related information of the talk target person
  • the state estimation step calculates a state value indicating the state of the subject at the predetermined time from the behavior related information
  • the listening tolerance calculation step the listening that indicates the possibility of allowing the subject to speak from the interaction success rate of the action corresponding to the estimated action, the calculated state value, and the predetermined time. Calculate tolerance, The speaking timing determining method, wherein the speaking determination step determines whether or not the target person is allowed to speak by comparing the listening tolerance and a determination reference value.
  • (Appendix 9) The timing determination method according to appendix 8, wherein the behavior related information includes sensing information of the subject and schedule information of the subject.
  • (Appendix 10) The timing determination method according to appendix 9, wherein the sensing information includes at least one selected from the group consisting of image information, acceleration information, gas usage information, electricity usage information, and water usage information.
  • (Appendix 11) The timing determination method according to any one of appendices 8 to 10, wherein the state values of the subject are a fatigue level and a quietness level.
  • (Appendix 12) Including a memory step, The target person is plural, The timing determination method according to any one of appendices 8 to 11, wherein the storing step stores behavior-related information for each target person and stores a dialog success rate for each target person.
  • (Appendix 13) Furthermore, it includes a text generation process and an output process, When the text generation step determines that the subject is in a permissible state, the text generation step generates text information of interactive utterance content for the subject, The timing determination method according to any one of appendices 8 to 12, wherein the output step outputs the text information.
  • (Appendix 14) When the text generation step determines that the subject is not in an acceptable state, the text generation step generates text information of unidirectional utterance content for the subject, 14. The timing determination method according to appendix 13, wherein the output step outputs the text information.
  • (Appendix 15) 15. A program that causes a computer to execute the method for determining a talking timing according to any one of appendices 8 to 14.
  • (Appendix 16) A computer-readable recording medium on which the program according to attachment 15 is recorded.
  • (Appendix 17) An interactive apparatus comprising the timing determination apparatus according to any one of appendices 1 to 7.
  • this invention since it is determined whether or not it is a state in which talking is allowed from the behavior of the subject person with whom the automatic dialogue apparatus interacts, for example, the possibility of disturbing the user's behavior or causing trouble is reduced. Talking is possible. For this reason, this invention is applicable to various fields, such as care of elderly people, care recipients, such as a sick person, guidance at a hotel, a concert hall, etc., customer service at a shop front, etc.

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Telephonic Communication Services (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ユーザに対して適したタイミングを決定できる新たなシステムを提供する。本発明の話かけのタイミング決定装置(1)は、話かけ対象者の行動関連情報(111)、行動ごとの対話成功率(112)、および判定基準値(113)を記憶する記憶部(11)、行動関連情報(111)から所定時における対象者の行動を推定する行動推定部(12)、行動関連情報(111)から所定時における対象者の状態を示す状態値を算出する状態推定部(13)、推定行動に対応する記憶した行動の対話成功率(112)と算出した状態値と所定時の時間とから対象者が話かけを許容する可能性を示す傾聴許容度を算出する傾聴許容度算出部(14)、傾聴許容度と判定基準値とを対比して、対象者が話かけを許容する状態か否かを判定する話しかけ判定部(15)を含む。

Description

話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム
 本発明は、話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラムに関する。
 高齢化社会において、介護の現場の人手不足が大きな問題となっていることから、ロボットによる支援が求められている。しかしながら、ユーザとロボットとの間でより良い関係性が築けなければ、導入が困難であることも事実である。良い関係性の構築においては、ユーザとロボットの対話が重要な要素となる。特に、高齢者等がユーザである場合、前記ユーザに積極的に関与すること、つまり、話かけを行うことが重要となる。
 対話型ロボットに関しては、ユーザとの会話において、発話のタイミングを計るために、ユーザの呼吸が呼気から吸気にかわるタイミングを利用するシステムが開示されている(特許文献1)。
特開2016-197776号公報
 しかしながら、前記システムでは、前記ユーザと前記ロボットとの間で会話が開始されていることが前提条件となるため、会話が開始されていない場合には、タイミングを計ることはできず、積極的な関与には繋がりにくい。
 また、前記対話型ロボットが前記ユーザに話かけるタイミングは、例えば、前記ロボットと前記ユーザとの距離等で設定されている。しかし、このような設定条件は、前記ユーザの状態は、何ら考慮されておらず、例えば、単に前記ロボットの近くを通っただけなのか、前記ロボットに話しかけるために近づいたのかが不明である。このような場合、前記ロボットがユーザに話しかけても、前記ユーザの行動を妨害したり、迷惑をかける可能性があり、積極的な関与であっても、結果的に前記ユーザとの関係性が悪化する場合がある。
 そこで、本発明は、ユーザに対して適したタイミングを決定できる、新たなシステムの提供を目的とする。
 前記目的を達成するために、本発明の話かけのタイミング決定装置は、
記憶部、行動推定部、状態推定部、傾聴許容度算出部、および話かけ判定部を含み、
前記記憶部は、話かけ対象者の行動関連情報、行動ごとの対話成功率、および判定基準値を記憶し、
前記行動推定部は、前記行動関連情報から、所定時における前記対象者の行動を推定し、
前記状態推定部は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
前記傾聴許容度算出部は、前記推定行動に対応する前記記憶した行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
前記話しかけ判定部は、前記傾聴許容度と、前記判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
ことを特徴とする。
 本発明の話かけタイミング決定方法は、
行動推定工程、状態推定工程、傾聴許容度算出工程、および話かけ判定工程を含み、
前記行動推定工程は、話かけ対象者の行動関連情報から、所定時における前記対象者の行動を推定し、
前記状態推定工程は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
前記傾聴許容度算出工程は、前記推定行動に対応する行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
前記話しかけ判定工程は、前記傾聴許容度と、判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
ことを特徴とする。
 本発明のプログラムは、前記本発明の話かけのタイミング決定方法をコンピュータに実行させることを特徴とする。
 本発明の記録媒体は、前記本発明のプログラムを記録したコンピュータ読み取り可能である。
 本発明の対話装置は、前記本発明のタイミング決定装置を含むことを特徴とする。
 本発明によれば、自動対話装置が対話する対象者の行動から、話かけを許容する状態か否かを判定するため、例えば、ユーザの行動を妨害したり、迷惑をかける可能性を低減した話かけが可能となる。
図1は、実施形態1のタイミング決定装置の一例を示すブロック図である。 図2は、実施形態1のタイミング決定装置のハードウエア構成の一例を示すブロック図である。 図3は、実施形態1のタイミング決定方法の一例を示すフローチャートである。 図4は、実施形態2のタイミング決定装置および対話ロボットの例を示すブロック図である。 図5は、実施形態2のタイミング決定方法の一例を示すフローチャートである。 図6は、実施形態2の対話装置の一例を示すブロック図である。
 本発明の実施形態について説明する。本発明は、以下の実施形態には限定されない。以下の各図において、同一部分には、同一符号を付している。各実施形態の説明は、特に言及がない限り、互いの説明を援用できる。各実施形態の構成は、特に言及がない限り、組合せ可能である。
 本発明において、「話かけ対象者」とは、自動対話装置と対話する対象者である(以下、「対象者」という)。前記対象者は、特に制限されず、例えば、高齢者、病人等の被介護者等があげられるが、本発明は、これらに制限されない。本発明は、例えば、介護の領域だけでなく、ホテル、コンサート会場等での案内、店頭での接客等、様々な分野に適用できる。
[実施形態1]
 本発明のタイミング決定装置およびタイミング決定方法および対話の一例について、図を用いて説明する。
 図1は、本実施形態のタイミング決定装置の一例を示すブロック図である。タイミング決定装置1は、記憶部11、行動推定部12、状態推定部13、傾聴許容度算出部14、話かけ判定部15を含む。タイミング決定装置1は、例えば、タイミング決定システムともいう。タイミング決定装置1は、例えば、前記各部を含む1つの装置でもよいし、前記各部が、例えば、通信回線網を介して接続可能な装置でもよい。
 タイミング決定装置1は、自動対話装置による対象者との対話において、前記自動対話装置が前記対象者に話しかけるタイミングを決定する装置である。タイミング決定装置1と前記自動対話装置は、同じ装置でもよいし、通信回線網を介して接続可能であってもよい。前者の場合、前記自動対話装置がタイミング決定装置1を備えた形態といえる。後者の場合、例えば、タイミング決定装置1と前記自動対話装置とを含む自動対話システムということもできる。なお、前記自動対話装置に関しては、他の実施形態において説明する。
 記憶部11は、前記対象者の行動関連情報111、行動ごとの対話成功率112、および判定基準値113を記憶する。
 前記対象者の行動関連情報111とは、前記対象者の行動に関連する情報であればよく、その種類は何ら制限されない。行動関連情報111は、例えば、前記対象者の行動から直接的に得られる情報でもよく、前記対象者の行動から間接的に得られる情報でもよく、また、前記対象者が予定として記録している行動に関する情報でもよい。行動関連情報111は、前記対象者の行動に関連する情報であることから、例えば、これらの情報に基づけば、後述するように、前記対象者の行動を推定可能である。
 記憶部11は、例えば、一人の対象者の行動関連情報を記憶してもよいし、複数の対象者の行動関連情報を記憶してもよい。記憶部11は、例えば、前記対象者ごとに、前記対象者に紐づけて前記行動関連情報を記憶する。
 前記行動ごとの対話成功率112とは、例えば、ある行動Xを行っている対象者に対して、前記自動対話装置が話かけを行った際、前記対象者が前記話しかけに対して返事を行う割合を意味する。対話成功率112は、例えば、複数の対象者に対する成功率でもよいし、特定の対象者に対する成功率でもよい。前記対象者ごとに、より適したタイミングを決定する場合、対話成功率112は、例えば、特定の対象者に対する成功率であることが好ましい。また、対話成功率112は、例えば、過去の成功率を設定してもよいし、任意の成功率を設定してもよく、好ましくは前者である。記憶部11において、例えば、前記対話成功率は、行動に紐付けされて記憶される。
 判定基準値113とは、後述する傾聴許容度の基準値Sであり、前記対象者が話かけを許容する状態か否かの判定において、閾値として任意に設定できる。判定基準値113は、例えば、前記傾聴許容度の算出方法によって、適宜設定できる。
 行動推定部12は、行動関連情報111から、所定時における前記対象者の行動を推定する。前述のように、行動関連情報111は、行動に関連する情報であることから、例えば、その情報の種類に応じて、前記対象者の行動を推定できる。また、記憶部11は、例えば、予め、前記対象者の行動を推定するための参照情報を記憶してもよい。前記参照情報は、例えば、様々な行動について、行動ごとに、行動関連情報が紐づけられている。前記参照情報に基づけば、例えば、前記対象者の行動関連情報を前記参照情報と対比することにより、前記対象者の行動を推定することができる。
 タイミング決定装置1は、前述のように、前記自動対話装置による前記対象者への話かけのタイミングを決定する装置であることから、リアルタイムでのタイミングの決定が重要である。このため、前記ターゲットの行動は、例えば、前記行動関連情報が得られた時点での行動の推定であることが好ましい。
 状態推定部13は、行動関連情報111から、前記所定時における前記対象者の状態を示す状態値を算出する。前記対象者の状態値は、特に制限されず、例えば、疲労度および繁閑度である。
 前記疲労度とは、例えば、前記所定時における前記対象者の疲労の度合いを示す値である。具体的に、前記疲労度は、例えば、過去と現在の状況に関し、前記対象者について、過去の状態と比較した現在の状態における疲労の度合いとして表すことができる。簡単に言うと、例えば、過去の行動内容から現在の疲れている度合いを示したものといえる。前記疲労度は、例えば、相対値で表すことができ、相対値0が、相対的に最も疲れていない状態であり、相対値1が、相対的に最も疲れている状態である。
 前記繁閑度とは、例えば、前記所定時における前記対象者の忙しさの度合いを示す値である。具体的に、前記繁閑度は、例えば、現在と未来の状況に関し、前記対象者について、現在の状態から推測される精神的な焦りを示す値、または、次に行う予定行動の忙しさおよび重要さを反映した値ともいえる。前記繁閑度は、例えば、相対値で表すことができ、相対値0が、相対的に最も忙しくない状態であり、相対値1が、相対的に最も忙しい状態である。
 傾聴許容度算出部14は、前記推定行動に対応する前記記憶した行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出する。前記傾聴許容度の算出方法は、特に制限されず、任意に設定できる。
 前記傾聴許容度の算出において、前記所定時の時間は、例えば、時間帯に付与された相対値に変換して、算出に使用できる。前記時間帯の相対値は、例えば、ユーザが話してもよいと考える時間か否かを示す指標であり、具体例として、例えば、24時間を複数の時間帯に分割し、各時間帯について、話してもよいと考えるか否かを、0~1の相対値として付与できる。相対値1が、1日において相対的に最も忙しくなく、話してもよいと考える時間帯であり、相対値0が、1日において相対的に最も忙しく、話をすることができないと考える時間帯である。具体例として、例えば、平日の朝の時間帯(例えば、7:00~9:00)は、出社前で多忙であることから、相対値が低く設定され、平日の夜の時間帯(例えば、22:00~24:00)は、就寝前で余暇があることから、相対値が高く設定される。
 前記算出式としては、例えば、許容する可能性が高い程、前記傾聴許容度が大きく、許容する可能性が低い程、前記傾聴許容度が小さくなるような式(以下、「式A」という)を設定してもよいし、許容する可能性が低い程、前記傾聴許容度が大きく、許容する可能性が高い程、前記傾聴許容度が小さくなるような式(以下、「式B」という)を設定してもよい。以下の説明では、前者、すなわち、許容する可能性が高い程、前記傾聴許容度が大きく、許容する可能性が低い程、前記傾聴許容度が小さくなる式Aを想定して、説明する。
 前記式Aとして、例えば、下記式(1)が例示できる。なお、前記式(1)は、例示であって、本発明を制限するものではない。
Figure JPOXMLDOC01-appb-M000001
u:傾聴許容度
ε:対話成功率
α:疲労度
β:繁閑度
γ:時間帯の相対値
 前記式(1)の場合、例えば、対話成功率εは、高い程、許容の可能性が高く、低い程、許容の可能性が低くなる要素であり、前記状態値(疲労度αおよび繁閑度β)は、相対値が高い程、許容の可能性が低く、相対値が低い程、許容の可能性が高くなる要素であり、時間帯の相対値γは、高い程、許容の可能性が高く、低い程、許容の可能性が低くなる要素である。
 話しかけ判定部15は、前記傾聴許容度と、前記判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する。前記式Aの場合、例えば、前記傾聴許容度が、基準値Sを超える(または基準値S以上である)場合、許容する状態であると判定し、基準値S以下である(または基準値S未満である)場合、許容する状態ではないと判定できる。
 許容する状態であるとの判定結果または許容する状態ではないとの判定結果は、例えば、出力部により出力してもよい。
 図2に、タイミング決定装置1のハードウエア構成のブロック図を例示する。タイミング決定装置1は、例えば、CPU(中央処理装置)101、メモリ102、バス103、入力装置104、ディスプレイ105、通信デバイス106、記憶装置107等を有する。タイミング決定装置1の各部は、例えば、それぞれのインターフェイス(I/F)により、バス103を介して、相互に接続されている。
 CPU101は、タイミング決定装置1の全体の制御を担う。タイミング決定装置1において、CPU101により、例えば、プログラム108(本発明のプログラムを含む)が実行され、また、各種情報の読み込みや書き込みが行われる。具体的に、タイミング決定装置1は、例えば、CPU101が、行動推定部12、状態推定部13、傾聴許容度算出部14、話かけ判定部15として機能する。
 バス103は、例えば、外部機器とも接続できる。タイミング決定装置1は、バス103に接続された通信デバイス106により、通信回線網に接続でき、前記通信回線網を介して、前記外部機器と接続できる。タイミング決定装置1が、例えば、前記自動対話装置と別個の装置の場合、タイミング決定装置1は、通信回線網を介して、前記自動対話装置と接続可能である。
 メモリ102は、例えば、メインメモリを含み、前記メインメモリは、主記憶装置ともいう。CPU101が処理を行う際には、例えば、後述する補助記憶装置に記憶されている、本発明のプログラム等の種々の動作プログラム108を、メモリ102が読み込み、CPU101は、メモリ102からデータを受け取って、プログラム108を実行する。前記メインメモリは、例えば、RAM(ランダムアクセスメモリ)である。メモリ102は、例えば、さらに、ROM(読み出し専用メモリ)を含む。
 記憶装置107は、例えば、前記メインメモリ(主記憶装置)に対して、いわゆる補助記憶装置ともいう。記憶装置107は、例えば、記憶媒体と、前記記憶媒体に読み書きするドライブとを含む。前記記憶媒体は、特に制限されず、例えば、内蔵型でも外付け型でもよく、HD(ハードディスク)、FD(フロッピー(登録商標)ディスク)、CD-ROM、CD-R、CD-RW、MO、DVD、フラッシュメモリー、メモリーカード等があげられ、前記ドライブは、特に制限されない。記憶装置107は、例えば、記憶媒体とドライブとが一体化されたハードディスクドライブ(HDD)も例示できる。記憶装置107は、例えば、記憶部11であり、行動関連情報111、対話成功率112、判定基準値113が格納されてもよい。
 タイミング決定装置1は、さらに、入力装置104、ディスプレイ105等を備えてもよい。入力装置104は、例えば、タッチパネル、キーボード等である。ディスプレイ105は、例えば、LEDディスプレイ、液晶ディスプレイ等があげられる。
 つぎに、本実施形態のタイミング決定方法について、一例として、図3のフローチャートを用いて説明する。本実施形態のタイミング決定方法は、例えば、図1および図2に示すタイミング決定装置1を用いて実施できる。なお、本実施形態のタイミング決定方法は、これらの図面に示すタイミング決定装置1の使用には限定されない。また、本実施形態のタイミング決定方法における記載は、前述したタイミング決定装置1に援用できる。
 前記行動推定工程として、行動推定部12により、記憶部11に記憶された前記対象者の行動関連情報から、所定時における前記対象者の行動を推定する(S10)。
 前記状態推定工程として、状態推定部13により、記憶部11に記憶された前記対象者の行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出する(S11)。
 前記傾聴許容度算出工程として、傾聴許容度算出部14により、前記推定行動に対応する記憶部11に記憶された行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出する(S12)。
 そして、前記話しかけ判定工程として、話かけ判定部15により、前記傾聴許容度と、記憶部11に記憶された判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する。具体的には、例えば、前記傾聴許容度が、前記判定基準値以上か否かを判定し(S13)、前記基準値以上であれば(YES)、話かけを許容する状態であると判定し(S14)、前記基準値未満であれば(NO)、話かけを許容する状態ではないと判定する(S15)。
[実施形態2]
 本実施形態のタイミング決定装置は、さらに、例えば、テキスト生成部と出力部とを有する。本実施形態のタイミング決定装置は、例えば、対話端末である対話ロボットと、通信回線網を介して、接続可能であってもよい。本実施形態のタイミング決定装置およびそれを含む対話装置の一例について、図を用いて説明する。
 図4は、タイミング決定装置2と対話ロボット3とを含む、対話装置の一例を示すブロック図である。前記対話装置において、タイミング決定装置2と対話ロボット3とは、通信回線網4を介して、接続可能である。前記対話装置は、例えば、対話システムともいう。
 タイミング決定装置2は、前述のように、前記対象者に話しかけるタイミングを決定する装置であり、前記対象者が話かけを許容する状態か否かの判定によって、さらに、前記対象者に対する発話の内容のテキスト情報を出力することが好ましい。本実施形態においては、タイミング決定装置2により、タイミングの判定と発話内容のテキスト情報の生成を行い、前記テキスト情報を対話ロボット3に送信し、対話ロボット3から前記対象者への発話が行われる。
 タイミング決定装置2は、前述のように、さらに、テキスト生成部16と、前記出力部として通信部17を含む以外は、前記実施形態1のタイミング決定装置1と同様である。
 タイミング決定装置2において、テキスト生成部16は、発話内容のテキスト情報を生成する。前記テキスト情報は、例えば、対話ロボット3に送信され、対話ロボット3が受信すると、音声出力部32によって、前記テキスト情報に基づいて音声が合成され出力される。
 前記対象者が話しかけを許容する状態であると判定した場合、例えば、前記対象者が話をする余裕があるとして、テキスト生成部16は、前記対象者に対して双方向型の発話内容のテキスト情報を生成する。前記双方向型の発話内容とは、前記対象者に対話を求める発話内容である。具体例としては、例えば、「今、少しだけお話しない?」等の対話の依頼等があげられる。
 また、前記対象者が話しかけを許容する状態ではないと判定した場合、例えば、前記対象者が話をする余裕がないとして、テキスト生成部16は、例えば、前記対象者に対して一方向型の発話内容のテキスト情報を生成してもよい。前記一方向型の発話内容とは、前記対象者に対話を求める内容ではなく、前記対象者の行動に対する言葉かけの内容である。具体例としては、例えば、前記対象者が掃除中であれば、「お掃除、ありがとう」、「お掃除、ご苦労様」等の感謝、労いの言葉かけであり、テレビ視聴中であれば、「この番組、面白いね」等の感想の言葉かけである。前記対象者が話しかけを許容する状態ではない場合、対話ロボット3が、前記双方向型の発話を行うと、前記対象者の行動や思考を遮る可能性がある。一方、介護等の場面においては、積極的な関与が重要となるため、前記対象者が話しかけを許容する状態ではない場合でも、何らかの関与が望まれる。このため、話しかけを許容する状態ではないと判定した場合には、テキスト生成部16が一方向型の発話内容を生成することで、前記対象者の行動や思考等を遮ることを抑制しつつ、関与を行うことができる。また、言葉かけにより前記対象者の行動や思考等を遮る可能性が高い行動の場合には、前記テキスト情報を生成しなくてもよい。
 タイミング決定装置2において、通信部17は、テキスト生成部16で生成した前記テキスト情報を出力する。具体的には、タイミング決定装置2は、通信部17により、通信回線網4を介して、対話ロボット3に、前記テキスト情報を送信する。
 一方、対話ロボット3は、通信部31により、通信回線網4を介して、前記テキスト情報を受信する。そして、対話ロボット3は、音声出力部32により、前記テキスト情報に基づいて、音声を合成して、出力する。対話ロボット3は、例えば、通信部31および音声出力部32の他に、通常の対話ロボットが備える各種機能部を備えるが、その構成は、何ら制限されない。
 タイミング決定装置2と対話ロボット3との通信方式は、何ら制限されず、例えば、具体的には、例えば、インターネット回線、電話回線、LAN(Local Area Network)、WiFi(Wireless Fidelity)等があげられ、有線でも無線でもよい。前記通信方式は、例えば、無線の通信方式が好ましく、例えば、無線LAN(Local Area Network)、WiFi(Wireless Fidelity)、Bluetooth(登録商標)等が利用できる。
 つぎに、本実施形態のタイミング決定方法について、一例として、図5のフローチャートを用いて説明する。
 前記実施形態1と同様にして、前記対象者が話かけを許容する状態か否かを判定し、許容する状態であると判定した場合(S14)、テキスト生成部16により双方向型発話内容のテキスト情報を生成して(S20)、出力部である通信部17により、対話ロボット3に出力する(S22)。一方、許容する状態ではないと判定した場合(S15)、テキスト生成部16により一方向型発話内容のテキスト情報を生成して(S21)、通信部17により、対話ロボット34に出力する(S22)。
 そして、対話ロボット3は、通信部31により前記テキスト情報を受信すると、音声出力部32により、前記テキスト情報に基づいて、音声を合成し、出力する。
 対話ロボット3による前記音声の出力に対する前記対象者の反応は、例えば、対話成功率に反映させて、新たな対話成功率として、記憶部11に更新記憶させてもよい。
 話かけを許容する状態と判定し、対話ロボット3から前記双方向型発話内容の音声を出力した場合、例えば、現状の対話成功率εを再設定し、更新してもよい。すなわち、前記対象者から肯定的な反応が得られた場合、例えば、会話可能であるとして、対話成功率εをより高い値に更新し、否定的な反応が得られた場合、例えば、会話する余裕がないかもしれないとして、対話成功率εをより低い値で更新し、反応が得られない場合、例えば、会話する余裕がないかもしれないとして、対話成功率εをより低い値で更新してもよい。
 話かけを許容する状態ではないと判定し、対話ロボット3から前記一方向型発話内容の音声を出力した場合、例えば、現状の対話成功率εを再設定し、更新してもよい。すなわち、前記対象者から肯定的な反応が得られた場合、例えば、会話する余裕があるのかもしれないとして、対話成功率εをより高い値で更新し、否定的な反応が得られた場合、例えば、やはり会話する余裕がないとして、対話成功率εをそのままとし、反応が得られない場合も、例えば、やはり会話する余裕がないとして、対話成功率εをそのままとする。
 対話成功率εの更新は、例えば、対話ロボット3による一回の会話ごとに行ってもよいし、記憶部11に記憶した全データに基づいて、一度に更新してもよい。
 本実施形態は、タイミング決定装置2と対話ロボット3とが、通信回線網4を介して接続可能な形態を示したが、これには制限されず、タイミング決定装置2が対話ロボット3を兼ねてもよい。この場合、タイミング決定装置2は、例えば、さらに、音声出力部32を含み、テキスト生成部16で生成したテキスト情報に基づいて、音声を合成し、出力してもよい。
(変形例)
 本実施形態では、タイミング決定装置2と対話ロボット3とを含む対話装置(対話システム)を例示したが、前記対話装置は、例えば、前記対話ロボット自身が、前記タイミング決定装置を有する形態であってもよい。すなわち、本実施形態において、対話装置(対話ロボットともいう)は、前記本発明のタイミング決定装置を有する。
 図6は、前記対話装置として対話ロボットの一例を示すブロック図である。対話ロボット5は、前記実施形態1におけるタイミング決定装置1を有し、さらに、テキスト生成部16および音声出力部32を有する。テキスト生成部16および音声出力部32は、前述の通りである。対話ロボット5は、その内部において、タイミング決定装置1により話かけ判定が行われ、さらに、テキスト生成および音声の合成と出力とが行われる以外は、例えば、前述の説明を適宜援用できる。
[実施形態3]
 本実施形態は、前記対象者の行動関連情報について、具体例をあげて説明する。
 前記行動関連情報は、前述のように、前記対象者の行動に関連する情報であればよく、その種類は何ら制限されない。前記行動関連情報は、前記対象者の行動から直接的に得られる情報でもよく、前記対象者の行動から間接的に得られる情報でもよく、また、前記対象者が予定として記録している行動に関する情報でもよい。前記行動関連情報は、前記対象者の状態を表す情報であることから、例えば、経時的な情報であることが好ましい。
 前記行動関連情報は、例えば、センサによりセンシングした前記対象者のセンシング情報があげられる。
 前記センシング情報は、例えば、直接的な情報として、画像情報、加速度情報があげられる。
 前記画像情報は、例えば、カメラセンサにより、前記対象者の行動を撮像した画像であり、具体例として、経時的な静止画、動画等があげられる。前記カメラセンサは、特に制限されず、例えば、RGB(D)カメラ等があげられる。前記カメラは、例えば、前記対象者の住居内に設置されてもよいし、前記対話端末である対話ロボット3に搭載されてもよい。前記カメラで撮像した画像情報は、例えば、タイミング決定装置1の記憶部11に記憶される。この場合、前記カメラとタイミング決定装置1は、例えば、通信回線網を介して接続され、前記カメラからの前記画像情報を受信して、記憶部11に記憶してもよい。
 前記画像情報は、例えば、前記対象者の位置姿勢を表す情報であり、前記画像情報が表す位置姿勢情報から、前述のように、前記対象者の行動を推定できる。また、前記画像情報によれば、例えば、位置姿勢情報の変化の大きさや、過去の同一種類の行動時における姿勢の変化から疲労度、繁閑度を推定できる。「位置姿勢情報の変化」とは、例えば、現時点における経時的な変化を意味し、ある時間単位でみたとき、前記対象者がどの程度動き回っているかの変化の値で表すことができ、前記対象者の疲労度および繁閑度を推定する際の指標とすることができる。また、「過去の同一種類の行動時における姿勢の変化」とは、例えば、同じ行動の比較であり、現時点の行動Aにおける姿勢と、過去の同一種類の行動Aにおける姿勢との比較である。具体的に、例えば、「洗い物」を一つの行動として設定した場合、前記対象者が昨日と今日、同一の「洗い物」行動をしており、昨日の「洗い物」行動時には、腰が曲がっていたが、今日の「洗い物」行動時には、背筋が伸びているならば、今日は昨日より疲労度が低いと推定できる。
 前記加速度情報とは、例えば、加速度センサにより、前記対象者の行動をセンシングした情報である。前記加速度センサは、例えば、前記対象者の住居内に設置されてもよいし、前記対話端末である対話ロボット3に搭載されてもよく、前記対象者が、前記加速度センサを搭載したスマートフォン等の端末、またはウェアラブルデバイスを携帯してもよい。前記加速度センサは、特に制限されず、例えば、MEMS(Micro Electro Mechanical Systems)加速度センサ(製品名:BMX160、Bosch Sensortec社製)等があげられる。前記ウェアラブルデバイスは、特に制限されず、例えば、ブレスレット型、眼鏡型、腕時計型等があげられる。前記加速度センサによる加速度情報は、例えば、タイミング決定装置1の記憶部11に記憶される。この場合、前記センサとタイミング決定装置1は、例えば、通信回線網を介して接続され、前記センサからの前記加速度情報を受信して、記憶部11に記憶してもよい。
 前記加速度情報は、例えば、前記対象者の動きを表す情報であり、前記加速度情報から、前述のように、前記対象者の行動を推定できる。また、前記加速度情報によれば、例えば、現時点の行動に関する加速度のグラフと、過去の同一種類の行動に関する加速度のグラフとを比較し、現在の行動と過去に行った同一種類の行動との間における加速度の差から、疲労度、繁閑度を推定できる。具体的に、例えば、前記対象者が掃除をしている場合、昨日の掃除時の加速度と比較して、今日の掃除時の加速度が高い場合、今日は昨日よりも疲労度が低い、または、繁閑度が高いと推定できる。
 前記センシング情報は、例えば、間接的な情報として、ガス使用情報、電気使用情報、および水道使用情報等があげられる。前記センシング情報は、例えば、いずれか一種類でもよいし、二種類以上であってもよい。これらのセンシング情報は、前記対象者の状態を間接的に表す情報であり、具体的には、例えば、前記対象者が料理している、お風呂に入っている、洗顔している、掃除している等を表す情報である。前記ガス、電気、水道の使用量は、例えば、ガス会社、電力会社、水道局が設置したセンサによりセンシングされる。この場合、タイミング決定装置1は、例えば、ガス会社、電力会社、および水道局のデータベースと通信回線網を介して接続可能であり、前記データベースからの前記センシング情報を受信して、受信した情報を記憶部11に記憶してもよい。
 前記センシング情報は、例えば、前記対象者の行動を間接的に表す情報であり、前記センシング情報から、前記対象者の行動を推定できる。また、前記センシング情報によれば、例えば、使用量や使用時間等から、疲労度、繁閑度を推定できる。
 前記対象者が予定として記録している行動に関する情報とは、例えば、前記対象者のスケジュール情報があげられる。前記スケジュール情報は、例えば、時間単位のスケジュール、日にち単位のスケジュール等である。前記スケジュール情報は、例えば、クラウドサーバに記憶され、タイミグ決定装置1は、例えば、前記クラウドサーバと通信回線網を介して接続可能であり、前記クラウドサーバから前記スケジュール情報を受信して、受信した情報を記憶部11に記憶してもよい。
 前記スケジュール情報に基づけば、例えば、前記対象者の行動を推定できる。また、前記スケジュール情報によれば、例えば、前記対象者の残りのタスク量、1日のスケジュールの過密度等から、疲労度、繁閑度を推定できる。
[実施形態4]
 本実施形態は、疲労度および繁閑度の算出方法について、具体例をあげて説明する。なお、これらは例示であって、本発明を制限するものではない。
(1)疲労度の算出
 前記疲労度の算出式は、例えば、下記式(2A)が例示できる。
Figure JPOXMLDOC01-appb-M000002
α:疲労度
b:行動名の疲労度
i:その日1日における行動を示すID(i=1がその日の最初の行動1、i=2が行動1の次に行った行動2、i=3が行動2の次に行った行動3・・・)
d:現在までの行動数
t:作業時間
s:昨晩の睡眠時間
 疲労度αは、前述のように、前記対象者の疲労を示す相対値であり、相対値0が、相対的に最も疲れていない状態であり、相対値1が、相対的に最も疲れている状態を示す。
 行動名の疲労度(b)は、推定された行動名と、前記センシング情報、前記スケジュール情報から算出される疲労度である。前記行動名の疲労度は、例えば、予め、行動の種類を示す行動名に紐づけて、記憶部11に記憶する。
 行動ID(i)の数値は、その日1日の行動を示し、相対的に大きいほど、次の行動を意味する。行動ID(i)=1の場合、その日における最初の行動を意味し、行動ID(i)=2は、前記最初の行動の次の行動(その日における二番目の行動)を示し、行動ID(i)=3は、さらにその次の行動(その日における三番目の行動)を示す。具体的に、例えば、その日の最初の行動が掃除であり、次の行動が料理であった場合、行動ID(i)=1は、掃除であり、行動ID(i)=2は、料理である。
 現在までの行動数(d)は、その日1日における行動した数を意味し、前記式(2A)において、現在までの行動数(d)が相対的に大きくなるほど、その日の現時点における過去の行動bi(i<d)の重みづけが小さくなる。
 作業時間(t)とは、推定した現在の行動に関する作業時間(行動時間)を意味し、例えば、1日のうち何時間の活動にあたるかを、重みとして付与する。
 昨晩の睡眠時間(s)の単位は、特に制限されず、例えば、時間(hr)で表すことができる。昨晩の睡眠時間(s)は、例えば、8時間を基本として、前記対象者の睡眠時間が8時間以下であれば、疲労度が大きくなる重み付けをする。具体的に、例えば、前記対象者の睡眠時間が7時間であれば、疲労度αに1/8が足され、3時間であれば5/8足されるように、前記対象者の睡眠時間が減るほど、疲労度αが大きくなることを意味する。
(2)繁閑度の算出
 前記繁閑度の算出式は、例えば、下記式(3A)が例示できる。
Figure JPOXMLDOC01-appb-M000003
 前記式(3A)は、例えば、現在の行動(i)から予測される次の行動の重要性(py(i))と、前記対象者の現在の行動の忙しさとから、繁閑度βを算出する。繁閑度βは、前述のように、前記対象者の忙しさを示す相対値であり、相対値0が、相対的に忙しくない状態であり、相対値1が、相対的に最も忙しい状態を示す。
 pは、例えば、行動の重要性を示し、(i)は、前述のように、その日1日の行動IDを示す。現在の行動名から予測される次の行動名(y)は、例えば、現在の行動に基づき、現在の行動の後に発生した回数の多い行動から決定される。前記式(3A)において、(py)とは、例えば、行動名(y)に対する重要性(p)を示す。
 単位時間あたりの運動量(m)とは、例えば、行動ごとに設定した、単位時間あたりの運動量であり、m(オーバーライン)とは、例えば、行動ごとに設定した、単位時間当たりの平均運動量である。なお、運動量(m)が得られない場合は、式(3A)において、pのみを用いて繁閑度を算出してもよい。
[実施形態5]
 本実施形態は、不特定多数の対象者ではなく、特定の対象者個人に適した設定について、具体例をあげて説明する。なお、これらは例示であって、本発明を制限するものではない。
(1)個人の特定
 本実施形態のタイミング決定装置は、例えば、さらに、個人特定部を有する。この場合、記憶部11は、例えば、対象者ごとに、個人を特定する識別情報を記憶し、前記個人特定部は、例えば、前記行動関連情報と前記識別情報とを対比して、前記行動関連情報の対象者を特定する。前記識別情報は、例えば、対象者の顔画像情報を含み、前記顔画像情報と、前記行動関連情報に含まれる画像情報とを照合することによって、前記行動関連情報の対象者を特定する。前記個人特定部による個人の特定は、例えば、前記顔画像情報の認証に限定されず、個人が特定できればよく、歩容認識、音声認識、または足音認識等でもよい。この場合、前記識別情報は、例えば、前記対象者の運動情報、音声情報、または足音情報等を含み、前記対象者の行動関連情報も、前記対象者の運動情報、音声情報、または足音情報等を含む。そして、前記識別情報と、前記対象者の行動関連情報とに含まれる、前記対象者の運動情報、音声情報、または足音情報等を、それぞれ照合することによって、前記行動関連情報の対象者を特定する。
(2)疲労度の算出
 前記疲労度の算出式は、例えば、下記式(2B)が例示できる。特に示さない限りは、前記実施形態4における式(2A)と同様である。
Figure JPOXMLDOC01-appb-M000004
α:疲労度
b:行動名の疲労度
i:その日1日における行動を示すID(i=1がその日の最初の行動1、i=2が行動1の次に行った行動2、i=3が行動2の次に行った行動3・・・)
d:現在までの行動数
t:作業時間
s:昨晩の睡眠時間
j:個人ID
 前記式(2B)において、行動名の疲労度bは、個人ごとに設定された、行動ごとの疲労度であり、作業時間は、個人ごとに設定された、行動ごとの作業時間である。
 前記式(2B)は、一例であり、これには制限されず、例えば、以下のような点を考慮して、疲労度の算出式を設定することができる。すなわち、行動に対する疲労度は、一般的に、個人間および行動の種類で異なる。このため、疲労度の算出は、個人ごと、行動ごとに最適化することが好ましい。例えば、同じ時間であっても、同じ人が異なる行動(例えば、洗濯と読書)をとった場合、感じる疲労度は行動ごとに異なるため、行動ごとに疲労度を設定することが好ましい。また、同じ行動であっても、人によって感じる疲労度は異なるため、行動に対する疲労度を、個人ごとに設定することが好ましい。また、同じ行動であっても、行動する時間によって、疲労度が異なるため、1日における行動時間により重みづけすることが好ましい。また、過去の行動に対しては、徐々に疲れが抜けてくるため、現状の行動からみて、過去の行動であるほど、重みづけを軽くして、影響度を小さくすることが好ましい。また、睡眠時間が短い場合、次の日の行動に対する疲労度に影響がでるため、例えば、昨晩の睡眠時間(最大を8時間に設定)の長さに応じて重みづけすることが好ましい。
 疲労度bは、変数であり、例えば、前記対話ロボットからn回の発話を行って、前記対象者から予測とは異なった返答が得られた場合、共通する前後の行動の疲労度を変更する。
 具体的に、例えば、前記対象者が掃除をしている時と、洗濯をしている時とにおいて、前記対象者の傾聴許容度が基準値以上であるため、前記対話ロボットが前記対象者に話しかけたが、失敗した(否定的な反応があった、または反応が得られない等、予想と異なる反応があった)と仮定する。前記失敗時には、前述の通り、前記式(1)の対話成功率εが更新される。さらに、その際に、前記対象者が、掃除および洗濯の前後に行った行動のうち、共通する行動を検討する。例えば、前記対象者が、前記掃除および前記洗濯の前に料理を行っていた場合、前記対象者は、料理による疲労度が高いと判断できる。そして、前記対象者の行動名の疲労度(b)において、前後の行動の疲労度(bj)、すなわち、料理の疲労度(b)の重みづけを軽い値に更新する。このように、単一の行動だけでなく、その前後の行動についても重みづけを更新する。これにより、個人ごとのデータを収集し、例えば、一般化できない個人の生活リズムにも対応することができる。
 前記前後の行動の疲労度(bj)の更新は、前記対象者が予想と異なる反応をし、前記対話ロボットの話しかけが失敗したときだけでなく、例えば、前記対象者が予想と異なる反応をし、前記対話ロボットの話しかけが成功したときにも更新できる。すなわち、前記対象者の傾聴許容度が基準値未満であるのにも関わらず、話しかけに成功した場合である。この場合、前記対象者の共通する前後の行動を検討し、前後の行動の疲労度(bj)の重みづけを重い値に更新する。
 前記共通する前後の行動が複数種類ある場合、前記複数種類の共通する前後の行動における、行動の疲労度(bj)の重みづけをまとめて更新する。
(3)繁閑度の算出
 前記繁閑度の算出式は、例えば、下記式(3B)が例示できる。
Figure JPOXMLDOC01-appb-M000005
 次の行動そのものが個人において異なるため、現在の行動から推測される次の行動の組み合わせを個人ごとに更新する。具体的に、前記式(3B)において、例えば、(y)は、行動ID(i)だけでなく、個人ID(j)と、行動ID(i)に基づいて、つぎに実施される行動IDをアウトプットする。このため、個人ID(j)と、行動ID(i)と、次に実施される行動IDとの組み合わせを、個人ごとに更新することで、例えば、一般化できない個人の生活リズムにも対応することができる。
 前記式(3B)は、一例であり、これには制限されず、例えば、以下のような点を考慮繁閑度の算出式を設定することができる。すなわち、次に実施されるであろう行動を予測し、前記対象者の邪魔をしないようにするため、例えば、予測される次の行動の重要性pを設定する。具体例を下記表1に示す。一般の条件として、例えば、現在の行動を、「洗顔」、「お手洗い」、「着替え」に設定した場合、次の行動は、「出社」が推測され、次の行動の重要性は一律のp=0.08に設定される。一方、個人の生活リズムを参照した場合、着替えに時間がかからない個人であれば、洗顔のつぎの行動である着替えの重要性は、極めて小さい値に設定できる。
Figure JPOXMLDOC01-appb-T000006
 また、現在の行動における前記対象者の焦り具合を、例えば、平均運動値との差分値として設定する。
[実施形態6]
 本実施形態のプログラムは、前記各実施形態のタイミング決定方法を、コンピュータ上で実行可能なプログラムである。または、本実施形態のプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録されてもよい。前記記録媒体としては、特に限定されず、例えば、前述のような記憶媒体等があげられる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2018年3月26日に出願された日本出願特願2018―057474を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
<付記>
 上記の実施形態および実施例の一部または全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
記憶部、行動推定部、状態推定部、傾聴許容度算出部、および話かけ判定部を含み、
前記記憶部は、話かけ対象者の行動関連情報、行動ごとの対話成功率、および判定基準値を記憶し、
前記行動推定部は、前記行動関連情報から、所定時における前記対象者の行動を推定し、
前記状態推定部は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
前記傾聴許容度算出部は、前記推定行動に対応する前記記憶した行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
前記話しかけ判定部は、前記傾聴許容度と、前記判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
ことを特徴とする話かけのタイミング決定装置。
(付記2)
前記行動関連情報が、前記対象者のセンシング情報、および前記対象者のスケジュール情報を含む、付記1記載のタイミング決定装置。
(付記3)
前記センシング情報が、画像情報、加速度情報、ガス使用情報、電気使用情報、および水道使用情報からなる群から選択された少なくとも一つを含む、付記2記載のタイミング決定装置。
(付記4)
前記対象者の状態値が、疲労度および繁閑度である、付記1から3のいずれかに記載のタイミング決定装置。
(付記5)
前記対象者が複数であり、
前記記憶部が、前記対象者ごとの行動関連情報を記憶し、前記対象者ごとの対話成功率を記憶する、付記1から4のいずれかに記載のタイミング決定装置。
(付記6)
さらに、テキスト生成部、および出力部を含み、
前記テキスト生成部は、前記話しかけ判定部が、前記対象者が許容する状態であると判定した場合、前記対象者に対して双方向型の発話内容のテキスト情報を生成し、
前記出力部は、前記テキスト情報を出力する、付記1から5のいずれかに記載のタイミング決定装置。
(付記7)
前記テキスト生成部は、前記話しかけ判定部が、前記対象者が許容する状態ではないと判定した場合、前記対象者に対して一方向型の発話内容のテキスト情報を生成し、
前記出力部は、前記テキスト情報を出力する、付記6記載のタイミング決定装置。
(付記8)
行動推定工程、状態推定工程、傾聴許容度算出工程、および話かけ判定工程を含み、
前記行動推定工程は、話かけ対象者の行動関連情報から、所定時における前記対象者の行動を推定し、
前記状態推定工程は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
前記傾聴許容度算出工程は、前記推定行動に対応する行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
前記話しかけ判定工程は、前記傾聴許容度と、判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
ことを特徴とする話かけのタイミング決定方法。
(付記9)
前記行動関連情報が、前記対象者のセンシング情報、および前記対象者のスケジュール情報を含む、付記8記載のタイミング決定方法。
(付記10)
前記センシング情報が、画像情報、加速度情報、ガス使用情報、電気使用情報、および水道使用情報からなる群から選択された少なくとも一つを含む、付記9記載のタイミング決定方法。
(付記11)
前記対象者の状態値が、疲労度および繁閑度である、付記8から10のいずれかに記載のタイミング決定方法。
(付記12)
記憶工程を含み、
前記対象者が複数であり、
前記記憶工程は、前記対象者ごとの行動関連情報を記憶し、前記対象者ごとの対話成功率を記憶する、付記8から11のいずれかに記載のタイミング決定方法。
(付記13)
さらに、テキスト生成工程、および出力工程を含み、
前記テキスト生成工程は、前記対象者が許容する状態であると判定した場合、前記対象者に対して双方向型の発話内容のテキスト情報を生成し、
前記出力工程は、前記テキスト情報を出力する、付記8から12のいずれかに記載のタイミング決定方法。
(付記14)
前記テキスト生成工程は、前記対象者が許容する状態ではないと判定した場合、前記対象者に対して一方向型の発話内容のテキスト情報を生成し、
前記出力工程は、前記テキスト情報を出力する、付記13記載のタイミング決定方法。
(付記15)
付記8から14のいずれかに記載の話かけのタイミング決定方法をコンピュータに実行させることを特徴とするプログラム。
(付記16)
付記15記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記17)
付記1から7のいずれかに記載のタイミング決定装置を含むことを特徴とする対話装置。
 本発明によれば、自動対話装置が対話する対象者の行動から、話かけを許容する状態か否かを判定するため、例えば、ユーザの行動を妨害したり、迷惑をかける可能性を低減した話かけが可能となる。このため、本発明は、例えば、高齢者、病人等の被介護者等の介護、ホテル、コンサート会場等での案内、店頭での接客等、様々な分野に適用できる。
1、2    タイミング決定装置
11     記憶部
111    行動関連情報
112    対話成功率
113    判定基準値
12     行動推定部
13     状態推定部
14     傾聴許容度算出部
15     話しかけ判定部
16     テキスト生成部
17     通信部
101    CPU
102    メモリ
103    バス
104    入力装置
105    ディスプレイ
106    通信デバイス
107    記憶装置
3、5    対話ロボット
31     通信部
32     音声出力部
4      通信回線網

Claims (17)

  1. 記憶部、行動推定部、状態推定部、傾聴許容度算出部、および話かけ判定部を含み、
    前記記憶部は、話かけ対象者の行動関連情報、行動ごとの対話成功率、および判定基準値を記憶し、
    前記行動推定部は、前記行動関連情報から、所定時における前記対象者の行動を推定し、
    前記状態推定部は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
    前記傾聴許容度算出部は、前記推定行動に対応する前記記憶した行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
    前記話しかけ判定部は、前記傾聴許容度と、前記判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
    ことを特徴とする話かけのタイミング決定装置。
  2. 前記行動関連情報が、前記対象者のセンシング情報、および前記対象者のスケジュール情報を含む、請求項1記載のタイミング決定装置。
  3. 前記センシング情報が、画像情報、加速度情報、ガス使用情報、電気使用情報、および水道使用情報からなる群から選択された少なくとも一つを含む、請求項2記載のタイミング決定装置。
  4. 前記対象者の状態値が、疲労度および繁閑度である、請求項1から3のいずれか一項に記載のタイミング決定装置。
  5. 前記対象者が複数であり、
    前記記憶部が、前記対象者ごとの行動関連情報を記憶し、前記対象者ごとの対話成功率を記憶する、請求項1から4のいずれか一項に記載のタイミング決定装置。
  6. さらに、テキスト生成部、および出力部を含み、
    前記テキスト生成部は、前記話しかけ判定部が、前記対象者が許容する状態であると判定した場合、前記対象者に対して双方向型の発話内容のテキスト情報を生成し、
    前記出力部は、前記テキスト情報を出力する、請求項1から5のいずれか一項に記載のタイミング決定装置。
  7. 前記テキスト生成部は、前記話しかけ判定部が、前記対象者が許容する状態ではないと判定した場合、前記対象者に対して一方向型の発話内容のテキスト情報を生成し、
    前記出力部は、前記テキスト情報を出力する、請求項6記載のタイミング決定装置。
  8. 行動推定工程、状態推定工程、傾聴許容度算出工程、および話かけ判定工程を含み、
    前記行動推定工程は、話かけ対象者の行動関連情報から、所定時における前記対象者の行動を推定し、
    前記状態推定工程は、前記行動関連情報から、前記所定時における前記対象者の状態を示す状態値を算出し、
    前記傾聴許容度算出工程は、前記推定行動に対応する行動の対話成功率と、算出した前記状態値と、前記所定時の時間とから、前記対象者が話かけを許容する可能性を示す傾聴許容度を算出し、
    前記話しかけ判定工程は、前記傾聴許容度と、判定基準値とを対比して、前記対象者が話かけを許容する状態か否かを判定する
    ことを特徴とする話かけのタイミング決定方法。
  9. 前記行動関連情報が、前記対象者のセンシング情報、および前記対象者のスケジュール情報を含む、請求項8記載のタイミング決定方法。
  10. 前記センシング情報が、画像情報、加速度情報、ガス使用情報、電気使用情報、および水道使用情報からなる群から選択された少なくとも一つを含む、請求項9記載のタイミング決定方法。
  11. 前記対象者の状態値が、疲労度および繁閑度である、請求項8から10のいずれか一項に記載のタイミング決定方法。
  12. 記憶工程を含み、
    前記対象者が複数であり、
    前記記憶工程は、前記対象者ごとの行動関連情報を記憶し、前記対象者ごとの対話成功率を記憶する、請求項8から11のいずれか一項に記載のタイミング決定方法。
  13. さらに、テキスト生成工程、および出力工程を含み、
    前記テキスト生成工程は、前記対象者が許容する状態であると判定した場合、前記対象者に対して双方向型の発話内容のテキスト情報を生成し、
    前記出力工程は、前記テキスト情報を出力する、請求項8から12のいずれか一項に記載のタイミング決定方法。
  14. 前記テキスト生成工程は、前記対象者が許容する状態ではないと判定した場合、前記対象者に対して一方向型の発話内容のテキスト情報を生成し、
    前記出力工程は、前記テキスト情報を出力する、請求項13記載のタイミング決定方法。
  15. 請求項8から14のいずれか一項に記載の話かけのタイミング決定方法をコンピュータに実行させることを特徴とするプログラム。
  16. 請求項15記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  17. 請求項1から7のいずれか一項に記載のタイミング決定装置を含むことを特徴とする対話装置。
PCT/JP2018/037610 2018-03-26 2018-10-09 話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム WO2019187256A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020509578A JP6888860B2 (ja) 2018-03-26 2018-10-09 話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-057474 2018-03-26
JP2018057474 2018-03-26

Publications (1)

Publication Number Publication Date
WO2019187256A1 true WO2019187256A1 (ja) 2019-10-03

Family

ID=68061083

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037610 WO2019187256A1 (ja) 2018-03-26 2018-10-09 話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP6888860B2 (ja)
WO (1) WO2019187256A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234443A (ja) * 2007-03-22 2008-10-02 Matsushita Electric Ind Co Ltd 情報処理装置
JP2009131928A (ja) * 2007-11-30 2009-06-18 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234443A (ja) * 2007-03-22 2008-10-02 Matsushita Electric Ind Co Ltd 情報処理装置
JP2009131928A (ja) * 2007-11-30 2009-06-18 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体

Also Published As

Publication number Publication date
JPWO2019187256A1 (ja) 2020-10-22
JP6888860B2 (ja) 2021-06-16

Similar Documents

Publication Publication Date Title
JP4794846B2 (ja) 推定装置、及び推定方法
JP7222938B2 (ja) インタラクション装置、インタラクション方法、およびプログラム
JP2009163431A (ja) コミュニケーション算定装置、会合関数算定装置、会合関数算定方法および会合関数算定用プログラム
JP2017100221A (ja) コミュニケーションロボット
JP2018094242A (ja) 健康支援システム
JP6407521B2 (ja) 診療支援装置
JP2019216820A (ja) 支援システム
JP2019068153A (ja) 情報処理方法、情報処理装置及び情報処理プログラム
WO2019187256A1 (ja) 話かけのタイミング決定装置、話かけのタイミング決定方法、およびプログラム
JP2017196115A (ja) 認知機能評価装置、認知機能評価方法、およびプログラム
JP7364348B2 (ja) サービス提供装置、サービス提供システム、および、サービス提供方法
JP6957933B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6598227B1 (ja) 猫型会話ロボット
JP2006230446A (ja) 健康状態推定装置
JP6863779B2 (ja) ドアシステム、およびドアシステムを用いた監視方法
US11361674B2 (en) Encouraging speech system, encouraging speech method, and computer readable medium
JP7472727B2 (ja) 対話システム、対話ロボット、プログラム、および情報処理方法
JP2021162670A (ja) コミュニケーション提供装置、コミュニケーション提供システム及びプログラム
WO2024013945A1 (ja) 情報処理装置、情報処理方法、およびプログラム記録媒体
JP7218312B2 (ja) 情報処理装置、方法及びプログラム
JP7405436B2 (ja) 健康管理装置、健康管理方法及びプログラム
US11771863B1 (en) Interface for guided meditation based on user interactions
WO2020189340A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
WO2021199271A1 (ja) ストレス発散度算出装置、ストレス発散度算出方法、及びコンピュータ読み取り可能な記録媒体
JP2023087246A (ja) 精神状態管理システム、住宅、プログラム、及び精神状態管理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18911551

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020509578

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18911551

Country of ref document: EP

Kind code of ref document: A1