WO2019225248A1 - 行動誘引システム、行動誘引方法及びプログラム - Google Patents

行動誘引システム、行動誘引方法及びプログラム Download PDF

Info

Publication number
WO2019225248A1
WO2019225248A1 PCT/JP2019/016839 JP2019016839W WO2019225248A1 WO 2019225248 A1 WO2019225248 A1 WO 2019225248A1 JP 2019016839 W JP2019016839 W JP 2019016839W WO 2019225248 A1 WO2019225248 A1 WO 2019225248A1
Authority
WO
WIPO (PCT)
Prior art keywords
behavior
target person
attraction
biological information
subject
Prior art date
Application number
PCT/JP2019/016839
Other languages
English (en)
French (fr)
Inventor
佑香 山本
薮ノ内 伸晃
真梨奈 大野
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2020521112A priority Critical patent/JP6994653B2/ja
Priority to US17/055,813 priority patent/US20210106263A1/en
Publication of WO2019225248A1 publication Critical patent/WO2019225248A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • A61B5/6805Vests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/06Arrangements of multiple sensors of different types

Definitions

  • This disclosure relates to a behavior attraction system, a behavior attraction method, and a program for attracting human behavior.
  • Patent Document 1 provides a means for recognizing a risk factor existing in a monitoring area, detects when an infant approaches the risk factor, and allows an infant's guardian to take an action of moving the infant away from the risk factor.
  • an accident prevention system that provides support information to
  • Patent Literature 1 when an infant approaches a risk factor, support information is provided to the mother so that the mother moves the infant away from the risk factor, or the infant recognizes the risk factor. In addition, mothers can help to “discipline” infants.
  • the present disclosure provides a behavior attraction system, a behavior attraction method, and a program that can reduce the stress of a non-target person and guide the target person to be able to act independently.
  • An action attraction system is an action attraction system for inviting an action of a target person, the acquisition unit for acquiring the biometric information of the target person and the biometric information of the non-target person, and the target person A first device that makes a presentation for inviting a behavior of the user, a communication unit that communicates with a second device operated by the non-target person to instruct the first device to make the presentation, and the acquired target A control unit that controls at least one of the first device and the second device based on the biological information of the person and the acquired biological information of the non-target person via the communication unit; The control unit is configured to evaluate a mental state of the subject and the non-subject based on the acquired biological information, and based on an evaluation result of the evaluation unit, the first At least one of the one device and the second device And a determination unit that determines the control content of the communication unit outputs the control content in at least one of the first device and the second device.
  • the behavior attraction method is a behavior attraction method for attracting the behavior of the target person, an acquisition step of acquiring the biometric information of the target person and the biometric information of the non-target person, A first device for presenting to induce the behavior of the subject based on the biometric information of the subject and the biometric information of the acquired non-subject, and the first device A control step of controlling at least one of the second devices operated by the non-subject person to instruct the presentation, and the control step is based on the acquired biological information and An evaluation step for evaluating the mental state of the non-subject, a determination step for determining the control content of at least one of the first device and the second device based on an evaluation result of the evaluation step; System The contents including an output step of outputting at least one of the first device and the second device.
  • a program according to an aspect of the present disclosure causes a computer to execute the behavior attraction method.
  • FIG. 1 is a diagram for explaining the outline of the behavior attraction system according to the embodiment.
  • FIG. 2 is a functional block diagram showing the configuration of the behavior attraction system according to the embodiment.
  • FIG. 3 is a diagram illustrating a stress state evaluation method and control contents based on the evaluation result in the embodiment.
  • FIG. 4 is a diagram illustrating a correspondence relationship between stress state evaluation results and control contents.
  • FIG. 5 is a flowchart illustrating an example of the behavior attracting method according to the embodiment.
  • the target person is a target person who is attracted to the action
  • the non-target person is a person who causes the target person to attract the action.
  • the target person is a child including an infant
  • the non-target person is a guardian or a teacher
  • the target person is an elderly person
  • the non-target person is a caregiver.
  • the behavior attraction system 200 is a system for attracting the behavior of the target person, evaluates the mental state from the biological information of the target person and the non-target person, and based on the evaluation result, the first Control at least one of the device 111 and the second device 112.
  • the mental state is a stress state.
  • the behavior attraction system 200 can reduce the stress of the non-target person and can guide the target person to be able to perform the action independently.
  • the behavior attraction system 200 includes a first sensor 101, a second sensor 102, a behavior attraction device 100, a first device 111, and a second device 112.
  • the first sensor 101 and the second sensor 102 are sensors that measure biological information of the target person and the non-target person, respectively.
  • the biological information is physiological information that is influenced by stress such as heart rate, pulse, respiratory rate, blood oxygen saturation, blood pressure, body temperature, and sweating.
  • the biological information may be, for example, heart rate information because of ease of measurement.
  • Heartbeat information is information obtained from a heartbeat, for example, an electrocardiogram.
  • an example in which the first sensor 101 and the second sensor 102 are heart rate sensors is shown.
  • the 1st apparatus 111 is an apparatus which performs the presentation for attracting
  • the second device 112 is a device operated by a non-target person in order to instruct the first device to present the above, and here, an example of a smartphone is shown.
  • the target person is a person or animal that is attracted to action, and here, an example of being an infant is shown.
  • a non-target person is a person who invites a target person to act, and here, an example of being a mother of an infant is shown.
  • the action refers to a target action attracted by the action attraction system 200, and includes, for example, tidying up, preparation of belongings for the next day, preparation of a table, change of clothes, tooth brushing, preparation for going to bed, or the like.
  • an example of attracting tooth brushing to an infant is shown.
  • the behavior attraction system 200 is, for example, a system that attracts an infant's behavior.
  • the behavior attraction apparatus 100 controls the first device 111 to cause the first device 111 to execute a presentation for attracting the behavior of the infant, so that the infant is now It is a system that recognizes that it is time to brush your teeth and that you can brush your teeth independently.
  • FIG. 1 the specific example illustrated in FIG. 1 is merely an example, and the behavior attraction system 200 of the present disclosure is not limited thereto.
  • the behavior attraction apparatus 100 is connected to the first sensor 101, the second sensor 102, the first device 111, and the second device 112.
  • the behavior attracting device 100 may be arranged alone or may be incorporated in an appliance arranged on a ceiling or wall such as a lighting fixture. Note that the behavior attraction apparatus 100 may be arranged on a server that can be accessed via a network.
  • the mother can input the attraction information using the second device 112 in advance, and can set the action attraction apparatus 100 to operate at a predetermined timing and program. Note that the predetermined timing and program will be described later in the section “Configuration of Action Induction System”.
  • FIG. 2 is a functional block diagram showing the configuration of the behavior attraction system 200 according to the present embodiment.
  • the first sensor 101 and the second sensor 102 are sensors that measure biological information.
  • the first sensor 101 is a sensor that measures biological information of a subject
  • the second sensor 102 is a sensor that measures biological information of a non-subject.
  • the biological information is physiological information that is affected by stress such as heart rate, pulse rate, respiratory rate, blood oxygen saturation, blood pressure, body temperature, and sweating.
  • heartbeat information an example in which the biological information is heartbeat information will be described, but the present invention is not limited to this.
  • the biological information may be information obtained from the pulse (that is, pulse information), for example.
  • the first sensor 101 and the second sensor 102 are sensors that measure a change in blood volume in a blood vessel using reflected light or transmitted light, for example, using a phototransistor and a photodiode (hereinafter, referred to as “biological information”). Also called a pulse sensor).
  • the attachment site of the pulse sensor is the wrist, ankle, finger, or upper arm, and the shape of the pulse sensor is, for example, a band type (for example, a wristwatch type), an affixed type that is attached to the neck or the like, or an eyeglass type Etc.
  • the pulse sensor may be an image sensor that measures pulse information by calculating pulse information from a change in chromaticity of skin such as a face or a hand.
  • the biological sensor measures, for example, a change in saturated oxygen concentration contained in blood in the blood vessel by reflected light or transmitted light using a phototransistor and two types of photodiodes. It is a sensor.
  • the first sensor 101 and the second sensor 102 may include an acceleration sensor that detects movements of the infant and mother in addition to any of the above-described sensors.
  • the first sensor 101 includes a heart rate sensor and an acceleration sensor
  • the infant performs an operation that causes a change in heart rate information the period during which the operation is performed is excluded from the evaluation target of the mental state. Can do.
  • the behavior attraction apparatus 100 can distinguish the fluctuation
  • the behavior attraction apparatus 100 includes an acquisition unit 10, a control unit 40, and a communication unit 50.
  • the control unit 40 includes an evaluation unit 20 and a determination unit 30.
  • the behavior attraction apparatus 100 may be installed on a ceiling or a wall, or may be incorporated in an appliance installed on the ceiling or the wall.
  • the device installed on the ceiling or wall may be incorporated in, for example, a lighting device or a behavior detector (for example, a camera).
  • the behavior attraction apparatus 100 may be arranged on a server connected via the Internet.
  • the control unit 40 controls at least one of the first device 111 and the second device 112 based on the biological information of the infant and mother. Specifically, in the control unit 40, the evaluation unit 20 acquires the heart rate information of the infant and mother transmitted from the acquisition unit 10, evaluates the mental state of the infant and mother from the acquired heart rate information, The evaluation result is transmitted to the determination unit 30.
  • the heartbeat information is, for example, an electrocardiogram.
  • the evaluation unit 20 calculates indices such as heart rate and heart rate fluctuation from the electrocardiograms of the infant and mother.
  • the heart rate is calculated by multiplying 60 by the reciprocal of the heart rate interval (RRI: RR interval), which is the interval between two consecutive R waves in the electrocardiogram.
  • the heart rate fluctuation is, for example, a coefficient of variation of heart rate variability (CvRR: Coefficient of Variation of RR interval), a frequency component of heart rate variability, and the like.
  • the frequency component of the heart rate variability is, for example, HF (High Frequency), which is an integral value of the power spectrum in the high frequency region of 0.14 Hz to 0.4 Hz, and the integral of the power spectrum in the low frequency region of 0.04 Hz to 0.14 Hz. It is LF (Low Frequency) which is a value.
  • the evaluation unit 20 evaluates the stress state of the infant and the mother using one or a plurality of indexes among the above indexes.
  • a stress state evaluation method and control contents based on the evaluation result will be described.
  • the evaluation unit 20 calculates, for example, a stress index for infants and mothers using one or more of the above indices.
  • the stress index may be calculated according to the rate of change of the index used for evaluation, or the value of the index may be used as it is.
  • the determination unit 30 determines the control content of at least one of the first device 111 and the second device 112 based on the evaluation result of the evaluation unit 20.
  • the operation of the determination unit 30 will be described with a specific example.
  • FIG. 4 is a diagram illustrating a correspondence relationship between stress state evaluation results and control contents.
  • the second device 112 presents an image in which the infant is performing the target action and advises that “I will do my best as an infant, so let's watch it a little more”, or Displaying the achievement state of the target action and proposing a change in the control content of the first device 111 according to the achievement state.
  • the second device 112 is operated by the mother to instruct the first device 111 to present. For example, the second device 112 transmits the attraction information to the behavior attraction apparatus 100. Further, the second device 112 may transmit a change in the control content of the first device 111 according to the achievement state of the target behavior of the infant to the behavior attraction device 100.
  • the first device 111 and the second device 112 are, for example, a smartphone, a tablet terminal, a wearable terminal, a smart speaker, and a personal computer.
  • the first device 111 and the second device 112 include a presentation unit (not shown), an input unit (not shown), and a communication unit (not shown).
  • the presentation unit is, for example, a speaker when presenting by voice, and is a liquid crystal display or an organic EL (Electro Luminescence) display when presenting by image.
  • the input unit is, for example, a touch panel, a keyboard, a mouse, or a microphone.
  • the first device 111 and the second device 112 are connected to the behavior attraction apparatus 100 via the communication unit 50.
  • the communication unit 50 is a wireless communication interface such as Bluetooth (registered trademark), IrDA, or Wi-Fi (registered trademark).
  • the behavior detector is, for example, a camera or a sensor.
  • the behavior detector may detect the movement of the toy or picture book to be removed by the infant, and tag the toy or picture book to detect movement of the toy or picture book to be cleared by the infant. May be.
  • the behavior detector is a sensor, the behavior detector can detect a movement of a toy or a picture book to be cleared by an infant by measuring a change in weight with a weight sensor incorporated in a storage container such as a toy box. Good.
  • the behavior detector may detect a movement such as a movement of an infant brushing teeth or a movement of changing clothes.
  • the movement of the infant may be detected by the camera of the first device 111.
  • the behavior attracting apparatus 100 may transmit information on the movement of the infant detected by the behavior detector or the camera of the first device 111 to the second device 112.
  • the mother can confirm the movement of the infant on the monitor of the second device 112
  • the progress of the infant's target action for example, tidying up, brushing teeth, etc.
  • the mother can easily predict the time until the infant achieves the target behavior and what kind of follow-up is necessary. Accordingly, since the mother's stress can be reduced, the mother's emotional contact with the infant can be reduced.
  • FIG. 5 is a flowchart showing an example of the behavior attracting method according to the present embodiment.
  • the acquisition unit 10 first acquires the infant's biological information and the mother's biological information from the first sensor 101 and the second sensor 102 (acquisition step S10).
  • the control unit 40 controls at least one of the first device 111 and the second device 112 based on the acquired biological information of the infant and the acquired biological information of the mother.
  • the evaluation unit 20 evaluates the mental states of the infant and mother based on the acquired biological information (evaluation step S20).
  • the mental state refers to a stress state.
  • the determination unit 30 determines the control content of at least one of the first device 111 and the second device 112 based on the evaluation result of the evaluation step S20 (decision step S30).
  • the determination unit 30 is based on the attraction information input by the mother in advance. The control content of at least one of the first device 111 and the second device 112 is determined.
  • the determination unit 30 determines whether the first device 111 and the second device 112 are in a determination step S30. At least one control content is changed. At this time, in the evaluation step S20, the evaluation unit 20 further evaluates whether or not the infant has executed a predetermined target action (for example, tidying up). And when the evaluation part 20 evaluates that the infant is not performing predetermined
  • the behavior attraction program is started, and after a predetermined time has elapsed, the control unit 40 transmits a behavior detector (not shown) or the camera of the first device 111 via the communication unit 50.
  • Infant behavior information may be acquired.
  • the behavior information may be acquired when the control unit 40 requests the behavior detector or the camera of the first device 111 for the behavior information, and the control unit 40 acquires the behavior information without requesting the behavior detector. May be.
  • the evaluation unit 20 evaluates the achievement status of the target behavior of the infant based on the behavior information acquired by the communication unit 50.
  • the determination unit 30 changes the control content of the first device 111 based on the achievement status of the infant's target behavior.
  • the determination unit 30 may increase the motivation of the infant by adjusting the music playback speed.
  • the time may be adjusted by repeatedly playing at least a part of the music so that the music ends at the time when the infant's target behavior is achieved. Thereby, since the infant can complete the action while the music is being played, it can obtain a sense of accomplishment.
  • the target person is an infant
  • the target action to be attracted is to clean up toys and the like.
  • the first device 111 is the tablet terminal 111
  • the second device 112 is the infant's mother's smartphone 112
  • the behavior detector is a camera.
  • the mother uses the smartphone 112 in advance to execute timing information such as the time to start the behavior attraction and presentation for the tablet terminal 111 to attract the behavior of the infant.
  • the program information to be selected is selected, and these are transmitted to the behavior attraction apparatus 100 as attraction information.
  • the mother can select “19:00” as the timing information and preset the attraction information for inviting the action of the infant, such as “play music that the infant likes for 10 minutes” as the program information.
  • the invitation information may be set each time when it is desired to attract an infant's action, or may be repeated periodically by setting a day of the week and a time.
  • the behavior attraction apparatus 100 acquires the attraction information from the smartphone 112
  • the behavior attraction device 100 starts the attraction at a predetermined timing based on the attraction information.
  • the control part 40 transmits the command which makes the evaluation part 20 perform evaluation of the mental state of an infant and a mother.
  • the control unit 40 may request image data indicating the current state from the camera.
  • the first sensor 101 and the second sensor 102 measure biological information (here, heart rate information) of the infant and mother regardless of the execution of the behavior attraction program, and transmit the biometric information to the acquisition unit 10 of the behavior attraction apparatus 100. May be.
  • the evaluation unit 20 may evaluate the mental state from the biological information of the infant and mother acquired via the acquisition unit 10 and update the threshold value of the stress index every predetermined period. Thereby, a stress state can be evaluated according to a seasonal or daily physical condition change, and action attraction can be continued stably.
  • the control unit 40 requests image data indicating the cleanup progress status from the camera.
  • the evaluation unit 20 calculates the time until the action is achieved.
  • action achievement means that the attracted action is completed, and here, it is completion of cleanup.
  • the evaluation unit 20 calculates the progress status, that is, the degree of scattering after a predetermined time has elapsed from the start of tidying up from the acquired image data. Then, the degree of scatter after the predetermined time has been compared with the indoor situation when the behavior attraction program is started, that is, the degree of scatter at the start of the tidying up, to calculate the time until tidying up.
  • the degree of scattering is calculated as follows, for example.
  • Tags and the like are attached to toys and picture books, and the interior is imaged with a camera.
  • the number of tags present in the room is identified from the captured image, and the number of indoor tags at the start of cleaning and the number of indoor tags after a predetermined time has elapsed since the start of cleaning are calculated. Then, by calculating the difference between them and dividing by the elapsed time, the infant's tidying speed is calculated. From the calculated cleaning speed, the time until cleaning is completed is calculated. Then, in consideration of the possibility that the tidying speed will change, a predetermined time is added to the calculated time for tidying completion to calculate the time for tidying up to completion.
  • the control unit 40 may cause the smartphone 112 to present the time until the completion of cleaning in accordance with an instruction from the smartphone 112. Thereby, since the mother can grasp
  • the decision unit 30 changes the behavior attraction program according to the stress state of the infant and the mother. For example, when the evaluation unit 20 evaluates that neither the infant nor the mother is in a stressed state, the evaluation unit 20 calculates the difference between the calculated time until completion of cleaning and the time (10 minutes) set in the action attraction program. To do.
  • the determination unit 30 determines a music reproduction pattern based on the time length of the difference calculated by the evaluation unit 20.
  • the music playback pattern may be a pattern that slows down the music playback speed, or may be a pattern that repeats a part of music, for example, a chorus part. It is only necessary to be able to adjust the extension of the preset time (10 minutes) so that the infant does not notice it, and the music playback pattern may be appropriately determined according to the length of the difference.
  • the determination unit 30 changes the control to adjust to increase the music playback speed.
  • the speed should be adjusted so that the infant can act according to the speed of the music.
  • the determination unit 30 changes the control to stop the behavior attraction program. That is, music playback is stopped. Then, the mother is notified that the action attraction program has been canceled.
  • the behavior attraction apparatus 100 transmits a command based on the above determination to the first device 111 and the smartphone 112.
  • the mother can reduce the stress and the infant can voluntarily execute the target behavior.
  • both infants and mothers are determined to be in a stressed state, by canceling the behavioral attraction, both of them may be able to calm down and have a feeling of remorse that the target behavior cannot be achieved. it can.
  • the mother's emotional contact with the infant can be reduced, the willingness of the infant to achieve the target behavior can be improved. Therefore, the infant is aware that it is time to clean up when the first device 111 is presented to induce action (for example, when a predetermined music is played back), so that it can be voluntarily tackled. Become.
  • the behavior attraction system 200 is a behavior attraction system that attracts the behavior of the target person, and acquires the biological information of the target person and the biological information of the non-target person.
  • 10 and a communication device 50 that communicates with the first device 111 that makes a presentation for inviting the behavior of the target person, and the second device 112 that is operated by a non-target person to instruct the first device 111 to make a presentation.
  • Control for controlling at least one of the first device 111 and the second device 112 via the communication unit 50 based on the acquired biological information of the target person and the acquired non-target person's biological information.
  • control unit 40 evaluates the mental state of the target person and the non-target person based on the acquired biological information, and based on the evaluation result of the evaluation part 20
  • One device 111 and second device 11 It includes the determination unit 30 for determining at least one of control contents, the communication unit 50 outputs a control content in at least one of the first device 111 and second device 112.
  • the target person by evaluating the mental state of the target person and the non-target person from the biological information of the target person and the non-target person, it is possible to perform an action invitation according to the mental state of the target person and the non-target person. .
  • a mental load is reduced for the target person and the non-target person.
  • the non-target person is less likely to forcibly induce the behavior of the target person. Therefore, it becomes difficult for the target person to hold a negative image when the action is attracted, and the subject person can act independently. Therefore, according to the behavior attraction system of the present disclosure, the stress of the non-target person and the target person due to the behavior attraction is reduced. As a result, the target person can voluntarily execute the target action.
  • the evaluation unit 20 calculates the time change of the stress index indicating the mental state based on the biological information, and the stress is calculated for a predetermined time or a predetermined number of times.
  • the mental state may be evaluated as a stress state.
  • an increase in the stress index that does not originate from stress such as a change in biological information due to movement can be excluded from the determination of the mental state, so that the stress state can be accurately evaluated.
  • the determination unit 30 determines at least the first device 111 and the second device 112 when the evaluation unit 20 evaluates that at least the non-target person is in a stress state.
  • One control content may be changed.
  • the evaluation unit 20 further evaluates whether or not the target person has executed the predetermined target behavior, and the determination unit 30 When it is evaluated that the target action is not executed and the non-target person is evaluated as being in a stress state, at least the control content of the first device 111 is increased to increase the willingness to execute the target action of the target person. You may change to control which presents.
  • the non-target person can relatively calm and deal with the target person.
  • the target person can easily execute the target action by the presentation for increasing the willingness to execute the target action. At this time, for example, if the non-target person calmly supports, the target person can execute the target action more eagerly.
  • the determination unit 30 determines that the evaluation unit 20 evaluates that the target person is in a stress state, or both the target person and the non-target person are in a stress state. When it is evaluated that there is, at least the control content of the first device 111 may be changed to control for presenting to stop the behavioral attraction of the target person.
  • the determination unit 30 when the determination unit 30 changes the control content of the first device 111 to control for presenting to stop the target user's behavior attraction, the second device You may change the control content of 112 to control which notifies a non-target person of the stop of action attraction.
  • the behavior attraction method is a behavior attraction method for attracting the behavior of the target person, the acquisition step for acquiring the biological information of the target person and the biological information of the non-target person, Based on the biometric information of the target person and the acquired biometric information of the non-target person, the first device 111 that makes a presentation for inviting the behavior of the target person, and the first device 111 instructing the presentation
  • a control step for controlling at least one of the second devices 112 operated by the non-subject person to control the mental state of the subject person and the non-subject person based on the acquired biological information.
  • the evaluation result of the evaluation step Based on the evaluation step to be evaluated, the evaluation result of the evaluation step, the determination step for determining the control content of at least one of the first device 111 and the second device 112, and the control content to the first device 111 and second Comprising an output step of outputting at least one of the vessel 112.
  • the behavior attraction method of the present disclosure includes the step of evaluating the mental state of the target person and the non-target person from the biological information of the target person and the non-target person, thereby providing the mental state of the target person and the non-target person.
  • Action invitation according to the state can be performed.
  • a mental load is reduced for the target person and the non-target person.
  • the non-target person is less likely to forcibly induce the behavior of the target person. Therefore, it becomes difficult for the target person to hold a negative image when the action is attracted, and the subject person can act independently. Therefore, according to the behavior attraction method of the present disclosure, the stress of the non-target person and the target person due to the behavior attraction is reduced. As a result, the target person can voluntarily execute the target action.
  • control unit 40 is realized by a software program, but may be realized by dedicated hardware.
  • the first device 111 and the second device 112 are examples of a tablet terminal and a smartphone, respectively.
  • the first device 111 and the second device 112 are, for example, watch-type wearable terminals.
  • the first sensor 101 and the second sensor 102 are examples of heartbeat sensors, but may be pulse sensors.
  • the pulse sensor may be integrated with a watch-type wearable terminal.
  • the watch-type wearable terminal may include a presentation unit such as a display and a speaker, an input unit such as a touch panel and a microphone, and a camera.
  • an example is shown in which there is one target person who is attracted to an action and one non-target person that is attracting an action, but there may be a plurality of each.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Educational Technology (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Administration (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Pulmonology (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

行動誘引システム(200)は、対象者及び非対象者の生体情報を取得する取得部(10)と、対象者の行動を誘引するための提示を行う第一機器(111)及び第一機器(111)に提示を指示するために非対象者が操作する第二機器(112)と通信する通信部(50)と、取得された対象者及び非対象者の生体情報に基づいて、第一機器(111)及び第二機器(112)の少なくとも一方を、通信部(50)を介して制御する制御部(40)と、を備え、制御部(40)は、取得された生体情報に基づいて対象者及び非対象者の心的状態を評価する評価部(20)と、評価部(20)の評価結果に基づいて第一機器(111)及び第二機器(112)の少なくとも一方の制御内容を決定する決定部(30)と、を備え、通信部(50)は、制御内容を第一機器(111)及び第二機器(112)の少なくとも一方に出力する。

Description

行動誘引システム、行動誘引方法及びプログラム
 本開示は、人の行動を誘引する行動誘引システム、行動誘引方法及びプログラムに関する。
 近年、女性の社会進出に伴い、子供のいる共働き家族が増加している。また、核家族化に伴い、家事及び育児を主に女性が行っている場合が多く、女性に大きな負担がかかっている。このような状況において、女性の子育てに対する負担を減らすことが求められている。
 例えば、特許文献1は、監視領域内に存在する危険因子を認識する手段を設け、乳幼児が危険因子に接近するとそれを検出して、乳幼児の保護者が危険因子から乳幼児を遠ざける行動を取れるように支援情報を提供する事故予防システムを開示している。
 特許文献1に記載の従来技術によれば、乳幼児が危険因子に接近した場合に、母親に支援情報を提供して、母親が乳幼児を危険因子から遠ざける、又は、乳幼児が危険因子を認識するように母親が乳幼児に「しつけ」をする支援をすることができる。
特開2004-078304号公報
 しかしながら、特許文献1に記載の従来技術では、母親が乳幼児のしつけのために自分の時間を割く必要がある。特に、共働き家庭における母親の育児及び家事の負担は大きく、ストレスを感じやすい。
 そこで、本開示は、非対象者のストレスを低減し、かつ、対象者が自主的に行動することができるように導くことができる行動誘引システム、行動誘引方法及びプログラムを提供する。
 本開示の一態様に係る行動誘引システムは、対象者の行動を誘引する行動誘引システムであって、対象者の生体情報、及び、非対象者の生体情報を取得する取得部と、前記対象者の行動を誘引するための提示を行う第一機器、及び、前記第一機器に前記提示を指示するために前記非対象者が操作する第二機器と通信する通信部と、取得された前記対象者の前記生体情報、及び、取得された前記非対象者の前記生体情報に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方を、前記通信部を介して制御する制御部と、を備え、前記制御部は、取得された前記生体情報に基づいて、前記対象者及び前記非対象者の心的状態を評価する評価部と、前記評価部の評価結果に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方の制御内容を決定する決定部と、を備え、前記通信部は、前記制御内容を前記第一機器及び前記第二機器の少なくとも一方に出力する。
 また、本開示の一態様に係る行動誘引方法は、対象者の行動を誘引する行動誘引方法であって、対象者の生体情報、及び、非対象者の生体情報を取得する取得ステップと、取得された前記対象者の前記生体情報、及び、取得された前記非対象者の前記生体情報に基づいて、前記対象者の行動を誘引するための提示を行う第一機器、及び、前記第一機器に前記提示を指示するために前記非対象者が操作する第二機器の少なくとも一方を制御する制御ステップと、を含み、前記制御ステップは、取得された前記生体情報に基づいて、前記対象者及び前記非対象者の心的状態を評価する評価ステップと、前記評価ステップの評価結果に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方の制御内容を決定する決定ステップと、前記制御内容を前記第一機器及び前記第二機器の少なくとも一方に出力する出力ステップと、を含む。
 また、本開示の一態様に係るプログラムは、前記の行動誘引方法をコンピュータに実行させる。
 本開示によれば、非対象者のストレスを低減し、かつ、対象者が自主的に行動することができるように導くことができる行動誘引システム、行動誘引方法及びプログラムが提供される。
図1は、実施の形態に係る行動誘引システムの概要を説明する図である。 図2は、実施の形態に係る行動誘引システムの構成を示す機能ブロック図である。 図3は、実施の形態におけるストレス状態の評価方法及び評価結果に基づく制御内容を説明する図である。 図4は、ストレス状態の評価結果及び制御内容の対応関係を示す図である。 図5は、実施の形態に係る行動誘引方法の一例を示すフローチャートである。
 以下、本開示の実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は、必ずしも厳密に図示したものではない。各図において、実質的に同一の構成については同一の符号を付し、重複する説明は省略又は簡略化することがある。
 (実施の形態)
 以下、本実施の形態に係る行動誘引システム、行動誘引方法及びプログラムについて説明する。本開示では、対象者は、行動を誘引される対象の人であり、非対象者は、対象者に行動を誘引させる人である。例えば、対象者が幼児を含む子供である場合、非対象者は、保護者又は教師であり、対象者が老人である場合、非対象者は介護者である。
 [行動誘引システムの概要]
 図1は、本実施の形態に係る行動誘引システム200の概要を説明する図である。
 本実施の形態に係る行動誘引システム200は、対象者の行動を誘引するシステムであって、対象者及び非対象者の生体情報から心的状態を評価し、当該評価結果に基づいて、第一機器111及び第二機器112の少なくとも一方を制御する。なお、心的状態とは、ストレス状態をいう。これにより、行動誘引システム200は、非対象者のストレスを低減し、かつ、対象者が自主的に行動を行うことができるように導くことができる。
 行動誘引システム200は、第一センサ101と、第二センサ102と、行動誘引装置100と、第一機器111と、第二機器112と、を備える。
 第一センサ101及び第二センサ102は、それぞれ、対象者及び非対象者の生体情報を測定するセンサである。生体情報は、例えば、心拍、脈拍、呼吸数、血中酸素飽和度、血圧、体温、及び、発汗などのストレスにより影響を受ける生理学的な情報である。これらの生体情報のうち、測定の容易性から、生体情報は、例えば、心拍情報であってもよい。心拍情報とは、心拍から得られる情報であり、例えば、心電図である。ここでは、第一センサ101及び第二センサ102は、心拍センサである例を示す。
 第一機器111は、対象者の行動を誘引するための提示を行う機器であり、ここでは、タブレット端末である例を示す。
 第二機器112は、第一機器に上記提示を指示するために非対象者が操作する機器であり、ここでは、スマートフォンである例を示す。
 なお、対象者とは、行動を誘引される人又は動物であり、ここでは、幼児である例を示す。非対象者とは、対象者に行動を誘引させる人であり、ここでは、幼児の母親である例を示す。また、行動とは、行動誘引システム200により誘引される対象行動をいい、例えば、片付け、翌日の持ち物の準備、食卓の準備、着替え、歯磨き、又は、就寝準備などである。ここでは、幼児に歯磨きを誘引する例を示す。
 対象者の行動を誘引するための提示とは、対象者に所定の目標行動を実行させるために音声による提示であってもよく、画像による提示であってもよい。
 非対象者は、上記提示を指示するために、第二機器112を操作して、誘引情報を入力し、行動誘引装置100に送信する。誘引情報とは、誘引に関する条件であり、ここでは、対象者の行動を誘引させるタイミング情報と、誘引方法を示す行動誘引プログラム情報とを含む。タイミング情報は、例えば、所定の行動誘引プログラムに基づいて、行動誘引装置100が第一機器111及び第二機器112の少なくとも一方の制御を開始するタイミングである。行動誘引プログラム情報は、対象者及び非対象者の心的状態の変化に応じて、第一機器111及び第二機器112の少なくとも一方を制御するプログラム情報である。
 以下、図1を用いて、本実施の形態に係る行動誘引システム200の概要を説明する。行動誘引システム200は、例えば、幼児の行動を誘引するシステムである。例えば、幼児がテレビ番組を見終わったタイミングで、行動誘引装置100が第一機器111を制御して、第一機器111に幼児の行動を誘引するための提示を実行させることにより、幼児が今から歯磨きをする時間であると気づき、自主的に歯磨きを行うことができるように導くシステムである。なお、図1に示す具体例は、あくまでも一例であり、本開示の行動誘引システム200はこれに限られない。
 行動誘引装置100は、第一センサ101、第二センサ102、第一機器111、及び、第二機器112に接続されている。行動誘引装置100は、単独で配置されてもよく、照明器具などの天井又は壁に配置される器具に組み込まれてもよい。なお、行動誘引装置100は、ネットワークを介してアクセスできるサーバ上に配置されてもよい。
 母親は、予め、第二機器112を用いて、誘引情報を入力し、所定のタイミング及びプログラムで行動誘引装置100を動作させる設定を行うことができる。なお、所定のタイミング及びプログラムについては、「行動誘引システムの構成」の項にて後述する。
 [行動誘引システムの構成]
 以下、本実施の形態に係る行動誘引システム200の構成について説明する。図2は、本実施の形態に係る行動誘引システム200の構成を示す機能ブロック図である。
 図2に示すように、行動誘引システム200は、第一センサ101と、第二センサ102と、行動誘引装置100と、第一機器111と、第二機器112と、を備える。行動誘引装置100は、取得部10と、制御部40と、通信部50と、を備える。制御部40は、評価部20と、決定部30とを含む。
 第一センサ101及び第二センサ102は、生体情報を測定するセンサである。第一センサ101は、対象者の生体情報を測定するセンサであり、第二センサ102は、非対象者の生体情報を測定するセンサである。上述したように、生体情報は、例えば、心拍、脈拍、呼吸数、血中酸素飽和度、血圧、体温、及び発汗などのストレスにより影響を受ける生理学的な情報である。本実施の形態では、生体情報が心拍情報である例を説明するが、これに限定されない。生体情報は、例えば、脈拍から得られる情報(つまり、脈拍情報)であってもよい。
 生体情報が心拍情報である場合、第一センサ101及び第二センサ102は、例えば、被測定者の体の表面に接触する一対の電極を備えるセンサ(以下、心拍センサともいう)である。心拍センサにより得られる心拍情報は、心臓の拍動により得られる電気信号であり、例えば、心電図である。心拍センサは、導電性粘着ゲル電極であってもよく、導電性繊維などで構成されるドライ電極であってもよい。心拍センサの装着部位は、胸部であり、心拍センサの形状は、例えば、ウエアと電極とが一体となったウエア型である。ウエアは、例えば、肌着又は下着である。
 また、生体情報が脈拍情報である場合、第一センサ101及び第二センサ102は、例えば、フォトトランジスタ及びフォトダイオードにより血管中の血液量の変化を反射光又は透過光により測定するセンサ(以下、脈拍センサともいう)である。脈拍センサの装着部位は、手首、足首、指、又は、上腕であり、脈拍センサの形状は、例えば、バンド型(例えば、腕時計型など)、頸部などに貼り付ける貼付型、又は、眼鏡型などである。また、脈拍センサは、顔又は手などの皮膚の色度の変化から、脈拍情報を測定して脈拍を算出する画像センサであってもよい。
 また、生体情報が呼吸数である場合、第一センサ101及び第二センサ102は、例えば、胸部又は腹部に巻き付ける圧力センサを備えるベルト型のセンサ、又は、鼻の下に取り付ける温度センサである。
 また、生体情報が血中酸素飽和度である場合、生体センサは、例えば、フォトトランジスタ及び2種類のフォトダイオードにより血管中の血液に含まれる飽和酸素濃度の変化を反射光又は透過光により測定するセンサである。
 また、生体情報が血圧である場合、生体センサは、例えば、圧力センサが付いたベルトを上腕部と、指先又は橈骨と、に巻き付けて使用するセンサである。
 また、生体情報が体温である場合、生体センサは、例えば、掌又は鼻の頭などストレスにより毛細血管の収縮が起こりやすい部位に貼り付ける熱電対のセンサである。
 また、生体情報が発汗である場合、生体センサは、例えば、掌又は顔などストレスにより発汗が起こりやすい部位に接触する一対の検出電極を備えるセンサである。
 さらに、第一センサ101及び第二センサ102は、上記のいずれかのセンサに加えて、幼児及び母親の動きを検出する加速度センサを備えてもよい。例えば、第一センサ101が心拍センサ及び加速度センサを備えることにより、幼児が心拍情報に変化が生じる程度の動作を行った場合、その動作を行った期間を心的状態の評価対象から除外することができる。これにより、行動誘引装置100は、幼児の動作による生体情報の変動と心的要因による変動とを区別することができる。そのため、行動誘引装置100は、幼児及び母親の心的状態をより正確に評価できるため、第一機器111及び第二機器112をより適切に制御することができる。言い換えると、行動誘引装置100は、幼児及び母親のストレス状態をより正確に把握できるため、幼児の行動をより適切に導くことができ、母親のストレス状態を低減することができる。
 以上のように、第一センサ101及び第二センサ102は、それぞれ、幼児及び母親の生体情報を測定し、行動誘引装置100に送信する。
 行動誘引装置100は、第一センサ101及び第二センサ102から送信された幼児及び母親の生体情報を取得し、取得された心拍情報から幼児及び母親の心的状態を評価する。行動誘引装置100は、心的状態の評価結果に基づき、第一機器111及び第二機器112の少なくとも一方を制御する。
 行動誘引装置100は、取得部10と、制御部40と、通信部50とを備える。制御部40は、評価部20と、決定部30とを含む。行動誘引装置100は、天井又は壁に設置されてもよく、天井又は壁に設置される器具などに組み込まれていてもよい。天井又は壁に設置される器具は、例えば、照明器具、又は、行動検知器(例えば、カメラ)に組み込まれていてもよい。なお、上述したように、行動誘引装置100は、インターネットを介して接続されるサーバ上に配置されてもよい。
 取得部10は、第一センサ101及び第二センサ102から送信された幼児及び母親の心拍情報を取得し、取得した生体情報を評価部20に送信する。取得部10は、例えば、Bluetooth(登録商標)、IrDA、又はWi-Fi(登録商標)などの無線通信インタフェースである。
 制御部40は、通信部50により取得された誘引情報に基づいて、行動誘引装置100を制御する。制御部40は、CPU(Central Processing Unit)、プログラムを格納するROM(Read Only Memory)、RAM(Read Access Memory)を含み、評価部20及び決定部30を備える。なお、評価部20及び決定部30は、CPUがプログラムを実行することにより実現される。
 制御部40は、幼児及び母親の生体情報に基づいて、第一機器111及び第二機器112の少なくとも一方を制御する。具体的には、制御部40では、評価部20は、取得部10から送信された幼児及び母親の心拍情報を取得し、取得された心拍情報から、幼児及び母親の心的状態を評価し、評価結果を決定部30に送信する。心拍情報は、例えば、心電図である。評価部20は、幼児及び母親の心電図から心拍数及び心拍揺らぎなどの指標を算出する。心拍数は、心電図の連続する2つのR波の間隔である心拍間隔(RRI:R-R intervals)の逆数に60を乗じて算出される。心拍揺らぎは、例えば、心拍変動の変動係数(CvRR:Coefficient of Variation of R-R intervals)、及び、心拍変動の周波数成分などである。心拍変動の周波数成分は、例えば、0.14Hz~0.4Hzの高周波数領域のパワースペクトルの積分値であるHF(High Frequency)及び0.04Hz~0.14Hzの低周波数領域のパワースペクトルの積分値であるLF(Low Frequency)である。これらの心拍変動の周波数成分は、RRIを高速フーリエ変換を用いて周波数解析することにより求められる。
 評価部20は、上記の指標のうち1つ又は複数の指標を用いて、幼児及び母親のストレス状態を評価する。以下、ストレス状態の評価方法及び評価結果に基づく制御内容について説明する。
 図3は、本実施の形態におけるストレス状態の評価方法及び評価結果に基づく制御内容を説明する図である。
 評価部20は、例えば、上記の指標のうち1つ又は複数の指標を用いて、幼児及び母親のストレス指標を算出する。ストレス指標は、評価に用いられる指標の変化率に応じて算出されてもよく、指標の値をそのまま使用してもよい。
 本実施の形態に係る行動誘引システム200では、評価部20は、心拍情報に基づいて、心的状態を示すストレス指標の時間変化を算出し、所定の時間、又は、所定の回数、ストレス指標の値が閾値よりも高い場合、心的状態がストレス状態であると評価する。例えば、図3に示すように、所定の時間t、母親のストレス指標の値が閾値よりも高い場合、評価部20は、母親の心的状態がストレス状態であると評価する。また、所定の時間t、幼児のストレス指標の値が閾値よりも高い場合、評価部20は、幼児の心的状態がストレス状態であると評価する。また、所定の回数(例えば、n回)、母親のストレス指標の値が閾値よりも高い場合、評価部20は、母親の心的状態がストレス状態であると評価する。これにより、例えば、動作による生体情報の変化などのストレスに由来しないストレス指数の上昇を心的状態の判定から排除することができるため、ストレス状態を正確に評価することができる。
 なお、閾値は、予め設定された値であってもよく、閾値を設定するための試験によって算出された値であってもよい。また、閾値は、幼児と母親とで同じ値であってもよく、異なる値であってもよい。
 決定部30は、評価部20の評価結果に基づいて、第一機器111、及び、第二機器112の少なくとも一方の制御内容を決定する。以下、具体例を挙げて、決定部30の動作について説明する。図4は、ストレス状態の評価結果及び制御内容の対応関係を示す図である。
 図4の「行動誘引」に示すように、決定部30は、評価部20において、幼児も母親もストレス状態ではないと評価された場合、母親が予め入力した誘引情報に基づいて第一機器111を制御する。このとき、第一機器111は、幼児に所定の目標行動を実行する時間であることを気づかせるための提示を行う。当該提示は、例えば、目標行動毎に異なる音楽を流すこと、又は、キャラクターが「お片付けの時間だよ!」などの声掛けをして目標行動を実行する(例えば、片付けする)動画を表示すること、などが挙げられる。そして、第一機器111は、幼児に所定の目標行動を実行させるための提示を行う。当該提示は、例えば、目標行動毎に異なる音楽を流すこと、又は、キャラクターが歌を歌いながら目標行動を実行する動画を表示すること、などが挙げられる。
 また、図4の(A)に示すように、決定部30は、評価部20において、少なくとも母親がストレス状態であると評価された場合、第一機器111及び第二機器112の少なくとも一方の制御内容を変更する。例えば、第一機器111の制御内容を変更する場合、音楽の再生スピードを上げること、又は、キャラクターが「どちらが早いかな!」と声掛けして、幼児と目標行動の実行スピードを競争する動画を表示すること、などが挙げられる。また、例えば、第二機器112の制御内容を変更する場合、母親のストレスを低減させるための提示を実行する。このとき、第二機器112は、幼児が目標行動を実行している画像を提示して、「幼児なりに頑張っているので、もう少しだけ見守ってあげましょう」とアドバイスすること、又は、幼児の目標行動の達成状態を表示して、達成状態に応じた第一機器111の制御内容の変更を提案すること、などが挙げられる。これにより、母親は、気持ちを切り替えるきっかけを得ることができるため、自身のストレスを低減することができる。
 ここで、評価部20は、対象者及び非対象者の心的状態の評価に加え、さらに、対象者が所定の目標行動を実行したか否かを評価してもよい。なお、所定の目標行動を実行したか否かの評価には、対象者が所定の目標行動をどの程度達成できているかを評価することも含まれる。
 また、決定部30は、評価部20において、幼児が目標行動を実行していないと評価され、かつ、母親がストレス状態であると評価された場合(図4の(A))、少なくとも第一機器111の制御内容を、幼児の目標行動を実行する意欲を高めるための提示を行う制御に変更する。幼児の目標行動を実行する意欲を高めるための提示は、音声及び画像の少なくとも一方で行われてもよい。当該提示が音声及び画像の両方で行われる場合、当該提示は、例えば、幼児が好きな音楽を流すこと、キャラクターが目標行動を実行する動画を表示すること、又は、キャラクターが幼児に対して「一緒にやろうよ!」、「上手!」、「すごいね!」などの声掛けをして楽しく目標行動を実行する動画を表示すること、などが挙げられる。これにより、母親は、気持ちを切り替えるきっかけを得ることができるため、自身のストレスを緩和しやすくなる。そのため、例えば、母親が幼児の行動誘引に対して何らかのサポートを行う場面でも、母親は比較的落ち着いて幼児に対応することができる。また、幼児は、目標行動を実行する意欲を高めるための提示により、目標行動を実行しやすくなる。このとき、例えば、母親が落ち着いてサポートすると、幼児は、より意欲的に目標行動を実行することができる。
 また、図4の(B)及び(C)に示すように、決定部30は、評価部20において、幼児がストレス状態であると評価された場合、又は、幼児及び母親が共にストレス状態であると評価された場合、少なくとも第一機器111の制御内容を、幼児の行動誘引を中止するための提示を行う制御に変更する。幼児の行動誘引を中止するための提示は、幼児が例えば、音楽を終了させること、又は、キャラクターが「おしまい!」と言って手を振ってお家に帰る動画を表示すること、などが挙げられる。これにより、幼児及び母親が個別にタイムアウトすることができる。これにより、母親がストレス状態である場合は、母親が強引に幼児の行動誘引を続けることを回避できるため、幼児及び母親が行動誘引に対してネガティブなイメージを抱くことを低減することができる。また、幼児がストレス状態である場合は、行動を誘引しようとしても上手くいかないことが多く、一端、行動誘引を中止することにより、幼児の心的状態を落ち着かせることができる。これにより、次の行動を開始する場合に、幼児は、気持ちを切り替えて取り組むことができるため、効果的に幼児の行動を誘引することができる。
 決定部30は、第一機器111の制御内容を、幼児の行動誘引を中止するための提示を行う制御に変更した場合、第二機器112の制御内容を、母親に行動誘引の停止を通知する制御に変更する。当該通知は、画像のみで行われてもよく、画像及び音声で行われてもよい。これにより、母親は、幼児の行動誘引が停止されたことを知ることができるため、次の行動誘引に向けて気持ちを切り替えることができる。また、幼児及び母親が個別にタイムアウトすることができるため、双方とも次の行動に向けて気持ちを切り替えやすくなる。
 第一機器111は、幼児の行動を誘引するための提示を行う。ここで、幼児の行動を誘引するための提示は、幼児に目標行動を実行する時間であることを気づかせるための提示だけではなく、幼児の目標行動を実行する意欲を高めるための提示、及び、幼児の行動誘引を中止するための提示を含む。提示は、音声による提示であってもよく、画像による提示であってもよく、音声及び画像による提示であってもよい。
 第二機器112は、第一機器111に提示を指示するために母親が操作する。例えば、第二機器112は、誘引情報を行動誘引装置100に送信する。また、第二機器112は、幼児の目標行動の達成状態に応じた第一機器111の制御内容の変更を行動誘引装置100に送信してもよい。
 第一機器111及び第二機器112は、例えば、スマートフォン、タブレット端末、ウエアラブル端末、スマートスピーカー及びパーソナルコンピュータなどである。第一機器111及び第二機器112は、提示部(不図示)、入力部(不図示)及び通信部(不図示)を備える。提示部は、例えば、音声による提示を行う場合は、スピーカーであり、画像による提示を行う場合は、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイなどである。入力部は、例えば、タッチパネル、キーボード、マウス又はマイクなどである。第一機器111及び第二機器112は、通信部50を介して行動誘引装置100と接続される。通信部50は、Bluetooth(登録商標)、IrDA、又はWi-Fi(登録商標)などの無線通信インタフェースである。
 なお、行動誘引システム200は、行動検知器(不図示)を備えてもよい。行動検知器は、人の行動を検知し、行動を示す行動情報を行動誘引装置100に送信する。人の行動を検知するとは、人の動きそのものを検知してもよく、人の動きにより移動する物の動きを検知してもよい。すなわち、行動情報とは、人の動きを示す情報であってもよく、人の動きにより移動する物の動きを示す情報であってもよい。
 行動検知器は、例えば、カメラ又はセンサである。行動検知器がカメラの場合、行動検知器は、幼児がおもちゃ又は絵本などを片付ける動きを検知してもよく、おもちゃ又は絵本などにタグを付けて、幼児が片付けるおもちゃ又は絵本などの移動を検知してもよい。行動検知器がセンサの場合、行動検知器は、例えばおもちゃ箱などの収納容器に組み込まれた重量センサで重量の変化を計測することにより、幼児が片付けるおもちゃ又は絵本などの移動を検知してもよい。また、例えば、行動検知器は、幼児が歯磨きをする動き、又は、洋服を着替える動きなどの動きを検知してもよい。
 なお、行動検知器は、行動誘引装置100と無線で接続されていてもよく、有線で接続されていてもよい。また、行動検知器は、単独で配置されてもよく、照明器具などの天井又は壁に配置される器具に組み込まれてもよい。
 なお、第一機器111がカメラを備える場合は、第一機器111のカメラにより、幼児の動きを検知してもよい。
 また、行動誘引装置100は、行動検知器又は第一機器111のカメラが検知した幼児の動きの情報を第二機器112に送信してもよい。これにより、母親は、幼児の動きを第二機器112のモニターで確認することができるため、幼児の目標行動(例えば、片付け、歯磨きなど)の進捗状況を明確に把握することができる。そのため、母親は、幼児が目標行動を達成するまでの時間、及び、どのようなフォローが必要になるかなどの予測を立てやすくなる。したがって、母親のストレスを低減することができるため、母親が幼児に感情的に接することを低減することができる。
 [行動誘引方法]
 次に、本実施の形態に係る行動誘引方法について説明する。本実施の形態に係る行動誘引方法は、行動誘引装置100の各構成の動作により実行される。図5は、本実施の形態に係る行動誘引方法の一例を示すフローチャートである。
 本実施の形態に係る行動誘引方法では、まず、取得部10は、第一センサ101及び第二センサ102から幼児の生体情報、及び、母親の生体情報を取得する(取得ステップS10)。次いで、行動誘引装置100では、制御部40は、取得された幼児の生体情報、及び、取得された母親の生体情報に基づいて、第一機器111、及び、第二機器112の少なくとも一方を制御する(制御ステップS40)。具体的には、制御ステップS40では、評価部20は、取得された生体情報に基づいて、幼児及び母親の心的状態を評価する(評価ステップS20)。ここで、心的状態とは、ストレス状態を指す。次いで、制御ステップS40では、決定部30は、評価ステップS20の評価結果に基づいて、第一機器111、及び、第二機器112の少なくとも一方の制御内容を決定する(決定ステップS30)。
 次いで、通信部50は、制御内容を第一機器111及び第二機器112の少なくとも一方に出力する(出力ステップS50)。
 以下、制御ステップS40の処理の詳細について、図4を再び参照して説明する。
 図4に示すように、評価ステップS20において、評価部20が、幼児及び母親は共にストレス状態でないと評価した場合、決定ステップS30において、決定部30は、予め母親が入力した誘引情報に基づいて、第一機器111及び第二機器112の少なくとも一方の制御内容を決定する。
 また、評価ステップS20において、評価部20が、幼児はストレス状態ではなく、母親はストレス状態であると評価した場合、決定ステップS30において、決定部30は、第一機器111及び第二機器112の少なくとも一方の制御内容を変更する。このとき、評価ステップS20において、評価部20は、さらに、幼児が所定の目標行動(例えば、片付けなど)を実行したか否かを評価する。そして、評価部20が、幼児が所定の目標行動を実行していないと評価した場合、決定ステップS30において、決定部30は、少なくとも第一機器111の制御内容を、幼児の目標行動を実行する意欲を高めるための提示を行う制御に変更する。
 また、評価ステップS20において、評価部20が、幼児がストレス状態であると評価した場合、又は、幼児も母親も共にストレス状態であると評価した場合、決定ステップS30において、決定部30は、第一機器111の制御内容を、行動誘引を中止する制御に変更する。このとき、決定部30は、第二機器112の制御内容を、母親に行動誘引の停止を通知する制御に変更する。
 なお、上記各提示については、決定部30の動作例の説明で上述した通りであるため、ここでの説明を省略する。
 なお、評価ステップS20では、行動誘引プログラムを開始させて、所定の時間が経過した後、制御部40は、通信部50を介して、行動検知器(不図示)又は第一機器111のカメラから幼児の行動情報を取得してもよい。このとき、行動情報は、制御部40が行動検知器又は第一機器111のカメラに行動情報を要求して取得されてもよく、制御部40が行動検知器に行動情報の要求することなく取得されてもよい。評価部20は、通信部50により取得された行動情報に基づいて、幼児の目標行動の達成状況を評価する。決定部30は、幼児の目標行動の達成状況に基づいて、第一機器111の制御内容を変更する。例えば、決定部30は、音楽を流すことにより幼児の行動を誘引している場合は、音楽の再生スピードを調整して、幼児の意欲を高めてもよい。なお、音楽の少なくとも一部において繰り返し再生させることで時間を調整して、音楽が幼児の目標行動が達成される時間に終了するように調整してもよい。これにより、幼児は、音楽が再生されている間に行動を完了することができるため、達成感を得ることができる。
 [行動誘引システムの動作例]
 次に、本実施の形態に係る行動誘引システム200の動作について説明する。
 ここでは、対象者は、幼児であり、誘引される目標行動は、おもちゃなどの片付けである。また、第一機器111は、タブレット端末111であり、第二機器112は、幼児の母親のスマートフォン112であり、行動検知器は、カメラである。
 図示しないが、行動誘引システム200では、まず、母親は、予め、スマートフォン112を用いて、行動誘引を開始する時間などのタイミング情報と、タブレット端末111が幼児の行動を誘引するための提示を実行させるプログラム情報とを選択し、これらを誘引情報として行動誘引装置100に送信する。例えば、母親は、タイミング情報として、「19:00」を選択し、プログラム情報として、「10分間、幼児が好む音楽を流す」など、幼児の行動を誘引する誘引情報を予め設定することができる。誘引情報の設定は、幼児の行動を誘引したいときにその都度行ってもよいし、曜日と時間を設定して定期的に繰り返されるようにしてもよい。
 行動誘引装置100は、スマートフォン112から誘引情報を取得すると、誘引情報に基づいて所定のタイミングで行動誘引を開始する。このとき、制御部40は、評価部20に幼児及び母親の心的状態の評価を実行させるコマンドを送信する。なお、このとき、制御部40は、カメラに現在の状況を示す画像データを要求してもよい。これにより、行動誘引プログラムを開始した当初の室内の状況と、所定時間経過後の片付け達成状況とを、例えば、散らかり度合として比較することができるため、より正確に、行動達成に要する時間を予測することができる。
 なお、第一センサ101及び第二センサ102は、行動誘引プログラムの実行に関わらず、幼児及び母親の生体情報(ここでは、心拍情報)を測定し、行動誘引装置100の取得部10に送信してもよい。また、評価部20は、取得部10を介して取得された幼児及び母親の生体情報から心的状態を評価して、所定の期間毎にストレス指標の閾値を更新してもよい。これにより、季節又は日々の体調の変化に応じてストレス状態を評価することができ、安定的に行動誘引を継続することができる。
 行動誘引プログラムを実行した後、所定の時間が経過したときに、制御部40は、カメラに片付けの進捗状況を示す画像データを要求する。カメラが制御部40に、進捗状況を示す画像データを送信すると、評価部20は、行動達成までの時間を算出する。なお、行動達成とは、誘引された行動が完了することをいい、ここでは、片付け完了のことである。このとき、評価部20は、取得した画像データから進捗状況、つまり、片付け開始から所定時間が経過した後の散らかり度合を算出する。そして、この所定時間経過後の散らかり度合と、行動誘引プログラムを開始したときの室内の状況、つまり、片付け開始時の散らかり度合と、を比較して、片付け完了までの時間を算出する。ここで、散らかり度合は、例えば、以下のように算出される。おもちゃ及び絵本などにタグなどを付しておき、カメラで室内の様子を撮像する。撮像された画像から、室内に存在するタグの数を識別し、片付け開始時の室内のタグ数と、片付け開始から所定時間が経過した後の室内のタグ数とを算出する。そして、それらの差分を算出し、経過時間で除することにより、幼児の片付け速度を算出する。算出された片付け速度から、片付け完了までの時間を算出する。そして、片付け速度が変化する可能性を考慮し、算出された片付け完了までの時間に所定の時間を加えて、片付け完了までの時間を算出する。制御部40は、スマートフォン112からの指示に応じて、片付け完了までの時間を、スマートフォン112に提示させてもよい。これにより、母親は片付け完了までの時間を把握することができるため、ストレスを低減することができる。
 決定部30は、幼児及び母親のストレスの状態により、行動誘引プログラムを変更する。例えば、評価部20が幼児も母親も共にストレス状態でないと評価した場合、評価部20は、算出された片付け完了までの時間と行動誘引プログラムで設定された時間(10分間)との差分を算出する。決定部30は、評価部20で算出された差分の時間の長さにより、音楽の再生パターンを決定する。音楽の再生パターンは、音楽の再生速度を遅くするパターンであってもよく、音楽の一部、例えば、サビの部分を繰り返すパターンであってもよい。予め設定された時間(10分間)を延長する調整を行ったことを、幼児に気づかれないように調整できればよく、差分の時間の長さにより、適宜、音楽の再生パターンを決定するとよい。
 また、例えば、評価部20が、母親がストレス状態であると評価した場合、決定部30は、音楽の再生スピードを速める調整をする制御に変更する。幼児が音楽のスピードに合わせて行動できる速度に調整されるとよい。
 また、例えば、評価部20が、少なくとも幼児がストレス状態であると評価した場合、決定部30は、行動誘引プログラムを中止する制御に変更する。つまり、音楽の再生を停止する。そして、母親に行動誘引プログラムを中止した旨を通知する。
 行動誘引装置100は、上記決定に基づくコマンドを第一機器111及びスマートフォン112に送信する。
 以上の行動誘引方法により、母親はストレスを低減することができ、かつ、幼児は自主的に目標行動を実行することができるようになる。また、幼児及び母親が共にストレス状態と判定された場合に、行動誘引を中止することにより、両者が気持ちを落ち着かせて、目標行動が達成できなかったことを反省する気持ちの余裕を持つことができる。また、母親が幼児に対して感情的に接することを低減することができるため、幼児が目標行動を達成しようとする意欲を向上させることができる。したがって、幼児は、第一機器111に行動誘引のための提示が行われる(例えば、所定の音楽が再生されると)、片付けをする時間であることに気づき、自主的に片付けに取り組めるようになる。
 以上のように、本実施の形態に係る行動誘引システム200は、対象者の行動を誘引する行動誘引システムであって、対象者の生体情報、及び、非対象者の生体情報を取得する取得部10と、対象者の行動を誘引するための提示を行う第一機器111、及び、第一機器111に提示を指示するために非対象者が操作する第二機器112と通信する通信部50と、取得された対象者の生体情報、及び、取得された非対象者の生体情報に基づいて、第一機器111、及び、第二機器112の少なくとも一方を、通信部50を介して制御する制御部40と、を備え、制御部40は、取得された生体情報に基づいて、対象者及び非対象者の心的状態を評価する評価部20と、評価部20の評価結果に基づいて、第一機器111、及び、第二機器112の少なくとも一方の制御内容を決定する決定部30と、を備え、通信部50は、制御内容を第一機器111及び第二機器112の少なくとも一方に出力する。
 このように、対象者及び非対象者の生体情報から対象者及び非対象者の心的状態を評価することにより、対象者及び非対象者の心的状態に応じた行動誘引を行うことができる。これにより、対象者及び非対象者は、心的な負荷が低減される。特に、非対象者のストレスが低減されることにより、非対象者は、対象者に対して強引な行動誘引を行うことが少なくなる。そのため、対象者は、行動を誘引されることにネガティブなイメージを抱きにくくなり、自主的に行動することができるようになる。したがって、本開示の行動誘引システムによれば、行動誘引による非対象者及び対象者のストレスが低減される。これにより、対象者は、自主的に目標行動を実行することができるようになる。
 また、本実施の形態に係る行動誘引システム200では、評価部20は、生体情報に基づいて、心的状態を示すストレス指標の時間変化を算出し、所定の時間、又は、所定の回数、ストレス指標の値が閾値よりも高い場合、心的状態がストレス状態であると評価してもよい。
 これにより、例えば、動作による生体情報の変化などのストレスに由来しないストレス指数の上昇を心的状態の判定から排除することができるため、ストレス状態を正確に評価することができる。
 また、本実施の形態に係る行動誘引システム200では、決定部30は、評価部20において、少なくとも非対象者がストレス状態であると評価された場合、第一機器111及び第二機器112の少なくとも一方の制御内容を変更してもよい。
 これにより、非対象者は、気持ちを切り替えるきっかけを得ることができるため、自身のストレスを低減することができる。
 また、本実施の形態に係る行動誘引システム200では、さらに、評価部20は、対象者が所定の目標行動を実行したか否かを評価し、決定部30は、評価部20において、対象者が目標行動を実行していないと評価され、かつ、非対象者がストレス状態であると評価された場合、少なくとも第一機器111の制御内容を、対象者の目標行動を実行する意欲を高めるための提示を行う制御に変更してもよい。
 これにより、非対象者は、気持ちを切り替えるきっかけを得ることができるため、自身のストレスを緩和しやすくなる。そのため、例えば、非対象者が対象者の行動誘引に対して何らかのサポートを行う場面でも、非対象者は比較的落ち着いて対象者に対応することができる。また、対象者は、目標行動を実行する意欲を高めるための提示により、目標行動を実行しやすくなる。このとき、例えば、非対象者が落ち着いてサポートすると、対象者は、より意欲的に目標行動を実行することができる。
 また、本実施の形態に係る行動誘引システム200では、決定部30は、評価部20において、対象者がストレス状態であると評価された場合、又は、対象者及び非対象者がともにストレス状態であると評価された場合、少なくとも第一機器111の制御内容を、対象者の行動誘引を中止するための提示を行う制御に変更してもよい。
 これにより、対象者及び非対象者が個別にタイムアウトすることができる。これにより、非対象者がストレス状態である場合は、非対象者が強引に対象者の行動誘引を続けることを回避できるため、対象者及び非対象者が行動誘引に対してネガティブなイメージを抱くことを低減することができる。また、対象者がストレス状態である場合は、行動を誘引しようとしても上手くいかないことが多く、一端、行動誘引を中止することにより、対象者の心的状態を落ち着かせることができる。これにより、次の行動を開始する場合に、対象者は、気持ちを切り替えて取り組むことができるため、効果的に対象者の行動を誘引することができる。
 また、本実施の形態に係る行動誘引システム200では、決定部30は、第一機器111の制御内容を、対象者の行動誘引を中止するための提示を行う制御に変更した場合、第二機器112の制御内容を、非対象者に行動誘引の停止を通知する制御に変更してもよい。
 これにより、非対象者は、対象者の行動誘引が停止されたことを知ることができるため、次の行動誘引に向けて気持ちを切り替えることができる。また、対象者及び非対象者が個別にタイムアウトすることができるため、双方とも次の行動に向けて気持ちを切り替えやすくなる。
 また、本実施の形態に係る行動誘引方法では、対象者の行動を誘引する行動誘引方法であって、対象者の生体情報、及び、非対象者の生体情報を取得する取得ステップと、取得された対象者の生体情報、及び、取得された非対象者の生体情報に基づいて、対象者の行動を誘引するための提示を行う第一機器111、及び、第一機器111に上記提示を指示するために非対象者が操作する第二機器112の少なくとも一方を制御する制御ステップと、を含み、制御ステップは、取得された生体情報に基づいて、対象者及び非対象者の心的状態を評価する評価ステップと、評価ステップの評価結果に基づいて、第一機器111、及び、第二機器112の少なくとも一方の制御内容を決定する決定ステップと、制御内容を第一機器111及び第二機器112の少なくとも一方に出力する出力ステップと、を含む。
 このように、本開示の行動誘引方法は、対象者及び非対象者の生体情報から対象者及び非対象者の心的状態を評価するステップを有することにより、対象者及び非対象者の心的状態に応じた行動誘引を行うことができる。これにより、対象者及び非対象者は、心的な負荷が低減される。特に、非対象者のストレスが低減されることにより、非対象者は、対象者に対して強引な行動誘引を行うことが少なくなる。そのため、対象者は、行動を誘引されることにネガティブなイメージを抱きにくくなり、自主的に行動することができるようになる。したがって、本開示の行動誘引方法によれば、行動誘引による非対象者及び対象者のストレスが低減される。これにより、対象者は、自主的に目標行動を実行することができるようになる。
 なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 また、上記実施の形態において、制御部40はソフトウェアプログラムにより実現されたが、専用のハードウェアにより実現されてもよい。
 以上、本開示に係る行動誘引システム、行動誘引方法及びプログラムについて、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の主旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものや、実施の形態における一部の構成要素を組み合わせて構築される別の形態も、本開示の範囲に含まれる。
 なお、本実施の形態では、第一機器111及び第二機器112は、それぞれタブレット端末及びスマートフォンの例を示したが、第一機器111及び第二機器112は、例えば、時計型のウエアラブル端末であってもよい。また、本実施の形態では、第一センサ101及び第二センサ102は、心拍センサの例を示したが、脈拍センサであってもよい。脈拍センサは、例えば、時計型のウエアラブル端末と一体型であってもよい。また、時計型のウエアラブル端末は、ディスプレイ及びスピーカーなどの提示部、タッチパネル及びマイクなどの入力部、及び、カメラを備えていてもよい。
 これにより、対象者及び非対象者は、日常生活を送りながら、簡便に、かつ、快適に行動誘引を実行することができる。
 また、本実施の形態では、行動を誘引される対象者及び行動を誘引させる非対象者はそれぞれ一人である例を示したが、それぞれ複数であってもよい。この場合、複数の第一センサ及び第二センサ、複数の第一機器及び第二機器の情報を一括して管理できる端末、例えば、コンピュータを用いて管理してもよい。
 これにより、保育園、及び、老人ホームなどの施設においても、非対象者(ここでは、職員)のストレスを低減することができ、より適切に対象者を行動達成に導くことができる。
 10 取得部
 20 評価部
 30 決定部
 40 制御部
 50 通信部
 100 行動誘引装置
 101 第一センサ
 102 第二センサ
 111 第一機器(タブレット端末)
 112 第二機器(スマートフォン)
 200 行動誘引システム

Claims (8)

  1.  対象者の行動を誘引する行動誘引システムであって、
     対象者の生体情報、及び、非対象者の生体情報を取得する取得部と、
     前記対象者の行動を誘引するための提示を行う第一機器、及び、前記第一機器に前記提示を指示するために前記非対象者が操作する第二機器と通信する通信部と、
     取得された前記対象者の前記生体情報、及び、取得された前記非対象者の前記生体情報に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方を、前記通信部を介して制御する制御部と、
     を備え、
     前記制御部は、
     取得された前記生体情報に基づいて、前記対象者及び前記非対象者の心的状態を評価する評価部と、
     前記評価部の評価結果に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方の制御内容を決定する決定部と、
     を備え、
     前記通信部は、前記制御内容を前記第一機器及び前記第二機器の少なくとも一方に出力する、
     行動誘引システム。
  2.  前記評価部は、
     前記生体情報に基づいて、前記心的状態を示すストレス指標の時間変化を算出し、所定の時間、又は、所定の回数、前記ストレス指標の値が閾値よりも高い場合、前記心的状態がストレス状態であると評価する、
     請求項1に記載の行動誘引システム。
  3.  前記決定部は、
     前記評価部において、少なくとも前記非対象者がストレス状態であると評価された場合、前記第一機器及び前記第二機器の少なくとも一方の前記制御内容を変更する、
     請求項2に記載の行動誘引システム。
  4.  さらに、前記評価部は、前記対象者が所定の目標行動を実行したか否かを評価し、
     前記決定部は、
     前記評価部において、前記対象者が前記目標行動を実行していないと評価され、かつ、前記非対象者がストレス状態であると評価された場合、少なくとも前記第一機器の前記制御内容を、前記対象者の前記目標行動を実行する意欲を高めるための提示を行う制御に変更する、
     請求項2又は3に記載の行動誘引システム。
  5.  前記決定部は、
     前記評価部において、前記対象者がストレス状態であると評価された場合、少なくとも前記第一機器の前記制御内容を、前記対象者の行動誘引を中止するための提示を行う制御に変更する、
     請求項2又は3に記載の行動誘引システム。
  6.  前記決定部は、
     前記第一機器の前記制御内容を、前記対象者の行動誘引を中止するための提示を行う制御に変更した場合、前記第二機器の前記制御内容を、前記非対象者に前記行動誘引の停止を通知する制御に変更する、
     請求項5に記載の行動誘引システム。
  7.  対象者の行動を誘引する行動誘引方法であって、
     対象者の生体情報、及び、非対象者の生体情報を取得する取得ステップと、
     取得された前記対象者の前記生体情報、及び、取得された前記非対象者の前記生体情報に基づいて、前記対象者の行動を誘引するための提示を行う第一機器、及び、前記第一機器に前記提示を指示するために前記非対象者が操作する第二機器の少なくとも一方を制御する制御ステップと、
     を含み、
     前記制御ステップは、
     取得された前記生体情報に基づいて、前記対象者及び前記非対象者の心的状態を評価する評価ステップと、
     前記評価ステップの評価結果に基づいて、前記第一機器、及び、前記第二機器の少なくとも一方の制御内容を決定する決定ステップと、
     前記制御内容を前記第一機器及び前記第二機器の少なくとも一方に出力する出力ステップと、
     を含む、
     行動誘引方法。
  8.  請求項7に記載の行動誘引方法をコンピュータに実行させるためのプログラム。
PCT/JP2019/016839 2018-05-24 2019-04-19 行動誘引システム、行動誘引方法及びプログラム WO2019225248A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020521112A JP6994653B2 (ja) 2018-05-24 2019-04-19 行動誘引システム、行動誘引方法及びプログラム
US17/055,813 US20210106263A1 (en) 2018-05-24 2019-04-19 Behavior induction system, behavior induction method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018099685 2018-05-24
JP2018-099685 2018-05-24

Publications (1)

Publication Number Publication Date
WO2019225248A1 true WO2019225248A1 (ja) 2019-11-28

Family

ID=68616413

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016839 WO2019225248A1 (ja) 2018-05-24 2019-04-19 行動誘引システム、行動誘引方法及びプログラム

Country Status (3)

Country Link
US (1) US20210106263A1 (ja)
JP (1) JP6994653B2 (ja)
WO (1) WO2019225248A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201914855D0 (en) * 2019-10-14 2019-11-27 Binatone Electronics Int Ltd Dual video camera infant monitoring apparatus and methods
JP7109839B1 (ja) * 2022-01-31 2022-08-01 メック株式会社 行動支援用の音楽提供システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000311192A (ja) * 1999-04-27 2000-11-07 Matsushita Electric Ind Co Ltd 生活習慣改善支援システム
JP2006051317A (ja) * 2004-08-13 2006-02-23 Research Institute Of Human Engineering For Quality Life 感情伝達システム
JP2009086881A (ja) * 2007-09-28 2009-04-23 Brother Ind Ltd 学習指導支援装置、学習指導支援システム、及び学習指導支援プログラム
JP2010210730A (ja) * 2009-03-09 2010-09-24 Univ Of Fukui 乳幼児の感情診断装置及び方法
WO2016136131A1 (ja) * 2015-02-24 2016-09-01 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム及び情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000311192A (ja) * 1999-04-27 2000-11-07 Matsushita Electric Ind Co Ltd 生活習慣改善支援システム
JP2006051317A (ja) * 2004-08-13 2006-02-23 Research Institute Of Human Engineering For Quality Life 感情伝達システム
JP2009086881A (ja) * 2007-09-28 2009-04-23 Brother Ind Ltd 学習指導支援装置、学習指導支援システム、及び学習指導支援プログラム
JP2010210730A (ja) * 2009-03-09 2010-09-24 Univ Of Fukui 乳幼児の感情診断装置及び方法
WO2016136131A1 (ja) * 2015-02-24 2016-09-01 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム及び情報処理方法

Also Published As

Publication number Publication date
US20210106263A1 (en) 2021-04-15
JPWO2019225248A1 (ja) 2021-07-15
JP6994653B2 (ja) 2022-01-14

Similar Documents

Publication Publication Date Title
Bremner et al. The development of tactile perception
US20160121074A1 (en) System with a Heart Rate Adjusting Mechanism
US20160287082A1 (en) Determining physiological measurements associated with an infant
US10307100B2 (en) Methods and systems of controlling a subject's body feature having a periodic wave function
JP2018064740A (ja) リハビリテーションシステム
US10799665B2 (en) System for tracking motion of a device
US10839705B2 (en) Intelligent infant monitoring system and infant monitoring hub and infant learning receptivity detection system
CN107823775B (zh) 一种助眠方法及助眠枕
WO2019225248A1 (ja) 行動誘引システム、行動誘引方法及びプログラム
US20210386319A1 (en) Breathing adaptation system and method for influencing a breathing parameter
WO2016195805A1 (en) Predicting infant sleep patterns and deriving infant models based on observations associated with infant
WO2016164374A1 (en) Intelligent infant monitoring system and infant monitoring hub and infant learning receptivity detection system
Zana et al. Introduction of a complex reaction time tester instrument
JP2017509434A (ja) 心拍ゾーンの下、中及び上の分数を示す単純な心拍モニタ
CN109069787A (zh) 辅助方法、辅助系统以及程序
Lin et al. QM-FOrMS: A portable and cost-effective upper extremity rehabilitation system
US9682001B1 (en) Wearable bone conduction device
Somogyi et al. Hand movements in communicative and noncommunicative situations in very young infants: a preliminary study
Drijfhout Improving eSports performance: conducting stress measurements during Fifa gameplay
JP7361327B2 (ja) 環境制御システム及び環境制御方法
TW201812517A (zh) 利用腦波控制平台移動之裝置及方法
Oshima et al. The effectiveness of assistance dogs mounting ICT devices: A case study of a healthy woman and her dog
JP2023172460A (ja) 情報処理装置及び情報処理方法
TWM480127U (zh) 醫療保健與復健系統
Hall Affecting affect effectively: Investigating a haptic-affect platform for guiding physiological responses

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19807705

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020521112

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19807705

Country of ref document: EP

Kind code of ref document: A1