WO2016194173A1 - サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム - Google Patents

サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム Download PDF

Info

Publication number
WO2016194173A1
WO2016194173A1 PCT/JP2015/066065 JP2015066065W WO2016194173A1 WO 2016194173 A1 WO2016194173 A1 WO 2016194173A1 JP 2015066065 W JP2015066065 W JP 2015066065W WO 2016194173 A1 WO2016194173 A1 WO 2016194173A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
support
user
state
service providing
Prior art date
Application number
PCT/JP2015/066065
Other languages
English (en)
French (fr)
Inventor
奥谷 行央
Original Assignee
株式会社日立システムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立システムズ filed Critical 株式会社日立システムズ
Priority to JP2017521425A priority Critical patent/JP6450000B2/ja
Priority to PCT/JP2015/066065 priority patent/WO2016194173A1/ja
Publication of WO2016194173A1 publication Critical patent/WO2016194173A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising

Definitions

  • the present invention relates to a support support system, a support support method, and a support support program.
  • Patent Document 1 states that “a feeling detection method for detecting a subject's emotions, in which an audio signal is input, the intensity of the audio and the speed of appearance of the audio from the input audio signal. Tempo representing the intensities and inflections representing the intensity change patterns in each word of the speech, respectively, and determining the amount of change for each of the detected speech intensity, speech tempo and speech inflection, and based on the obtained amount of change , At least a technique for generating signals representing emotional states of anger, sadness and joy.
  • Patent Document 2 Japanese Patent Laid-Open No. 2002-215183
  • Individual Information that determines at least the reason and will of the sensibility generation target is stored in advance, and situation information indicating the emotional or environmental state of the opponent is stored.
  • situation information indicating the emotional or environmental state of the opponent is stored.
  • Instinct incentive motivation information including The technology for controlling the emotion information is described.
  • the support personnel may not be able to arrive at the site by the scheduled time depending on the congestion situation. For the user, there is a waiting time from the occurrence of the trouble until receiving support. There may also be no contact from support personnel during the waiting period. As a result, dissatisfaction and stress are accumulated in the user, and the reliability of the robot service provider may be reduced.
  • Patent Document 1 makes it possible to more accurately detect the emotion of a human subject. Also, with the technique disclosed in Patent Document 2, it is possible to output sensitivity in a state closer to a human. However, in the technologies disclosed in Patent Document 1 and Patent Document 2, it is not considered to take measures to solve the trouble during the waiting time from the occurrence of the trouble until the support is received. For this reason, with the technologies disclosed in Patent Document 1 and Patent Document 2, the user's emotions may deteriorate during the waiting time from the occurrence of the trouble until receiving support.
  • An object of the present invention is to provide a technique that can reduce the possibility that a user's emotions deteriorate during a waiting time from when a trouble occurs until support is received.
  • a support support system is a support support system including a robot service providing system and a robot connected to the robot service providing system via a network, and the robot service providing system includes: And a monitoring processing unit that identifies the user state based on at least one of the environment information indicating the state of the environment around the user and the emotion information indicating the state of the user's emotion transmitted from the robot.
  • the robot executes a process corresponding to the user state transmitted from the robot service providing system.
  • a support support method is a support support method in a support support system including a robot service providing system and a robot connected to the robot service providing system via a network.
  • the monitoring processing unit of the robot service providing system is based on at least one of environmental information transmitted from the robot that represents the state of the environment around the user and emotion information that represents the emotional state of the user.
  • a support support program is a support support program executed by a computer of a support support system having a monitoring processing unit and a communication processing unit, wherein the monitoring processing unit includes the robot
  • the computer executes a user state specifying step for specifying the user state based on at least one of the environment information indicating the state of the environment around the user and the emotion information indicating the state of the user's emotion transmitted from
  • the communication processing unit causes the computer to execute a user status transmission step of transmitting the user status acquired by the monitoring processing unit to the robot.
  • FIG. 1 is a diagram showing an outline of a configuration example of a support support system 10 according to an embodiment of the present invention.
  • the support support system 10 includes a robot service providing system 100, a support personnel terminal 200 connected to the robot service providing system 100 via a network, a robot service providing system 100, and a support personnel terminal 200. And a robot 300 connected via a network.
  • the robot service providing system 100, the support staff terminal 200, and the robot 300 are implemented by predetermined hardware and software.
  • the robot service providing system 100, the support personnel terminal 200, and the robot 300 have a processor, a memory, and the like, and a program on the memory executed by the processor is used as the support support system 10 as the robot service providing system 100. Then, the support personnel terminal 200 and the computer of the robot 300 are caused to function.
  • the robot 300 is a robot 300 used at a nursing care site, a robot 300 used at an education site, a robot 300 used at a distribution site, or the like.
  • Each robot has a function of providing various services to users (customers) at each site.
  • troubles that cannot be dealt with by the robot 300 alone or failures in the robot 300 itself may occur.
  • a user or the like requests a response to support personnel from a robot service provider (not shown). Then, the content of the trouble is transmitted to the support staff from the robot service provider's window.
  • the support staff having the support staff terminal 200 moves to the spot where the trouble occurs, for example, by driving a car.
  • the robot service providing system 100 includes a state determination information storage unit 110, a monitoring information storage unit 120, a user correspondence history storage unit 130, an action definition information storage unit 140, a monitoring processing unit 150, an action acquisition unit 160, And a communication processing unit 170.
  • a state determination information storage unit 110 stores environment information indicating the state of the environment around the user such as temperature and humidity, and user emotions such as normality, anger, excitement, and heart rate. Emotion information representing a state and a user state indicating the degree of user stress accumulation are stored in association with each other.
  • the monitoring information storage unit 120 includes monitoring information indicating the contents monitored by the monitoring processing unit 150, such as date and time, temperature, temperature, normality, anger, excitement, heart rate, and user status. It is remembered.
  • the user response history storage unit 130 stores a history of the robot responding to the inquiry from the user.
  • the action definition information storage unit (described later, FIG. 5) 140 stores information related to a definition file (described later, FIG. 6) for causing the robot 300 to execute a process for an inquiry from the user.
  • the monitoring processing unit 150 of the robot service providing system 100 is based on at least one of environmental information transmitted from the robot 300 that represents the state of the environment around the user and emotion information that represents the emotional state of the user.
  • a user state indicating the degree of stress accumulation is specified.
  • the action acquisition unit 160 of the robot service providing system 100 searches the user correspondence history storage unit 130 using the inquiry ID for specifying the content of the inquiry from the user as a key, and acquires all corresponding action names and execution order. . Further, the action acquisition unit 160 selects an action name based on the execution order, searches the action definition information storage unit (described above, FIG. 5) 140 using the selected action name as a key, and acquires a corresponding definition file name.
  • the communication processing unit 170 of the robot service providing system 100 transmits the definition file name acquired by the action acquisition unit 160 to the robot 300.
  • the robot 300 executes processing based on the definition file corresponding to the definition file name transmitted from the robot service providing system 100.
  • the robot 300 detects environmental information including temperature and humidity by a known technique. Further, the robot 300 detects emotion information representing the state of emotion of the user by a known technique. The robot 300 transmits the detected environment information and emotion information to the robot service providing system 100.
  • the robot 300 executes processing corresponding to the user state transmitted from the robot service providing system 100. For example, when the user state is the first state indicating that a predetermined amount or more of stress is accumulated compared to the normal state, the robot 300 outputs a predetermined message. Further, when the user state is the second state indicating that a predetermined stress or more is accumulated compared to the first state, the robot 300 transmits a warning signal to the support personnel terminal 200.
  • the support personnel terminal 200 is a wearable glasses-type terminal.
  • the support personnel terminal 200 is mounted on the head of the support personnel.
  • the support personnel terminal 200 may be a wearable bracelet type or ring type terminal.
  • the support personnel terminal 200 When the support personnel terminal 200 receives the warning signal, the support personnel terminal 200 notifies that the user's stress is accumulated. For example, when the support personnel terminal 200 receives the warning signal, the support staff terminal 200 displays on the display that the user's stress is accumulated. Thereafter, the support personnel terminal 200 receives an input of a response method for the inquiry from the user, and transmits the response method that has received the input to the robot 300. For example, the support staff terminal 200 receives an input of a response method by voice. The robot 300 receives the response method transmitted from the support personnel terminal 200 and executes processing based on the received response method.
  • the support personnel terminal 200 periodically requests monitoring information from the robot service providing system 100. Then, the support staff terminal 200 displays the monitoring information transmitted from the robot service providing system 100 on the display. Specifically, the support personnel terminal 200 transmits the user ID of the user who wants to request monitoring information to the support personnel terminal 200. The support personnel terminal 200 acquires monitoring information corresponding to the user ID transmitted from the robot service providing system 100 from the monitoring information storage unit 120, and transmits the acquired monitoring information to the support personnel terminal 200. Thereby, the support personnel terminal 200 displays the monitoring information transmitted from the robot service providing system 100 on the display.
  • the support staff terminal 200 periodically requests the user service history from the robot service providing system 100. Then, the support personnel terminal 200 displays the user response history transmitted from the robot service providing system 100 on the display.
  • FIG. 2 is a diagram showing an outline of a configuration example of the state determination information table stored in the state determination information storage unit 110 according to the embodiment of the present invention.
  • the state determination information constituting the state determination information table includes [temperature], [humidity], [normality], [anger], [excitement], [heart rate], [user] It consists of data items such as status.
  • [Temperature] indicates the temperature around the user.
  • [Humidity] indicates the humidity around the user.
  • [Normality] indicates the degree of whether or not the user's emotion is normal. [Normality] is represented by any value from 1 to 10, and the larger the value, the less the emotion of the user.
  • [Angry] indicates the degree of anger of the user. [Angry] is indicated by any value from 1 to 10, and the larger the value, the greater the degree of angry the user.
  • [Excitement degree] indicates the degree of user excitement. [Exciting degree] is indicated by any value from 1 to 10, and the larger the value, the greater the degree of excitement of the user.
  • [Heart rate] indicates the heart rate of the user.
  • [User state] indicates the degree of stress accumulation of the user.
  • FIG. 3 is a diagram showing an outline of a configuration example of monitoring information stored in the monitoring information storage unit 120 according to the embodiment of the present invention.
  • Monitoring information comes from data items such as [User ID], [Date / Time], [Temperature], [Temperature], [Normality], [Anger], [Excitement], [Heart Rate], [User Status], etc. Composed.
  • [User ID] indicates a code for identifying a user.
  • [Date / Time] indicates the date / time when the robot acquired the monitoring information.
  • FIG. 4 is a diagram showing an outline of a configuration example of the user correspondence history stored in the user correspondence history storage unit 130 according to the embodiment of the present invention.
  • User response history includes [Robot ID], [Robot type], [Inquiry ID], [Inquiry type], [Execution order], [Action name], [Action performer], [Action execution date], [Before change] It consists of data items such as "state”, “state after change", and "action evaluation”.
  • [Robot ID] indicates a code for identifying the robot.
  • [Robot type] indicates the type of the robot. The type of robot is classified based on, for example, its use.
  • [Inquiry ID] indicates a code for specifying the inquiry content from the user.
  • [Inquiry type] indicates the type of inquiry.
  • [Execution Order] indicates the order in which actions are executed.
  • [Action Name] indicates names of various actions executed by the robot or support personnel.
  • [Action executor] indicates whether the person who executes the action is a robot or a support person.
  • [Action execution date and time] indicates the date and time when the action was executed.
  • [Pre-change state] indicates the state of the user before handling the user.
  • [State after change] indicates the state after the change of the user after handling the user.
  • FIG. 5 is a diagram showing an outline of a configuration example of the action definition information stored in the action definition information storage unit 140 according to the embodiment of the present invention.
  • Action definition information consists of data items such as [Robot type], [Inquiry type], [Action name], [Definition file name], [Execution authority], and [Executable time zone].
  • [Definition file name] indicates the name of the definition file executed by the robot.
  • [Execution authority] indicates whether a robot or a support person has authority to start execution of the definition file.
  • the “executable time zone” indicates a time zone during which the action can be executed.
  • FIG. 6 is a diagram showing an outline of the definition file executed by the robot 300 according to the embodiment of the present invention. As shown in FIG. 6, in the definition file, contents to be output by the robot are defined.
  • FIG. 7 is a diagram showing an overview of emotion monitoring processing in one embodiment of the present invention.
  • a trouble for example, a user requests a robot service provider (not shown) to respond to support personnel.
  • the content of the trouble is transmitted to the support staff from the robot service provider's window.
  • the support staff having the support staff terminal 200 moves to the spot where the trouble occurs, for example, by driving a car.
  • the emotion monitoring process described below starts when, for example, a user or the like requests a response from a robot service provider to support personnel.
  • the robot 300 detects the environment information indicating the state of the environment around the user and the emotion information indicating the state of the user's emotion by a known technique. Also, the robot 300 acquires the current date and time.
  • the robot 300 transmits the environment information detected in S701, emotion information, and the acquired date and time to the robot service providing system 100.
  • the robot service providing system 100 receives the environment information, emotion information, and date / time transmitted in S702.
  • the monitoring processing unit 150 of the robot service providing system 100 acquires all the state determination information from the state determination information storage unit (described above, FIG. 2) 110.
  • the monitoring processing unit 150 of the robot service providing system 100 squares the difference between the temperature configuring the environment information transmitted in S702 and the temperature configuring the state determination information acquired in S704.
  • the square root of the sum of the value and the value obtained by squaring the difference between the temperature constituting the environmental information transmitted in S702 and the temperature constituting the state determination information acquired in S704 is calculated as the environmental distance. Note that the monitoring processing unit 150 calculates the environmental distance for each state determination information acquired in S704.
  • the monitoring processing unit 150 of the robot service providing system 100 includes all the temperatures and humidity values including the smallest environmental distance values calculated in S705 from the state determination information acquired in S704. Extracts state determination information.
  • the monitoring processing unit 150 of the robot service providing system 100 calculates a difference between the normality constituting the emotion information transmitted in S702 and the normality constituting the state determination information extracted in S706.
  • the value obtained by squaring the difference between the excitement degree constituting and the excitement degree constituting the state determination information extracted in S706, the heart rate constituting the emotion information transmitted in S702, and the state determination information extracted in S706 The square root of the total value of values obtained by squaring the difference from the constituent heart rate is calculated as the emotion distance.
  • the monitoring processing unit 150 calculates the emotion distance for each state determination information extracted in S706.
  • the monitoring processing unit 150 of the robot service providing system 100 determines the state including the temperature and humidity at which the emotion distance value calculated in S707 is the smallest from the state determination information extracted in S706. Extract information. And the monitoring process part 150 acquires the user state contained in the extracted state determination information.
  • the robot service providing system 100 receives the date and time received in S703, the temperature and temperature constituting the environmental information, the normality, anger, excitement, and heart rate constituting the emotion information,
  • the monitoring information associated with the user status acquired in S708 is stored in the monitoring information storage unit (described above, FIG. 3).
  • the communication processing unit 170 of the robot service providing system 100 transmits the user status acquired in S708 to the robot 300.
  • the robot 300 receives the user status transmitted in S710.
  • the robot 300 determines whether the user status received in S711 is “somewhat caution” or “caution”. When the robot 300 determines that the user state is not “somewhat caution” or “caution” (S712-No), the process proceeds to S714. On the other hand, when the robot 300 determines that the user state is “somewhat caution” or “caution” (S712-Yes), the process proceeds to S713.
  • the robot 300 outputs a predetermined message. For example, the robot 300 outputs a time when the support staff arrives. After S713, the process returns to S701.
  • the robot 300 determines whether the user status received in S711 is “somewhat dangerous” or “dangerous”. When the robot 300 determines that the user state is not “somewhat dangerous” or “dangerous” (No in S714), the process returns to S701. On the other hand, when the robot 300 determines that the user state is “somewhat dangerous” or “dangerous” (S714-Yes), the process proceeds to S715.
  • the robot 300 transmits a warning signal indicating that the user state is “somewhat dangerous” or “dangerous” to the support personnel terminal 200. After that, a message indicating “somewhat dangerous” or “dangerous” is output to the support personnel terminal 200 that has received the warning signal. After S715, the process returns to S701.
  • FIG. 8 is a diagram showing an outline of action execution processing according to the embodiment of the present invention.
  • the action execution process is started, for example, when a user or the like requests a response to support personnel from the robot service provider.
  • the robot 300 transmits an inquiry ID for specifying the generated inquiry content to the robot service providing system 100.
  • the robot service providing system 100 receives the inquiry ID transmitted in S801.
  • the action acquisition unit 160 of the robot service providing system searches the user correspondence history storage unit (described above, FIG. 4) 130 using the inquiry ID received in S802 as a key, and all corresponding action names are searched. And get the execution order.
  • the action acquisition unit 160 of the robot service providing system selects one of the action names and the execution order acquired in S803 from the action names. Note that the action acquisition unit 160 selects an action name that has the smallest execution order value and has not yet been selected.
  • the action acquisition unit 160 of the robot service providing system searches the action definition information storage unit (described above, FIG. 5) 140 using the action name selected in S804 as a key, and finds the corresponding definition file name. get.
  • the communication processing unit 170 of the robot service providing system 100 transmits the definition file name acquired in S805 to the robot 300.
  • the robot 300 receives the definition file name transmitted in S806.
  • the robot 300 performs processing based on the definition file (described above, FIG. 6) corresponding to the definition file name transmitted in S806.
  • the robot 300 determines that all definition files have been executed in S808.
  • the process returns to S804.
  • the action execution process is terminated. For example, the robot 300 determines that all the definition files have been executed when the definition file corresponding to the definition file name “closed” is executed as instructed by the support personnel.
  • the robot 300 requests the definition file name of the definition file to be executed next from the robot service providing system 100. After S810, the process returns to S804.
  • the monitoring processing unit 150 of the robot service providing system 100 transmits the environment information indicating the state of the environment around the user, transmitted from the robot 300, and the user's Based on at least one of emotion information indicating the emotional state, the user state is specified, and the robot 300 executes a process corresponding to the user state transmitted from the robot service providing system 100, thereby preventing a trouble from occurring.
  • the robot 300 can respond during the waiting time until receiving support. And possibility that a user's emotion will deteriorate during waiting time can be reduced. In addition, it is possible to specify a user who should be preferentially served.
  • the robot 300 when the robot 300 is in the first state indicating that the user state is more stressed than in the normal state, the robot 300 outputs a predetermined message and the user state accumulates more stress than in the first state.
  • the second state indicating that the robot 300 or the support personnel can respond to the user according to the user status in real time by transmitting a warning signal to the support personnel terminal 200.
  • the support staff can respond to the user.
  • the robot service providing system 100 transmits a definition file name of a definition file for causing the robot 300 to execute processing for a query from the user to the robot 300, and the robot 300 converts the definition file name to the definition file corresponding to the definition file name.
  • the support staff terminal 200 is a smartphone.
  • the support personnel terminal 200 includes all portable terminals such as a tablet terminal in addition to a smartphone and a wearable terminal.
  • Robot service providing system DESCRIPTION OF SYMBOLS 100 ... Robot service provision system, 110 ... State determination information storage part, 120 ... Monitoring information storage part, 130 ... User correspondence log

Landscapes

  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Manipulator (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

ロボットサービス提供システムと、ロボットサービス提供システムとネットワークを介して接続されるロボットと、を有するサポート支援システムであって、ロボットサービス提供システムは、ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するモニタリング処理部を有し、ロボットは、ロボットサービス提供システムから送信される前記ユーザ状態と対応する処理を実行する。

Description

サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム
 本発明は、サポート支援システムおよびサポート支援方法ならびにサポート支援プログラムに関する。
 現在、ロボットを組み込んだサービス形態においては、ロボットに障害が発生した場合に、サポート要員がロボット利用現場へ移動して対応するケースがある。また、ロボットがより身近になり、ロボットを介したサービス形態の普及率が高くなれば、サポート要員が不足する可能性が高まる。
 特開2002-91482号公報(特許文献1)には、「被験者の感情を検出するための感情検出方法であって、音声信号を入力し、入力した音声信号から音声の強度,音声の出現速度を表すテンポ及び音声の各単語内の強度変化パターンを表す抑揚をそれぞれ検出し、検出された音声の強度,音声のテンポ及び音声の抑揚のそれぞれについて変化量を求め、求めた変化量に基づいて、少なくとも怒り,悲しみ及び喜びのそれぞれの感情状態を表す信号を生成する」技術が記載されている。
 また、特開2002-215183号公報(特許文献2)には、「感性発生対象の少なくとも理性及び意志を決定付ける個性情報を予め保持しておき、相手の感情もしくは環境の状態を表す状況情報を入力し、前記状況情報に基づいて、少なくとも快さの程度を表す第1の本能パラメータと、危険度を表す第2の本能パラメータと、達成度もしくは変化の程度を表す第3の本能パラメータとを含む本能的動機付け情報を生成し、生成された前記本能的動機付け情報に基づいて、少なくとも喜び,怒り及び悲しみの基本感情パラメータを含む感情情報を生成し、前記個性情報に基づいて、生成される前記感情情報を制御する」技術が記載されている。
特開2002-91482号公報 特開2002-215183号公報
 サポート要員の現場への移動が伴うケースでは、混雑状況によってはサポート要員が予定時刻までに現場に到着できないことがある。そして、ユーザにとっては、トラブル発生からサポートを受けるまでの待ち時間が発生する。また、待ち時間の間、サポート要員から連絡もないこともある。その結果、ユーザに不満やストレスがたまり、ロボットサービスプロバイダへの信頼が低下する可能性がある。
 特許文献1に開示されている技術では、被験者である人間の感情をより正確に検出可能になる。また、特許文献2に開示されている技術では、人間により近い状態で感性を出力できるようになる。しかしながら、特許文献1および特許文献2に開示されている技術では、トラブル発生からサポートを受けるまでの待ち時間の間に、トラブルを解消するための対応などを行うことが考慮されていない。そのため、特許文献1および特許文献2に開示されている技術では、トラブル発生からサポートを受けるまでの待ち時間の間にユーザの感情が悪化する可能性があった。
 本発明の目的は、トラブル発生からサポートを受けるまでの待ち時間の間にユーザの感情が悪化する可能性を低減可能にする技術を提供することである。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次の通りである。
 本発明の一実施の形態のサポート支援システムは、ロボットサービス提供システムと、前記ロボットサービス提供システムとネットワークを介して接続されるロボットと、を有するサポート支援システムであって、前記ロボットサービス提供システムは、前記ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するモニタリング処理部を有する。また、前記ロボットは、前記ロボットサービス提供システムから送信される前記ユーザ状態と対応する処理を実行する。
 また、本発明の一実施の形態のサポート支援方法は、ロボットサービス提供システムと、前記ロボットサービス提供システムとネットワークを介して接続されるロボットと、を有するサポート支援システムにおけるサポート支援方法であって、前記ロボットサービス提供システムのモニタリング処理部が、前記ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するユーザ状態特定ステップを有する。また、前記ロボットが、前記ロボットサービス提供システムから送信される前記ユーザ状態と対応する処理を実行する、対応処理実行ステップを有する。
 また、本発明の一実施の形態のサポート支援プログラムは、モニタリング処理部と、通信処理部と、を有するサポート支援システムのコンピュータに実行させるサポート支援プログラムであって、前記モニタリング処理部が、前記ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するユーザ状態特定ステップを前記コンピュータに実行させる。また、前記通信処理部が、前記モニタリング処理部が取得した前記ユーザ状態をロボットへ送信する、ユーザ状態送信ステップを前記コンピュータに実行させる。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
 本発明の代表的な実施の形態によれば、トラブル発生からサポートを受けるまでの待ち時間の間にユーザの感情が悪化する可能性を低減できる。
本発明の一実施の形態におけるサポート支援システムの構成例の概要を示す図である。 本発明の一実施の形態における状態判定情報記憶部に記憶されている状態判定情報テーブルの構成例の概要を示す図である。 本発明の一実施の形態におけるモニタリング情報記憶部に記憶されているモニタリング情報の構成例の概要を示す図である。 本発明の一実施の形態におけるユーザ対応履歴記憶部に記憶されているユーザ対応履歴の構成例の概要を示す図である。 本発明の一実施の形態におけるアクション定義情報記憶部に記憶されているアクション定義情報の構成例の概要を示す図である。 本発明の一実施の形態におけるロボットにより実行される定義ファイルの概要を示す図である。 本発明の一実施の形態における感情モニタリング処理の概要を示す図である。 本発明の一実施の形態におけるアクション実行処理の概要を示す図である。
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
 <システム構成>
 図1は、本発明の一実施の形態におけるサポート支援システム10の構成例の概要を示す図である。図1に示されるようにサポート支援システム10は、ロボットサービス提供システム100と、ロボットサービス提供システム100とネットワークを介して接続されるサポート要員端末200と、ロボットサービス提供システム100およびサポート要員端末200とネットワークを介して接続されるロボット300とを有する。
 また、ロボットサービス提供システム100、サポート要員端末200、ロボット300は、所定のハードウェアおよびソフトウェアにより実装される。例えば、ロボットサービス提供システム100と、サポート要員端末200と、ロボット300とは、プロセッサやメモリなどを有し、プロセッサにより実行されるメモリ上のプログラムが、サポート支援システム10として、ロボットサービス提供システム100と、サポート要員端末200と、ロボット300のコンピュータを機能させる。
 ロボット300は、介護の現場で利用されるロボット300や、教育の現場で利用されるロボット300や、流通の現場で利用されるロボット300などである。各ロボットは、ユーザ(顧客)への各種サービスを各現場にて提供する機能を備える。しかしながら、各現場では、ロボット300だけでは対応できないトラブルや、ロボット300自体に障害が発生することがある。このような場合には、ユーザなどからロボットサービスプロバイダ(不図示)へサポート要員に対する対応依頼がされる。そして、ロボットサービスプロバイダの窓口からサポート要員へトラブルの内容が伝えられる。サポート要員端末200を有するサポート要員は、例えば車を運転することで、トラブルが発生した現場へと移動する。
 ロボットサービス提供システム100は、状態判定情報記憶部110と、モニタリング情報記憶部120と、ユーザ対応履歴記憶部130と、アクション定義情報記憶部140と、モニタリング処理部150と、アクション取得部160と、通信処理部170とを有する。
 状態判定情報記憶部(後述、図2)110には、気温と湿度などのユーザの周辺の環境の状態を表す環境情報と、平常度、怒度、興奮度、心拍数などのユーザの感情の状態を表す感情情報と、ユーザのストレスの蓄積の度合いを示すユーザ状態とが対応付けて記憶されている。
 モニタリング情報記憶部(後述、図3)120には、日時、気温、温度、平常度、怒度、興奮度、心拍数、ユーザ状態など、モニタリング処理部150によりモニタリングされた内容を示すモニタリング情報が記憶されている。
 ユーザ対応履歴記憶部(後述、図4)130には、ユーザからの問い合わせに対するロボットが応対した履歴が記憶されている。
 アクション定義情報記憶部(後述、図5)140には、ユーザからの問合せに対する処理をロボット300に実行させるための定義ファイル(後述、図6)に関する情報が記憶されている。
 ロボットサービス提供システム100のモニタリング処理部150は、ロボット300から送信されるユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザのストレスの蓄積の度合いを示すユーザ状態を特定する。
 ロボットサービス提供システム100のアクション取得部160は、ユーザからの問い合わせの内容を特定するための問合せIDをキーにユーザ対応履歴記憶部130を検索し、対応するすべてのアクション名および実行順を取得する。また、アクション取得部160は、実行順に基づきアクション名を選択し、選択したアクション名をキーにアクション定義情報記憶部(前述、図5)140を検索し、対応する定義ファイル名を取得する。
 ロボットサービス提供システム100の通信処理部170は、アクション取得部160が取得した定義ファイル名をロボット300へ送信する。
 ロボット300は、ロボットサービス提供システム100から送信される定義ファイル名と対応する定義ファイルに基づく処理を実行する。
 ロボット300は、公知の技術により、気温と湿度とを含む環境情報を検出する。また、ロボット300は、公知の技術により、ユーザの感情の状態を表す感情情報を検出する。ロボット300は、検出した環境情報と感情情報とをロボットサービス提供システム100へ送信する。
 ロボット300は、ロボットサービス提供システム100から送信されるユーザ状態と対応する処理を実行する。例えば、ユーザ状態が、平常時よりも所定以上のストレスが蓄積していることを示す第1の状態である場合、ロボット300は、所定のメッセージを出力する。また、ユーザ状態が、第1の状態よりも所定以上のストレスが蓄積していることを示す第2の状態である場合、ロボット300は、サポート要員端末200に警告信号を送信する。
 サポート要員端末200は、ウェアラブルな眼鏡型の端末である。サポート要員端末200は、サポート要員の頭部に装着される。なお、サポート要員端末200は、ウェアラブルな腕輪型や指輪型の端末であっても良い。
 サポート要員端末200は、警告信号を受信した場合に、ユーザのストレスが蓄積している旨を報知する。例えば、サポート要員端末200は、警告信号を受信した場合に、ユーザのストレスが蓄積している旨をディスプレイに表示する。その後、サポート要員端末200は、ユーザからの問合せに対する対応方法の入力を受け付け、入力を受け付けた対応方法をロボット300へ送信する。例えば、サポート要員端末200は、音声により対応方法の入力を受け付ける。ロボット300は、サポート要員端末200から送信された対応方法を受信し、受信した対応方法に基づく処理を実行する。
 また、サポート要員端末200は、定期的に、ロボットサービス提供システム100に、モニタリング情報を要求する。そして、サポート要員端末200は、ロボットサービス提供システム100から送信されるモニタリング情報をディスプレイに表示させる。詳細には、サポート要員端末200は、モニタリング情報を要求したいユーザのユーザIDをサポート要員端末200へ送信する。サポート要員端末200は、ロボットサービス提供システム100から送信されるユーザIDと対応するモニタリング情報をモニタリング情報記憶部120から取得し、取得したモニタリング情報をサポート要員端末200へ送信する。これによって、サポート要員端末200は、ロボットサービス提供システム100から送信されるモニタリング情報をディスプレイに表示させる。
 また、サポート要員端末200は、定期的に、ロボットサービス提供システム100にユーザ対応履歴を要求する。そして、サポート要員端末200は、ロボットサービス提供システム100から送信されるユーザ対応履歴をディスプレイに表示させる。
 <状態判定情報記憶部>
 図2は、本発明の一実施の形態における状態判定情報記憶部110に記憶されている状態判定情報テーブルの構成例の概要を示す図である。図2に示されるように、状態判定情報テーブルを構成する状態判定情報は、[気温]、[湿度]、[平常度]、[怒度]、[興奮度]、[心拍数]、[ユーザ状態]などのデータ項目から構成される。
 [気温]は、ユーザの周辺の気温を示す。[湿度]は、ユーザの周辺の湿度を示す。[平常度]は、ユーザの感情が平常であるか否かの度合いを示す。[平常度]は、1~10のいずれかの値で示され、値が大きいほどユーザの感情が平常ではないことを示す。[怒度]は、ユーザが怒っている度合いを示す。[怒度]は、1~10のいずれかの値で示され、値が大きいほどユーザが怒っている度合いが大きいことを示す。[興奮度]は、ユーザの興奮の度合いを示す。[興奮度]は、1~10のいずれかの値で示され、値が大きいほどユーザが興奮している度合いが大きいことを示す。[心拍数]は、ユーザの心拍数を示す。[ユーザ状態]は、ユーザのストレスの蓄積の度合いを示す。
 <モニタリング情報記憶部>
 図3は、本発明の一実施の形態におけるモニタリング情報記憶部120に記憶されているモニタリング情報の構成例の概要を示す図である。モニタリング情報は、[ユーザID]、[日時]、[気温]、[温度]、[平常度]、[怒度]、[興奮度]、[心拍数]、[ユーザ状態]などのデータ項目から構成される。[ユーザID]は、ユーザを識別するための符号を示す。[日時]は、ロボットがモニタリング情報を取得した日時を示す。
 <ユーザ対応履歴記憶部>
 図4は、本発明の一実施の形態におけるユーザ対応履歴記憶部130に記憶されているユーザ対応履歴の構成例の概要を示す図である。ユーザ対応履歴は、[ロボットID]、[ロボット種別]、[問合せID]、[問合せ種別]、[実行順]、[アクション名]、[アクション実行者]、[アクション実行日時]、[変化前状態]、[変化後状態]、[アクション評価]などのデータ項目から構成される。
 [ロボットID]は、ロボットを識別するための符号を示す。[ロボット種別]は、ロボットの種別を示す。ロボットの種別は、例えば、その用途などに基づき、分類される。[問合せID]は、ユーザからの問合せ内容を特定するための符号を示す。[問合せ種別]は、問合せの種別を示す。[実行順]は、アクションが実行される順序を示す。[アクション名]は、ロボットまたはサポート要員により実行される各種アクションの名称を示す。[アクション実行者]は、アクションを実行する者が、ロボットとサポート要員のいずれであるかを示す。[アクション実行日時]は、アクションが実行された日時を示す。[変化前状態]は、ユーザ対応をする前のユーザの状態を示す。[変化後状態]は、ユーザ対応をした後のユーザの変化後の状態を示す。
 <アクション定義情報記憶部>
 図5は、本発明の一実施の形態におけるアクション定義情報記憶部140に記憶されているアクション定義情報の構成例の概要を示す図である。
 アクション定義情報は、[ロボット種別]、[問合せ種別]、[アクション名]、[定義ファイル名]、[実行権限]、[実行可能時間帯]などのデータ項目から構成される。[定義ファイル名]は、ロボットにより実行される定義ファイルの名称を示す。[実行権限]は、定義ファイルの実行を開始させる権限を有するものが、ロボットとサポート要員のいずれであるかを示す。[実行可能時間帯]は、アクションを実行可能な時間帯を示す。
 <定義ファイル>
 図6は、本発明の一実施の形態におけるロボット300により実行される定義ファイルの概要を示す図である。図6に示されるように、定義ファイルには、ロボットにより音声出力される内容などが定義されている。
 <感情モニタリング処理>
 図7は、本発明の一実施の形態における感情モニタリング処理の概要を示す図である。まず、トラブルが発生すると、例えばユーザからロボットサービスプロバイダ(不図示)へサポート要員に対する対応依頼がされる。そして、ロボットサービスプロバイダの窓口からサポート要員へトラブルの内容が伝えられる。サポート要員端末200を有するサポート要員は、例えば車を運転することで、トラブルが発生した現場へと移動する。以下に説明する感情モニタリング処理は、例えば、ユーザなどからロボットサービスプロバイダへサポート要員に対する対応依頼がされた場合に開始する。
 まず、S701にて、ロボット300は、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報とを公知の技術により検出する。また、ロボット300は、現在の日時を取得する。
 次に、S702にて、ロボット300は、S701にて検出した環境情報と、感情情報と、取得した日時とをロボットサービス提供システム100へ送信する。
 次に、S703にて、ロボットサービス提供システム100は、S702にて送信された環境情報と、感情情報と、日時とを受信する。
 次に、S704にて、ロボットサービス提供システム100のモニタリング処理部150は、状態判定情報記憶部(前述、図2)110からすべての状態判定情報を取得する。
 次に、S705にて、ロボットサービス提供システム100のモニタリング処理部150は、S702にて送信された環境情報を構成する気温とS704にて取得した状態判定情報を構成する気温との差分を二乗した値と、S702にて送信された環境情報を構成する温度とS704にて取得した状態判定情報を構成する温度との差分を二乗した値との合計値の平方根を環境距離として算出する。なお、モニタリング処理部150は、S704にて取得した状態判定情報ごとに環境距離を算出する。
 次に、S706にて、ロボットサービス提供システム100のモニタリング処理部150は、S704にて取得した状態判定情報から、S705にて算出した環境距離の値が最も小さくなる気温と湿度とを含むすべての状態判定情報を抽出する。
 次に、S707にて、ロボットサービス提供システム100のモニタリング処理部150は、S702にて送信された感情情報を構成する平常度とS706にて抽出した状態判定情報を構成する平常度との差分を二乗した値と、S702にて送信された感情情報を構成する怒度とS706にて抽出した状態判定情報を構成する怒度との差分を二乗した値と、S702にて送信された感情情報を構成する興奮度とS706にて抽出した状態判定情報を構成する興奮度との差分を二乗した値と、S702にて送信された感情情報を構成する心拍数とS706にて抽出した状態判定情報を構成する心拍数との差分を二乗した値との合計値の平方根を感情距離として算出する。なお、モニタリング処理部150は、S706にて抽出した状態判定情報ごとに感情距離を算出する。
 次に、S708にて、ロボットサービス提供システム100のモニタリング処理部150は、S706にて抽出した状態判定情報から、S707にて算出した感情距離の値が最も小さくなる気温と湿度とを含む状態判定情報を抽出する。そして、モニタリング処理部150は、抽出した状態判定情報に含まれるユーザ状態を取得する。
 次に、S709にて、ロボットサービス提供システム100は、S703にて受信した日時と、環境情報を構成する気温と温度と、感情情報を構成する平常度と怒度と興奮度と心拍数と、S708にて取得したユーザ状態とを対応付けたモニタリング情報をモニタリング情報記憶部(前述、図3)に記憶する。
 次に、S710にて、ロボットサービス提供システム100の通信処理部170は、S708にて取得したユーザ状態をロボット300へ送信する。
 次に、S711にて、ロボット300は、S710にて送信されたユーザ状態を受信する。
 次に、S712にて、ロボット300は、S711にて受信したユーザ状態が、「やや注意」または「注意」かを判定する。ロボット300が、ユーザ状態が「やや注意」または「注意」ではないと判定する場合(S712-No)、S714へ進む。一方、ロボット300が、ユーザ状態が「やや注意」または「注意」であると判定する場合(S712-Yes)、S713へ進む。
 次に、S713にて、ロボット300は、所定のメッセージを出力する。例えば、ロボット300は、サポート要員が到着する時刻を音声出力する。S713の次は、S701へ戻る。
 S712にてNoだった場合、S714にて、ロボット300は、S711にて受信したユーザ状態が、「やや危険」または「危険」かを判定する。ロボット300が、ユーザ状態が「やや危険」または「危険」でないと判定する場合(S714-No)、S701へ戻る。一方、ロボット300が、ユーザ状態が「やや危険」または「危険」であると判定する場合(S714-Yes)、S715へ進む。
 次に、S715にて、ロボット300は、サポート要員端末200へユーザ状態が「やや危険」または「危険」であることを示す警告信号を送信する。その後、警告信号を受信したサポート要員端末200には、「やや危険」または「危険」である旨を出力する。S715の次は、S701へ戻る。
 <アクション実行処理>
 図8は、本発明の一実施の形態におけるアクション実行処理の概要を示す図である。アクション実行処理は、例えば、ユーザなどからロボットサービスプロバイダへサポート要員に対する対応依頼がされた場合に開始する。
 まず、S801にて、ロボット300は、発生した問合せ内容を特定するための問合せIDを、ロボットサービス提供システム100へ送信する。
 次に、S802にて、ロボットサービス提供システム100は、S801にて送信された問合せIDを受信する。
 次に、S803にて、ロボットサービス提供システムのアクション取得部160は、S802にて受信した問合せIDをキーにユーザ対応履歴記憶部(前述、図4)130を検索し、対応するすべてのアクション名および実行順を取得する。
 次に、S804にて、ロボットサービス提供システムのアクション取得部160は、S803にて取得したすべてのアクション名および実行順を、アクション名から、いずれかのアクション名を選択する。なお、アクション取得部160は、実行順の値が最も小さく、かつ、未だ選択していないアクション名を選択する。
 次に、S805にて、ロボットサービス提供システムのアクション取得部160は、S804にて選択したアクション名をキーにアクション定義情報記憶部(前述、図5)140を検索し、対応する定義ファイル名を取得する。
 次に、S806にて、ロボットサービス提供システム100の通信処理部170は、S805にて取得された定義ファイル名を、ロボット300へ送信する。
 次に、S807にて、ロボット300は、S806にて送信された定義ファイル名を受信する。
 次に、S808にて、ロボット300は、S806にて送信された定義ファイル名と対応する定義ファイル(前述、図6)に基づく処理を実行する。
 次に、S809にて、ロボット300は、S808にてすべての定義ファイルを実行した判定する。ロボット300がすべての定義ファイルを実行していないと判定する場合(S809-No)、S804へ戻る。一方、ロボット300がすべての定義ファイルを実行したと判定する場合(S809-Yes)、アクション実行処理を終了する。例えば、ロボット300は、サポート要員から指示されることで、定義ファイル名が「クローズ」と対応する定義ファイルを実行した場合にすべての定義ファイルを実行したと判定する。
 次に、S810にて、ロボット300は、ロボットサービス提供システム100へ、次に実行する定義ファイルの定義ファイル名を要求する。S810の次は、S804へ戻る。
 <本実施の形態の効果>
 以上説明した本実施の形態におけるサポート支援システム10によれば、ロボットサービス提供システム100のモニタリング処理部150が、ロボット300から送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定し、ロボット300が、ロボットサービス提供システム100から送信されるユーザ状態と対応する処理を実行することで、トラブル発生からサポートを受けるまでの待ち時間の間のロボット300による応対が可能になる。そして、待ち時間の間にユーザの感情が悪化する可能性を低減できる。また、優先的に応対すべきユーザを特定できる。
 また、ロボット300が、ユーザ状態が平常時よりもストレスが蓄積していることを示す第1の状態である場合、所定のメッセージを出力し、ユーザ状態が第1の状態よりもストレスが蓄積していることを示す第2の状態である場合、サポート要員端末200に警告信号を送信することで、リアルタイムでのユーザ状態に応じて、ロボット300またはサポート要員にユーザへの応対をさせることができる。例えば、ロボット300が応対したにも関わらずユーザの感情がさらに悪化した場合に、サポート要員にユーザへの応対をさせることができる。
 また、ロボットサービス提供システム100が、ユーザからの問合せに対する処理をロボット300に実行させるための定義ファイルの定義ファイル名を、ロボット300へ送信し、ロボット300が、定義ファイル名と対応する定義ファイルに基づく処理を実行することで、サポート要員が到着するまでの間、サポート要員の移動や他ユーザへの対応を妨げることなく、ロボット300によるユーザへの応対を実現できる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
 例えば、サポート要員端末200がスマートフォンである実施形態もある。また、サポート要員端末200は、スマートフォンやウェアラブルな端末以外にも、タブレット端末等の様々な形態の携帯可能な端末を全て含むものである。
10…ロボットサービス提供システム、
100…ロボットサービス提供システム、110…状態判定情報記憶部、120…モニタリング情報記憶部、130…ユーザ対応履歴記憶部、140…アクション定義情報記憶部、150…モニタリング処理部、160…アクション取得部、
200…サポート要員端末、
300…ロボット。

Claims (5)

  1.  ロボットサービス提供システムと、前記ロボットサービス提供システムとネットワークを介して接続されるロボットと、を有するサポート支援システムであって、
     前記ロボットサービス提供システムは、前記ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するモニタリング処理部を有し、
     前記ロボットは、前記ロボットサービス提供システムから送信される前記ユーザ状態と対応する処理を実行する、
     サポート支援システム。
  2.  請求項1に記載のサポート支援システムにおいて、
     前記ロボットと接続されるサポート要員端末をさらに有し、
     前記ロボットは、
     前記ユーザ状態が平常時よりもストレスが蓄積していることを示す第1の状態である場合、所定のメッセージを出力し、
     前記ユーザ状態が前記第1の状態よりもストレスが蓄積していることを示す第2の状態である場合、前記サポート要員端末に警告信号を送信し、
     前記サポート要員端末は、前記警告信号を受信した場合に、前記ユーザのストレスが蓄積している旨を報知する、
     サポート支援システム。
  3.  請求項1に記載のサポート支援システムにおいて、
     ロボットサービス提供システムは、前記ユーザからの問合せに対する処理を前記ロボットに実行させるための定義ファイルの定義ファイル名を、前記ロボットへ送信し、
     前記ロボットは、前記定義ファイル名と対応する定義ファイルに基づく処理を実行する、
     サポート支援システム。
  4.  ロボットサービス提供システムと、前記ロボットサービス提供システムとネットワークを介して接続されるロボットと、を有するサポート支援システムにおけるサポート支援方法であって、
     前記ロボットサービス提供システムのモニタリング処理部が、前記ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するユーザ状態特定ステップと、
     前記ロボットが、前記ロボットサービス提供システムから送信される前記ユーザ状態と対応する処理を実行する、対応処理実行ステップと、
     を有する、サポート支援方法。
  5.  モニタリング処理部と、通信処理部と、を有するサポート支援システムのコンピュータに実行させるサポート支援プログラムであって、
     前記モニタリング処理部が、ロボットから送信される、ユーザの周辺の環境の状態を表す環境情報と、ユーザの感情の状態を表す感情情報との少なくともいずれか一方に基づき、ユーザ状態を特定するユーザ状態特定ステップと、
     前記通信処理部が、前記モニタリング処理部が取得した前記ユーザ状態をロボットへ送信する、ユーザ状態送信ステップと、
     を有する、サポート支援プログラム。
PCT/JP2015/066065 2015-06-03 2015-06-03 サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム WO2016194173A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017521425A JP6450000B2 (ja) 2015-06-03 2015-06-03 サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム
PCT/JP2015/066065 WO2016194173A1 (ja) 2015-06-03 2015-06-03 サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/066065 WO2016194173A1 (ja) 2015-06-03 2015-06-03 サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム

Publications (1)

Publication Number Publication Date
WO2016194173A1 true WO2016194173A1 (ja) 2016-12-08

Family

ID=57440697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/066065 WO2016194173A1 (ja) 2015-06-03 2015-06-03 サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム

Country Status (2)

Country Link
JP (1) JP6450000B2 (ja)
WO (1) WO2016194173A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6667766B1 (ja) * 2019-02-25 2020-03-18 株式会社QBIT Robotics 情報処理システムおよび情報処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344352A (ja) * 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2005038166A (ja) * 2003-07-14 2005-02-10 Sony Corp 情報表示システム及び情報表示方法、並びに記録媒体
JP2006338476A (ja) * 2005-06-03 2006-12-14 Casio Comput Co Ltd 快適さ向上支援装置及びプログラム
JP2011045460A (ja) * 2009-08-26 2011-03-10 Tokyo Metropolitan Univ 見守りロボット、見守り方法、及び見守りプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031069A (ja) * 2004-07-12 2006-02-02 Hitachi Ltd 計算機、サービスサーバ及びネットワークシステム
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
US10011013B2 (en) * 2015-03-30 2018-07-03 X Development Llc Cloud-based analysis of robotic system component usage

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344352A (ja) * 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
JP2005038166A (ja) * 2003-07-14 2005-02-10 Sony Corp 情報表示システム及び情報表示方法、並びに記録媒体
JP2006338476A (ja) * 2005-06-03 2006-12-14 Casio Comput Co Ltd 快適さ向上支援装置及びプログラム
JP2011045460A (ja) * 2009-08-26 2011-03-10 Tokyo Metropolitan Univ 見守りロボット、見守り方法、及び見守りプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6667766B1 (ja) * 2019-02-25 2020-03-18 株式会社QBIT Robotics 情報処理システムおよび情報処理方法
WO2020174537A1 (ja) * 2019-02-25 2020-09-03 株式会社QBIT Robotics 情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
JP6450000B2 (ja) 2019-01-09
JPWO2016194173A1 (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
CN109427333B (zh) 激活语音识别服务的方法和用于实现所述方法的电子装置
US8903176B2 (en) Systems and methods using observed emotional data
KR20180090957A (ko) 오디오 기반의 데이터 구조 생성
EP3096282A1 (en) Multi-dimensional sensor data based human behaviour determination system and method
KR101881630B1 (ko) 사용자 단말로부터 수집된 데이터를 이용한 유형 정보 및 평가 정보 제공 방법 및 시스템
JP2017151517A (ja) ロボット制御システム
US20210186342A1 (en) Intelligent head protective equipment
US20220351600A1 (en) Information processing apparatus, information processing method, and information processing program
US20200228470A1 (en) User care system using chatbot
US20230252541A1 (en) Systems and methods for automatic subscription-based ordering of product components
JP6125445B2 (ja) ライフログ記録システム及びそのプログラム
JP6450000B2 (ja) サポート支援システムおよびサポート支援方法ならびにサポート支援プログラム
JP6517280B2 (ja) ライフログ活用システム、方法及びプログラム
US11100944B2 (en) Information processing apparatus, information processing method, and program
KR20200101479A (ko) Iot 및 음성인식 기능을 활용한 홈 케어 관리 시스템
CN111638753B (zh) 地震求救方法及可穿戴设备、电子设备、存储介质
CN111012355A (zh) 人体摔倒检测方法及装置、存储介质及电子设备
KR20200002097A (ko) 배뇨에 관한 설문을 수행하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
JP6419033B2 (ja) 駆動制御装置、駆動制御方法及び駆動制御プログラム
US20200219412A1 (en) System and method for sensor fusion from a plurality of sensors and determination of a responsive action
US11373507B2 (en) Continual engagement support device, portable terminal, continual engagement support method, and program
WO2017212655A1 (ja) 携帯端末の情報からバス路線情報を生成するバスロケーション通知システム
KR102067079B1 (ko) IoT에 기반한 주변 기기 탐색 방법 및 장치
JP7260126B1 (ja) 安全走行支援システムサーバ、及び安全走行支援プログラム
WO2015199413A1 (ko) 사용자 단말로부터 수집된 데이터를 이용한 유형 정보 및 평가 정보 제공 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15894206

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017521425

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15894206

Country of ref document: EP

Kind code of ref document: A1