JP2022095619A - Recuperation support system - Google Patents

Recuperation support system Download PDF

Info

Publication number
JP2022095619A
JP2022095619A JP2022034262A JP2022034262A JP2022095619A JP 2022095619 A JP2022095619 A JP 2022095619A JP 2022034262 A JP2022034262 A JP 2022034262A JP 2022034262 A JP2022034262 A JP 2022034262A JP 2022095619 A JP2022095619 A JP 2022095619A
Authority
JP
Japan
Prior art keywords
subject
voice
state
biological
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022034262A
Other languages
Japanese (ja)
Other versions
JP7422797B2 (en
Inventor
浩 長岡
Hiroshi Nagaoka
宏暢 前澤
Hironobu Maesawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2022034262A priority Critical patent/JP7422797B2/en
Publication of JP2022095619A publication Critical patent/JP2022095619A/en
Application granted granted Critical
Publication of JP7422797B2 publication Critical patent/JP7422797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a recuperation support system capable of providing batter service.
SOLUTION: A recuperation support system includes a biological sensor for detecting a biological state of an object person, and a voice sensor for detecting a voice of the object person. The recuperation support system provides output information including at least one of visual information and auditory information that vary according to an emotional state of the object person estimated based on at least one of the biological state and the voice.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明の実施形態は、療養支援システムに関する。 An embodiment of the present invention relates to a medical treatment support system.

高齢者などの被介護者が、家、病院、または、介護施設などにおいて療養する。療養において、被介護者、家族、医療従事者及び介護スタッフなどに対して、より良いサービスが提供できる療養支援システムが望まれる。 Care recipients such as the elderly receive medical treatment at homes, hospitals, or long-term care facilities. In medical treatment, a medical treatment support system that can provide better services to care recipients, families, medical staff, long-term care staff, etc. is desired.

特開2002-41671号公報Japanese Unexamined Patent Publication No. 2002-41671

本発明の実施形態は、より良いサービスが提供できる療養支援システムを提供する。 An embodiment of the present invention provides a medical treatment support system capable of providing better services.

実施形態によれば、療養支援システムは、対象者の生体状態を検出する生体センサと、前記対象者の声を検出する音センサと、を含む。前記療養支援システムは、前記生体状態及び前記声の少なくともいずれかに基づいて推定された前記対象者の感情状態に応じて変化する、視覚情報及び聴覚情報の少なくともいずれかを含む出力情報を提供する。 According to the embodiment, the medical treatment support system includes a biological sensor for detecting the biological state of the subject and a sound sensor for detecting the voice of the subject. The medical treatment support system provides output information including at least one of visual information and auditory information that changes according to the emotional state of the subject estimated based on at least one of the biological state and the voice. ..

本発明の実施形態は、より良いサービスが提供できる療養支援システムを提供できる。 An embodiment of the present invention can provide a medical treatment support system that can provide better services.

図1(a)~図1(d)は、第1実施形態に係る療養支援システムを例示する模式図である。1 (a) to 1 (d) are schematic views illustrating the medical treatment support system according to the first embodiment. 図2は、実施形態に係る療養支援システムで用いられる情報を例示する模式図である。FIG. 2 is a schematic diagram illustrating information used in the medical treatment support system according to the embodiment. 図3(a)及び図3(b)は、第1実施形態に係る療養支援システムの動作を例示する模式図である。3A and 3B are schematic views illustrating the operation of the medical treatment support system according to the first embodiment. 図4(a)~図4(c)は、第2実施形態に係る療養支援システムを例示する模式図である。4 (a) to 4 (c) are schematic views illustrating the medical treatment support system according to the second embodiment. 図5(a)~図5(d)は、第3実施形態に係る療養支援システムを例示する模式図である。5 (a) to 5 (d) are schematic views illustrating the medical treatment support system according to the third embodiment. 図6(a)~図6(c)は、第4実施形態に係る療養支援システムを例示する模式図である。6 (a) to 6 (c) are schematic views illustrating the medical treatment support system according to the fourth embodiment. 図7(a)~図7(c)は、第5実施形態に係る療養支援システムを例示する模式図である。7 (a) to 7 (c) are schematic views illustrating the medical treatment support system according to the fifth embodiment.

以下に、本発明の実施形態について図面を参照しつつ説明する。
本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the present specification and each figure, the same elements as those described above with respect to the above-mentioned figures are designated by the same reference numerals, and detailed description thereof will be omitted as appropriate.

(第1実施形態)
図1(a)~図1(d)は、第1実施形態に係る療養支援システムを例示する模式図である。
図1(b)~図1(d)は、療養支援システムにおける各種の情報(データまたは信号)を模式的に例示している。
(First Embodiment)
1 (a) to 1 (d) are schematic views illustrating the medical treatment support system according to the first embodiment.
1 (b) to 1 (d) schematically illustrate various information (data or signals) in the medical treatment support system.

図1(a)に示すように、本実施形態に係る療養支援システム110は、生体センサ20と、音センサ11と、を含む。 As shown in FIG. 1A, the medical treatment support system 110 according to the present embodiment includes a biological sensor 20 and a sound sensor 11.

生体センサ20は、対象者81の生体状態を検出する。 The biological sensor 20 detects the biological state of the subject 81.

対象者81は、療養者である。対象者81は、支援者80から支援を受ける。支援者80は、例えば、医師83、看護師82a、介護士82b及び家族等82cの少なくともいずれかを含む。看護師82a(または介護士82b)は、例えば、認識タグ82s(例えば、IDタグなど)を有している。 The subject 81 is a recuperator. The target person 81 receives support from the supporter 80. The supporter 80 includes, for example, at least one of a doctor 83, a nurse 82a, a caregiver 82b, and a family member 82c. The nurse 82a (or caregiver 82b) has, for example, a recognition tag 82s (eg, an ID tag, etc.).

対象者81は、例えば、対象者81の家、病院、または、介護施設などにおいて、支援者80からの支援を受ける。対象者81は、例えば、被介護者である。 The subject 81 receives support from the supporter 80, for example, at the subject 81's house, hospital, or long-term care facility. The subject 81 is, for example, a care recipient.

実施形態に係る療養支援システム110により、例えば、対象者81及び支援者80の少なくともいずれかが、サービス(対象者81の療養に関するサービス)を受ける。 According to the medical treatment support system 110 according to the embodiment, for example, at least one of the target person 81 and the supporter 80 receives a service (a service related to medical treatment of the target person 81).

例えば、対象者81は、例えば、ベッド70の使用者である。ベッド70は、例えば、電動ベッドである。この例では、ベッド70は、ボトム71及びマットレス76を含む。ボトム71の上にマットレス76が置かれる。マットレス76の上において、対象者81が横になる。 For example, the subject 81 is, for example, a user of the bed 70. The bed 70 is, for example, an electric bed. In this example, the bed 70 includes a bottom 71 and a mattress 76. The mattress 76 is placed on the bottom 71. The subject 81 lies on the mattress 76.

この例では、生体センサ20は、ボトム71とマットレス76との間に設けられる。生体センサ20は、例えば、生体センサ20に加わる力(振動などを含む)を検出する。例えば、マットレス76の上に居る対象者81の状態に応じた力(振動など)が、生体センサ20により検出される。例えば、ベッド70に設けられる荷重センサなどにより、対象者81の生体状態の少なくとも一部が検出されても良い。 In this example, the biosensor 20 is provided between the bottom 71 and the mattress 76. The biosensor 20 detects, for example, a force (including vibration) applied to the biosensor 20. For example, a force (vibration, etc.) according to the state of the subject 81 on the mattress 76 is detected by the biosensor 20. For example, at least a part of the biological state of the subject 81 may be detected by a load sensor provided on the bed 70 or the like.

生体状態は、例えば、心拍数、脈拍数、呼吸数、体温、血圧、血液の酸素飽和度、体重、睡眠、覚醒、離床、起上り及び端座位の少なくともいずれかを含む。血液の酸素飽和度は、例えば、経皮的動脈血酸素飽和度(SpO2)を含む。生体状態は、例えば、連続的に、自動的に検出されても良い。 Biological conditions include, for example, at least one of heart rate, pulse rate, respiratory rate, body temperature, blood pressure, blood oxygen saturation, body weight, sleep, arousal, getting out of bed, rising and sitting. Blood oxygen saturation includes, for example, percutaneous arterial oxygen saturation (SpO2). The biological state may be detected automatically, for example, continuously.

生体センサ20として、対象者81の体(または衣服)などに付着または装着されたセンサなどが用いられても良い。 As the biological sensor 20, a sensor or the like attached to or attached to the body (or clothes) of the subject 81 may be used.

生体センサ20で得られた信号(情報)は、例えば、通信装置25に送信される。この送信には、有線または無線の任意の方法が適用される。 The signal (information) obtained by the biosensor 20 is transmitted to, for example, the communication device 25. Any wired or wireless method may be applied to this transmission.

音センサ11は、対象者81の声V0を検出する。音センサ11は、支援者80(例えば、看護師82a、介護士82b及び家族等82cの少なくともいずれか)の声をさらに検出しても良い。音センサ11は、例えば、マイクロフォンである。 The sound sensor 11 detects the voice V0 of the subject 81. The sound sensor 11 may further detect the voice of the supporter 80 (for example, at least one of a nurse 82a, a caregiver 82b, and a family member 82c). The sound sensor 11 is, for example, a microphone.

音センサ11は、例えば、支援装置10に含まれる。支援装置10は、筐体14を含む。筐体14に音センサ11が設けられる。この例では、支援装置10において、音発生部12、近距離通信部15及び送受信部13がさらに設けられている。 The sound sensor 11 is included in, for example, the support device 10. The support device 10 includes a housing 14. The sound sensor 11 is provided in the housing 14. In this example, the support device 10 is further provided with a sound generation unit 12, a short-range communication unit 15, and a transmission / reception unit 13.

音発生部12は、例えば、スピーカである。後述するように、音発生部12から、例えば、対象者81または支援者80(例えば、看護師82a、介護士82b及び家族等82cの少なくともいずれか)などに対しての音声が出力される。 The sound generation unit 12 is, for example, a speaker. As will be described later, the sound generation unit 12 outputs voice to, for example, the target person 81 or the supporter 80 (for example, at least one of a nurse 82a, a caregiver 82b, and a family member 82c).

近距離通信部15は、看護師82a(または介護士82bなど)の認識タグ82sを認識する。看護師82aの認識により、支援装置10の動作の少なくとも一部が制御されても良い。 The short-range communication unit 15 recognizes the recognition tag 82s of the nurse 82a (or the caregiver 82b, etc.). At least a part of the operation of the support device 10 may be controlled by the recognition of the nurse 82a.

送受信部13は、例えば、通信装置25と、信号の送受信(通信)を行う。この通信には、有線または無線の任意の方法が適用される。 The transmission / reception unit 13 transmits / receives (communicates) a signal with, for example, the communication device 25. Any wired or wireless method may be applied to this communication.

音センサ11により検出された対象者81の声V0に関する信号(情報)が、通信装置25を介して、音声情報データベースDB1に供給される。一方、生体センサ20で得られた信号(情報)が、通信装置25を介して、生体情報データベースDB2に供給される。これらのデータベースは、例えば、クラウド上に設けられても良い。 The signal (information) regarding the voice V0 of the subject 81 detected by the sound sensor 11 is supplied to the voice information database DB 1 via the communication device 25. On the other hand, the signal (information) obtained by the biological sensor 20 is supplied to the biological information database DB 2 via the communication device 25. These databases may be provided on the cloud, for example.

音声情報データベースDB1に基づいて、音声認識処理が行われる。対象者81の声V0に対応する音声が、物理的特徴量により解析される。物理的特徴量解析に基づいて、対象者81の感情が推定される。例えば、対象者81の音声データから、感情の傾向が解析される。物理的特徴量は、例えば、音声のスペクトルの概形、音声のスペクトルパワー、音声の音高F0、及び、音声のスペクトル平坦度SFMなどの少なくともいずれかを含む。感情は、例えば、複数の種類により分類される。複数の種類は、例えば、平常、喜び、怒り及び悲しみの少なくともいずれかを含む。対象者81の感情が、感情の種類に応じた数値(例えば、感情パラメータ)に変換される。例えば、感情の高まりが、感情パラメータ(数値)により表現される。例えば、感情は、Russellの円環モデルなどに基づいて解析されてもよい。解析の結果から数値が導出される。対象者81の感情に対応する感情パラメータの時間的な変化が導出される。 The voice recognition process is performed based on the voice information database DB1. The voice corresponding to the voice V0 of the subject 81 is analyzed by the physical feature amount. The emotion of the subject 81 is estimated based on the physical feature analysis. For example, emotional tendencies are analyzed from the voice data of the subject 81. The physical feature quantity includes, for example, at least one of an outline of the spectrum of speech, a spectral power of speech, a pitch F0 of speech, and a spectral flatness SFM of speech. Emotions are, for example, classified by a plurality of types. The plurality of types include, for example, at least one of normality, joy, anger and sadness. The emotion of the subject 81 is converted into a numerical value (for example, an emotion parameter) according to the type of emotion. For example, the heightened emotions are expressed by emotional parameters (numerical values). For example, emotions may be analyzed based on Russell's annulus model and the like. Numerical values are derived from the results of the analysis. Temporal changes in emotional parameters corresponding to the emotions of the subject 81 are derived.

一方、生体情報データベースDB2に基づいて、対象者81の生体状態の時間的な変化が導出される。例えば、心拍数、脈拍数、呼吸数、体温、血圧、血液の酸素飽和度、体重、睡眠、覚醒、離床、起上り及び端座位のそれぞれについて、生体情報パラメータD1が導出される。例えば、心拍数、脈拍数、呼吸数、体温、血圧、血液の酸素飽和度、体重、睡眠、覚醒、離床、起上り及び端座位のそれぞれの生体情報パラメータD1について、しきい値が設定される。生体情報パラメータD1の測定値がしきい値を超えると、異常状態であると、判断される。または、複数の生体情報パラメータD1の2つ以上の組み合わせについて、測定値がしきい値を超えた場合が、異常状態と判断されても良い。 On the other hand, based on the biological information database DB2, the temporal change of the biological state of the subject 81 is derived. For example, the biometric information parameter D1 is derived for each of heart rate, pulse rate, respiratory rate, body temperature, blood pressure, blood oxygen saturation, body weight, sleep, arousal, getting out of bed, getting up and sitting. For example, thresholds are set for each biometric parameter D1 of heart rate, pulse rate, respiratory rate, body temperature, blood pressure, blood oxygen saturation, weight, sleep, arousal, getting out of bed, getting up and sitting. .. When the measured value of the biological information parameter D1 exceeds the threshold value, it is determined to be in an abnormal state. Alternatively, when the measured value exceeds the threshold value for two or more combinations of the plurality of biometric information parameters D1, it may be determined to be an abnormal state.

図1(b)は、対象者81の声V0に対応する音声信号V1の時間的な変化を模式的に例示している。図1(c)は、音声信号V1から導出される感情パラメータE1の時間的な変化を模式的に例示している。図1(d)は、対象者81の生体状態に対応する生体情報パラメータD1の時間的な変化を模式的に例示している。これらの図の横軸は、時間tである。 FIG. 1B schematically illustrates the temporal change of the audio signal V1 corresponding to the voice V0 of the subject 81. FIG. 1 (c) schematically illustrates the temporal change of the emotion parameter E1 derived from the audio signal V1. FIG. 1D schematically illustrates the temporal change of the biological information parameter D1 corresponding to the biological state of the subject 81. The horizontal axis of these figures is time t.

例えば、図1(d)に示すように、生体情報パラメータD1がしきい値DL1を超えている状態(異常状態)が検出される。この例では、生体情報パラメータD1は、血圧である。この例では、第1時刻t1及び第2時刻t2において、異常状態が生じている。血圧の異常状態には、身体の異常の他に、感情の異常が影響を与えると、考えられる。 For example, as shown in FIG. 1 (d), a state (abnormal state) in which the biological information parameter D1 exceeds the threshold value DL1 is detected. In this example, the biological information parameter D1 is blood pressure. In this example, an abnormal state occurs at the first time t1 and the second time t2. In addition to physical abnormalities, emotional abnormalities are thought to affect abnormal blood pressure.

本実施形態においては、音声信号V1の時間的な変化(図1(b)参照)に基づいて、感情パラメータE1が導出される(図1(c)参照)。この例では、第1時刻t1において、感情パラメータE1が大きく変化している。第2時刻t2においては、感情パラメータE1の変化は小さい。 In the present embodiment, the emotion parameter E1 is derived based on the temporal change of the audio signal V1 (see FIG. 1 (b)) (see FIG. 1 (c)). In this example, the emotional parameter E1 changes significantly at the first time t1. At the second time t2, the change in the emotion parameter E1 is small.

例えば、以下のような状況が考えられる。対象者81の孫がスポーツ競技会に出場した。第1時刻t1の前後に、テレビジョンで、そのスポーツ競技会が放映された。対象者81は、その放映を観戦した。このため、第1時刻t1において、対象者81の感情パラメータが大きく変化した。 For example, the following situations can be considered. The grandchildren of the subject 81 participated in the sports competition. Before and after the first time t1, the sports competition was broadcast on television. The subject 81 watched the broadcast. Therefore, at the first time t1, the emotional parameters of the subject 81 changed significantly.

第2時刻t2においては、感情パラメータE1は異常ではない。このため、第2時刻t2における、生体情報パラメータD1の異常状態(血圧の高い状態)は、身体の異常が原因していることが考えられる。例えば、第2時刻t2における生体情報パラメータD1の異常状態は、危険状態を示している可能性が高い。 At the second time t2, the emotion parameter E1 is not abnormal. Therefore, it is considered that the abnormal state (high blood pressure state) of the biological information parameter D1 at the second time t2 is caused by the abnormal state of the body. For example, the abnormal state of the biological information parameter D1 at the second time t2 is likely to indicate a dangerous state.

これに対して、第1時刻t1においては、感情パラメータE1が異常である。このため、第1時刻t1における生体情報パラメータD1の異常状態(血圧の高い状態)は、上記のテレビジョンの放映の影響によると考えられる。 On the other hand, at the first time t1, the emotion parameter E1 is abnormal. Therefore, it is considered that the abnormal state (high blood pressure state) of the biological information parameter D1 at the first time t1 is due to the influence of the above-mentioned television broadcasting.

生体情報パラメータD1に加えて、感情パラメータE1に着目することで、対象者81の状態をより正確に把握することができると考えられる。例えば、医師83が、対象者81の生体状態を把握することで、対象者81の状態を把握する。このとき、生体状態とともに、対象者81の感情の変化を把握することで、対象者81の状態をより正確に把握することができる。 By paying attention to the emotional parameter E1 in addition to the biological information parameter D1, it is considered that the state of the subject 81 can be grasped more accurately. For example, the doctor 83 grasps the state of the subject 81 by grasping the biological state of the subject 81. At this time, by grasping the emotional change of the subject 81 together with the biological state, the state of the subject 81 can be grasped more accurately.

図1(a)に示すように、実施形態においては、例えば、医師83(支援者80)が使用する表示装置83D(例えば、提供部)に、生体情報パラメータD1に加えて、感情パラメータE1に対応する感情情報ES1が表示される。例えば、感情情報ES1として、感情パラメータE1に基づくピクトグラムなどが表示されても良い。これにより、医師83は、例えば、感情の影響を除いて、生体情報パラメータD1をより正確に把握することができる。 As shown in FIG. 1A, in the embodiment, for example, the display device 83D (for example, the providing unit) used by the doctor 83 (supporter 80) has the emotion parameter E1 in addition to the biological information parameter D1. The corresponding emotion information ES1 is displayed. For example, as the emotion information ES1, a pictogram based on the emotion parameter E1 may be displayed. Thereby, the doctor 83 can grasp the biological information parameter D1 more accurately, for example, excluding the influence of emotions.

このように、実施形態に係る療養支援システム110は、例えば、対象者81の感情状態に対応する感情情報ES1を、対象者81の生体状態の少なくとも一部に基づく生体情報(例えば生体情報パラメータD1)と共に提供する。上記のように、この感情状態は、音センサ11により検出された、対象者81の声V0に基づいて推定される。例えば、声V0に基づく音声が音声認識処理されることで、対象者81の感情状態が推定される。 As described above, the medical treatment support system 110 according to the embodiment uses, for example, the emotional information ES1 corresponding to the emotional state of the subject 81, and the biological information based on at least a part of the biological state of the subject 81 (for example, the biological information parameter D1). ). As described above, this emotional state is estimated based on the voice V0 of the subject 81 detected by the sound sensor 11. For example, the emotional state of the subject 81 is estimated by performing voice recognition processing on the voice based on the voice V0.

実施形態によれば、支援者80(例えば医師83など)は、感情の変化の影響を除いて、生体状態をより正確に把握することができる。これにより、支援者80は、より適正な療養のための処置を、対象者81に提供できる。実施形態によれば、より良いサービスが提供できる療養支援システムが提供できる。 According to the embodiment, the supporter 80 (for example, a doctor 83) can more accurately grasp the biological state except for the influence of emotional changes. Thereby, the supporter 80 can provide the subject 81 with a treatment for more appropriate medical treatment. According to the embodiment, it is possible to provide a medical treatment support system that can provide better services.

例えば、実施形態に係る療養支援システム110から表示装置83D(例えば、提供部)に出力情報OSが提供されることで、表示装置83Dにおいて、上記の表示が行われる。この場合の出力情報OSは、視覚情報VSに対応する。後述するように、療養支援システム110から、聴覚情報が提供されても良い。例えば、療養支援システム110は、視覚情報VS及び聴覚情報の少なくともいずれかを含む出力情報OSを提供する。この出力情報OSは、対象者81の感情状態に応じて変化する。対象者81の感情状態は、生体状態及び声V0の少なくともいずれかに基づいて推定されている。例えば、視覚情報VSは、画像信号(データ)、または、映像信号(データ)を含む。視覚情報VSを表示装置に供給することで、表示装置において、視覚情報VSに応じた表示が行われる。視覚情報VSは、表示された、画像または映像を含んでも良い。 For example, when the output information OS is provided to the display device 83D (for example, the providing unit) from the medical treatment support system 110 according to the embodiment, the above display is performed on the display device 83D. The output information OS in this case corresponds to the visual information VS. As will be described later, auditory information may be provided from the medical treatment support system 110. For example, the medical treatment support system 110 provides an output information OS including at least one of visual information VS and auditory information. This output information OS changes according to the emotional state of the subject 81. The emotional state of the subject 81 is estimated based on at least one of the biological state and the voice V0. For example, the visual information VS includes an image signal (data) or a video signal (data). By supplying the visual information VS to the display device, the display device performs the display according to the visual information VS. The visual information VS may include a displayed image or video.

実施形態において、対象者81の感情状態に対応する感情情報ES1の導出は、例えば、処理部60により行われる。そして、対象者81の生体状態の少なくとも一部に基づく生体情報(例えば生体情報パラメータD1)の導出は、例えば、処理部60により行われる。処理部60は、例えば、クラウド上に設けられても良い。処理部60は、例えば、支援装置10に設けられても良い。処理部60は、例えば、表示装置83Dを含むコンピュータに設けられても良い。 In the embodiment, the derivation of the emotional information ES1 corresponding to the emotional state of the subject 81 is performed by, for example, the processing unit 60. Then, the derivation of the biological information (for example, the biological information parameter D1) based on at least a part of the biological state of the subject 81 is performed by, for example, the processing unit 60. The processing unit 60 may be provided on the cloud, for example. The processing unit 60 may be provided in, for example, the support device 10. The processing unit 60 may be provided in, for example, a computer including the display device 83D.

実施形態においては、声V0の検出、または、声V0から得られる音声の音声認識、または、感情状態の推定の少なくともいずれかは、生体センサ20による検出結果に基づいて開始されても良い。例えば、音声認識が常時行われていると、処理部60において、高い処理能力(処理速度を含む)が要求される。さらに、処理部60との間の通信において、高い通信速度が要求される。このとき、必要なときに音声認識などを行うことで、処理部60及び通信速度に対する要求が緩和される。 In the embodiment, at least one of the detection of the voice V0, the voice recognition of the voice obtained from the voice V0, and the estimation of the emotional state may be started based on the detection result by the biosensor 20. For example, if voice recognition is constantly performed, the processing unit 60 is required to have high processing capacity (including processing speed). Further, a high communication speed is required for communication with the processing unit 60. At this time, the demand for the processing unit 60 and the communication speed is relaxed by performing voice recognition or the like when necessary.

例えば、生体センサ20により検出された生体状態が異常状態と判定されたら、声V0の検出が開始される。または、生体状態が異常状態と判定されたら、感情状態の推定が開始されても良い。感情状態の推定は、例えば、音声認識の処理の少なくとも一部を含む。これにより、より使いやすい療養支援システムが提供できる。 For example, when the biological state detected by the biological sensor 20 is determined to be an abnormal state, the detection of voice V0 is started. Alternatively, once the biological state is determined to be an abnormal state, the estimation of the emotional state may be started. Emotional state estimation includes, for example, at least a portion of speech recognition processing. This makes it possible to provide a medical treatment support system that is easier to use.

例えば、生体状態は、連続的に検出される。そして、生体状態が異常であると判断されたときをトリガにして、声V0に基づく感情状態が推定される。効率的な感情状態の推定が可能になる。 For example, biological conditions are continuously detected. Then, the emotional state based on the voice V0 is estimated by using the time when the biological state is determined to be abnormal as a trigger. Efficient emotional state estimation is possible.

例えば、近距離通信部15により、看護師82a(または介護士82bなど)の認識タグ82sが認識されたら、声V0の検出、または、感情状態の推定(音声認識を含む)が開始されても良い。 For example, if the short-range communication unit 15 recognizes the recognition tag 82s of the nurse 82a (or the caregiver 82b, etc.), even if the detection of the voice V0 or the estimation of the emotional state (including voice recognition) is started. good.

例えば、支援装置10に、人感センサ16が設けられても良い。人感センサ16により、支援者80が対象者81に近づいたことが検出されたら、声V0の検出、または、感情状態の推定(音声認識を含む)が開始されても良い。 For example, the motion sensor 16 may be provided in the support device 10. When the motion sensor 16 detects that the supporter 80 has approached the subject 81, the detection of the voice V0 or the estimation of the emotional state (including voice recognition) may be started.

例えば、音センサ11により、支援者80が対象者81に向けて声をかけたことが検出されたら、感情状態の推定(音声認識を含む)が開始されても良い。 For example, when the sound sensor 11 detects that the supporter 80 has spoken to the target person 81, the estimation of the emotional state (including voice recognition) may be started.

さらに、実施形態において、対象者81の要支援状態が推定されても良い。要支援状態は、例えば、生体状態及び声V0の少なくともいずれかに基づいて推定される。要支援状態は、対象者81の、健康状態の悪化、不穏、排泄、褥瘡、及び、転落可能性の少なくともいずれかを含む。例えば、対象者81の生体状態を検出することで、例えば、健康状態の悪化、不穏、排泄、褥瘡、及び、転落の少なくともいずれかの直前に、それらを把握(予測)することができる。例えば、対象者81の声V0を基にした音声認識処理により、例えば、健康状態の悪化、不穏、排泄、褥瘡、及び、転落の少なくともいずれかの直前に、それらを把握(予測)することができる。 Further, in the embodiment, the support-requiring state of the subject 81 may be estimated. The support-requiring state is estimated, for example, based on at least one of the biological state and the voice V0. Support-requiring conditions include at least one of subject 81's deterioration of health, restlessness, excretion, pressure ulcers, and the possibility of falling. For example, by detecting the biological condition of the subject 81, for example, it is possible to grasp (predict) the deterioration of the health condition, restlessness, excretion, pressure ulcer, and at least immediately before the fall. For example, by voice recognition processing based on the voice V0 of the subject 81, it is possible to grasp (predict), for example, deterioration of health condition, restlessness, excretion, pressure ulcer, and at least immediately before any one of falls. can.

実施形態において、療養支援システム110は、このような、対象者81の要支援状態をさらに、支援者80に知らせても良い。例えば、支援装置10に設けられる音発生部12(スピーカ)またはランプなどにより、要支援状態が報知されても良い。例えば、対象者81が居る施設に設けられるナースステーションなどのディスプレイなどに、要支援状態であることを示す表示(または、音または振動の発生など)が行われても良い。支援者80(例えば、医師83、看護師82a、介護士82b及び家族等82c)などが所有する端末装置(例えば、表示装置83D等でも良い)に表示(または、音または振動の発生など)が行われても良い。 In the embodiment, the medical treatment support system 110 may further inform the supporter 80 of such a support-requiring state of the target person 81. For example, the support-requiring state may be notified by a sound generating unit 12 (speaker) or a lamp provided in the support device 10. For example, a display (or sound or vibration) indicating that support is required may be displayed on a display such as a nurse station provided in the facility where the target person 81 is located. A display (or sound or vibration generation, etc.) is displayed on a terminal device (for example, a display device 83D, etc.) owned by a supporter 80 (for example, a doctor 83, a nurse 82a, a caregiver 82b, a family member, etc. 82c). It may be done.

このように、要支援状態を知らせることで、より適正な支援を、適正な時期に、迅速に提供できる。 In this way, by notifying the status of support required, more appropriate support can be provided promptly at an appropriate time.

本実施形態において、音発生部12(例えばスピーカ)から、対象者81に向けた音声S1(例えば聴覚情報)が出力されても良い。例えば、音発生部12は、対象者81への質問及び呼びかけの少なくともいずれかの内容を含む音声S1を発生する(図1(a)参照)。この内容は、対象者81の健康安全状態に関係している。この内容は、対象者81の生体状態、及び、対象者の声V0の少なくともいずれかに基づいて定められる。 In the present embodiment, the sound generation unit 12 (for example, a speaker) may output the voice S1 (for example, auditory information) directed to the target person 81. For example, the sound generation unit 12 generates a voice S1 including at least one of a question and a call to the subject 81 (see FIG. 1A). This content is related to the health and safety status of the subject 81. This content is determined based on at least one of the biological condition of the subject 81 and the voice V0 of the subject.

例えば、対象者81の生体状態が体温である場合、体温が平熱よりも高いときに、音発生部12から「熱が高いようですよ。具合はいかがですか?」などの、質問の内容の音声S1が出力される。例えば、対象者81が苦しそうな声V0を発生している場合がある。このような場合に、音発生部12から「具合はいかがですか?」などの、質問の内容の音声S1が出力される。 For example, when the biological state of the subject 81 is body temperature, when the body temperature is higher than normal temperature, the sound generator 12 asks, "It seems that the heat is high. How is it?" The voice S1 is output. For example, the subject 81 may be generating a voice V0 that seems to be painful. In such a case, the sound generation unit 12 outputs the voice S1 of the content of the question, such as "How is it?".

そして、音センサ11は、この音声S1の発生の後の、対象者81の別の声をさらに検出しても良い。そして、感情状態は、その別の声にさらに基づいて推定されても良い。 Then, the sound sensor 11 may further detect another voice of the subject 81 after the generation of the voice S1. The emotional state may then be further estimated based on that other voice.

このように、生体状態が生体センサ20により検出され、検出された生体状態が異常であったときに、対象者の声V0の音声認識が開始され、感情状態が推定される。これに加えて、対象者81に健康安全状態に関する質問などの内容の音声S1が発生しても良い。そして、この音声S1に応じて生じた、対象者81の別の声(回答)がさらに音声処理され、感情状態が推定される。これにより、より正確に感情状態を推定することができる。 In this way, when the biological state is detected by the biological sensor 20 and the detected biological state is abnormal, the voice recognition of the subject's voice V0 is started, and the emotional state is estimated. In addition to this, the voice S1 of the content such as a question about the health and safety state may be generated to the subject 81. Then, another voice (answer) of the subject 81 generated in response to the voice S1 is further voice-processed, and the emotional state is estimated. This makes it possible to estimate the emotional state more accurately.

療養支援システム110においては、例えば、音声から感情が推定され、一時的な感情による生体情報の異常値が除去される。これにより、生体情報について、異常値の検出の精度を向上できる。 In the medical treatment support system 110, for example, emotions are estimated from voice, and abnormal values of biological information due to temporary emotions are removed. This makes it possible to improve the accuracy of detecting abnormal values for biological information.

音声S1(例えば聴覚情報)は、療養支援システム110から提供(出力)される出力情報OSの少なくとも一部に対応する。このように、療養支援システム110は、視覚情報VS及び聴覚情報(例えば音声S1)の少なくともいずれかを含む出力情報OSを提供する。出力情報OSは、生体状態及び声V0の少なくともいずれかに基づいて推定された対象者81の感情状態に応じて変化する。例えば、聴覚情報は、音声S1を生成するための信号(例えば電気信号)を含んでも良い。聴覚情報は、音発生部12(スピーカ)で発生する音波を含んでも良い。 The voice S1 (for example, auditory information) corresponds to at least a part of the output information OS provided (output) from the medical treatment support system 110. As described above, the medical treatment support system 110 provides an output information OS including at least one of visual information VS and auditory information (for example, audio S1). The output information OS changes according to the emotional state of the subject 81 estimated based on at least one of the biological state and the voice V0. For example, the auditory information may include a signal (for example, an electric signal) for generating the voice S1. The auditory information may include sound waves generated by the sound generating unit 12 (speaker).

例えば、音声情報データベースDB1とケア情報データベースDB4とが関係づけられても良い。例えば、感情情報ES1及び生体情報(例えば生体情報パラメータD1)の提供の際に、ケア情報データベースDB4が参照されても良い。 For example, the voice information database DB1 and the care information database DB4 may be associated with each other. For example, the care information database DB4 may be referred to when providing the emotional information ES1 and the biological information (for example, the biological information parameter D1).

ケア情報データベースDB4は、例えば、マスタデータベースである。ケア情報データベースDB4は、基本情報(対象者81を特定する情報、または、対象者81の状態に関する任意の情報)を含む。例えば、対象者81が居る施設などに応じて、ケアの詳細情報が変更可能でも良い。ケアの詳細情報が、ケア情報データベースDB4に保存される。このような場合に、ケア情報データベースDB4に基づいて、感情情報ES1が、生体情報(例えば生体情報パラメータD1)と共に提供されても良い。 The care information database DB4 is, for example, a master database. The care information database DB 4 includes basic information (information specifying the target person 81 or arbitrary information regarding the state of the target person 81). For example, the detailed information of care may be changed depending on the facility where the target person 81 is located. Detailed information on care is stored in the care information database DB4. In such a case, the emotional information ES1 may be provided together with the biological information (for example, the biological information parameter D1) based on the care information database DB4.

図2は、実施形態に係る療養支援システムで用いられる情報を例示する模式図である。 図2は、ケア情報の例として、ケアコードを例示している。
図2に示すように、ケアコードは、大分類CL1、中分類CL2、及び、小分類CL3などを含む。大分類CL1は、例えば、「入浴・清潔保持整容・更衣」などである。この他、大分類CL1は、「移動・移乗・体位交換」、「食事」、「排泄」、「生活自立支援」、「社会生活支援」、「行動上の問題」、「医療」、「機能訓練」、または、「対象者に直接関わらない業務」を含んでも良い。大分類CL1が、「入浴・清潔保持整容・更衣」の場合、中分類CL2は、例えば、「入浴」、及び、「清拭」などを含む。中分類CL2が、「清拭」である場合、小分類CL3は、「準備」、「言葉による働きかけ」、「介助」、「見守り等」、及び、「後始末」などを含む。複数の小分類CL3のそれぞれに、コードCNが定められている。
FIG. 2 is a schematic diagram illustrating information used in the medical treatment support system according to the embodiment. FIG. 2 illustrates a care code as an example of care information.
As shown in FIG. 2, the care code includes a major classification CL1, a middle classification CL2, a minor classification CL3, and the like. The major classification CL1 is, for example, "bathing, cleanliness, maintenance, and changing clothes". In addition, the major classification CL1 includes "movement / transfer / position exchange", "meal", "excretion", "life independence support", "social life support", "behavioral problems", "medical care", and "function". It may include "training" or "work that is not directly related to the target person". When the major classification CL1 is "bathing / cleanliness / dressing / changing clothes", the middle classification CL2 includes, for example, "bathing" and "cleaning". When the middle classification CL2 is "cleaning", the minor classification CL3 includes "preparation", "verbal action", "caregiving", "watching, etc.", and "cleanup". A code CN is defined for each of the plurality of sub-classifications CL3.

このようなコードCNに従って、対象者81の状態が表現され、記録される。 According to such a code CN, the state of the subject 81 is expressed and recorded.

療養支援システム110においては、生体情報、及び、音声認識情報に加えて、ケア情報データベースDB4に保存されたケアコード(ケア情報)を用いて、対象者81の状態が、より正確に把握される。 In the medical treatment support system 110, the state of the subject 81 is more accurately grasped by using the care code (care information) stored in the care information database DB 4 in addition to the biological information and the voice recognition information. ..

療養支援システム110において、音声に関する情報が付加(学習)可能でも良い。例えば、ケア分類の1つの介助をすることにより対象者81が奇声を発する場合などがある。このような場合に、その奇声(音声)は、音声情報としては、ノイズ扱いとされる。このようなノイズ扱いとされる音声に関する情報が、付加(学習)可能でも良い。これにより、音声から、対象者81の状態をより正確に推定できる。 Information about voice may be added (learned) in the medical treatment support system 110. For example, the subject 81 may make a strange voice by assisting one of the care classifications. In such a case, the strange voice (voice) is treated as noise as voice information. Information about voice treated as noise may be added (learned). Thereby, the state of the subject 81 can be estimated more accurately from the voice.

図3(a)及び図3(b)は、第1実施形態に係る療養支援システムの動作を例示する模式図である。
図3(a)に例示するように、実施形態に係る療養支援システム110においては、例えば、医師83(支援者80)が使用する表示装置83D(例えば、提供部)に、問診内容の案I1が表示される。問診内容の案I1は、例えば、生体センサ20で検出された生体状態、及び、音センサ11で検出された声V0(すなわち、それの音声認識処理結果)の少なくともいずれかに基づいている。
3A and 3B are schematic views illustrating the operation of the medical treatment support system according to the first embodiment.
As illustrated in FIG. 3A, in the medical treatment support system 110 according to the embodiment, for example, the display device 83D (for example, the providing unit) used by the doctor 83 (supporter 80) is provided with the draft I1 of the interview content. Is displayed. The draft I1 of the interview content is based on, for example, at least one of the biological state detected by the biological sensor 20 and the voice V0 (that is, the voice recognition processing result thereof) detected by the sound sensor 11.

例えば、生体センサ20で検出された生体状態、及び、音センサ11で検出された声V0(または音声認識処理結果)の少なくともいずれかに基づいて、問診内容の案I1が導出される。例えば、問診内容に関するデータベースが設けられる。このデータベースから、問診内容の、いくつかの案が抽出される。抽出された案が、案I1として、医師83などに提案される。これにより、より適切な診察が支援できる。 For example, the draft I1 of the interview content is derived based on at least one of the biological state detected by the biological sensor 20 and the voice V0 (or the voice recognition processing result) detected by the sound sensor 11. For example, a database regarding the contents of interviews is provided. From this database, some proposals for the contents of the interview are extracted. The extracted plan is proposed to doctor 83 and the like as plan I1. This can support more appropriate medical examinations.

例えば、既に説明したように、図1(a)に例示した生体情報(生体情報パラメータD1)及び感情情報ES1が、医師83に提供される。このような情報が、問診の判断の材料、または、処方の判断の材料とされる。さらに、問診内容の案I1、及び、その案I1に対する対象者81の回答が、処方の判断の材料とされる。例えば、訪問医師による対象者81の状況の把握を、より適正に行うことを支援できる。 For example, as already described, the biometric information (biological information parameter D1) and the emotional information ES1 exemplified in FIG. 1A are provided to the doctor 83. Such information is used as a material for the judgment of the interview or the judgment of the prescription. Further, the draft I1 of the contents of the interview and the answers of the subject 81 to the draft I1 are used as the material for the prescription judgment. For example, it is possible to support the visiting doctor to more appropriately grasp the situation of the subject 81.

図3(b)に例示するように、表示装置82D(例えば、提供部)に、対象者81への質問または声かけの案I2を表示可能でも良い。表示装置82Dは、例えば、看護師82a、介護士82bまたは家族等82cなどが使用する表示装置(携帯型の端末など)である。この案I2は、例えば、生体センサ20で検出された生体状態、及び、音センサ11で検出された声V0(及びその音声認識処理)の少なくともいずれかに基づいている。 As illustrated in FIG. 3B, the display device 82D (for example, the providing unit) may be capable of displaying the proposal I2 for asking a question or calling out to the target person 81. The display device 82D is a display device (portable terminal or the like) used by, for example, a nurse 82a, a caregiver 82b, a family member 82c, or the like. The proposal I2 is based on, for example, at least one of the biological state detected by the biological sensor 20 and the voice V0 (and its voice recognition processing) detected by the sound sensor 11.

例えば、対象者81への質問または声かけの案I2が、支援者80(看護師82a、介護士82bまたは家族等82c)に提案される。例えば、案I2として、「痛いところはありますか?と訊いてみましょう」、「窓際の花が開いてきましたよ、と声をかけてみましょう」、または、「私が誰だかわかりますか?と訊いてみましょう」などの質問(または声かけ)の案が表示される。この案I2に基づいて支援者80が対象者81と会話する。これにより、対象者81の状態をより正確に知ることができる。 For example, a proposal I2 for asking a question or calling out to the subject 81 is proposed to the supporter 80 (nurse 82a, caregiver 82b, family member 82c, etc.). For example, as Plan I2, "Ask me if there is any pain?", "Let's say that the flowers by the window have opened", or "I know who I am". A suggestion for a question (or a call) such as "Let's ask?" Is displayed. Based on this plan I2, the supporter 80 talks with the target person 81. As a result, the state of the subject 81 can be known more accurately.

例えば、対象者81のおける認知症による不穏行動の予兆が推定できる。例えば、痛みなどの状況の緩和のために医師83などへ相談するタイミングなどを、看護師82a、介護士82bまたは家族等82cなどに示唆できる。 For example, a sign of disturbing behavior due to dementia in the subject 81 can be estimated. For example, the timing of consulting with a doctor 83 or the like for alleviating a situation such as pain can be suggested to a nurse 82a, a caregiver 82b, a family member 82c, or the like.

このように、実施形態に係る療養支援システム110は、対象者81との会話の内容(話題など)に関する案(案I1または案I2など)を提供可能である。この提供は、例えば、上記の表示装置83Dまたは表示装置82Dなどにより行われる。この案の提供は、音声などにより行われても良い。 As described above, the medical treatment support system 110 according to the embodiment can provide a plan (plan I1 or plan I2, etc.) regarding the content (topic, etc.) of the conversation with the target person 81. This provision is performed by, for example, the display device 83D or the display device 82D described above. This proposal may be provided by voice or the like.

対象者81との会話の内容は、例えば、対象者81の健康安全状態に関係している。提供される案(案I1または案I2など)は、検出された生体状態、及び、声V0の少なくともいずれかに基づいている。 The content of the conversation with the subject 81 is related to, for example, the health and safety status of the subject 81. The proposed proposal (such as proposal I1 or proposal I2) is based on at least one of the detected biological conditions and voice V0.

このような案に基づいて、支援者80(医師83、看護師82a、介護士82bまたは家族等82c)が問診または会話を行う。そして、問診、または、会話に応じて、対象者81が回答する。この回答の声がさらに音声認識されても良い。 Based on such a plan, the supporter 80 (doctor 83, nurse 82a, caregiver 82b, family member 82c, etc.) conducts an interview or conversation. Then, the subject 81 answers according to the interview or the conversation. The voice of this answer may be further voice-recognized.

例えば、音センサ11は、対象者81の支援者80の声(案I2等に基づく質問など)、及び、支援者80の声に応じて発生された対象者81の別の声(回答)をさらに検出する。支援者80のこの声は、上記の提供された案(案I1または案I2など)の少なくとも一部に基づく内容を含んでいる。そして、感情状態が、その別の声(回答)にさらに基づいて推定されても良い。 For example, the sound sensor 11 receives the voice of the supporter 80 of the target person 81 (question based on the plan I2 or the like) and another voice (answer) of the target person 81 generated in response to the voice of the supporter 80. Further detect. This voice of supporter 80 includes content based on at least a portion of the above provided proposals (such as proposal I1 or proposal I2). Then, the emotional state may be further estimated based on the other voice (answer).

さらに、対象者81の支援者80の声(案I2等に基づく質問など)、及び、支援者80の声に応じて発生された対象者81の別の声(回答)が、再生されて、医師83などに提供されても良い。例えば、対象者81の支援者80の声、及び、対象者81の別の声(回答)が音声認識処理されて、文章となって表示可能でも良い。この表示が、医師83などに提供されても良い。 Further, the voice of the supporter 80 of the target person 81 (question based on the plan I2, etc.) and another voice (answer) of the target person 81 generated in response to the voice of the supporter 80 are reproduced. It may be provided to a doctor 83 or the like. For example, the voice of the supporter 80 of the target person 81 and another voice (answer) of the target person 81 may be voice-recognized and displayed as a sentence. This display may be provided to a doctor 83 or the like.

例えば、図1(a)に例示した第2時刻t2において、生体状態が異常であると判断される。このとき、看護師82aが所有する表示装置82Dに、上記のような質問の案I2が表示される。看護師82aは、その案I2に基づいて、対象者81に質問する。その質問に対する、対象者81の回答の声が検出される。その回答の声が音声処理される。音声処理により、例えば、対象者81の痛みの状態が、情報として、音声情報データベースDB1などに保存される。その後、音声処理されて得られた対象者81の状態が、医師83などに提供される。このように、実施形態においては、上記の別の声(対象者81の回答)に対応する内容の少なくとも一部をさらに提供可能である。 For example, at the second time t2 illustrated in FIG. 1 (a), it is determined that the biological state is abnormal. At this time, the proposed question I2 as described above is displayed on the display device 82D owned by the nurse 82a. The nurse 82a asks the subject 81 a question based on the plan I2. The voice of the answer of the subject 81 to the question is detected. The voice of the answer is processed by voice. By voice processing, for example, the pain state of the subject 81 is stored as information in the voice information database DB1 or the like. After that, the state of the subject 81 obtained by voice processing is provided to the doctor 83 and the like. As described above, in the embodiment, at least a part of the content corresponding to the above-mentioned other voice (answer of the subject 81) can be further provided.

例えば、1つの例では、生体状態が異常であると判定された後に時間が経過してから、医師83による診察が行われる。別の例では、医師83による診察が、1週に1回などのように定期的に行われ、医師83は、1週の間の生体状態の変化を知る。このとき、生体状態が異常であったときに、案I2等に基づく質問の声に応じた、対象者81の声から得られる情報を受け取ることで、対象者81の状態をより正確に知ることができる。支援者80(例えば医師83など)により、対象者81に、より良いサービスが提供できる。 For example, in one example, the doctor 83 conducts a medical examination after a lapse of time after the biological condition is determined to be abnormal. In another example, medical examinations by the doctor 83 are performed regularly, such as once a week, and the doctor 83 is aware of changes in the biological condition during the week. At this time, when the biological condition is abnormal, the condition of the subject 81 can be known more accurately by receiving the information obtained from the voice of the subject 81 in response to the voice of the question based on the plan I2 or the like. Can be done. A supporter 80 (for example, a doctor 83) can provide a better service to the subject 81.

上記の案I1及び案I2は、出力情報OSの少なくとも一部に対応する。案I1及び案I2は、例えば、視覚情報VS及び聴覚情報(例えば音声S1)の少なくともいずれかに含まれても良い。この場合も、療養支援システム110は、出力情報OSを提供する。出力情報OSは、生体状態及び声V0の少なくともいずれかに基づいて推定された対象者81の感情状態に応じて変化する。 The above-mentioned plans I1 and I2 correspond to at least a part of the output information OS. Proposal I1 and Proposal I2 may be included in at least one of visual information VS and auditory information (for example, audio S1), for example. Also in this case, the medical treatment support system 110 provides the output information OS. The output information OS changes according to the emotional state of the subject 81 estimated based on at least one of the biological state and the voice V0.

(第2実施形態)
図4(a)~図4(c)は、第2実施形態に係る療養支援システムを例示する模式図である。
図4(a)に示すように、本実施形態に係る療養支援システム120も、生体センサ20と、音センサ11と、を含む。この例でも、生体センサ20は、対象者81のベッド70に設けられる。以下、療養支援システム120について、療養支援システム110とは異なる部分について、説明する。
(Second Embodiment)
4 (a) to 4 (c) are schematic views illustrating the medical treatment support system according to the second embodiment.
As shown in FIG. 4A, the medical treatment support system 120 according to the present embodiment also includes a biological sensor 20 and a sound sensor 11. In this example as well, the biosensor 20 is provided on the bed 70 of the subject 81. Hereinafter, the part of the medical treatment support system 120 different from that of the medical treatment support system 110 will be described.

療養支援システム120においては、対象者81との会話の内容に関する案(案I1または案I2など)は、検出された生体状態、及び、声V0の少なくともいずれか、に加えて、ケア情報に基づいている。ケア情報は、例えば、ケア情報データベースDB4に保存されている。 In the medical treatment support system 120, the proposal regarding the content of the conversation with the subject 81 (such as proposal I1 or proposal I2) is based on the detected biological condition and at least one of the voice V0 and the care information. ing. The care information is stored in, for example, the care information database DB4.

例えば、生体センサ20で検出された生体状態、音センサ11で検出された声V0(及びその音声認識処理)、または、ケア情報に基づいて、問診内容の案I1が医師83などに提案される。例えば、生体センサ20で検出された生体状態、音センサ11で検出された声V0(及びその音声認識処理)、または、ケア情報に基づいて、対象者81への質問または声かけの案I2を提案可能である。 For example, based on the biological condition detected by the biological sensor 20, the voice V0 (and its voice recognition processing) detected by the sound sensor 11, or the care information, the draft I1 of the interview content is proposed to the doctor 83 or the like. .. For example, based on the biological condition detected by the biological sensor 20, the voice V0 (and its voice recognition processing) detected by the sound sensor 11, or the care information, a proposal I2 of a question or a voice to the subject 81 can be obtained. It is possible to propose.

療養支援システム120においては、生体情報、及び、音声認識情報に加えて、ケアコード(ケア情報)を用いて、対象者81の状態がより正確に把握される。 In the medical treatment support system 120, the state of the subject 81 is more accurately grasped by using the care code (care information) in addition to the biological information and the voice recognition information.

療養支援システム120において、音発生部12(スピーカ)からの音声S1は、生体情報、及び、音声認識情報に加えて、ケアコード(ケア情報)に基づいても良い。この音声S1は、対象者81への質問及び呼びかけの少なくともいずれかの内容(対象者81の健康安全状態に関係する内容)を含む。より適切な質問または呼びかけの音声S1が得られる。 In the medical treatment support system 120, the voice S1 from the sound generation unit 12 (speaker) may be based on the care code (care information) in addition to the biological information and the voice recognition information. This voice S1 includes at least one of the contents of a question and a call to the subject 81 (contents related to the health and safety state of the subject 81). A more appropriate question or call voice S1 is obtained.

療養支援システム120において、対象者81の感情状態に対応する感情情報(図1(a)に例示した感情情報ES1など)が、生体状態の少なくとも一部に基づく生体情報(例えば図1(a)に例示した生体情報パラメータD1)と共に提供されても良い。この感情情報は、声V0に加えて、ケア情報に基づいて推定されても良い。療養支援システム120においても、より良いサービスが提供できる。 In the medical treatment support system 120, the emotional information corresponding to the emotional state of the subject 81 (such as the emotional information ES1 exemplified in FIG. 1A) is the biological information based on at least a part of the biological state (for example, FIG. 1A). It may be provided together with the biological information parameter D1) exemplified in. This emotional information may be estimated based on the care information in addition to the voice V0. Better services can also be provided in the medical treatment support system 120.

療養支援システム120において、例えば、認知症による不穏行動の予兆などが推定できる。例えば、適切な「ケア応対ナレッジ」を、瞬時に、看護師82a、介護士82b及び家族等82cなどに提案できる。例えば、問診などの判断の参考になる「ナレッジ」を医師83が用いる表示装置83D(例えば、提供部)に表示できる。例えば、訪問医師による患者状況の把握を支援できる。 In the medical treatment support system 120, for example, a sign of disturbing behavior due to dementia can be estimated. For example, an appropriate "care response knowledge" can be instantly proposed to nurses 82a, caregivers 82b, family members 82c, and the like. For example, "knowledge" that can be used as a reference for judgments such as interviews can be displayed on the display device 83D (for example, the providing unit) used by the doctor 83. For example, it is possible to support the visiting doctor to grasp the patient situation.

療養支援システム120において、日報情報データベースDB3が用いられても良い。例えば、療養支援システム120において、介護記録(例えば、日報情報など)がさらに利用される。例えば、介護記録は、対象者81の支援者80により、記録、または、入力される。支援者80は、例えば、看護師82a、介護士82bまたは家族等82cなどである。例えば、支援者80による対象者81への支援(作業)が記録(または入力)される。記録(または入力)された介護記録が、日報情報データベースDB3に供給される。 The daily report information database DB3 may be used in the medical treatment support system 120. For example, in the medical treatment support system 120, the long-term care record (for example, daily report information) is further used. For example, the long-term care record is recorded or input by the supporter 80 of the subject 81. The supporter 80 is, for example, a nurse 82a, a caregiver 82b, a family member 82c, or the like. For example, the support (work) by the supporter 80 to the target person 81 is recorded (or input). The recorded (or input) long-term care record is supplied to the daily report information database DB3.

日報情報データベースDB3が用いられることで、さらにより良いサービスが提供できる。例えば、音声情報データベースDB1、日報情報データベースDB3及びケア情報データベースDB4は互いに関係づけられても良い。ケア情報データベースDB4に記憶された情報を用いることで、対象者81の状態が、より正確に把握される。さらにより良いサービスが提供できる。 By using the daily report information database DB3, even better services can be provided. For example, the voice information database DB1, the daily report information database DB3, and the care information database DB4 may be related to each other. By using the information stored in the care information database DB4, the state of the subject 81 can be grasped more accurately. Even better service can be provided.

(第3実施形態)
図5(a)~図5(d)は、第3実施形態に係る療養支援システムを例示する模式図である。
図5(b)~図5(d)は、療養支援システムにおける各種の情報(データまたは信号)を模式的に例示している。
(Third Embodiment)
5 (a) to 5 (d) are schematic views illustrating the medical treatment support system according to the third embodiment.
5 (b) to 5 (d) schematically illustrate various types of information (data or signals) in the medical treatment support system.

図5(a)に示すように、本実施形態に係る療養支援システム130は、生体センサ20を含む。療養支援システム130は、表示装置83D(提供部の例)をさらに含んでも良い。 As shown in FIG. 5A, the medical treatment support system 130 according to the present embodiment includes a biological sensor 20. The medical treatment support system 130 may further include a display device 83D (an example of a providing unit).

この例においても、生体センサ20は、対象者81の生体状態を検出する。この例においても、生体センサ20は、対象者81のベッド70に設けられる。既に説明したように、生体センサ20は、対象者81の体(または衣服)などに、付着または装着されても良い。 Also in this example, the biological sensor 20 detects the biological state of the subject 81. Also in this example, the biosensor 20 is provided on the bed 70 of the subject 81. As described above, the biosensor 20 may be attached or attached to the body (or clothing) of the subject 81 or the like.

本実施形態においても、療養支援システム130(例えば表示装置83Dなど)は、対象者81の感情状態に対応する感情情報(例えば感情パラメータE1)を、生体状態の少なくとも一部に基づく生体情報(例えば、生体情報パラメータD1)と共に提供する。本実施形態においては、感情情報は、生体状態の少なくとも一部に基づいて推定される。例えば、感情情報は、生体状態の少なくとも一部から導出された自律神経状態に基づいて推定される。 Also in the present embodiment, the medical treatment support system 130 (for example, the display device 83D) uses the emotional information (for example, the emotional parameter E1) corresponding to the emotional state of the subject 81 as the biological information (for example, the biological information) based on at least a part of the biological state. , Provided with the biometric information parameter D1). In this embodiment, emotional information is estimated based on at least a portion of the biological state. For example, emotional information is estimated based on autonomic nervous states derived from at least a portion of the biological state.

例えば、対象者81の生体状態(例えば、心拍数、脈拍数、呼吸数、体温、血圧、血液の酸素飽和度、体重、睡眠、覚醒、離床、起上り及び端座位)は、対象者81の自律神経状態と関連がある。自律神経状態は、交感神経の状態、及び、副交感神経の状態を含む。対象者81の自律神経状態は、対象者81の感情状態(平常、喜び、怒り及び悲しみの少なくともいずれかの状態)と関連がある。 For example, the biological state of the subject 81 (for example, heart rate, pulse rate, respiratory rate, body temperature, blood pressure, oxygen saturation of blood, weight, sleep, arousal, getting out of bed, getting up and sitting) is the subject 81. It is associated with autonomic nervous status. Autonomic nerve states include sympathetic and parasympathetic states. The autonomic nervous state of the subject 81 is associated with the emotional state of the subject 81 (at least one of normal, joy, anger, and sadness).

例えば、対象者81の生体状態が、生体センサ20により検出される。検出結果(生体情報であり、例えば、生体情報パラメータD1)が、通信装置25を介して、生体情報データベースDB2に供給される。生体情報(生体情報パラメータD1)から、対象者81の自律神経状態N1が導出される。自律神経状態N1は、自律神経解析部61に供給される。自律神経解析部61において、自律神経状態N1に基づいて、対象者81の感情状態(例えば、感情パラメータE1)が導出される。感情パラメータE1から、感情情報ES1が導出される。 For example, the biological state of the subject 81 is detected by the biological sensor 20. The detection result (biological information, for example, the biological information parameter D1) is supplied to the biological information database DB2 via the communication device 25. The autonomic nervous state N1 of the subject 81 is derived from the biological information (biological information parameter D1). The autonomic nerve state N1 is supplied to the autonomic nerve analysis unit 61. In the autonomic nerve analysis unit 61, the emotional state (for example, the emotional parameter E1) of the subject 81 is derived based on the autonomic nerve state N1. The emotion information ES1 is derived from the emotion parameter E1.

図5(a)に示すように、例えば、表示装置83Dに、感情パラメータE1が、生体情報パラメータD1と共に表示される。これにより、医師83は、例えば、感情の変化の影響を除いて、生体情報パラメータD1をより正確に把握することができる。 As shown in FIG. 5A, for example, the emotion parameter E1 is displayed on the display device 83D together with the biological information parameter D1. This allows the doctor 83 to more accurately grasp the biological information parameter D1, for example, excluding the influence of emotional changes.

本実施形態においては、例えば、音センサ11が省略できる。生体状態を検出する生体センサ20により、自律神経状態が導出される。この自律神経状態に基づいて、対象者81の感情状態が推定される。このため、療養支援システム130においては、構成が簡単になる。 In this embodiment, for example, the sound sensor 11 can be omitted. The autonomic nervous state is derived by the biological sensor 20 that detects the biological state. Based on this autonomic nervous state, the emotional state of the subject 81 is estimated. Therefore, in the medical treatment support system 130, the configuration becomes simple.

療養支援システム130において、対象者81の要支援状態を知らせても良い。この場合、要支援状態は、生体状態、及び、自律神経状態の少なくともいずれかに基づいて推定される。要支援状態は、対象者81の、健康状態の悪化、不穏、排泄、褥瘡、及び、転落可能性の少なくともいずれかを含む。 In the medical treatment support system 130, the support-requiring state of the subject 81 may be notified. In this case, the support-requiring state is estimated based on at least one of the biological state and the autonomic nervous state. Support-requiring conditions include at least one of subject 81's deterioration of health, restlessness, excretion, pressure ulcers, and the possibility of falling.

例えば、生体センサ20から得られた生体状態に基づいて、対象者81の自律神経状態N1が導出される。例えば、生体状態(例えば、心拍数、脈拍数、呼吸数、体温、血圧、血液の酸素飽和度、体重、睡眠、覚醒、離床、起上り及び端座位)、及び、自律神経状態N1の少なくともいずれかに基づいて、対象者81の要支援状態の報知が行われても良い。報知は、例えば、対象者81が居る施設のナースステーションなどのディスプレイなどにより行われる。報知は、例えば、支援者80(例えば、医師83、看護師82a、介護士82b及び家族等82c)などが所有する端末装置により行われても良い。報知は、表示、音及び振動の少なくともいずれかを含んでも良い。 For example, the autonomic nervous state N1 of the subject 81 is derived based on the biological state obtained from the biological sensor 20. For example, at least one of the biological state (eg, heart rate, pulse rate, respiratory rate, body temperature, blood pressure, blood oxygen saturation, weight, sleep, arousal, getting out of bed, rising and sitting), and autonomic nervous state N1. Based on the above, the notification of the support-requiring state of the target person 81 may be performed. The notification is performed, for example, by a display such as a nurse station of a facility where the target person 81 is located. The notification may be performed by, for example, a terminal device owned by a supporter 80 (for example, a doctor 83, a nurse 82a, a caregiver 82b, a family member 82c, etc.). The notification may include at least one of display, sound and vibration.

療養支援システム130においても、対象者81との会話の内容の案(案I1または案I2など、図2(a)及び図2(b)参照)が提供されても良い。その内容は、対象者81の健康安全状態に関係した内容である。その案は、例えば、生体状態、及び、自律神経状態N1の少なくともいずれかに基づいている。 The medical treatment support system 130 may also provide a draft of the content of the conversation with the subject 81 (see FIGS. 2A and 2B, such as Plan I1 or Plan I2). The content is related to the health and safety status of the subject 81. The proposal is based on, for example, at least one of a biological state and an autonomic nervous state N1.

療養支援システム130においては、例えば、生体情報(状態)から自律神経状態が導出され、感情が推定される。これにより、例えば、一時的な感情の変化による生体情報の異常値が除去される。例えば、生体情報の異常値の検出の精度が向上できる。これにより、対象者81の生体状況をより正確に把握できる。 In the medical treatment support system 130, for example, the autonomic nervous state is derived from biological information (state), and emotions are estimated. As a result, for example, an abnormal value of biological information due to a temporary change in emotion is removed. For example, the accuracy of detecting abnormal values of biological information can be improved. As a result, the biological condition of the subject 81 can be grasped more accurately.

例えば、生体情報(状態)に基づく自律神経状態は、例えば、人工知能などによるデータの分析に基づいて、導出されても良い。この場合、分析者が生体情報に関する波形または数値を見ながら自律神経の状態が推定される場合に比べて、より効率的に、より正確に、自律神経が導出できる。 For example, the autonomic nervous state based on biological information (state) may be derived based on, for example, analysis of data by artificial intelligence or the like. In this case, the autonomic nerve can be derived more efficiently and more accurately than when the analyst estimates the state of the autonomic nerve while looking at the waveform or numerical value related to the biological information.

本実施形態に係る療養支援システム130において、療養支援システム110のように、音センサ11(図1(a)参照)をさらに設けても良い。 In the medical treatment support system 130 according to the present embodiment, a sound sensor 11 (see FIG. 1A) may be further provided as in the medical treatment support system 110.

この場合も、音センサ11は、対象者81の声V0を検出する。そして、感情情報ES1が、上記の自律神経状態N1に加えて、この声V0に基づいて推定されても良い。これにより、例えば、より正確に対象者81の感情状態を推定できる。 In this case as well, the sound sensor 11 detects the voice V0 of the subject 81. Then, the emotional information ES1 may be estimated based on this voice V0 in addition to the above-mentioned autonomic nervous state N1. Thereby, for example, the emotional state of the subject 81 can be estimated more accurately.

さらに、音センサ11は、対象者81の支援者80の声、及び、支援者80の声に応じて発生された対象者81の声を検出しても良い。支援者80の声は、上記の案(案I1または案I2など)の少なくとも一部に基づく内容(例えば質問など)を含む。支援者80の声に応じて発生された対象者81の声は、質問などに応じた回答を含む。この場合、感情情報ES1は、上記の自律神経状態N1に加えて、対象者81の声(回答)に基づいてさらに推定されても良い。これにより、例えば、より正確に対象者81の感情状態を推定できる。 Further, the sound sensor 11 may detect the voice of the supporter 80 of the target person 81 and the voice of the target person 81 generated in response to the voice of the supporter 80. The voice of the supporter 80 includes content (eg, a question, etc.) based on at least a part of the above plan (plan I1 or plan I2, etc.). The voice of the subject 81 generated in response to the voice of the supporter 80 includes an answer in response to a question or the like. In this case, the emotional information ES1 may be further estimated based on the voice (answer) of the subject 81 in addition to the above-mentioned autonomic nervous state N1. Thereby, for example, the emotional state of the subject 81 can be estimated more accurately.

例えば、対象者81の支援者80の声(案I2等に基づく質問など)、及び、支援者80の声に応じて発生された対象者81の別の声(回答)が、再生されて、医師83などに提供されても良い。例えば、これらの声が音声認識処理されて、文章となり、この文章が医師83などに提供されても良い。 For example, the voice of the supporter 80 of the target person 81 (question based on the plan I2, etc.) and another voice (answer) of the target person 81 generated in response to the voice of the supporter 80 are reproduced. It may be provided to a doctor 83 or the like. For example, these voices may be voice-recognized and processed into a sentence, and this sentence may be provided to a doctor 83 or the like.

療養支援システム130において、療養支援システム130のように、音センサ11、及び、音発生部12(スピーカ、図1(a)参照)が設けられても良い。この場合、音発生部12は、対象者81への質問及び呼びかけの少なくともいずれかを含む内容を含む音声S1(図1(a)参照)を発生する。この内容は、対象者81の健康安全状態に関係した内容である。この内容は、生体状態、及び、自律神経状態N1の少なくともいずれかに基づいている。音センサ11は、音声S1の発生の後の対象者81の声(音声S1に対する回答)を検出する。感情状態は、対象者81のこの声(回答)に基づいてさらに推定されても良い。これにより、例えば、より正確に対象者81の感情状態を推定できる。 In the medical treatment support system 130, a sound sensor 11 and a sound generation unit 12 (speaker, see FIG. 1A) may be provided as in the medical treatment support system 130. In this case, the sound generation unit 12 generates a voice S1 (see FIG. 1A) including a content including at least one of a question and a call to the subject 81. This content is related to the health and safety status of the subject 81. This content is based on at least one of the biological state and the autonomic nervous state N1. The sound sensor 11 detects the voice of the subject 81 (answer to the voice S1) after the generation of the voice S1. The emotional state may be further estimated based on this voice (answer) of the subject 81. Thereby, for example, the emotional state of the subject 81 can be estimated more accurately.

療養支援システム130において、対象者81の上記の声(回答)に対応する内容の少なくとも一部が、提供されても良い。例えば、音発生部12から発生された音声S1、及び、音声S1に応じて発生された対象者81の別の声(回答)が、再生されて、医師83などに提供されても良い。例えば、対象者81の別の声(回答)が音声認識処理されて、文章となり、この文章が、音声S1に対応する文章と共に、医師83などに提供されても良い。 In the medical treatment support system 130, at least a part of the content corresponding to the above voice (answer) of the subject 81 may be provided. For example, the voice S1 generated from the sound generation unit 12 and another voice (answer) of the subject 81 generated in response to the voice S1 may be reproduced and provided to the doctor 83 or the like. For example, another voice (answer) of the subject 81 may be voice-recognized and processed into a sentence, and this sentence may be provided to the doctor 83 or the like together with the sentence corresponding to the voice S1.

(第4実施形態)
図6(a)~図6(c)は、第4実施形態に係る療養支援システムを例示する模式図である。
本実施形態に係る療養支援システム140は、音センサ11と、提供部(例えば、表示装置83Dまたは表示装置82Dなど)と、を含む。
(Fourth Embodiment)
6 (a) to 6 (c) are schematic views illustrating the medical treatment support system according to the fourth embodiment.
The medical treatment support system 140 according to the present embodiment includes a sound sensor 11 and a providing unit (for example, a display device 83D or a display device 82D).

音センサ11は、例えば、対象者81の周辺の音声を収集する。例えば、音センサ11は、対象者81の声V0を検出する。提供部(例えば、表示装置83Dまたは表示装置82Dなど)は、音センサ11で収集した音声に基づいて、第1案を提供する。第1案は、例えば、対象者81の健康安全状態に関する回答を、その対象者81に促すための案である。例えば、提供部は、対象者81との会話の内容に関する第1案を提供する。対象者81との会話の内容は、対象者81の健康安全状態に関する内容である。この第1案は、音センサ11により検出された、対象者81の声V0に基づいている。 The sound sensor 11 collects, for example, the voice around the subject 81. For example, the sound sensor 11 detects the voice V0 of the subject 81. The providing unit (for example, the display device 83D or the display device 82D) provides the first plan based on the sound collected by the sound sensor 11. The first plan is, for example, a plan for encouraging the subject 81 to answer about the health and safety status of the subject 81. For example, the providing unit provides a first plan regarding the content of the conversation with the target person 81. The content of the conversation with the subject 81 is related to the health and safety status of the subject 81. This first plan is based on the voice V0 of the subject 81 detected by the sound sensor 11.

例えば、療養支援システム140を利用する支援者80が医師83である場合、上記の第1案として、問診内容の案I1が提供される(図6(b)参照)。例えば、療養支援システム140を利用する支援者80が看護師82a、介護士82bまたは家族等82cである場合、上記の第1案は、対象者81への質問または声かけの案I2である。 For example, when the supporter 80 who uses the medical treatment support system 140 is a doctor 83, a proposal I1 of the contents of the interview is provided as the first proposal above (see FIG. 6B). For example, when the supporter 80 who uses the medical treatment support system 140 is a nurse 82a, a caregiver 82b, a family member, etc. 82c, the first plan above is a plan I2 for asking or calling out to the subject 81.

例えば、音センサ11により検出された、対象者81の声V0が音声認識処理される。音声認識処理の結果により、対象者81の状態(例えば、健康安全状態)が推定される。推定された、対象者81の状態に基づいて、対象者81との会話の内容に関する第1案が提供される。これにより、支援者80(医師83、看護師82a、介護士82bまたは家族等82cなど)により、より適切な支援が対象者81に提供できるようになる。 For example, the voice V0 of the subject 81 detected by the sound sensor 11 is voice-recognized. The state of the subject 81 (for example, the health and safety state) is estimated from the result of the voice recognition process. Based on the estimated state of the subject 81, the first proposal regarding the content of the conversation with the subject 81 is provided. As a result, the supporter 80 (doctor 83, nurse 82a, caregiver 82b, family member 82c, etc.) can provide more appropriate support to the target person 81.

療養支援システム140においては、近距離通信部15により、看護師82a(または介護士82bなど)の認識タグ82sが認識されたら、声V0の検出、または、声V0の音声認識が開始されても良い。または、支援装置10などに設けられた人感センサ16により、支援者80が対象者81に近づいたことが検出されたら、声V0の検出、または、声V0の音声認識が開始されても良い。例えば、音センサ11により、支援者80が対象者81に向けて声をかけたことが検出されたら、音声認識が開始されても良い。 In the medical treatment support system 140, if the recognition tag 82s of the nurse 82a (or the caregiver 82b, etc.) is recognized by the short-distance communication unit 15, even if the voice V0 is detected or the voice recognition of the voice V0 is started. good. Alternatively, when it is detected by the motion sensor 16 provided in the support device 10 or the like that the supporter 80 approaches the target person 81, the voice V0 detection or the voice recognition of the voice V0 may be started. .. For example, when the sound sensor 11 detects that the supporter 80 has called out to the target person 81, voice recognition may be started.

療養支援システム140においては、例えば、スタッフ(看護師82a、介護士82bまたは家族等82c)のICタグ(認識タグ82s)により、話者が識別される。療養支援システム140において、例えば、ICタグ(認識タグ82s)を検知することにより、音声認識の会話情報取得のトリガーとなる。 In the medical treatment support system 140, the speaker is identified by, for example, an IC tag (recognition tag 82s) of a staff member (nurse 82a, caregiver 82b, family member, etc. 82c). In the medical treatment support system 140, for example, by detecting an IC tag (recognition tag 82s), it becomes a trigger for acquiring conversation information for voice recognition.

療養支援システム140において、音センサ11は、対象者81の支援者80の声(質問または声かけ)、及び、支援者80の声に応じて発生された対象者81の別の声(回答)をさらに検出しても良い。支援者80のこの声は、上記の第1案(問診内容の案I1、または、対象者81への質問または声かけの案I2)の少なくとも一部に基づく内容を含む。 In the medical treatment support system 140, the sound sensor 11 uses the voice (question or voice) of the supporter 80 of the subject 81 and another voice (answer) of the subject 81 generated in response to the voice of the supporter 80. May be further detected. This voice of the supporter 80 includes content based on at least a part of the above-mentioned first plan (question content plan I1 or question or voice plan I2 to the subject 81).

このとき、療養支援システム140(例えば、提供部)は、上記の内容に関する第2案をさらに提供しても良い。例えば、この第2案は、上記の別の声(対象者81の回答)に基づいている。例えば、この第2案の内容は、対象者81の回答に基づいて、対象者81の状態をより詳しく聞き出すための内容である。 At this time, the medical treatment support system 140 (for example, the providing unit) may further provide a second proposal regarding the above contents. For example, this second proposal is based on the above-mentioned other voice (answer of subject 81). For example, the content of this second plan is to find out the state of the subject 81 in more detail based on the answer of the subject 81.

例えば、療養支援システム140を利用する支援者80が医師83である場合、第1案により、対象者81の状態の概要が把握される。そして、第2案として、第1案の問診で得られた概要に基づいて、より詳しく聞き出すための案が提供される。 For example, when the supporter 80 who uses the medical treatment support system 140 is a doctor 83, the first plan gives an overview of the state of the subject 81. Then, as the second plan, a plan for asking in more detail is provided based on the outline obtained by the interview of the first plan.

例えば、第1案に基づいて、医師83は、対象者81に、「家族に似たような症状はありませんでしたか?」と訊く。これが、支援者80の声(質問または声かけ)に対応する。この質問に対して、対象者81は、「父が似た病気でした」と回答する。この回答が上記の別の声(対象者81の回答)に対応する。このとき、第2案として、例えば、「お父さんには、他にも病気がありましたか?と訊いてみましょう」、または、「頭痛の他に、他の部分で痛いところはありませんか?と訊いてみましょう」などが提案される。例えば、表示装置83Dにこのような第2案が表示される。医師83は、このような第2案に基づいて、例えば、「他の部分で痛いところはありませんか?」と、対象者81にさらに質問する。このような案が、さらに繰り替えてして提案されても良い。 For example, based on the first plan, the doctor 83 asks the subject 81, "Did you have any family-like symptoms?" This corresponds to the voice (question or voice) of the supporter 80. In response to this question, subject 81 replies, "My father had a similar illness." This answer corresponds to the other voice above (answer of subject 81). At this time, as a second plan, for example, "Ask your father if he had any other illness?" Or "Are there any other pains besides the headache?" Let's ask. " For example, such a second plan is displayed on the display device 83D. Based on such a second plan, the doctor 83 further asks the subject 81, for example, "Are there any pains in other parts?" Such a proposal may be proposed repeatedly.

例えば、療養支援システム140を利用する支援者80が看護師82a、介護士82bまたは家族等82cである場合、第1案に基づいて、支援者80は、対象者81に、「どこが痛みますか?」と訊く。これが、支援者80の声(質問または声かけ)に対応する。この質問に対して、対象者81は、「頭が痛い」と回答する。この回答が上記の別の声(対象者81の回答)に対応する。このとき、第2案として、例えば、「いつからですか?と訊いてみましょう」、または、「だんだん酷くなっていますか?と訊いてみましょう」などが提案される。例えば、表示装置82Dにこのような第2案が表示される。支援者80(看護師82a、介護士82bまたは家族等82cなど)は、このような第2案に基づいて、例えば、「だんだん酷くなっていますか?」と、対象者81にさらに質問する。このような案が、さらに繰り替えてして提案されても良い。 For example, when the supporter 80 who uses the medical treatment support system 140 is a nurse 82a, a caregiver 82b, or a family member 82c, the supporter 80 asks the target person 81, "Where does it hurt?" ? ". This corresponds to the voice (question or voice) of the supporter 80. In response to this question, the subject 81 replies, "I have a headache." This answer corresponds to the other voice above (answer of subject 81). At this time, as a second plan, for example, "Let's ask when?" Or "Let's ask if it's getting worse?" Is proposed. For example, such a second plan is displayed on the display device 82D. The supporter 80 (nurse 82a, caregiver 82b, family member 82c, etc.) further asks the subject 81, for example, "Is it getting worse?" Based on such a second plan. Such a proposal may be proposed repeatedly.

上記のように、第1案に基づく質問などに応じて、対象者81が回答する。対象者81の回答に基づいて、第2案が提供される。例えば、対象者81の回答により、対象者81の状態の概要が絞り込まれる。対象者81の、絞り込まれた状態に基づいて、さらに、第2案が提供される。第2案は、第1案よりも詳しい質問を含む。第2案は、第1案に含まれていなかった内容を含んでも良い。例えば、第2案の少なくとも一部は、第1案とは異なる。 As described above, the subject 81 answers the question based on the first plan. The second plan is provided based on the response of the subject 81. For example, the response of the subject 81 narrows down the outline of the state of the subject 81. A second proposal is further provided based on the narrowed down state of the subject 81. The second plan contains more detailed questions than the first plan. The second plan may include contents that were not included in the first plan. For example, at least part of the second plan is different from the first plan.

本実施形態においては、対象者81の声V0の音声認識処理は、対象者81の健康安全状態に関係するように、行われる。例えば、一般にコンピュータなどで行われる音声認識では、特定の言葉(例えば、そのコンピュータに付与された名前など)を発したときに、音声認識が行われる。そして、検出された声V0は、広い範囲の内容を含む。このため、声V0に基づく音声を音声認識処理する場合には、広い範囲の内容に適用できるように設計される。 In the present embodiment, the voice recognition process of the voice V0 of the subject 81 is performed so as to be related to the health and safety state of the subject 81. For example, in voice recognition generally performed by a computer or the like, voice recognition is performed when a specific word (for example, a name given to the computer) is uttered. The detected voice V0 includes a wide range of contents. Therefore, when the voice based on the voice V0 is processed for voice recognition, it is designed so that it can be applied to a wide range of contents.

これに対して、実施形態においては、健康安全状態に関係した認識が優先して行われる。例えば、「痛い」、「苦しい」、「気分」、「熱」、または、「震える」などの意味の音声認識が、優先的に行われる。これに対して、「今流行しているファッションは?」などのように、健康安全状態に直接関係しない音声の認識率が低くなっても良い。例えば、音声認識で用いられる統計モデルにおいて、健康安全状態に関係する言葉などの優先度が高められても良い。例えば、音声認識で用いられる単語辞書に、健康安全状態に関係する言葉(及び発声)が優先的に登録されても良い。例えば、自動学習における学習モデルにおいて、健康安全に関係する言葉(及び発声)に高い重み付けが行われても良い。例えば、音声認識で用いられる言語モデルにおいて、健康安全状態に関係する単語の連鎖の記憶が優先的に行われても良い。 On the other hand, in the embodiment, the recognition related to the health and safety state is given priority. For example, speech recognition with meanings such as "painful", "painful", "mood", "heat", or "trembling" is given priority. On the other hand, the recognition rate of voice that is not directly related to the health and safety status may be low, such as "What is the fashion that is popular now?". For example, in a statistical model used in speech recognition, the priority of words related to health and safety status may be increased. For example, words (and vocalizations) related to the health and safety state may be preferentially registered in the word dictionary used in speech recognition. For example, in a learning model in automated learning, words (and vocalizations) related to health and safety may be highly weighted. For example, in the language model used in speech recognition, the memory of the chain of words related to the health and safety state may be preferentially performed.

健康安全状態に関係した認識が優先して行われることにより、療養に関係する音声認識がより効率的に行われる。 By giving priority to recognition related to health and safety status, voice recognition related to medical treatment is performed more efficiently.

(第5実施形態)
図7(a)~図7(d)は、第5実施形態に係る療養支援システムを例示する模式図である。
本実施形態に係る療養支援システム150は、音センサ11と、提供部(例えば、表示装置83Dまたは表示装置82Dなど)と、を含む。音センサ11は、支援装置10に設けられる。療養支援システム150においては、支援装置10は、移動機構17を含む。療養支援システム150のこれ以外の構成は、療養支援システム140と同様とすることができる。
(Fifth Embodiment)
7 (a) to 7 (d) are schematic views illustrating the medical treatment support system according to the fifth embodiment.
The medical treatment support system 150 according to the present embodiment includes a sound sensor 11 and a providing unit (for example, a display device 83D or a display device 82D). The sound sensor 11 is provided in the support device 10. In the medical treatment support system 150, the support device 10 includes a moving mechanism 17. Other configurations of the medical treatment support system 150 can be the same as those of the medical treatment support system 140.

移動機構17により、支援装置10は移動可能である。支援装置10は、自走式のロボットである。支援装置10は、音発生部12、送受信部13、筐体14、近距離通信部15及び人感センサ16を含んでも良い。療養支援システム150における支援装置10は、療養支援システム140における支援装置10と同様の動作を実施しても良い。 The support device 10 can be moved by the moving mechanism 17. The support device 10 is a self-propelled robot. The support device 10 may include a sound generation unit 12, a transmission / reception unit 13, a housing 14, a short-range communication unit 15, and a motion sensor 16. The support device 10 in the medical treatment support system 150 may perform the same operation as the support device 10 in the medical treatment support system 140.

移動機構17により支援装置10は移動可能であるため、種々の動作がさらに可能になる。 Since the support device 10 is movable by the moving mechanism 17, various operations are further possible.

例えば、支援装置10は、コミュニケーションロボットとして機能しても良い。例えば、支援装置10は、対象者81の話相手となる。例えば、対象者81が、ベッド70から食堂のテーブルに移動する。対象者81は、食事が出るのを待つ。支援装置10は、対象者81が待っている間の話相手となる。支援装置10は、例えば、作業の合間を埋めるコミュニケーションロボットとなる。 For example, the support device 10 may function as a communication robot. For example, the support device 10 is a conversation partner of the target person 81. For example, the subject 81 moves from the bed 70 to the dining room table. Subject 81 waits for a meal to be served. The support device 10 becomes a conversation partner while the subject 81 is waiting. The support device 10 is, for example, a communication robot that fills the gaps between work.

例えば、対象者81がコミュニケーション障害を有する場合がある。例えば、脳卒中または他の病気、または、頭部外傷など原因で、コミュニケーション障害が生じる場合がある。支援装置10は、このような対象者81のリハビリテーションを支援できる。 For example, the subject 81 may have a communication disorder. Communication problems may occur, for example, due to a stroke or other illness, or a head injury. The support device 10 can support such rehabilitation of the subject 81.

支援装置10は、在宅の対象者81のリハビリテーションを支援可能でも良い。支援装置10は、例えば、トレーニング装置として機能しても良い。支援装置10は、対象者81のそれぞれに合わせたリハビリテーションの支援を提供できる。 The support device 10 may be capable of supporting the rehabilitation of the target person 81 at home. The support device 10 may function as a training device, for example. The support device 10 can provide rehabilitation support tailored to each of the subjects 81.

支援装置10は、例えば、言葉を思い出す訓練、または、自分の発語を聞きなおす訓練を支援できる。 The support device 10 can support, for example, training to remember words or to re-listen to one's own words.

支援装置10は、音センサ11、近距離通信部15及び人感センサ16などにより検出された情報に基づいて、支援装置10の位置を変更可能である。例えば、支援装置10は、対象となる対象者81の移動と連動して、自走により移動可能でも良い。 The support device 10 can change the position of the support device 10 based on the information detected by the sound sensor 11, the short-range communication unit 15, the motion sensor 16, and the like. For example, the support device 10 may be self-propelled and movable in conjunction with the movement of the target person 81.

療養支援システム150によれば、より良いサービスが提供できる療養支援システムを提供できる。 According to the medical treatment support system 150, it is possible to provide a medical treatment support system that can provide better services.

(第6実施形態)
本実施形態に係る療養支援システムは、音センサ11と、生体センサ20と、提供部(例えば、表示装置83Dまたは表示装置82Dなど)と、を含む。この療養支援システムにおいて、音センサ11及び生体センサ20の一方が省略されても良い。
(Sixth Embodiment)
The medical treatment support system according to the present embodiment includes a sound sensor 11, a biological sensor 20, and a providing unit (for example, a display device 83D or a display device 82D). In this medical treatment support system, one of the sound sensor 11 and the biological sensor 20 may be omitted.

療養支援システムにおいては、介護記録(例えば、日報情報など)がさらに利用される。これ以外は、上記の実施形態に係る任意の療養支援システム、と同様とすることができる。 In the medical treatment support system, long-term care records (for example, daily report information) are further used. Other than this, it can be the same as any medical treatment support system according to the above embodiment.

例えば、介護記録は、対象者81の支援者80により、記録、または、入力される。支援者80は、例えば、看護師82a、介護士82bまたは家族等82cなどである。例えば、支援者80による対象者81への支援(作業)が記録(または入力)される。記録(または入力)された介護記録が、日報情報データベースDB3に供給される。 For example, the long-term care record is recorded or input by the supporter 80 of the subject 81. The supporter 80 is, for example, a nurse 82a, a caregiver 82b, a family member 82c, or the like. For example, the support (work) by the supporter 80 to the target person 81 is recorded (or input). The recorded (or input) long-term care record is supplied to the daily report information database DB3.

例えば、療養支援システム120においては、対象者81の声V0に関する音声情報データベースDB1、生体センサ20により検出された生体状態に関する生体情報データベースDB2、及び、日報情報データベースDB3などに基づいて、対象者81との会話の内容に関する案(例えば、案I1または案I2など)が提供される。案は、ケア情報にさらに基づいても良い。 For example, in the medical treatment support system 120, the subject 81 is based on the voice information database DB1 regarding the voice V0 of the subject 81, the biological information database DB2 regarding the biological state detected by the biological sensor 20, the daily report information database DB3, and the like. A proposal regarding the content of the conversation with (eg, proposal I1 or proposal I2) is provided. The proposal may be further based on care information.

例えば、支援者80(看護師82a、介護士82bまたは家族等82cなど)において、例えば、対象者81のおける認知症による不穏行動の予兆が推定できる。例えば、痛みなどの状況の緩和のために医師83などへ相談するタイミングなどを、看護師82a、介護士82bまたは家族等82cなどに示唆できる。 For example, in the supporter 80 (nurse 82a, caregiver 82b, family member 82c, etc.), for example, a sign of disturbing behavior due to dementia in the subject 81 can be estimated. For example, the timing of consulting with a doctor 83 or the like for alleviating a situation such as pain can be suggested to a nurse 82a, a caregiver 82b, a family member 82c, or the like.

例えば、支援者80(医師83)に、対象者81との会話の内容に関する案(問診内容の案I1など)が提供される。提供された案が、問診の判断の材料、または、処方の判断の材料とされる。さらに、問診内容の案I1及び、その案I1に対する対象者81の回答が、処方の判断の材料とされる。例えば、訪問医師による対象者81の状況の把握を、より適正に行うことを支援できる。 For example, the supporter 80 (doctor 83) is provided with a proposal regarding the content of the conversation with the subject 81 (such as the proposal I1 of the interview content). The provided proposal will be used as the material for the judgment of the interview or the judgment of the prescription. Further, the draft I1 of the contents of the interview and the answers of the subject 81 to the draft I1 are used as the material for the prescription judgment. For example, it is possible to support the visiting doctor to more appropriately grasp the situation of the subject 81.

上記の実施形態及びその変形において、介護記録(例えば日報情報)が用いられても良い。例えば、音発生部12から生じる音声S1は、対象者81の声V0の他に、介護記録にさらに基づいても良い。音発生部12から生じる音声S1は、生体情報から導出された自律神経状態N1の他に、介護記録にさらに基づいても良い。例えば、提供される案(案I1、案I2、第1案または第2案)は、介護記録にさらに基づいても良い。 Long-term care records (eg, daily report information) may be used in the above embodiments and variations thereof. For example, the voice S1 generated from the sound generation unit 12 may be further based on the care record in addition to the voice V0 of the subject 81. The voice S1 generated from the sound generation unit 12 may be further based on the care record in addition to the autonomic nerve state N1 derived from the biological information. For example, the proposed proposals (Proposal I1, Proposal I2, Proposal 1 or Proposal 2) may be further based on the long-term care record.

(第6実施形態)
本実施形態においては、生体センサ20及び音センサ11の少なくともいずれかを含む組みが、複数設けられる。例えば、1つの施設に、複数の対象者81が入居し、複数の対象者81のそれぞれに、生体センサ20及び音センサ11の少なくともいずれかを含む組みが設けられる。または、例えば、複数の対象者81のそれぞれが自宅で療養している。複数の対象者81のそれぞれに、生体センサ20及び音センサ11の少なくともいずれかを含む組みが設けられる。このように、複数の組みは、複数の対象者81にそれぞれ対応して設けられる。
(Sixth Embodiment)
In this embodiment, a plurality of sets including at least one of the biological sensor 20 and the sound sensor 11 are provided. For example, a plurality of subjects 81 move into one facility, and each of the plurality of subjects 81 is provided with a set including at least one of a biological sensor 20 and a sound sensor 11. Or, for example, each of the plurality of subjects 81 is receiving medical treatment at home. Each of the plurality of subjects 81 is provided with a set including at least one of the biological sensor 20 and the sound sensor 11. In this way, the plurality of sets are provided corresponding to the plurality of target persons 81, respectively.

このような場合に、療養支援システムは、複数の対象者81に対する対応の優先順位を、複数の組みのそれぞれから得られる生体状態(または生体情報)及び感情状態(または感情情報)に基づいて提供しても良い。例えば、緊急度の高い対象者81に、支援者80(医師83、看護師82a、または、介護士82b)が、優先的に処置を行う。 In such a case, the medical treatment support system provides the priority of the response to the plurality of subjects 81 based on the biological state (or biological information) and emotional state (or emotional information) obtained from each of the plurality of sets. You may. For example, the supporter 80 (doctor 83, nurse 82a, or caregiver 82b) preferentially treats the subject 81 with a high degree of urgency.

例えば、複数の対象者81を支援する際に、複数の支援者80(看護師82aまたは介護士82b)の適正な配置の案を提案できる。より効率的な支援が可能になる。 For example, when supporting a plurality of target persons 81, it is possible to propose an appropriate arrangement of a plurality of supporters 80 (nurse 82a or caregiver 82b). More efficient support will be possible.

実施形態によれば、より良いサービスが提供できる療養支援システムが提供できる。 According to the embodiment, it is possible to provide a medical treatment support system that can provide better services.

以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらの具体例に限定されるものではない。例えば、療養支援システムに含まれる、音センサ、生体センサ及び提供部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。 Hereinafter, embodiments of the present invention have been described with reference to specific examples. However, the present invention is not limited to these specific examples. For example, regarding the specific configuration of each element such as a sound sensor, a biological sensor, and a providing unit included in the medical treatment support system, the present invention is similarly carried out by appropriately selecting from a range known to those skilled in the art. Is included in the scope of the present invention as long as the effect of the above can be obtained.

各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。 A combination of any two or more elements of each specific example to the extent technically possible is also included in the scope of the present invention as long as the gist of the present invention is included.

その他、本発明の実施形態として上述した療養支援システムを基にして、当業者が適宜設計変更して実施し得る全ての療養支援システムも、本発明の要旨を包含する限り、本発明の範囲に属する。 In addition, all medical treatment support systems that can be appropriately designed and implemented by those skilled in the art based on the medical treatment support system described above as an embodiment of the present invention are also within the scope of the present invention as long as the gist of the present invention is included. Belongs.

その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。 In addition, in the scope of the idea of the present invention, those skilled in the art can come up with various modified examples and modified examples, and it is understood that these modified examples and modified examples also belong to the scope of the present invention. ..

10…支援装置、 11…音センサ、 12…音発生部、 13…送受信部、 14…筐体、 15…近距離通信部、 16…人感センサ、 17…移動機構、 20…生体センサ、 25…通信装置、 60…処理部、 61…自律神経解析部、 70…ベッド、 71…ボトム、 76…マットレス、 80…支援者、 81…対象者、 82D…表示装置、 82a…看護師、 82b…介護士、 82c…家族等、 82s…認識タグ、 83…医師、 83D…表示装置、 110、120、130、140、150…療養支援システム、 CL1…大分類、 CL2…中分類、 CL3…小分類、 D1…生体情報パラメータ、 DB1…音声情報データベース、 DB2…生体情報データベース、 DB3…日報情報データベース、 DB4…ケア情報データベース、 DL1…しきい値、 E1…感情パラメータ、 ES1…感情情報、 I1、I2…案、 N1…自律神経状態、 S1…音声(聴覚情報)、 OS…出力情報、 V0…声、 V1…音声信号、 VS…視覚情報、 t…時間、 t1、t2…第1、第2時刻 10 ... Support device, 11 ... Sound sensor, 12 ... Sound generator, 13 ... Transmission / reception unit, 14 ... Housing, 15 ... Short-range communication unit, 16 ... Human sensor, 17 ... Movement mechanism, 20 ... Biological sensor, 25 ... Communication device, 60 ... Processing unit, 61 ... Autonomous nerve analysis unit, 70 ... Bed, 71 ... Bottom, 76 ... Mattress, 80 ... Supporter, 81 ... Target person, 82D ... Display device, 82a ... Nurse, 82b ... Caregiver, 82c ... family, etc., 82s ... recognition tag, 83 ... doctor, 83D ... display device, 110, 120, 130, 140, 150 ... medical treatment support system, CL1 ... major classification, CL2 ... middle classification, CL3 ... minor classification , D1 ... biometric information parameter, DB1 ... voice information database, DB2 ... biometric information database, DB3 ... daily report information database, DB4 ... care information database, DL1 ... threshold, E1 ... emotional parameter, ES1 ... emotional information, I1, I2 ... Draft, N1 ... Autonomous nervous state, S1 ... Voice (auditory information), OS ... Output information, V0 ... Voice, V1 ... Voice signal, VS ... Visual information, t ... Time, t1, t2 ... First, second time

Claims (4)

対象者の生体状態を検出する生体センサと、
前記対象者の声を検出する音センサと、
を備え、
前記声に基づいて推定された前記対象者の感情状態を前記生体情報とともに出力情報として提供し、
前記出力情報は、前記対象者の感情状態が異常か否か、及び前記対象者の生体情報が異常か否かを含む、療養支援システム。
A biological sensor that detects the biological condition of the subject,
The sound sensor that detects the voice of the subject and
Equipped with
The emotional state of the subject estimated based on the voice is provided as output information together with the biological information.
The output information is a medical treatment support system including whether or not the emotional state of the subject is abnormal and whether or not the biological information of the subject is abnormal.
前記対象者の要支援状態をさらに知らせ、
前記要支援状態は、前記生体状態、及び、前記声を基にした音声認識処理の少なくともいずれかに基づいて推定され、
前記要支援状態は、前記対象者の、健康状態の悪化、不穏、排泄、褥瘡、及び、転落可能性の少なくともいずれかを含む、請求項1記載の療養支援システム。
Further inform the target person of the need for support,
The support-requiring state is estimated based on at least one of the biological state and the voice-based speech recognition process.
The medical treatment support system according to claim 1, wherein the support-requiring state includes at least one of deterioration, restlessness, excretion, pressure ulcer, and possibility of falling of the subject.
音発生部をさらに備え、
前記音発生部は、前記対象者への質問及び呼びかけの少なくともいずれかの内容を含む音声を発生し、前記内容は、前記対象者の健康安全状態に関係し、前記内容は、前記生体状態及び前記声の少なくともいずれかに基づいており、
前記音センサは、前記音声の前記発生の後の前記対象者の別の声をさらに検出し、
前記感情状態は、前記別の声にさらに基づいて推定された、請求項2記載の療養支援システム。
With more sound generators
The sound generating unit generates a voice including at least one of the contents of a question and a call to the subject, the contents are related to the health and safety state of the subject, and the contents are the biological state and the biological state. Based on at least one of the above voices
The sound sensor further detects another voice of the subject after the generation of the voice.
The medical treatment support system according to claim 2, wherein the emotional state is further estimated based on the other voice.
前記対象者との会話の内容に関する案をさらに提供可能であり、
前記内容は、前記対象者の健康安全状態に関係し、
前記案は、前記生体状態及び前記声の少なくともいずれかに基づいている、請求項2または3に記載の療養支援システム。
It is possible to further provide a proposal regarding the content of the conversation with the subject.
The content is related to the health and safety status of the subject.
The medical treatment support system according to claim 2 or 3, wherein the proposal is based on at least one of the biological condition and the voice.
JP2022034262A 2017-07-12 2022-03-07 Medical treatment support system Active JP7422797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022034262A JP7422797B2 (en) 2017-07-12 2022-03-07 Medical treatment support system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017136490A JP7265313B2 (en) 2017-07-12 2017-07-12 medical support system
JP2022034262A JP7422797B2 (en) 2017-07-12 2022-03-07 Medical treatment support system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017136490A Division JP7265313B2 (en) 2017-07-12 2017-07-12 medical support system

Publications (2)

Publication Number Publication Date
JP2022095619A true JP2022095619A (en) 2022-06-28
JP7422797B2 JP7422797B2 (en) 2024-01-26

Family

ID=65353504

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017136490A Active JP7265313B2 (en) 2017-07-12 2017-07-12 medical support system
JP2022034262A Active JP7422797B2 (en) 2017-07-12 2022-03-07 Medical treatment support system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017136490A Active JP7265313B2 (en) 2017-07-12 2017-07-12 medical support system

Country Status (1)

Country Link
JP (2) JP7265313B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7238910B2 (en) * 2019-02-08 2023-03-14 日本電気株式会社 Biological information processing device, method, and program
JP6737416B1 (en) * 2019-03-15 2020-08-12 ダイキン工業株式会社 Environmental control system
JP2021108021A (en) * 2019-12-27 2021-07-29 パナソニックIpマネジメント株式会社 Emotion analysis system and emotion analysis method
WO2022208581A1 (en) * 2021-03-29 2022-10-06 日本電気株式会社 Learning device, determination device, method for generating trained model, and recording medium
JP7349038B1 (en) * 2022-04-08 2023-09-21 株式会社イトーキ Care robot control device and care robot system
WO2024195570A1 (en) * 2023-03-23 2024-09-26 ソフトバンクグループ株式会社 Action control system, information presentation system, program, and robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017842A (en) * 2004-06-30 2006-01-19 Keakomu:Kk Nurse call system
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP2011239885A (en) * 2010-05-17 2011-12-01 Chiba Inst Of Technology System of medical examination by interview
JP2012000449A (en) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk Behavior analysis method and apparatus
JP2012205710A (en) * 2011-03-29 2012-10-25 Nippon Koden Corp Alarm information-processing apparatus and alarm information-processing program
JP2014134922A (en) * 2013-01-09 2014-07-24 Sony Corp Information processing apparatus, information processing method, and program
JP2017100221A (en) * 2015-11-30 2017-06-08 パナソニックIpマネジメント株式会社 Communication robot

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102113034A (en) * 2008-05-12 2011-06-29 阿列森斯有限公司 Monitoring, predicting and treating clinical episodes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006017842A (en) * 2004-06-30 2006-01-19 Keakomu:Kk Nurse call system
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP2011239885A (en) * 2010-05-17 2011-12-01 Chiba Inst Of Technology System of medical examination by interview
JP2012000449A (en) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk Behavior analysis method and apparatus
JP2012205710A (en) * 2011-03-29 2012-10-25 Nippon Koden Corp Alarm information-processing apparatus and alarm information-processing program
JP2014134922A (en) * 2013-01-09 2014-07-24 Sony Corp Information processing apparatus, information processing method, and program
JP2017100221A (en) * 2015-11-30 2017-06-08 パナソニックIpマネジメント株式会社 Communication robot

Also Published As

Publication number Publication date
JP7265313B2 (en) 2023-04-26
JP7422797B2 (en) 2024-01-26
JP2019017499A (en) 2019-02-07

Similar Documents

Publication Publication Date Title
JP2022095619A (en) Recuperation support system
Pham et al. Delivering home healthcare through a cloud-based smart home environment (CoSHE)
US11701041B2 (en) Robotic interactions for observable signs of intent
US20140121540A1 (en) System and method for monitoring the health of a user
Rattanyu et al. Emotion monitoring from physiological signals for service robots in the living space
Woo et al. Robot partner system for elderly people care by using sensor network
Favela et al. Monitoring behavioral symptoms of dementia using activity trackers
Dahlke et al. mHealth applications use and potential for older adults, overview of
Maeda et al. Recording daily health status with chatbot on mobile phone-a preliminary study
US20200075160A1 (en) Systems and methods for seva: senior's virtual assistant
Fernández‐Caballero et al. Gerontechnologies-Current achievements and future trends.
Cruz-Sandoval et al. Towards an adaptive conversational robot using biosignals
WO2022119810A1 (en) System and method for prevention, diagnosis, and treatment of health conditions
Newcombe et al. Internet of Things enabled technologies for behaviour analytics in elderly person care: a survey
Newcombe et al. Experimental analysis of cost-effective mobile sensing technologies for activity analytics in elderly care
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
JP2021108021A (en) Emotion analysis system and emotion analysis method
Zhang et al. Evaluation of Smart Agitation Prediction and Management for Dementia Care and Novel Universal Village Oriented Solution for Integration, Resilience, Inclusiveness and Sustainability
Koszalinski et al. Use of sensors for fall prediction in older persons: a scoping review
JP2019192071A (en) Support system and support method
JP2020177383A (en) Watching system for elderly person or the like
US20230105048A1 (en) Robot control method and information providing method
Abdulghafor et al. Body Language Analysis in Healthcare: An Overview. Healthcare 2022, 10, 1251
JP2023155861A (en) Health control and safety watchout robot system
JP2022190756A (en) Action information gathering device, method and software

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R150 Certificate of patent or registration of utility model

Ref document number: 7422797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150