JP2023059601A - Program, information processing method, and information processing apparatus - Google Patents
Program, information processing method, and information processing apparatus Download PDFInfo
- Publication number
- JP2023059601A JP2023059601A JP2021169700A JP2021169700A JP2023059601A JP 2023059601 A JP2023059601 A JP 2023059601A JP 2021169700 A JP2021169700 A JP 2021169700A JP 2021169700 A JP2021169700 A JP 2021169700A JP 2023059601 A JP2023059601 A JP 2023059601A
- Authority
- JP
- Japan
- Prior art keywords
- event
- person
- monitored
- data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003860 storage Methods 0.000 claims abstract description 50
- 230000000474 nursing effect Effects 0.000 claims description 175
- 238000012544 monitoring process Methods 0.000 claims description 63
- 238000000034 method Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 42
- 230000004044 response Effects 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 51
- 230000033001 locomotion Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 230000029058 respiratory gaseous exchange Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 230000036760 body temperature Effects 0.000 description 6
- 208000008784 apnea Diseases 0.000 description 5
- 230000007257 malfunction Effects 0.000 description 5
- 208000024891 symptom Diseases 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 239000003814 drug Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 208000010496 Heart Arrest Diseases 0.000 description 2
- 206010038669 Respiratory arrest Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 238000009535 clinical urine test Methods 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000002934 diuretic Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011328 necessary treatment Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本願は、プログラム、情報処理方法、及び情報処理装置に関する。 The present application relates to a program, an information processing method, and an information processing apparatus.
介護施設では、複数のスタッフが複数の被介護者に対して身体介護及び生活援助等の介護ケアを行っている。このような状況では、例えば各スタッフがインカム(インターカム)を携帯し、インカムを用いてスタッフ間でコミュニケーションをとりながら介護ケアを行うことにより、被介護者に対する適切な介護ケアを効率よく行うことを実現している。特許文献1では、作業者(介護スタッフ)の発話音声から作業対象(被介護者)及び作業内容(介護作業の内容)を特定し、特定した作業の実施が、予め設定された条件(作業の実施順序の条件等)を満たさない場合に作業者にアラートを通知するシステムが提案されている。
In nursing care facilities, a plurality of staff members provide nursing care such as physical care and life support to a plurality of care recipients. In such a situation, for example, each staff member carries an intercom and uses the intercom to communicate with each other while providing nursing care. is realized. In
特許文献1に開示されたシステムでは、介護スタッフの発話音声から介護スタッフの作業内容を特定することはできるが、被介護者がどのような状態であるかは介護スタッフが確認する必要がある。また、特許文献1に開示されたシステムでは、各作業を実施する際の発話内容のパターンが決められており、介護スタッフは、決められたパターンで発話する必要があり、介護スタッフの負担を軽減することは難しい。
In the system disclosed in
本開示は、斯かる事情に鑑みてなされたものであり、その目的とするところは、介護スタッフの負担を増大させることなく、監視対象者(被介護者)の状態に対する介護者の会話内容を蓄積することが可能なプログラム等を提供することにある。 The present disclosure has been made in view of such circumstances, and the purpose thereof is to provide information on the content of a caregiver's conversation regarding the status of a person to be monitored (care recipient) without increasing the burden on the care staff. The object is to provide a program or the like that can be accumulated.
本発明の一態様に係るプログラムは、介護施設内の監視対象者の状態又は前記監視対象者の周囲の状態を検知するセンサからのセンサデータを取得し、取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、判定したイベントの発生を複数の介護者の端末へ出力し、前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、取得した音声データをテキストデータに変換し、前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する処理をコンピュータに実行させる。 A program according to an aspect of the present invention acquires sensor data from a sensor that detects the state of a person to be monitored in a nursing care facility or the state of the surroundings of the person to be monitored, and based on the acquired sensor data, performs the monitoring An event occurring around the target person or the monitoring target person is determined, the occurrence of the determined event is output to terminals of a plurality of caregivers, and the plurality of caregivers converse from the terminals of the plurality of caregivers. acquire voice data, convert the acquired voice data into text data, associate the determined event with the text data converted from the voice data of the conversations of the plurality of caregivers regarding the event, and store the text data in a storage unit; Make the computer perform the process to
本発明の一態様では、監視対象者の状態を判定し、何らかのイベントが発生した場合に、発生したイベントに対して介護者が行った会話の内容を、イベントに対応付けて蓄積することができる。 According to one aspect of the present invention, the state of a monitoring subject can be determined, and when an event occurs, the contents of a conversation made by a caregiver in response to the event can be stored in association with the event. .
以下に、本開示のプログラム、情報処理方法、及び情報処理装置について、その実施形態を示す図面に基づいて詳述する。 A program, an information processing method, and an information processing apparatus of the present disclosure will be described in detail below based on drawings showing embodiments thereof.
(実施形態1)
図1は、情報処理システムの構成例を示す説明図である。本実施形態では、介護施設の各居室で生活している高齢者及び心身障害者等の被介護者の状態を監視し、介護スタッフによる介護ケアが必要である状況を検知した場合に、介護スタッフに通知する情報処理システムについて説明する。以下の説明では、被介護者を監視対象者と呼び、介護スタッフによる介護ケアが必要である状況の発生をイベントの発生と呼ぶ。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of an information processing system. In this embodiment, the state of care recipients such as elderly people and people with mental and physical disabilities living in each room of a nursing care facility is monitored, and when a situation in which nursing care by nursing staff is required is detected, nursing staff An information processing system that notifies to will be described. In the following description, the cared person is called a monitoring target person, and the occurrence of a situation requiring nursing care by a care staff is called the occurrence of an event.
本実施形態の情報処理システムは、サーバ10、センサI/F(InterFace)装置20、スタッフ端末30等を含み、サーバ10、センサI/F装置20及びスタッフ端末30はネットワークNを介して通信接続されている。ネットワークNは、インターネットであってもよく、介護施設内に設けられたLAN(Local Area Network)であってもよい。
The information processing system of this embodiment includes a
センサI/F装置20は、例えば監視対象者毎に設けられており、センサI/F装置20には、監視対象者の状態及び監視対象者の周囲の状態を検知するために設けられた複数種類のセンサが接続されている。図1に示す例では、睡眠センサ21、トイレセンサ22、ドアセンサ23、環境センサ24、人感センサ25及び呼出ボタン26が、センサI/F装置20に有線又は無線で接続されている。センサI/F装置20は、各センサ21~25及び呼出ボタン26からの信号を取得し、取得した信号をネットワークN経由でサーバ10へ送信する情報処理装置である。いずれかのセンサ21~25がアナログ信号を出力する場合、センサI/F装置20は、A/D変換を行う構成を有し、センサ21~25からの信号をA/D変換した後にサーバ10へ送信する。
The sensor I/
センサI/F装置20、センサ21~25及び呼出ボタン26は、例えば監視対象者が生活している部屋(居室)に設けられるが、1人の監視対象者に対して、センサI/F装置20、センサ21~25及び呼出ボタン26の1セットが設けられる構成に限定されない。例えば1人の監視対象者に対して、複数のセンサI/F装置20を設け、睡眠センサ21とトイレセンサ22とが別々のセンサI/F装置20に接続される構成でもよい。また、1人の監視対象者に対して、複数の環境センサ24又は複数の人感センサ25を設け、複数のセンサ24,25が1つのセンサI/F装置20に接続される構成でもよい。センサI/F装置20は、各センサ21~25及び呼出ボタン26の設置場所に応じた位置に適宜配置されればよく、また、各センサ21~25及び呼出ボタン26に内蔵されていてもよい。なお、図1では、監視対象者Bに対してセンサI/F装置20のみを図示しているが、このセンサI/F装置20にも各センサ21~25及び呼出ボタン26が接続されている。
The sensor I/
睡眠センサ21は、1人の監視対象者のベッドに1台設置される。睡眠センサ21は、例えばシート状のセンサであり、ベッドマットレスとシーツとの間に設置され、ベッドに横たわった人物の脈拍、呼吸、体動、体温等を検知する。睡眠センサ21は、例えばコンデンサマイクロホン、ピエゾ抵抗効果を利用した圧力センサ、圧電効果を利用した圧力センサ等を使用し、ベッドに設置されたエアマット内の空気圧を検知することにより、監視対象者の入床及び出床(離床)、在床中(睡眠中)の心拍数、呼吸状態及び体動状態等を検知する。なお、睡眠センサ21は、ベッドの枕元又は部屋の壁に設置され、マイクロ波又は赤外線により監視対象者の入床及び出床、ベッドに横たわった人物の脈拍、呼吸、体動、体温等を検出するセンサを使用してもよい。睡眠センサ21は、検知した信号に基づいて、入床及び出床、体動、無呼吸の発生状態、睡眠深度、中途覚醒の発生状態(睡眠が中断し覚醒状態になっている状態)、心拍数、呼吸数、体温等の睡眠データを解析してセンサI/F装置20へ出力する。
One
トイレセンサ22は、監視対象者の居室内に設けられているトイレに設置されたセンサであり、トイレが使用中であることを検知する。トイレセンサ22は、例えばトイレ(便座)への着座を検知するセンサ、又は、トイレ内の人の存在を検知する人感センサを用いることができ、トイレが使用中であることを検知した場合、検知結果(トイレの使用中)を示す検知信号をセンサI/F装置20へ出力する。ドアセンサ23は、監視対象者の居室に出入りするためのドアに設置されたセンサであり、ドアの開閉又はドアを人物が通過したことを検知する。ドアセンサ23は、ドアの開閉又はドアを人物が通過したことを検知した場合、検知した状態を示す検知信号をセンサI/F装置20へ出力する。
The
環境センサ24は、監視対象者の居室内の温度及び湿度等の環境データを計測するセンサである。環境センサ24は、例えば居室の壁面等に設置される。環境センサ24は、計測した温度及び湿度等の環境データをセンサI/F装置20へ出力する。人感センサ25は、監視対象者の居室内に人が存在するか否かを検知するセンサであり、例えば赤外線、超音波、可視光線等を出射してその反射波を検知することにより人の存在を検知する。人感センサ25は、例えば居室の壁面等に設置される。人感センサ25は、人の存在を検知した場合、居室内に人がいることを示す検知信号をセンサI/F装置20へ出力する。
The
呼出ボタン26は、監視対象者が自身の判断で救援を希望する場合に手動で操作するボタンであり、例えば監視対象者の居室の壁面等に設置される。呼出ボタン26は、監視対象者によって操作された場合、操作されたことを示す検知信号をセンサI/F装置20へ出力する。
The
本実施形態では、各監視対象者について、センサI/F装置20、センサ21~25及び呼出ボタン26が設けられており、センサI/F装置20、センサ21~25及び呼出ボタン26のそれぞれに、監視対象者が対応付けられている。このような構成のほかに、1つのセンサ21~25が複数の監視対象者を検知する可能性がある箇所に設置されている場合には、顔認証又はID(IDentification)タグ等を併用することにより、各センサ21~25が検知した監視対象者を特定する構成を備えてもよい。
In this embodiment, a sensor I/
センサI/F装置20は、各センサ21~25及び呼出ボタン26からの信号を取得し、取得した信号に応じた情報(監視対象者の状態を示す情報)をネットワークN経由でサーバ10へ送信する。サーバ10は、例えば介護施設に設けられており、本実施形態の情報処理システムを利用する介護事業者が管理するサーバである。なお、サーバ10は、本実施形態の情報処理システムを介護施設に提供する事業者が管理するサーバであってもよい。サーバ10は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。サーバ10は、各監視対象者に対して設けられたセンサI/F装置20から逐次受信する監視対象者の情報を蓄積し、介護ケアが必要である状況(イベント)が発生した場合、介護スタッフのスタッフ端末30に、イベントの発生を通知する。
The sensor I/
スタッフ端末30は、介護施設の介護スタッフが携帯する情報端末であり、例えばインカム、スマートフォン、タブレット端末等の持ち運び可能な通信端末である。スタッフ端末30は、サーバ10から受信した通知情報を出力することにより、各監視対象者の状態(発生したイベント)を介護スタッフに通知する。また、スタッフ端末30は、他のスタッフ端末30との間で音声メッセージの送受信を行うように構成されており、介護スタッフはスタッフ端末30を介して他の介護スタッフとの間で会話できる。本実施形態では、スタッフ端末30として、ヘッドセットにマイク35、イヤホン36及び通信部34(全て図2参照)が設けられたインカムを用いる構成とするが、この構成に限定されない。例えば、スマートフォン又はタブレット端末に、マイクと、イヤホン又はヘッドホンとが設けられたヘッドセットを有線又は無線で接続して、スタッフ端末30として用いてもよい。
The
図2は、サーバ10及びスタッフ端末30の構成例を示すブロック図である。スタッフ端末30は、制御部31、主記憶部32、補助記憶部33、通信部34、マイク35、イヤホン36等を有し、これらの各部はバスを介して接続されている。制御部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部31は、補助記憶部33に記憶されたプログラム33Pを主記憶部32に読み出して実行することにより、スタッフ端末30が行うべき情報処理及び制御処理を実行する。
FIG. 2 is a block diagram showing a configuration example of the
主記憶部32は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部31による各種のプログラム33Pの実行時に発生するデータを一時的に記憶する。補助記憶部33は、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等の不揮発性記憶領域であり、制御部31が実行する種々のプログラム33P(プログラム製品)及び各種のデータを記憶している。また補助記憶部33は、ネットワークNを介して他のスタッフ端末30との間で音声メッセージの送受信を行うための会話アプリケーションプログラム33AP(以下では会話アプリ33APという)を記憶している。プログラム33P、会話アプリ33AP及び各種のデータは、スタッフ端末30の製造段階において補助記憶部33に書き込まれてもよく、制御部31が通信部34を介して他の装置からダウンロードして補助記憶部33に記憶してもよい。補助記憶部33は、スタッフ端末30に接続された他の記憶装置であってもよい。
The
通信部34は、無線通信に関する処理を行うための通信モジュールであり、ネットワークNを介して他の装置との間で情報の送受信を行う。マイク35は、周囲の音声を収集してデジタルの音声データを生成する音声入力部であり、取得した音声データを例えば主記憶部32へ送出して記憶させる。イヤホン36は、制御部31からの指示に従って音声を出力する音声出力部であり、制御部31からの指示に従ったメッセージ又は警告音を音声出力する。なお、スタッフ端末30は、イヤホン36の代わりにヘッドホン又はスピーカを備える構成でもよい。
The
スタッフ端末30は、上述した構成に加えて、介護スタッフによる操作入力を受け付ける入力部、液晶ディスプレイ又は有機ELディスプレイ等による表示部、及びカメラ等を有していてもよい。
In addition to the configuration described above, the
サーバ10は、制御部11、主記憶部12、補助記憶部13、通信部14等を有し、これらの各部はバスを介して接続されている。サーバ10の上述した各部11~14は、スタッフ端末30の各部31~34と同様の構成を有するので、構成についての説明は省略する。なお、サーバ10の補助記憶部13は、制御部11が実行する種々のプログラム13P(プログラム製品)に加えて、監視対象者DB13a、センサデータDB13b、及びイベントDB13cを記憶している。監視対象者DB13aは、本システムにおける監視対象者に関する情報を格納するデータベースである。センサデータDB13bは、各センサ21~25が検知した監視対象者の状態及び呼出ボタン26に対する操作状態を格納するデータベースである。イベントDB13cは、各監視対象者に対して発生したイベントに関する情報を格納するデータベースである。監視対象者DB13a、センサデータDB13b、及びイベントDB13cは、サーバ10がネットワークN経由で通信可能な他の記憶装置に記憶されていてもよい。
The
本実施形態において、サーバ10は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよく、クラウドサーバであってもよい。また、サーバ10は、上述した構成に加えて、操作入力を受け付ける入力部、液晶ディスプレイ又は有機ELディスプレイ等による表示部等を有していてもよい。また、サーバ10は、非一時的なコンピュータ読取可能な可搬型記憶媒体10aを読み取る読取部を備え、読取部を用いて可搬型記憶媒体10aからプログラム13Pを読み取って補助記憶部13に記憶してもよい。また、プログラム13Pは単一のコンピュータ上で実行されてもよく、ネットワークNを介して相互接続された複数のコンピュータ上で実行されてもよい。
In this embodiment, the
図3は、監視対象者DB13a、センサデータDB13b及びイベントDB13cのレコードレイアウトの一例を示す説明図である。監視対象者DB13aは、対象者ID列、氏名列、年齢列、性別列、部屋番号列、通知対象イベント列を含む。対象者ID列は、監視対象者に固有に割り当てられたIDを記憶する。氏名列、年齢列、性別列、及び部屋番号列は、対象者IDに対応付けて、監視対象者の氏名、年齢、性別、居室の番号(部屋番号)を記憶する。通知対象イベント列は、監視対象者に発生したイベントのうちで介護スタッフに通知すべきイベントの情報(例えばイベント名、イベントの識別情報)を記憶する。
FIG. 3 is an explanatory diagram showing an example of record layouts of the monitored
イベントは、監視対象者の状態又は監視対象者の周囲の環境に発生する事象であり、通常の状態とは異なる事象、介護スタッフに通知(アラート)すべき事象、及び介護ケアを要する事象等を含む。例えばイベントは、監視対象者の離床(出床)、入床中(在床中、就寝中)の監視対象者の体動の増加、トイレの使用及び長時間のトイレ滞在、ドアの開放又は人の通過、所定範囲外の室温又は湿度、監視対象者の心拍又は呼吸等の停止、各センサ21~25又はセンサI/F装置20の動作停止、呼出ボタン26の操作等を含む。また、情報処理システムにおいて、介護施設の玄関又は各監視対象者の居室のドア等に、顔認証又はIDタグ等を使用した個人認証端末が設けられている場合、予め登録してある登録者(監視対象者及び介護スタッフ)の検知、未登録者の検知、監視対象者の徘徊等をイベントに含めてもよい。イベントの発生は、サーバ10の制御部11が、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて判定する。なお、制御部11は、各監視対象者に対するイベントの発生を判定した場合、判定したイベントの情報をイベントDB13cに登録する。
An event is an event that occurs in the monitored person's condition or the surrounding environment of the monitored person. include. For example, an event may include a person to be monitored leaving the bed (getting out of bed), an increase in body movement of the person to be monitored while in bed (in bed, sleeping), use of the toilet and staying in the toilet for a long time, opening the door, or room temperature or humidity out of a predetermined range, heartbeat or respiration of the person to be monitored stops, operation of the
センサデータDB13bは、監視対象者毎に設けられ、監視対象者の対象者IDに対応付けて、各センサ21~25による検知結果及び呼出ボタン26に対する操作情報を記憶する。センサデータDB13bは、日時列、睡眠センサ列、トイレセンサ列、ドアセンサ列、環境センサ列、人感センサ列、呼出ボタン列を含む。日時列は、各センサ21~25による検知日時及び呼出ボタン26に対する操作日時を記憶する。なお、日時列は、サーバ10が各センサ21~25及び呼出ボタン26から検知結果及び操作情報を取得した日時を記憶してもよい。睡眠センサ列は、睡眠センサ21が検知した監視対象者の睡眠時の状態を示す睡眠データを記憶する。睡眠データは、入床及び出床の状態を示すデータ、体動の大きさを示す体動データ、無呼吸現象の発生状態を示す無呼吸データ、睡眠深度を示す睡眠深度データ、心拍数を示す心拍数データ、呼吸数を示す呼吸数データ、体温を示す体温データを含む。なお、睡眠データは、日時に対応付けて各データが記憶される構成のほかに、監視対象者の状態の時間的変化を示すグラフのデータが記憶されてもよい。例えば、入床及び出床の状態の時間的変化を示すグラフ、体動の時間的変化を示すグラフ、無呼吸現象の発生状態の時間的変化を示すグラフ、睡眠深度の時間的変化を示すグラフ、心拍数の時間的変化を示すグラフ、呼吸数の時間的変化を示すグラフ、体温の時間的変化を示すグラフが睡眠センサ列に記憶されてもよい。グラフのデータは、例えば睡眠センサ21が計測を行った時刻と計測した値との組を、計測を行うたびに記録した一連のデータである。なお、無呼吸現象は、睡眠中に口及び鼻の気流が10秒間以上停止する現象である。睡眠深度は、例えば目覚め、浅い眠り及び深い眠りの3段階で検出され、睡眠深度データには、中途覚醒の発生状態及び一日の合計睡眠時間が含まれてもよい。
The
トイレセンサ列は、トイレセンサ22が監視対象者によるトイレの使用を検知したか否かを示す情報(使用/不使用)を記憶する。ドアセンサ列は、ドアセンサ23がドアの開放又は監視対象者によるドアの通過を検知したか否かを示す情報(通過/動き無し)を記憶する。環境センサ列は、環境センサ24が検知した監視対象者の居室内の温度及び湿度を示す環境データを記憶する。環境データも、日時に対応付けて温度及び湿度が記憶される構成のほかに、温度及び湿度の時間的変化を示すグラフのデータが環境センサ列に記憶されてもよい。人感センサ列は、人感センサ25が監視対象者の存在(在室)を検知したか否かを示す情報(存在/不在)を記憶する。呼出ボタン列は、監視対象者が呼出ボタン26を操作(使用)したか否かを示す情報(使用/不使用)を記憶する。サーバ10の制御部11は、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて、センサデータDB13bの各列を更新する。なお、トイレセンサ列には、トイレの使用を示す情報(使用)のみが記憶されてもよく、ドアセンサ列には、ドアの通過を示す情報(通過)のみが記憶されてもよく、人感センサ列には、監視対象者の存在を示す情報(存在)のみが記憶されてもよく、呼出ボタン列には、呼出ボタン26の操作を示す情報(使用)のみが記憶されてもよい。
The toilet sensor column stores information (used/not used) indicating whether or not the
イベントDB13cは、監視対象者毎に設けられ、監視対象者の対象者IDに対応付けて、監視対象者に発生したイベントの情報を記憶する。イベントDB13cは、日時列、イベント項目列、イベント内容列、会話テキスト列、会話音声列、進捗情報列を含む。日時列は、イベントの発生日時であり、サーバ10の制御部11が、各センサ21~25及び呼出ボタン26から取得した情報に基づいてイベントの発生を判定した日時を記憶する。イベント項目列及びイベント内容列は、発生したイベントに関する項目及びその内容を記憶する。例えば監視対象者に中途覚醒による離床というイベントが発生した場合、イベント項目として「離床」が、イベント内容として「中途覚醒」がそれぞれ登録される。また、所定範囲外の室温というイベントが発生した場合、イベント項目として「室温」が、イベント内容として「30℃(計測した室温)」がそれぞれ登録される。また、長時間のトイレ滞在というイベントが発生した場合、イベント項目として「トイレ」が、イベント内容として「20分(計測した時間)」がそれぞれ登録される。また、入床中における体動の増加というイベントが発生した場合、イベント項目として「体動」が、イベント内容として「増加」がそれぞれ登録される。また、呼出ボタン26の操作というイベントが発生した場合、イベント項目として「呼出」が登録される。会話音声列は、イベントに対して介護スタッフが行った会話の音声データを記憶し、会話テキスト列は、会話の音声データをテキスト変換して得られたテキストデータを記憶する。会話の音声データ及びテキストデータは、スタッフ端末30が当該音声データを送信した日時、及び発話している介護スタッフの情報を含む。進捗情報列は、発生したイベントに対して介護スタッフによる対応(以下では介護ケアという)の進捗状況を示す情報を記憶し、例えば介護ケアが終了した場合「済」が記憶される。イベントDB13cは図3に示した構成に限定されない。例えばイベントの項目及び内容に対応付けて、当該イベントに対して介護スタッフが監視対象者に介護ケアを行う際に撮影した写真及び動画、並びに録音した音声等がイベントDB13cに記憶される構成でもよい。
The
サーバ10の制御部11は、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて、監視対象者に何らかのイベントの発生を検知した場合、イベントDB13cの日時列、イベント項目列及びイベント内容列を更新する。また、制御部11は、スタッフ端末30間で音声でやり取りされる会話を取得しており、取得した会話音声をテキストデータに変換した場合に、生成した会話テキストを会話テキスト列に記憶し、会話音声を会話音声列に記憶する。なお、イベントDB13cには、監視対象者に発生した全てのイベントの情報が登録されるが、発生したイベントのうちで、監視対象者DB13aに登録してある通知対象イベントについてのみイベントの発生が介護スタッフに通知される。よって、イベントDB13cの会話テキスト列及び会話音声列には、介護スタッフに通知されたイベントに対して介護スタッフ間でやり取りされた会話に関するテキスト及び音声が記憶される。このような構成のほかに、介護スタッフに通知されたイベント(通知対象イベントに登録してあるイベント)の情報のみがイベントDB13cに登録される構成でもよい。
Based on the information obtained from the
以下に、本実施形態の情報処理システムにおいて各装置が行う処理について説明する。図4及び図5は、情報処理システムにおける処理手順の一例を示すフローチャートである。図4及び図5では左側にサーバ10が行う処理を、右側にスタッフ端末30が行う処理をそれぞれ示す。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行されると共に、スタッフ端末30の補助記憶部33に記憶してあるプログラム33P及び会話アプリ33APに従って制御部31によって実行される。以下の処理において、センサI/F装置20は、各センサ21~25による検知信号及び呼出ボタン26からの操作信号を取得した場合、取得した信号をネットワークN経由でサーバ10へ送信する処理を行っている。なお、センサI/F装置20は、サーバ10からの信号要求に応じて、各センサ21~25及び呼出ボタン26からの信号をサーバ10へ送信する構成でもよい。
Processing performed by each device in the information processing system of this embodiment will be described below. 4 and 5 are flowcharts showing an example of a processing procedure in the information processing system. 4 and 5, the processing performed by the
サーバ10の制御部11は、いずれかのセンサI/F装置20を経由して、当該センサI/F装置20に接続されているセンサ21~25又は呼出ボタン26からの信号(センサデータ)を受信したか否かを判断している(S11)。制御部11は、センサデータを受信していないと判断した場合(S11:NO)、受信するまで待機する。制御部11(センサデータ取得部)は、センサデータを受信したと判断した場合(S11:YES)、受信したセンサデータが、どの監視対象者の状態を検知したセンサデータであるかを特定する(S12)。例えば、サーバ10に、各監視対象者の識別情報(対象者ID)と、各センサI/F装置20の識別情報(装置ID)とを対応付けて登録したテーブルを記憶しておき、センサI/F装置20が、センサデータと、当該センサI/F装置20の識別情報とをサーバ10へ送信するように構成しておく。この場合、サーバ10の制御部11は、センサI/F装置20から受信したセンサI/F装置20の識別情報とテーブルとに基づいて、受信したセンサデータに対応する監視対象者を特定できる。また、センサI/F装置20が、対応する監視対象者の識別情報を記憶しておき、センサデータと、監視対象者の識別情報とをサーバ10へ送信するように構成しておいてもよい。この場合、サーバ10の制御部11は、センサI/F装置20から受信した監視対象者の識別情報に基づいて、受信したセンサデータに対する監視対象者を特定できる。
The
制御部11は、特定した監視対象者のセンサデータDB13bに、この時点の日時と、受信したセンサデータとを対応付けて記憶する(S13)。制御部11(判定部)は、センサデータDB13bに記憶したセンサデータに基づいて、ここでの監視対象者に発生したイベントを特定する(S14)。例えば睡眠センサ21から監視対象者の離床を示す信号を受信した場合、制御部11は、監視対象者の離床というイベントの発生を特定する。また、睡眠センサ21から体動の状態を示す信号を受信した場合、制御部11は、受信した信号が示す体動の大きさが所定値以上であれば、ベッド上の監視対象者の体動が大きいというイベントの発生を特定する。また、トイレセンサ22からトイレの使用を示す信号を受信した場合、制御部11は、トイレの使用というイベントの発生を特定する。また、制御部11は、トイレの使用を示す信号を所定時間以上継続して受信した場合、長時間のトイレ滞在というイベントの発生を特定する。また、ドアセンサ23からドアの開放を示す信号を受信した場合、制御部11は、ドアの開放というイベントの発生を特定する。また、制御部11は、環境センサ24から温度(室温)を示す信号を受信した場合、受信した温度が所定範囲以上であれば、高温状態というイベントの発生を特定し、受信した温度が所定範囲未満であれば、低温状態というイベントの発生を特定する。また、制御部11は、環境センサ24から湿度を示す信号を受信した場合、受信した湿度が所定範囲以上であれば、湿度が高い(多湿)状態というイベントの発生を特定し、受信した湿度が所定範囲未満であれば、湿度が低い(乾燥)状態というイベントの発生を特定する。また、睡眠センサ21から心拍数ゼロ及び呼吸数ゼロを示す信号を受信した場合、制御部11は、生体反応を検知できない(心拍及び呼吸の停止)というイベントの発生を特定する。また、呼出ボタン26からの操作信号を受信した場合、制御部11は、呼出ボタン26の操作というイベントの発生を特定する。また、制御部11は、いずれかのセンサI/F装置20からの信号、又はいずれかのセンサ21~26からの信号を所定時間以上受信しなかった場合、いずれかのセンサI/F装置20、又はいずれかのセンサ21~25の動作不良というイベントの発生を特定する。
The
また、介護施設の適宜箇所に顔認証又はIDタグ等を使用した個人認証端末が設けられている場合、制御部11は、個人認証端末から受信した信号に基づいて、登録者の検知、及び未登録者の検知というイベントの発生を特定する。また、1つの個人認証端末によって同じ監視対象者を所定時間内に所定回数以上検知した場合、制御部11は、当該監視対象者の徘徊というイベントの発生を特定する。制御部11によって発生が検知されるイベントは、上述したイベントに限定されず、監視対象者又は監視対象者の周囲に発生するイベントであればよく、各センサ21~26による検知信号に基づいて特定できる各種の状態を含めることができる。なお、体動、トイレの滞在時間、温度、湿度が正常範囲であるか否かを判定するための基準値は、サーバ10の補助記憶部13に予め記憶されており、監視対象者毎に設定された基準値が予め記憶されていてもよい。
In addition, when a personal authentication terminal using face authentication or an ID tag is provided at an appropriate location in the nursing care facility, the
制御部11は、ここでの監視対象者のイベントDB13cに、イベント発生の特定に使用したセンサデータの検知日時と、判定したイベントの情報とを対応付けて記憶する(S15)。例えば制御部11は、監視対象者の睡眠中の中途覚醒による離床というイベントの発生を特定した場合、イベント項目として「離床」を記憶し、イベント内容として「中途覚醒」を記憶する。また制御部11は、体動が大きいというイベントの発生を特定した場合、イベント項目として「体動」を記憶し、イベント内容として「大きい」又は「増加」を記憶する。また制御部11は、トイレの使用というイベントの発生を特定した場合、イベント項目として「トイレ」を記憶し、更に長時間のトイレ滞在というイベントの発生を特定した場合、イベント内容としてトイレの滞在時間を記憶する。また制御部11は、ドアの開放というイベントの発生を特定した場合、イベント項目として「ドア」を記憶し、イベント内容として「開放」を記憶する。また制御部11は、高温状態又は低温状態というイベントの発生を特定した場合、イベント項目として「室温」を記憶し、イベント内容として、計測した室温を記憶する。また制御部11は、多湿状態又は乾燥状態というイベントの発生を特定した場合、イベント項目として「湿度」を記憶し、イベント内容として、計測した湿度を記憶する。また制御部11は、心拍及び呼吸の停止というイベントの発生を特定した場合、イベント項目として「心拍」を記憶し、イベント内容として、計測した心拍数及び呼吸数(計測数ゼロ)を記憶する。また制御部11は、呼出ボタン26の操作というイベントの発生を特定した場合、イベント項目として「呼出ボタン」を記憶し、イベント内容として「操作」を記憶する。また制御部11は、センサI/F装置20又はセンサ21~25の動作不良というイベントの発生を特定した場合、イベント項目として「機器不良」を記憶し、イベント内容として、動作不要の発生が検知された機器の機器情報を記憶する。
The
また制御部11は、登録者の検知、及び未登録者の検知というイベントの発生を特定した場合、イベント項目として「人検知」を記憶し、イベント内容として検知した監視対象者又は未登録者を示す情報を記憶する。また制御部11は、監視対象者の徘徊というイベントの発生を特定した場合、イベント項目として「徘徊」を記憶し、イベント内容として検知した監視対象者の情報を記憶する。なお、個人認証端末が監視対象者の共用エリアに設けられている場合、サーバ10に介護施設用のイベントDBを用意し、登録者の検知、未登録者の検知、及び監視対象者の徘徊を示すイベント情報と、個人認証端末の識別情報又は設置場所情報とが介護施設用のイベントDBに記憶されるように構成してもよい。
Further, when the
制御部11は、ステップS14で特定したイベントが、介護スタッフへの通知対象のイベントであるか否かを判断する(S16)。ここでは、制御部11は、ステップS12で特定した監視対象者に対して設定されている通知対象イベントに、ステップS14で特定したイベントが含まれるか否かを判断する。通知対象のイベントではないと判断した場合(S16:NO)、制御部11は、処理を終了する。なお、制御部11は、センサI/F装置20からセンサデータを受信する都度、ステップS12以降の処理を実行する。これにより、サーバ10は、センサI/F装置20から受信するセンサデータを各監視対象者のセンサデータDB13bに蓄積すると共に、各監視対象者に発生したイベントの情報をイベントDB13cに蓄積する。
The
通知対象のイベントであると判断した場合(S16:YES)、制御部11は、介護スタッフに通知すべきアラート情報を生成する(S17)。アラート情報は、通知対象のイベントの内容と、当該イベントが発生した監視対象者の情報とを含む。例えば監視対象者の離床というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者が離床したことを示すメッセージとを含むアラート情報を生成する。具体的には、「503号室、山田太郎様、離床しました」のようなアラート情報を生成する。また、体動が大きいというイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者の体動が大きいことを示すメッセージとを含むアラート情報を生成する。また、トイレの長時間滞在というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、トイレの滞在時間を示すメッセージとを含むアラート情報を生成する。また、ドアの開放というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、ドアの開放を示すメッセージとを含むアラート情報を生成する。また、高温状態又は低温状態というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、室温を示すメッセージとを含むアラート情報を生成する。また、多湿状態又は乾燥状態というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、湿度を示すメッセージとを含むアラート情報を生成する。また、心拍及び呼吸の停止というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、心拍及び呼吸が停止している可能性を示すメッセージとを含むアラート情報を生成する。また、呼出ボタン26の操作というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、呼出ボタン26の操作を示すメッセージとを含むアラート情報を生成する。また、センサI/F装置20又はセンサ21~25の動作不良というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、機器の動作不良を示すメッセージとを含むアラート情報を生成する。
When it is determined that the event is a notification target event (S16: YES), the
次に制御部11(出力部)は、生成したアラート情報を、ネットワークN経由でスタッフ端末30へ送信する(S18)。例えば制御部11は、ブロードキャスト通信にて、通信可能な全てのスタッフ端末30にアラート情報を送信する。これにより、サーバ10は、監視対象者におけるイベントの発生を複数のスタッフ端末30に出力できる。なお、制御部11は、アラート情報を、イベントの情報に対応付けてイベントDB13cに記憶してもよい。スタッフ端末30の制御部31は、サーバ10が送信したアラート情報を通信部34を介して受信し、受信したアラート情報をイヤホン36を介して音声出力する(S19)。なお、サーバ10の制御部11は、テキストデータのアラート情報を生成し、生成したアラート情報を音声データのアラート情報に変換し、得られた音声データのアラート情報をスタッフ端末30へ送信してもよい。この場合、スタッフ端末30の制御部31は、受信した音声データのアラート情報をイヤホン36から音声出力できる。また、サーバ10の制御部11は、テキストデータのアラート情報を生成し、生成したテキストデータのアラート情報をスタッフ端末30へ送信してもよい。この場合、スタッフ端末30の制御部31は、受信したテキストデータのアラート情報を音声データのアラート情報に変換し、得られた音声データのアラート情報をイヤホン36から音声出力できる。例えば制御部31は、「503号室、山田太郎様、離床しました」のアラート情報を音声出力する。上述した処理により、サーバ10は、各監視対象者に対して通知対象に設定してあるイベントの発生を検知した場合に、当該イベントの発生をスタッフ端末30を介して介護スタッフに通知することができる。
Next, the control unit 11 (output unit) transmits the generated alert information to the
介護スタッフは、スタッフ端末30を介してイベントの発生を通知された場合、スタッフ端末30を用いて他の介護スタッフとの間で会話を行い、発生したイベントに対する介護ケア(必要な処置)を実施する。スタッフ端末30の制御部31は、マイク35を介して、自端末30のユーザである介護スタッフが発した発話音声(会話音声)の音声データを取得したか否かを判断する(S20)。介護スタッフの発話音声を取得したと判断した場合(S20:YES)、制御部31は、取得した音声データをネットワークN経由で他のスタッフ端末30及びサーバ10へ送信する(S21)。
When the care staff is notified of the occurrence of an event via the
自端末30の介護スタッフの発話音声を取得していないと判断した場合(S20:NO)、制御部31は、ステップS22の処理に移行する。即ち、介護スタッフの発話音声を取得していないスタッフ端末30の制御部31は、介護スタッフの発話音声を取得した他のスタッフ端末30が送信した音声データを受信したか否かを判断する(S22)。制御部31は、他のスタッフ端末30が送信した音声データを受信したと判断した場合(S22:YES)、受信した音声データに基づいて、他の介護スタッフが発した会話音声をイヤホン36を介して出力する(S23)。制御部31は、他のスタッフ端末30からの音声データを受信していないと判断した場合(S22:NO)、ステップS23の処理をスキップしてステップS20の処理に戻り、マイク35を介して介護スタッフによる発話音声を取得する都度、取得した音声データを他のスタッフ端末30及びサーバ10へ送信する処理を繰り返す。また制御部31は、他のスタッフ端末30が送信した音声データを受信する都度、受信した音声データに基づく会話音声をイヤホン36から出力する処理を繰り返す。これにより、介護スタッフは、スタッフ端末30を介して互いに会話することができる。例えば、介護スタッフAが「503の山田さん、離床しましたね。だれか近くにいますか」と発した場合、介護スタッフAのスタッフ端末30は、介護スタッフAが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた介護スタッフBが「Bです。近くにいますので、これから対応します」と発した場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた介護スタッフAが「Bさん、お願いします」と発した場合、介護スタッフAのスタッフ端末30は、介護スタッフAが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた各介護スタッフは、通知されたイベント(アラート)に対して介護スタッフBが介護ケアを行うことを把握できる。
When it is determined that the uttered voice of the care staff of the
なお、介護スタッフBは、アラートに対する介護ケアを実施中に他の介護スタッフの助け又はアドバイスが必要となった場合、助け又はアドバイスを求める会話音声を発する。この場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信することにより、他の介護スタッフに助け又はアドバイスを求めることができる。また、介護スタッフBは、通知されたイベントに対する介護ケアを完了した場合、介護ケアの完了を報告する会話音声を発する。この場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信することにより、他の介護スタッフに介護ケアの完了を報告することができる。このように各介護スタッフは、スタッフ端末30を介して会話を行いつつ介護ケアを行うことができる。
In addition, when the care staff B needs help or advice from another care staff while performing care care for the alert, he/she emits a conversation voice asking for help or advice. In this case, the
サーバ10の制御部11(音声データ取得部)は、各スタッフ端末30が送信する音声データを受信する(S24)。なお、スタッフ端末30の制御部31は、音声データと、自端末30の識別情報又は自端末30を使用する介護スタッフの識別情報とを送信しており、サーバ10の制御部11は、音声データを受信した場合、送信元のスタッフ端末30又は当該スタッフ端末30を使用する介護スタッフを特定することができる。制御部11(変換部)は、受信した音声データをテキストデータに変換し、介護スタッフの会話音声のテキストデータを生成する(S25)。
The control unit 11 (audio data acquisition unit) of the
そして、制御部11は、ここでの監視対象者(イベントが発生している監視対象者)のイベントDB13c(記憶部)に、ステップS25で生成したテキストデータと、ステップS24で受信した音声データとを記憶する(S26)。具体的には、制御部11は、受信した音声データを発した介護スタッフの識別情報と、音声データの受信日時と、生成した会話音声のテキストデータとを対応付けて会話テキスト列に記憶し、介護スタッフの識別情報と、音声データの受信日時と、ステップS24で受信した音声データとを対応付けて会話音声列に記憶する。なお、制御部11は、会話テキスト及び会話音声を、ステップS15でイベントDB13cに記憶したイベントに対応付けてイベントDB13cに記憶する。上述した処理により、制御部11は、介護スタッフ間で行われる会話の音声データを各スタッフ端末30から取得することができ、監視対象者に発生したイベントと、当該イベントに関して各介護スタッフが行う会話のテキストデータ及び音声データとを対応付けて記憶することができる。
Then, the
制御部11は、ステップS18でスタッフ端末30にアラート情報を送信することによって介護スタッフに通知したイベントに対して、介護スタッフによる介護ケアが終了したか否かを判断する(S27)。例えばスタッフ端末30に、介護ケアの終了を入力するための入力部(入力ボタン)を設けておき、入力ボタンが操作された場合に、介護ケアの終了を判断してもよい。また、制御部11は、介護ケアを実施中の介護スタッフが発した音声データに所定のキーワードが含まれるか否かに応じて、介護ケアが終了したか否かを判断してもよい。例えば、「終わり」、「終了(完了)」等のキーワードを予め補助記憶部13に登録しておき、当該キーワードが含まれる場合、制御部11は、介護ケアが終了したと判断してもよい。なお、キーワードは、介護スタッフが発した音声データに含まれるか否かを判断するほかに、音声データから変換されたテキストデータに含まれるか否かを判断してもよい。
The
また、介護スタッフによる介護ケアの終了は、機械学習によって学習させた学習モデルを用いて判断してもよい。学習モデルは、人工知能ソフトウェアの一部として機能するプログラムモジュールとしての利用が想定される。例えば、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、Transformer、BERT(Bidirectional Encoder Representations from Transformers)、GPT(Generative Pre-Training)等のアルゴリズムを用いて、介護スタッフによる会話データ(音声データ又はテキストデータ)が入力された場合に、当該会話データに、監視対象者に対する介護ケアに関する内容が含まれるか否かを示す情報を出力するように学習した学習モデルを用いることができる。この場合、制御部11は、介護スタッフの会話データを学習モデルに入力し、学習モデルからの出力情報に基づいて、介護スタッフによる介護ケアに関する内容が含まれるか否かを判断し、判断結果から、介護スタッフによる介護ケアが終了したか否かを判断できる。
In addition, the end of nursing care by the nursing staff may be determined using a learning model learned by machine learning. The learning model is assumed to be used as a program module that functions as part of artificial intelligence software. For example, using algorithms such as CNN (Convolution Neural Network), RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory), Transformer, BERT (Bidirectional Encoder Representations from Transformers), GPT (Generative Pre-Training), A learning model that learns to output information indicating whether or not the conversation data (voice data or text data) by nursing staff is input, indicating whether or not the content of nursing care for the person being monitored is included in the conversation data. can be used. In this case, the
図6は、学習モデルの構成例を示す説明図である。図6に示す学習モデルは、介護スタッフがスタッフ端末30を用いて行った会話のデータ(音声データ又はテキストデータ)を入力とし、入力されたデータに基づいて、当該会話が、介護スタッフによる介護ケアに関する内容であるか否かを判別する演算を行い、演算した結果を出力するように学習してある。図6に示す学習モデルは2つの出力ノードを有しており、出力ノード0は、入力された会話データに、介護スタッフによる介護ケアに関する内容が含まれると判別すべき確率を出力し、出力ノード1は、それ以外の内容、例えば雑談であると判別すべき確率を出力する。各出力ノードの出力値は例えば0~1.0の値であり、各出力ノードから出力された判別確率の合計が1.0となる。
FIG. 6 is an explanatory diagram showing a configuration example of a learning model. The learning model shown in FIG. 6 is input with conversation data (speech data or text data) conducted by the care staff using the
図6に示す学習モデルは、訓練用の会話データ(音声データ又はテキストデータ)と、この会話データに介護ケアに関する内容が含まれるか、それ以外の内容(雑談)が含まれるかを示す情報(正解ラベル)とを含む訓練データを用いて、未学習の学習モデルを機械学習させることにより生成される。学習モデルは、訓練用の会話データが入力された場合に、正解ラベルが示す内容に対応する出力ノードからの出力値が1.0に近づき、他の出力ノードからの出力値が0.0に近づくように学習する。学習処理において学習モデルは、入力された会話データに基づく演算を行い、各出力ノードからの出力値を算出する。そして学習モデルは、算出した各出力ノードの出力値と正解ラベルに応じた値(0又は1)とを比較し、各出力値がそれぞれの正解ラベルに応じた値に近似するように、演算処理に用いるパラメータを最適化する。当該パラメータは、学習モデルにおけるニューロン間の重み等である。パラメータの最適化の方法は特に限定されないが、誤差逆伝播法、最急降下法等を用いることができる。これにより、会話データが入力された場合に、入力された会話データに介護ケアに関する内容が含まれるか、介護ケアに関する内容が含まれない雑談であるかを判別するように学習された学習モデルが得られる。 The learning model shown in FIG. 6 includes training conversation data (speech data or text data) and information indicating whether the conversation data includes content related to nursing care or other content (chat) ( Correct label) is used to machine-learn an unlearned learning model. In the learning model, when conversational data for training is input, the output value from the output node corresponding to the content indicated by the correct label approaches 1.0, and the output value from the other output nodes approaches 0.0. Learn to get closer. In the learning process, the learning model performs calculations based on the input conversation data and calculates output values from each output node. Then, the learning model compares the calculated output value of each output node with the value (0 or 1) corresponding to the correct label, and performs arithmetic processing so that each output value approximates the value corresponding to the respective correct label. Optimize the parameters used for The parameters are weights between neurons in the learning model, and the like. The parameter optimization method is not particularly limited, but error backpropagation, steepest descent method, or the like can be used. As a result, when conversation data is input, a learning model trained to determine whether the input conversation data includes content related to nursing care or whether it is a chat that does not include content related to nursing care. can get.
学習モデルの学習は他の学習装置で行われる。他の学習装置で学習が行われて生成された学習済みの学習モデルは、例えばネットワークN経由又は可搬型記憶媒体10a経由で学習装置からサーバ10にダウンロードされて補助記憶部13に記憶される。なお、学習モデルは図6の構成に限定されず、学習モデルが判別する判別対象は2つに限定されない。例えば学習モデルは、入力された会話データに、介護ケアに関する内容、雑談、介護ケアの終了を示す内容のいずれが含まれるかを判別するように構成されていてもよい。この場合、制御部11は、学習モデルからの出力情報に基づいて、介護スタッフによる介護ケアが終了したか否かを判断できる。また、学習モデルは、入力された会話データに、介護ケアに関する内容、雑談、介護ケアの開始を示す内容、介護ケアの実施中を示す内容、介護ケアの終了を示す内容のいずれが含まれるかを判別するように構成されていてもよい。この場合、通知されたイベントに対して、介護スタッフによる介護ケアが開始されたか、実施中であるか、終了したか等の進捗状態を判断できる。
Training of the learning model is performed by another learning device. A trained learning model generated by learning in another learning device is downloaded from the learning device to the
図5に示す処理の説明に戻る。介護スタッフによる介護ケアが終了していないと判断した場合(S27:NO)、制御部11は、ステップS24の処理に戻り、スタッフ端末30から送信されてくる音声データに対して、ステップS24~S27の処理を実行する。これにより、スタッフ端末30から送信されてくる会話の音声データ、当該音声データから生成された会話のテキストデータをイベントDB13cに蓄積することができる。よって、介護スタッフがスタッフ端末30を用いて行う会話の音声データ及びテキストデータがイベントDB13cに蓄積される。
Returning to the description of the processing shown in FIG. If it is determined that the nursing care staff has not finished nursing care (S27: NO), the
介護スタッフによる介護ケアが終了したと判断した場合(S27:YES)、制御部11は、介護ケアが終了した監視対象者のイベントDB13cの進捗情報欄に、介護ケアの終了を示す「済」を記憶し(S28)、一連の処理を終了する。上述した処理により、サーバ10は、各監視対象者に対応付けて設けられたセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者の状態を判定することができ、介護スタッフに通知する必要があるイベントの発生を検知することができる。また、サーバ10は、各監視対象者に対するイベントの発生を検知した場合に、スタッフ端末30を介して各介護スタッフに通知することができる。介護スタッフは、スタッフ端末30を用いて他の介護スタッフとの間で会話を行うことができ、サーバ10は、介護スタッフの間で行われた会話のテキストデータ及び音声データを、発生したイベントに対応付けて蓄積することができる。
When it is determined that the nursing care by the nursing care staff has ended (S27: YES), the
上述した処理によってイベントDB13cに蓄積された介護スタッフ間の会話のテキストデータは、例えばスタッフ端末30又は他の端末を用いて閲覧することができる。図7は会話のテキストデータの表示例を示す説明図である。イベントDB13cに蓄積された会話のテキストデータを閲覧する場合、閲覧者は、任意の監視対象者と、任意の日時又は発生したイベントとを指定して、指定したイベントに対応する会話のテキストデータをサーバ10に要求する。サーバ10の制御部11は、要求内容に対応するイベントの情報及び会話のテキストデータ(会話テキスト)をイベントDB13cから読み出して要求元の端末へ送信する。
The text data of conversations between care staff members accumulated in the
要求元の端末は、サーバ10からイベントの情報及び会話のテキストデータを受信した場合、図7Aに示すような画面を生成して表示部に表示する。図7Aに示す画面では、太線の表示枠に、サーバ10の制御部11が図4中のステップS17で生成したアラート情報と、アラート(イベント)の発生日時とが表示されている。また、細線の表示枠に、発話した介護スタッフの情報と、発話日時と、サーバ10の制御部11が図5中のステップS25で生成した介護スタッフの会話のテキストデータとが、それぞれ対応付けられて時系列で表示されている。図7Aに示すような画面により、閲覧者は、発生したイベントの内容と、当該イベントに対する介護スタッフの会話内容及び監視対象者に実施した介護ケアの内容とを把握することができる。
When receiving the event information and conversation text data from the
本実施形態では、監視対象者の状態を判定するために複数種類のセンサ21~25が設けられており、各センサ21~25からの検知信号に基づいて、監視対象者の状態(イベントの発生)を監視している。また、監視対象者毎に、発生したイベントのうちで、介護スタッフに通知すべきイベントを設定することができる。よって、監視対象者の健康状態等に応じて介護スタッフに通知すべきイベントとして、異なるイベントを設定することができる。
In this embodiment, a plurality of types of
本実施形態において、サーバ10の制御部11は、スタッフ端末30から受信した介護スタッフによる会話の音声データからテキストデータを生成した場合、生成したテキストデータから、予め登録されたキーワードを抽出し、抽出したキーワードを強調表示するための強調処理を行うように構成されていてもよい。例えば、制御部11は、図5中のステップS25の処理後、生成したテキストデータから所定のキーワードを特定し、各キーワードに対して強調処理を実行する。このような構成の場合、サーバ10のイベントDB13cに蓄積された会話のテキストデータを閲覧する際に、図7Bに示すように、所定のキーワードが強調して表示される。よって、閲覧者は、複数の介護スタッフ間の会話内容から重要なキーワードを見逃すことなく把握できる。図7Bに示す例では、監視対象者の部屋番号及び氏名、イベントの内容、及び介護ケアの内容が枠で囲まれて表示されている。
In this embodiment, when the
本実施形態の図4及び図5に示す処理において、サーバ10は、スタッフ端末30から介護スタッフの会話音声を取得した場合に、当該会話音声が、いずれの監視対象者に発生したいずれのイベントに対して発話されたものであるかを特定する処理を行うように構成されていてもよい。サーバ10の制御部11は、各センサI/F装置20からセンサデータを受信する都度、ステップS12~S18の処理を行う。従って、サーバ10は、異なるイベントに関するアラート情報を連続してスタッフ端末30へ送信することがある。即ち、1つのイベントに関するアラート情報がスタッフ端末30へ送信されてから、当該イベントに対する介護スタッフの介護ケアが終了する前に、別のイベントのアラート情報がスタッフ端末30へ送信される状況が発生する。この場合、複数のイベントに関して介護スタッフが会話することになるので、各介護スタッフの会話が、いずれのイベントに関するものであるかを判定する必要が生じる。そこで、サーバ10の制御部11は、例えば図5中のステップS25の処理後に、介護スタッフに通知中のイベント(介護スタッフによる介護ケアが終了していないイベント)の中で、ステップS24で受信した音声データ(介護スタッフの会話音声)に対応するイベントを特定する。
In the processing shown in FIGS. 4 and 5 of the present embodiment, when the
例えば制御部11は、アラート情報を送信してから所定時間内に受信した会話音声は、送信したアラート情報のイベントに対応する会話であると判断する。具体的には、制御部11は、ステップS18でアラート情報を送信してから所定時間内(例えば30秒以内)にスタッフ端末30から受信した会話音声、及び当該会話音声を受信してから所定時間内(例えば10秒以内)に受信した他の介護スタッフの会話音声は、ステップS18でアラート情報を送信したイベントに対応する会話であると判断する。これにより、イベントの発生を通知してから所定時間内に行われた会話は、当該イベントに関する会話であると特定できる。また、制御部11は、受信した会話内容から、いずれの監視対象者に発生したいずれのイベントに関する会話であるかを判断してもよい。例えば、会話内容に監視対象者の情報又はイベントに関する情報が含まれる場合、制御部11は、会話内容に含まれる情報に基づいて、受信した会話音声に対応するイベントを特定できる。この場合、アラート情報の送信から所定時間以上が経過していた場合であっても、介護スタッフの会話音声が、いずれのイベントに関する会話であるかを特定できる。なお、介護スタッフに通知中のイベントが1つしかない場合、制御部11は、ステップS24で受信した音声データは、ステップS18でアラート情報を送信したイベントに関する会話音声であると判断すればよい。
For example, the
その後、制御部11は、ステップS26で、イベントが発生している監視対象者のイベントDB13cにおいて、特定したイベントに対応する会話テキスト列に介護スタッフの会話音声のテキストデータを記憶し、特定したイベントに対応する会話音声列に介護スタッフの会話音声の音声データを記憶する。これにより、介護スタッフの会話音声及び会話テキストを、対応するイベントに対応付けて蓄積することができる。
After that, in step S26, the
上述した本実施形態では、サーバ10は、介護スタッフがスタッフ端末30を用いて行う会話の音声データを取得する都度、取得した音声データをテキストデータに変換する処理を行ってイベントDB13cに記憶する構成である。しかし、音声データをテキストデータに変換する処理は、音声データを取得したタイミングで行う必要はなく、例えば所定時間毎に行う構成でもよい。例えばサーバ10は、介護スタッフによる会話の音声データを取得した場合に、取得した音声データをイベントDB13cに記憶しておき、所定のタイミングで、各音声データをテキストデータに変換してイベントDB13cに記憶してもよい。
In the above-described embodiment, the
(実施形態2)
サーバ10が、スタッフ端末30から介護スタッフの会話音声を取得した場合に、当該会話音声が、監視対象者に発生したイベントに対する対応(介護ケア)に関する会話であるか否かを判断し、対応に関する会話の情報を蓄積する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 2)
When the
図8は、実施形態2の情報処理システムにおける処理手順の一例を示すフローチャートである。図8に示す処理は、図4及び図5に示す処理において、ステップS25,S26の間にステップS31~S32を追加したものである。図4及び図5と同じステップについては説明を省略する。また図8では、図4中の各ステップの図示を省略している。 FIG. 8 is a flowchart illustrating an example of a processing procedure in the information processing system according to the second embodiment; The process shown in FIG. 8 is obtained by adding steps S31 to S32 between steps S25 and S26 in the processes shown in FIGS. Description of the same steps as those in FIGS. 4 and 5 will be omitted. Also, in FIG. 8, illustration of each step in FIG. 4 is omitted.
本実施形態のサーバ10及びスタッフ端末30は、図4及び図5中のステップS11~S25と同様の処理を行う。これにより、サーバ10は、各センサI/F装置20を介してセンサ21~25及び呼出ボタン26からの信号を取得し、取得した信号に基づいて、各監視対象者に対してイベントの発生を検知する。またサーバ10は、介護スタッフに通知すべきイベントの発生を検知した場合、当該イベントの発生をスタッフ端末30を介して介護スタッフに通知する。更にサーバ10は、スタッフ端末30から介護スタッフの発話音声を取得した場合、取得した音声データをテキストデータに変換する。
The
本実施形態のサーバ10の制御部11は、ステップS25の処理後、スタッフ端末30から受信した会話音声の内容を特定する(S31)。例えば制御部11は、会話音声の内容が、介護スタッフが監視対象者に行う介護ケアに関するものであるか、雑談であるか等を特定する。例えば制御部11は、会話内容に監視対象者の情報又はイベントに関する情報が含まれる場合、当該会話音声は、監視対象者に対する介護ケアに関する内容であると判断する。また制御部11は、会話内容に監視対象者の情報及びイベントに関する情報が含まれない場合、当該会話音声は、監視対象者に対する介護ケアに関する内容ではなく、例えば雑談であると判断してもよい。また制御部11は、学習モデルを用いて、会話音声の内容が、監視対象者に対する介護ケアに関する内容、又は雑談であることを判別してもよい。例えば図6に示す学習モデルを用いることができる。この場合、制御部11は、スタッフ端末30から受信した音声データ(又は音声データから生成されたテキストデータ)を学習モデルに入力し、学習モデルからの出力情報に基づいて、受信した会話音声の内容が、介護スタッフによる介護ケアに関する内容であるか雑談であるかを判断できる。
After the process of step S25, the
制御部11は、特定した会話内容に基づいて、スタッフ端末30から受信した会話が、監視対象者に対する介護ケアに関する内容であるか否かを判断する(S32)。監視対象者に対する介護ケアに関する内容であると判断した場合(S32:YES)、制御部11は、イベントが発生している監視対象者のイベントDB13cに、ステップS25で生成したテキストデータと、ステップS24で受信した音声データとを記憶する(S26)。一方、監視対象者に対する介護ケアに関する内容でないと判断した場合(S32:NO)、例えば雑談である場合、制御部11は、ステップS26の処理をスキップする。
Based on the identified conversation content, the
上述した処理により、介護スタッフの会話内容が雑談であると判断された場合に、当該会話のテキストデータ及び音声データをイベントDB13cに記憶させないことにより、介護スタッフの雑談の会話情報がイベントDB13cに蓄積されることを回避できる。よって、サーバ10は、介護スタッフによる会話情報(会話音声及び会話テキスト)から、介護スタッフによる介護ケアに関する会話情報を抽出し、抽出した会話情報を、発生したイベントに対応付けて蓄積できる。なお、上述した処理において、介護スタッフによる介護ケアに関する会話情報と、介護スタッフの雑談の会話情報との両方をイベントDB13cに記憶し、それぞれの会話情報に、介護ケアに関する内容であるか雑談であるかを示す情報を対応付けて記憶する構成としてもよい。
When it is determined that the content of the conversation of the nursing staff is chatting by the above-described processing, the text data and voice data of the conversation are not stored in the
本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、サーバ10がスタッフ端末30から受信した介護スタッフによる会話情報のうちで、監視対象者に対する介護ケアに関する会話のように、蓄積しておく必要がある会話情報を蓄積することができる。よって、各イベントに対して介護スタッフが行った介護ケアを確認する際に、介護スタッフが行った介護ケアに関する会話情報を効率よく閲覧することが可能となる。本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。
In this embodiment, the same effects as those of the first embodiment described above can be obtained. Further, in the present embodiment, among the conversation information by the care staff received from the
(実施形態3)
サーバ10が、監視対象者に発生したイベントに対して蓄積した介護スタッフの会話内容(会話テキスト)に基づいて、当該イベントに関する報告書を作成する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 3)
An information processing system will be described in which the
本実施形態の情報処理システムにおいて、サーバ10及びスタッフ端末30は、図4~図5に示す処理と同様の処理を実行する。これにより、サーバ10は、各センサI/F装置20を介して取得するセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者に対してイベントの発生を検知し、必要に応じて各スタッフ端末30にアラート情報を送信することができる。またサーバ10は、アラート情報(イベントの発生)を介護スタッフに通知した場合、スタッフ端末30から取得する介護スタッフの発話音声をテキストデータに変換し、当該イベントに対応付けて蓄積することができる。
In the information processing system of this embodiment, the
本実施形態のサーバ10は、図4~図5に示す処理によってイベントDB13cに蓄積した、監視対象者に発生したイベントに関する情報に基づいて、介護記録として蓄積するための情報(介護記録情報)、医師等の医療従事者に報告するための情報(医師報告情報)、監視対象者の家族等に報告するための情報(家族報告情報)等の各種の報告情報(報告書)を自動で作成する機能を有する。
The
図9は、報告情報の作成処理手順の一例を示すフローチャート、図10は、報告情報の一例を示す説明図である。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行される。なお、サーバ10の制御部11は、定期的に以下の処理を実行するように構成されており、所定の実行タイミングが到来した場合に、ステップS41以降の処理の実行を開始する。所定の実行タイミングは、例えば1日に1回報告情報を作成する場合、所定時刻が到来したタイミングであってもよく、1週間に1回報告情報を作成する場合、所定曜日の所定時刻が到来したタイミングであってもよい。なお、報告情報の作成頻度は、1日に1回又は1週間に1回等に限定されず、例えば1日に複数回数(所定時間に1回)であってもよく、所定日数毎に1回であってもよい。また、介護スタッフ等からの作成要求を受け付けた場合に、実行タイミングが到来したと判断してもよい。また、介護記録情報、医師報告情報、及び家族報告情報のそれぞれに対して異なる作成頻度が設定されていてもよく、各報告情報の作成頻度は、監視対象者毎に異なる頻度が設定されていてもよい。監視対象者毎に各報告情報の作成頻度が設定される構成の場合、監視対象者に対応付けて各報告情報の作成頻度を監視対象者DB13aに登録しておいてもよい。
FIG. 9 is a flow chart showing an example of the report information creation processing procedure, and FIG. 10 is an explanatory diagram showing an example of the report information. The following processing is executed by the
サーバ10の制御部11は、所定の実行タイミングが到来した場合、この時点で報告情報を作成すべき対象(監視対象者)がいるか否かを判断する(S41)。例えば各報告情報の作成タイミングが到来した場合、制御部11は、全ての監視対象者を、報告情報の作成対象者として、各監視対象者に対応する報告情報の作成を行う。また任意の監視対象者に設定された報告情報の作成タイミングが到来した場合、制御部11は、当該監視対象者を報告情報の作成対象者として、当該監視対象者に対応する報告情報の作成を行う。
When a predetermined execution timing arrives, the
報告情報の作成対象者がいると判断した場合(S41:YES)、制御部11は、1人の監視対象者に対応するイベントDB13cに蓄積されたイベントに関する情報を読み出す(S42)。制御部11は、報告情報の作成タイミングに応じた所定期間内に発生したイベントの情報を読み出すことにより、未だ報告情報が作成されていないイベント(未報告のイベント)の情報を読み出す。例えばイベントDB13cを、各イベントの情報に対応付けて、報告情報が作成済み(報告済み)であるか否かを示す状態情報を記憶しておくように構成してもよく、この場合、制御部11は、状態情報が未報告であるイベントの情報を読み出せばよい。なお、制御部11は、各イベントの情報として、日時、イベント項目、イベント内容、会話テキスト、及び進捗情報をイベントDB13cから読み出す。
When it is determined that there is a target person for creating report information (S41: YES), the
制御部11は、読み出した各イベントの情報から、1つのイベントの内容を特定する(S43)。例えば制御部11は、読み出した日時、イベント項目及びイベント内容に基づいて、イベントの発生日時及び内容を特定する。例えば制御部11は、イベントの内容として「2021/9/1 1:00 離床(中途覚醒)」を特定する。次に制御部11は、特定したイベントに対して、介護スタッフが行った介護ケアの内容を、読み出した会話テキストから特定する(S44)。例えば制御部11は、介護スタッフが行った介護ケアとして「2021/9/1 1:05 介護スタッフA:トイレ介助」及び「2021/9/1 1:15 対応完了」を特定する。なお、介護スタッフが行う可能性のある介護ケアに関する情報をサーバ10の補助記憶部13に予め登録しておき、制御部11は、登録してある情報を会話テキスト中から抽出することにより、介護スタッフが行った介護ケアを特定してもよい。
The
また制御部11は、学習モデルを用いて会話テキストを要約し、介護スタッフが行った介護ケアの内容を特定してもよい。例えば、CNN、RNN、LSTM、Transformer、BERT、GPT等のアルゴリズムを用いて、会話のテキストデータが入力された場合に、当該会話の内容が要約されることによって会話の内容から特定された介護スタッフによる介護ケアに関する情報を出力するように学習した学習モデルを用いることができる。この場合、制御部11は、会話テキストを学習モデルに入力し、学習モデルからの出力情報に基づいて、イベントに対する介護ケアを行った介護スタッフと、当該介護スタッフが行った介護ケアとを特定することができる。
In addition, the
ここでの学習モデルは、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約した要約結果のテキストデータを出力するように学習された学習モデルである。このような学習モデルは、例えば汎用的な要約処理を実行するためのパラメータとして最適化された学習モデルに対して、訓練用のテキストデータと、このテキストデータの要約結果として抽出すべき単語又は文章(正解ラベル)とを含む訓練データを用いてファインチューニング(転移学習)することにより生成される。ファインチューニングにおいて学習モデルは、訓練用のテキストデータが入力され、入力されたテキストデータに基づく演算を行い、入力されたテキストデータ中の各単語又は各文章に対して0~1の出力値を算出する。そして学習モデルは、算出した各単語又は各文章に対する出力値と、正解ラベルに応じた値(正解の場合は1、正解でない場合は0)とを比較し、両者が近似するように、演算処理に用いるパラメータを最適化する。これにより、介護スタッフによる会話のテキストデータが入力された場合に、入力されたテキストデータを要約した要約結果のテキストデータを出力する学習モデルが得られる。ここでの学習モデルの学習は他の学習装置で行われる。他の学習装置で学習が行われて生成された学習済みの学習モデルは、例えばネットワークN経由又は可搬型記憶媒体10a経由で学習装置からサーバ10にダウンロードされて補助記憶部13に記憶される。
The learning model here is a learning model trained to input text data of a conversation uttered by a care staff and output text data as a result of summarizing the input text data. Such a learning model is, for example, text data for training and a word or sentence to be extracted as a summary result of this text data for a learning model optimized as parameters for executing general-purpose summarization processing. It is generated by fine-tuning (transfer learning) using training data including (correct label). In fine-tuning, the learning model receives training text data, performs calculations based on the input text data, and calculates an output value between 0 and 1 for each word or sentence in the input text data. do. Then, the learning model compares the calculated output value for each word or each sentence with the value corresponding to the correct label (1 if correct, 0 if not correct), and performs arithmetic processing so that both are approximate. Optimize the parameters used for As a result, a learning model is obtained that, when text data of a conversation by a nursing care staff is input, outputs text data as a result of summarizing the input text data. Learning of the learning model here is performed by another learning device. A trained learning model generated by learning in another learning device is downloaded from the learning device to the
制御部11は、ステップS42でイベントDB13cから読み出した情報に基づいて、全てのイベントの内容を特定したか否かを判断する(S45)。制御部11は、全てのイベントの内容を特定していないと判断した場合(S45:NO)、ステップS43の処理に戻り、未特定のイベントについてステップS43~S44の処理を実行する。これにより、制御部11は、ステップS42で読み出したイベントの情報から、他のイベントの内容を特定し(S43)、特定したイベントに対して、介護スタッフが行った介護ケアの内容を特定する(S44)。
Based on the information read from the
制御部11は、ステップS42で読み出した情報に基づいて、全てのイベントの内容を特定したと判断した場合(S45:YES)、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、介護記録情報を作成する(S46)。介護記録情報は、図10に示すように、報告情報の作成対象である監視対象者に対応付けて作成され、特定されたイベント毎に、イベントの発生日時及び内容、介護スタッフが介護ケアを行った日時及び内容、介護スタッフによる介護ケアの完了日時等の情報を含む。例えば介護記録情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、介護記録情報用のフォーマットの各欄に、特定したイベントの内容及び介護スタッフが行った介護ケアの内容を入力することにより介護記録情報を生成する。
If the
また制御部11は、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、医師への報告情報を作成する(S47)。医師報告情報も、報告情報の作成対象である監視対象者に対応付けて作成される。医師報告情報は、図10に示すように、特定された各イベントの発生日時及び内容、発生したイベントに基づいて医師に報告すべき内容、報告内容に関して医師に確認すべき内容等の情報を含む。図10に示す医師報告情報の例では、夜中の時間帯にトイレのために複数回離床しているという睡眠の状態に関する報告内容と、当該報告内容に対して睡眠に関する薬、利尿作用のある薬の服用との関係の確認を医師に依頼する確認内容とを含む。なお、医師に対する報告内容及び確認内容は、例えば各イベントの内容及び発生頻度等に対応付けて、予めサーバ10の補助記憶部13に用意されたDBに記憶しておいてもよい。この場合、制御部11は、ステップS43で特定したイベントの内容に応じて、医師に対する報告内容及び確認内容をDBから取得することができる。また、医師への報告内容又は確認内容は、介護スタッフによってスタッフ端末30又は他の端末から入力されるように構成されていてもよい。ここでも、医師報告情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、医師報告情報用のフォーマットの各欄に、特定したイベントの内容等を入力することにより医師報告情報を生成する。
Further, the
また制御部11は、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、監視対象者の家族への報告情報を作成する(S48)。家族報告情報も、報告情報の作成対象である監視対象者に対応付けて作成される。家族報告情報は、図10に示すように、特定された各イベントの発生状態を含む監視対象者の日常生活の情報、イベントに対して介護スタッフが行った介護ケアの内容、イベント内容に関して医師に共有されて医師と連携して適切な介護ケアが行われていることを示す情報等を含む。図10に示す家族報告情報の例では、夜中の時間帯にトイレのために複数回離床しているという監視対象者の生活に関する情報と、それに対応して介護スタッフが行った介護ケアの内容と、服用中の薬との関係を医師に確認済みであることを示す情報とを含む。家族に対する報告内容も、例えば各イベントの内容及び発生頻度等に対応付けて、予めサーバ10の補助記憶部13に用意されたDBに記憶しておいてもよい。この場合、制御部11は、ステップS43で特定したイベントの内容に応じて、家族に対する報告内容をDBから取得することができる。また、家族への報告内容は、介護スタッフによってスタッフ端末30又は他の端末から入力されるように構成されていてもよい。ここでも、例えば家族報告情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、家族報告情報用のフォーマットの各欄に、特定したイベントの内容及び介護スタッフが行った介護ケアの内容を入力することにより家族報告情報を生成する。
Further, the
制御部11は、ステップS46~S48で各報告情報を生成した場合に、各報告情報から、予め登録されたキーワードを特定し、特定したキーワードを強調表示するための強調処理を行ってもよい。制御部11は、ステップS46で作成した介護記録情報、ステップS47で作成した医師報告情報、ステップS48で作成した家族報告情報を、例えば監視対象者DB13aに対象者IDに対応付けて記憶する(S49)。なお、制御部11は、ステップS46~S48で作成した報告情報を、例えば各監視対象者のイベントDB13cに、各イベントの日時、項目及び内容に対応付けて記憶してもよい。また制御部11は、作成した介護記録情報を、介護スタッフで介護記録を共有するサーバ又は端末へ送信してもよく、作成した医師報告情報を、対応する医師が使用する端末へ送信してもよく、作成した家族報告情報を、予め登録してある家族の端末へ送信してもよい。また制御部11は、各報告情報を作成したイベントに対応付けて、当該イベントが報告済みであることを示す情報をイベントDB13cに記憶しておく。具体的には、制御部11は、ステップS42でイベントDB13cから情報を読み出したイベントに対応付けて、報告済みであることを示す情報をイベントDB13cに記憶しておく。
When each report information is generated in steps S46 to S48, the
制御部11は、ステップS41の処理に戻り、報告情報を作成すべき監視対象者であって、まだ報告情報を作成していない監視対象者がいるか否かを判断する(S41)。報告情報を作成すべき監視対象者がいないと判断した場合(S41:NO)、制御部11は、一連の処理を終了する。上述した処理により、監視対象者に発生したイベントに対応付けてサーバ10が蓄積した介護スタッフの会話テキストに基づいて、各種の報告情報を自動で作成することができる。また、他の介護スタッフ、医師、監視対象者の家族等、報告情報の提出先に応じた内容の報告情報を作成することができる。なお、介護記録情報、医師報告情報、家族報告情報に対してそれぞれ異なる作成タイミングが設定されている場合、制御部11は、作成タイミングが到来した報告情報を生成すればよく、ステップS46~S48のいずれか又は複数を適宜の作成タイミングで実行すればよい。また、監視対象者毎に各報告情報の作成タイミングが設定されていてもよい。例えば、医師への報告情報の作成タイミングは、監視対象者の状態等に応じて変更されてもよく、監視対象者の家族への報告情報の作成タイミングは、家族から依頼された頻度に応じて変更されてもよい。また、報告情報は、定期的に作成される構成に限定されず、例えば監視対象者の介護に関して何らかのトラブルが発生した場合に作成されてもよく、この場合、報告情報によってトラブルの発生経緯を明確にすることが可能となる。
The
本実施形態において、学習モデルを用いて会話テキストを要約し、介護スタッフが行った介護ケアの内容を特定する構成のほかに、学習モデルを用いて会話テキストから、介護記録情報、医師報告情報、家族報告情報を作成する構成としてもよい。この場合、例えば介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された介護記録情報(テキストデータ)を出力するように学習された介護記録用の学習モデルを用いて、介護記録情報を作成してもよい。また、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された医師報告情報(テキストデータ)を出力するように学習された医師報告用の学習モデルを用いて、医師報告情報を作成してもよい。更に、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された家族報告情報(テキストデータ)を出力するように学習された家族報告用の学習モデルを用いて、家族報告情報を作成してもよい。このような学習モデルを用いた場合、介護スタッフの会話データから、介護記録情報、医師報告情報、家族報告情報を作成できるので、介護スタッフの業務負担を軽減することができる。 In this embodiment, in addition to the configuration for summarizing the conversation text using the learning model and specifying the content of nursing care provided by the nursing care staff, the learning model is used to extract nursing care record information, doctor report information, It may be configured to create family report information. In this case, for example, a learning model for nursing care records that is trained to output nursing care record information (text data) generated by summarizing the input text data, for example, by inputting text data of a conversation uttered by a care staff. may be used to create care record information. In addition, using a learning model for doctor reports that has been trained to output doctor report information (text data) generated by summarizing the input text data with text data of conversations uttered by care staff as input. may be used to generate physician report information. In addition, a learning model for family reports is used, which is trained to output family report information (text data) generated by summarizing the input text data from text data of conversations uttered by nursing care staff. may create family report information. When such a learning model is used, nursing care record information, doctor report information, and family report information can be created from the conversation data of the care staff, thereby reducing the work load of the care staff.
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、サーバ10が各イベントに対応付けて蓄積した、介護スタッフの会話内容のテキストデータに基づいて、介護記録情報、医師への報告情報、監視対象者の家族への報告情報を自動で作成することができる。これにより、介護スタッフがこれらの報告情報を作成する際の作業負担を軽減することができる。本実施形態の構成は、上述した実施形態1~2の情報処理システムに適用可能であり、実施形態1~2の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
In this embodiment, the same effects as those of the above-described embodiments can be obtained. Further, in this embodiment, based on the text data of the contents of conversations of the care staff, stored in association with each event by the
(実施形態4)
ナースコールシステムを備え、ナースコールシステムを用いて監視対象者と介護スタッフとが行った会話の情報を蓄積する情報処理システムについて説明する。図11は、実施形態4の情報処理システムの構成例を示す説明図である。
(Embodiment 4)
An information processing system that includes a nurse call system and stores information on conversations between a person to be monitored and a care staff using the nurse call system will be described. FIG. 11 is an explanatory diagram showing a configuration example of an information processing system according to the fourth embodiment.
本実施形態の情報処理システムは、サーバ10、スタッフ端末30、ナースコールシステムにおける親機40及び子機50等を含み、これらの各機器はネットワークNを介して通信接続されている。なお、例えば子機50は、ネットワークNに接続される代わりに、専用の通信線又は無線通信によって親機40に接続される構成でもよい。また、図11では図示を省略するが、本実施形態の情報処理システムは、図11に示す構成に加えて、監視対象者毎に設置されたセンサI/F装置20及び各種センサ21~26(図1参照)を含んでもよい。また、ナースコールシステムの子機50は、呼出ボタン26の代わりに監視対象者の部屋に設けられてもよい。本実施形態において、サーバ10及びスタッフ端末30は、実施形態1の情報処理システムにおけるサーバ10及びスタッフ端末30と同様の装置であるので説明を省略する。
The information processing system of this embodiment includes a
ナースコールシステムは、呼出装置として使用される子機50と、子機50からの呼出に応答する応答装置として使用される親機40とを含む。子機50は、例えば監視対象者の各部屋及び共有スペース等に設置されており、親機40は、例えば介護スタッフが常駐する部屋(詰め所)又は介護施設の事務室等に設置されている。なお、介護スタッフが携帯しているスタッフ端末30が、ナースコールシステムの応答装置として利用できるように構成されていてもよい。
The nurse call system includes a
子機50は、ネットワークNを介して親機との間で通信を行うための通信部、監視対象者が操作(押下)する呼出ボタン51、マイク52、スピーカ53等を有する。親機40は、各子機50に対応付けて設けられたランプ41及びランプ41の点灯を解除するための解除ボタン42、スピーカ43、受話器44、これらの各部を制御する制御部等を有する。ランプ41及び解除ボタン42は子機50の数だけ設けられており、受話器44は、マイク及びスピーカを有する。
The
子機50は、監視対象者によって呼出ボタン51が操作された場合、通信部によって、自機を識別するための情報(例えば子機ID)を含む呼出信号を親機40に送信する。これにより、呼出ボタン51が操作された子機50の情報が親機40に通知される。親機40は、いずれかの子機50から呼出信号を受信した場合、受信した子機IDに対応する部屋番号を特定し、特定した部屋番号のランプ41を点灯又は点滅させると共に、スピーカ43から呼出音又は呼出メッセージを音声出力する。これにより、呼出ボタン51が操作された子機50の部屋番号及び監視対象者を、親機40の近傍の介護スタッフに通知することができる。介護スタッフが受話器44を上げると、呼出信号を送信した子機50と親機40との間で会話(通話)が可能となる。
When the
本実施形態のサーバ10は、子機50の呼出ボタン51に対する操作を、監視対象者に発生したイベントの1つとして扱い、子機50による親機40の呼出を検知した場合、イベントに関する情報として、ナースコールの呼出をイベントDB13cに記憶する。例えばサーバ10は、イベントDB13cの日時列、イベント項目列及びイベント内容列のそれぞれに、この時点の日時、「呼出」、「ナースコール」を記憶する。また、サーバ10は、親機40及び子機50間でやり取りされる会話音声を取得し、取得した会話音声をテキストデータに変換し、会話音声及び会話テキストをイベントDB13cの会話音声列及び会話テキスト列にそれぞれ記憶する。よって、本実施形態では、子機50を用いて呼出が行われた場合に、子機50及び親機40を介して監視対象者と介護スタッフとの間でやり取りされた会話に関するテキスト及び音声が、イベントDB13cに記憶される。
The
以下に、本実施形態の情報処理システムにおいて、子機50を用いてナースコールの呼出が行われた場合に、サーバ10が行う処理について説明する。図12は、実施形態4のサーバ10による処理手順の一例を示すフローチャートである。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行される。なお、本実施形態のサーバ10は、センサI/F装置20から逐次受信するセンサデータに基づいて、実施形態1で説明した図4~図5に示す処理を行いつつ、以下の処理を行う。
Processing performed by the
サーバ10の制御部11は、いずれかの子機50によるナースコールの呼出が行われたか否かを判断する(S51)。例えば制御部11は、親機40がいずれかの子機50から呼出信号を受信した場合に、呼出信号の受信を親機40から通知されるように構成されていてもよい。また、制御部11は、親機40がいずれかの子機50との間で会話音声の通信を開始した場合に、通信の開始を親機40から通知されるように構成されていてもよい。制御部11は、このような親機40からの通知によって、ナースコールの呼出が行われたと判断できる。ナースコールの呼出が行われていないと判断した場合(S51:NO)、制御部11は、他の処理を行いつつ待機する。
The
ナースコールの呼出が行われたと判断した場合(S51:YES)、制御部11は、呼出を行った監視対象者を特定する(S52)。例えば制御部11は、呼出を行った監視対象者の情報を親機40からの通知によって取得してもよく、子機50から送信された呼出信号に基づいて、呼出を行った監視対象者を特定してもよい。制御部11は、特定した監視対象者のイベントDB13cに、ナースコールの呼出というイベントの情報を記憶する(S53)。
If it is determined that a nurse call has been made (S51: YES), the
次に制御部11は、ナースコールの呼出を行った子機50と親機40との間で送受信される会話の音声データを取得したか否かを判断する(S54)。制御部11は、例えばネットワークN経由で子機50から親機40へ送信される音声データと、親機40から子機50へ送信される音声データとを取得する。なお、制御部11は、子機50と親機40との間で送受信される音声データを、発話者(監視対象者又は介護スタッフ)を示す情報と共に親機40から取得してもよい。
Next, the
制御部11は、会話の音声データを取得したと判断した場合(S54:YES)、取得した音声データの発話者を特定する(S55)。例えば制御部11は、子機50から親機40へ送信される音声データを取得した場合、当該音声データの発話者として、子機50に対応する監視対象者(ステップS52で特定した監視対象者)を特定し、親機40から子機50へ送信される音声データを取得した場合、当該音声データの発話者として介護スタッフを特定する。なお、子機50からの呼出に対して、いずれかのスタッフ端末30を用いて応答を行った場合、制御部11は、スタッフ端末30から子機50へ送信される音声データの発話者として、当該スタッフ端末30のユーザである介護スタッフを特定できる。
When the
制御部11は、取得した音声データをテキストデータに変換し、介護スタッフ又は監視対象者の会話音声のテキストデータを生成する(S56)。そして、制御部11は、ステップS52で特定した監視対象者のイベントDB13cに、ステップS56で生成したテキストデータと、取得した会話の音声データとを記憶する(S57)。具体的には、制御部11は、発話者が監視対象者であるか介護スタッフであるかを示す情報と、音声データの受信日時と、生成した会話音声のテキストデータとを対応付けて会話テキスト列に記憶し、発話者の情報と、音声データの受信日時と、取得した音声データとを対応付けて会話音声列に記憶する。これにより、制御部11は、ナースコールシステムを介して監視対象者及び介護スタッフの間で行われた会話のテキストデータ及び音声データを、当該監視対象者のイベントDB13cに記憶することができる。
The
制御部11は、会話の音声データを取得していないと判断した場合(S54:NO)、ステップS55~S57の処理をスキップする。制御部11は、親機40及び子機50を介した会話が終了したか否かを判断する(S58)。例えば制御部11は、親機40及び子機50間での音声データの送受信が終了した場合、会話が終了したと判断する。また、制御部11は、親機40及び子機50間の通信の終了を親機40から通知されてもよい。親機40及び子機50を介した会話が終了していないと判断した場合(S58:NO)、制御部11は、ステップS54の処理に戻り、親機40及び子機50を介した会話の音声データを取得する都度、ステップS55~S57の処理を繰り返す。会話が終了したと判断した場合(S58:YES)、制御部11は一連の処理を終了する。このとき制御部11は、イベントDB13cの進捗情報欄に、介護ケアの終了を示す「済」を記憶してもよい。
If the
上述した処理により、サーバ10は、ナースコールシステムを用いて行われた監視対象者と介護スタッフとの間の会話のテキストデータ及び音声データを蓄積することができる。本実施形態においても、サーバ10に蓄積された会話のテキストデータは、スタッフ端末30又は他の端末等を用いて閲覧することができ、例えば図7Aに示すような画面の生成が可能である。例えば図7Aに示す画面において、最上段の太線の表示枠に、ナースコールの呼出を行った監視対象者の情報、ナースコールの呼出が行われたこと及び日時が表示され、2段目以降の表示枠に、介護スタッフ又は監視対象者が発した会話内容のテキストデータが発話日時と共に表示される。
By the above-described processing, the
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、ナースコールシステムを用いて監視対象者と介護スタッフとが行った会話のテキストデータ及び音声データを蓄積することができる。よって、蓄積したデータに基づいて、監視対象者がナースコールの呼出を行った際の介護スタッフの対応(ナースコールでの応答内容)を後日確認することが可能となる。本実施形態の構成は、上述した実施形態1~3の情報処理システムに適用可能であり、実施形態1~3の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. In addition, in this embodiment, text data and voice data of conversation between the monitored person and the care staff can be stored using the nurse call system. Therefore, based on the accumulated data, it is possible to confirm at a later date how the nursing care staff responded to the monitored person's call for a nurse call (response to the nurse call). The configuration of this embodiment can be applied to the information processing systems of the first to third embodiments described above, and similar effects can be obtained even when applied to the information processing systems of the first to third embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
(実施形態5)
監視対象者に通知対象のイベントが発生した場合に、サーバ10がイベントDB13cに蓄積した情報から、類似するケースを抽出し、抽出した類似ケースで行った介護ケアをアドバイスとして介護スタッフに提示する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。なお、本実施形態では、監視対象者DB13aに、各監視対象者の年齢及び性別を含む属性情報と、既往歴、治療歴、薬の服用歴、現在の診断名及び症状、血液検査及び尿検査等の各種検査結果等を含む診療記録とが記憶されているものとする。監視対象者の診療記録は、監視対象者DB13aに記憶される構成のほかに、診療記録を含む電子カルテを記憶している他のサーバから取得する構成でもよい。
(Embodiment 5)
Information for extracting similar cases from the information accumulated in the
図13は、実施形態5の情報処理システムにおける処理手順の一例を示すフローチャートである。図13に示す処理は、図4及び図5に示す処理において、ステップS16のYESとステップS17との間にステップS71~S73を追加したものである。図4及び図5と同じステップについては説明を省略する。また図13では、図5中の各ステップの図示を省略している。 FIG. 13 is a flowchart illustrating an example of a processing procedure in the information processing system according to the fifth embodiment; The process shown in FIG. 13 is obtained by adding steps S71 to S73 between YES in step S16 and step S17 in the processes shown in FIGS. Description of the same steps as in FIGS. 4 and 5 will be omitted. Also, in FIG. 13, illustration of each step in FIG. 5 is omitted.
本実施形態のサーバ10及びスタッフ端末30は、図4及び図5中のステップS11~S16と同様の処理を行う。これにより、サーバ10は、各センサI/F装置20を介して取得したセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者に対するイベントの発生を検知する。サーバ10の制御部11は、ステップS14で特定したイベントが、介護スタッフへの通知対象のイベントであると判断した場合(S16:YES)、特定したイベントに類似するケースを、各監視対象者のイベントDB13cの記憶内容から抽出する。具体的には、制御部11は、監視対象者DB13aに記憶してある各監視対象者の属性及び診療記録から、ステップS12で特定した監視対象者と、属性及び症状等が類似する監視対象者を抽出する(S71)。例えば制御部11は、診断名が同じ監視対象者、病気のタイプ又は進行状態が類似している監視対象者、同じ薬を服用している監視対象者、要支援・要介護認定の段階が同じ監視対象者等を抽出する。制御部11は、属性及び診療記録の内容がより類似する監視対象者を所定人数(例えば5人)抽出する。
The
次に制御部11は、抽出した監視対象者のイベントDB13cに記憶してある各イベントの情報から、ステップS14で特定したイベントと類似するイベント(類似ケース)を抽出する(S72)。例えば制御部11は、イベント項目及びイベント内容が同じイベント、イベント項目及びイベント内容が同じであって発生時間帯が類似しているイベント等を抽出する。制御部11は、イベントの内容及び発生時間帯等がより類似するイベントを所定数(例えば1~2つ)抽出する。
Next, the
そして制御部11は、抽出した類似ケースにおいて、介護スタッフが行っていた介護ケアの内容に基づいてアドバイスを生成する(S73)。例えば制御部11は、抽出したイベント(類似ケース)に対応付けて記憶してある会話テキストをイベントDB13cから読み出し、読み出した会話テキストから、介護スタッフが行った介護ケアの内容に関する文言を抽出する。そして、制御部11は、抽出した介護ケアの内容に関する文言を用いて、アドバイスを生成する。例えば認知症の監視対象者が離床して居室外で徘徊しているというイベントに対して、会話テキストから、「『もうすぐご家族が迎えに来るから部屋で待っておきましょうね』と声掛けした」という介護ケア内容が抽出された場合、制御部11は、「『もうすぐご家族が迎えに来るから部屋で待っておきましょうね』と声掛けしてください」というアドバイスを生成する。また、会話テキストから、「屋外を散歩したら落ち着いた」という介護ケア内容が抽出された場合、制御部11は、「屋外を散歩してみてください」というアドバイスを生成する。なお、イベントDB13cに記憶してある会話テキストから、介護スタッフが行った介護ケアの内容に関する文言を抽出する処理は、適宜のタイミングで予め行っておき、イベントDB13cに記憶しておいてもよい。この場合、制御部11は、ステップS73でアドバイスを生成する際に、予め抽出された文言を用いてアドバイスを生成することができるので、処理の簡略化が可能となる。
Then, the
制御部11は、ステップS73で生成したアドバイスを含み、介護スタッフに通知すべきアラート情報を生成する(S17)。ここでのアラート情報は、イベントの内容と、当該イベントが発生した監視対象者の情報と、当該イベントに対して介護スタッフが行うべき介護ケアの内容に関するアドバイスとを含む。例えば認知症の監視対象者が離床して居室外で徘徊しているというイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者が徘徊してことを示すメッセージと、介護ケアの内容を提案するアドバイスとを含むアラート情報を生成する。具体的には、「503号室、山田太郎様、居室外を徘徊しています。屋外を散歩してみてください」のようなアラート情報を生成する。その後、制御部11及びスタッフ端末30の制御部31は、ステップS18以降の処理を実行する。よって、スタッフ端末30は、サーバ10から受信したアラート情報を音声出力することにより、イベントが発生している監視対象者の情報と、イベント内容と、介護スタッフが行うべき介護ケア内容とを介護スタッフに通知することができる。なお、アラート情報はテキストデータ又は画像データであってもよく、スタッフ端末30が表示部を有する場合、アラート情報を表示部に表示して介護スタッフに通知してもよい。
The
上述した処理により、監視対象者に通知対象のイベントが発生した場合に、イベントの発生を介護スタッフに通知するだけでなく、過去の類似ケースから介護スタッフがとり得る介護ケア内容をアドバイスすることができる。上述した処理では、イベントの発生時に、介護ケア内容に関するアドバイスを生成して介護スタッフに提示していたが、この構成に限定されない。例えば、監視対象者に対するイベントの発生を介護スタッフに通知した後、介護スタッフ間でスタッフ端末30を用いて会話が行われているときに、介護ケア内容に関するアドバイスを生成して介護スタッフに提示してもよう。この場合、監視対象者の情報及びイベントの内容に加えて、それまでに介護スタッフが行った介護ケア内容も考慮して、更に介護スタッフが行うべき介護ケア内容をアドバイスすることができる。
With the above-described processing, when an event to be notified occurs in a person to be monitored, it is possible not only to notify the care staff of the occurrence of the event, but also to advise the care staff on possible care details based on past similar cases. can. In the process described above, when an event occurs, advice regarding the content of nursing care is generated and presented to the nursing staff, but the configuration is not limited to this. For example, after notifying the care staff of the occurrence of an event for the person to be monitored, while the care staff are having a conversation using the
本実施形態において、類似ケースを抽出する際に、属性及び症状が類似する監視対象者に、イベントが発生中の監視対象者を含めてもよい。この場合、同じ監視対象者において過去に発生した同様のイベントで介護スタッフが行った介護ケア内容に基づくアドバイスを提示できる。 In this embodiment, when extracting a similar case, a monitoring subject having similar attributes and symptoms may include a monitoring subject whose event is occurring. In this case, it is possible to present advice based on the content of nursing care provided by the nursing care staff in similar events that occurred in the past for the same monitored person.
本実施形態において、いずれかの監視対象者にイベントが発生した場合に、属性及び症状が類似する監視対象者を監視対象者DB13aの記憶情報から特定し、類似するイベントをイベントDB13cの記憶内容から特定する構成に限定されない。例えば、アドバイスに用いるべきケース(イベント)に関して、監視対象者の属性及び診療記録と、イベントの内容と、介護スタッフが行った介護ケアの内容とを、予め監視対象者DB13a及びイベントDB13cから抽出し、アドバイス用DBに蓄積しておく。そして、サーバ10は、アドバイス用DBの記憶内容から、イベントが発生した監視対象者の属性及び症状に類似する監視対象者、及び、類似するイベントを特定し、特定内容に対応付けて記憶してある介護ケアの内容を取得してもよい。このような構成とした場合、アドバイスに用いるべき類似ケースを短時間で検索することができ、また、適切な介護ケアの内容を登録しておくことにより、適切なアドバイスの提供が可能となる。更に、このようなアドバイス用DBは、施設毎に設定されると共に、定期的に更新することにより、施設内の監視対象者の状態等に応じた内容にカスタマイズすることができるので、各施設に適したアドバイスの生成が可能となる。
In this embodiment, when an event occurs in one of the monitored persons, the monitored persons with similar attributes and symptoms are specified from the information stored in the monitored
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、監視対象者に対するイベントの発生を介護スタッフに通知する際に、介護スタッフがとり得る介護ケア内容をアドバイスすることができる。これにより、技術、知識又は経験が少ない介護スタッフであっても、アドバイスに従って適切な介護ケアを行うことが可能となる。よって、例えば夜間のように介護スタッフが少ない場合であっても、技術、知識又は経験が少ない介護スタッフを配置することが可能となる。また、介護スタッフはアドバイスによるサポートを受けることができるので、業務に対する不安を低減することができ、離職率の低下及び人材不足の解消が期待できる。本実施形態の構成は、上述した実施形態1~4の情報処理システムに適用可能であり、実施形態1~4の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. In addition, in this embodiment, when notifying the care staff of the occurrence of an event for the person being monitored, it is possible to advise the care staff about possible care details. As a result, even nursing staff with little skill, knowledge, or experience can provide appropriate nursing care according to advice. Therefore, even if there are few nursing staff, such as at night, it is possible to allocate nursing staff with little skill, knowledge, or experience. In addition, since the care staff can receive support by advice, it is possible to reduce anxiety about work, and it is expected that the turnover rate will decrease and the shortage of human resources will be resolved. The configuration of this embodiment can be applied to the information processing systems of the first to fourth embodiments described above, and similar effects can be obtained even when applied to the information processing systems of the first to fourth embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.
10 サーバ
11 制御部
12 主記憶部
13 補助記憶部
14 通信部
20 センサI/F装置
21 睡眠センサ
22 トイレセンサ
23 ドアセンサ
24 環境センサ
25 人感センサ
26 呼出ボタン
30 スタッフ端末
34 通信部
35 マイク
36 イヤホン
13a 監視対象者DB
13b センサデータDB
13c イベントDB
10
13b Sensor data DB
13c Event database
Claims (11)
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、
判定したイベントの発生を複数の介護者の端末へ出力し、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、
取得した音声データをテキストデータに変換し、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する
処理をコンピュータに実行させるプログラム。 Acquiring sensor data from a sensor that detects the state of a person to be monitored in a care facility or the state of the surroundings of the person to be monitored;
Based on the acquired sensor data, determine an event that has occurred in the monitoring target or in the surroundings of the monitoring target,
Output the occurrence of the determined event to the terminals of multiple caregivers,
Obtaining voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers,
Convert the acquired voice data into text data,
A program that causes a computer to execute a process of associating the determined event with text data converted from voice data of conversations of the plurality of caregivers regarding the event and storing the text data in a storage unit.
前記複数種類のセンサから取得したセンサデータに基づいて、複数種類のイベントの発生を判定し、
前記監視対象者毎に、前記複数種類のイベントのうちで、前記複数の介護者の端末に発生を出力すべきイベントを設定する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。 Acquiring sensor data from multiple types of sensors,
determining the occurrence of multiple types of events based on the sensor data obtained from the multiple types of sensors;
2. The program according to claim 1, which causes the computer to execute a process of setting, for each of the monitoring target persons, an event whose occurrence is to be output to the terminals of the plurality of caregivers among the plurality of types of events.
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。 The program according to claim 1 or 2, causing the computer to execute a process of associating the identification information of the caregiver with text data converted from voice data acquired from the terminal of the caregiver and storing the data in the storage unit. .
前記判定したイベントと、抽出したテキストデータとを対応付けて前記記憶部に記憶する
処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。 Extracting text data related to the caregiver's response from the converted text data,
The program according to any one of claims 1 to 3, which causes the computer to execute a process of associating the determined event with the extracted text data and storing them in the storage unit.
処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。 5. The program according to any one of claims 1 to 4, causing the computer to create a report containing information about the event based on the event and the text data stored in the storage unit.
請求項5に記載のプログラム。 6. The report includes a report for nursing care records, a report for reporting the event to medical personnel, and a report for reporting the event to the monitoring subject's family. program as described.
前記テキストデータ中の前記キーワードを強調する
処理を前記コンピュータに実行させる請求項1から6までのいずれかひとつに記載のプログラム。 identifying a keyword from the converted text data;
7. The program according to any one of claims 1 to 6, which causes the computer to execute a process of emphasizing the keyword in the text data.
前記対応の終了を検知した場合、前記イベントに対応付けて、前記介護者による対応の終了を示す情報を前記記憶部に記憶する
処理を前記コンピュータに実行させる請求項1から7までのいずれかひとつに記載のプログラム。 Detecting the end of the caregiver's response to the determined event,
8. The computer according to any one of claims 1 to 7, wherein when the end of the response is detected, information indicating the end of the response by the caregiver is stored in the storage unit in association with the event. program described in .
前記ナースコール子機からの呼出に応答するためのナースコール親機又は介護者の端末を介して入力された前記介護者が発話した音声データを取得し、
取得した前記監視対象者による音声データ及び前記介護者による音声データをテキストデータに変換し、
それぞれ変換したテキストデータを対応付けて記憶部に記憶する
処理をコンピュータに実行させるプログラム。 Acquiring voice data uttered by the person to be monitored input via a nurse call handset associated with the person to be monitored;
Obtaining voice data spoken by the caregiver input via a nurse call parent device or a caregiver terminal for responding to a call from the nurse call slave device,
Converting the acquired voice data of the monitored person and the voice data of the caregiver into text data,
A program that causes a computer to execute a process of correlating each converted text data and storing it in the storage unit.
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、
判定したイベントの発生を複数の介護者の端末へ出力し、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、
取得した音声データをテキストデータに変換し、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する
処理をコンピュータが実行する情報処理方法。 Acquiring sensor data from a sensor that detects the state of a person to be monitored in a care facility or the state of the surroundings of the person to be monitored;
Based on the acquired sensor data, determine an event that has occurred in the monitoring target or in the surroundings of the monitoring target,
Output the occurrence of the determined event to the terminals of multiple caregivers,
Obtaining voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers,
Convert the acquired voice data into text data,
An information processing method in which a computer executes a process of associating the determined event with text data converted from voice data of conversations of the plurality of caregivers regarding the event and storing the text data in a storage unit.
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定する判定部と、
判定したイベントの発生を複数の介護者の端末へ出力する出力部と、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得する音声データ取得部と、
取得した音声データをテキストデータに変換する変換部と、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶する記憶部と
を備える情報処理装置。 a sensor data acquisition unit that acquires sensor data from a sensor that detects the state of a person to be monitored in a nursing facility or the state of the surroundings of the person to be monitored;
a determination unit that determines an event that has occurred in the monitored person or in the surroundings of the monitored person based on the acquired sensor data;
an output unit that outputs the occurrence of the determined event to terminals of a plurality of caregivers;
A voice data acquisition unit that acquires voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers;
a conversion unit that converts the acquired voice data into text data;
An information processing apparatus comprising: a storage unit that associates and stores the determined event and text data converted from voice data of conversations of the plurality of caregivers regarding the event.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169700A JP2023059601A (en) | 2021-10-15 | 2021-10-15 | Program, information processing method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169700A JP2023059601A (en) | 2021-10-15 | 2021-10-15 | Program, information processing method, and information processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023059601A true JP2023059601A (en) | 2023-04-27 |
Family
ID=86096724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021169700A Pending JP2023059601A (en) | 2021-10-15 | 2021-10-15 | Program, information processing method, and information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023059601A (en) |
-
2021
- 2021-10-15 JP JP2021169700A patent/JP2023059601A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726846B2 (en) | Virtual health assistant for promotion of well-being and independent living | |
US8063764B1 (en) | Automated emergency detection and response | |
US20200143655A1 (en) | Smart activities monitoring (sam) processing of data | |
JP2008234443A (en) | Information processor | |
US11116403B2 (en) | Method, apparatus and system for tailoring at least one subsequent communication to a user | |
JP7234572B2 (en) | Care systems, their management methods, and programs | |
JP7044060B2 (en) | Observer monitoring device, method and system | |
JP2019216820A (en) | Support system | |
US20060285651A1 (en) | Monitoring system with speech recognition | |
JP2019017499A (en) | Recuperation support system | |
US20210352176A1 (en) | System and method for performing conversation-driven management of a call | |
JP7140523B2 (en) | Nursing care act estimation system | |
WO2018003750A1 (en) | Nursing/care item input device, nursing/care item input method, and nursing/care item management system | |
WO2020075675A1 (en) | Care system management method, management device and program | |
JP2023059601A (en) | Program, information processing method, and information processing apparatus | |
US20220036554A1 (en) | System and method for supporting the emotional and physical health of a user | |
JP7436014B2 (en) | nurse call system | |
JPWO2018110294A1 (en) | Care plan output device, method and system, and monitored person monitoring system | |
JP7405357B2 (en) | Elderly person monitoring system | |
JP2023059602A (en) | Program, information processing method, and information processing apparatus | |
JP6946276B2 (en) | The terminal device of the monitored person monitoring system, the control method and program of the terminal device, and the monitored person monitoring system | |
JP2021146113A (en) | Nurse call system | |
JP7453638B2 (en) | Nursing care record creation system, nursing care record creation method, medical record creation system, medical record creation method, and program | |
JP7210024B2 (en) | Living alone support robot | |
JP7135886B2 (en) | Prompting utterance device, prompting utterance method and program |