JP2023059601A - Program, information processing method, and information processing apparatus - Google Patents

Program, information processing method, and information processing apparatus Download PDF

Info

Publication number
JP2023059601A
JP2023059601A JP2021169700A JP2021169700A JP2023059601A JP 2023059601 A JP2023059601 A JP 2023059601A JP 2021169700 A JP2021169700 A JP 2021169700A JP 2021169700 A JP2021169700 A JP 2021169700A JP 2023059601 A JP2023059601 A JP 2023059601A
Authority
JP
Japan
Prior art keywords
event
person
monitored
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021169700A
Other languages
Japanese (ja)
Inventor
輝訓 安田
Terukuni Yasuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Econavista Co Ltd
Original Assignee
Econavista Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Econavista Co Ltd filed Critical Econavista Co Ltd
Priority to JP2021169700A priority Critical patent/JP2023059601A/en
Publication of JP2023059601A publication Critical patent/JP2023059601A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a program, or the like, for accumulating the contents of conversations of a caregiver regarding conditions of a person to be monitored (care receiver) without increasing the burden on care staff.SOLUTION: A computer acquires sensor data from a sensor which detects condition of a person to be monitored in a care facility or surrounding conditions of the person to be monitored. The computer determines an event which has occurred on or around the person to be monitored on the basis of the acquired sensor data, and outputs the occurrence of the determined event to terminals of a plurality of caregivers. The computer acquires voice data on conversations of the caregivers from the terminals of the caregivers, and converts the acquired voice data to text data. The computer stores the event and the text data converted from the voice data on the conversations of the caregivers regarding the event, in association with each other, on a storage unit.SELECTED DRAWING: Figure 1

Description

本願は、プログラム、情報処理方法、及び情報処理装置に関する。 The present application relates to a program, an information processing method, and an information processing apparatus.

介護施設では、複数のスタッフが複数の被介護者に対して身体介護及び生活援助等の介護ケアを行っている。このような状況では、例えば各スタッフがインカム(インターカム)を携帯し、インカムを用いてスタッフ間でコミュニケーションをとりながら介護ケアを行うことにより、被介護者に対する適切な介護ケアを効率よく行うことを実現している。特許文献1では、作業者(介護スタッフ)の発話音声から作業対象(被介護者)及び作業内容(介護作業の内容)を特定し、特定した作業の実施が、予め設定された条件(作業の実施順序の条件等)を満たさない場合に作業者にアラートを通知するシステムが提案されている。 In nursing care facilities, a plurality of staff members provide nursing care such as physical care and life support to a plurality of care recipients. In such a situation, for example, each staff member carries an intercom and uses the intercom to communicate with each other while providing nursing care. is realized. In Patent Document 1, a work target (cared person) and work content (care work content) are specified from the uttered voice of a worker (care staff), and the specified work is performed under preset conditions (work conditions). A system has been proposed that notifies an alert to a worker when conditions such as the order of execution) are not satisfied.

特開2021-71973号公報JP 2021-71973 A

特許文献1に開示されたシステムでは、介護スタッフの発話音声から介護スタッフの作業内容を特定することはできるが、被介護者がどのような状態であるかは介護スタッフが確認する必要がある。また、特許文献1に開示されたシステムでは、各作業を実施する際の発話内容のパターンが決められており、介護スタッフは、決められたパターンで発話する必要があり、介護スタッフの負担を軽減することは難しい。 In the system disclosed in Patent Literature 1, it is possible to identify the work content of the care staff from the speech voice of the care staff, but it is necessary for the care staff to confirm the state of the cared person. In addition, in the system disclosed in Patent Document 1, the pattern of the utterance content when performing each work is determined, and the nursing staff needs to speak in the determined pattern, reducing the burden on the nursing staff. difficult to do.

本開示は、斯かる事情に鑑みてなされたものであり、その目的とするところは、介護スタッフの負担を増大させることなく、監視対象者(被介護者)の状態に対する介護者の会話内容を蓄積することが可能なプログラム等を提供することにある。 The present disclosure has been made in view of such circumstances, and the purpose thereof is to provide information on the content of a caregiver's conversation regarding the status of a person to be monitored (care recipient) without increasing the burden on the care staff. The object is to provide a program or the like that can be accumulated.

本発明の一態様に係るプログラムは、介護施設内の監視対象者の状態又は前記監視対象者の周囲の状態を検知するセンサからのセンサデータを取得し、取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、判定したイベントの発生を複数の介護者の端末へ出力し、前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、取得した音声データをテキストデータに変換し、前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する処理をコンピュータに実行させる。 A program according to an aspect of the present invention acquires sensor data from a sensor that detects the state of a person to be monitored in a nursing care facility or the state of the surroundings of the person to be monitored, and based on the acquired sensor data, performs the monitoring An event occurring around the target person or the monitoring target person is determined, the occurrence of the determined event is output to terminals of a plurality of caregivers, and the plurality of caregivers converse from the terminals of the plurality of caregivers. acquire voice data, convert the acquired voice data into text data, associate the determined event with the text data converted from the voice data of the conversations of the plurality of caregivers regarding the event, and store the text data in a storage unit; Make the computer perform the process to

本発明の一態様では、監視対象者の状態を判定し、何らかのイベントが発生した場合に、発生したイベントに対して介護者が行った会話の内容を、イベントに対応付けて蓄積することができる。 According to one aspect of the present invention, the state of a monitoring subject can be determined, and when an event occurs, the contents of a conversation made by a caregiver in response to the event can be stored in association with the event. .

情報処理システムの構成例を示す説明図である。1 is an explanatory diagram showing a configuration example of an information processing system; FIG. サーバ及びスタッフ端末の構成例を示すブロック図である。3 is a block diagram showing a configuration example of a server and staff terminals; FIG. 監視対象者DB、センサデータDB及びイベントDBのレコードレイアウトの一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of record layouts of a monitored person DB, a sensor data DB, and an event DB; 情報処理システムにおける処理手順の一例を示すフローチャートである。4 is a flow chart showing an example of a processing procedure in an information processing system; 情報処理システムにおける処理手順の一例を示すフローチャートである。4 is a flow chart showing an example of a processing procedure in an information processing system; 学習モデルの構成例を示す説明図である。FIG. 4 is an explanatory diagram showing a configuration example of a learning model; 会話のテキストデータの表示例を示す説明図である。FIG. 4 is an explanatory diagram showing a display example of text data of conversation; 実施形態2の情報処理システムにおける処理手順の一例を示すフローチャートである。9 is a flow chart showing an example of a processing procedure in the information processing system of Embodiment 2; 報告情報の作成処理手順の一例を示すフローチャートである。5 is a flow chart showing an example of a processing procedure for creating report information; 報告情報の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of report information; 実施形態4の情報処理システムの構成例を示す説明図である。FIG. 12 is an explanatory diagram showing a configuration example of an information processing system according to Embodiment 4; 実施形態4のサーバによる処理手順の一例を示すフローチャートである。14 is a flow chart showing an example of a processing procedure by a server according to Embodiment 4; 実施形態5の情報処理システムにおける処理手順の一例を示すフローチャートである。14 is a flow chart showing an example of a processing procedure in the information processing system of Embodiment 5. FIG.

以下に、本開示のプログラム、情報処理方法、及び情報処理装置について、その実施形態を示す図面に基づいて詳述する。 A program, an information processing method, and an information processing apparatus of the present disclosure will be described in detail below based on drawings showing embodiments thereof.

(実施形態1)
図1は、情報処理システムの構成例を示す説明図である。本実施形態では、介護施設の各居室で生活している高齢者及び心身障害者等の被介護者の状態を監視し、介護スタッフによる介護ケアが必要である状況を検知した場合に、介護スタッフに通知する情報処理システムについて説明する。以下の説明では、被介護者を監視対象者と呼び、介護スタッフによる介護ケアが必要である状況の発生をイベントの発生と呼ぶ。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of an information processing system. In this embodiment, the state of care recipients such as elderly people and people with mental and physical disabilities living in each room of a nursing care facility is monitored, and when a situation in which nursing care by nursing staff is required is detected, nursing staff An information processing system that notifies to will be described. In the following description, the cared person is called a monitoring target person, and the occurrence of a situation requiring nursing care by a care staff is called the occurrence of an event.

本実施形態の情報処理システムは、サーバ10、センサI/F(InterFace)装置20、スタッフ端末30等を含み、サーバ10、センサI/F装置20及びスタッフ端末30はネットワークNを介して通信接続されている。ネットワークNは、インターネットであってもよく、介護施設内に設けられたLAN(Local Area Network)であってもよい。 The information processing system of this embodiment includes a server 10, a sensor I/F (InterFace) device 20, a staff terminal 30, and the like. It is The network N may be the Internet or a LAN (Local Area Network) provided in a nursing facility.

センサI/F装置20は、例えば監視対象者毎に設けられており、センサI/F装置20には、監視対象者の状態及び監視対象者の周囲の状態を検知するために設けられた複数種類のセンサが接続されている。図1に示す例では、睡眠センサ21、トイレセンサ22、ドアセンサ23、環境センサ24、人感センサ25及び呼出ボタン26が、センサI/F装置20に有線又は無線で接続されている。センサI/F装置20は、各センサ21~25及び呼出ボタン26からの信号を取得し、取得した信号をネットワークN経由でサーバ10へ送信する情報処理装置である。いずれかのセンサ21~25がアナログ信号を出力する場合、センサI/F装置20は、A/D変換を行う構成を有し、センサ21~25からの信号をA/D変換した後にサーバ10へ送信する。 The sensor I/F device 20 is provided, for example, for each person to be monitored. A type of sensor is connected. In the example shown in FIG. 1, a sleep sensor 21, a toilet sensor 22, a door sensor 23, an environment sensor 24, a human sensor 25, and a call button 26 are connected to the sensor I/F device 20 by wire or wirelessly. The sensor I/F device 20 is an information processing device that acquires signals from the sensors 21 to 25 and the call button 26 and transmits the acquired signals to the server 10 via the network N. FIG. When any one of the sensors 21 to 25 outputs an analog signal, the sensor I/F device 20 has a configuration for performing A/D conversion. Send to

センサI/F装置20、センサ21~25及び呼出ボタン26は、例えば監視対象者が生活している部屋(居室)に設けられるが、1人の監視対象者に対して、センサI/F装置20、センサ21~25及び呼出ボタン26の1セットが設けられる構成に限定されない。例えば1人の監視対象者に対して、複数のセンサI/F装置20を設け、睡眠センサ21とトイレセンサ22とが別々のセンサI/F装置20に接続される構成でもよい。また、1人の監視対象者に対して、複数の環境センサ24又は複数の人感センサ25を設け、複数のセンサ24,25が1つのセンサI/F装置20に接続される構成でもよい。センサI/F装置20は、各センサ21~25及び呼出ボタン26の設置場所に応じた位置に適宜配置されればよく、また、各センサ21~25及び呼出ボタン26に内蔵されていてもよい。なお、図1では、監視対象者Bに対してセンサI/F装置20のみを図示しているが、このセンサI/F装置20にも各センサ21~25及び呼出ボタン26が接続されている。 The sensor I/F device 20, the sensors 21 to 25, and the call button 26 are provided, for example, in the room (living room) where the monitored person lives. 20, sensors 21 to 25 and call button 26 are provided. For example, a plurality of sensor I/F devices 20 may be provided for one person to be monitored, and the sleep sensor 21 and toilet sensor 22 may be connected to separate sensor I/F devices 20 . Alternatively, a plurality of environment sensors 24 or a plurality of motion sensors 25 may be provided for one person to be monitored, and the plurality of sensors 24 and 25 may be connected to one sensor I/F device 20 . The sensor I/F device 20 may be appropriately arranged at a position corresponding to the installation location of each sensor 21 to 25 and call button 26, and may be built in each sensor 21 to 25 and call button 26. . Although FIG. 1 shows only the sensor I/F device 20 for the monitored person B, the sensors 21 to 25 and the call button 26 are also connected to the sensor I/F device 20. .

睡眠センサ21は、1人の監視対象者のベッドに1台設置される。睡眠センサ21は、例えばシート状のセンサであり、ベッドマットレスとシーツとの間に設置され、ベッドに横たわった人物の脈拍、呼吸、体動、体温等を検知する。睡眠センサ21は、例えばコンデンサマイクロホン、ピエゾ抵抗効果を利用した圧力センサ、圧電効果を利用した圧力センサ等を使用し、ベッドに設置されたエアマット内の空気圧を検知することにより、監視対象者の入床及び出床(離床)、在床中(睡眠中)の心拍数、呼吸状態及び体動状態等を検知する。なお、睡眠センサ21は、ベッドの枕元又は部屋の壁に設置され、マイクロ波又は赤外線により監視対象者の入床及び出床、ベッドに横たわった人物の脈拍、呼吸、体動、体温等を検出するセンサを使用してもよい。睡眠センサ21は、検知した信号に基づいて、入床及び出床、体動、無呼吸の発生状態、睡眠深度、中途覚醒の発生状態(睡眠が中断し覚醒状態になっている状態)、心拍数、呼吸数、体温等の睡眠データを解析してセンサI/F装置20へ出力する。 One sleep sensor 21 is installed in the bed of one person to be monitored. The sleep sensor 21 is, for example, a sheet-like sensor, installed between a bed mattress and a sheet, and detects the pulse, respiration, body movement, body temperature, etc. of a person lying on the bed. The sleep sensor 21 uses, for example, a condenser microphone, a pressure sensor that uses a piezoresistive effect, a pressure sensor that uses a piezoelectric effect, etc., and detects the air pressure in the air mattress installed on the bed to detect the input of the monitoring subject. Bed and bed (leaving), heart rate while in bed (during sleep), respiratory state, body movement state, etc. are detected. The sleep sensor 21 is installed on the bedside of the bed or on the wall of the room, and detects the arrival and departure of the person to be monitored, the pulse, respiration, body movement, body temperature, etc. of the person lying on the bed by microwaves or infrared rays. You may use a sensor that Based on the detected signals, the sleep sensor 21 detects bed entry and exit, body movement, apnea occurrence state, sleep depth, midway awakening occurrence state (sleep interrupted and wakeful state), heart rate Sleep data such as number, respiration rate, and body temperature are analyzed and output to the sensor I/F device 20 .

トイレセンサ22は、監視対象者の居室内に設けられているトイレに設置されたセンサであり、トイレが使用中であることを検知する。トイレセンサ22は、例えばトイレ(便座)への着座を検知するセンサ、又は、トイレ内の人の存在を検知する人感センサを用いることができ、トイレが使用中であることを検知した場合、検知結果(トイレの使用中)を示す検知信号をセンサI/F装置20へ出力する。ドアセンサ23は、監視対象者の居室に出入りするためのドアに設置されたセンサであり、ドアの開閉又はドアを人物が通過したことを検知する。ドアセンサ23は、ドアの開閉又はドアを人物が通過したことを検知した場合、検知した状態を示す検知信号をセンサI/F装置20へ出力する。 The toilet sensor 22 is a sensor installed in the toilet provided in the living room of the person to be monitored, and detects that the toilet is in use. The toilet sensor 22 can be, for example, a sensor that detects seating on the toilet (toilet seat) or a human sensor that detects the presence of a person in the toilet. A detection signal indicating the detection result (toilet in use) is output to the sensor I/F device 20 . The door sensor 23 is a sensor installed on the door for the person to be monitored to go in and out of the living room, and detects the opening and closing of the door or the passage of a person through the door. When the door sensor 23 detects that the door is opened or closed or that a person has passed through the door, the door sensor 23 outputs a detection signal indicating the detected state to the sensor I/F device 20 .

環境センサ24は、監視対象者の居室内の温度及び湿度等の環境データを計測するセンサである。環境センサ24は、例えば居室の壁面等に設置される。環境センサ24は、計測した温度及び湿度等の環境データをセンサI/F装置20へ出力する。人感センサ25は、監視対象者の居室内に人が存在するか否かを検知するセンサであり、例えば赤外線、超音波、可視光線等を出射してその反射波を検知することにより人の存在を検知する。人感センサ25は、例えば居室の壁面等に設置される。人感センサ25は、人の存在を検知した場合、居室内に人がいることを示す検知信号をセンサI/F装置20へ出力する。 The environmental sensor 24 is a sensor that measures environmental data such as the temperature and humidity in the living room of the person to be monitored. The environment sensor 24 is installed, for example, on the wall surface of the living room. The environmental sensor 24 outputs environmental data such as measured temperature and humidity to the sensor I/F device 20 . The human detection sensor 25 is a sensor that detects whether or not a person exists in the living room of a person to be monitored. Detect presence. The human sensor 25 is installed, for example, on the wall surface of a living room. When detecting the presence of a person, the human sensor 25 outputs to the sensor I/F device 20 a detection signal indicating the presence of a person in the living room.

呼出ボタン26は、監視対象者が自身の判断で救援を希望する場合に手動で操作するボタンであり、例えば監視対象者の居室の壁面等に設置される。呼出ボタン26は、監視対象者によって操作された場合、操作されたことを示す検知信号をセンサI/F装置20へ出力する。 The call button 26 is a button that is manually operated when the person to be monitored desires help on his or her own judgment, and is installed, for example, on the wall of the room of the person to be monitored. The call button 26 outputs a detection signal indicating the operation to the sensor I/F device 20 when operated by the person to be monitored.

本実施形態では、各監視対象者について、センサI/F装置20、センサ21~25及び呼出ボタン26が設けられており、センサI/F装置20、センサ21~25及び呼出ボタン26のそれぞれに、監視対象者が対応付けられている。このような構成のほかに、1つのセンサ21~25が複数の監視対象者を検知する可能性がある箇所に設置されている場合には、顔認証又はID(IDentification)タグ等を併用することにより、各センサ21~25が検知した監視対象者を特定する構成を備えてもよい。 In this embodiment, a sensor I/F device 20, sensors 21 to 25, and a call button 26 are provided for each person to be monitored. , is associated with a person to be monitored. In addition to such a configuration, when one sensor 21 to 25 is installed in a place where there is a possibility of detecting a plurality of persons to be monitored, face authentication or ID (IDentification) tags can be used together. , a configuration may be provided for specifying the person to be monitored detected by each of the sensors 21 to 25. FIG.

センサI/F装置20は、各センサ21~25及び呼出ボタン26からの信号を取得し、取得した信号に応じた情報(監視対象者の状態を示す情報)をネットワークN経由でサーバ10へ送信する。サーバ10は、例えば介護施設に設けられており、本実施形態の情報処理システムを利用する介護事業者が管理するサーバである。なお、サーバ10は、本実施形態の情報処理システムを介護施設に提供する事業者が管理するサーバであってもよい。サーバ10は、種々の情報処理及び情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。サーバ10は、各監視対象者に対して設けられたセンサI/F装置20から逐次受信する監視対象者の情報を蓄積し、介護ケアが必要である状況(イベント)が発生した場合、介護スタッフのスタッフ端末30に、イベントの発生を通知する。 The sensor I/F device 20 acquires signals from the sensors 21 to 25 and the call button 26, and transmits information corresponding to the acquired signals (information indicating the state of the person to be monitored) to the server 10 via the network N. do. The server 10 is provided in, for example, a care facility and managed by a care provider using the information processing system of the present embodiment. Note that the server 10 may be a server managed by a business operator that provides the information processing system of the present embodiment to nursing care facilities. The server 10 is an information processing device capable of various information processing and transmission/reception of information, and is, for example, a server computer, a personal computer, or the like. The server 10 accumulates the information of the monitored person sequentially received from the sensor I/F device 20 provided for each monitored person, and when a situation (event) requiring nursing care occurs, the nursing care staff to notify the staff terminal 30 of the occurrence of the event.

スタッフ端末30は、介護施設の介護スタッフが携帯する情報端末であり、例えばインカム、スマートフォン、タブレット端末等の持ち運び可能な通信端末である。スタッフ端末30は、サーバ10から受信した通知情報を出力することにより、各監視対象者の状態(発生したイベント)を介護スタッフに通知する。また、スタッフ端末30は、他のスタッフ端末30との間で音声メッセージの送受信を行うように構成されており、介護スタッフはスタッフ端末30を介して他の介護スタッフとの間で会話できる。本実施形態では、スタッフ端末30として、ヘッドセットにマイク35、イヤホン36及び通信部34(全て図2参照)が設けられたインカムを用いる構成とするが、この構成に限定されない。例えば、スマートフォン又はタブレット端末に、マイクと、イヤホン又はヘッドホンとが設けられたヘッドセットを有線又は無線で接続して、スタッフ端末30として用いてもよい。 The staff terminal 30 is an information terminal carried by a nursing care staff of a nursing facility, and is a portable communication terminal such as an intercom, a smart phone, or a tablet terminal. The staff terminal 30 outputs the notification information received from the server 10 to notify the care staff of the status of each monitored person (occurred event). Also, the staff terminal 30 is configured to transmit and receive voice messages to and from other staff terminals 30 , and the care staff can converse with other care staff via the staff terminal 30 . In this embodiment, the staff terminal 30 is configured to use an intercom in which a headset is provided with a microphone 35, an earphone 36, and a communication unit 34 (see FIG. 2 for all), but is not limited to this configuration. For example, a smartphone or tablet terminal may be used as the staff terminal 30 by connecting a headset provided with a microphone and earphones or headphones via a wire or wirelessly.

図2は、サーバ10及びスタッフ端末30の構成例を示すブロック図である。スタッフ端末30は、制御部31、主記憶部32、補助記憶部33、通信部34、マイク35、イヤホン36等を有し、これらの各部はバスを介して接続されている。制御部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部31は、補助記憶部33に記憶されたプログラム33Pを主記憶部32に読み出して実行することにより、スタッフ端末30が行うべき情報処理及び制御処理を実行する。 FIG. 2 is a block diagram showing a configuration example of the server 10 and the staff terminal 30. As shown in FIG. The staff terminal 30 has a control section 31, a main storage section 32, an auxiliary storage section 33, a communication section 34, a microphone 35, an earphone 36, etc., and these sections are connected via a bus. The control unit 31 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). The control unit 31 reads the program 33P stored in the auxiliary storage unit 33 into the main storage unit 32 and executes it, thereby executing information processing and control processing that the staff terminal 30 should perform.

主記憶部32は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部31による各種のプログラム33Pの実行時に発生するデータを一時的に記憶する。補助記憶部33は、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等の不揮発性記憶領域であり、制御部31が実行する種々のプログラム33P(プログラム製品)及び各種のデータを記憶している。また補助記憶部33は、ネットワークNを介して他のスタッフ端末30との間で音声メッセージの送受信を行うための会話アプリケーションプログラム33AP(以下では会話アプリ33APという)を記憶している。プログラム33P、会話アプリ33AP及び各種のデータは、スタッフ端末30の製造段階において補助記憶部33に書き込まれてもよく、制御部31が通信部34を介して他の装置からダウンロードして補助記憶部33に記憶してもよい。補助記憶部33は、スタッフ端末30に接続された他の記憶装置であってもよい。 The main storage unit 32 is a temporary storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), flash memory, etc., and temporarily stores data generated when various programs 33P are executed by the control unit 31. Remember. The auxiliary storage unit 33 is a nonvolatile storage area such as a flash memory, hard disk, SSD (Solid State Drive), etc., and stores various programs 33P (program products) executed by the control unit 31 and various data. The auxiliary storage unit 33 also stores a conversation application program 33AP (hereinafter referred to as a conversation application 33AP) for transmitting and receiving voice messages to and from other staff terminals 30 via the network N. The program 33P, conversation application 33AP and various data may be written in the auxiliary storage unit 33 at the manufacturing stage of the staff terminal 30, and the control unit 31 downloads them from another device via the communication unit 34 and stores them in the auxiliary storage unit. 33 may be stored. The auxiliary storage unit 33 may be another storage device connected to the staff terminal 30 .

通信部34は、無線通信に関する処理を行うための通信モジュールであり、ネットワークNを介して他の装置との間で情報の送受信を行う。マイク35は、周囲の音声を収集してデジタルの音声データを生成する音声入力部であり、取得した音声データを例えば主記憶部32へ送出して記憶させる。イヤホン36は、制御部31からの指示に従って音声を出力する音声出力部であり、制御部31からの指示に従ったメッセージ又は警告音を音声出力する。なお、スタッフ端末30は、イヤホン36の代わりにヘッドホン又はスピーカを備える構成でもよい。 The communication unit 34 is a communication module for performing processing related to wireless communication, and transmits and receives information to and from other devices via the network N. The microphone 35 is an audio input unit that collects surrounding sounds and generates digital audio data, and transmits the acquired audio data to, for example, the main storage unit 32 for storage. The earphone 36 is an audio output unit that outputs audio according to instructions from the control unit 31 , and outputs messages or warning sounds according to instructions from the control unit 31 . The staff terminal 30 may be configured to include headphones or speakers instead of the earphones 36 .

スタッフ端末30は、上述した構成に加えて、介護スタッフによる操作入力を受け付ける入力部、液晶ディスプレイ又は有機ELディスプレイ等による表示部、及びカメラ等を有していてもよい。 In addition to the configuration described above, the staff terminal 30 may have an input unit for receiving operation input by the care staff, a display unit such as a liquid crystal display or an organic EL display, a camera, and the like.

サーバ10は、制御部11、主記憶部12、補助記憶部13、通信部14等を有し、これらの各部はバスを介して接続されている。サーバ10の上述した各部11~14は、スタッフ端末30の各部31~34と同様の構成を有するので、構成についての説明は省略する。なお、サーバ10の補助記憶部13は、制御部11が実行する種々のプログラム13P(プログラム製品)に加えて、監視対象者DB13a、センサデータDB13b、及びイベントDB13cを記憶している。監視対象者DB13aは、本システムにおける監視対象者に関する情報を格納するデータベースである。センサデータDB13bは、各センサ21~25が検知した監視対象者の状態及び呼出ボタン26に対する操作状態を格納するデータベースである。イベントDB13cは、各監視対象者に対して発生したイベントに関する情報を格納するデータベースである。監視対象者DB13a、センサデータDB13b、及びイベントDB13cは、サーバ10がネットワークN経由で通信可能な他の記憶装置に記憶されていてもよい。 The server 10 has a control section 11, a main storage section 12, an auxiliary storage section 13, a communication section 14, etc., and these sections are connected via a bus. Since the above-described units 11 to 14 of the server 10 have the same configuration as the units 31 to 34 of the staff terminal 30, description of the configuration will be omitted. In addition to various programs 13P (program products) executed by the control unit 11, the auxiliary storage unit 13 of the server 10 stores a monitored person DB 13a, a sensor data DB 13b, and an event DB 13c. The monitored person DB 13a is a database that stores information about a monitored person in this system. The sensor data DB 13b is a database that stores the state of the monitored person detected by the sensors 21 to 25 and the operation state of the call button 26. FIG. The event DB 13c is a database that stores information about events that have occurred with respect to each monitored person. The monitoring subject DB 13a, the sensor data DB 13b, and the event DB 13c may be stored in another storage device with which the server 10 can communicate via the network N.

本実施形態において、サーバ10は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよく、クラウドサーバであってもよい。また、サーバ10は、上述した構成に加えて、操作入力を受け付ける入力部、液晶ディスプレイ又は有機ELディスプレイ等による表示部等を有していてもよい。また、サーバ10は、非一時的なコンピュータ読取可能な可搬型記憶媒体10aを読み取る読取部を備え、読取部を用いて可搬型記憶媒体10aからプログラム13Pを読み取って補助記憶部13に記憶してもよい。また、プログラム13Pは単一のコンピュータ上で実行されてもよく、ネットワークNを介して相互接続された複数のコンピュータ上で実行されてもよい。 In this embodiment, the server 10 may be a multicomputer consisting of a plurality of computers, a virtual machine virtually constructed by software, or a cloud server. In addition to the configuration described above, the server 10 may have an input unit for receiving operation input, a display unit such as a liquid crystal display or an organic EL display, and the like. The server 10 also includes a reading unit that reads a non-temporary computer-readable portable storage medium 10a. good too. Also, the program 13P may be executed on a single computer, or may be executed on a plurality of computers interconnected via a network N.

図3は、監視対象者DB13a、センサデータDB13b及びイベントDB13cのレコードレイアウトの一例を示す説明図である。監視対象者DB13aは、対象者ID列、氏名列、年齢列、性別列、部屋番号列、通知対象イベント列を含む。対象者ID列は、監視対象者に固有に割り当てられたIDを記憶する。氏名列、年齢列、性別列、及び部屋番号列は、対象者IDに対応付けて、監視対象者の氏名、年齢、性別、居室の番号(部屋番号)を記憶する。通知対象イベント列は、監視対象者に発生したイベントのうちで介護スタッフに通知すべきイベントの情報(例えばイベント名、イベントの識別情報)を記憶する。 FIG. 3 is an explanatory diagram showing an example of record layouts of the monitored person DB 13a, the sensor data DB 13b, and the event DB 13c. The monitoring subject DB 13a includes a subject ID column, a name column, an age column, a gender column, a room number column, and a notification target event column. The target person ID column stores an ID uniquely assigned to the monitoring target person. The name column, age column, gender column, and room number column store the name, age, sex, and room number (room number) of the monitoring subject in association with the subject ID. The notification target event column stores information (for example, event name, event identification information) of an event to be notified to the care staff among the events occurring in the monitoring target.

イベントは、監視対象者の状態又は監視対象者の周囲の環境に発生する事象であり、通常の状態とは異なる事象、介護スタッフに通知(アラート)すべき事象、及び介護ケアを要する事象等を含む。例えばイベントは、監視対象者の離床(出床)、入床中(在床中、就寝中)の監視対象者の体動の増加、トイレの使用及び長時間のトイレ滞在、ドアの開放又は人の通過、所定範囲外の室温又は湿度、監視対象者の心拍又は呼吸等の停止、各センサ21~25又はセンサI/F装置20の動作停止、呼出ボタン26の操作等を含む。また、情報処理システムにおいて、介護施設の玄関又は各監視対象者の居室のドア等に、顔認証又はIDタグ等を使用した個人認証端末が設けられている場合、予め登録してある登録者(監視対象者及び介護スタッフ)の検知、未登録者の検知、監視対象者の徘徊等をイベントに含めてもよい。イベントの発生は、サーバ10の制御部11が、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて判定する。なお、制御部11は、各監視対象者に対するイベントの発生を判定した場合、判定したイベントの情報をイベントDB13cに登録する。 An event is an event that occurs in the monitored person's condition or the surrounding environment of the monitored person. include. For example, an event may include a person to be monitored leaving the bed (getting out of bed), an increase in body movement of the person to be monitored while in bed (in bed, sleeping), use of the toilet and staying in the toilet for a long time, opening the door, or room temperature or humidity out of a predetermined range, heartbeat or respiration of the person to be monitored stops, operation of the sensors 21 to 25 or the sensor I/F device 20 stops, operation of the call button 26, and the like. In addition, in the information processing system, if a personal authentication terminal using face authentication or ID tag is installed at the entrance of the nursing care facility or the door of each monitored person's room, etc., the pre-registered registrant ( The event may include the detection of a person to be monitored and care staff), the detection of an unregistered person, the wandering of a person to be monitored, and the like. Occurrence of an event is determined by the control unit 11 of the server 10 based on information obtained from the sensors 21 to 25 and the call button 26 via the sensor I/F device 20 . When determining that an event has occurred for each person to be monitored, the control unit 11 registers information about the determined event in the event DB 13c.

センサデータDB13bは、監視対象者毎に設けられ、監視対象者の対象者IDに対応付けて、各センサ21~25による検知結果及び呼出ボタン26に対する操作情報を記憶する。センサデータDB13bは、日時列、睡眠センサ列、トイレセンサ列、ドアセンサ列、環境センサ列、人感センサ列、呼出ボタン列を含む。日時列は、各センサ21~25による検知日時及び呼出ボタン26に対する操作日時を記憶する。なお、日時列は、サーバ10が各センサ21~25及び呼出ボタン26から検知結果及び操作情報を取得した日時を記憶してもよい。睡眠センサ列は、睡眠センサ21が検知した監視対象者の睡眠時の状態を示す睡眠データを記憶する。睡眠データは、入床及び出床の状態を示すデータ、体動の大きさを示す体動データ、無呼吸現象の発生状態を示す無呼吸データ、睡眠深度を示す睡眠深度データ、心拍数を示す心拍数データ、呼吸数を示す呼吸数データ、体温を示す体温データを含む。なお、睡眠データは、日時に対応付けて各データが記憶される構成のほかに、監視対象者の状態の時間的変化を示すグラフのデータが記憶されてもよい。例えば、入床及び出床の状態の時間的変化を示すグラフ、体動の時間的変化を示すグラフ、無呼吸現象の発生状態の時間的変化を示すグラフ、睡眠深度の時間的変化を示すグラフ、心拍数の時間的変化を示すグラフ、呼吸数の時間的変化を示すグラフ、体温の時間的変化を示すグラフが睡眠センサ列に記憶されてもよい。グラフのデータは、例えば睡眠センサ21が計測を行った時刻と計測した値との組を、計測を行うたびに記録した一連のデータである。なお、無呼吸現象は、睡眠中に口及び鼻の気流が10秒間以上停止する現象である。睡眠深度は、例えば目覚め、浅い眠り及び深い眠りの3段階で検出され、睡眠深度データには、中途覚醒の発生状態及び一日の合計睡眠時間が含まれてもよい。 The sensor data DB 13b is provided for each person to be monitored, and stores detection results by the sensors 21 to 25 and operation information for the call button 26 in association with the person ID of the person to be monitored. The sensor data DB 13b includes a date/time column, a sleep sensor column, a toilet sensor column, a door sensor column, an environment sensor column, a motion sensor column, and a call button column. The date and time column stores the date and time of detection by each of the sensors 21 to 25 and the date and time of operation of the call button 26 . The date and time column may store the date and time when the server 10 acquires the detection results and operation information from the sensors 21 to 25 and the call button 26 . The sleep sensor column stores sleep data indicating the sleep state of the monitoring subject detected by the sleep sensor 21 . The sleep data includes data indicating the state of getting in and out of bed, body movement data indicating the magnitude of body movement, apnea data indicating the occurrence state of an apnea phenomenon, sleep depth data indicating the depth of sleep, and heart rate. Includes heart rate data, respiration rate data indicating respiration rate, and body temperature data indicating body temperature. As for the sleep data, in addition to the configuration in which each data is stored in association with the date and time, graph data showing temporal changes in the state of the monitoring subject may be stored. For example, a graph showing temporal changes in the state of getting in and out of bed, a graph showing temporal changes in body movement, a graph showing temporal changes in the occurrence of apnea, and a graph showing temporal changes in sleep depth. , a graph showing temporal changes in heart rate, a graph showing temporal changes in respiration rate, and a graph showing temporal changes in body temperature may be stored in the sleep sensor array. The data of the graph is, for example, a series of data in which a set of the time when the sleep sensor 21 performs the measurement and the measured value is recorded each time the measurement is performed. The apnea phenomenon is a phenomenon in which the airflow in the mouth and nose stops for 10 seconds or longer during sleep. Sleep depth is detected, for example, in three stages of awakening, light sleep, and deep sleep, and the sleep depth data may include the state of occurrence of midway awakening and the total sleep time per day.

トイレセンサ列は、トイレセンサ22が監視対象者によるトイレの使用を検知したか否かを示す情報(使用/不使用)を記憶する。ドアセンサ列は、ドアセンサ23がドアの開放又は監視対象者によるドアの通過を検知したか否かを示す情報(通過/動き無し)を記憶する。環境センサ列は、環境センサ24が検知した監視対象者の居室内の温度及び湿度を示す環境データを記憶する。環境データも、日時に対応付けて温度及び湿度が記憶される構成のほかに、温度及び湿度の時間的変化を示すグラフのデータが環境センサ列に記憶されてもよい。人感センサ列は、人感センサ25が監視対象者の存在(在室)を検知したか否かを示す情報(存在/不在)を記憶する。呼出ボタン列は、監視対象者が呼出ボタン26を操作(使用)したか否かを示す情報(使用/不使用)を記憶する。サーバ10の制御部11は、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて、センサデータDB13bの各列を更新する。なお、トイレセンサ列には、トイレの使用を示す情報(使用)のみが記憶されてもよく、ドアセンサ列には、ドアの通過を示す情報(通過)のみが記憶されてもよく、人感センサ列には、監視対象者の存在を示す情報(存在)のみが記憶されてもよく、呼出ボタン列には、呼出ボタン26の操作を示す情報(使用)のみが記憶されてもよい。 The toilet sensor column stores information (used/not used) indicating whether or not the toilet sensor 22 has detected the use of the toilet by the monitored person. The door sensor array stores information (passage/no movement) indicating whether or not the door sensor 23 has detected the opening of the door or the passage of the monitored person through the door. The environmental sensor column stores environmental data indicating the temperature and humidity in the monitoring subject's living room detected by the environmental sensor 24 . As for the environmental data, in addition to the configuration in which the temperature and humidity are stored in association with the date and time, graph data showing temporal changes in the temperature and humidity may be stored in the environment sensor array. The human sensor column stores information (presence/absence) indicating whether or not the human sensor 25 has detected the presence of a person to be monitored (in the room). The call button row stores information (used/not used) indicating whether or not the monitored person has operated (used) the call button 26 . The control unit 11 of the server 10 updates each column of the sensor data DB 13b based on the information obtained from the sensors 21 to 25 and the call button 26 via the sensor I/F device 20. FIG. Note that the toilet sensor array may store only information indicating use of the toilet (use), and the door sensor array may store only information indicating door passage (passage). The column may store only information (presence) indicating the presence of the person to be monitored, and the call button column may store only information (use) indicating the operation of the call button 26 .

イベントDB13cは、監視対象者毎に設けられ、監視対象者の対象者IDに対応付けて、監視対象者に発生したイベントの情報を記憶する。イベントDB13cは、日時列、イベント項目列、イベント内容列、会話テキスト列、会話音声列、進捗情報列を含む。日時列は、イベントの発生日時であり、サーバ10の制御部11が、各センサ21~25及び呼出ボタン26から取得した情報に基づいてイベントの発生を判定した日時を記憶する。イベント項目列及びイベント内容列は、発生したイベントに関する項目及びその内容を記憶する。例えば監視対象者に中途覚醒による離床というイベントが発生した場合、イベント項目として「離床」が、イベント内容として「中途覚醒」がそれぞれ登録される。また、所定範囲外の室温というイベントが発生した場合、イベント項目として「室温」が、イベント内容として「30℃(計測した室温)」がそれぞれ登録される。また、長時間のトイレ滞在というイベントが発生した場合、イベント項目として「トイレ」が、イベント内容として「20分(計測した時間)」がそれぞれ登録される。また、入床中における体動の増加というイベントが発生した場合、イベント項目として「体動」が、イベント内容として「増加」がそれぞれ登録される。また、呼出ボタン26の操作というイベントが発生した場合、イベント項目として「呼出」が登録される。会話音声列は、イベントに対して介護スタッフが行った会話の音声データを記憶し、会話テキスト列は、会話の音声データをテキスト変換して得られたテキストデータを記憶する。会話の音声データ及びテキストデータは、スタッフ端末30が当該音声データを送信した日時、及び発話している介護スタッフの情報を含む。進捗情報列は、発生したイベントに対して介護スタッフによる対応(以下では介護ケアという)の進捗状況を示す情報を記憶し、例えば介護ケアが終了した場合「済」が記憶される。イベントDB13cは図3に示した構成に限定されない。例えばイベントの項目及び内容に対応付けて、当該イベントに対して介護スタッフが監視対象者に介護ケアを行う際に撮影した写真及び動画、並びに録音した音声等がイベントDB13cに記憶される構成でもよい。 The event DB 13c is provided for each person to be monitored, and stores information on events occurring in the person to be monitored in association with the person ID of the person to be monitored. The event DB 13c includes a date and time column, an event item column, an event content column, a conversation text column, a conversation voice column, and a progress information column. The date and time column is the date and time when the event occurred, and stores the date and time when the control unit 11 of the server 10 determined the occurrence of the event based on the information obtained from the sensors 21 to 25 and the call button 26 . The event item column and event content column store items related to events that have occurred and their content. For example, when an event of getting out of bed due to awakening in the middle occurs in a person to be monitored, "getting out of bed" is registered as the event item, and "awakening in the middle" is registered as the event content. When an event of room temperature outside the predetermined range occurs, "room temperature" is registered as the event item and "30° C. (measured room temperature)" is registered as the event content. When an event of staying in the bathroom for a long time occurs, "toilet" is registered as the event item, and "20 minutes (measured time)" is registered as the event content. Further, when an event of increased body movement during bed rest occurs, "body movement" is registered as the event item, and "increase" is registered as the event content. Further, when an event of operation of the call button 26 occurs, "call" is registered as an event item. The conversation voice string stores voice data of the conversation conducted by the care staff for the event, and the conversation text string stores text data obtained by converting the voice data of the conversation into text. The voice data and text data of the conversation include the date and time when the staff terminal 30 transmitted the voice data and the information of the nursing care staff who is speaking. The progress information column stores information indicating the progress of the care staff's response to the event that has occurred (hereinafter referred to as nursing care). The event DB 13c is not limited to the configuration shown in FIG. For example, in association with the item and content of the event, the event DB 13c may be configured to store photographs and videos taken when nursing care staff provide nursing care to a person to be monitored for the event, as well as recorded audio and the like. .

サーバ10の制御部11は、センサI/F装置20を介して各センサ21~25及び呼出ボタン26から取得した情報に基づいて、監視対象者に何らかのイベントの発生を検知した場合、イベントDB13cの日時列、イベント項目列及びイベント内容列を更新する。また、制御部11は、スタッフ端末30間で音声でやり取りされる会話を取得しており、取得した会話音声をテキストデータに変換した場合に、生成した会話テキストを会話テキスト列に記憶し、会話音声を会話音声列に記憶する。なお、イベントDB13cには、監視対象者に発生した全てのイベントの情報が登録されるが、発生したイベントのうちで、監視対象者DB13aに登録してある通知対象イベントについてのみイベントの発生が介護スタッフに通知される。よって、イベントDB13cの会話テキスト列及び会話音声列には、介護スタッフに通知されたイベントに対して介護スタッフ間でやり取りされた会話に関するテキスト及び音声が記憶される。このような構成のほかに、介護スタッフに通知されたイベント(通知対象イベントに登録してあるイベント)の情報のみがイベントDB13cに登録される構成でもよい。 Based on the information obtained from the sensors 21 to 25 and the call button 26 via the sensor I/F device 20, the control unit 11 of the server 10 detects the occurrence of an event in the monitored person, and stores the event in the event DB 13c. Update the date and time column, event item column, and event content column. Further, the control unit 11 acquires a conversation exchanged by voice between the staff terminals 30, and when the acquired conversation voice is converted into text data, stores the generated conversation text in a conversation text string, Store the speech in a conversational speech string. The event DB 13c registers information on all events that have occurred in the monitored person. Staff will be notified. Therefore, in the conversation text string and the conversation voice string of the event DB 13c, the text and voice related to the conversation exchanged between the care staff for the event notified to the care staff are stored. In addition to such a configuration, only information of events (events registered as notification target events) notified to the care staff may be registered in the event DB 13c.

以下に、本実施形態の情報処理システムにおいて各装置が行う処理について説明する。図4及び図5は、情報処理システムにおける処理手順の一例を示すフローチャートである。図4及び図5では左側にサーバ10が行う処理を、右側にスタッフ端末30が行う処理をそれぞれ示す。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行されると共に、スタッフ端末30の補助記憶部33に記憶してあるプログラム33P及び会話アプリ33APに従って制御部31によって実行される。以下の処理において、センサI/F装置20は、各センサ21~25による検知信号及び呼出ボタン26からの操作信号を取得した場合、取得した信号をネットワークN経由でサーバ10へ送信する処理を行っている。なお、センサI/F装置20は、サーバ10からの信号要求に応じて、各センサ21~25及び呼出ボタン26からの信号をサーバ10へ送信する構成でもよい。 Processing performed by each device in the information processing system of this embodiment will be described below. 4 and 5 are flowcharts showing an example of a processing procedure in the information processing system. 4 and 5, the processing performed by the server 10 is shown on the left side, and the processing performed by the staff terminal 30 is shown on the right side. The following processing is executed by the control unit 11 according to the program 13P stored in the auxiliary storage unit 13 of the server 10, and is controlled according to the program 33P and the conversation application 33AP stored in the auxiliary storage unit 33 of the staff terminal 30. It is executed by the unit 31 . In the following processing, when the sensor I/F device 20 acquires detection signals from the sensors 21 to 25 and operation signals from the call button 26, the sensor I/F device 20 transmits the acquired signals to the server 10 via the network N. ing. Note that the sensor I/F device 20 may be configured to transmit signals from the sensors 21 to 25 and the call button 26 to the server 10 in response to a signal request from the server 10 .

サーバ10の制御部11は、いずれかのセンサI/F装置20を経由して、当該センサI/F装置20に接続されているセンサ21~25又は呼出ボタン26からの信号(センサデータ)を受信したか否かを判断している(S11)。制御部11は、センサデータを受信していないと判断した場合(S11:NO)、受信するまで待機する。制御部11(センサデータ取得部)は、センサデータを受信したと判断した場合(S11:YES)、受信したセンサデータが、どの監視対象者の状態を検知したセンサデータであるかを特定する(S12)。例えば、サーバ10に、各監視対象者の識別情報(対象者ID)と、各センサI/F装置20の識別情報(装置ID)とを対応付けて登録したテーブルを記憶しておき、センサI/F装置20が、センサデータと、当該センサI/F装置20の識別情報とをサーバ10へ送信するように構成しておく。この場合、サーバ10の制御部11は、センサI/F装置20から受信したセンサI/F装置20の識別情報とテーブルとに基づいて、受信したセンサデータに対応する監視対象者を特定できる。また、センサI/F装置20が、対応する監視対象者の識別情報を記憶しておき、センサデータと、監視対象者の識別情報とをサーバ10へ送信するように構成しておいてもよい。この場合、サーバ10の制御部11は、センサI/F装置20から受信した監視対象者の識別情報に基づいて、受信したセンサデータに対する監視対象者を特定できる。 The control unit 11 of the server 10 receives signals (sensor data) from the sensors 21 to 25 or the call button 26 connected to the sensor I/F device 20 via one of the sensor I/F devices 20. It is determined whether or not it has been received (S11). If the control unit 11 determines that the sensor data has not been received (S11: NO), it waits until the sensor data is received. When the control unit 11 (sensor data acquisition unit) determines that the sensor data has been received (S11: YES), the received sensor data identifies the sensor data that detected the state of the person to be monitored ( S12). For example, the server 10 stores a table in which the identification information (subject ID) of each monitored person and the identification information (device ID) of each sensor I/F device 20 are associated and registered. The /F device 20 is configured to transmit sensor data and identification information of the sensor I/F device 20 to the server 10 . In this case, the control unit 11 of the server 10 can specify the monitored person corresponding to the received sensor data based on the identification information of the sensor I/F device 20 received from the sensor I/F device 20 and the table. Further, the sensor I/F device 20 may be configured to store the identification information of the corresponding monitoring subject and transmit the sensor data and the identification information of the monitoring subject to the server 10. . In this case, the control unit 11 of the server 10 can specify the monitored person for the received sensor data based on the monitored person identification information received from the sensor I/F device 20 .

制御部11は、特定した監視対象者のセンサデータDB13bに、この時点の日時と、受信したセンサデータとを対応付けて記憶する(S13)。制御部11(判定部)は、センサデータDB13bに記憶したセンサデータに基づいて、ここでの監視対象者に発生したイベントを特定する(S14)。例えば睡眠センサ21から監視対象者の離床を示す信号を受信した場合、制御部11は、監視対象者の離床というイベントの発生を特定する。また、睡眠センサ21から体動の状態を示す信号を受信した場合、制御部11は、受信した信号が示す体動の大きさが所定値以上であれば、ベッド上の監視対象者の体動が大きいというイベントの発生を特定する。また、トイレセンサ22からトイレの使用を示す信号を受信した場合、制御部11は、トイレの使用というイベントの発生を特定する。また、制御部11は、トイレの使用を示す信号を所定時間以上継続して受信した場合、長時間のトイレ滞在というイベントの発生を特定する。また、ドアセンサ23からドアの開放を示す信号を受信した場合、制御部11は、ドアの開放というイベントの発生を特定する。また、制御部11は、環境センサ24から温度(室温)を示す信号を受信した場合、受信した温度が所定範囲以上であれば、高温状態というイベントの発生を特定し、受信した温度が所定範囲未満であれば、低温状態というイベントの発生を特定する。また、制御部11は、環境センサ24から湿度を示す信号を受信した場合、受信した湿度が所定範囲以上であれば、湿度が高い(多湿)状態というイベントの発生を特定し、受信した湿度が所定範囲未満であれば、湿度が低い(乾燥)状態というイベントの発生を特定する。また、睡眠センサ21から心拍数ゼロ及び呼吸数ゼロを示す信号を受信した場合、制御部11は、生体反応を検知できない(心拍及び呼吸の停止)というイベントの発生を特定する。また、呼出ボタン26からの操作信号を受信した場合、制御部11は、呼出ボタン26の操作というイベントの発生を特定する。また、制御部11は、いずれかのセンサI/F装置20からの信号、又はいずれかのセンサ21~26からの信号を所定時間以上受信しなかった場合、いずれかのセンサI/F装置20、又はいずれかのセンサ21~25の動作不良というイベントの発生を特定する。 The control unit 11 associates and stores the date and time at this point in time with the received sensor data in the sensor data DB 13b of the specified person to be monitored (S13). Based on the sensor data stored in the sensor data DB 13b, the control unit 11 (determining unit) identifies an event that has occurred in the monitoring target here (S14). For example, when receiving from the sleep sensor 21 a signal indicating that the person to be monitored is getting out of bed, the control unit 11 identifies the occurrence of an event that the person to be monitored is getting out of bed. Further, when receiving a signal indicating the state of body movement from the sleep sensor 21, if the magnitude of body movement indicated by the received signal is equal to or greater than a predetermined value, the control unit 11 detects the body movement of the monitoring subject on the bed. Identify occurrences of events where is large. Further, when receiving a signal indicating use of the toilet from the toilet sensor 22, the control unit 11 identifies occurrence of an event of use of the toilet. Further, when the control unit 11 receives a signal indicating use of the toilet continuously for a predetermined time or longer, the control unit 11 identifies occurrence of an event of a long stay in the toilet. Further, when receiving a signal indicating that the door is opened from the door sensor 23, the control unit 11 identifies the occurrence of an event that the door is opened. Further, when the control unit 11 receives a signal indicating temperature (room temperature) from the environment sensor 24, if the received temperature is equal to or higher than a predetermined range, the control unit 11 identifies occurrence of an event of a high temperature state, and determines whether the received temperature is within the predetermined range. If it is less than, it identifies the occurrence of a low temperature event. Further, when receiving a signal indicating humidity from the environment sensor 24, the control unit 11 identifies occurrence of an event of a high humidity (high humidity) state if the received humidity is greater than or equal to a predetermined range. If it is less than the predetermined range, the occurrence of an event of low humidity (dry) is identified. Further, when receiving a signal indicating zero heart rate and zero breathing rate from the sleep sensor 21, the control unit 11 identifies occurrence of an event in which a biological reaction cannot be detected (stop of heartbeat and breathing). Further, when receiving an operation signal from the call button 26 , the control unit 11 identifies occurrence of an event of operation of the call button 26 . In addition, if the control unit 11 does not receive a signal from any sensor I/F device 20 or a signal from any of the sensors 21 to 26 for a predetermined time or longer, the sensor I/F device 20 , or the occurrence of an event of malfunction of any of the sensors 21-25.

また、介護施設の適宜箇所に顔認証又はIDタグ等を使用した個人認証端末が設けられている場合、制御部11は、個人認証端末から受信した信号に基づいて、登録者の検知、及び未登録者の検知というイベントの発生を特定する。また、1つの個人認証端末によって同じ監視対象者を所定時間内に所定回数以上検知した場合、制御部11は、当該監視対象者の徘徊というイベントの発生を特定する。制御部11によって発生が検知されるイベントは、上述したイベントに限定されず、監視対象者又は監視対象者の周囲に発生するイベントであればよく、各センサ21~26による検知信号に基づいて特定できる各種の状態を含めることができる。なお、体動、トイレの滞在時間、温度、湿度が正常範囲であるか否かを判定するための基準値は、サーバ10の補助記憶部13に予め記憶されており、監視対象者毎に設定された基準値が予め記憶されていてもよい。 In addition, when a personal authentication terminal using face authentication or an ID tag is provided at an appropriate location in the nursing care facility, the control unit 11 detects the registrant based on the signal received from the personal authentication terminal, and Identifies the occurrence of an event called Subscriber Detection. Further, when the same person to be monitored is detected more than a predetermined number of times within a predetermined time by one personal authentication terminal, the control unit 11 identifies the occurrence of an event of loitering of the person to be monitored. The event whose occurrence is detected by the control unit 11 is not limited to the events described above, and may be any event that occurs in the person to be monitored or in the surroundings of the person to be monitored, and is specified based on detection signals from the sensors 21 to 26. It can contain various possible states. Note that the reference values for determining whether body movement, time spent in the bathroom, temperature, and humidity are within normal ranges are stored in advance in the auxiliary storage unit 13 of the server 10, and are set for each person to be monitored. The determined reference value may be stored in advance.

制御部11は、ここでの監視対象者のイベントDB13cに、イベント発生の特定に使用したセンサデータの検知日時と、判定したイベントの情報とを対応付けて記憶する(S15)。例えば制御部11は、監視対象者の睡眠中の中途覚醒による離床というイベントの発生を特定した場合、イベント項目として「離床」を記憶し、イベント内容として「中途覚醒」を記憶する。また制御部11は、体動が大きいというイベントの発生を特定した場合、イベント項目として「体動」を記憶し、イベント内容として「大きい」又は「増加」を記憶する。また制御部11は、トイレの使用というイベントの発生を特定した場合、イベント項目として「トイレ」を記憶し、更に長時間のトイレ滞在というイベントの発生を特定した場合、イベント内容としてトイレの滞在時間を記憶する。また制御部11は、ドアの開放というイベントの発生を特定した場合、イベント項目として「ドア」を記憶し、イベント内容として「開放」を記憶する。また制御部11は、高温状態又は低温状態というイベントの発生を特定した場合、イベント項目として「室温」を記憶し、イベント内容として、計測した室温を記憶する。また制御部11は、多湿状態又は乾燥状態というイベントの発生を特定した場合、イベント項目として「湿度」を記憶し、イベント内容として、計測した湿度を記憶する。また制御部11は、心拍及び呼吸の停止というイベントの発生を特定した場合、イベント項目として「心拍」を記憶し、イベント内容として、計測した心拍数及び呼吸数(計測数ゼロ)を記憶する。また制御部11は、呼出ボタン26の操作というイベントの発生を特定した場合、イベント項目として「呼出ボタン」を記憶し、イベント内容として「操作」を記憶する。また制御部11は、センサI/F装置20又はセンサ21~25の動作不良というイベントの発生を特定した場合、イベント項目として「機器不良」を記憶し、イベント内容として、動作不要の発生が検知された機器の機器情報を記憶する。 The control unit 11 associates and stores the detection date and time of the sensor data used to specify the occurrence of the event and the information of the determined event in the event DB 13c of the monitored person (S15). For example, when the control unit 11 specifies the occurrence of an event of getting out of bed due to awakening in the middle of sleep of the monitoring subject, it stores "getting out of bed" as the event item and "waking up in the middle of the night" as the event content. Further, when the control unit 11 identifies the occurrence of an event that the body movement is large, it stores "body movement" as the event item and "large" or "increase" as the event content. When the occurrence of the event of using the toilet is specified, the control unit 11 stores "toilet" as the event item, and when the occurrence of the event of staying in the toilet for a long time is specified, the duration of stay in the toilet is stored as the event content. memorize Further, when the control unit 11 identifies the occurrence of the event of opening the door, it stores "door" as the event item and "open" as the event content. When the control unit 11 identifies the occurrence of an event such as a high temperature state or a low temperature state, it stores "room temperature" as the event item and stores the measured room temperature as the event content. Further, when the control unit 11 identifies the occurrence of an event such as a high humidity state or a dry state, it stores "humidity" as an event item, and stores the measured humidity as an event content. When the control unit 11 identifies the occurrence of an event such as heartbeat and respiration stop, it stores "heartbeat" as an event item, and stores the measured heart rate and respiration rate (measured number of zero) as event contents. Further, when the control unit 11 identifies the occurrence of the event of the operation of the call button 26, it stores "call button" as the event item and "operation" as the event content. Further, when the control unit 11 identifies the occurrence of an event such as malfunction of the sensor I/F device 20 or the sensors 21 to 25, it stores "equipment malfunction" as the event item, and detects the occurrence of unnecessary operation as the event content. The device information of the received device is stored.

また制御部11は、登録者の検知、及び未登録者の検知というイベントの発生を特定した場合、イベント項目として「人検知」を記憶し、イベント内容として検知した監視対象者又は未登録者を示す情報を記憶する。また制御部11は、監視対象者の徘徊というイベントの発生を特定した場合、イベント項目として「徘徊」を記憶し、イベント内容として検知した監視対象者の情報を記憶する。なお、個人認証端末が監視対象者の共用エリアに設けられている場合、サーバ10に介護施設用のイベントDBを用意し、登録者の検知、未登録者の検知、及び監視対象者の徘徊を示すイベント情報と、個人認証端末の識別情報又は設置場所情報とが介護施設用のイベントDBに記憶されるように構成してもよい。 Further, when the control unit 11 specifies occurrence of an event of detection of a registrant and detection of an unregistered person, it stores "human detection" as an event item, and detects a monitored person or an unregistered person as an event content. store the information shown. Further, when the control unit 11 identifies the occurrence of the event of the monitored person's loitering, the control unit 11 stores "wandering" as the event item, and stores the detected monitored person's information as the event content. In addition, when the personal authentication terminal is provided in the common area of the monitored person, an event DB for the nursing care facility is prepared on the server 10, and the detection of registrants, the detection of unregistered persons, and the wandering of the monitored person are performed. The event information to be displayed and the identification information or installation location information of the personal authentication terminal may be stored in the event DB for the nursing facility.

制御部11は、ステップS14で特定したイベントが、介護スタッフへの通知対象のイベントであるか否かを判断する(S16)。ここでは、制御部11は、ステップS12で特定した監視対象者に対して設定されている通知対象イベントに、ステップS14で特定したイベントが含まれるか否かを判断する。通知対象のイベントではないと判断した場合(S16:NO)、制御部11は、処理を終了する。なお、制御部11は、センサI/F装置20からセンサデータを受信する都度、ステップS12以降の処理を実行する。これにより、サーバ10は、センサI/F装置20から受信するセンサデータを各監視対象者のセンサデータDB13bに蓄積すると共に、各監視対象者に発生したイベントの情報をイベントDB13cに蓄積する。 The control unit 11 determines whether the event specified in step S14 is an event to be notified to the care staff (S16). Here, the control unit 11 determines whether or not the event specified in step S14 is included in the notification target events set for the monitored person specified in step S12. If it is determined that the event is not an event to be notified (S16: NO), the control unit 11 terminates the process. It should be noted that the control unit 11 executes the processing after step S12 each time it receives sensor data from the sensor I/F device 20 . As a result, the server 10 accumulates the sensor data received from the sensor I/F device 20 in the sensor data DB 13b of each monitored person, and accumulates the information of the event occurring in each monitored person in the event DB 13c.

通知対象のイベントであると判断した場合(S16:YES)、制御部11は、介護スタッフに通知すべきアラート情報を生成する(S17)。アラート情報は、通知対象のイベントの内容と、当該イベントが発生した監視対象者の情報とを含む。例えば監視対象者の離床というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者が離床したことを示すメッセージとを含むアラート情報を生成する。具体的には、「503号室、山田太郎様、離床しました」のようなアラート情報を生成する。また、体動が大きいというイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者の体動が大きいことを示すメッセージとを含むアラート情報を生成する。また、トイレの長時間滞在というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、トイレの滞在時間を示すメッセージとを含むアラート情報を生成する。また、ドアの開放というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、ドアの開放を示すメッセージとを含むアラート情報を生成する。また、高温状態又は低温状態というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、室温を示すメッセージとを含むアラート情報を生成する。また、多湿状態又は乾燥状態というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、湿度を示すメッセージとを含むアラート情報を生成する。また、心拍及び呼吸の停止というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、心拍及び呼吸が停止している可能性を示すメッセージとを含むアラート情報を生成する。また、呼出ボタン26の操作というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、呼出ボタン26の操作を示すメッセージとを含むアラート情報を生成する。また、センサI/F装置20又はセンサ21~25の動作不良というイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、機器の動作不良を示すメッセージとを含むアラート情報を生成する。 When it is determined that the event is a notification target event (S16: YES), the control unit 11 generates alert information to be notified to the care staff (S17). The alert information includes the content of the event to be notified and the information of the person to be monitored for whom the event occurred. For example, in the case of an event in which a person to be monitored has left the bed, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating that the person to be monitored has left the bed. Specifically, alert information such as "Room 503, Mr. Taro Yamada, got out of bed" is generated. Also, in the case of an event of large body movements, the control unit 11 generates alert information including the room number and name of the monitored person and a message indicating that the monitored person's body movements are large. Also, in the event of a long stay in the restroom, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating the length of stay in the restroom. Also, in the case of an event of door opening, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating that the door is open. Also, in the event of a high temperature state or a low temperature state, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating the room temperature. Also, in the case of an event of high humidity or dryness, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating the humidity. In addition, in the case of an event of cardiac arrest and respiratory arrest, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating the possibility of cardiac arrest and respiratory arrest. Also, in the case of an event of operation of the call button 26, the control unit 11 generates alert information including the room number and name of the person to be monitored, and a message indicating the operation of the call button 26. FIG. In addition, in the case of an event of malfunction of the sensor I/F device 20 or the sensors 21 to 25, the control unit 11 generates alert information including the room number and name of the monitored person and a message indicating the malfunction of the device. do.

次に制御部11(出力部)は、生成したアラート情報を、ネットワークN経由でスタッフ端末30へ送信する(S18)。例えば制御部11は、ブロードキャスト通信にて、通信可能な全てのスタッフ端末30にアラート情報を送信する。これにより、サーバ10は、監視対象者におけるイベントの発生を複数のスタッフ端末30に出力できる。なお、制御部11は、アラート情報を、イベントの情報に対応付けてイベントDB13cに記憶してもよい。スタッフ端末30の制御部31は、サーバ10が送信したアラート情報を通信部34を介して受信し、受信したアラート情報をイヤホン36を介して音声出力する(S19)。なお、サーバ10の制御部11は、テキストデータのアラート情報を生成し、生成したアラート情報を音声データのアラート情報に変換し、得られた音声データのアラート情報をスタッフ端末30へ送信してもよい。この場合、スタッフ端末30の制御部31は、受信した音声データのアラート情報をイヤホン36から音声出力できる。また、サーバ10の制御部11は、テキストデータのアラート情報を生成し、生成したテキストデータのアラート情報をスタッフ端末30へ送信してもよい。この場合、スタッフ端末30の制御部31は、受信したテキストデータのアラート情報を音声データのアラート情報に変換し、得られた音声データのアラート情報をイヤホン36から音声出力できる。例えば制御部31は、「503号室、山田太郎様、離床しました」のアラート情報を音声出力する。上述した処理により、サーバ10は、各監視対象者に対して通知対象に設定してあるイベントの発生を検知した場合に、当該イベントの発生をスタッフ端末30を介して介護スタッフに通知することができる。 Next, the control unit 11 (output unit) transmits the generated alert information to the staff terminal 30 via the network N (S18). For example, the control unit 11 transmits alert information to all communicable staff terminals 30 by broadcast communication. Thereby, the server 10 can output the occurrence of the event in the person to be monitored to the plurality of staff terminals 30 . Note that the control unit 11 may store the alert information in the event DB 13c in association with the event information. The control unit 31 of the staff terminal 30 receives the alert information transmitted by the server 10 via the communication unit 34, and outputs the received alert information as voice via the earphone 36 (S19). The control unit 11 of the server 10 may generate text data alert information, convert the generated alert information into voice data alert information, and transmit the obtained voice data alert information to the staff terminal 30. good. In this case, the controller 31 of the staff terminal 30 can output the alert information of the received voice data from the earphone 36 as voice. Further, the control unit 11 of the server 10 may generate text data alert information and transmit the generated text data alert information to the staff terminal 30 . In this case, the control unit 31 of the staff terminal 30 can convert the received text data alert information into voice data alert information and output the obtained voice data alert information from the earphone 36 as voice. For example, the control unit 31 voice-outputs the alert information "Room 503, Taro Yamada, got out of bed". By the above-described processing, when the server 10 detects the occurrence of an event set as a notification target for each monitored person, the occurrence of the event can be notified to the care staff via the staff terminal 30. can.

介護スタッフは、スタッフ端末30を介してイベントの発生を通知された場合、スタッフ端末30を用いて他の介護スタッフとの間で会話を行い、発生したイベントに対する介護ケア(必要な処置)を実施する。スタッフ端末30の制御部31は、マイク35を介して、自端末30のユーザである介護スタッフが発した発話音声(会話音声)の音声データを取得したか否かを判断する(S20)。介護スタッフの発話音声を取得したと判断した場合(S20:YES)、制御部31は、取得した音声データをネットワークN経由で他のスタッフ端末30及びサーバ10へ送信する(S21)。 When the care staff is notified of the occurrence of an event via the staff terminal 30, the care staff uses the staff terminal 30 to have a conversation with other care staff, and performs care care (necessary treatment) for the event that has occurred. do. The control unit 31 of the staff terminal 30 determines whether or not the voice data of the speech voice (conversation voice) uttered by the nursing staff who is the user of the own terminal 30 is acquired via the microphone 35 (S20). When determining that the care staff's uttered voice has been acquired (S20: YES), the control unit 31 transmits the acquired voice data to the other staff terminal 30 and the server 10 via the network N (S21).

自端末30の介護スタッフの発話音声を取得していないと判断した場合(S20:NO)、制御部31は、ステップS22の処理に移行する。即ち、介護スタッフの発話音声を取得していないスタッフ端末30の制御部31は、介護スタッフの発話音声を取得した他のスタッフ端末30が送信した音声データを受信したか否かを判断する(S22)。制御部31は、他のスタッフ端末30が送信した音声データを受信したと判断した場合(S22:YES)、受信した音声データに基づいて、他の介護スタッフが発した会話音声をイヤホン36を介して出力する(S23)。制御部31は、他のスタッフ端末30からの音声データを受信していないと判断した場合(S22:NO)、ステップS23の処理をスキップしてステップS20の処理に戻り、マイク35を介して介護スタッフによる発話音声を取得する都度、取得した音声データを他のスタッフ端末30及びサーバ10へ送信する処理を繰り返す。また制御部31は、他のスタッフ端末30が送信した音声データを受信する都度、受信した音声データに基づく会話音声をイヤホン36から出力する処理を繰り返す。これにより、介護スタッフは、スタッフ端末30を介して互いに会話することができる。例えば、介護スタッフAが「503の山田さん、離床しましたね。だれか近くにいますか」と発した場合、介護スタッフAのスタッフ端末30は、介護スタッフAが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた介護スタッフBが「Bです。近くにいますので、これから対応します」と発した場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた介護スタッフAが「Bさん、お願いします」と発した場合、介護スタッフAのスタッフ端末30は、介護スタッフAが発した音声データを取得して他のスタッフ端末30へ送信する。他のスタッフ端末30は、受信した音声データを音声出力し、この音声を聞いた各介護スタッフは、通知されたイベント(アラート)に対して介護スタッフBが介護ケアを行うことを把握できる。 When it is determined that the uttered voice of the care staff of the own terminal 30 has not been acquired (S20: NO), the control section 31 proceeds to the process of step S22. That is, the control unit 31 of the staff terminal 30 that has not acquired the uttered voice of the care staff determines whether it has received voice data transmitted by another staff terminal 30 that has acquired the uttered voice of the care staff (S22 ). When the control unit 31 determines that the voice data transmitted by the other staff terminal 30 has been received (S22: YES), based on the received voice data, the conversation voice emitted by the other care staff is transmitted via the earphone 36. (S23). If the control unit 31 determines that it has not received voice data from another staff terminal 30 (S22: NO), it skips the process of step S23 and returns to the process of step S20. The process of transmitting the acquired voice data to the other staff terminal 30 and the server 10 is repeated each time the voice uttered by the staff is acquired. Also, the control unit 31 repeats the process of outputting the conversational voice based on the received voice data from the earphone 36 each time voice data transmitted by another staff terminal 30 is received. Thereby, the nursing staff can talk with each other via the staff terminal 30 . For example, when nursing staff A says, "Mr. Yamada at 503, you're out of bed. Is anyone nearby?" Send to other staff terminals 30 . The other staff terminal 30 outputs the received voice data as voice, and when the care staff B who heard this voice says, "B. The terminal 30 acquires the voice data uttered by the care staff B and transmits it to other staff terminals 30 . The other staff terminal 30 outputs the received voice data as a voice, and when the care staff A who hears this voice says "Mr. B, please", the staff terminal 30 of the care staff A obtains the voice data emitted by the staff terminal 30 and transmits it to another staff terminal 30.例文帳に追加The other staff terminal 30 outputs the received voice data as voice, and each care staff who hears this voice can understand that the care staff B will provide care in response to the notified event (alert).

なお、介護スタッフBは、アラートに対する介護ケアを実施中に他の介護スタッフの助け又はアドバイスが必要となった場合、助け又はアドバイスを求める会話音声を発する。この場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信することにより、他の介護スタッフに助け又はアドバイスを求めることができる。また、介護スタッフBは、通知されたイベントに対する介護ケアを完了した場合、介護ケアの完了を報告する会話音声を発する。この場合、介護スタッフBのスタッフ端末30は、介護スタッフBが発した音声データを取得して他のスタッフ端末30へ送信することにより、他の介護スタッフに介護ケアの完了を報告することができる。このように各介護スタッフは、スタッフ端末30を介して会話を行いつつ介護ケアを行うことができる。 In addition, when the care staff B needs help or advice from another care staff while performing care care for the alert, he/she emits a conversation voice asking for help or advice. In this case, the staff terminal 30 of the care staff B acquires the voice data uttered by the care staff B and transmits it to the other staff terminals 30, thereby requesting help or advice from the other care staff. Further, when nursing care staff B completes the nursing care for the notified event, the nursing staff B emits a conversation voice reporting the completion of the nursing care. In this case, the staff terminal 30 of the care staff B acquires the voice data uttered by the care staff B and transmits it to the other staff terminal 30, thereby reporting the completion of the care to the other care staff. . In this way, each nursing staff can provide nursing care while conversing via the staff terminal 30 .

サーバ10の制御部11(音声データ取得部)は、各スタッフ端末30が送信する音声データを受信する(S24)。なお、スタッフ端末30の制御部31は、音声データと、自端末30の識別情報又は自端末30を使用する介護スタッフの識別情報とを送信しており、サーバ10の制御部11は、音声データを受信した場合、送信元のスタッフ端末30又は当該スタッフ端末30を使用する介護スタッフを特定することができる。制御部11(変換部)は、受信した音声データをテキストデータに変換し、介護スタッフの会話音声のテキストデータを生成する(S25)。 The control unit 11 (audio data acquisition unit) of the server 10 receives the audio data transmitted by each staff terminal 30 (S24). In addition, the control unit 31 of the staff terminal 30 transmits voice data and the identification information of the own terminal 30 or the identification information of the care staff who uses the own terminal 30, and the control unit 11 of the server 10 transmits the voice data is received, the staff terminal 30 that is the transmission source or the care staff that uses the staff terminal 30 can be specified. The control unit 11 (conversion unit) converts the received voice data into text data, and generates text data of conversation voice of the care staff (S25).

そして、制御部11は、ここでの監視対象者(イベントが発生している監視対象者)のイベントDB13c(記憶部)に、ステップS25で生成したテキストデータと、ステップS24で受信した音声データとを記憶する(S26)。具体的には、制御部11は、受信した音声データを発した介護スタッフの識別情報と、音声データの受信日時と、生成した会話音声のテキストデータとを対応付けて会話テキスト列に記憶し、介護スタッフの識別情報と、音声データの受信日時と、ステップS24で受信した音声データとを対応付けて会話音声列に記憶する。なお、制御部11は、会話テキスト及び会話音声を、ステップS15でイベントDB13cに記憶したイベントに対応付けてイベントDB13cに記憶する。上述した処理により、制御部11は、介護スタッフ間で行われる会話の音声データを各スタッフ端末30から取得することができ、監視対象者に発生したイベントと、当該イベントに関して各介護スタッフが行う会話のテキストデータ及び音声データとを対応付けて記憶することができる。 Then, the control unit 11 stores the text data generated in step S25 and the voice data received in step S24 in the event DB 13c (storage unit) of the monitored person (monitored person for whom an event has occurred). is stored (S26). Specifically, the control unit 11 associates the identification information of the nursing care staff who issued the received voice data, the date and time when the voice data was received, and the text data of the generated conversation voice, and stores them in a conversation text string, The identification information of the care staff, the reception date and time of the voice data, and the voice data received in step S24 are associated with each other and stored in the conversation voice string. Note that the control unit 11 stores the conversation text and the conversation voice in the event DB 13c in association with the event stored in the event DB 13c in step S15. Through the above-described processing, the control unit 11 can acquire voice data of conversations between care staff members from each staff terminal 30, and the event that occurred in the monitored person and the conversation conducted by each care staff regarding the event can be obtained. text data and voice data can be stored in association with each other.

制御部11は、ステップS18でスタッフ端末30にアラート情報を送信することによって介護スタッフに通知したイベントに対して、介護スタッフによる介護ケアが終了したか否かを判断する(S27)。例えばスタッフ端末30に、介護ケアの終了を入力するための入力部(入力ボタン)を設けておき、入力ボタンが操作された場合に、介護ケアの終了を判断してもよい。また、制御部11は、介護ケアを実施中の介護スタッフが発した音声データに所定のキーワードが含まれるか否かに応じて、介護ケアが終了したか否かを判断してもよい。例えば、「終わり」、「終了(完了)」等のキーワードを予め補助記憶部13に登録しておき、当該キーワードが含まれる場合、制御部11は、介護ケアが終了したと判断してもよい。なお、キーワードは、介護スタッフが発した音声データに含まれるか否かを判断するほかに、音声データから変換されたテキストデータに含まれるか否かを判断してもよい。 The control unit 11 determines whether or not the care staff has finished providing care for the event notified to the care staff by sending the alert information to the staff terminal 30 in step S18 (S27). For example, the staff terminal 30 may be provided with an input unit (input button) for inputting termination of nursing care, and when the input button is operated, termination of nursing care may be determined. Further, the control unit 11 may determine whether or not the nursing care has ended, depending on whether or not the voice data uttered by the nursing care staff who is providing the nursing care includes a predetermined keyword. For example, keywords such as "end" and "end (completion)" are registered in advance in the auxiliary storage unit 13, and when the keyword is included, the control unit 11 may determine that nursing care has ended. . In addition to determining whether or not the keyword is included in the voice data uttered by the care staff, it may be determined whether or not the keyword is included in the text data converted from the voice data.

また、介護スタッフによる介護ケアの終了は、機械学習によって学習させた学習モデルを用いて判断してもよい。学習モデルは、人工知能ソフトウェアの一部として機能するプログラムモジュールとしての利用が想定される。例えば、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、Transformer、BERT(Bidirectional Encoder Representations from Transformers)、GPT(Generative Pre-Training)等のアルゴリズムを用いて、介護スタッフによる会話データ(音声データ又はテキストデータ)が入力された場合に、当該会話データに、監視対象者に対する介護ケアに関する内容が含まれるか否かを示す情報を出力するように学習した学習モデルを用いることができる。この場合、制御部11は、介護スタッフの会話データを学習モデルに入力し、学習モデルからの出力情報に基づいて、介護スタッフによる介護ケアに関する内容が含まれるか否かを判断し、判断結果から、介護スタッフによる介護ケアが終了したか否かを判断できる。 In addition, the end of nursing care by the nursing staff may be determined using a learning model learned by machine learning. The learning model is assumed to be used as a program module that functions as part of artificial intelligence software. For example, using algorithms such as CNN (Convolution Neural Network), RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory), Transformer, BERT (Bidirectional Encoder Representations from Transformers), GPT (Generative Pre-Training), A learning model that learns to output information indicating whether or not the conversation data (voice data or text data) by nursing staff is input, indicating whether or not the content of nursing care for the person being monitored is included in the conversation data. can be used. In this case, the control unit 11 inputs the conversation data of the care staff to the learning model, determines whether or not the content related to care care by the care staff is included based on the output information from the learning model, and determines from the determination result , it can be determined whether or not the nursing care by the nursing care staff has ended.

図6は、学習モデルの構成例を示す説明図である。図6に示す学習モデルは、介護スタッフがスタッフ端末30を用いて行った会話のデータ(音声データ又はテキストデータ)を入力とし、入力されたデータに基づいて、当該会話が、介護スタッフによる介護ケアに関する内容であるか否かを判別する演算を行い、演算した結果を出力するように学習してある。図6に示す学習モデルは2つの出力ノードを有しており、出力ノード0は、入力された会話データに、介護スタッフによる介護ケアに関する内容が含まれると判別すべき確率を出力し、出力ノード1は、それ以外の内容、例えば雑談であると判別すべき確率を出力する。各出力ノードの出力値は例えば0~1.0の値であり、各出力ノードから出力された判別確率の合計が1.0となる。 FIG. 6 is an explanatory diagram showing a configuration example of a learning model. The learning model shown in FIG. 6 is input with conversation data (speech data or text data) conducted by the care staff using the staff terminal 30, and based on the input data, the conversation is interpreted as a nursing care by the care staff. It is learned to perform an operation to determine whether or not the content is related to and to output the result of the operation. The learning model shown in FIG. 6 has two output nodes. The output node 0 outputs the probability that it should be determined that the input conversation data contains content related to nursing care by the nursing care staff, and the output node 1 outputs the probability that it should be determined as other content, for example, chat. The output value of each output node is, for example, a value between 0 and 1.0, and the sum of the discrimination probabilities output from each output node is 1.0.

図6に示す学習モデルは、訓練用の会話データ(音声データ又はテキストデータ)と、この会話データに介護ケアに関する内容が含まれるか、それ以外の内容(雑談)が含まれるかを示す情報(正解ラベル)とを含む訓練データを用いて、未学習の学習モデルを機械学習させることにより生成される。学習モデルは、訓練用の会話データが入力された場合に、正解ラベルが示す内容に対応する出力ノードからの出力値が1.0に近づき、他の出力ノードからの出力値が0.0に近づくように学習する。学習処理において学習モデルは、入力された会話データに基づく演算を行い、各出力ノードからの出力値を算出する。そして学習モデルは、算出した各出力ノードの出力値と正解ラベルに応じた値(0又は1)とを比較し、各出力値がそれぞれの正解ラベルに応じた値に近似するように、演算処理に用いるパラメータを最適化する。当該パラメータは、学習モデルにおけるニューロン間の重み等である。パラメータの最適化の方法は特に限定されないが、誤差逆伝播法、最急降下法等を用いることができる。これにより、会話データが入力された場合に、入力された会話データに介護ケアに関する内容が含まれるか、介護ケアに関する内容が含まれない雑談であるかを判別するように学習された学習モデルが得られる。 The learning model shown in FIG. 6 includes training conversation data (speech data or text data) and information indicating whether the conversation data includes content related to nursing care or other content (chat) ( Correct label) is used to machine-learn an unlearned learning model. In the learning model, when conversational data for training is input, the output value from the output node corresponding to the content indicated by the correct label approaches 1.0, and the output value from the other output nodes approaches 0.0. Learn to get closer. In the learning process, the learning model performs calculations based on the input conversation data and calculates output values from each output node. Then, the learning model compares the calculated output value of each output node with the value (0 or 1) corresponding to the correct label, and performs arithmetic processing so that each output value approximates the value corresponding to the respective correct label. Optimize the parameters used for The parameters are weights between neurons in the learning model, and the like. The parameter optimization method is not particularly limited, but error backpropagation, steepest descent method, or the like can be used. As a result, when conversation data is input, a learning model trained to determine whether the input conversation data includes content related to nursing care or whether it is a chat that does not include content related to nursing care. can get.

学習モデルの学習は他の学習装置で行われる。他の学習装置で学習が行われて生成された学習済みの学習モデルは、例えばネットワークN経由又は可搬型記憶媒体10a経由で学習装置からサーバ10にダウンロードされて補助記憶部13に記憶される。なお、学習モデルは図6の構成に限定されず、学習モデルが判別する判別対象は2つに限定されない。例えば学習モデルは、入力された会話データに、介護ケアに関する内容、雑談、介護ケアの終了を示す内容のいずれが含まれるかを判別するように構成されていてもよい。この場合、制御部11は、学習モデルからの出力情報に基づいて、介護スタッフによる介護ケアが終了したか否かを判断できる。また、学習モデルは、入力された会話データに、介護ケアに関する内容、雑談、介護ケアの開始を示す内容、介護ケアの実施中を示す内容、介護ケアの終了を示す内容のいずれが含まれるかを判別するように構成されていてもよい。この場合、通知されたイベントに対して、介護スタッフによる介護ケアが開始されたか、実施中であるか、終了したか等の進捗状態を判断できる。 Training of the learning model is performed by another learning device. A trained learning model generated by learning in another learning device is downloaded from the learning device to the server 10 via, for example, the network N or the portable storage medium 10a and stored in the auxiliary storage unit 13. Note that the learning model is not limited to the configuration shown in FIG. 6, and the number of discrimination objects discriminated by the learning model is not limited to two. For example, the learning model may be configured to determine whether input conversation data includes content related to nursing care, chat, or content indicating the end of nursing care. In this case, the control unit 11 can determine whether or not the nursing care staff has completed the nursing care based on the output information from the learning model. In addition, the learning model determines whether the input conversation data includes content related to nursing care, chat, content indicating the start of nursing care, content indicating the implementation of nursing care, or content indicating the end of nursing care. may be configured to determine. In this case, it is possible to determine the progress of the notified event, such as whether nursing care by the nursing care staff has started, is in progress, or has ended.

図5に示す処理の説明に戻る。介護スタッフによる介護ケアが終了していないと判断した場合(S27:NO)、制御部11は、ステップS24の処理に戻り、スタッフ端末30から送信されてくる音声データに対して、ステップS24~S27の処理を実行する。これにより、スタッフ端末30から送信されてくる会話の音声データ、当該音声データから生成された会話のテキストデータをイベントDB13cに蓄積することができる。よって、介護スタッフがスタッフ端末30を用いて行う会話の音声データ及びテキストデータがイベントDB13cに蓄積される。 Returning to the description of the processing shown in FIG. If it is determined that the nursing care staff has not finished nursing care (S27: NO), the control unit 11 returns to the process of step S24, and responds to the voice data transmitted from the staff terminal 30 in steps S24 to S27. process. As a result, the voice data of the conversation transmitted from the staff terminal 30 and the text data of the conversation generated from the voice data can be accumulated in the event DB 13c. Therefore, voice data and text data of conversations conducted by the care staff using the staff terminal 30 are accumulated in the event DB 13c.

介護スタッフによる介護ケアが終了したと判断した場合(S27:YES)、制御部11は、介護ケアが終了した監視対象者のイベントDB13cの進捗情報欄に、介護ケアの終了を示す「済」を記憶し(S28)、一連の処理を終了する。上述した処理により、サーバ10は、各監視対象者に対応付けて設けられたセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者の状態を判定することができ、介護スタッフに通知する必要があるイベントの発生を検知することができる。また、サーバ10は、各監視対象者に対するイベントの発生を検知した場合に、スタッフ端末30を介して各介護スタッフに通知することができる。介護スタッフは、スタッフ端末30を用いて他の介護スタッフとの間で会話を行うことができ、サーバ10は、介護スタッフの間で行われた会話のテキストデータ及び音声データを、発生したイベントに対応付けて蓄積することができる。 When it is determined that the nursing care by the nursing care staff has ended (S27: YES), the control unit 11 puts "completed" indicating the end of nursing care in the progress information column of the event DB 13c of the monitored subject for whom the nursing care has ended. Store (S28) and terminate the series of processes. By the above-described processing, the server 10 can determine the state of each person to be monitored based on the signals from the sensors 21 to 25 and the call button 26 provided in association with each person to be monitored. can detect the occurrence of an event that needs to be notified to In addition, the server 10 can notify each nursing staff via the staff terminal 30 when it detects the occurrence of an event for each monitored person. The care staff can have a conversation with other care staff using the staff terminal 30, and the server 10 stores the text data and voice data of the conversation between the care staff to the generated event. They can be associated and stored.

上述した処理によってイベントDB13cに蓄積された介護スタッフ間の会話のテキストデータは、例えばスタッフ端末30又は他の端末を用いて閲覧することができる。図7は会話のテキストデータの表示例を示す説明図である。イベントDB13cに蓄積された会話のテキストデータを閲覧する場合、閲覧者は、任意の監視対象者と、任意の日時又は発生したイベントとを指定して、指定したイベントに対応する会話のテキストデータをサーバ10に要求する。サーバ10の制御部11は、要求内容に対応するイベントの情報及び会話のテキストデータ(会話テキスト)をイベントDB13cから読み出して要求元の端末へ送信する。 The text data of conversations between care staff members accumulated in the event DB 13c through the above-described processing can be viewed using, for example, the staff terminal 30 or another terminal. FIG. 7 is an explanatory diagram showing a display example of text data of conversation. When browsing the text data of the conversation accumulated in the event DB 13c, the viewer designates an arbitrary person to be monitored and an arbitrary date and time or an event that occurred, and reads the text data of the conversation corresponding to the designated event. Make a request to the server 10. The control unit 11 of the server 10 reads event information and conversation text data (conversation text) corresponding to the content of the request from the event DB 13c and transmits them to the requesting terminal.

要求元の端末は、サーバ10からイベントの情報及び会話のテキストデータを受信した場合、図7Aに示すような画面を生成して表示部に表示する。図7Aに示す画面では、太線の表示枠に、サーバ10の制御部11が図4中のステップS17で生成したアラート情報と、アラート(イベント)の発生日時とが表示されている。また、細線の表示枠に、発話した介護スタッフの情報と、発話日時と、サーバ10の制御部11が図5中のステップS25で生成した介護スタッフの会話のテキストデータとが、それぞれ対応付けられて時系列で表示されている。図7Aに示すような画面により、閲覧者は、発生したイベントの内容と、当該イベントに対する介護スタッフの会話内容及び監視対象者に実施した介護ケアの内容とを把握することができる。 When receiving the event information and conversation text data from the server 10, the requesting terminal generates a screen as shown in FIG. 7A and displays it on the display unit. On the screen shown in FIG. 7A, the alert information generated by the control unit 11 of the server 10 in step S17 in FIG. 4 and the date and time of occurrence of the alert (event) are displayed in the bold display frame. Information of the nursing care staff member who spoke, the date and time of the speech, and the text data of the conversation of the care staff member generated by the control unit 11 of the server 10 in step S25 in FIG. are displayed in chronological order. With the screen as shown in FIG. 7A, the viewer can grasp the content of the event that occurred, the conversation content of the care staff regarding the event, and the content of the care given to the monitoring target.

本実施形態では、監視対象者の状態を判定するために複数種類のセンサ21~25が設けられており、各センサ21~25からの検知信号に基づいて、監視対象者の状態(イベントの発生)を監視している。また、監視対象者毎に、発生したイベントのうちで、介護スタッフに通知すべきイベントを設定することができる。よって、監視対象者の健康状態等に応じて介護スタッフに通知すべきイベントとして、異なるイベントを設定することができる。 In this embodiment, a plurality of types of sensors 21 to 25 are provided to determine the state of the person being monitored. ) are monitored. Further, it is possible to set an event to be notified to the care staff among the events that have occurred for each person to be monitored. Therefore, different events can be set as events to be notified to the care staff according to the health condition of the monitoring subject.

本実施形態において、サーバ10の制御部11は、スタッフ端末30から受信した介護スタッフによる会話の音声データからテキストデータを生成した場合、生成したテキストデータから、予め登録されたキーワードを抽出し、抽出したキーワードを強調表示するための強調処理を行うように構成されていてもよい。例えば、制御部11は、図5中のステップS25の処理後、生成したテキストデータから所定のキーワードを特定し、各キーワードに対して強調処理を実行する。このような構成の場合、サーバ10のイベントDB13cに蓄積された会話のテキストデータを閲覧する際に、図7Bに示すように、所定のキーワードが強調して表示される。よって、閲覧者は、複数の介護スタッフ間の会話内容から重要なキーワードを見逃すことなく把握できる。図7Bに示す例では、監視対象者の部屋番号及び氏名、イベントの内容、及び介護ケアの内容が枠で囲まれて表示されている。 In this embodiment, when the control unit 11 of the server 10 generates text data from the voice data of the conversation by the nursing care staff received from the staff terminal 30, the control unit 11 extracts a pre-registered keyword from the generated text data and extracts it. It may be configured to perform highlighting processing for highlighting the keyword that has been entered. For example, after the processing of step S25 in FIG. 5, the control unit 11 identifies predetermined keywords from the generated text data, and executes emphasis processing on each keyword. In such a configuration, when browsing the text data of the conversation accumulated in the event DB 13c of the server 10, a predetermined keyword is highlighted and displayed as shown in FIG. 7B. Therefore, the viewer can grasp important keywords from the content of conversations between a plurality of nursing care staff members without overlooking them. In the example shown in FIG. 7B, the room number and name of the person to be monitored, the content of the event, and the content of nursing care are displayed surrounded by frames.

本実施形態の図4及び図5に示す処理において、サーバ10は、スタッフ端末30から介護スタッフの会話音声を取得した場合に、当該会話音声が、いずれの監視対象者に発生したいずれのイベントに対して発話されたものであるかを特定する処理を行うように構成されていてもよい。サーバ10の制御部11は、各センサI/F装置20からセンサデータを受信する都度、ステップS12~S18の処理を行う。従って、サーバ10は、異なるイベントに関するアラート情報を連続してスタッフ端末30へ送信することがある。即ち、1つのイベントに関するアラート情報がスタッフ端末30へ送信されてから、当該イベントに対する介護スタッフの介護ケアが終了する前に、別のイベントのアラート情報がスタッフ端末30へ送信される状況が発生する。この場合、複数のイベントに関して介護スタッフが会話することになるので、各介護スタッフの会話が、いずれのイベントに関するものであるかを判定する必要が生じる。そこで、サーバ10の制御部11は、例えば図5中のステップS25の処理後に、介護スタッフに通知中のイベント(介護スタッフによる介護ケアが終了していないイベント)の中で、ステップS24で受信した音声データ(介護スタッフの会話音声)に対応するイベントを特定する。 In the processing shown in FIGS. 4 and 5 of the present embodiment, when the server 10 acquires the conversational voice of the care staff from the staff terminal 30, the conversational voice is associated with any event occurring in any monitored person. It may be configured to carry out a process of identifying whether it was spoken to. The control unit 11 of the server 10 performs the processing of steps S12 to S18 each time it receives sensor data from each sensor I/F device 20. FIG. Therefore, the server 10 may continuously transmit alert information regarding different events to the staff terminal 30 . That is, after alert information about one event is sent to the staff terminal 30, before the nursing care staff finishes nursing care for the event, a situation occurs in which alert information about another event is sent to the staff terminal 30. . In this case, since the care staff will talk about a plurality of events, it will be necessary to determine which event each care staff's conversation is about. Therefore, the control unit 11 of the server 10, for example, after the processing of step S25 in FIG. Identify an event corresponding to voice data (conversation voice of care staff).

例えば制御部11は、アラート情報を送信してから所定時間内に受信した会話音声は、送信したアラート情報のイベントに対応する会話であると判断する。具体的には、制御部11は、ステップS18でアラート情報を送信してから所定時間内(例えば30秒以内)にスタッフ端末30から受信した会話音声、及び当該会話音声を受信してから所定時間内(例えば10秒以内)に受信した他の介護スタッフの会話音声は、ステップS18でアラート情報を送信したイベントに対応する会話であると判断する。これにより、イベントの発生を通知してから所定時間内に行われた会話は、当該イベントに関する会話であると特定できる。また、制御部11は、受信した会話内容から、いずれの監視対象者に発生したいずれのイベントに関する会話であるかを判断してもよい。例えば、会話内容に監視対象者の情報又はイベントに関する情報が含まれる場合、制御部11は、会話内容に含まれる情報に基づいて、受信した会話音声に対応するイベントを特定できる。この場合、アラート情報の送信から所定時間以上が経過していた場合であっても、介護スタッフの会話音声が、いずれのイベントに関する会話であるかを特定できる。なお、介護スタッフに通知中のイベントが1つしかない場合、制御部11は、ステップS24で受信した音声データは、ステップS18でアラート情報を送信したイベントに関する会話音声であると判断すればよい。 For example, the control unit 11 determines that a conversational voice received within a predetermined time after sending the alert information is a conversation corresponding to the event of the sent alert information. Specifically, the control unit 11 controls the conversation voice received from the staff terminal 30 within a predetermined time (for example, within 30 seconds) after sending the alert information in step S18, and the conversation voice received for a predetermined time. Conversation voices of other care staff received within (for example, within 10 seconds) are judged to be conversations corresponding to the event that sent the alert information in step S18. As a result, a conversation held within a predetermined period of time after notification of the occurrence of an event can be identified as a conversation related to the event. Further, the control unit 11 may determine from the content of the received conversation whether the conversation relates to which event occurred in which monitored person. For example, if the conversation content includes information about the monitored person or information about an event, the control unit 11 can identify the event corresponding to the received conversation voice based on the information included in the conversation content. In this case, even if a predetermined time or more has passed since the alert information was sent, it is possible to identify which event the conversation voice of the care staff is related to. Note that if there is only one event being notified to the care staff, the control unit 11 may determine that the audio data received in step S24 is the conversational audio related to the event for which the alert information was sent in step S18.

その後、制御部11は、ステップS26で、イベントが発生している監視対象者のイベントDB13cにおいて、特定したイベントに対応する会話テキスト列に介護スタッフの会話音声のテキストデータを記憶し、特定したイベントに対応する会話音声列に介護スタッフの会話音声の音声データを記憶する。これにより、介護スタッフの会話音声及び会話テキストを、対応するイベントに対応付けて蓄積することができる。 After that, in step S26, the control unit 11 stores the text data of the conversation voice of the care staff in the conversation text string corresponding to the identified event in the event DB 13c of the monitoring subject for whom the event has occurred, and The voice data of the care staff's conversational voice is stored in the conversational voice string corresponding to . Thereby, the conversation voice and conversation text of the care staff can be stored in association with the corresponding event.

上述した本実施形態では、サーバ10は、介護スタッフがスタッフ端末30を用いて行う会話の音声データを取得する都度、取得した音声データをテキストデータに変換する処理を行ってイベントDB13cに記憶する構成である。しかし、音声データをテキストデータに変換する処理は、音声データを取得したタイミングで行う必要はなく、例えば所定時間毎に行う構成でもよい。例えばサーバ10は、介護スタッフによる会話の音声データを取得した場合に、取得した音声データをイベントDB13cに記憶しておき、所定のタイミングで、各音声データをテキストデータに変換してイベントDB13cに記憶してもよい。 In the above-described embodiment, the server 10 is configured to convert the acquired voice data into text data each time the voice data of the conversation conducted by the care staff using the staff terminal 30 is acquired and stored in the event DB 13c. is. However, the process of converting voice data into text data does not need to be performed at the timing when voice data is acquired, and may be performed, for example, at predetermined time intervals. For example, when the server 10 acquires voice data of a conversation by a nursing care staff, it stores the acquired voice data in the event DB 13c, converts each voice data into text data at a predetermined timing, and stores the data in the event DB 13c. You may

(実施形態2)
サーバ10が、スタッフ端末30から介護スタッフの会話音声を取得した場合に、当該会話音声が、監視対象者に発生したイベントに対する対応(介護ケア)に関する会話であるか否かを判断し、対応に関する会話の情報を蓄積する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 2)
When the server 10 acquires the conversation voice of the nursing care staff from the staff terminal 30, it determines whether or not the conversation voice is a conversation about the response (nursing care) to the event that occurred in the monitored person, An information processing system for accumulating conversation information will be described. The information processing system of the present embodiment can be realized using devices similar to those of the information processing system of the first embodiment shown in FIG. 1, so description of the configuration of each device will be omitted.

図8は、実施形態2の情報処理システムにおける処理手順の一例を示すフローチャートである。図8に示す処理は、図4及び図5に示す処理において、ステップS25,S26の間にステップS31~S32を追加したものである。図4及び図5と同じステップについては説明を省略する。また図8では、図4中の各ステップの図示を省略している。 FIG. 8 is a flowchart illustrating an example of a processing procedure in the information processing system according to the second embodiment; The process shown in FIG. 8 is obtained by adding steps S31 to S32 between steps S25 and S26 in the processes shown in FIGS. Description of the same steps as those in FIGS. 4 and 5 will be omitted. Also, in FIG. 8, illustration of each step in FIG. 4 is omitted.

本実施形態のサーバ10及びスタッフ端末30は、図4及び図5中のステップS11~S25と同様の処理を行う。これにより、サーバ10は、各センサI/F装置20を介してセンサ21~25及び呼出ボタン26からの信号を取得し、取得した信号に基づいて、各監視対象者に対してイベントの発生を検知する。またサーバ10は、介護スタッフに通知すべきイベントの発生を検知した場合、当該イベントの発生をスタッフ端末30を介して介護スタッフに通知する。更にサーバ10は、スタッフ端末30から介護スタッフの発話音声を取得した場合、取得した音声データをテキストデータに変換する。 The server 10 and staff terminal 30 of this embodiment perform the same processing as steps S11 to S25 in FIGS. As a result, the server 10 acquires signals from the sensors 21 to 25 and the call button 26 via each sensor I/F device 20, and based on the acquired signals, generates an event for each person to be monitored. detect. Further, when detecting the occurrence of an event to be notified to the care staff, the server 10 notifies the care staff of the occurrence of the event via the staff terminal 30 . Furthermore, when the server 10 acquires the uttered voice of the care staff from the staff terminal 30, the server 10 converts the acquired voice data into text data.

本実施形態のサーバ10の制御部11は、ステップS25の処理後、スタッフ端末30から受信した会話音声の内容を特定する(S31)。例えば制御部11は、会話音声の内容が、介護スタッフが監視対象者に行う介護ケアに関するものであるか、雑談であるか等を特定する。例えば制御部11は、会話内容に監視対象者の情報又はイベントに関する情報が含まれる場合、当該会話音声は、監視対象者に対する介護ケアに関する内容であると判断する。また制御部11は、会話内容に監視対象者の情報及びイベントに関する情報が含まれない場合、当該会話音声は、監視対象者に対する介護ケアに関する内容ではなく、例えば雑談であると判断してもよい。また制御部11は、学習モデルを用いて、会話音声の内容が、監視対象者に対する介護ケアに関する内容、又は雑談であることを判別してもよい。例えば図6に示す学習モデルを用いることができる。この場合、制御部11は、スタッフ端末30から受信した音声データ(又は音声データから生成されたテキストデータ)を学習モデルに入力し、学習モデルからの出力情報に基づいて、受信した会話音声の内容が、介護スタッフによる介護ケアに関する内容であるか雑談であるかを判断できる。 After the process of step S25, the control unit 11 of the server 10 of this embodiment identifies the content of the conversation voice received from the staff terminal 30 (S31). For example, the control unit 11 specifies whether the content of the conversational voice is related to nursing care provided by the nursing care staff to the person being monitored, whether it is a chat, or the like. For example, if the content of conversation includes information about a person to be monitored or information about an event, the control unit 11 determines that the content of the conversation is related to nursing care for the person to be monitored. In addition, when the content of the conversation does not include the information of the monitoring target and the information about the event, the control unit 11 may determine that the conversation voice is not the content related to nursing care for the monitoring target, but is, for example, a chat. . Further, the control unit 11 may use a learning model to determine whether the content of the conversational voice is content related to nursing care for the monitored person or chat. For example, the learning model shown in FIG. 6 can be used. In this case, the control unit 11 inputs the voice data (or text data generated from the voice data) received from the staff terminal 30 to the learning model, and based on the output information from the learning model, the content of the received conversation voice However, it can be determined whether the content is related to nursing care by the nursing staff or whether it is a chat.

制御部11は、特定した会話内容に基づいて、スタッフ端末30から受信した会話が、監視対象者に対する介護ケアに関する内容であるか否かを判断する(S32)。監視対象者に対する介護ケアに関する内容であると判断した場合(S32:YES)、制御部11は、イベントが発生している監視対象者のイベントDB13cに、ステップS25で生成したテキストデータと、ステップS24で受信した音声データとを記憶する(S26)。一方、監視対象者に対する介護ケアに関する内容でないと判断した場合(S32:NO)、例えば雑談である場合、制御部11は、ステップS26の処理をスキップする。 Based on the identified conversation content, the control unit 11 determines whether or not the conversation received from the staff terminal 30 is related to nursing care for the person being monitored (S32). If it is determined that the content is related to nursing care for the monitored person (S32: YES), the control unit 11 stores the text data generated in step S25 and the and store the received audio data (S26). On the other hand, if it is determined that the content is not related to nursing care for the monitoring target (S32: NO), for example, if it is a chat, the control unit 11 skips the process of step S26.

上述した処理により、介護スタッフの会話内容が雑談であると判断された場合に、当該会話のテキストデータ及び音声データをイベントDB13cに記憶させないことにより、介護スタッフの雑談の会話情報がイベントDB13cに蓄積されることを回避できる。よって、サーバ10は、介護スタッフによる会話情報(会話音声及び会話テキスト)から、介護スタッフによる介護ケアに関する会話情報を抽出し、抽出した会話情報を、発生したイベントに対応付けて蓄積できる。なお、上述した処理において、介護スタッフによる介護ケアに関する会話情報と、介護スタッフの雑談の会話情報との両方をイベントDB13cに記憶し、それぞれの会話情報に、介護ケアに関する内容であるか雑談であるかを示す情報を対応付けて記憶する構成としてもよい。 When it is determined that the content of the conversation of the nursing staff is chatting by the above-described processing, the text data and voice data of the conversation are not stored in the event DB 13c, thereby accumulating the conversation information of the chatting of the nursing staff in the event DB 13c. can be avoided. Therefore, the server 10 can extract conversation information about nursing care by the nursing staff from the conversation information (conversation voice and conversation text) by the nursing staff, and store the extracted conversation information in association with the occurred event. In the above-described process, both the conversation information about nursing care by the nursing care staff and the conversation information of chatting by the nursing care staff are stored in the event DB 13c, and each conversation information includes whether it is about nursing care or chatting. It may be configured such that information indicating whether or not is associated with and stored.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、サーバ10がスタッフ端末30から受信した介護スタッフによる会話情報のうちで、監視対象者に対する介護ケアに関する会話のように、蓄積しておく必要がある会話情報を蓄積することができる。よって、各イベントに対して介護スタッフが行った介護ケアを確認する際に、介護スタッフが行った介護ケアに関する会話情報を効率よく閲覧することが可能となる。本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. Further, in the present embodiment, among the conversation information by the care staff received from the staff terminal 30, the server 10 can accumulate conversation information that needs to be accumulated, such as conversation regarding nursing care for the person to be monitored. can. Therefore, when confirming the nursing care provided by the nursing care staff for each event, it is possible to efficiently view the conversation information regarding the nursing care provided by the nursing staff. Also in the present embodiment, it is possible to apply the modified examples appropriately described in the first embodiment.

(実施形態3)
サーバ10が、監視対象者に発生したイベントに対して蓄積した介護スタッフの会話内容(会話テキスト)に基づいて、当該イベントに関する報告書を作成する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。
(Embodiment 3)
An information processing system will be described in which the server 10 prepares a report on an event occurring in a monitoring subject based on conversation contents (conversation text) of care staff accumulated for the event. The information processing system of the present embodiment can be realized using devices similar to those of the information processing system of the first embodiment shown in FIG. 1, so description of the configuration of each device will be omitted.

本実施形態の情報処理システムにおいて、サーバ10及びスタッフ端末30は、図4~図5に示す処理と同様の処理を実行する。これにより、サーバ10は、各センサI/F装置20を介して取得するセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者に対してイベントの発生を検知し、必要に応じて各スタッフ端末30にアラート情報を送信することができる。またサーバ10は、アラート情報(イベントの発生)を介護スタッフに通知した場合、スタッフ端末30から取得する介護スタッフの発話音声をテキストデータに変換し、当該イベントに対応付けて蓄積することができる。 In the information processing system of this embodiment, the server 10 and the staff terminal 30 execute the same processes as those shown in FIGS. 4 and 5. FIG. As a result, the server 10 detects the occurrence of an event for each person to be monitored based on signals from the sensors 21 to 25 and the call button 26 acquired via each sensor I/F device 20, and Alert information can be transmitted to each staff terminal 30 accordingly. In addition, when alert information (occurrence of an event) is notified to the care staff, the server 10 converts the speech voice of the care staff acquired from the staff terminal 30 into text data, associates it with the event, and accumulates it.

本実施形態のサーバ10は、図4~図5に示す処理によってイベントDB13cに蓄積した、監視対象者に発生したイベントに関する情報に基づいて、介護記録として蓄積するための情報(介護記録情報)、医師等の医療従事者に報告するための情報(医師報告情報)、監視対象者の家族等に報告するための情報(家族報告情報)等の各種の報告情報(報告書)を自動で作成する機能を有する。 The server 10 of the present embodiment stores information (nursing care record information) as a nursing care record based on the information about the event that occurred in the monitoring subject, which is accumulated in the event DB 13c by the processing shown in FIGS. Automatically create various types of report information (reports) such as information to be reported to medical professionals such as doctors (doctor report information) and information to be reported to the family of the monitored person (family report information) have a function.

図9は、報告情報の作成処理手順の一例を示すフローチャート、図10は、報告情報の一例を示す説明図である。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行される。なお、サーバ10の制御部11は、定期的に以下の処理を実行するように構成されており、所定の実行タイミングが到来した場合に、ステップS41以降の処理の実行を開始する。所定の実行タイミングは、例えば1日に1回報告情報を作成する場合、所定時刻が到来したタイミングであってもよく、1週間に1回報告情報を作成する場合、所定曜日の所定時刻が到来したタイミングであってもよい。なお、報告情報の作成頻度は、1日に1回又は1週間に1回等に限定されず、例えば1日に複数回数(所定時間に1回)であってもよく、所定日数毎に1回であってもよい。また、介護スタッフ等からの作成要求を受け付けた場合に、実行タイミングが到来したと判断してもよい。また、介護記録情報、医師報告情報、及び家族報告情報のそれぞれに対して異なる作成頻度が設定されていてもよく、各報告情報の作成頻度は、監視対象者毎に異なる頻度が設定されていてもよい。監視対象者毎に各報告情報の作成頻度が設定される構成の場合、監視対象者に対応付けて各報告情報の作成頻度を監視対象者DB13aに登録しておいてもよい。 FIG. 9 is a flow chart showing an example of the report information creation processing procedure, and FIG. 10 is an explanatory diagram showing an example of the report information. The following processing is executed by the control section 11 according to the program 13P stored in the auxiliary storage section 13 of the server 10. FIG. Note that the control unit 11 of the server 10 is configured to periodically execute the following processes, and when a predetermined execution timing arrives, it starts executing the processes after step S41. For example, when the report information is created once a day, the predetermined execution timing may be the timing at which a predetermined time has arrived. It may be the timing. Note that the frequency of creating the report information is not limited to once a day or once a week. times. Alternatively, it may be determined that the execution timing has come when a creation request from a care staff or the like is received. In addition, different generation frequencies may be set for each of the nursing care record information, the doctor report information, and the family report information, and the generation frequency of each report information may be set differently for each monitored person. good too. In the case of a configuration in which the generation frequency of each report information is set for each monitored person, the generation frequency of each report information may be registered in the monitored person DB 13a in association with the monitored person.

サーバ10の制御部11は、所定の実行タイミングが到来した場合、この時点で報告情報を作成すべき対象(監視対象者)がいるか否かを判断する(S41)。例えば各報告情報の作成タイミングが到来した場合、制御部11は、全ての監視対象者を、報告情報の作成対象者として、各監視対象者に対応する報告情報の作成を行う。また任意の監視対象者に設定された報告情報の作成タイミングが到来した場合、制御部11は、当該監視対象者を報告情報の作成対象者として、当該監視対象者に対応する報告情報の作成を行う。 When a predetermined execution timing arrives, the control unit 11 of the server 10 determines whether or not there is a target (monitoring target) for which report information should be created at this time (S41). For example, when it is time to create each item of report information, the control unit 11 creates report information corresponding to each person to be monitored, with all persons to be monitored as persons to be created for report information. Further, when the timing for creating report information set for an arbitrary monitoring target person arrives, the control unit 11 sets the monitoring target person as the target person for creating report information, and creates report information corresponding to the monitoring target person. conduct.

報告情報の作成対象者がいると判断した場合(S41:YES)、制御部11は、1人の監視対象者に対応するイベントDB13cに蓄積されたイベントに関する情報を読み出す(S42)。制御部11は、報告情報の作成タイミングに応じた所定期間内に発生したイベントの情報を読み出すことにより、未だ報告情報が作成されていないイベント(未報告のイベント)の情報を読み出す。例えばイベントDB13cを、各イベントの情報に対応付けて、報告情報が作成済み(報告済み)であるか否かを示す状態情報を記憶しておくように構成してもよく、この場合、制御部11は、状態情報が未報告であるイベントの情報を読み出せばよい。なお、制御部11は、各イベントの情報として、日時、イベント項目、イベント内容、会話テキスト、及び進捗情報をイベントDB13cから読み出す。 When it is determined that there is a target person for creating report information (S41: YES), the control unit 11 reads out information on events accumulated in the event DB 13c corresponding to one monitoring target person (S42). The control unit 11 reads information on events that have occurred within a predetermined period corresponding to the timing of creating report information, thereby reading information on events for which report information has not yet been created (unreported events). For example, the event DB 13c may be configured to store status information indicating whether or not report information has been created (reported) in association with information on each event. 11 may read the information of events whose status information has not yet been reported. Note that the control unit 11 reads the date and time, event item, event content, conversation text, and progress information from the event DB 13c as information of each event.

制御部11は、読み出した各イベントの情報から、1つのイベントの内容を特定する(S43)。例えば制御部11は、読み出した日時、イベント項目及びイベント内容に基づいて、イベントの発生日時及び内容を特定する。例えば制御部11は、イベントの内容として「2021/9/1 1:00 離床(中途覚醒)」を特定する。次に制御部11は、特定したイベントに対して、介護スタッフが行った介護ケアの内容を、読み出した会話テキストから特定する(S44)。例えば制御部11は、介護スタッフが行った介護ケアとして「2021/9/1 1:05 介護スタッフA:トイレ介助」及び「2021/9/1 1:15 対応完了」を特定する。なお、介護スタッフが行う可能性のある介護ケアに関する情報をサーバ10の補助記憶部13に予め登録しておき、制御部11は、登録してある情報を会話テキスト中から抽出することにより、介護スタッフが行った介護ケアを特定してもよい。 The control unit 11 identifies the content of one event from the read information of each event (S43). For example, the control unit 11 identifies the date and time of event occurrence and the content of the event based on the read date and time, event item, and event content. For example, the control unit 11 specifies "2021/9/1 1:00 getting out of bed (halfway awakening)" as the content of the event. Next, the control unit 11 identifies the details of the nursing care provided by the nursing care staff for the identified event from the read conversation text (S44). For example, the control unit 11 specifies “2021/9/1 1:05 nursing staff A: toilet assistance” and “2021/9/1 1:15 completion of response” as nursing care performed by the nursing staff. In addition, information related to nursing care that may be provided by the nursing care staff is registered in advance in the auxiliary storage unit 13 of the server 10, and the control unit 11 extracts the registered information from the conversation text, thereby performing nursing care. May identify the care provided by the staff.

また制御部11は、学習モデルを用いて会話テキストを要約し、介護スタッフが行った介護ケアの内容を特定してもよい。例えば、CNN、RNN、LSTM、Transformer、BERT、GPT等のアルゴリズムを用いて、会話のテキストデータが入力された場合に、当該会話の内容が要約されることによって会話の内容から特定された介護スタッフによる介護ケアに関する情報を出力するように学習した学習モデルを用いることができる。この場合、制御部11は、会話テキストを学習モデルに入力し、学習モデルからの出力情報に基づいて、イベントに対する介護ケアを行った介護スタッフと、当該介護スタッフが行った介護ケアとを特定することができる。 In addition, the control unit 11 may summarize the conversation text using the learning model and specify the details of the nursing care provided by the nursing staff. For example, when text data of conversation is input using algorithms such as CNN, RNN, LSTM, Transformer, BERT, GPT, care staff identified from the content of the conversation by summarizing the content of the conversation A learning model can be used that has been trained to output information about care by. In this case, the control unit 11 inputs the conversation text to the learning model, and based on the output information from the learning model, identifies the care staff who provided care for the event and the care provided by the care staff. be able to.

ここでの学習モデルは、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約した要約結果のテキストデータを出力するように学習された学習モデルである。このような学習モデルは、例えば汎用的な要約処理を実行するためのパラメータとして最適化された学習モデルに対して、訓練用のテキストデータと、このテキストデータの要約結果として抽出すべき単語又は文章(正解ラベル)とを含む訓練データを用いてファインチューニング(転移学習)することにより生成される。ファインチューニングにおいて学習モデルは、訓練用のテキストデータが入力され、入力されたテキストデータに基づく演算を行い、入力されたテキストデータ中の各単語又は各文章に対して0~1の出力値を算出する。そして学習モデルは、算出した各単語又は各文章に対する出力値と、正解ラベルに応じた値(正解の場合は1、正解でない場合は0)とを比較し、両者が近似するように、演算処理に用いるパラメータを最適化する。これにより、介護スタッフによる会話のテキストデータが入力された場合に、入力されたテキストデータを要約した要約結果のテキストデータを出力する学習モデルが得られる。ここでの学習モデルの学習は他の学習装置で行われる。他の学習装置で学習が行われて生成された学習済みの学習モデルは、例えばネットワークN経由又は可搬型記憶媒体10a経由で学習装置からサーバ10にダウンロードされて補助記憶部13に記憶される。 The learning model here is a learning model trained to input text data of a conversation uttered by a care staff and output text data as a result of summarizing the input text data. Such a learning model is, for example, text data for training and a word or sentence to be extracted as a summary result of this text data for a learning model optimized as parameters for executing general-purpose summarization processing. It is generated by fine-tuning (transfer learning) using training data including (correct label). In fine-tuning, the learning model receives training text data, performs calculations based on the input text data, and calculates an output value between 0 and 1 for each word or sentence in the input text data. do. Then, the learning model compares the calculated output value for each word or each sentence with the value corresponding to the correct label (1 if correct, 0 if not correct), and performs arithmetic processing so that both are approximate. Optimize the parameters used for As a result, a learning model is obtained that, when text data of a conversation by a nursing care staff is input, outputs text data as a result of summarizing the input text data. Learning of the learning model here is performed by another learning device. A trained learning model generated by learning in another learning device is downloaded from the learning device to the server 10 via, for example, the network N or the portable storage medium 10a and stored in the auxiliary storage unit 13.

制御部11は、ステップS42でイベントDB13cから読み出した情報に基づいて、全てのイベントの内容を特定したか否かを判断する(S45)。制御部11は、全てのイベントの内容を特定していないと判断した場合(S45:NO)、ステップS43の処理に戻り、未特定のイベントについてステップS43~S44の処理を実行する。これにより、制御部11は、ステップS42で読み出したイベントの情報から、他のイベントの内容を特定し(S43)、特定したイベントに対して、介護スタッフが行った介護ケアの内容を特定する(S44)。 Based on the information read from the event DB 13c in step S42, the control unit 11 determines whether or not the contents of all events have been specified (S45). When determining that the contents of all events have not been specified (S45: NO), the control unit 11 returns to the process of step S43, and executes the processes of steps S43 and S44 for unspecified events. As a result, the control unit 11 identifies the content of other events from the event information read in step S42 (S43), and identifies the content of nursing care provided by the care staff for the identified event ( S44).

制御部11は、ステップS42で読み出した情報に基づいて、全てのイベントの内容を特定したと判断した場合(S45:YES)、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、介護記録情報を作成する(S46)。介護記録情報は、図10に示すように、報告情報の作成対象である監視対象者に対応付けて作成され、特定されたイベント毎に、イベントの発生日時及び内容、介護スタッフが介護ケアを行った日時及び内容、介護スタッフによる介護ケアの完了日時等の情報を含む。例えば介護記録情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、介護記録情報用のフォーマットの各欄に、特定したイベントの内容及び介護スタッフが行った介護ケアの内容を入力することにより介護記録情報を生成する。 If the control unit 11 determines that the contents of all the events have been identified based on the information read in step S42 (S45: YES), the contents of the event identified in step S43 and the care staff identified in step S44 Nursing care record information is created based on the details of the nursing care provided by (S46). As shown in FIG. 10, the nursing care record information is created in association with the monitored person for whom the report information is created. This includes information such as the date, time and content of care provided, and the date and time of completion of care by care staff. For example, a format for nursing care record information is stored in the auxiliary storage unit 13 in advance, and the control unit 11 stores the details of the specified event and the details of nursing care provided by the nursing care staff in each column of the format for nursing care record information. to generate care record information.

また制御部11は、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、医師への報告情報を作成する(S47)。医師報告情報も、報告情報の作成対象である監視対象者に対応付けて作成される。医師報告情報は、図10に示すように、特定された各イベントの発生日時及び内容、発生したイベントに基づいて医師に報告すべき内容、報告内容に関して医師に確認すべき内容等の情報を含む。図10に示す医師報告情報の例では、夜中の時間帯にトイレのために複数回離床しているという睡眠の状態に関する報告内容と、当該報告内容に対して睡眠に関する薬、利尿作用のある薬の服用との関係の確認を医師に依頼する確認内容とを含む。なお、医師に対する報告内容及び確認内容は、例えば各イベントの内容及び発生頻度等に対応付けて、予めサーバ10の補助記憶部13に用意されたDBに記憶しておいてもよい。この場合、制御部11は、ステップS43で特定したイベントの内容に応じて、医師に対する報告内容及び確認内容をDBから取得することができる。また、医師への報告内容又は確認内容は、介護スタッフによってスタッフ端末30又は他の端末から入力されるように構成されていてもよい。ここでも、医師報告情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、医師報告情報用のフォーマットの各欄に、特定したイベントの内容等を入力することにより医師報告情報を生成する。 Further, the control unit 11 creates report information to the doctor based on the details of the event specified in step S43 and the details of the care provided by the care staff specified in step S44 (S47). Physician report information is also created in association with the monitored person for whom report information is created. As shown in FIG. 10, the doctor report information includes information such as the date and time of occurrence and details of each identified event, details to be reported to the doctor based on the event that occurred, details to be confirmed with the doctor regarding the details of the report, and the like. . In the example of the doctor-reported information shown in FIG. 10, there is a report about a sleeping state in which the user leaves the bed multiple times during the night to go to the bathroom, and a sleep-related drug and a diuretic drug for the reported content. Confirmation contents to ask the doctor to confirm the relationship with the administration of Note that the content of the report to the doctor and the content of confirmation may be stored in advance in the DB prepared in the auxiliary storage unit 13 of the server 10 in association with the content of each event, the frequency of occurrence, etc., for example. In this case, the control unit 11 can acquire the content of the report and the content of confirmation to the doctor from the DB according to the content of the event specified in step S43. Further, the content of the report to the doctor or the content of confirmation may be input by the care staff from the staff terminal 30 or another terminal. Again, the format for the doctor report information is stored in advance in the auxiliary storage unit 13, and the control unit 11 inputs the contents of the specified event, etc. Generate information.

また制御部11は、ステップS43で特定したイベントの内容と、ステップS44で特定した介護スタッフが行った介護ケアの内容とに基づいて、監視対象者の家族への報告情報を作成する(S48)。家族報告情報も、報告情報の作成対象である監視対象者に対応付けて作成される。家族報告情報は、図10に示すように、特定された各イベントの発生状態を含む監視対象者の日常生活の情報、イベントに対して介護スタッフが行った介護ケアの内容、イベント内容に関して医師に共有されて医師と連携して適切な介護ケアが行われていることを示す情報等を含む。図10に示す家族報告情報の例では、夜中の時間帯にトイレのために複数回離床しているという監視対象者の生活に関する情報と、それに対応して介護スタッフが行った介護ケアの内容と、服用中の薬との関係を医師に確認済みであることを示す情報とを含む。家族に対する報告内容も、例えば各イベントの内容及び発生頻度等に対応付けて、予めサーバ10の補助記憶部13に用意されたDBに記憶しておいてもよい。この場合、制御部11は、ステップS43で特定したイベントの内容に応じて、家族に対する報告内容をDBから取得することができる。また、家族への報告内容は、介護スタッフによってスタッフ端末30又は他の端末から入力されるように構成されていてもよい。ここでも、例えば家族報告情報用のフォーマットを予め補助記憶部13に記憶しておき、制御部11は、家族報告情報用のフォーマットの各欄に、特定したイベントの内容及び介護スタッフが行った介護ケアの内容を入力することにより家族報告情報を生成する。 Further, the control unit 11 creates report information to the monitoring subject's family based on the details of the event specified in step S43 and the details of the care provided by the care staff specified in step S44 (S48). . The family report information is also created in association with the monitored person for whom the report information is created. As shown in FIG. 10, the family report information includes information on the daily life of the monitoring subject including the state of occurrence of each specified event, details of nursing care provided by the nursing care staff for the event, It includes information that is shared and indicates that appropriate nursing care is being provided in cooperation with doctors. In the example of the family report information shown in FIG. 10, there is information about the life of the monitoring subject that he/she leaves the bed several times to go to the bathroom in the middle of the night, and the details of the nursing care provided by the nursing care staff in response to this information. , and information indicating that the relationship with the medication being taken has been confirmed by a physician. The content of the report to the family may also be stored in advance in the DB prepared in the auxiliary storage unit 13 of the server 10 in association with the content of each event, the frequency of occurrence, and the like. In this case, the control unit 11 can acquire the content of the report to the family from the DB according to the content of the event specified in step S43. Also, the contents of the report to the family may be configured to be input by the care staff from the staff terminal 30 or another terminal. Here too, for example, the format for family report information is stored in advance in the auxiliary storage unit 13, and the control unit 11 stores the content of the specified event and the care provided by the care staff in each column of the format for family report information. Generate family report information by entering details of care.

制御部11は、ステップS46~S48で各報告情報を生成した場合に、各報告情報から、予め登録されたキーワードを特定し、特定したキーワードを強調表示するための強調処理を行ってもよい。制御部11は、ステップS46で作成した介護記録情報、ステップS47で作成した医師報告情報、ステップS48で作成した家族報告情報を、例えば監視対象者DB13aに対象者IDに対応付けて記憶する(S49)。なお、制御部11は、ステップS46~S48で作成した報告情報を、例えば各監視対象者のイベントDB13cに、各イベントの日時、項目及び内容に対応付けて記憶してもよい。また制御部11は、作成した介護記録情報を、介護スタッフで介護記録を共有するサーバ又は端末へ送信してもよく、作成した医師報告情報を、対応する医師が使用する端末へ送信してもよく、作成した家族報告情報を、予め登録してある家族の端末へ送信してもよい。また制御部11は、各報告情報を作成したイベントに対応付けて、当該イベントが報告済みであることを示す情報をイベントDB13cに記憶しておく。具体的には、制御部11は、ステップS42でイベントDB13cから情報を読み出したイベントに対応付けて、報告済みであることを示す情報をイベントDB13cに記憶しておく。 When each report information is generated in steps S46 to S48, the control unit 11 may specify a pre-registered keyword from each report information and perform highlighting processing for highlighting the specified keyword. The control unit 11 stores the nursing care record information created in step S46, the doctor report information created in step S47, and the family report information created in step S48 in, for example, the monitoring target DB 13a in association with the target person ID (S49 ). Note that the control unit 11 may store the report information created in steps S46 to S48 in the event DB 13c of each monitored person, for example, in association with the date and time, item, and content of each event. In addition, the control unit 11 may transmit the created care record information to a server or terminal where care records are shared by care staff, or may transmit the created doctor report information to a terminal used by a corresponding doctor. Often, the created family report information may be transmitted to pre-registered family terminals. Further, the control unit 11 associates each piece of report information with the created event, and stores information indicating that the event has been reported in the event DB 13c. Specifically, the control unit 11 stores information indicating that the report has been completed in the event DB 13c in association with the event whose information was read out from the event DB 13c in step S42.

制御部11は、ステップS41の処理に戻り、報告情報を作成すべき監視対象者であって、まだ報告情報を作成していない監視対象者がいるか否かを判断する(S41)。報告情報を作成すべき監視対象者がいないと判断した場合(S41:NO)、制御部11は、一連の処理を終了する。上述した処理により、監視対象者に発生したイベントに対応付けてサーバ10が蓄積した介護スタッフの会話テキストに基づいて、各種の報告情報を自動で作成することができる。また、他の介護スタッフ、医師、監視対象者の家族等、報告情報の提出先に応じた内容の報告情報を作成することができる。なお、介護記録情報、医師報告情報、家族報告情報に対してそれぞれ異なる作成タイミングが設定されている場合、制御部11は、作成タイミングが到来した報告情報を生成すればよく、ステップS46~S48のいずれか又は複数を適宜の作成タイミングで実行すればよい。また、監視対象者毎に各報告情報の作成タイミングが設定されていてもよい。例えば、医師への報告情報の作成タイミングは、監視対象者の状態等に応じて変更されてもよく、監視対象者の家族への報告情報の作成タイミングは、家族から依頼された頻度に応じて変更されてもよい。また、報告情報は、定期的に作成される構成に限定されず、例えば監視対象者の介護に関して何らかのトラブルが発生した場合に作成されてもよく、この場合、報告情報によってトラブルの発生経緯を明確にすることが可能となる。 The control unit 11 returns to the process of step S41, and determines whether or not there is a monitored person for whom report information should be created but has not yet created report information (S41). If it is determined that there is no monitored person for whom report information should be created (S41: NO), the control section 11 terminates the series of processes. By the above-described processing, various types of report information can be automatically created based on the conversation texts of the care staff accumulated in the server 10 in association with the event occurring in the monitoring target. In addition, it is possible to create report information with content corresponding to the destination of the report information, such as other care staff, doctors, family members of the monitoring subject, and the like. Note that when different generation timings are set for the nursing care record information, the doctor report information, and the family report information, the control unit 11 may generate the report information when the generation timing arrives, and steps S46 to S48 are performed. Either one or a plurality of them may be executed at an appropriate creation timing. Also, the timing of creating each report information may be set for each person to be monitored. For example, the timing of creating report information to the doctor may be changed according to the condition of the monitoring subject, etc., and the timing of creating the report information to the monitoring subject's family depends on the frequency requested by the family. May be changed. In addition, the report information is not limited to being created on a regular basis. It becomes possible to

本実施形態において、学習モデルを用いて会話テキストを要約し、介護スタッフが行った介護ケアの内容を特定する構成のほかに、学習モデルを用いて会話テキストから、介護記録情報、医師報告情報、家族報告情報を作成する構成としてもよい。この場合、例えば介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された介護記録情報(テキストデータ)を出力するように学習された介護記録用の学習モデルを用いて、介護記録情報を作成してもよい。また、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された医師報告情報(テキストデータ)を出力するように学習された医師報告用の学習モデルを用いて、医師報告情報を作成してもよい。更に、介護スタッフが発話した会話のテキストデータを入力とし、入力されたテキストデータを要約して生成された家族報告情報(テキストデータ)を出力するように学習された家族報告用の学習モデルを用いて、家族報告情報を作成してもよい。このような学習モデルを用いた場合、介護スタッフの会話データから、介護記録情報、医師報告情報、家族報告情報を作成できるので、介護スタッフの業務負担を軽減することができる。 In this embodiment, in addition to the configuration for summarizing the conversation text using the learning model and specifying the content of nursing care provided by the nursing care staff, the learning model is used to extract nursing care record information, doctor report information, It may be configured to create family report information. In this case, for example, a learning model for nursing care records that is trained to output nursing care record information (text data) generated by summarizing the input text data, for example, by inputting text data of a conversation uttered by a care staff. may be used to create care record information. In addition, using a learning model for doctor reports that has been trained to output doctor report information (text data) generated by summarizing the input text data with text data of conversations uttered by care staff as input. may be used to generate physician report information. In addition, a learning model for family reports is used, which is trained to output family report information (text data) generated by summarizing the input text data from text data of conversations uttered by nursing care staff. may create family report information. When such a learning model is used, nursing care record information, doctor report information, and family report information can be created from the conversation data of the care staff, thereby reducing the work load of the care staff.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、サーバ10が各イベントに対応付けて蓄積した、介護スタッフの会話内容のテキストデータに基づいて、介護記録情報、医師への報告情報、監視対象者の家族への報告情報を自動で作成することができる。これにより、介護スタッフがこれらの報告情報を作成する際の作業負担を軽減することができる。本実施形態の構成は、上述した実施形態1~2の情報処理システムに適用可能であり、実施形態1~2の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. Further, in this embodiment, based on the text data of the contents of conversations of the care staff, stored in association with each event by the server 10, care record information, report information to the doctor, and report information to the monitoring subject's family are generated. can be created automatically. As a result, it is possible to reduce the work load of the care staff when creating these report information. The configuration of this embodiment can be applied to the information processing systems of the first and second embodiments described above, and similar effects can be obtained even when applied to the information processing systems of the first and second embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

(実施形態4)
ナースコールシステムを備え、ナースコールシステムを用いて監視対象者と介護スタッフとが行った会話の情報を蓄積する情報処理システムについて説明する。図11は、実施形態4の情報処理システムの構成例を示す説明図である。
(Embodiment 4)
An information processing system that includes a nurse call system and stores information on conversations between a person to be monitored and a care staff using the nurse call system will be described. FIG. 11 is an explanatory diagram showing a configuration example of an information processing system according to the fourth embodiment.

本実施形態の情報処理システムは、サーバ10、スタッフ端末30、ナースコールシステムにおける親機40及び子機50等を含み、これらの各機器はネットワークNを介して通信接続されている。なお、例えば子機50は、ネットワークNに接続される代わりに、専用の通信線又は無線通信によって親機40に接続される構成でもよい。また、図11では図示を省略するが、本実施形態の情報処理システムは、図11に示す構成に加えて、監視対象者毎に設置されたセンサI/F装置20及び各種センサ21~26(図1参照)を含んでもよい。また、ナースコールシステムの子機50は、呼出ボタン26の代わりに監視対象者の部屋に設けられてもよい。本実施形態において、サーバ10及びスタッフ端末30は、実施形態1の情報処理システムにおけるサーバ10及びスタッフ端末30と同様の装置であるので説明を省略する。 The information processing system of this embodiment includes a server 10, a staff terminal 30, a parent device 40 and a child device 50 in a nurse call system, etc., and these devices are connected via a network N for communication. For example, instead of being connected to the network N, the child device 50 may be connected to the master device 40 via a dedicated communication line or wireless communication. Although not shown in FIG. 11, the information processing system of the present embodiment includes, in addition to the configuration shown in FIG. 11, a sensor I/F device 20 and various sensors 21 to 26 ( (See FIG. 1). Further, the child device 50 of the nurse call system may be provided in the room of the person to be monitored instead of the call button 26 . In the present embodiment, the server 10 and the staff terminal 30 are the same devices as the server 10 and the staff terminal 30 in the information processing system of the first embodiment, so description thereof will be omitted.

ナースコールシステムは、呼出装置として使用される子機50と、子機50からの呼出に応答する応答装置として使用される親機40とを含む。子機50は、例えば監視対象者の各部屋及び共有スペース等に設置されており、親機40は、例えば介護スタッフが常駐する部屋(詰め所)又は介護施設の事務室等に設置されている。なお、介護スタッフが携帯しているスタッフ端末30が、ナースコールシステムの応答装置として利用できるように構成されていてもよい。 The nurse call system includes a handset 50 used as a calling device and a master set 40 used as a response device for responding to calls from the handset 50 . The child device 50 is installed, for example, in each room and shared space of the person to be monitored, and the master device 40 is installed, for example, in a room (staff room) where care staff resides, an office of a care facility, or the like. The staff terminal 30 carried by the care staff may be configured to be used as a response device for the nurse call system.

子機50は、ネットワークNを介して親機との間で通信を行うための通信部、監視対象者が操作(押下)する呼出ボタン51、マイク52、スピーカ53等を有する。親機40は、各子機50に対応付けて設けられたランプ41及びランプ41の点灯を解除するための解除ボタン42、スピーカ43、受話器44、これらの各部を制御する制御部等を有する。ランプ41及び解除ボタン42は子機50の数だけ設けられており、受話器44は、マイク及びスピーカを有する。 The child device 50 has a communication unit for communicating with the parent device via the network N, a call button 51 operated (depressed) by the monitored person, a microphone 52, a speaker 53, and the like. The parent device 40 includes a lamp 41 provided in association with each child device 50, a release button 42 for canceling lighting of the lamp 41, a speaker 43, a receiver 44, a control section for controlling these sections, and the like. Lamps 41 and release buttons 42 are provided in the same number as the handsets 50, and receivers 44 have microphones and speakers.

子機50は、監視対象者によって呼出ボタン51が操作された場合、通信部によって、自機を識別するための情報(例えば子機ID)を含む呼出信号を親機40に送信する。これにより、呼出ボタン51が操作された子機50の情報が親機40に通知される。親機40は、いずれかの子機50から呼出信号を受信した場合、受信した子機IDに対応する部屋番号を特定し、特定した部屋番号のランプ41を点灯又は点滅させると共に、スピーカ43から呼出音又は呼出メッセージを音声出力する。これにより、呼出ボタン51が操作された子機50の部屋番号及び監視対象者を、親機40の近傍の介護スタッフに通知することができる。介護スタッフが受話器44を上げると、呼出信号を送信した子機50と親機40との間で会話(通話)が可能となる。 When the call button 51 is operated by the person to be monitored, the slave device 50 transmits a call signal including information for identifying itself (for example, slave device ID) to the master device 40 by the communication unit. Thereby, the master device 40 is notified of the information of the slave device 50 whose call button 51 has been operated. When receiving a call signal from one of the child devices 50 , the master device 40 identifies the room number corresponding to the received child device ID, lights or blinks the lamp 41 of the identified room number, and emits a ringing sound from the speaker 43 . Or output a call message by voice. As a result, the room number of the child device 50 whose call button 51 has been operated and the person to be monitored can be notified to the nursing care staff near the master device 40 . When the care staff picks up the handset 44, conversation (phone call) becomes possible between the handset 50 that has transmitted the call signal and the base unit 40. - 特許庁

本実施形態のサーバ10は、子機50の呼出ボタン51に対する操作を、監視対象者に発生したイベントの1つとして扱い、子機50による親機40の呼出を検知した場合、イベントに関する情報として、ナースコールの呼出をイベントDB13cに記憶する。例えばサーバ10は、イベントDB13cの日時列、イベント項目列及びイベント内容列のそれぞれに、この時点の日時、「呼出」、「ナースコール」を記憶する。また、サーバ10は、親機40及び子機50間でやり取りされる会話音声を取得し、取得した会話音声をテキストデータに変換し、会話音声及び会話テキストをイベントDB13cの会話音声列及び会話テキスト列にそれぞれ記憶する。よって、本実施形態では、子機50を用いて呼出が行われた場合に、子機50及び親機40を介して監視対象者と介護スタッフとの間でやり取りされた会話に関するテキスト及び音声が、イベントDB13cに記憶される。 The server 10 of the present embodiment treats the operation of the call button 51 of the child device 50 as one of the events occurring in the monitored person, and when detecting the call of the parent device 40 by the child device 50, the event information is , a nurse call is stored in the event DB 13c. For example, the server 10 stores the current date and time, "call", and "nurse call" in the date and time column, event item column, and event content column of the event DB 13c. In addition, the server 10 acquires conversational voices exchanged between the parent device 40 and the child device 50, converts the acquired conversational voices into text data, converts the conversational voices and conversational texts into conversational voice strings and conversational texts in the event DB 13c. stored in each column. Therefore, in the present embodiment, when a call is made using the child device 50, the text and voice regarding the conversation exchanged between the monitored person and the care staff via the child device 50 and the parent device 40 are transmitted. , is stored in the event DB 13c.

以下に、本実施形態の情報処理システムにおいて、子機50を用いてナースコールの呼出が行われた場合に、サーバ10が行う処理について説明する。図12は、実施形態4のサーバ10による処理手順の一例を示すフローチャートである。以下の処理は、サーバ10の補助記憶部13に記憶してあるプログラム13Pに従って制御部11によって実行される。なお、本実施形態のサーバ10は、センサI/F装置20から逐次受信するセンサデータに基づいて、実施形態1で説明した図4~図5に示す処理を行いつつ、以下の処理を行う。 Processing performed by the server 10 when a nurse call is made using the child device 50 in the information processing system of the present embodiment will be described below. FIG. 12 is a flow chart showing an example of a processing procedure by the server 10 of the fourth embodiment. The following processing is executed by the control section 11 according to the program 13P stored in the auxiliary storage section 13 of the server 10. FIG. It should be noted that the server 10 of the present embodiment performs the following processes while performing the processes shown in FIGS.

サーバ10の制御部11は、いずれかの子機50によるナースコールの呼出が行われたか否かを判断する(S51)。例えば制御部11は、親機40がいずれかの子機50から呼出信号を受信した場合に、呼出信号の受信を親機40から通知されるように構成されていてもよい。また、制御部11は、親機40がいずれかの子機50との間で会話音声の通信を開始した場合に、通信の開始を親機40から通知されるように構成されていてもよい。制御部11は、このような親機40からの通知によって、ナースコールの呼出が行われたと判断できる。ナースコールの呼出が行われていないと判断した場合(S51:NO)、制御部11は、他の処理を行いつつ待機する。 The control unit 11 of the server 10 determines whether or not a nurse call has been made by any of the child devices 50 (S51). For example, control unit 11 may be configured to be notified of reception of a call signal from master device 40 when master device 40 receives a call signal from any of slave devices 50 . Further, the control unit 11 may be configured to be notified from the master device 40 of the start of communication when the master device 40 starts communication of the conversation voice with any of the slave devices 50 . The control unit 11 can determine that a nurse call has been made based on such notification from the master device 40 . If it is determined that a nurse call has not been made (S51: NO), the control unit 11 waits while performing other processes.

ナースコールの呼出が行われたと判断した場合(S51:YES)、制御部11は、呼出を行った監視対象者を特定する(S52)。例えば制御部11は、呼出を行った監視対象者の情報を親機40からの通知によって取得してもよく、子機50から送信された呼出信号に基づいて、呼出を行った監視対象者を特定してもよい。制御部11は、特定した監視対象者のイベントDB13cに、ナースコールの呼出というイベントの情報を記憶する(S53)。 If it is determined that a nurse call has been made (S51: YES), the control unit 11 identifies the person to be monitored who made the call (S52). For example, the control unit 11 may acquire the information of the monitored person who made the call by a notification from the base unit 40, and based on the call signal transmitted from the slave unit 50, the monitored person who made the call. may be specified. The control unit 11 stores the event information of the nurse call call in the event DB 13c of the identified monitoring subject (S53).

次に制御部11は、ナースコールの呼出を行った子機50と親機40との間で送受信される会話の音声データを取得したか否かを判断する(S54)。制御部11は、例えばネットワークN経由で子機50から親機40へ送信される音声データと、親機40から子機50へ送信される音声データとを取得する。なお、制御部11は、子機50と親機40との間で送受信される音声データを、発話者(監視対象者又は介護スタッフ)を示す情報と共に親機40から取得してもよい。 Next, the control unit 11 determines whether or not the voice data of the conversation transmitted and received between the child device 50 that made the nurse call and the master device 40 has been acquired (S54). The control unit 11 acquires audio data transmitted from the slave device 50 to the master device 40 via the network N, and audio data transmitted from the master device 40 to the slave device 50, for example. Note that the control unit 11 may acquire voice data transmitted and received between the slave device 50 and the master device 40 from the master device 40 together with information indicating the speaker (person to be monitored or care staff).

制御部11は、会話の音声データを取得したと判断した場合(S54:YES)、取得した音声データの発話者を特定する(S55)。例えば制御部11は、子機50から親機40へ送信される音声データを取得した場合、当該音声データの発話者として、子機50に対応する監視対象者(ステップS52で特定した監視対象者)を特定し、親機40から子機50へ送信される音声データを取得した場合、当該音声データの発話者として介護スタッフを特定する。なお、子機50からの呼出に対して、いずれかのスタッフ端末30を用いて応答を行った場合、制御部11は、スタッフ端末30から子機50へ送信される音声データの発話者として、当該スタッフ端末30のユーザである介護スタッフを特定できる。 When the control unit 11 determines that the voice data of the conversation has been acquired (S54: YES), it identifies the speaker of the acquired voice data (S55). For example, when voice data transmitted from the slave device 50 to the master device 40 is acquired, the control unit 11 selects the monitored person corresponding to the slave device 50 (monitored person specified in step S52) as the speaker of the voice data. ) is specified, and voice data to be transmitted from the master device 40 to the slave device 50 is acquired, the care staff is specified as the speaker of the voice data. When a call from the child device 50 is answered using one of the staff terminals 30, the control unit 11 determines that the speaker of the voice data transmitted from the staff terminal 30 to the child device 50 is: The care staff who is the user of the staff terminal 30 can be identified.

制御部11は、取得した音声データをテキストデータに変換し、介護スタッフ又は監視対象者の会話音声のテキストデータを生成する(S56)。そして、制御部11は、ステップS52で特定した監視対象者のイベントDB13cに、ステップS56で生成したテキストデータと、取得した会話の音声データとを記憶する(S57)。具体的には、制御部11は、発話者が監視対象者であるか介護スタッフであるかを示す情報と、音声データの受信日時と、生成した会話音声のテキストデータとを対応付けて会話テキスト列に記憶し、発話者の情報と、音声データの受信日時と、取得した音声データとを対応付けて会話音声列に記憶する。これにより、制御部11は、ナースコールシステムを介して監視対象者及び介護スタッフの間で行われた会話のテキストデータ及び音声データを、当該監視対象者のイベントDB13cに記憶することができる。 The control unit 11 converts the acquired voice data into text data, and generates text data of conversation voice of the care staff or the monitored person (S56). Then, the control unit 11 stores the text data generated in step S56 and the voice data of the acquired conversation in the event DB 13c of the person to be monitored identified in step S52 (S57). Specifically, the control unit 11 associates information indicating whether the speaker is a person to be monitored or a nursing care staff, the reception date and time of the voice data, and the text data of the generated conversation voice to create a conversation text. The information of the speaker, the reception date and time of the voice data, and the acquired voice data are associated with each other and stored in the conversation voice string. Thereby, the control unit 11 can store the text data and voice data of the conversation between the monitored person and the care staff via the nurse call system in the event DB 13c of the monitored person.

制御部11は、会話の音声データを取得していないと判断した場合(S54:NO)、ステップS55~S57の処理をスキップする。制御部11は、親機40及び子機50を介した会話が終了したか否かを判断する(S58)。例えば制御部11は、親機40及び子機50間での音声データの送受信が終了した場合、会話が終了したと判断する。また、制御部11は、親機40及び子機50間の通信の終了を親機40から通知されてもよい。親機40及び子機50を介した会話が終了していないと判断した場合(S58:NO)、制御部11は、ステップS54の処理に戻り、親機40及び子機50を介した会話の音声データを取得する都度、ステップS55~S57の処理を繰り返す。会話が終了したと判断した場合(S58:YES)、制御部11は一連の処理を終了する。このとき制御部11は、イベントDB13cの進捗情報欄に、介護ケアの終了を示す「済」を記憶してもよい。 If the control unit 11 determines that the voice data of the conversation has not been acquired (S54: NO), it skips the processing of steps S55 to S57. The control unit 11 determines whether or not the conversation via the parent device 40 and the child device 50 has ended (S58). For example, the control unit 11 determines that the conversation has ended when the transmission and reception of voice data between the parent device 40 and the child device 50 have ended. Further, the control unit 11 may be notified by the master device 40 of the end of communication between the master device 40 and the slave device 50 . If it is determined that the conversation via the parent device 40 and the child device 50 has not ended (S58: NO), the control unit 11 returns to the process of step S54, and starts the conversation via the parent device 40 and the child device 50. The processing of steps S55 to S57 is repeated each time voice data is acquired. If it is determined that the conversation has ended (S58: YES), the control section 11 ends the series of processes. At this time, the control unit 11 may store "completed" indicating the end of nursing care in the progress information column of the event DB 13c.

上述した処理により、サーバ10は、ナースコールシステムを用いて行われた監視対象者と介護スタッフとの間の会話のテキストデータ及び音声データを蓄積することができる。本実施形態においても、サーバ10に蓄積された会話のテキストデータは、スタッフ端末30又は他の端末等を用いて閲覧することができ、例えば図7Aに示すような画面の生成が可能である。例えば図7Aに示す画面において、最上段の太線の表示枠に、ナースコールの呼出を行った監視対象者の情報、ナースコールの呼出が行われたこと及び日時が表示され、2段目以降の表示枠に、介護スタッフ又は監視対象者が発した会話内容のテキストデータが発話日時と共に表示される。 By the above-described processing, the server 10 can accumulate text data and voice data of the conversation between the monitored person and the care staff using the nurse call system. Also in this embodiment, the text data of the conversation stored in the server 10 can be viewed using the staff terminal 30 or another terminal, and a screen such as that shown in FIG. 7A can be generated. For example, in the screen shown in FIG. 7A , the information of the monitored person who made the nurse call, the fact that the nurse call was made, and the date and time are displayed in the thick line display frame at the top. In the display frame, the text data of the content of the conversation uttered by the care staff or the person to be monitored is displayed together with the date and time of the utterance.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、ナースコールシステムを用いて監視対象者と介護スタッフとが行った会話のテキストデータ及び音声データを蓄積することができる。よって、蓄積したデータに基づいて、監視対象者がナースコールの呼出を行った際の介護スタッフの対応(ナースコールでの応答内容)を後日確認することが可能となる。本実施形態の構成は、上述した実施形態1~3の情報処理システムに適用可能であり、実施形態1~3の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. In addition, in this embodiment, text data and voice data of conversation between the monitored person and the care staff can be stored using the nurse call system. Therefore, based on the accumulated data, it is possible to confirm at a later date how the nursing care staff responded to the monitored person's call for a nurse call (response to the nurse call). The configuration of this embodiment can be applied to the information processing systems of the first to third embodiments described above, and similar effects can be obtained even when applied to the information processing systems of the first to third embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

(実施形態5)
監視対象者に通知対象のイベントが発生した場合に、サーバ10がイベントDB13cに蓄積した情報から、類似するケースを抽出し、抽出した類似ケースで行った介護ケアをアドバイスとして介護スタッフに提示する情報処理システムについて説明する。本実施形態の情報処理システムは、図1に示す実施形態1の情報処理システムと同様の装置を用いて実現可能であるので、各装置の構成についての説明は省略する。なお、本実施形態では、監視対象者DB13aに、各監視対象者の年齢及び性別を含む属性情報と、既往歴、治療歴、薬の服用歴、現在の診断名及び症状、血液検査及び尿検査等の各種検査結果等を含む診療記録とが記憶されているものとする。監視対象者の診療記録は、監視対象者DB13aに記憶される構成のほかに、診療記録を含む電子カルテを記憶している他のサーバから取得する構成でもよい。
(Embodiment 5)
Information for extracting similar cases from the information accumulated in the event DB 13c by the server 10 when an event to be notified occurs in a person to be monitored, and presenting nursing care performed in the extracted similar cases to the nursing care staff as advice. A processing system will be described. The information processing system of the present embodiment can be realized using devices similar to those of the information processing system of the first embodiment shown in FIG. 1, so description of the configuration of each device will be omitted. In this embodiment, attribute information including age and gender of each monitored subject, medical history, treatment history, history of taking medicine, current diagnosis and symptoms, blood test and urine test are stored in the monitored subject DB 13a. It is assumed that medical records including various test results such as are stored. The medical record of the monitoring subject may be stored in the monitoring subject DB 13a, or may be obtained from another server that stores electronic medical records including medical records.

図13は、実施形態5の情報処理システムにおける処理手順の一例を示すフローチャートである。図13に示す処理は、図4及び図5に示す処理において、ステップS16のYESとステップS17との間にステップS71~S73を追加したものである。図4及び図5と同じステップについては説明を省略する。また図13では、図5中の各ステップの図示を省略している。 FIG. 13 is a flowchart illustrating an example of a processing procedure in the information processing system according to the fifth embodiment; The process shown in FIG. 13 is obtained by adding steps S71 to S73 between YES in step S16 and step S17 in the processes shown in FIGS. Description of the same steps as in FIGS. 4 and 5 will be omitted. Also, in FIG. 13, illustration of each step in FIG. 5 is omitted.

本実施形態のサーバ10及びスタッフ端末30は、図4及び図5中のステップS11~S16と同様の処理を行う。これにより、サーバ10は、各センサI/F装置20を介して取得したセンサ21~25及び呼出ボタン26からの信号に基づいて、各監視対象者に対するイベントの発生を検知する。サーバ10の制御部11は、ステップS14で特定したイベントが、介護スタッフへの通知対象のイベントであると判断した場合(S16:YES)、特定したイベントに類似するケースを、各監視対象者のイベントDB13cの記憶内容から抽出する。具体的には、制御部11は、監視対象者DB13aに記憶してある各監視対象者の属性及び診療記録から、ステップS12で特定した監視対象者と、属性及び症状等が類似する監視対象者を抽出する(S71)。例えば制御部11は、診断名が同じ監視対象者、病気のタイプ又は進行状態が類似している監視対象者、同じ薬を服用している監視対象者、要支援・要介護認定の段階が同じ監視対象者等を抽出する。制御部11は、属性及び診療記録の内容がより類似する監視対象者を所定人数(例えば5人)抽出する。 The server 10 and staff terminal 30 of this embodiment perform the same processing as steps S11 to S16 in FIGS. Accordingly, the server 10 detects the occurrence of an event for each person to be monitored based on the signals from the sensors 21 to 25 and the call button 26 acquired via each sensor I/F device 20 . When the control unit 11 of the server 10 determines that the event specified in step S14 is an event to be notified to the care staff (S16: YES), a case similar to the specified event is sent to each monitoring subject. It is extracted from the storage contents of the event DB 13c. Specifically, the control unit 11 selects the monitoring target person identified in step S12 from the attributes and medical records of each monitoring target person stored in the monitoring target person DB 13a, and the monitoring target person having similar attributes, symptoms, etc. is extracted (S71). For example, the control unit 11 can identify monitoring targets with the same diagnosis, similar disease types or progressing conditions, monitoring targets taking the same medicine, and the Extract monitoring targets, etc. The control unit 11 extracts a predetermined number (for example, 5) of persons to be monitored whose attributes and medical record contents are more similar.

次に制御部11は、抽出した監視対象者のイベントDB13cに記憶してある各イベントの情報から、ステップS14で特定したイベントと類似するイベント(類似ケース)を抽出する(S72)。例えば制御部11は、イベント項目及びイベント内容が同じイベント、イベント項目及びイベント内容が同じであって発生時間帯が類似しているイベント等を抽出する。制御部11は、イベントの内容及び発生時間帯等がより類似するイベントを所定数(例えば1~2つ)抽出する。 Next, the control unit 11 extracts an event (similar case) similar to the event identified in step S14 from the information of each event stored in the event DB 13c of the extracted monitored person (S72). For example, the control unit 11 extracts events having the same event item and event content, events having the same event item and event content, and having similar occurrence time zones. The control unit 11 extracts a predetermined number (for example, 1 or 2) of events that are more similar in event content, occurrence time period, and the like.

そして制御部11は、抽出した類似ケースにおいて、介護スタッフが行っていた介護ケアの内容に基づいてアドバイスを生成する(S73)。例えば制御部11は、抽出したイベント(類似ケース)に対応付けて記憶してある会話テキストをイベントDB13cから読み出し、読み出した会話テキストから、介護スタッフが行った介護ケアの内容に関する文言を抽出する。そして、制御部11は、抽出した介護ケアの内容に関する文言を用いて、アドバイスを生成する。例えば認知症の監視対象者が離床して居室外で徘徊しているというイベントに対して、会話テキストから、「『もうすぐご家族が迎えに来るから部屋で待っておきましょうね』と声掛けした」という介護ケア内容が抽出された場合、制御部11は、「『もうすぐご家族が迎えに来るから部屋で待っておきましょうね』と声掛けしてください」というアドバイスを生成する。また、会話テキストから、「屋外を散歩したら落ち着いた」という介護ケア内容が抽出された場合、制御部11は、「屋外を散歩してみてください」というアドバイスを生成する。なお、イベントDB13cに記憶してある会話テキストから、介護スタッフが行った介護ケアの内容に関する文言を抽出する処理は、適宜のタイミングで予め行っておき、イベントDB13cに記憶しておいてもよい。この場合、制御部11は、ステップS73でアドバイスを生成する際に、予め抽出された文言を用いてアドバイスを生成することができるので、処理の簡略化が可能となる。 Then, the control unit 11 generates advice based on the content of nursing care provided by the nursing care staff in the extracted similar cases (S73). For example, the control unit 11 reads the conversation text stored in association with the extracted event (similar case) from the event DB 13c, and extracts from the read conversation text words related to the nursing care provided by the care staff. Then, the control unit 11 generates advice using the extracted wording regarding the content of nursing care. For example, in response to an event in which a person to be monitored with dementia has left the room and is wandering outside the room, the conversation text will say, "Your family will be coming to pick you up soon, so let's wait in the room." When the content of nursing care such as "I did" is extracted, the control unit 11 generates the advice "Please say, 'Your family will come to pick you up soon, so let's wait in the room.'". Further, when the nursing care content "I feel calmer after taking a walk outdoors" is extracted from the conversation text, the control unit 11 generates the advice "Try taking a walk outdoors". It should be noted that the process of extracting words related to the nursing care provided by the nursing care staff from the conversation text stored in the event DB 13c may be performed in advance at an appropriate timing and stored in the event DB 13c. In this case, when generating advice in step S73, the control unit 11 can generate the advice using the pre-extracted wording, so the processing can be simplified.

制御部11は、ステップS73で生成したアドバイスを含み、介護スタッフに通知すべきアラート情報を生成する(S17)。ここでのアラート情報は、イベントの内容と、当該イベントが発生した監視対象者の情報と、当該イベントに対して介護スタッフが行うべき介護ケアの内容に関するアドバイスとを含む。例えば認知症の監視対象者が離床して居室外で徘徊しているというイベントの場合、制御部11は、監視対象者の部屋番号及び氏名と、当該監視対象者が徘徊してことを示すメッセージと、介護ケアの内容を提案するアドバイスとを含むアラート情報を生成する。具体的には、「503号室、山田太郎様、居室外を徘徊しています。屋外を散歩してみてください」のようなアラート情報を生成する。その後、制御部11及びスタッフ端末30の制御部31は、ステップS18以降の処理を実行する。よって、スタッフ端末30は、サーバ10から受信したアラート情報を音声出力することにより、イベントが発生している監視対象者の情報と、イベント内容と、介護スタッフが行うべき介護ケア内容とを介護スタッフに通知することができる。なお、アラート情報はテキストデータ又は画像データであってもよく、スタッフ端末30が表示部を有する場合、アラート情報を表示部に表示して介護スタッフに通知してもよい。 The control unit 11 generates alert information to be notified to the care staff, including the advice generated in step S73 (S17). The alert information here includes the details of the event, information about the person to be monitored for whom the event has occurred, and advice on the content of nursing care that the nursing care staff should provide in response to the event. For example, in the case of an event in which a person to be monitored with dementia has left the bed and is wandering outside the living room, the control unit 11 outputs the room number and name of the person to be monitored, and a message indicating that the person to be monitored is wandering. and advice proposing the details of nursing care are generated. Specifically, it generates alert information such as "Room 503, Mr. Taro Yamada, is wandering outside his room. Please take a walk outside." After that, the control unit 11 and the control unit 31 of the staff terminal 30 execute the processes after step S18. Therefore, the staff terminal 30 outputs the alert information received from the server 10 by voice, thereby providing the information of the monitored person for whom the event has occurred, the content of the event, and the content of nursing care to be provided by the nursing care staff. can be notified to Note that the alert information may be text data or image data, and if the staff terminal 30 has a display unit, the alert information may be displayed on the display unit and notified to the care staff.

上述した処理により、監視対象者に通知対象のイベントが発生した場合に、イベントの発生を介護スタッフに通知するだけでなく、過去の類似ケースから介護スタッフがとり得る介護ケア内容をアドバイスすることができる。上述した処理では、イベントの発生時に、介護ケア内容に関するアドバイスを生成して介護スタッフに提示していたが、この構成に限定されない。例えば、監視対象者に対するイベントの発生を介護スタッフに通知した後、介護スタッフ間でスタッフ端末30を用いて会話が行われているときに、介護ケア内容に関するアドバイスを生成して介護スタッフに提示してもよう。この場合、監視対象者の情報及びイベントの内容に加えて、それまでに介護スタッフが行った介護ケア内容も考慮して、更に介護スタッフが行うべき介護ケア内容をアドバイスすることができる。 With the above-described processing, when an event to be notified occurs in a person to be monitored, it is possible not only to notify the care staff of the occurrence of the event, but also to advise the care staff on possible care details based on past similar cases. can. In the process described above, when an event occurs, advice regarding the content of nursing care is generated and presented to the nursing staff, but the configuration is not limited to this. For example, after notifying the care staff of the occurrence of an event for the person to be monitored, while the care staff are having a conversation using the staff terminal 30, advice regarding the content of care care is generated and presented to the care staff. let's In this case, in addition to the information of the person to be monitored and the contents of the event, it is possible to give advice on the contents of nursing care that the nursing staff should perform, taking into account the nursing care contents that the nursing staff has provided so far.

本実施形態において、類似ケースを抽出する際に、属性及び症状が類似する監視対象者に、イベントが発生中の監視対象者を含めてもよい。この場合、同じ監視対象者において過去に発生した同様のイベントで介護スタッフが行った介護ケア内容に基づくアドバイスを提示できる。 In this embodiment, when extracting a similar case, a monitoring subject having similar attributes and symptoms may include a monitoring subject whose event is occurring. In this case, it is possible to present advice based on the content of nursing care provided by the nursing care staff in similar events that occurred in the past for the same monitored person.

本実施形態において、いずれかの監視対象者にイベントが発生した場合に、属性及び症状が類似する監視対象者を監視対象者DB13aの記憶情報から特定し、類似するイベントをイベントDB13cの記憶内容から特定する構成に限定されない。例えば、アドバイスに用いるべきケース(イベント)に関して、監視対象者の属性及び診療記録と、イベントの内容と、介護スタッフが行った介護ケアの内容とを、予め監視対象者DB13a及びイベントDB13cから抽出し、アドバイス用DBに蓄積しておく。そして、サーバ10は、アドバイス用DBの記憶内容から、イベントが発生した監視対象者の属性及び症状に類似する監視対象者、及び、類似するイベントを特定し、特定内容に対応付けて記憶してある介護ケアの内容を取得してもよい。このような構成とした場合、アドバイスに用いるべき類似ケースを短時間で検索することができ、また、適切な介護ケアの内容を登録しておくことにより、適切なアドバイスの提供が可能となる。更に、このようなアドバイス用DBは、施設毎に設定されると共に、定期的に更新することにより、施設内の監視対象者の状態等に応じた内容にカスタマイズすることができるので、各施設に適したアドバイスの生成が可能となる。 In this embodiment, when an event occurs in one of the monitored persons, the monitored persons with similar attributes and symptoms are specified from the information stored in the monitored person DB 13a, and similar events are identified from the stored contents of the event DB 13c. It is not limited to any particular configuration. For example, with respect to a case (event) to be used for advice, the attributes and medical records of the monitoring subject, the content of the event, and the content of nursing care provided by the care staff are extracted in advance from the monitoring subject DB 13a and the event DB 13c. , is accumulated in the DB for advice. Then, the server 10 identifies, from the contents stored in the advice DB, a monitoring subject similar to the attributes and symptoms of the monitoring subject in which the event occurred, and a similar event, and stores them in association with the specific contents. The contents of a certain nursing care may be obtained. With such a configuration, similar cases to be used for advice can be retrieved in a short period of time, and appropriate advice can be provided by registering appropriate details of nursing care. Furthermore, such an advice DB is set for each facility, and by updating it periodically, it is possible to customize the contents according to the conditions of persons to be monitored in the facility. Suitable advice can be generated.

本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、監視対象者に対するイベントの発生を介護スタッフに通知する際に、介護スタッフがとり得る介護ケア内容をアドバイスすることができる。これにより、技術、知識又は経験が少ない介護スタッフであっても、アドバイスに従って適切な介護ケアを行うことが可能となる。よって、例えば夜間のように介護スタッフが少ない場合であっても、技術、知識又は経験が少ない介護スタッフを配置することが可能となる。また、介護スタッフはアドバイスによるサポートを受けることができるので、業務に対する不安を低減することができ、離職率の低下及び人材不足の解消が期待できる。本実施形態の構成は、上述した実施形態1~4の情報処理システムに適用可能であり、実施形態1~4の情報処理システムに適用した場合であっても同様の効果が得られる。また、本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-described embodiments can be obtained. In addition, in this embodiment, when notifying the care staff of the occurrence of an event for the person being monitored, it is possible to advise the care staff about possible care details. As a result, even nursing staff with little skill, knowledge, or experience can provide appropriate nursing care according to advice. Therefore, even if there are few nursing staff, such as at night, it is possible to allocate nursing staff with little skill, knowledge, or experience. In addition, since the care staff can receive support by advice, it is possible to reduce anxiety about work, and it is expected that the turnover rate will decrease and the shortage of human resources will be resolved. The configuration of this embodiment can be applied to the information processing systems of the first to fourth embodiments described above, and similar effects can be obtained even when applied to the information processing systems of the first to fourth embodiments. Also in this embodiment, it is possible to apply the modified examples appropriately described in each of the above-described embodiments.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

10 サーバ
11 制御部
12 主記憶部
13 補助記憶部
14 通信部
20 センサI/F装置
21 睡眠センサ
22 トイレセンサ
23 ドアセンサ
24 環境センサ
25 人感センサ
26 呼出ボタン
30 スタッフ端末
34 通信部
35 マイク
36 イヤホン
13a 監視対象者DB
13b センサデータDB
13c イベントDB
10 Server 11 Control Unit 12 Main Storage Unit 13 Auxiliary Storage Unit 14 Communication Unit 20 Sensor I/F Device 21 Sleep Sensor 22 Toilet Sensor 23 Door Sensor 24 Environment Sensor 25 Human Sensor 26 Call Button 30 Staff Terminal 34 Communication Unit 35 Microphone 36 Earphone 13a Monitored person DB
13b Sensor data DB
13c Event database

Claims (11)

介護施設内の監視対象者の状態又は前記監視対象者の周囲の状態を検知するセンサからのセンサデータを取得し、
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、
判定したイベントの発生を複数の介護者の端末へ出力し、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、
取得した音声データをテキストデータに変換し、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する
処理をコンピュータに実行させるプログラム。
Acquiring sensor data from a sensor that detects the state of a person to be monitored in a care facility or the state of the surroundings of the person to be monitored;
Based on the acquired sensor data, determine an event that has occurred in the monitoring target or in the surroundings of the monitoring target,
Output the occurrence of the determined event to the terminals of multiple caregivers,
Obtaining voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers,
Convert the acquired voice data into text data,
A program that causes a computer to execute a process of associating the determined event with text data converted from voice data of conversations of the plurality of caregivers regarding the event and storing the text data in a storage unit.
複数種類のセンサからのセンサデータを取得しており、
前記複数種類のセンサから取得したセンサデータに基づいて、複数種類のイベントの発生を判定し、
前記監視対象者毎に、前記複数種類のイベントのうちで、前記複数の介護者の端末に発生を出力すべきイベントを設定する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。
Acquiring sensor data from multiple types of sensors,
determining the occurrence of multiple types of events based on the sensor data obtained from the multiple types of sensors;
2. The program according to claim 1, which causes the computer to execute a process of setting, for each of the monitoring target persons, an event whose occurrence is to be output to the terminals of the plurality of caregivers among the plurality of types of events.
前記介護者の識別情報と、前記介護者の端末から取得した音声データから変換したテキストデータとを対応付けて前記記憶部に記憶する
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。
The program according to claim 1 or 2, causing the computer to execute a process of associating the identification information of the caregiver with text data converted from voice data acquired from the terminal of the caregiver and storing the data in the storage unit. .
前記変換したテキストデータから、前記介護者が行った対応に関するテキストデータを抽出し、
前記判定したイベントと、抽出したテキストデータとを対応付けて前記記憶部に記憶する
処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。
Extracting text data related to the caregiver's response from the converted text data,
The program according to any one of claims 1 to 3, which causes the computer to execute a process of associating the determined event with the extracted text data and storing them in the storage unit.
前記記憶部に記憶した前記イベント及び前記テキストデータに基づいて、前記イベントに関する情報を含む報告書を作成する
処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。
5. The program according to any one of claims 1 to 4, causing the computer to create a report containing information about the event based on the event and the text data stored in the storage unit.
前記報告書は、介護記録用の報告書、医療従事者に前記イベントを報告するための報告書、及び、前記監視対象者の家族に前記イベントを報告するための報告書を含む
請求項5に記載のプログラム。
6. The report includes a report for nursing care records, a report for reporting the event to medical personnel, and a report for reporting the event to the monitoring subject's family. program as described.
前記変換したテキストデータからキーワードを特定し、
前記テキストデータ中の前記キーワードを強調する
処理を前記コンピュータに実行させる請求項1から6までのいずれかひとつに記載のプログラム。
identifying a keyword from the converted text data;
7. The program according to any one of claims 1 to 6, which causes the computer to execute a process of emphasizing the keyword in the text data.
前記判定したイベントに対して前記介護者が行った対応の終了を検知し、
前記対応の終了を検知した場合、前記イベントに対応付けて、前記介護者による対応の終了を示す情報を前記記憶部に記憶する
処理を前記コンピュータに実行させる請求項1から7までのいずれかひとつに記載のプログラム。
Detecting the end of the caregiver's response to the determined event,
8. The computer according to any one of claims 1 to 7, wherein when the end of the response is detected, information indicating the end of the response by the caregiver is stored in the storage unit in association with the event. program described in .
監視対象者に対応付けて設けられたナースコール子機を介して入力された前記監視対象者が発話した音声データを取得し、
前記ナースコール子機からの呼出に応答するためのナースコール親機又は介護者の端末を介して入力された前記介護者が発話した音声データを取得し、
取得した前記監視対象者による音声データ及び前記介護者による音声データをテキストデータに変換し、
それぞれ変換したテキストデータを対応付けて記憶部に記憶する
処理をコンピュータに実行させるプログラム。
Acquiring voice data uttered by the person to be monitored input via a nurse call handset associated with the person to be monitored;
Obtaining voice data spoken by the caregiver input via a nurse call parent device or a caregiver terminal for responding to a call from the nurse call slave device,
Converting the acquired voice data of the monitored person and the voice data of the caregiver into text data,
A program that causes a computer to execute a process of correlating each converted text data and storing it in the storage unit.
介護施設内の監視対象者の状態又は前記監視対象者の周囲の状態を検知するセンサからのセンサデータを取得し、
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定し、
判定したイベントの発生を複数の介護者の端末へ出力し、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得し、
取得した音声データをテキストデータに変換し、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶部に記憶する
処理をコンピュータが実行する情報処理方法。
Acquiring sensor data from a sensor that detects the state of a person to be monitored in a care facility or the state of the surroundings of the person to be monitored;
Based on the acquired sensor data, determine an event that has occurred in the monitoring target or in the surroundings of the monitoring target,
Output the occurrence of the determined event to the terminals of multiple caregivers,
Obtaining voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers,
Convert the acquired voice data into text data,
An information processing method in which a computer executes a process of associating the determined event with text data converted from voice data of conversations of the plurality of caregivers regarding the event and storing the text data in a storage unit.
介護施設内の監視対象者の状態又は前記監視対象者の周囲の状態を検知するセンサからのセンサデータを取得するセンサデータ取得部と、
取得したセンサデータに基づいて、前記監視対象者又は前記監視対象者の周囲に発生したイベントを判定する判定部と、
判定したイベントの発生を複数の介護者の端末へ出力する出力部と、
前記複数の介護者の端末から、前記複数の介護者が会話する音声データを取得する音声データ取得部と、
取得した音声データをテキストデータに変換する変換部と、
前記判定したイベントと、前記イベントに関して前記複数の介護者が会話する音声データから変換したテキストデータとを対応付けて記憶する記憶部と
を備える情報処理装置。
a sensor data acquisition unit that acquires sensor data from a sensor that detects the state of a person to be monitored in a nursing facility or the state of the surroundings of the person to be monitored;
a determination unit that determines an event that has occurred in the monitored person or in the surroundings of the monitored person based on the acquired sensor data;
an output unit that outputs the occurrence of the determined event to terminals of a plurality of caregivers;
A voice data acquisition unit that acquires voice data spoken by the plurality of caregivers from the terminals of the plurality of caregivers;
a conversion unit that converts the acquired voice data into text data;
An information processing apparatus comprising: a storage unit that associates and stores the determined event and text data converted from voice data of conversations of the plurality of caregivers regarding the event.
JP2021169700A 2021-10-15 2021-10-15 Program, information processing method, and information processing apparatus Pending JP2023059601A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021169700A JP2023059601A (en) 2021-10-15 2021-10-15 Program, information processing method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169700A JP2023059601A (en) 2021-10-15 2021-10-15 Program, information processing method, and information processing apparatus

Publications (1)

Publication Number Publication Date
JP2023059601A true JP2023059601A (en) 2023-04-27

Family

ID=86096724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169700A Pending JP2023059601A (en) 2021-10-15 2021-10-15 Program, information processing method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP2023059601A (en)

Similar Documents

Publication Publication Date Title
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
US8063764B1 (en) Automated emergency detection and response
US20200143655A1 (en) Smart activities monitoring (sam) processing of data
JP2008234443A (en) Information processor
US11116403B2 (en) Method, apparatus and system for tailoring at least one subsequent communication to a user
JP7234572B2 (en) Care systems, their management methods, and programs
JP7044060B2 (en) Observer monitoring device, method and system
JP2019216820A (en) Support system
US20060285651A1 (en) Monitoring system with speech recognition
JP2019017499A (en) Recuperation support system
US20210352176A1 (en) System and method for performing conversation-driven management of a call
JP7140523B2 (en) Nursing care act estimation system
WO2018003750A1 (en) Nursing/care item input device, nursing/care item input method, and nursing/care item management system
WO2020075675A1 (en) Care system management method, management device and program
JP2023059601A (en) Program, information processing method, and information processing apparatus
US20220036554A1 (en) System and method for supporting the emotional and physical health of a user
JP7436014B2 (en) nurse call system
JPWO2018110294A1 (en) Care plan output device, method and system, and monitored person monitoring system
JP7405357B2 (en) Elderly person monitoring system
JP2023059602A (en) Program, information processing method, and information processing apparatus
JP6946276B2 (en) The terminal device of the monitored person monitoring system, the control method and program of the terminal device, and the monitored person monitoring system
JP2021146113A (en) Nurse call system
JP7453638B2 (en) Nursing care record creation system, nursing care record creation method, medical record creation system, medical record creation method, and program
JP7210024B2 (en) Living alone support robot
JP7135886B2 (en) Prompting utterance device, prompting utterance method and program