JP2023070277A - Risk prediction system for care facility, program, and risk prediction method for care facility - Google Patents

Risk prediction system for care facility, program, and risk prediction method for care facility Download PDF

Info

Publication number
JP2023070277A
JP2023070277A JP2021182349A JP2021182349A JP2023070277A JP 2023070277 A JP2023070277 A JP 2023070277A JP 2021182349 A JP2021182349 A JP 2021182349A JP 2021182349 A JP2021182349 A JP 2021182349A JP 2023070277 A JP2023070277 A JP 2023070277A
Authority
JP
Japan
Prior art keywords
care
action
prediction
receiver
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021182349A
Other languages
Japanese (ja)
Inventor
利章 渡邉
Toshiaki Watanabe
高広 加納
Takahiro Kano
浩幸 岡本
Hiroyuki Okamoto
早紀 湯浅(坂本)
Yuasa, (Sakamoto) Saki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quad Lab Co Ltd
Quadlab
RAITEKKUSU KK
Social Welfare Corp Daishokai
TAIRAPROMOTE CO Ltd
Original Assignee
Quad Lab Co Ltd
Quadlab
RAITEKKUSU KK
Social Welfare Corp Daishokai
TAIRAPROMOTE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quad Lab Co Ltd, Quadlab, RAITEKKUSU KK, Social Welfare Corp Daishokai, TAIRAPROMOTE CO Ltd filed Critical Quad Lab Co Ltd
Priority to JP2021182349A priority Critical patent/JP2023070277A/en
Publication of JP2023070277A publication Critical patent/JP2023070277A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

To provide a risk prediction system for a care facility, program, and risk prediction method for a care facility capable of remotely watching a cared person by notifying of, by prediction, a state where the cared person is likely to fall.SOLUTION: A risk prediction system 1 includes: reception means 201 for receiving a photographed video from a user terminal 3; posture estimation means 203 for estimating a posture of a cared person from the photographed video received by the reception means 201; action detection means 205 for detecting an action state of the cared person from object information estimated by the posture estimation means 203; action prediction means 206 for predicting a next action of the cared person from the action state detected by the action detection means 205; and display instruction means 601 for allowing a care support terminal 7 to display a state image based on the action state detected by the action detection means 205 and prediction information predicted by the action prediction means 206.SELECTED DRAWING: Figure 1

Description

本発明は、介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法に関する。 The present invention relates to a risk prediction system for nursing care facilities, a program, and a risk prediction method for nursing care facilities.

介護施設等において、被介護者の見守りを行う見守りシステムとして従来から様々なものが設けられている。例えば、特許文献1には、医療施設や介護施設、宅内の一室の天井に距離画像カメラを設け、ベッド全体を撮影することにより生体情報を検出する技術が開示されている。また、特許文献2には、カメラによって歩行者を撮影し、それにより得られた撮影動画を解析することで、撮影動画に写る歩行者の状態を監視し、当該歩行者の見守りを行う技術が開示されている。また、特許文献3には、その画角内にベッド周辺の全てを収める赤外線レーザセンサにより被介護者のベッドを含む見守り対象を赤外線レーザによって自動的に走査し、その時点における見守りエリア近辺の距離画像を取得することにより、被介護者が寝ているベッド上のハミ出し個所を特定する技術が開示されている。また、特許文献4には、ウェブカメラ(Webカメラ)等のデジタルカメラにより被介護者の画像を取得し、また被介護者の生理学的データに基づいて身体状態を検出することにより、被介護者が異常状態であるか否かを判定する技術が開示されている。また、特許文献5には、被介護者の部屋に設置される2個の2次元温度分布センサが検出した第1の温度分布及び第2の温度分布から、人体を示す温度領域を抽出し、この抽出した2個の人体温度領域から、人体の立位、座位又は臥位を判定する技術が開示されている。 Nursing care facilities and the like have conventionally provided various types of watching systems for watching over care recipients. For example, Patent Literature 1 discloses a technique for detecting biometric information by providing a range image camera on the ceiling of a room in a medical facility, a nursing facility, or a home, and capturing an image of the entire bed. In addition, Patent Document 2 discloses a technique for monitoring the state of a pedestrian reflected in the captured moving image by capturing a pedestrian with a camera and analyzing the captured moving image obtained thereby, and watching over the pedestrian. disclosed. In addition, in Patent Document 3, an infrared laser sensor that covers the entire area around the bed within its angle of view automatically scans the monitored object, including the bed of the care recipient, with an infrared laser. There is disclosed a technique for identifying a location on a bed on which a care-receiver is sleeping by acquiring an image. In addition, in Patent Document 4, an image of a care recipient is acquired by a digital camera such as a web camera (Web camera), and by detecting the physical condition of the care recipient based on the physiological data of the care recipient, is in an abnormal state. Further, in Patent Document 5, a temperature region indicating a human body is extracted from a first temperature distribution and a second temperature distribution detected by two two-dimensional temperature distribution sensors installed in a room of a care recipient, A technique for determining the standing, sitting, or lying position of the human body from these two extracted human body temperature regions is disclosed.

特開2020-110422号公報Japanese Patent Application Laid-Open No. 2020-110422 国際公開番号WO2016/152182A1International publication number WO2016/152182A1 特開2019-49849号公報JP 2019-49849 A 特開2020-074110号公報Japanese Patent Application Laid-Open No. 2020-074110 特開2014-106636号公報JP 2014-106636 A

従来の見守りシステムでは、介護施設等において被介護者が転倒した等のトラブルがあったときに遠隔で報知を行うことができたが、被介護者が転送しそうな状態を予知して報知するものは従来は存在しなかった。 In conventional monitoring systems, it was possible to remotely report when there was a problem such as a fall of a care recipient in a nursing facility, etc. did not previously exist.

本発明は、このような点を考慮してなされたものであり、被介護者の危険を予知し、介護者に報知することができる介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法を提供することを目的とする。 The present invention has been made in consideration of these points, and is a risk prediction system, program, and risk prediction method for nursing facilities that can predict the danger of a care recipient and notify the caregiver. intended to provide

本発明の介護施設向け危険予知システムは、
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
を備えたこと特徴とする。
The danger prediction system for nursing homes of the present invention is
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
characterized by comprising

本発明のプログラムは、
コンピュータを、
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
として機能させることを特徴とする。
The program of the present invention is
the computer,
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
It is characterized by functioning as

本発明の介護施設向け情報処理方法は、
ユーザ端末から撮影動画を受け付ける工程と、
受け付けた撮影動画から、被介護者の姿勢を推定する工程と、
推定されたオブジェクト情報から、被介護者の行動状況を検出する工程と、
検出された行動状況から、被介護者の次の行動を予知する工程と、
検出された行動状況および予知された予知情報に基づいて、介護支援端末に状況画像を表示させる工程と、
を備えたことを特徴とする。
The information processing method for nursing care facilities of the present invention includes:
a step of receiving a captured video from a user terminal;
a step of estimating the posture of the care-receiver from the received captured video;
a step of detecting the action status of the care recipient from the estimated object information;
a step of predicting the next action of the cared person from the detected action situation;
a step of displaying a situation image on a care support terminal based on the detected action situation and the predicted prediction information;
characterized by comprising

本発明の介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法によれば、被介護者の危険を予知し、介護者に報知することができる。 According to the risk prediction system for nursing facilities, the program, and the risk prediction method for nursing facilities of the present invention, it is possible to predict the danger of the care recipient and notify the caregiver of the danger.

本発明の実施の形態による危険予知システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a danger prediction system according to an embodiment of the present invention; FIG. 図1に示す危険予知システムにより被介護者の見守りを行うときの情報の流れを示す説明図である。1. It is explanatory drawing which shows the flow of information when watching over a care-receiver by the danger prediction system shown in FIG. 図1に示す危険予知システムにより被介護者の見守りを行うときの各サーバや端末等での情報の送受信を示すチャート図である。1. It is a chart figure which shows transmission/reception of information in each server, a terminal, etc. when watching over a care-receiver by the danger prediction system shown in FIG. 図1に示す危険予知システムにより被介護者の見守りを行うときの一連の動作の流れを示すフローチャートである。1. It is a flowchart which shows the flow of a series of operation|movement when watching over a care-receiver by the danger prediction system shown in FIG. ユーザ端末により撮影された撮影動画およびこの撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを示す説明図である。FIG. 4 is an explanatory diagram showing a human skeleton model including a photographed moving image photographed by a user terminal and the positions of a plurality of parts that characterize the movement of the care-receiver in the photographed moving image; 図5から人骨格モデルを抜き出して示す説明図である。6 is an explanatory diagram showing a human skeleton model extracted from FIG. 5; FIG. 介護支援端末に表示される状況画像を示す図である。It is a figure which shows the situation image displayed on a care support terminal. 介護支援端末に表示される他の状況画像を示す図である。It is a figure which shows the other situation image displayed on a care support terminal. 学習用サーバの行動検出手段および行動予知手段にそれぞれ用いられる学習済モデルを生成する方法を示す説明図である。FIG. 4 is an explanatory diagram showing a method of generating a learned model to be used for behavior detection means and behavior prediction means of a learning server;

<危険予知システム1の概要>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態による危険予知システム1の構成を示すブロック図であり、図2は、図1に示す危険予知システム1により被介護者の見守りを行うときの情報の流れを示す説明図である。また、図3および図4は、図1に示す危険予知システム1により被介護者の見守りを行うときのチャート図やフローチャートである。また、図5は、ユーザ端末3により撮影された撮影動画およびこの撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを示す説明図であり、図6は、図5から人骨格モデルを抜き出して示す説明図である。また、図7および図8は、介護支援端末7に表示される様々な画面を示す図である。また、図9は、学習用サーバの行動検出手段および行動予知手段にそれぞれ用いられる学習済モデルを生成する方法を示す説明図である。
<Overview of Danger Prediction System 1>
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the danger prediction system 1 according to the present embodiment, and FIG. 2 is an explanation showing the flow of information when the danger prediction system 1 shown in FIG. 1 watches over the cared person. It is a diagram. 3 and 4 are charts and flow charts when the danger prediction system 1 shown in FIG. 1 is used to watch over the cared person. FIG. 5 is an explanatory diagram showing a moving image captured by the user terminal 3 and a human skeleton model including the positions of a plurality of parts that characterize the movement of the care receiver in this moving image, and FIG. 6 is an explanatory diagram showing a human skeleton model extracted from FIG. 5; FIG. 7 and 8 are diagrams showing various screens displayed on the care support terminal 7. FIG. Also, FIG. 9 is an explanatory diagram showing a method of generating a learned model to be used in the behavior detection means and behavior prediction means of the learning server.

本実施の形態による危険予知システム1は、学習用サーバ2、映像ストリームサービス4、アプリケーションサーバ6等から構成されている。これらの学習用サーバ2、映像ストリームサービス4、アプリケーションサーバ6等は、インターネット回線等の通信ネットワーク8を介して互いに通信可能に接続されている。また、学習用サーバ2には記憶装置9が通信可能に接続されている。また、アプリケーションサーバ6にはデータベース5が通信可能に接続されている。学習用サーバ2は、インターネット回線を通じて利用できるサーバであり、インターネットでアクセスできる物理サーバ内に仮想的な専用サーバを構築した状態で提供される。映像ストリームサービス4、アプリケーションサーバ6も、インターネット回線を通じて利用できるデータベースやサーバ等である。また、被介護者の部屋に設置されるユーザ端末3が通信ネットワーク8を介して学習用サーバ2や映像ストリームサービス4等に通信可能に接続されている。ユーザ端末3は、被介護者の所持する端末または介護施設から被介護者に貸与される端末であり、当該端末はカメラを有している。このことにより、被介護者の部屋の天井にカメラ等を設置する場合と比較して、被介護者は常に監視されていると感じなくなり、被介護者を安心させることができる。ユーザ端末3は、具体的には、スマートフォンやPCタブレット、スマートスピーカ、スマートデバイス等である。また、介護施設の事務室に設置されたり介護者が携帯したりする介護支援端末7が通信ネットワーク8を介してアプリケーションサーバ6に通信可能に接続されている。介護支援端末7は、具体的には、スマートフォンやPCタブレット、コンピュータ等である。 A danger prediction system 1 according to this embodiment includes a learning server 2, a video stream service 4, an application server 6, and the like. These learning server 2, video stream service 4, application server 6, etc. are connected to communicate with each other via a communication network 8 such as an Internet line. A storage device 9 is communicably connected to the learning server 2 . A database 5 is communicably connected to the application server 6 . The learning server 2 is a server that can be used through an Internet line, and is provided in a state in which a virtual dedicated server is constructed within a physical server that can be accessed through the Internet. The video stream service 4 and the application server 6 are also databases, servers, etc. that can be used through the Internet line. A user terminal 3 installed in the cared person's room is communicatively connected to the learning server 2, the video stream service 4, and the like via a communication network 8. FIG. The user terminal 3 is a terminal owned by a care recipient or a terminal lent to the care recipient from a care facility, and the terminal has a camera. As a result, compared with the case where a camera or the like is installed on the ceiling of the care recipient's room, the care recipient does not feel that he is constantly being monitored, and the care recipient can be relieved. The user terminal 3 is, specifically, a smart phone, a PC tablet, a smart speaker, a smart device, or the like. A care support terminal 7 installed in an office of a care facility or carried by a caregiver is communicatively connected to the application server 6 via a communication network 8 . Nursing care support terminal 7 is, specifically, a smart phone, a PC tablet, a computer, or the like.

<学習用サーバ2の構成>
図1に示すように、学習用サーバ2は、プログラムを実行することにより、受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207および行動情報送信手段208として機能するコンピュータである。プログラムは、学習用サーバ2に格納されているか、学習用サーバ2とは別のサーバに格納されており当該学習用サーバ2からこの別のサーバに読み込みにいったものが用いられる。
<Structure of Learning Server 2>
As shown in FIG. 1, by executing a program, the learning server 2 includes a reception unit 201, a photographing instruction unit 202, a posture estimation unit 203, a care equipment detection unit 204, an action detection unit 205, an action prediction unit 206, It is a computer that functions as posture information transmission means 207 and action information transmission means 208 . The program is stored in the learning server 2 or stored in a server other than the learning server 2, and is read from the learning server 2 to the other server.

受付手段201は、後述する映像ストリームサービス4から撮影動画を経時的に受け付ける。撮影指示手段202は、ユーザ端末3から撮影開始信号を受け付けると、当該ユーザ端末3に撮影指示信号を送信する。 The accepting means 201 accepts captured moving images over time from the video stream service 4, which will be described later. The photographing instruction means 202 receives the photographing start signal from the user terminal 3 and transmits the photographing instruction signal to the user terminal 3 .

姿勢推定手段203は、受付手段201により受け付けた撮影動画から、被介護者の姿勢を推定する。具体的には、姿勢推定手段203は、受付手段201により受け付けた撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデル(スケルトンモデル)を被介護者のオブジェクト情報(姿勢情報)とする。被介護者の姿勢の推定方法の詳細については後述する。介護機器検出手段204は、受付手段201により受け付けた撮影動画から介護機器の情報を検出する。介護器具としては、ベッド、車椅子、介護リフト、手すり等が挙げられる。 The posture estimating means 203 estimates the posture of the cared person from the captured video received by the receiving means 201 . Specifically, posture estimating means 203 converts a human skeleton model (skeleton model) including the positions of a plurality of parts that characterize the movement of the care receiver in the captured moving image received by receiving means 201 into object information of the care receiver. (attitude information). The details of the method of estimating the care-receiver's posture will be described later. Nursing-care equipment detection means 204 detects information on nursing-care equipment from the captured video received by receiving means 201 . Examples of care equipment include beds, wheelchairs, care lifts, handrails, and the like.

行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、被介護者の行動状況を検出する。具体的には、行動検出手段205は、被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルに基づいて被介護者の行動状況を検出する。被介護者の行動状況の検出方法の詳細については後述する。 Action detection means 205 detects the action status of the cared person from the object information estimated by posture estimation means 203 . Specifically, the action detection means 205 detects the action status of the care receiver based on a human skeleton model including the positions of a plurality of parts that characterize the actions of the care receiver. The details of the detection method of the action status of the care-receiver will be described later.

行動予知手段206は、行動検出手段205により検出された行動状況から、被介護者の次の行動を予知する。被介護者の次の行動の予知方法の詳細については後述する。 The action prediction means 206 predicts the next action of the cared person from the action situation detected by the action detection means 205 . The details of the method for predicting the care-receiver's next action will be described later.

姿勢情報送信手段207は、姿勢推定手段203により推定された被介護者のオブジェクト情報を記憶装置9に送信する。また、行動情報送信手段208は、行動検出手段205により検出された被介護者の行動状況および行動予知手段206により得られた被介護者の次の行動の予知情報をアプリケーションサーバ6に送信する。 Posture information transmitting means 207 transmits the object information of the cared person estimated by posture estimating means 203 to storage device 9 . The behavior information transmitting means 208 also transmits to the application server 6 the behavior status of the cared person detected by the behavior detecting means 205 and prediction information of the care recipient's next behavior obtained by the behavior predicting means 206 .

これらの受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207および行動情報送信手段208の機能の詳細については後述する。 Details of the functions of the reception means 201, the photographing instruction means 202, the posture estimation means 203, the care equipment detection means 204, the action detection means 205, the action prediction means 206, the posture information transmission means 207, and the action information transmission means 208 will be described later. do.

このような学習用サーバ2は、インターネットおよびLANなどの通信ネットワーク8を介して映像ストリームサービス4およびアプリケーションサーバ6等と通信可能に接続されている。 Such a learning server 2 is communicably connected to a video stream service 4, an application server 6, and the like via a communication network 8 such as the Internet and a LAN.

ユーザ端末3は、上述したように、被介護者の所持する端末または介護施設から被介護者に貸与される端末である。ユーザ端末3は、被介護者の部屋における所定の位置に置かれるようになっている。例えば、ユーザ端末3の充電器が被介護者の部屋における所定の位置に固定されており、この充電器にユーザ端末3が載せられるようになっている。また、ユーザ端末3にはカメラ等の撮像部が搭載されており、当該撮像部により撮像された撮影動画がユーザ端末3から映像ストリームサービス4に経時的に送信されるようになっている。なお、被介護者の部屋には、赤外線カメラ、RGBD(深度カメラ)、バイタルセンサが追加で設けられており、これらのカメラやセンサにより被介護者の深度認識(奥行き検知)や空間認識が得られるようになっていてもよい。 The user terminal 3 is, as described above, a terminal possessed by the care recipient or a terminal lent to the care recipient from the care facility. The user terminal 3 is placed at a predetermined position in the cared person's room. For example, a charger for the user terminal 3 is fixed at a predetermined position in the cared person's room, and the user terminal 3 is placed on the charger. In addition, the user terminal 3 is equipped with an imaging unit such as a camera, and moving images captured by the imaging unit are transmitted from the user terminal 3 to the video stream service 4 over time. In addition, an infrared camera, an RGBD (depth camera), and a vital sensor are additionally installed in the care recipient's room. It may be possible to

映像ストリームサービス4は、インターネット回線を通じて利用できるサーバ等に設置されており、ユーザ端末3から送信された撮影動画を処理して学習用サーバ2に送信するようになっている。映像ストリームサービス4はWebRTC等から構成されており、WEBブラウザ上で音声や映像など大容量のデジタルデータをリアルタイムに送受信するものである。WebRTCは、ソースコードが公開されているオープン規格である。 The video stream service 4 is installed in a server or the like that can be used through the Internet line, and processes the captured video transmitted from the user terminal 3 and transmits the processed video to the learning server 2 . The video stream service 4 is composed of WebRTC and the like, and transmits and receives large amounts of digital data such as audio and video in real time on a WEB browser. WebRTC is an open standard with open source code.

記憶装置9は、学習用サーバ2から姿勢情報送信手段207により送信されたオブジェクト情報を記憶するようになっている。具体的には、記憶装置9には、オブジェクト情報として被介護者の人骨格モデルおよび被介護者以外の介護器具の複数の部位の情報の動画を記憶するようになっている。また、データベース5は、アプリケーションサーバ6から送信された被介護者の行動状況および予知情報を記憶するようになっている。 The storage device 9 stores the object information transmitted from the learning server 2 by the attitude information transmission means 207 . Specifically, the storage device 9 stores, as object information, a human skeleton model of the care receiver and moving images of information of a plurality of parts of care equipment other than the care receiver. In addition, the database 5 stores the care receiver's action status and predictive information transmitted from the application server 6 .

アプリケーションサーバ6は、プログラムを実行することにより表示指示手段601として機能するコンピュータである。 The application server 6 is a computer that functions as display instruction means 601 by executing a program.

表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる。より詳細には、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、行動状況毎の説明用画像(具体的には、様々な行動状況のイラスト)が記憶されており、表示指示手段601は、行動検出手段205により検出された行動状況に対応する説明用画像を状況画像に含ませる。このことにより、介護支援端末7には行動検出手段205により検出された行動状況に対応する説明用画像が表示される。また、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、予知情報毎に危険状況であるか否かが記憶されており、表示指示手段601は、行動予知手段206により予知された予知情報が危険状況である場合には、このことを知らせるためのメッセージを状況画像に含ませる。このことにより、行動予知手段206により予知された予知情報が危険状況である場合には、介護支援端末7にこのことを知らせるためのメッセージが表示される。このような表示指示手段601の機能の詳細については後述する。 The display instruction means 601 causes the nursing care support terminal 7 to display a situation image based on the action status detected by the action detection means 205 and the prediction information predicted by the action prediction means 206 . More specifically, the application server 6 or a server different from the application server 6 stores explanatory images for each action situation (specifically, illustrations of various action situations). includes an explanatory image corresponding to the action situation detected by the action detection means 205 in the situation image. As a result, an explanatory image corresponding to the action situation detected by the action detection means 205 is displayed on the care support terminal 7 . The application server 6 or a server other than the application server 6 stores whether or not there is a dangerous situation for each piece of prediction information. is in a dangerous situation, the situation image includes a message to notify of this. As a result, when the prediction information predicted by the action prediction means 206 indicates a dangerous situation, a message is displayed on the nursing care support terminal 7 to notify this fact. The details of the function of such display instruction means 601 will be described later.

介護支援端末7は、上述したように、介護施設の事務室に設置されたり介護者が携帯したりするものであり、アプリケーションサーバ6から送信された状況画像が表示される。状況画像の詳細については後述する。 As described above, the care support terminal 7 is installed in an office of a care facility or carried by a caregiver, and displays a situation image transmitted from the application server 6 . Details of the situation image will be described later.

<危険予知システム1による情報処理方法>
次に、危険予知システム1による情報処理方法について図2乃至図9を用いて説明する。
<Information processing method by danger prediction system 1>
Next, an information processing method by the danger prediction system 1 will be described with reference to FIGS. 2 to 9. FIG.

本実施の形態の危険予知システム1による情報処理方法が実施されるにあたり、ユーザ端末3が被介護者の部屋に設置される。上述したように、ユーザ端末3は、被介護者の所持する端末または介護施設から被介護者に貸与される端末である。このようなユーザ端末3において、危険予知アプリがオンラインストアや危険予知システム1の管理会社からダウンロード可能となっている。そして、ユーザ端末3に危険予知アプリがダウンロードされた後、見守り用アプリが起動されるまたは見守り用アプリにより撮影開始指令が入力されると、ユーザ端末3により取得された撮影動画が映像ストリームサービス4に経時的に送信されるようになる。より具体的には、被介護者の部屋全体がユーザ端末3のカメラにより撮影され、この撮影される動画には被介護者、介護者および介護機器が含まれるものとなる。また、この際に、見守り用アプリが起動されるまたは見守り用アプリにより撮影開始指令が入力されると、ユーザ端末3から学習用サーバ2に撮影開始信号が送信され(ステップSt1の「YES」)、学習用サーバ2から撮影指示信号がユーザ端末3に返信された後に、ユーザ端末3は撮影を開始するようになっていてもよい(ステップSt2)。このことにより、学習用サーバ2においてユーザ端末3により撮影が開始されたことを認識することができるようになる。 In carrying out the information processing method by the danger prediction system 1 of the present embodiment, the user terminal 3 is installed in the cared person's room. As described above, the user terminal 3 is a terminal owned by a care recipient or a terminal lent to the care recipient from a care facility. In such a user terminal 3, a danger prediction application can be downloaded from an online store or a management company of the danger prediction system 1. FIG. Then, after the danger prediction application is downloaded to the user terminal 3, when the watching application is activated or the shooting start command is input by the watching application, the captured video acquired by the user terminal 3 is sent to the video stream service 4. will be sent over time to More specifically, the entire room of the care receiver is captured by the camera of the user terminal 3, and the captured video includes the care receiver, caregiver, and care equipment. Also, at this time, when the watching application is activated or a shooting start command is input by the watching application, a shooting start signal is transmitted from the user terminal 3 to the learning server 2 (“YES” in step St1). The user terminal 3 may start photographing after the photographing instruction signal is returned from the learning server 2 to the user terminal 3 (step St2). This allows the learning server 2 to recognize that the user terminal 3 has started shooting.

また、ユーザ端末3に見守り用アプリがダウンロードされるのではなく、ブラウザ上で撮影指示をユーザ端末3のカメラに送ることができるようになっていてもよい。この場合、ユーザ端末3においてブラウザにおける危険予知用のウエブサイトにアクセスし、会員IDまたはメールアドレスとパスワードとを入力すると、会員用サイトに入ることができるようになる。そして、会員用サイトにおいて撮影開始指令が入力されると、ユーザ端末3により取得された撮影動画が映像ストリームサービス4に経時的に送信されるようになる。また、この際に、会員用サイトにおいて撮影開始指令が入力されると、ユーザ端末3から学習用サーバ2に撮影開始信号が送信され(ステップSt1の「YES」)、学習用サーバ2から撮影指示信号がユーザ端末3に返信された後に、ユーザ端末3は撮影を開始するようになっていてもよい(ステップSt2)。このことにより、学習用サーバ2においてユーザ端末3により撮影が開始されたことを認識することができるようになる。 Alternatively, instead of downloading the monitoring application to the user terminal 3, a photographing instruction may be sent to the camera of the user terminal 3 on the browser. In this case, by accessing the website for risk prediction in the browser on the user terminal 3 and entering the member ID or e-mail address and password, the member site can be entered. Then, when a shooting start command is input at the member's site, the shot moving image acquired by the user terminal 3 is transmitted to the video stream service 4 with time. Also, at this time, when a shooting start command is input at the member site, a shooting start signal is transmitted from the user terminal 3 to the learning server 2 (“YES” in step St1), and the learning server 2 instructs shooting. After the signal is returned to the user terminal 3, the user terminal 3 may start photographing (step St2). This allows the learning server 2 to recognize that the user terminal 3 has started shooting.

撮影動画がユーザ端末3から映像ストリームサービス4に送信されると(ステップSt3)、この映像ストリームサービス4においてWEBブラウザ上で音声や映像など大容量のデジタルデータがリアルタイムに送受信され、撮影動画が映像ストリームサービス4から学習用サーバ2に送信される(ステップSt4)。 When the captured video is transmitted from the user terminal 3 to the video stream service 4 (step St3), the video stream service 4 transmits and receives large-capacity digital data such as audio and video in real time on the WEB browser, and the captured video is converted into video. It is transmitted from the stream service 4 to the learning server 2 (step St4).

映像ストリームサービス4から学習用サーバ2に撮影動画が送信されると、受付手段201が撮影動画を受け付ける。そして、姿勢推定手段203は、受付手段201が受け付けた撮影動画から、被介護者の姿勢を推定する(ステップSt5)。具体的には、図5および図6に示すように、姿勢推定手段203は、受付手段201により受け付けた撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを作成し、この作成された人骨格モデルを被介護者のオブジェクト情報とする。また、姿勢情報送信手段207は、姿勢推定手段203により作成された人骨格モデルをオブジェクト情報として記憶装置9に送信し、この記憶装置9に記憶させる(ステップSt6)。また、介護機器検出手段204は、受付手段201により受け付けた撮影動画から介護機器の情報(図5および図6において二点鎖線で表示)を検出する。検出された介護機器の情報も学習用サーバ2から記憶装置9に送信され、記憶装置9に被介護者の人骨格モデルと合わせて記憶される。 When a captured moving image is transmitted from the video stream service 4 to the learning server 2, the receiving means 201 receives the captured moving image. Then, posture estimating means 203 estimates the posture of the cared person from the captured moving image received by receiving means 201 (step St5). Specifically, as shown in FIGS. 5 and 6, the posture estimating means 203 generates a skeletal model including positions of a plurality of parts that characterize the movement of the care-receiver in the moving image received by the receiving means 201. The created human skeleton model is used as the object information of the cared person. The posture information transmitting means 207 also transmits the human skeleton model created by the posture estimating means 203 as object information to the storage device 9, and stores it in the storage device 9 (step St6). Nursing-care equipment detection means 204 detects information on nursing-care equipment (indicated by two-dot chain lines in FIGS. 5 and 6 ) from the captured moving image received by receiving means 201 . Information on the detected care equipment is also transmitted from the learning server 2 to the storage device 9 and stored in the storage device 9 together with the cared person's skeleton model.

そして、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、後述する第1学習済モデルを参照して被介護者の行動状況を検出する(ステップSt7)。より詳細には、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報と、受付手段201により受け付けた撮影動画における被介護者の深度認識(奥行き検知)および空間認識のうち少なくとも何れかまたは両方とを参照して、被介護者の行動状況を検出する。被介護者の行動状況としては、例えば介護機器がベッドである場合は、ベッドに寝ている状態、ベッドに寝ている状態から起き上がろうとする状態、起き上がってベッドに腰掛けている状態、ベッドから立ち上がろうとする状態、ベッドから立ち上がった状態、手すりを掴みながら歩き始めた状態等がある。また、行動検出手段205は、介護機器検出手段204により検出された被介護者以外の介護器具に対する被介護者の位置の情報も参照して、被介護者の行動状況を検出する。例えば、介護機器検出手段204により検出されたベッドに対する被介護者の位置や姿勢を参照して、行動検出手段205は被介護者の行動状況を検出する。なお、行動検出手段205が検出する被介護者の行動状況はベッドに対するものに限定されることはなく、他の種類の介護器具に対する被介護者の行動状況であってもよく、あるいは介護器具とは関係ない被介護者の行動状況であってもよい。 Then, the action detection means 205 detects the action status of the cared person from the object information estimated by the posture estimation means 203 with reference to a first learned model described later (step St7). More specifically, the action detection means 205 detects at least one of the object information estimated by the posture estimation means 203, and the care-receiver's depth recognition (depth detection) and space recognition in the photographed moving image received by the reception means 201. Or refer to both and detect the behavioral situation of the care recipient. For example, if the nursing care equipment is a bed, the behavioral status of the care recipient includes the state of lying on the bed, the state of trying to get up from the state of lying on the bed, the state of getting up and sitting on the bed, and the state of getting up from the bed. There is a state of trying to sleep, a state of standing up from the bed, and a state of starting to walk while holding a handrail. The behavior detection unit 205 also refers to information on the position of the care receiver with respect to care equipment other than the care receiver detected by the care equipment detection unit 204, and detects the behavior of the care receiver. For example, referring to the position and posture of the care receiver with respect to the bed detected by the care equipment detection section 204, the action detection section 205 detects the action status of the care receiver. It should be noted that the action status of the cared person detected by the action detection means 205 is not limited to the bed, but may be the action status of the care receiver with respect to other types of care equipment, or with care equipment. may be unrelated behavioral situations of the care receiver.

第1学習済モデルは、姿勢推定手段203により取得された被介護者のオブジェクト情報(具体的には、人骨格モデル)に基づいて深層学習により得られるものである。具体的には、図9に示すように、学習用サーバ2には第1モデル生成手段210が設けられており、第1モデル生成手段210により第1学習済モデルが生成される。第1モデル生成手段210は、例えば畳み込みニューラルネットワーク(CNN)等のニューラルネットワーク(NN)から構成されている。このようなニューラルネットワークは、被介護者のオブジェクト情報と行動状況を教示データとして学習した多重重みからなる第一モデル生成を出力する機能と、被介護者のオブジェクト情報と周辺のオブジェクト情報が入力される入力層と、入力された被介護者のオブジェクト情報とオブジェクト情報により学習した多重重みを用いた演算を行う中間層と、被介護者の行動状況を出力する出力層とを有しており、出力層の出力を学習データとして再学習に使用する機能を有する。このようにして第1モデル生成手段210により生成された第1学習済モデルを用いることにより、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から被介護者の行動状況を精度良く検出することができる。 The first trained model is obtained by deep learning based on the object information of the cared person (specifically, the human skeleton model) acquired by the posture estimation means 203 . Specifically, as shown in FIG. 9, the learning server 2 is provided with a first model generation means 210, and the first model generation means 210 generates a first trained model. The first model generation means 210 is composed of a neural network (NN) such as a convolutional neural network (CNN). Such a neural network has a function of outputting a first model consisting of multiple weights learned from the care receiver's object information and behavioral situations as teaching data, and a function of outputting the care receiver's object information and peripheral object information. a middle layer that performs calculations using the input object information of the care receiver and multiple weights learned from the object information; and an output layer that outputs the care receiver's action status, It has a function to use the output of the output layer as learning data for re-learning. By using the first trained model generated by the first model generation means 210 in this manner, the behavior detection means 205 can accurately estimate the behavior of the care-receiver from the object information estimated by the posture estimation means 203. can be detected.

また、行動予知手段206は、行動検出手段205により検出された被介護者の行動状況から、後述する第2学習済モデルを参照して被介護者の次の行動を予知する(ステップSt8)。具体的には、例えば被介護者がベッドに寝ている状態から起き上がった状態であることが行動検出手段205により検出された場合は、行動予知手段206は被介護者の次の行動として立ち上がろうとすることを予知する。その後、行動情報送信手段208は、行動検出手段205により検出された被介護者の行動状況および行動予知手段206により検出された被介護者の次の行動の予知情報をアプリケーションサーバ6に送信する(ステップSt9)。 Further, the action prediction means 206 predicts the next action of the cared person by referring to the second learned model, which will be described later, based on the action status of the cared person detected by the action detection means 205 (step St8). Specifically, for example, when the action detecting means 205 detects that the care receiver is in a state of getting up from lying on the bed, the action predicting means 206 detects that the care receiver will stand up as the next action of the care receiver. foresee what will happen. After that, the action information transmitting means 208 transmits to the application server 6 the action status of the cared person detected by the action detecting means 205 and prediction information of the next action of the cared person detected by the action predicting means 206 ( Step St9).

第2学習済モデルは、行動検出手段205により検出された被介護者の行動状況に基づいて深層学習により得られるものである。具体的には、図9に示すように、学習用サーバ2には第2モデル生成手段212が設けられており、第2モデル生成手段212により第2学習済モデルが生成される。第2モデル生成手段212は、例えば畳み込みニューラルネットワーク(CNN)等のニューラルネットワーク(NN)から構成されている。このようなニューラルネットワークは、被介護者の行動状況および被介護者の次の行動情動を教示データとして学習した多重重みからなる第2学習済みモデルを作成する機能と、被介護者の行動状況がされる入力層と、入力された被介護者の行動状況により学習した多重重みを用いた演算を行う中間層と、被介護者の次の行動状況を出力する出力層とを有しており、出力層の出力を学習データとして再学習に使用する機能を有する。このようにして第2モデル生成手段212により生成された第2学習済モデルを用いることにより、行動予知手段206は、行動検出手段205により検出された被介護者の行動状況からこの被介護者の次の行動を精度良く予知することができる。 The second learned model is obtained by deep learning based on the behavioral situation of the care receiver detected by the behavior detection means 205 . Specifically, as shown in FIG. 9, the learning server 2 is provided with a second model generating means 212, and the second model generating means 212 generates a second trained model. The second model generation means 212 is composed of a neural network (NN) such as a convolutional neural network (CNN). Such a neural network has a function of creating a second trained model consisting of multiple weights learned by learning the behavioral situation of the care recipient and the next behavioral emotion of the care recipient as teaching data, a middle layer that performs calculations using multiple weights learned from the input behavioral situation of the care recipient, and an output layer that outputs the next behavioral situation of the care recipient, It has a function to use the output of the output layer as learning data for re-learning. By using the second learned model generated by the second model generation means 212 in this manner, the behavior prediction means 206 detects the care recipient's It is possible to accurately predict the next action.

被介護者の行動状況および次の行動の予知情報が学習用サーバ2からアプリケーションサーバ6に送信されると、アプリケーションサーバ6の表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる(ステップSt10)。図7は、介護支援端末7に表示される状況画像である。介護支援端末7は、介護施設の事務室に設置されたり介護者が携帯したりするスマートフォンやPCタブレット、コンピュータ等である。 When the action status of the cared person and the prediction information of the next action are transmitted from the learning server 2 to the application server 6, the display instruction means 601 of the application server 6 detects the action status and action detected by the action detection means 205. Based on the prediction information predicted by the prediction means 206, a situation image is displayed on the care support terminal 7 (step St10). FIG. 7 is a situation image displayed on the care support terminal 7. FIG. The care support terminal 7 is a smartphone, a PC tablet, a computer, or the like installed in an office of a care facility or carried by a caregiver.

具体的には、上述したように、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、行動状況毎の説明用画像が記憶されている。そして、表示指示手段601は、行動検出手段205により検出された行動状況に対応する説明用画像を状況画像に含ませることにより、この説明用画像を介護支援端末7に表示させる。例えば、図7では、説明用画像71として、被介護者が起き上がってベッドに腰掛けている状態のイラストが介護支援端末7に表示されている。 Specifically, as described above, the application server 6 or a server other than the application server 6 stores explanatory images for each action situation. Then, the display instructing means 601 causes the care support terminal 7 to display the explanatory image corresponding to the action situation detected by the action detecting means 205 by including the explanatory image corresponding to the action situation in the situation image. For example, in FIG. 7 , an illustration of a cared person getting up and sitting on the bed is displayed on the care support terminal 7 as the explanatory image 71 .

また、表示指示手段601は、行動予知手段206により検出された被介護者の次の行動の予知情報に係るメッセージを状況画像に含ませることにより、このメッセージを介護支援端末7に表示させる。例えば、図7では、メッセージ72として、被介護者が次の行動として立ち上がろうとしているメッセージが介護支援端末7に表示されている。 In addition, the display instruction means 601 causes the care support terminal 7 to display a message related to prediction information of the next action of the care-receiver detected by the action prediction means 206 in the situation image. For example, in FIG. 7, a message 72 is displayed on the care support terminal 7 indicating that the care receiver is about to stand up as the next action.

また、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、予知情報毎に危険状況であるか否かが記憶されている。そして、表示指示手段601は、行動予知手段206により予知された予知情報が危険状況である場合には例えば「転倒リスク」という追加メッセージを状況画像に含ませる。このことにより、行動予知手段206により予知された予知情報が危険状況である場合には、介護支援端末7に追加メッセージが表示される。例えば、図7において、被介護者の次の行動として立ち上がろうとしている状態であることが予知されている場合には、追加メッセージ73として、被介護者に転倒リスクがあることを知らせるメッセージが介護支援端末7に表示される。 The application server 6 or a server other than the application server 6 stores whether or not each piece of prediction information is in a dangerous situation. Then, if the prediction information predicted by the action prediction unit 206 indicates a dangerous situation, the display instruction unit 601 causes the situation image to include an additional message such as "fall risk". As a result, when the prediction information predicted by the action prediction means 206 indicates a dangerous situation, an additional message is displayed on the care support terminal 7 . For example, in FIG. 7, when it is predicted that the care-receiver is about to stand up as the next action of the care-receiver, an additional message 73 informing the care-receiver that there is a risk of falling is sent to the care receiver. It is displayed on the support terminal 7 .

このように、介護支援端末7には説明用画像71、メッセージ72および警告メッセージ73が表示されるため、介護者は被介護者に転倒リスクがある等を察知してすぐに被介護者の居室に向かうことができる。 In this way, since the explanation image 71, the message 72, and the warning message 73 are displayed on the care support terminal 7, the caregiver senses that the caregiver is at risk of falling and immediately moves to the caregiver's room. can go to

また、学習用サーバ2からアプリケーションサーバ6に送信された被介護者の行動状況および次の行動の予知情報がデータベース5に送信され、このデータベース5に記憶される。また、姿勢推定手段203により推定されたオブジェクト情報(具体的には、被介護者の人骨格モデル)が学習用サーバ2から映像ストリームサービス4を経由して介護支援端末7に送信され、この介護支援端末7に表示されるようになっていてもよい。図8は、介護支援端末7に表示される他の状況画像を示す図である。図8に示すように、介護支援端末7には、説明用画像71として、被介護者が起き上がってベッドに腰掛けている状態の画像が表示されるとともに、この被介護者の人骨格モデル74が表示される。このことにより、介護者は被介護者のより詳細な姿勢を知ることができるようになる。 Also, the action status of the cared person and the predictive information of the next action sent from the learning server 2 to the application server 6 are sent to the database 5 and stored in the database 5 . Further, the object information (specifically, the skeletal model of the cared person) estimated by the posture estimation means 203 is transmitted from the learning server 2 to the care support terminal 7 via the video stream service 4, and the care support terminal 7 It may be displayed on the support terminal 7 . FIG. 8 is a diagram showing another situation image displayed on the care support terminal 7. As shown in FIG. As shown in FIG. 8, the care support terminal 7 displays an image 71 of the cared person standing up and sitting on the bed, and a skeletal model 74 of the cared person. Is displayed. This allows the caregiver to know the more detailed posture of the care-receiver.

以上のような構成からなる本実施の形態の危険予知システム1、プログラムおよび情報処理方法によれば、受付手段201がユーザ端末3から撮影動画を受け付けると、姿勢推定手段203は、受付手段201により受け付けた撮影動画から、被介護者の姿勢を推定し、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、被介護者の行動状況を検出する。また、行動予知手段206は、行動検出手段205により検出された行動状況から、被介護者の次の行動を予知し、表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる。このことにより、介護支援端末7を見た介護者は被介護者の現在の行動状況およびこの被介護者の次の行動を被介護者から離れた場所でも認識することができるようになる。このため、被介護者が転倒等しそうな状態を予知して報知することができる。 According to the danger prediction system 1, the program, and the information processing method of the present embodiment configured as described above, when the accepting means 201 accepts a captured moving image from the user terminal 3, the posture estimating means 203 causes the accepting means 201 to The posture of the cared person is estimated from the received moving image, and the action detection means 205 detects the action status of the cared person from the object information estimated by the posture estimation means 203 . Further, the action prediction means 206 predicts the next action of the cared person from the action situation detected by the action detection means 205, and the display instruction means 601 detects the action situation detected by the action detection means 205 and the action prediction. Based on the prediction information predicted by the means 206, the care support terminal 7 is made to display the situation image. As a result, the caregiver looking at the care support terminal 7 can recognize the caregiver's current behavior and the caregiver's next behavior even at a distance from the caregiver. Therefore, it is possible to predict and notify the care-receiver that the care-receiver is likely to fall or the like.

また、ユーザ端末3により撮影された動画をそのまま介護支援端末7に表示させるのではなく、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に対応する状況画像を介護支援端末7に表示させることによって、被介護者のプライバシーを保護することができる。 In addition, instead of displaying the moving image captured by the user terminal 3 as it is on the care support terminal 7, a situation image corresponding to the action situation detected by the action detection means 205 and the prediction information predicted by the action prediction means 206 is displayed. By displaying it on the care support terminal 7, the privacy of the cared person can be protected.

なお、本実施の形態による危険予知システム1や情報処理方法は、上述したような態様に限定されることはなく、様々な変更を加えることができる。 Note that the danger prediction system 1 and the information processing method according to the present embodiment are not limited to the aspects described above, and various modifications can be made.

例えば、上記の説明では学習用サーバ2およびアプリケーションサーバ6が別々に設けられている例について述べたが、これらの学習用サーバ2およびアプリケーションサーバ6が一体化したサーバが用いられてもよい。この場合は、一つのサーバにおいて、コンピュータがプログラムを実行することにより受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207、行動情報送信手段208および表示指示手段601として機能するようになる。また、上述した受付手段201、撮影指示手段202、姿勢推定手段203、行動検出手段205、行動予知手段206、姿勢情報送信手段207、行動情報送信手段208および表示指示手段601が複数のコンピュータやサーバで分担して機能するようになっていてもよく、この場合、どの手段がどのコンピュータやサーバで機能するかは任意に設定されるようになる。 For example, in the above description, an example in which the learning server 2 and the application server 6 are provided separately has been described, but a server in which the learning server 2 and the application server 6 are integrated may be used. In this case, in one server, a computer executes a program to obtain information such as reception means 201, photographing instruction means 202, posture estimation means 203, care equipment detection means 204, behavior detection means 205, behavior prediction means 206, and posture information transmission. It functions as means 207 , action information transmission means 208 and display instruction means 601 . In addition, the reception means 201, the photographing instruction means 202, the attitude estimation means 203, the behavior detection means 205, the behavior prediction means 206, the attitude information transmission means 207, the behavior information transmission means 208, and the display instruction means 601 described above can be combined with a plurality of computers or servers. In this case, which means functions on which computer or server can be set arbitrarily.

また、学習用サーバ2やアプリケーションサーバ6等はクラウドで実行されるのではなく、ローカルに設置されるサーバやコンピュータであってもよい。また、記憶装置9やデータベース5もクラウド上ではなくローカルに設置される記録装置であってもよい。 Also, the learning server 2, the application server 6, and the like may be locally installed servers or computers instead of being executed in the cloud. Also, the storage device 9 and the database 5 may be recording devices installed locally instead of on the cloud.

また、危険予知システム1において映像ストリームサービス4が設けられておらず、ユーザ端末3により撮影された動画がこのユーザ端末3から学習用サーバ2に直接送信されるようになっていてもよい。また、本明細書および特許請求の範囲における「ユーザ端末から撮影動画を受け付ける受付手段」は、受付手段201がユーザ端末3から撮影動画を直接受け付ける態様、および受付手段201がユーザ端末3から映像ストリームサービス4を経由して撮影動画を受け付ける態様の両方を含むようになっている。 Alternatively, the video stream service 4 may not be provided in the danger prediction system 1 , and moving images captured by the user terminal 3 may be directly transmitted from the user terminal 3 to the learning server 2 . In addition, the ``receiving means for receiving a captured moving image from the user terminal'' in the present specification and claims refers to a mode in which the receiving means 201 directly receives a captured moving image from the user terminal 3, and a mode in which the receiving means 201 receives a video stream from the user terminal 3. It is designed to include both aspects of receiving a captured moving image via the service 4.

また、行動予知手段206は、行動検出手段205により検出された行動状況および被介護者の介護記録に基づいて被介護者の次の行動を予知してもよい。被介護者の介護記録とは、介護記録データベースから受信した、被介護者の例えば年齢、性別、身長、体重、慢性的な疾患、認知症の度合い等のことをいう。このような被介護者の身体的特徴は介護記録データベースにおいて被介護者の識別情報に紐付けられて予め記憶されている。また、ユーザ端末3の識別情報にも被介護者の識別情報が紐付けられており、ユーザ端末3から学習用サーバ2に撮影動画が送信される際にこのユーザ端末3の識別情報が送信されることにより学習用サーバ2においてユーザ端末3の識別情報に対応する被介護者の識別情報を取得することができるようになっている。この場合には、被介護者の介護記録に合わせて、行動予知手段206は被介護者の次の行動の予知を行うことができる。また、姿勢推定手段203により取得されたオブジェクト情報、行動検出手段205により検出された行動状況、行動予知手段206により予知された予知情報等がデータベース5から介護記録データベースに送信されてこの介護記録データベースに記憶されるようになっていてもよい。 Further, the action prediction means 206 may predict the next action of the cared person based on the action status detected by the action detection means 205 and the cared person's care record. The care-receiver's care record refers to the care-receiver's age, sex, height, weight, chronic disease, degree of dementia, etc. received from the care record database. Such physical characteristics of the care recipient are stored in advance in the care record database in association with the identification information of the care recipient. The identification information of the user terminal 3 is also linked to the identification information of the care recipient, and the identification information of the user terminal 3 is transmitted when the captured moving image is transmitted from the user terminal 3 to the learning server 2. Thus, the learning server 2 can acquire the identification information of the cared person corresponding to the identification information of the user terminal 3 . In this case, the action prediction means 206 can predict the next action of the care receiver according to the care record of the care receiver. Object information acquired by posture estimation means 203, behavioral situations detected by behavior detection means 205, prediction information predicted by behavior prediction means 206, etc. are transmitted from database 5 to the nursing care record database. may be stored in

また、表示指示手段601が、行動予知手段206により予知された予知情報が危険状況である場合には追加メッセージを状況画像に含ませる際に、危険状況であるか否かを判断する際に被介護者の身体的特徴の情報が反映されるようになっていてもよい。すなわち、行動予知手段206により予知された予知情報が同じであっても、被介護者の身体的特徴が異なる場合には危険状況であるか否かの判断が異なるようになっていてもよい。例えば、比較的健康な被介護者であれば、ベッドに座っている状態から起き上がろうとしていることが予知された場合でも介護支援端末7に表示される状況画像に警告メッセージが含まれないが、被介護者が慢性的な疾患を抱えていたり高齢であったりする場合は、ベッドに座っている状態から起き上がろうとしていることが予知された場合に、介護支援端末7に表示される状況画像に転倒の可能性がある旨の警告メッセージが含まれるようになる。 In addition, when the prediction information predicted by the action prediction unit 206 indicates a dangerous situation, the display instruction means 601 includes an additional message in the situation image, and when judging whether or not the situation is dangerous, Information on the physical characteristics of the caregiver may be reflected. In other words, even if the prediction information predicted by the behavior prediction means 206 is the same, the judgment as to whether or not there is a dangerous situation may differ when the physical characteristics of the care-receiver are different. For example, if the care recipient is relatively healthy, even if it is predicted that the care recipient is about to get up from the state of sitting on the bed, the situation image displayed on the care support terminal 7 does not include a warning message. If the care receiver has a chronic illness or is elderly, the situation image displayed on the care support terminal 7 is displayed when it is predicted that the care recipient is about to get up from the state of sitting on the bed. A warning message about the possibility of a fall will be included.

また、上記の説明では、被介護者の部屋全体がユーザ端末3のカメラにより撮影され、この撮影される動画には被介護者、介護者および介護機器が含まれることを述べたが、被介護者だけではなく介護者についても姿勢推定手段203により姿勢を推定してオブジェクト情報を取得し、行動検出手段204により介護者の行動状況を検出してもよい。そして、介護者の行動状況に係る情報がアプリケーションサーバ6から介護支援端末7に送信され、この介護支援端末7に表示されるようになっていてもよい。このことにより、介護者による被介護者に対する虐待行為等も検出することができるようになる。また、被介護者の部屋だけではなく共有スペース等の大人数エリア全体がユーザ端末3のカメラにより撮影されることにより、この大人数エリアにいる複数の介護者や被介護者の全ての行動を同時に解析できるようになっていてもよい。 Further, in the above description, it has been described that the entire room of the care recipient is photographed by the camera of the user terminal 3, and that the photographed video includes the care recipient, the caregiver, and the care equipment. The posture estimation unit 203 may estimate the posture of not only the caregiver but also the caregiver to obtain object information, and the behavior detection unit 204 may detect the caregiver's action status. Information relating to the caregiver's action status may be transmitted from the application server 6 to the care support terminal 7 and displayed on the care support terminal 7 . This makes it possible to detect abusive behavior by the caregiver to the care-receiver. In addition, not only the care receiver's room but also the whole area of a large number of people, such as a shared space, is photographed by the camera of the user terminal 3, so that all actions of multiple caregivers and care receivers in this large number of people area can be captured. Simultaneous analysis may be possible.

1 危険予知システム
2 学習用サーバ
3 ユーザ端末
4 映像ストリームサービス
5 データベース
6 アプリケーションサーバ
7 介護支援端末
8 通信ネットワーク
9 記憶装置
71 説明用画像
72 メッセージ
73 警告メッセージ
74 人骨格モデル
201 受付手段
202 撮影指示手段
203 姿勢推定手段
204 介護機器検出手段
205 行動検出手段
206 行動予知手段
207 姿勢情報送信手段
208 行動情報送信手段
210 第1モデル生成手段
212 第2モデル生成手段
601 表示指示手段
1 Danger prediction system 2 Learning server 3 User terminal 4 Video stream service 5 Database 6 Application server 7 Nursing care support terminal 8 Communication network 9 Storage device 71 Explanation image 72 Message 73 Warning message 74 Skeleton model 201 Receiving means 202 Photographing instruction means 203 posture estimation means 204 care equipment detection means 205 action detection means 206 action prediction means 207 posture information transmission means 208 action information transmission means 210 first model generation means 212 second model generation means 601 display instruction means

Claims (17)

ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
を備えた、介護施設向け危険予知システム。
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
A danger prediction system for nursing homes.
行動状況毎の説明用画像が予め記憶されており、
前記表示指示手段は、予め記憶されている、前記行動検出手段により検出された行動状況に対応する説明用画像を前記状況画像に含ませる、請求項1記載の介護施設向け危険予知システム。
An explanatory image for each action situation is stored in advance,
2. The danger prediction system for nursing homes according to claim 1, wherein said display instructing means causes said situation image to include a pre-stored explanatory image corresponding to the action situation detected by said action detecting means.
予知情報毎に危険状況であるか否かが予め記憶されており、
前記表示指示手段は、予め記憶されている情報に基づいて、前記行動予知手段により予知された予知情報が危険状況である場合にはメッセージを前記状況画像に含ませる、請求項1または2記載の介護施設向け危険予知システム。
Whether or not there is a dangerous situation is stored in advance for each prediction information,
3. The display instruction means according to claim 1, wherein said display instruction means includes a message in said situation image when the prediction information predicted by said action prediction means indicates a dangerous situation based on information stored in advance. Danger prediction system for nursing homes.
被介護者の介護記録がこの被介護者の識別情報に紐付けられており、
前記ユーザ端末から撮影動画が送信される際にこのユーザ端末の識別情報が送信されることにより被介護者の識別情報が取得され、
前記表示指示手段が、前記行動予知手段により予知された予知情報が危険状況である場合にはメッセージを状況画像に含ませる際に、危険状況であるか否かを判断するにあたり被介護者の介護記録の情報が反映される、請求項3記載の介護施設向け危険予知システム。
The care receiver's care record is linked to this care receiver's identification information,
The identification information of the user terminal is transmitted when the captured video is transmitted from the user terminal, thereby acquiring the identification information of the care recipient,
When the display instruction means includes a message in the situation image when the prediction information predicted by the action prediction means is a dangerous situation, the care recipient's care in judging whether the situation is dangerous or not. The danger prediction system for nursing homes according to claim 3, wherein the recorded information is reflected.
前記姿勢推定手段は、前記受付手段により受け付けた撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを被介護者のオブジェクト情報とする、請求項1乃至4のいずれか一項に記載の介護施設向け危険予知システム。 5. The method of claim 1, wherein said posture estimating means uses a skeletal model of the cared person including positions of a plurality of parts that characterize the movement of the cared person in the photographed moving image received by said receiving means as object information of the cared person. The danger prediction system for nursing homes according to any one of the preceding items. 前記表示指示手段は、前記人骨格モデルを前記状況画像に含ませる、請求項5記載の介護施設向け危険予知システム。 6. The danger prediction system for nursing homes according to claim 5, wherein said display instruction means includes said human skeleton model in said situation image. 前記行動検出手段は、前記人骨格モデルに基づいて被介護者の行動状況を検出する、請求項5または6記載の介護施設向け危険予知システム。 7. The danger prediction system for nursing homes according to claim 5 or 6, wherein said behavior detection means detects the behavior of the care recipient based on said human skeleton model. 前記受付手段により受け付けた撮影動画における被介護者以外の介護器具の情報を取得する介護機器検出手段を更に備え、
前記行動検出手段は、被介護者以外の介護器具に対する被介護者の位置の情報も参照して、被介護者の行動状況を検出する、請求項7記載の介護施設向け危険予知システム。
Further comprising a nursing care equipment detection means for acquiring information of nursing care equipment other than the care recipient in the photographed moving image received by the reception means,
8. The danger prediction system for nursing care facilities according to claim 7, wherein said behavior detection means also refers to information on the position of the care recipient with respect to care equipment other than the care recipient to detect the behavior status of the care recipient.
前記行動検出手段は、前記受付手段により受け付けた撮影動画における被介護者の深度認識および空間認識のうち少なくとも何れかも参照して、被介護者の行動状況を検出する、請求項7または8記載の介護施設向け危険予知システム。 9. The action detection means according to claim 7, wherein the action detection means detects the action status of the care-receiver by referring to at least one of depth recognition and spatial recognition of the care-receiver in the photographed moving image received by the reception means. Danger prediction system for nursing homes. 前記姿勢推定手段により取得された被介護者のオブジェクト情報に基づいて深層学習により第1学習済モデルを生成する第1モデル生成手段を更に備え、
前記行動検出手段は、前記姿勢推定手段により推定されたオブジェクト情報から、前記第1学習済モデルを参照して被介護者の行動状況を検出する、請求項1乃至9のいずれか一項に記載の介護施設向け危険予知システム。
Further comprising a first model generating means for generating a first trained model by deep learning based on the object information of the care receiver acquired by the posture estimating means,
10. The behavior detector according to any one of claims 1 to 9, wherein said behavior detector refers to said first learned model from the object information estimated by said posture estimator and detects the behavior of the care-receiver. hazard prediction system for nursing homes.
前記行動検出手段により検出された被介護者の行動状況に基づいて深層学習により第2学習済モデルを生成する第2モデル生成手段を更に備え、
前記行動予知手段は、前記行動検出手段により検出された被介護者の行動状況から、前記第2学習済モデルを参照して被介護者の次の行動を予知する、請求項1乃至10のいずれか一項に記載の介護施設向け危険予知システム。
Further comprising a second model generation means for generating a second trained model by deep learning based on the behavioral status of the care recipient detected by the behavior detection means,
11. The action prediction means according to any one of claims 1 to 10, wherein the action prediction means predicts the next action of the care-receiver by referring to the second learned model from the action status of the care-receiver detected by the action detection means. or the danger prediction system for nursing homes according to any one of the above items.
ユーザ端末は被介護者が所持する端末または介護施設から被介護者に貸与される端末である、請求項1乃至11のいずれか一項に記載の介護施設向け危険予知システム。 The danger prediction system for nursing care facilities according to any one of claims 1 to 11, wherein the user terminal is a terminal owned by the care receiver or a terminal lent to the care receiver from the nursing care facility. ユーザ端末から撮影開始信号を受け付けると、当該ユーザ端末に撮影指示信号を送信する撮像指示手段を更に備え、
前記撮影指示手段により前記ユーザ端末に撮影指示信号が送信されると、前記ユーザ端末により取得された撮影動画が前記危険予知システムに経時的に送信される、請求項1乃至12のいずれか一項に記載の介護施設向け危険予知システム。
further comprising imaging instruction means for transmitting an imaging instruction signal to the user terminal when an imaging start signal is received from the user terminal;
13. The system according to any one of claims 1 to 12, wherein when a photographing instruction signal is transmitted to said user terminal by said photographing instruction means, a photographed moving image acquired by said user terminal is transmitted to said danger prediction system over time. The danger prediction system for nursing homes described in .
ユーザ端末に危険予知アプリがダウンロード可能となっており、前記危険予知アプリが起動されるまたは前記危険予知アプリにより撮影開始指令が入力されると、前記ユーザ端末により取得された撮影動画が前記危険予知システムに経時的に送信される、請求項1乃至12のいずれか一項に記載の介護施設向け危険予知システム。 A danger prediction application can be downloaded to the user terminal, and when the danger prediction application is activated or a shooting start command is input by the danger prediction application, the photographed video acquired by the user terminal is used as the danger prediction. 13. A care facility danger prediction system according to any one of claims 1 to 12, transmitted to the system over time. 被介護者の介護記録がこの被介護者の識別情報に紐付けられており、
前記ユーザ端末から撮影動画が送信される際にこのユーザ端末の識別情報が送信されることにより被介護者の識別情報が取得され、
前記行動予知手段は、取得された被介護者の識別情報に紐付けられている被介護者の介護記録も参照して、前記行動検出手段により検出された行動状況に基づいて被介護者の次の行動を予知する、請求項1乃至14のいずれか一項に記載の介護施設向け危険予知システム。
The care receiver's care record is linked to this care receiver's identification information,
The identification information of the user terminal is transmitted when the captured video is transmitted from the user terminal, thereby acquiring the identification information of the care recipient,
The behavior prediction means also refers to the care receiver's care record linked to the acquired identification information of the care receiver, and based on the behavior status detected by the behavior detection means, predicts the care receiver's next behavior. 15. The danger prediction system for nursing homes according to any one of claims 1 to 14, which predicts the behavior of the care facility.
コンピュータを、
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
として機能させる、プログラム。
the computer,
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
A program that functions as
コンピュータにより実行される介護施設向け危険予知方法であって、
ユーザ端末から撮影動画を受け付ける工程と、
受け付けた撮影動画から、被介護者の姿勢を推定する工程と、
推定されたオブジェクト情報から、被介護者の行動状況を検出する工程と、
検出された行動状況から、被介護者の次の行動を予知する工程と、
検出された行動状況および予知された予知情報に基づいて、介護支援端末に状況画像を表示させる工程と、
を備えた、介護施設向け危険予知方法。
A computer-implemented method of hazard prediction for nursing homes, comprising:
a step of receiving a captured video from a user terminal;
a step of estimating the posture of the care-receiver from the received captured video;
a step of detecting the action status of the care recipient from the estimated object information;
a step of predicting the next action of the cared person from the detected action situation;
a step of displaying a situation image on a care support terminal based on the detected action situation and the predicted prediction information;
A danger prediction method for nursing homes.
JP2021182349A 2021-11-09 2021-11-09 Risk prediction system for care facility, program, and risk prediction method for care facility Pending JP2023070277A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021182349A JP2023070277A (en) 2021-11-09 2021-11-09 Risk prediction system for care facility, program, and risk prediction method for care facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021182349A JP2023070277A (en) 2021-11-09 2021-11-09 Risk prediction system for care facility, program, and risk prediction method for care facility

Publications (1)

Publication Number Publication Date
JP2023070277A true JP2023070277A (en) 2023-05-19

Family

ID=86331369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021182349A Pending JP2023070277A (en) 2021-11-09 2021-11-09 Risk prediction system for care facility, program, and risk prediction method for care facility

Country Status (1)

Country Link
JP (1) JP2023070277A (en)

Similar Documents

Publication Publication Date Title
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
EP3468180B1 (en) Display control device, display control system, display control method, display control program, and recording medium
EP2390820A2 (en) Monitoring Changes in Behaviour of a Human Subject
CN112842258A (en) Methods, processors, and computer-readable media for event prevention and prediction
Zhang et al. HONEY: a multimodality fall detection and telecare system
US10846538B2 (en) Image recognition system and image recognition method to estimate occurrence of an event
CN109561855B (en) Device, system and method for fall detection
JP7138619B2 (en) Monitoring terminal and monitoring method
WO2019176222A1 (en) Anomaly sensing system, anomaly sensing method, and anomaly sensing program
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JPWO2017183602A1 (en) Monitored person monitoring system and monitored person monitoring method
Shoaib et al. Altcare: Safe living for elderly people
US20240236277A1 (en) Patient Room Real-Time Monitoring and Alert System
US11076778B1 (en) Hospital bed state detection via camera
JP2023070277A (en) Risk prediction system for care facility, program, and risk prediction method for care facility
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
JP7268679B2 (en) Control program, report output method, and report output device
JP6874838B2 (en) Information processing equipment, control methods, and programs
JP7518699B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
JP7327396B2 (en) Control program, report output method, and report output device
JP7487577B2 (en) Computer-implemented method, program, information processing device, and monitoring system for allocating nursing staff
JPWO2019030880A1 (en) Monitoring system, monitoring method, monitoring program, and recording medium thereof
JP7152795B2 (en) Monitoring system for people requiring nursing care
EP4394725A1 (en) Method and system for monitoring bedridden and bed-resting persons
Gaete et al. Visitrack: A pervasive service for monitoring the social activity of older adults living at home