JP2023070277A - Risk prediction system for care facility, program, and risk prediction method for care facility - Google Patents
Risk prediction system for care facility, program, and risk prediction method for care facility Download PDFInfo
- Publication number
- JP2023070277A JP2023070277A JP2021182349A JP2021182349A JP2023070277A JP 2023070277 A JP2023070277 A JP 2023070277A JP 2021182349 A JP2021182349 A JP 2021182349A JP 2021182349 A JP2021182349 A JP 2021182349A JP 2023070277 A JP2023070277 A JP 2023070277A
- Authority
- JP
- Japan
- Prior art keywords
- care
- action
- prediction
- receiver
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 62
- 230000006399 behavior Effects 0.000 claims description 39
- 230000000474 nursing effect Effects 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 12
- 230000003542 behavioural effect Effects 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 238000003672 processing method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 208000017667 Chronic Disease Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 206010001488 Aggression Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Alarm Systems (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Description
本発明は、介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法に関する。 The present invention relates to a risk prediction system for nursing care facilities, a program, and a risk prediction method for nursing care facilities.
介護施設等において、被介護者の見守りを行う見守りシステムとして従来から様々なものが設けられている。例えば、特許文献1には、医療施設や介護施設、宅内の一室の天井に距離画像カメラを設け、ベッド全体を撮影することにより生体情報を検出する技術が開示されている。また、特許文献2には、カメラによって歩行者を撮影し、それにより得られた撮影動画を解析することで、撮影動画に写る歩行者の状態を監視し、当該歩行者の見守りを行う技術が開示されている。また、特許文献3には、その画角内にベッド周辺の全てを収める赤外線レーザセンサにより被介護者のベッドを含む見守り対象を赤外線レーザによって自動的に走査し、その時点における見守りエリア近辺の距離画像を取得することにより、被介護者が寝ているベッド上のハミ出し個所を特定する技術が開示されている。また、特許文献4には、ウェブカメラ(Webカメラ)等のデジタルカメラにより被介護者の画像を取得し、また被介護者の生理学的データに基づいて身体状態を検出することにより、被介護者が異常状態であるか否かを判定する技術が開示されている。また、特許文献5には、被介護者の部屋に設置される2個の2次元温度分布センサが検出した第1の温度分布及び第2の温度分布から、人体を示す温度領域を抽出し、この抽出した2個の人体温度領域から、人体の立位、座位又は臥位を判定する技術が開示されている。
Nursing care facilities and the like have conventionally provided various types of watching systems for watching over care recipients. For example,
従来の見守りシステムでは、介護施設等において被介護者が転倒した等のトラブルがあったときに遠隔で報知を行うことができたが、被介護者が転送しそうな状態を予知して報知するものは従来は存在しなかった。 In conventional monitoring systems, it was possible to remotely report when there was a problem such as a fall of a care recipient in a nursing facility, etc. did not previously exist.
本発明は、このような点を考慮してなされたものであり、被介護者の危険を予知し、介護者に報知することができる介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法を提供することを目的とする。 The present invention has been made in consideration of these points, and is a risk prediction system, program, and risk prediction method for nursing facilities that can predict the danger of a care recipient and notify the caregiver. intended to provide
本発明の介護施設向け危険予知システムは、
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
を備えたこと特徴とする。
The danger prediction system for nursing homes of the present invention is
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
characterized by comprising
本発明のプログラムは、
コンピュータを、
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
として機能させることを特徴とする。
The program of the present invention is
the computer,
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
It is characterized by functioning as
本発明の介護施設向け情報処理方法は、
ユーザ端末から撮影動画を受け付ける工程と、
受け付けた撮影動画から、被介護者の姿勢を推定する工程と、
推定されたオブジェクト情報から、被介護者の行動状況を検出する工程と、
検出された行動状況から、被介護者の次の行動を予知する工程と、
検出された行動状況および予知された予知情報に基づいて、介護支援端末に状況画像を表示させる工程と、
を備えたことを特徴とする。
The information processing method for nursing care facilities of the present invention includes:
a step of receiving a captured video from a user terminal;
a step of estimating the posture of the care-receiver from the received captured video;
a step of detecting the action status of the care recipient from the estimated object information;
a step of predicting the next action of the cared person from the detected action situation;
a step of displaying a situation image on a care support terminal based on the detected action situation and the predicted prediction information;
characterized by comprising
本発明の介護施設向け危険予知システム、プログラムおよび介護施設向け危険予知方法によれば、被介護者の危険を予知し、介護者に報知することができる。 According to the risk prediction system for nursing facilities, the program, and the risk prediction method for nursing facilities of the present invention, it is possible to predict the danger of the care recipient and notify the caregiver of the danger.
<危険予知システム1の概要>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態による危険予知システム1の構成を示すブロック図であり、図2は、図1に示す危険予知システム1により被介護者の見守りを行うときの情報の流れを示す説明図である。また、図3および図4は、図1に示す危険予知システム1により被介護者の見守りを行うときのチャート図やフローチャートである。また、図5は、ユーザ端末3により撮影された撮影動画およびこの撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを示す説明図であり、図6は、図5から人骨格モデルを抜き出して示す説明図である。また、図7および図8は、介護支援端末7に表示される様々な画面を示す図である。また、図9は、学習用サーバの行動検出手段および行動予知手段にそれぞれ用いられる学習済モデルを生成する方法を示す説明図である。
<Overview of
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the
本実施の形態による危険予知システム1は、学習用サーバ2、映像ストリームサービス4、アプリケーションサーバ6等から構成されている。これらの学習用サーバ2、映像ストリームサービス4、アプリケーションサーバ6等は、インターネット回線等の通信ネットワーク8を介して互いに通信可能に接続されている。また、学習用サーバ2には記憶装置9が通信可能に接続されている。また、アプリケーションサーバ6にはデータベース5が通信可能に接続されている。学習用サーバ2は、インターネット回線を通じて利用できるサーバであり、インターネットでアクセスできる物理サーバ内に仮想的な専用サーバを構築した状態で提供される。映像ストリームサービス4、アプリケーションサーバ6も、インターネット回線を通じて利用できるデータベースやサーバ等である。また、被介護者の部屋に設置されるユーザ端末3が通信ネットワーク8を介して学習用サーバ2や映像ストリームサービス4等に通信可能に接続されている。ユーザ端末3は、被介護者の所持する端末または介護施設から被介護者に貸与される端末であり、当該端末はカメラを有している。このことにより、被介護者の部屋の天井にカメラ等を設置する場合と比較して、被介護者は常に監視されていると感じなくなり、被介護者を安心させることができる。ユーザ端末3は、具体的には、スマートフォンやPCタブレット、スマートスピーカ、スマートデバイス等である。また、介護施設の事務室に設置されたり介護者が携帯したりする介護支援端末7が通信ネットワーク8を介してアプリケーションサーバ6に通信可能に接続されている。介護支援端末7は、具体的には、スマートフォンやPCタブレット、コンピュータ等である。
A
<学習用サーバ2の構成>
図1に示すように、学習用サーバ2は、プログラムを実行することにより、受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207および行動情報送信手段208として機能するコンピュータである。プログラムは、学習用サーバ2に格納されているか、学習用サーバ2とは別のサーバに格納されており当該学習用サーバ2からこの別のサーバに読み込みにいったものが用いられる。
<Structure of
As shown in FIG. 1, by executing a program, the learning
受付手段201は、後述する映像ストリームサービス4から撮影動画を経時的に受け付ける。撮影指示手段202は、ユーザ端末3から撮影開始信号を受け付けると、当該ユーザ端末3に撮影指示信号を送信する。
The accepting means 201 accepts captured moving images over time from the
姿勢推定手段203は、受付手段201により受け付けた撮影動画から、被介護者の姿勢を推定する。具体的には、姿勢推定手段203は、受付手段201により受け付けた撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデル(スケルトンモデル)を被介護者のオブジェクト情報(姿勢情報)とする。被介護者の姿勢の推定方法の詳細については後述する。介護機器検出手段204は、受付手段201により受け付けた撮影動画から介護機器の情報を検出する。介護器具としては、ベッド、車椅子、介護リフト、手すり等が挙げられる。
The posture estimating means 203 estimates the posture of the cared person from the captured video received by the receiving means 201 . Specifically, posture estimating means 203 converts a human skeleton model (skeleton model) including the positions of a plurality of parts that characterize the movement of the care receiver in the captured moving image received by receiving
行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、被介護者の行動状況を検出する。具体的には、行動検出手段205は、被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルに基づいて被介護者の行動状況を検出する。被介護者の行動状況の検出方法の詳細については後述する。 Action detection means 205 detects the action status of the cared person from the object information estimated by posture estimation means 203 . Specifically, the action detection means 205 detects the action status of the care receiver based on a human skeleton model including the positions of a plurality of parts that characterize the actions of the care receiver. The details of the detection method of the action status of the care-receiver will be described later.
行動予知手段206は、行動検出手段205により検出された行動状況から、被介護者の次の行動を予知する。被介護者の次の行動の予知方法の詳細については後述する。 The action prediction means 206 predicts the next action of the cared person from the action situation detected by the action detection means 205 . The details of the method for predicting the care-receiver's next action will be described later.
姿勢情報送信手段207は、姿勢推定手段203により推定された被介護者のオブジェクト情報を記憶装置9に送信する。また、行動情報送信手段208は、行動検出手段205により検出された被介護者の行動状況および行動予知手段206により得られた被介護者の次の行動の予知情報をアプリケーションサーバ6に送信する。
Posture information transmitting means 207 transmits the object information of the cared person estimated by posture estimating means 203 to
これらの受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207および行動情報送信手段208の機能の詳細については後述する。 Details of the functions of the reception means 201, the photographing instruction means 202, the posture estimation means 203, the care equipment detection means 204, the action detection means 205, the action prediction means 206, the posture information transmission means 207, and the action information transmission means 208 will be described later. do.
このような学習用サーバ2は、インターネットおよびLANなどの通信ネットワーク8を介して映像ストリームサービス4およびアプリケーションサーバ6等と通信可能に接続されている。
Such a
ユーザ端末3は、上述したように、被介護者の所持する端末または介護施設から被介護者に貸与される端末である。ユーザ端末3は、被介護者の部屋における所定の位置に置かれるようになっている。例えば、ユーザ端末3の充電器が被介護者の部屋における所定の位置に固定されており、この充電器にユーザ端末3が載せられるようになっている。また、ユーザ端末3にはカメラ等の撮像部が搭載されており、当該撮像部により撮像された撮影動画がユーザ端末3から映像ストリームサービス4に経時的に送信されるようになっている。なお、被介護者の部屋には、赤外線カメラ、RGBD(深度カメラ)、バイタルセンサが追加で設けられており、これらのカメラやセンサにより被介護者の深度認識(奥行き検知)や空間認識が得られるようになっていてもよい。
The
映像ストリームサービス4は、インターネット回線を通じて利用できるサーバ等に設置されており、ユーザ端末3から送信された撮影動画を処理して学習用サーバ2に送信するようになっている。映像ストリームサービス4はWebRTC等から構成されており、WEBブラウザ上で音声や映像など大容量のデジタルデータをリアルタイムに送受信するものである。WebRTCは、ソースコードが公開されているオープン規格である。
The
記憶装置9は、学習用サーバ2から姿勢情報送信手段207により送信されたオブジェクト情報を記憶するようになっている。具体的には、記憶装置9には、オブジェクト情報として被介護者の人骨格モデルおよび被介護者以外の介護器具の複数の部位の情報の動画を記憶するようになっている。また、データベース5は、アプリケーションサーバ6から送信された被介護者の行動状況および予知情報を記憶するようになっている。
The
アプリケーションサーバ6は、プログラムを実行することにより表示指示手段601として機能するコンピュータである。
The
表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる。より詳細には、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、行動状況毎の説明用画像(具体的には、様々な行動状況のイラスト)が記憶されており、表示指示手段601は、行動検出手段205により検出された行動状況に対応する説明用画像を状況画像に含ませる。このことにより、介護支援端末7には行動検出手段205により検出された行動状況に対応する説明用画像が表示される。また、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、予知情報毎に危険状況であるか否かが記憶されており、表示指示手段601は、行動予知手段206により予知された予知情報が危険状況である場合には、このことを知らせるためのメッセージを状況画像に含ませる。このことにより、行動予知手段206により予知された予知情報が危険状況である場合には、介護支援端末7にこのことを知らせるためのメッセージが表示される。このような表示指示手段601の機能の詳細については後述する。
The display instruction means 601 causes the nursing
介護支援端末7は、上述したように、介護施設の事務室に設置されたり介護者が携帯したりするものであり、アプリケーションサーバ6から送信された状況画像が表示される。状況画像の詳細については後述する。
As described above, the
<危険予知システム1による情報処理方法>
次に、危険予知システム1による情報処理方法について図2乃至図9を用いて説明する。
<Information processing method by
Next, an information processing method by the
本実施の形態の危険予知システム1による情報処理方法が実施されるにあたり、ユーザ端末3が被介護者の部屋に設置される。上述したように、ユーザ端末3は、被介護者の所持する端末または介護施設から被介護者に貸与される端末である。このようなユーザ端末3において、危険予知アプリがオンラインストアや危険予知システム1の管理会社からダウンロード可能となっている。そして、ユーザ端末3に危険予知アプリがダウンロードされた後、見守り用アプリが起動されるまたは見守り用アプリにより撮影開始指令が入力されると、ユーザ端末3により取得された撮影動画が映像ストリームサービス4に経時的に送信されるようになる。より具体的には、被介護者の部屋全体がユーザ端末3のカメラにより撮影され、この撮影される動画には被介護者、介護者および介護機器が含まれるものとなる。また、この際に、見守り用アプリが起動されるまたは見守り用アプリにより撮影開始指令が入力されると、ユーザ端末3から学習用サーバ2に撮影開始信号が送信され(ステップSt1の「YES」)、学習用サーバ2から撮影指示信号がユーザ端末3に返信された後に、ユーザ端末3は撮影を開始するようになっていてもよい(ステップSt2)。このことにより、学習用サーバ2においてユーザ端末3により撮影が開始されたことを認識することができるようになる。
In carrying out the information processing method by the
また、ユーザ端末3に見守り用アプリがダウンロードされるのではなく、ブラウザ上で撮影指示をユーザ端末3のカメラに送ることができるようになっていてもよい。この場合、ユーザ端末3においてブラウザにおける危険予知用のウエブサイトにアクセスし、会員IDまたはメールアドレスとパスワードとを入力すると、会員用サイトに入ることができるようになる。そして、会員用サイトにおいて撮影開始指令が入力されると、ユーザ端末3により取得された撮影動画が映像ストリームサービス4に経時的に送信されるようになる。また、この際に、会員用サイトにおいて撮影開始指令が入力されると、ユーザ端末3から学習用サーバ2に撮影開始信号が送信され(ステップSt1の「YES」)、学習用サーバ2から撮影指示信号がユーザ端末3に返信された後に、ユーザ端末3は撮影を開始するようになっていてもよい(ステップSt2)。このことにより、学習用サーバ2においてユーザ端末3により撮影が開始されたことを認識することができるようになる。
Alternatively, instead of downloading the monitoring application to the
撮影動画がユーザ端末3から映像ストリームサービス4に送信されると(ステップSt3)、この映像ストリームサービス4においてWEBブラウザ上で音声や映像など大容量のデジタルデータがリアルタイムに送受信され、撮影動画が映像ストリームサービス4から学習用サーバ2に送信される(ステップSt4)。
When the captured video is transmitted from the
映像ストリームサービス4から学習用サーバ2に撮影動画が送信されると、受付手段201が撮影動画を受け付ける。そして、姿勢推定手段203は、受付手段201が受け付けた撮影動画から、被介護者の姿勢を推定する(ステップSt5)。具体的には、図5および図6に示すように、姿勢推定手段203は、受付手段201により受け付けた撮影動画における被介護者の動作の特徴となる複数の部位の位置を含む人骨格モデルを作成し、この作成された人骨格モデルを被介護者のオブジェクト情報とする。また、姿勢情報送信手段207は、姿勢推定手段203により作成された人骨格モデルをオブジェクト情報として記憶装置9に送信し、この記憶装置9に記憶させる(ステップSt6)。また、介護機器検出手段204は、受付手段201により受け付けた撮影動画から介護機器の情報(図5および図6において二点鎖線で表示)を検出する。検出された介護機器の情報も学習用サーバ2から記憶装置9に送信され、記憶装置9に被介護者の人骨格モデルと合わせて記憶される。
When a captured moving image is transmitted from the
そして、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、後述する第1学習済モデルを参照して被介護者の行動状況を検出する(ステップSt7)。より詳細には、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報と、受付手段201により受け付けた撮影動画における被介護者の深度認識(奥行き検知)および空間認識のうち少なくとも何れかまたは両方とを参照して、被介護者の行動状況を検出する。被介護者の行動状況としては、例えば介護機器がベッドである場合は、ベッドに寝ている状態、ベッドに寝ている状態から起き上がろうとする状態、起き上がってベッドに腰掛けている状態、ベッドから立ち上がろうとする状態、ベッドから立ち上がった状態、手すりを掴みながら歩き始めた状態等がある。また、行動検出手段205は、介護機器検出手段204により検出された被介護者以外の介護器具に対する被介護者の位置の情報も参照して、被介護者の行動状況を検出する。例えば、介護機器検出手段204により検出されたベッドに対する被介護者の位置や姿勢を参照して、行動検出手段205は被介護者の行動状況を検出する。なお、行動検出手段205が検出する被介護者の行動状況はベッドに対するものに限定されることはなく、他の種類の介護器具に対する被介護者の行動状況であってもよく、あるいは介護器具とは関係ない被介護者の行動状況であってもよい。
Then, the action detection means 205 detects the action status of the cared person from the object information estimated by the posture estimation means 203 with reference to a first learned model described later (step St7). More specifically, the action detection means 205 detects at least one of the object information estimated by the posture estimation means 203, and the care-receiver's depth recognition (depth detection) and space recognition in the photographed moving image received by the reception means 201. Or refer to both and detect the behavioral situation of the care recipient. For example, if the nursing care equipment is a bed, the behavioral status of the care recipient includes the state of lying on the bed, the state of trying to get up from the state of lying on the bed, the state of getting up and sitting on the bed, and the state of getting up from the bed. There is a state of trying to sleep, a state of standing up from the bed, and a state of starting to walk while holding a handrail. The
第1学習済モデルは、姿勢推定手段203により取得された被介護者のオブジェクト情報(具体的には、人骨格モデル)に基づいて深層学習により得られるものである。具体的には、図9に示すように、学習用サーバ2には第1モデル生成手段210が設けられており、第1モデル生成手段210により第1学習済モデルが生成される。第1モデル生成手段210は、例えば畳み込みニューラルネットワーク(CNN)等のニューラルネットワーク(NN)から構成されている。このようなニューラルネットワークは、被介護者のオブジェクト情報と行動状況を教示データとして学習した多重重みからなる第一モデル生成を出力する機能と、被介護者のオブジェクト情報と周辺のオブジェクト情報が入力される入力層と、入力された被介護者のオブジェクト情報とオブジェクト情報により学習した多重重みを用いた演算を行う中間層と、被介護者の行動状況を出力する出力層とを有しており、出力層の出力を学習データとして再学習に使用する機能を有する。このようにして第1モデル生成手段210により生成された第1学習済モデルを用いることにより、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から被介護者の行動状況を精度良く検出することができる。
The first trained model is obtained by deep learning based on the object information of the cared person (specifically, the human skeleton model) acquired by the posture estimation means 203 . Specifically, as shown in FIG. 9, the learning
また、行動予知手段206は、行動検出手段205により検出された被介護者の行動状況から、後述する第2学習済モデルを参照して被介護者の次の行動を予知する(ステップSt8)。具体的には、例えば被介護者がベッドに寝ている状態から起き上がった状態であることが行動検出手段205により検出された場合は、行動予知手段206は被介護者の次の行動として立ち上がろうとすることを予知する。その後、行動情報送信手段208は、行動検出手段205により検出された被介護者の行動状況および行動予知手段206により検出された被介護者の次の行動の予知情報をアプリケーションサーバ6に送信する(ステップSt9)。
Further, the action prediction means 206 predicts the next action of the cared person by referring to the second learned model, which will be described later, based on the action status of the cared person detected by the action detection means 205 (step St8). Specifically, for example, when the action detecting means 205 detects that the care receiver is in a state of getting up from lying on the bed, the action predicting means 206 detects that the care receiver will stand up as the next action of the care receiver. foresee what will happen. After that, the action information transmitting means 208 transmits to the
第2学習済モデルは、行動検出手段205により検出された被介護者の行動状況に基づいて深層学習により得られるものである。具体的には、図9に示すように、学習用サーバ2には第2モデル生成手段212が設けられており、第2モデル生成手段212により第2学習済モデルが生成される。第2モデル生成手段212は、例えば畳み込みニューラルネットワーク(CNN)等のニューラルネットワーク(NN)から構成されている。このようなニューラルネットワークは、被介護者の行動状況および被介護者の次の行動情動を教示データとして学習した多重重みからなる第2学習済みモデルを作成する機能と、被介護者の行動状況がされる入力層と、入力された被介護者の行動状況により学習した多重重みを用いた演算を行う中間層と、被介護者の次の行動状況を出力する出力層とを有しており、出力層の出力を学習データとして再学習に使用する機能を有する。このようにして第2モデル生成手段212により生成された第2学習済モデルを用いることにより、行動予知手段206は、行動検出手段205により検出された被介護者の行動状況からこの被介護者の次の行動を精度良く予知することができる。
The second learned model is obtained by deep learning based on the behavioral situation of the care receiver detected by the behavior detection means 205 . Specifically, as shown in FIG. 9, the learning
被介護者の行動状況および次の行動の予知情報が学習用サーバ2からアプリケーションサーバ6に送信されると、アプリケーションサーバ6の表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる(ステップSt10)。図7は、介護支援端末7に表示される状況画像である。介護支援端末7は、介護施設の事務室に設置されたり介護者が携帯したりするスマートフォンやPCタブレット、コンピュータ等である。
When the action status of the cared person and the prediction information of the next action are transmitted from the learning
具体的には、上述したように、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、行動状況毎の説明用画像が記憶されている。そして、表示指示手段601は、行動検出手段205により検出された行動状況に対応する説明用画像を状況画像に含ませることにより、この説明用画像を介護支援端末7に表示させる。例えば、図7では、説明用画像71として、被介護者が起き上がってベッドに腰掛けている状態のイラストが介護支援端末7に表示されている。
Specifically, as described above, the
また、表示指示手段601は、行動予知手段206により検出された被介護者の次の行動の予知情報に係るメッセージを状況画像に含ませることにより、このメッセージを介護支援端末7に表示させる。例えば、図7では、メッセージ72として、被介護者が次の行動として立ち上がろうとしているメッセージが介護支援端末7に表示されている。
In addition, the display instruction means 601 causes the
また、アプリケーションサーバ6またはアプリケーションサーバ6とは別のサーバには、予知情報毎に危険状況であるか否かが記憶されている。そして、表示指示手段601は、行動予知手段206により予知された予知情報が危険状況である場合には例えば「転倒リスク」という追加メッセージを状況画像に含ませる。このことにより、行動予知手段206により予知された予知情報が危険状況である場合には、介護支援端末7に追加メッセージが表示される。例えば、図7において、被介護者の次の行動として立ち上がろうとしている状態であることが予知されている場合には、追加メッセージ73として、被介護者に転倒リスクがあることを知らせるメッセージが介護支援端末7に表示される。
The
このように、介護支援端末7には説明用画像71、メッセージ72および警告メッセージ73が表示されるため、介護者は被介護者に転倒リスクがある等を察知してすぐに被介護者の居室に向かうことができる。
In this way, since the
また、学習用サーバ2からアプリケーションサーバ6に送信された被介護者の行動状況および次の行動の予知情報がデータベース5に送信され、このデータベース5に記憶される。また、姿勢推定手段203により推定されたオブジェクト情報(具体的には、被介護者の人骨格モデル)が学習用サーバ2から映像ストリームサービス4を経由して介護支援端末7に送信され、この介護支援端末7に表示されるようになっていてもよい。図8は、介護支援端末7に表示される他の状況画像を示す図である。図8に示すように、介護支援端末7には、説明用画像71として、被介護者が起き上がってベッドに腰掛けている状態の画像が表示されるとともに、この被介護者の人骨格モデル74が表示される。このことにより、介護者は被介護者のより詳細な姿勢を知ることができるようになる。
Also, the action status of the cared person and the predictive information of the next action sent from the learning
以上のような構成からなる本実施の形態の危険予知システム1、プログラムおよび情報処理方法によれば、受付手段201がユーザ端末3から撮影動画を受け付けると、姿勢推定手段203は、受付手段201により受け付けた撮影動画から、被介護者の姿勢を推定し、行動検出手段205は、姿勢推定手段203により推定されたオブジェクト情報から、被介護者の行動状況を検出する。また、行動予知手段206は、行動検出手段205により検出された行動状況から、被介護者の次の行動を予知し、表示指示手段601は、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に基づいて、介護支援端末7に状況画像を表示させる。このことにより、介護支援端末7を見た介護者は被介護者の現在の行動状況およびこの被介護者の次の行動を被介護者から離れた場所でも認識することができるようになる。このため、被介護者が転倒等しそうな状態を予知して報知することができる。
According to the
また、ユーザ端末3により撮影された動画をそのまま介護支援端末7に表示させるのではなく、行動検出手段205により検出された行動状況および行動予知手段206により予知された予知情報に対応する状況画像を介護支援端末7に表示させることによって、被介護者のプライバシーを保護することができる。
In addition, instead of displaying the moving image captured by the
なお、本実施の形態による危険予知システム1や情報処理方法は、上述したような態様に限定されることはなく、様々な変更を加えることができる。
Note that the
例えば、上記の説明では学習用サーバ2およびアプリケーションサーバ6が別々に設けられている例について述べたが、これらの学習用サーバ2およびアプリケーションサーバ6が一体化したサーバが用いられてもよい。この場合は、一つのサーバにおいて、コンピュータがプログラムを実行することにより受付手段201、撮影指示手段202、姿勢推定手段203、介護機器検出手段204、行動検出手段205、行動予知手段206、姿勢情報送信手段207、行動情報送信手段208および表示指示手段601として機能するようになる。また、上述した受付手段201、撮影指示手段202、姿勢推定手段203、行動検出手段205、行動予知手段206、姿勢情報送信手段207、行動情報送信手段208および表示指示手段601が複数のコンピュータやサーバで分担して機能するようになっていてもよく、この場合、どの手段がどのコンピュータやサーバで機能するかは任意に設定されるようになる。
For example, in the above description, an example in which the
また、学習用サーバ2やアプリケーションサーバ6等はクラウドで実行されるのではなく、ローカルに設置されるサーバやコンピュータであってもよい。また、記憶装置9やデータベース5もクラウド上ではなくローカルに設置される記録装置であってもよい。
Also, the learning
また、危険予知システム1において映像ストリームサービス4が設けられておらず、ユーザ端末3により撮影された動画がこのユーザ端末3から学習用サーバ2に直接送信されるようになっていてもよい。また、本明細書および特許請求の範囲における「ユーザ端末から撮影動画を受け付ける受付手段」は、受付手段201がユーザ端末3から撮影動画を直接受け付ける態様、および受付手段201がユーザ端末3から映像ストリームサービス4を経由して撮影動画を受け付ける態様の両方を含むようになっている。
Alternatively, the
また、行動予知手段206は、行動検出手段205により検出された行動状況および被介護者の介護記録に基づいて被介護者の次の行動を予知してもよい。被介護者の介護記録とは、介護記録データベースから受信した、被介護者の例えば年齢、性別、身長、体重、慢性的な疾患、認知症の度合い等のことをいう。このような被介護者の身体的特徴は介護記録データベースにおいて被介護者の識別情報に紐付けられて予め記憶されている。また、ユーザ端末3の識別情報にも被介護者の識別情報が紐付けられており、ユーザ端末3から学習用サーバ2に撮影動画が送信される際にこのユーザ端末3の識別情報が送信されることにより学習用サーバ2においてユーザ端末3の識別情報に対応する被介護者の識別情報を取得することができるようになっている。この場合には、被介護者の介護記録に合わせて、行動予知手段206は被介護者の次の行動の予知を行うことができる。また、姿勢推定手段203により取得されたオブジェクト情報、行動検出手段205により検出された行動状況、行動予知手段206により予知された予知情報等がデータベース5から介護記録データベースに送信されてこの介護記録データベースに記憶されるようになっていてもよい。
Further, the action prediction means 206 may predict the next action of the cared person based on the action status detected by the action detection means 205 and the cared person's care record. The care-receiver's care record refers to the care-receiver's age, sex, height, weight, chronic disease, degree of dementia, etc. received from the care record database. Such physical characteristics of the care recipient are stored in advance in the care record database in association with the identification information of the care recipient. The identification information of the
また、表示指示手段601が、行動予知手段206により予知された予知情報が危険状況である場合には追加メッセージを状況画像に含ませる際に、危険状況であるか否かを判断する際に被介護者の身体的特徴の情報が反映されるようになっていてもよい。すなわち、行動予知手段206により予知された予知情報が同じであっても、被介護者の身体的特徴が異なる場合には危険状況であるか否かの判断が異なるようになっていてもよい。例えば、比較的健康な被介護者であれば、ベッドに座っている状態から起き上がろうとしていることが予知された場合でも介護支援端末7に表示される状況画像に警告メッセージが含まれないが、被介護者が慢性的な疾患を抱えていたり高齢であったりする場合は、ベッドに座っている状態から起き上がろうとしていることが予知された場合に、介護支援端末7に表示される状況画像に転倒の可能性がある旨の警告メッセージが含まれるようになる。
In addition, when the prediction information predicted by the
また、上記の説明では、被介護者の部屋全体がユーザ端末3のカメラにより撮影され、この撮影される動画には被介護者、介護者および介護機器が含まれることを述べたが、被介護者だけではなく介護者についても姿勢推定手段203により姿勢を推定してオブジェクト情報を取得し、行動検出手段204により介護者の行動状況を検出してもよい。そして、介護者の行動状況に係る情報がアプリケーションサーバ6から介護支援端末7に送信され、この介護支援端末7に表示されるようになっていてもよい。このことにより、介護者による被介護者に対する虐待行為等も検出することができるようになる。また、被介護者の部屋だけではなく共有スペース等の大人数エリア全体がユーザ端末3のカメラにより撮影されることにより、この大人数エリアにいる複数の介護者や被介護者の全ての行動を同時に解析できるようになっていてもよい。
Further, in the above description, it has been described that the entire room of the care recipient is photographed by the camera of the
1 危険予知システム
2 学習用サーバ
3 ユーザ端末
4 映像ストリームサービス
5 データベース
6 アプリケーションサーバ
7 介護支援端末
8 通信ネットワーク
9 記憶装置
71 説明用画像
72 メッセージ
73 警告メッセージ
74 人骨格モデル
201 受付手段
202 撮影指示手段
203 姿勢推定手段
204 介護機器検出手段
205 行動検出手段
206 行動予知手段
207 姿勢情報送信手段
208 行動情報送信手段
210 第1モデル生成手段
212 第2モデル生成手段
601 表示指示手段
1
Claims (17)
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
を備えた、介護施設向け危険予知システム。 Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
A danger prediction system for nursing homes.
前記表示指示手段は、予め記憶されている、前記行動検出手段により検出された行動状況に対応する説明用画像を前記状況画像に含ませる、請求項1記載の介護施設向け危険予知システム。 An explanatory image for each action situation is stored in advance,
2. The danger prediction system for nursing homes according to claim 1, wherein said display instructing means causes said situation image to include a pre-stored explanatory image corresponding to the action situation detected by said action detecting means.
前記表示指示手段は、予め記憶されている情報に基づいて、前記行動予知手段により予知された予知情報が危険状況である場合にはメッセージを前記状況画像に含ませる、請求項1または2記載の介護施設向け危険予知システム。 Whether or not there is a dangerous situation is stored in advance for each prediction information,
3. The display instruction means according to claim 1, wherein said display instruction means includes a message in said situation image when the prediction information predicted by said action prediction means indicates a dangerous situation based on information stored in advance. Danger prediction system for nursing homes.
前記ユーザ端末から撮影動画が送信される際にこのユーザ端末の識別情報が送信されることにより被介護者の識別情報が取得され、
前記表示指示手段が、前記行動予知手段により予知された予知情報が危険状況である場合にはメッセージを状況画像に含ませる際に、危険状況であるか否かを判断するにあたり被介護者の介護記録の情報が反映される、請求項3記載の介護施設向け危険予知システム。 The care receiver's care record is linked to this care receiver's identification information,
The identification information of the user terminal is transmitted when the captured video is transmitted from the user terminal, thereby acquiring the identification information of the care recipient,
When the display instruction means includes a message in the situation image when the prediction information predicted by the action prediction means is a dangerous situation, the care recipient's care in judging whether the situation is dangerous or not. The danger prediction system for nursing homes according to claim 3, wherein the recorded information is reflected.
前記行動検出手段は、被介護者以外の介護器具に対する被介護者の位置の情報も参照して、被介護者の行動状況を検出する、請求項7記載の介護施設向け危険予知システム。 Further comprising a nursing care equipment detection means for acquiring information of nursing care equipment other than the care recipient in the photographed moving image received by the reception means,
8. The danger prediction system for nursing care facilities according to claim 7, wherein said behavior detection means also refers to information on the position of the care recipient with respect to care equipment other than the care recipient to detect the behavior status of the care recipient.
前記行動検出手段は、前記姿勢推定手段により推定されたオブジェクト情報から、前記第1学習済モデルを参照して被介護者の行動状況を検出する、請求項1乃至9のいずれか一項に記載の介護施設向け危険予知システム。 Further comprising a first model generating means for generating a first trained model by deep learning based on the object information of the care receiver acquired by the posture estimating means,
10. The behavior detector according to any one of claims 1 to 9, wherein said behavior detector refers to said first learned model from the object information estimated by said posture estimator and detects the behavior of the care-receiver. hazard prediction system for nursing homes.
前記行動予知手段は、前記行動検出手段により検出された被介護者の行動状況から、前記第2学習済モデルを参照して被介護者の次の行動を予知する、請求項1乃至10のいずれか一項に記載の介護施設向け危険予知システム。 Further comprising a second model generation means for generating a second trained model by deep learning based on the behavioral status of the care recipient detected by the behavior detection means,
11. The action prediction means according to any one of claims 1 to 10, wherein the action prediction means predicts the next action of the care-receiver by referring to the second learned model from the action status of the care-receiver detected by the action detection means. or the danger prediction system for nursing homes according to any one of the above items.
前記撮影指示手段により前記ユーザ端末に撮影指示信号が送信されると、前記ユーザ端末により取得された撮影動画が前記危険予知システムに経時的に送信される、請求項1乃至12のいずれか一項に記載の介護施設向け危険予知システム。 further comprising imaging instruction means for transmitting an imaging instruction signal to the user terminal when an imaging start signal is received from the user terminal;
13. The system according to any one of claims 1 to 12, wherein when a photographing instruction signal is transmitted to said user terminal by said photographing instruction means, a photographed moving image acquired by said user terminal is transmitted to said danger prediction system over time. The danger prediction system for nursing homes described in .
前記ユーザ端末から撮影動画が送信される際にこのユーザ端末の識別情報が送信されることにより被介護者の識別情報が取得され、
前記行動予知手段は、取得された被介護者の識別情報に紐付けられている被介護者の介護記録も参照して、前記行動検出手段により検出された行動状況に基づいて被介護者の次の行動を予知する、請求項1乃至14のいずれか一項に記載の介護施設向け危険予知システム。 The care receiver's care record is linked to this care receiver's identification information,
The identification information of the user terminal is transmitted when the captured video is transmitted from the user terminal, thereby acquiring the identification information of the care recipient,
The behavior prediction means also refers to the care receiver's care record linked to the acquired identification information of the care receiver, and based on the behavior status detected by the behavior detection means, predicts the care receiver's next behavior. 15. The danger prediction system for nursing homes according to any one of claims 1 to 14, which predicts the behavior of the care facility.
ユーザ端末から撮影動画を受け付ける受付手段と、
前記受付手段により受け付けた撮影動画から、被介護者の姿勢を推定する姿勢推定手段と、
前記姿勢推定手段により推定されたオブジェクト情報から、被介護者の行動状況を検出する行動検出手段と、
前記行動検出手段により検出された行動状況から、被介護者の次の行動を予知する行動予知手段と、
前記行動検出手段により検出された行動状況および前記行動予知手段により予知された予知情報に基づいて、介護支援端末に状況画像を表示させる表示指示手段と、
として機能させる、プログラム。 the computer,
Receiving means for receiving a shot video from a user terminal;
posture estimating means for estimating the posture of the cared person from the captured moving image received by the receiving means;
action detection means for detecting the action status of the cared person from the object information estimated by the posture estimation means;
action prediction means for predicting the next action of the cared person from the action situation detected by the action detection means;
display instruction means for displaying a situation image on a care support terminal based on the action status detected by the action detection means and the prediction information predicted by the action prediction means;
A program that functions as
ユーザ端末から撮影動画を受け付ける工程と、
受け付けた撮影動画から、被介護者の姿勢を推定する工程と、
推定されたオブジェクト情報から、被介護者の行動状況を検出する工程と、
検出された行動状況から、被介護者の次の行動を予知する工程と、
検出された行動状況および予知された予知情報に基づいて、介護支援端末に状況画像を表示させる工程と、
を備えた、介護施設向け危険予知方法。 A computer-implemented method of hazard prediction for nursing homes, comprising:
a step of receiving a captured video from a user terminal;
a step of estimating the posture of the care-receiver from the received captured video;
a step of detecting the action status of the care recipient from the estimated object information;
a step of predicting the next action of the cared person from the detected action situation;
a step of displaying a situation image on a care support terminal based on the detected action situation and the predicted prediction information;
A danger prediction method for nursing homes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182349A JP2023070277A (en) | 2021-11-09 | 2021-11-09 | Risk prediction system for care facility, program, and risk prediction method for care facility |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182349A JP2023070277A (en) | 2021-11-09 | 2021-11-09 | Risk prediction system for care facility, program, and risk prediction method for care facility |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023070277A true JP2023070277A (en) | 2023-05-19 |
Family
ID=86331369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021182349A Pending JP2023070277A (en) | 2021-11-09 | 2021-11-09 | Risk prediction system for care facility, program, and risk prediction method for care facility |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023070277A (en) |
-
2021
- 2021-11-09 JP JP2021182349A patent/JP2023070277A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11688265B1 (en) | System and methods for safety, security, and well-being of individuals | |
EP3468180B1 (en) | Display control device, display control system, display control method, display control program, and recording medium | |
EP2390820A2 (en) | Monitoring Changes in Behaviour of a Human Subject | |
CN112842258A (en) | Methods, processors, and computer-readable media for event prevention and prediction | |
Zhang et al. | HONEY: a multimodality fall detection and telecare system | |
US10846538B2 (en) | Image recognition system and image recognition method to estimate occurrence of an event | |
CN109561855B (en) | Device, system and method for fall detection | |
JP7138619B2 (en) | Monitoring terminal and monitoring method | |
WO2019176222A1 (en) | Anomaly sensing system, anomaly sensing method, and anomaly sensing program | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JPWO2017183602A1 (en) | Monitored person monitoring system and monitored person monitoring method | |
Shoaib et al. | Altcare: Safe living for elderly people | |
US20240236277A1 (en) | Patient Room Real-Time Monitoring and Alert System | |
US11076778B1 (en) | Hospital bed state detection via camera | |
JP2023070277A (en) | Risk prediction system for care facility, program, and risk prediction method for care facility | |
JP2021174189A (en) | Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device | |
JP7268679B2 (en) | Control program, report output method, and report output device | |
JP6874838B2 (en) | Information processing equipment, control methods, and programs | |
JP7518699B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP7327396B2 (en) | Control program, report output method, and report output device | |
JP7487577B2 (en) | Computer-implemented method, program, information processing device, and monitoring system for allocating nursing staff | |
JPWO2019030880A1 (en) | Monitoring system, monitoring method, monitoring program, and recording medium thereof | |
JP7152795B2 (en) | Monitoring system for people requiring nursing care | |
EP4394725A1 (en) | Method and system for monitoring bedridden and bed-resting persons | |
Gaete et al. | Visitrack: A pervasive service for monitoring the social activity of older adults living at home |