JP2023109751A - system - Google Patents

system Download PDF

Info

Publication number
JP2023109751A
JP2023109751A JP2023068742A JP2023068742A JP2023109751A JP 2023109751 A JP2023109751 A JP 2023109751A JP 2023068742 A JP2023068742 A JP 2023068742A JP 2023068742 A JP2023068742 A JP 2023068742A JP 2023109751 A JP2023109751 A JP 2023109751A
Authority
JP
Japan
Prior art keywords
user
unit
risk
prediction unit
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023068742A
Other languages
Japanese (ja)
Inventor
宏暢 前澤
Hironobu Maesawa
純一 田村
Junichi Tamura
武 永易
Takeshi Nagayasu
真央 吉田
Mao Yoshida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2023068742A priority Critical patent/JP2023109751A/en
Publication of JP2023109751A publication Critical patent/JP2023109751A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a system capable of preventing overturn and fall in advance.SOLUTION: A control device 10, in a system in which the control device, a server device, a terminal device of a user or a staff, and a mobile terminal device are communicably connected via a network, comprises a posture obtaining unit 104 for obtaining a posture of the user, a motion obtaining unit 106 for obtaining information on a motion of the user, a biological information obtaining unit 108 for obtaining biological information of the user, a peripheral environment obtaining unit 102 that obtains at least one or more pieces of first information and environment information around the user among a disease information obtaining unit 110 that obtains disease information of the user, a prediction unit 112 that predicts a risk of overturn and fall of the user based on the obtained information, and a notification unit 140 that performs notification according to a prediction result of the prediction unit 112.SELECTED DRAWING: Figure 3

Description

本実施形態は、システム等に関する。 The present embodiment relates to a system and the like.

ベッド装置を利用する利用者に対して、様々な支援を行うシステムが提案されている。 Systems that provide various types of support to users using bed apparatuses have been proposed.

例えば、電動ベッドに取り付けられた柵を外側から撮影するカメラを設け、カメラによって、ベッド動作時の撮影画像と、予め柵の縦パイプによるエッジ及び柵の側面が写る位置を記録した基準画像とを用い、エッジの周辺画像と柵の側面画像とをそれぞれ抽出し、エッジの写るべき位置にエッジが検出されないデータ及び側面画像において障害物のエッジを検出したデータに基づきエラーとして画像処理し、エラー画像におけるエラー集中部分の値がしきい値を越えていたら障害物を挟み込む虞があるとしてベッドの動作を停止する発明が開示されている(例えば、特許文献1参照)。 For example, a camera is installed to photograph the fence attached to the electric bed from the outside, and the camera captures the image when the bed is in motion and a reference image that records the positions of the edge of the vertical pipe of the fence and the side of the fence in advance. Using this method, the peripheral image of the edge and the side image of the fence are respectively extracted, and based on the data in which the edge is not detected in the position where the edge should be captured and the data in which the edge of the obstacle is detected in the side image, image processing is performed as an error, and an error image is obtained. An invention has been disclosed in which, if the value of the error concentration portion in , exceeds a threshold value, the operation of the bed is stopped because there is a risk of an obstacle being caught (see, for example, Patent Document 1).

また、荷重測定用ピンセンサを備えた見守り用ベッドと、前記荷重測定用ピンセンサの出力を処理して生体信号を得る信号処理ユニットと、該信号処理ユニットの処理結果を表示する表示手段と、を備えた見守りシステムであって、前記信号処理ユニットが、生体信号を増幅する生体アンプと、測定対象の生体信号振幅に合わせて、該生体アンプ出力のオフセットとゲインを動的に制御する生体オフセット追従処理部とを含むことにより、既存のベッドにも容易に使用可能な荷重測定用ピンセンサを備えた見守り用ベッドを用いた見守りシステムを提供する発明が開示されている(例えば、特許文献2参照)。 The monitoring bed includes a load-measuring pin sensor, a signal processing unit that processes the output of the load-measuring pin sensor to obtain a biological signal, and display means for displaying the processing result of the signal processing unit. a monitoring system, wherein the signal processing unit includes a biological amplifier that amplifies a biological signal, and biological offset follow-up processing that dynamically controls the offset and gain of the output of the biological amplifier according to the biological signal amplitude to be measured. An invention is disclosed that provides a monitoring system using a monitoring bed equipped with a load measuring pin sensor that can be easily used in an existing bed by including a part (see, for example, Patent Document 2).

特開2008-167931号公報JP 2008-167931 A 特開2018-134372号公報JP 2018-134372 A

本実施形態は、利用者の転倒・転落を予め防ぐことが可能なシステム等を提供することである。 This embodiment is to provide a system or the like that can prevent a user from falling or falling.

本実施形態のシステムは、利用者の姿勢、利用者の動作に関する情報、利用者の生体情報、利用者の疾病情報のうち、少なくとも1つ以上の第1情報と利用者の周りの環境の情報を取得する取得部と、前記取得部により取得された情報により、利用者の転倒転落のリスクを予測する予測部と、前記予測部の予測結果に応じて報知を行う報知部と、を備える。 The system of this embodiment includes at least one or more first information among the posture of the user, information on the motion of the user, biometric information of the user, and disease information of the user, and information on the environment around the user. a prediction unit that predicts the user's risk of falling based on the information obtained by the acquisition unit; and a notification unit that provides notification according to the prediction result of the prediction unit.

本実施形態によれば、利用者の転倒・転落を予め防ぐことが可能なシステム等を提供することができるようになる。 According to this embodiment, it is possible to provide a system or the like that can prevent a user from overturning or falling.

第1実施形態におけるシステム全体を示す図である。It is a figure showing the whole system in a 1st embodiment. 第1実施形態におけるカメラの設置状況を説明するための図である。It is a figure for demonstrating the installation condition of the camera in 1st Embodiment. 第1実施形態における機能構成を説明するための図である。3 is a diagram for explaining a functional configuration in the first embodiment; FIG. 第1実施形態における周辺環境取得処理を説明するための図である。It is a figure for demonstrating the surrounding environment acquisition process in 1st Embodiment. 第1実施形態における姿勢推定処理を説明するための図である。FIG. 4 is a diagram for explaining posture estimation processing in the first embodiment; 第1実施形態における動作取得処理を説明するための図である。FIG. 7 is a diagram for explaining motion acquisition processing in the first embodiment; 第1実施形態における転倒転落予測処理を説明するための図である。FIG. 7 is a diagram for explaining overturn prediction processing in the first embodiment; 第1実施形態における対応実行処理を説明するための図である。It is a figure for demonstrating the correspondence execution process in 1st Embodiment. 第1実施形態における第1動作例を説明するための図である。It is a figure for demonstrating the 1st operation example in 1st Embodiment. 第1実施形態における第2動作例を説明するための図である。It is a figure for demonstrating the 2nd operation example in 1st Embodiment. 第1実施形態における第3動作例を説明するための図である。FIG. 11 is a diagram for explaining a third operation example in the first embodiment; 第1実施形態における第4動作例を説明するための図である。It is a figure for demonstrating the 4th operation example in 1st Embodiment. 第1実施形態における第5動作例を説明するための図である。It is a figure for demonstrating the 5th operation example in 1st Embodiment. 第1実施形態における第6動作例を説明するための図である。It is a figure for demonstrating the 6th operation example in 1st Embodiment. 第1実施形態における第7動作例を説明するための図である。It is a figure for demonstrating the 7th operation example in 1st Embodiment. 第2実施形態におけるシステム全体を示す図である。It is a figure which shows the whole system in 2nd Embodiment. 第2実施形態における機能構成を説明するための図である。It is a figure for demonstrating the functional structure in 2nd Embodiment.

以下、図面を参照して本開示のシステムを実施するための一つの形態について説明する。なお、本開示の内容は、実施を行うための形態の一例を示しているに過ぎず、開示されている数値や、構成に限定されず、当業者であれば想到することができる均等の範囲も含まれるものである。 One form for implementing the system of the present disclosure will be described below with reference to the drawings. It should be noted that the content of the present disclosure merely shows an example of the form for implementation, and is not limited to the numerical values and configurations disclosed, and is within the equivalent range that can be conceived by those skilled in the art. is also included.

[1.第1実施形態]
利用者の転倒や転落を防ぐために、様々な手法が提案されている。例えば、比較例のシステムは、ベッド装置の端部に配置されたセンサを含み、利用者が端座位を取ったことをセンサが検知して報知をする。その結果、利用者が離床をする可能性があることを、比較例のシステムが認識できる。また、比較例のシステムは、利用者がベッド装置から足を下した際に接触する床に設置されたセンサを含み、具体的に利用者がベッド装置を利用したか否か(例えば利用者が在床したことがあるか否か)を医療従事者やスタッフ、介助者等に通知するものである。
[1. First Embodiment]
Various techniques have been proposed to prevent users from falling or falling. For example, the system of the comparative example includes a sensor located at the edge of the bed apparatus, and the sensor detects and notifies that the user has taken the edge sitting position. As a result, the system of the comparative example can recognize that the user may leave the bed. In addition, the system of the comparative example includes a sensor installed on the floor that comes into contact when the user puts his/her foot down from the bed apparatus, and specifically determines whether the user has used the bed apparatus (for example, whether the user has whether or not the patient has been in bed) to medical staff, staff, caregivers, etc.

ここで、医療従事者やスタッフ、介助者等に報知するタイミングが遅いと、利用者がベッド装置から転落してしまう危険性がある。また、利用者がベッド装置から離床した後に、ベッド装置の周りの環境(例えば、車椅子や、靴が置かれている位置、サイドテーブルの配置等)により、利用者が転倒してしまうリスクが生じる場合がある。 Here, if the timing of notifying medical personnel, staff, caregivers, etc. is late, there is a risk that the user will fall from the bed apparatus. In addition, after the user leaves the bed system, there is a risk that the user will fall due to the environment around the bed system (e.g., the position of the wheelchair, the position of the shoes, the arrangement of the side table, etc.). Sometimes.

しかし、利用者がベッド装置から離床するタイミングよりも早いタイミングで比較例のシステムが通知してしまうと、医療従事者やスタッフ、介助者等に過度に(必要以上に)通知がなされてしまい、業務負担に繋がるという問題が生じる。また、利用者の身体状況や、周辺環境の違い等によって転倒・転落リスクの高さは異なる。そのため、比較例のシステムが報知条件を設定した後、この設定条件に応じた一律の基準でスタッフ等に通知をしてしまうと、スタッフ等が利用者の特性や周辺環境に応じた適切な対応をとることができなくなりえる。 However, if the system of the comparative example issues a notification at a timing earlier than the timing at which the user leaves the bed apparatus, excessive (unnecessary) notification is given to medical staff, staff, caregivers, etc. There is a problem that it leads to work burden. In addition, the degree of risk of overturning/falling differs depending on the physical condition of the user and the surrounding environment. Therefore, if the system of the comparative example sets the notification conditions and then notifies the staff according to the uniform criteria according to the set conditions, the staff will be able to respond appropriately according to the user's characteristics and the surrounding environment. can become incapable of taking

そこで、本実施形態の第1のシステムによれば、利用者の転倒・転落に繋がるリスクを予測し、適切なタイミングでの報知が可能なシステムを提供するものである。 Therefore, according to the first system of the present embodiment, it is possible to predict the risk of the user falling or falling, and to provide a system capable of notifying the user of the risk at an appropriate timing.

なお、本明細書における利用者とは、ベッド装置(マットレス)を利用する者をいい、病気で治療を受けるもの(例えば患者)に限られず、施設で介護を受ける者や、ベッド装置に在床する者(例えば仰臥する者)であれば、健常者であっても利用者となりえる。 It should be noted that the user in this specification refers to a person who uses the bed equipment (mattress), and is not limited to those who receive treatment for illness (for example, patients), but also to those who receive nursing care at facilities and those who are in bed equipment. A healthy person can be a user as long as he or she does (for example, a person lying on his or her back).

また、本明細書でスタッフ等とは、医療従事者、施設等のスタッフ、家庭等を含む利用者を介助する者をいう。 In this specification, the term "staff" refers to medical personnel, facility staff, and people who assist users, including those at home.

また、本明細書で障害物とは、利用者の転倒・転落に繋がる原因になるものをいう。例えば、ベッド装置5の近くに配置されたテーブル、ポール、車椅子といったものや、利用者の履物(靴やサンダル)、カーテン等居室内に含まれるものを障害物と表現する。 Further, in this specification, an obstacle means something that causes a user to fall or fall. For example, objects such as a table, poles, and wheelchairs placed near the bed device 5, user's footwear (shoes and sandals), curtains, and other objects included in the living room are expressed as obstacles.

また、ベッド装置5自体が、利用者の転倒・転落に繋がる原因である場合は、障害物となりうる。例えば、ベッド装置5のキャスタの向きや、ベッド装置5のキャスタがアンロック状態となっている場合には、ベッド装置5が障害物となりうる。 Further, if the bed device 5 itself causes the user to fall or fall, it can become an obstacle. For example, if the direction of the casters of the bed device 5 is in an unlocked state, the bed device 5 can become an obstacle.

また、本明細書で画像データとは、カメラ装置20により撮影された画像に基づくデータであり、静止画像、動画像、その他カメラ装置20にて撮影された画像全てを含むものである。 In this specification, image data is data based on images captured by the camera device 20 and includes still images, moving images, and all other images captured by the camera device 20 .

[1.1 全体説明]
[1.1.1 システム全体の説明]
図1(a)は、本実施形態におけるシステム1の概略を説明するための全体図である。システム1は、制御装置10と、サーバ装置50と、端末装置52と、携帯端末装置54を含む。制御装置10と、サーバ装置50と、端末装置52と、携帯端末装置54はネットワークNWを介して通信可能に接続される。また、居室Rは、病院における病室、施設・自宅における部屋等で、利用者Pが利用するベッド装置5が配置された居室である。
[1.1 Overall description]
[1.1.1 Description of the entire system]
FIG. 1(a) is an overall diagram for explaining the outline of the system 1 in this embodiment. The system 1 includes a control device 10 , a server device 50 , a terminal device 52 and a mobile terminal device 54 . The control device 10, the server device 50, the terminal device 52, and the mobile terminal device 54 are communicably connected via the network NW. The living room R is a room in a hospital, a room in a facility, a home, or the like, in which the bed device 5 used by the user P is arranged.

居室Rには、利用者Pが利用するベッド装置5が設置されている。ベッド装置5は、可動可能な背ボトム、腰ボトム、膝ボトム、足ボトム等(以下、これらを総称して「ボトム部」と呼ぶ)を1又は複数設けており、背上げ動作、足上げ動作を行うことができる。また、ベッド装置5は昇降機構を備えており、ベッド装置5におけるボトム部の高さ(床高)を変えることができる。なお、本明細書において、ベッド装置の床高とは、基準となるベッド装置5を載置している床からボトム部までの距離をいう。なお、ベッド装置の床高は、床からボトム部までの距離以外にも、床から上部のフレームの距離であってもよいし、床からマットレス上までの距離であってもよい。また、ベッド装置の床高は、基準となる位置を床ではなく、下部のフレームにしてもよい。 A bed device 5 used by a user P is installed in the living room R. The bed apparatus 5 is provided with one or a plurality of movable back bottoms, waist bottoms, knee bottoms, leg bottoms, etc. (hereinafter collectively referred to as "bottom parts"). It can be performed. Further, the bed device 5 has an elevating mechanism, and the height of the bottom portion (floor height) of the bed device 5 can be changed. In this specification, the floor height of the bed device means the distance from the floor on which the bed device 5 serving as a reference is placed to the bottom portion. The floor height of the bed apparatus may be the distance from the floor to the upper frame, or the distance from the floor to the top of the mattress, instead of the distance from the floor to the bottom. Further, the floor height of the bed apparatus may be determined by using the lower frame instead of the floor as a reference position.

さらに、ベッド装置5は、ベッド装置5全体を傾ける動作(チルト動作)を行うこともできる。ベッド装置5は、いずれの部分も可動できないベッド装置であってもよい。 Furthermore, the bed apparatus 5 can perform an operation (tilt operation) of tilting the entire bed apparatus 5 . The bed apparatus 5 may be a bed apparatus in which none of the parts are movable.

また、ベッド装置5は、頭側にヘッドボード、足側にフットボードを設置できる。さらに、ベッド装置5は、カメラ装置20を備えており、利用者P、周辺環境、居室Rの状態やスタッフ等を撮影している。カメラ装置20の設置方法については後述する。 Further, the bed apparatus 5 can be provided with a headboard on the head side and a footboard on the foot side. Further, the bed device 5 has a camera device 20, which photographs the user P, the surrounding environment, the state of the living room R, the staff, and the like. A method for installing the camera device 20 will be described later.

ここでいう「周辺環境」とは、ベッド装置5が設置されている周辺の範囲(例えば、ベッド装置5が設置されている位置から所定の距離に含まれる範囲や、居室Rが含まれる範囲、カメラ装置20が撮影できる範囲)の環境をいう。例えば、周辺環境として含まれるものは、ベッド装置5の周りに配置されているもの(例えば、床頭台、IVポール等)や、靴や車椅子といった移動可能なもの、部屋の明るさ、多床室の場合の他の利用者、スタッフ等の位置といったものが含まれる。 Here, the "surrounding environment" refers to a range around the bed apparatus 5 (for example, a range within a predetermined distance from the position where the bed apparatus 5 is installed, a range including the living room R, environment within which the camera device 20 can shoot). For example, the surrounding environment includes things arranged around the bed device 5 (for example, bed headboard, IV pole, etc.), movable things such as shoes and wheelchairs, brightness of the room, multiple beds, etc. In the case of a room, the location of other users, staff, etc. is included.

また、本明細書において「周辺」とは、カメラ装置20によって撮影可能な範囲をいう。例えば、カメラ装置20により、ベッド装置5が設置された居室の出入口や、居室の全範囲が撮影可能な場合、居室の出入口や、居室の全範囲も「周辺」に含まれる。 Also, in this specification, the term “periphery” refers to a range that can be photographed by the camera device 20 . For example, if the camera device 20 can photograph the doorway of the living room in which the bed device 5 is installed and the entire range of the living room, the doorway of the living room and the entire range of the living room are also included in the "periphery".

また、ベッド装置5の上には、センサ装置30が載置されている。センサ装置30は、ベッド装置5にいる利用者の体動を検出するセンサである。センサ装置30を利用することにより、制御装置10は、利用者の心拍、呼吸数と言った生体情報値が取得できたり、利用者の位置や重心、姿勢等を検出できたりする。 A sensor device 30 is placed on the bed device 5 . The sensor device 30 is a sensor that detects body movements of the user on the bed device 5 . By using the sensor device 30, the control device 10 can acquire biological information values such as the user's heartbeat and respiratory rate, and can detect the user's position, center of gravity, posture, and the like.

センサ装置30は、例えば、ベッド装置5の上にあるマットレスの上に載置されてもよいし、ベッド装置5のボトム部とマットレスとの間に載置されてもよい。また、センサ装置30が載置される位置は、ベッド装置5の上において、利用者の体動が検出できる位置に載置されればよい。このセンサ装置30が載置される位置は、好ましくは、利用者が横になったとき、利用者の背中に対応する位置である。 The sensor device 30 may be placed, for example, on a mattress on the bed device 5 or between the bottom part of the bed device 5 and the mattress. Moreover, the sensor device 30 may be placed on the bed device 5 at a position where the body movement of the user can be detected. The position where the sensor device 30 is placed is preferably a position corresponding to the user's back when the user lies down.

例えば、図1(b)に示すように、センサ装置30は、ベッド装置5のボトム部の上に載置されるマットレス7の上又は下に載置される。このとき、センサ装置30は、利用者Pの背中(胸部近傍)に位置するように頭側端部から距離M2離れた位置に載置される。例えば、M2は40cmである。 For example, as shown in FIG. 1B, the sensor device 30 is placed on or under the mattress 7 placed on the bottom portion of the bed device 5 . At this time, the sensor device 30 is placed at a position separated by a distance M2 from the head-side end so as to be positioned on the user's P back (in the vicinity of the chest). For example, M2 is 40 cm.

また、センサ装置30は、ベッド装置5の下(床とベッド装置5の間)に荷重センサを設けることで実現してもよいし、フレームやベッドを支えるモータに歪みゲージを設けて利用者の体動を検出してもよい。 Further, the sensor device 30 may be realized by providing a load sensor under the bed device 5 (between the floor and the bed device 5), or by providing a strain gauge on the frame or the motor supporting the bed so that the user can Body motion may be detected.

居室Rには、さまざまな物として備品が置かれている。例えば、図1(a)では、スタンド72、サイドテーブル73、車椅子74の備品が置かれている。また、備品以外にも、利用者Pの靴75がベッド装置5の横に置かれている。このように、居室Rにはさまざまな備品や物が置かれている。これらの物は、後述するように、システムは、カメラ装置20で備品、物の位置を把握してもよい。また、それぞれの備品にIoTユニット(通信モジュールを含む)をスタンド72、サイドテーブル73、車椅子74等の備品に内蔵することで、システムが、備品の位置を把握してもよい。 In living room R, fixtures are placed as various items. For example, in FIG. 1(a), fixtures such as a stand 72, a side table 73, and a wheelchair 74 are placed. In addition to the fixtures, user P's shoes 75 are placed beside the bed device 5 . In this manner, various fixtures and objects are placed in the living room R. As for these objects, the system may grasp the positions of fixtures and objects with the camera device 20, as will be described later. Also, by building an IoT unit (including a communication module) into each fixture such as the stand 72, the side table 73, and the wheelchair 74, the system may grasp the position of the fixture.

さらに病室には窓76が設けられている。窓76にはカーテンが取り付けられている。システムは、カメラ装置20や、IoTユニットを利用することで、カーテンが開いているか、閉まっているかの状態を把握してもよい。また、システムは、カメラ装置20や、IoTユニットを利用することで、多床室に設置されているカーテンが開いているか、閉まっているかの状態を把握してもよい。 Furthermore, a window 76 is provided in the hospital room. A curtain is attached to the window 76 . The system may grasp whether the curtain is open or closed by using the camera device 20 or the IoT unit. In addition, the system may use the camera device 20 or the IoT unit to grasp whether the curtains installed in the multi-floor room are open or closed.

制御装置10は、本システム全体を制御する装置である。本実施形態の、制御装置10は、タブレット型装置に設置されており、他の装置から各装置を制御してもよい。例えば、制御装置10は、センサ装置30が取得した心拍数や呼吸値といった生体情報値を、モニタに表示してもよい。 The control device 10 is a device that controls the entire system. The control device 10 of this embodiment is installed in a tablet device, and each device may be controlled from another device. For example, the control device 10 may display biological information values such as heart rate and respiration value acquired by the sensor device 30 on a monitor.

また、制御装置10は、他の装置とさらに接続されてもよい。例えば、制御装置10は、ベッド装置5を制御するベッド制御装置と接続してもよい。制御装置10は、ベッド装置5の状態を取得したり、ベッド装置5の制御(例えば、背上げ/背下げの制御)を行ったりすることができる。 Also, the control device 10 may be further connected to other devices. For example, controller 10 may be connected to a bed controller that controls bed apparatus 5 . The control device 10 can acquire the state of the bed apparatus 5 and control the bed apparatus 5 (for example, control of raising the back/lowering the back).

なお、制御装置10は、カメラ装置20と一体となって構成されてもよいし、カメラ装置20とは異なるベッド制御装置等に設けられてもよい。 Note that the control device 10 may be configured integrally with the camera device 20 or may be provided in a bed control device or the like different from the camera device 20 .

また、制御装置10は、居室Rではなく、他の場所にある装置で実現されてもよいし、利用者や、スタッフ等の端末装置(例えば、スマートフォン)にアプリケーションがインストールされることにより提供されてもよい。また、制御装置10で実現されている機能は、サーバ装置側で実現してもよい。 In addition, the control device 10 may be realized by a device located in another place instead of the living room R, or may be provided by installing an application in a terminal device (for example, a smartphone) of a user, staff, or the like. may Also, the functions implemented by the control device 10 may be implemented by the server device.

制御装置10は、ネットワークNWに接続可能に構成されている。制御装置10は、例えば、無線LANを介してアクセスポイント12に接続し、ネットワークNWに接続する。アクセスポイント12は、無線LANの基地局装置であり、IEEE802.11a/b/g/n等の無線通信が可能である。なお、制御装置10は、無線LANでなく、有線LANや、Bluetooth(登録商標)の近距離無線通信、LTE/5G等のその他の通信回線を利用して通信をしてもよい。 The control device 10 is configured to be connectable to the network NW. The control device 10 connects to the access point 12 via a wireless LAN, for example, and connects to the network NW. The access point 12 is a wireless LAN base station device, and is capable of wireless communication such as IEEE802.11a/b/g/n. Note that the control device 10 may communicate using a wired LAN, short-range wireless communication such as Bluetooth (registered trademark), or other communication lines such as LTE/5G instead of the wireless LAN.

サーバ装置50は、システムにおける必要な情報を管理するサーバである。サーバ装置50は、利用者の疾病に関する情報、投薬に関する情報、入院履歴、転倒履歴に関する情報といった種々の情報を管理している。端末装置52、携帯端末装置54はスタッフが利用する装置である。例えば、転倒・転落に繋がるリスクが発生した場合に、制御装置10は、端末装置52や、携帯端末装置54に報知を行ってもよい。 The server device 50 is a server that manages necessary information in the system. The server device 50 manages various types of information such as information on user's disease, information on medication, hospitalization history, and information on fall history. The terminal device 52 and the mobile terminal device 54 are devices used by the staff. For example, the control device 10 may notify the terminal device 52 or the mobile terminal device 54 when there is a risk of falling.

なお、サーバ装置50は、制御装置10が取得したデータを受信し、管理してもよい。例えば、サーバ装置50は、カメラ装置20が撮影した画像データを受信して、管理してもよい。サーバ装置50は、本システムを管理するサーバ装置に限られず、医療システム・病院システムを管理するサーバ装置、電子カルテサーバ装置、病院や施設がカスタマイズした管理サーバ装置が含まれるものである。 Note that the server device 50 may receive and manage the data acquired by the control device 10 . For example, the server device 50 may receive and manage image data captured by the camera device 20 . The server device 50 is not limited to a server device that manages this system, but includes a server device that manages a medical system/hospital system, an electronic chart server device, and a management server device customized by a hospital or facility.

[1.1.2 カメラ設置パターン]
図2は、カメラの設置パターンを説明するための図である。以下、5つのパターンについて説明する。なお、カメラ装置20は、予めベッド装置5のフレームや、ベッド装置5のボトムに内蔵・外付けしてもよい。また、カメラ装置20は、ベッド装置5に対して後から内蔵・外付けしてもよい。
[1.1.2 Camera installation pattern]
FIG. 2 is a diagram for explaining a camera installation pattern. The five patterns are described below. Note that the camera device 20 may be built in or externally attached to the frame of the bed device 5 or the bottom of the bed device 5 in advance. Further, the camera device 20 may be built in or externally attached to the bed device 5 later.

(第1パターン)
図2(a)に示すように、カメラ装置20は、ベッド装置5の周辺に設置する。具体的には、カメラ装置20は、ベッド装置5の頭側、足側、長手側(利用者右手側、利用者左手側)のフレームや、ボード、ベッドに取り付けられた柵・介助バー、その他柵穴やボードを利用した専用の取付器具に設置する。これにより、カメラ装置20は、ベッド装置5の外側周辺や利用者・スタッフ等を撮影することができる。例えば、カメラ装置20は、好ましくは120~230度の範囲で撮影できるものであってもよい。
(first pattern)
As shown in FIG. 2( a ), the camera device 20 is installed around the bed device 5 . Specifically, the camera device 20 can be mounted on the head side, the foot side, and the longitudinal side (user's right side, user's left side) of the bed device 5, a board, a fence/aid bar attached to the bed, and others. It is installed in a dedicated mounting device using a fence hole or a board. Thereby, the camera device 20 can photograph the outer periphery of the bed device 5, the user, the staff, and the like. For example, camera device 20 may preferably be capable of photographing in the range of 120-230 degrees.

なお、図2(a)では、カメラ装置20は、ボトム、ボードの中央に設置しているが、ベッド装置5の角部4箇所いずれかに設置してもよいし、ベッド装置5の角部4箇所それぞれに設置してもよいし、一辺に2つ以上、複数台設置してもよい。また、カメラ装置20は、画角が異なるものを組み合わせて設置してもよいし、場所を問わずに設置してもよい。カメラ装置20のレンズはベッド装置5の外側に向くように設置されている。 In FIG. 2A, the camera device 20 is installed at the bottom and the center of the board. It may be installed at each of the four locations, or two or more, or a plurality of units, may be installed on one side. Camera devices 20 having different angles of view may be installed in combination, or may be installed anywhere. A lens of the camera device 20 is installed so as to face the outside of the bed device 5 .

(第2パターン)
図2(b)に示すように、カメラ装置20は、ボードに設置する。具体的には、カメラ装置20は、ベッド装置5の足側のフットボード(又は頭側のヘッドボード)の中央に設置されることで、ベッド装置5の利用者全体が撮影できるようになる。カメラ装置20は、好ましくは60度~230度の範囲で撮影できるものであってもよい。また、カメラ装置20は、2つ以上、複数台設置されてもよいし、カメラ装置20の画角が異なるものが組み合わせて設置されてもよい。また、カメラ装置20は、利用者を含めたベッド装置の上が撮影できる範囲であれば、例えばフットボード(ヘッドボード)の右側よりや左側よりに設置する等、場所を問わずに設置してもよい。カメラ装置20のレンズはベッド装置5の内側に向くように設置されている。
(second pattern)
As shown in FIG. 2B, the camera device 20 is installed on a board. Specifically, the camera device 20 is installed in the center of the footboard (or the headboard) on the foot side of the bed device 5 so that the entire user of the bed device 5 can be photographed. Camera device 20 may preferably be capable of photographing in the range of 60 degrees to 230 degrees. In addition, two or more camera devices 20 may be installed, or a combination of camera devices 20 having different angles of view may be installed. In addition, the camera device 20 can be installed anywhere, for example, on the right side or left side of the footboard (headboard), as long as the top of the bed device including the user can be photographed. good too. The lens of the camera device 20 is installed so as to face the inside of the bed device 5. - 特許庁

(第3パターン)
図2(c)に示すように、カメラ装置20は、両側のボードに設置する。具体的には、カメラ装置20は、ベッド装置5のフットボード及びヘッドボードの中央に設置されることで、ベッド装置5の利用者全体が撮影できるようになる。その他の説明は、第2パターンと同様であり、詳細な説明は省略する。
(Third pattern)
As shown in FIG. 2(c), the camera devices 20 are installed on the boards on both sides. Specifically, the camera device 20 is installed in the center of the footboard and headboard of the bed device 5 so that the entire user of the bed device 5 can be photographed. Other descriptions are the same as those of the second pattern, and detailed descriptions are omitted.

(第4パターン)
カメラ装置20は、上述した第1パターンから第3パターンを組み合わせた状態で設置してもよい。図2(d)は、ヘッドボード及び/又はフットボードの端部にカメラ装置20を配置している状態を示している。例えば、カメラ装置20は、フットボードの端部近傍や、フットボードの上方に設けられている把持部近傍に設置している。このように、カメラ装置20は、利用者や、ベッド装置5の周辺が撮影できる場所の、何れかに配置されることとなる。
(4th pattern)
The camera device 20 may be installed in a state in which the first to third patterns described above are combined. FIG. 2(d) shows a state in which the camera device 20 is placed at the edge of the headboard and/or footboard. For example, the camera device 20 is installed near the end of the footboard or near the grip provided above the footboard. In this way, the camera device 20 is arranged at a place where the user or the surroundings of the bed device 5 can be photographed.

このように、カメラ装置20は、部屋に予めあるカメラ装置ではなく、1つのベッド装置5に対応するように設けられる。これにより、カメラ装置20は、ベッド装置5や、周辺の環境等にキャリブレーションを実行する必要がなく、利用者の利便性が向上する。また、ベッド装置5の利用者が変わったり、ベッド装置5を配置する居室が変わったりしても、ベッド装置5と、カメラ装置20が対応しているため、システムに保存されたデータの変更などは不要であり、利用者の利便性が向上する。 In this way, the camera device 20 is provided so as to correspond to one bed device 5 rather than a camera device already in the room. As a result, the camera device 20 does not need to be calibrated for the bed device 5, the surrounding environment, and the like, thereby improving convenience for the user. In addition, even if the user of the bed device 5 changes or the living room in which the bed device 5 is placed changes, the bed device 5 and the camera device 20 are compatible, so the data saved in the system can be changed. is not required, which improves user convenience.

(第5パターン)
上述したパターンでは、カメラ装置20はベッド装置5に設置することを例に説明したが、例えば、既に居室Rに設置されているカメラ装置20を利用することもできる。具体的には、すでに監視カメラ等が設置されている場合には、その画像を利用してもよい。この場合、ベッド装置の上の利用者Pが画角に入る位置のカメラ装置20を利用する。
(Fifth pattern)
In the above-described pattern, the camera device 20 is installed in the bed device 5 as an example, but the camera device 20 already installed in the living room R can also be used, for example. Specifically, if a monitoring camera or the like has already been installed, the image thereof may be used. In this case, the user P on the bed device uses the camera device 20 at a position within the angle of view.

[1.2 機能構成・処理の説明]
つづいて、本実施形態におけるシステム1において、制御装置10を中心とする機能構成について図3を参照して説明する。
[1.2 Description of functional configuration and processing]
Next, in the system 1 according to the present embodiment, a functional configuration centering on the control device 10 will be described with reference to FIG.

[1.2.1 制御部・記憶部]
制御装置10は、制御部100と、記憶部120と、表示部130と、操作部135と、報知部140と、通信部150とを備える。また、通信部150は、カメラ装置20と、センサ装置30と、ベッド制御装置40と、サーバ装置50、周辺装置60と接続可能である。
[1.2.1 Control unit/storage unit]
The control device 10 includes a control section 100 , a storage section 120 , a display section 130 , an operation section 135 , a notification section 140 and a communication section 150 . Also, the communication unit 150 can be connected to the camera device 20 , the sensor device 30 , the bed control device 40 , the server device 50 and the peripheral device 60 .

制御部100は、制御装置10の全体を制御する。制御部100は、記憶部120に記憶されている各種プログラムを読み出して実行することにより、各種機能を実現する1又は複数の演算装置(例えば、CPU(Central Processing Unit))である。 The control unit 100 controls the entire control device 10 . The control unit 100 is one or a plurality of arithmetic units (for example, a CPU (Central Processing Unit)) that implements various functions by reading and executing various programs stored in the storage unit 120 .

制御部100は、記憶部120が記憶しているプログラムを読み出して実行することにより、周辺環境取得部102と、姿勢取得部104と、動作取得部106と、生体情報取得部108と、疾病情報取得部110と、予測部112と、対応実行部114として機能する。 The control unit 100 reads out and executes a program stored in the storage unit 120 to obtain a peripheral environment acquisition unit 102, a posture acquisition unit 104, a motion acquisition unit 106, a biological information acquisition unit 108, and disease information. It functions as an acquisition unit 110 , a prediction unit 112 , and a correspondence execution unit 114 .

記憶部120は、制御装置10の動作に必要な各種プログラムや、各種データを記憶する。記憶部120は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。 The storage unit 120 stores various programs and data necessary for the operation of the control device 10 . The storage unit 120 is configured by, for example, a semiconductor memory such as an SSD (Solid State Drive) or an HDD (Hard Disk Drive).

また、記憶部120は、周辺環境記憶領域1202と、利用者情報を記憶する利用者情報記憶領域1204と、画像データ記憶領域1240との領域を含み、説明変数テーブル1220と、予測辞書DB1230とを記憶している。 The storage unit 120 also includes a surrounding environment storage area 1202, a user information storage area 1204 for storing user information, and an image data storage area 1240, and includes an explanatory variable table 1220 and a prediction dictionary DB 1230. I remember.

(1)周辺環境取得部(第1の取得部)
周辺環境取得部102は、カメラ装置20により撮影された画像データに基づいて、画像データに含まれる備品の中から障害物の取得、周囲の明るさ等のベッド装置5の周辺環境を取得する。周辺環境取得部102は、取得した周辺環境に基づいた特徴量を、周辺環境記憶領域1202に出力して記憶する。
(1) Surrounding Environment Acquisition Unit (First Acquisition Unit)
Based on the image data captured by the camera device 20, the surrounding environment acquisition unit 102 acquires the surrounding environment of the bed device 5, such as obstacles and surrounding brightness, from equipment included in the image data. The surrounding environment acquisition unit 102 outputs and stores the feature amount based on the acquired surrounding environment to the surrounding environment storage area 1202 .

周辺環境取得部102が実行する周辺環境取得処理について、図4(a)を参照して説明する。まず、周辺環境取得部102は、カメラ装置20から画像データを取得する(ステップS1002)。具体的には、制御装置10がカメラ装置20から定期的に画像データを受ける場合には、制御部100は受信した画像データを画像データ記憶領域1240に記憶する。この場合、周辺環境取得部102は、ステップS1002で画像データ記憶領域1240から画像データを読み出し、取得する。これに限定されることなく、例えば制御装置10がカメラ装置20を制御して画像データを受ける場合、周辺環境取得部102は、ステップS1002でカメラ装置20から画像データを直接取得してもよい。 The surrounding environment acquisition process executed by the surrounding environment acquisition unit 102 will be described with reference to FIG. 4(a). First, the surrounding environment acquisition unit 102 acquires image data from the camera device 20 (step S1002). Specifically, when the control device 10 periodically receives image data from the camera device 20 , the control section 100 stores the received image data in the image data storage area 1240 . In this case, the surrounding environment acquisition unit 102 reads and acquires the image data from the image data storage area 1240 in step S1002. Without being limited to this, for example, when the control device 10 controls the camera device 20 to receive image data, the surrounding environment acquisition unit 102 may directly acquire image data from the camera device 20 in step S1002.

周辺環境取得部102は、画像データに基づいてベッド装置5の状態を認識する(ステップS1004)。ここで、ベッド装置5の状態とは、ベッド装置5の少なくとも一部が可動であるとき、可動な部分の状況を意味する。なお、このとき、カメラ装置20は、図2における第2パターン又は第3パターンで設置されていることが好ましい。 The surrounding environment acquisition unit 102 recognizes the state of the bed apparatus 5 based on the image data (step S1004). Here, the state of the bed apparatus 5 means the state of the movable portion when at least a portion of the bed apparatus 5 is movable. At this time, it is preferable that the camera devices 20 are installed in the second pattern or the third pattern in FIG.

周辺環境取得部102が画像データを解析して、ベッド装置5のボトム部の高さ(床高)、背上げ角度、膝上げ角度、傾き角度(チルト角度)、背ボトムと膝ボトムが連動して動作するか否か等といった項目をベッド装置5の状態として認識する。例えば、周辺環境取得部102は、ベッド装置の床高が「20cm」、背上げ角度「20度」、膝上げ角度「10度」を第1の特徴量として出力する。 The surrounding environment acquisition unit 102 analyzes the image data and determines the height of the bottom portion of the bed apparatus 5 (floor height), the back lift angle, the knee lift angle, the inclination angle (tilt angle), and the interlocking of the back bottom and the knee bottom. It recognizes items such as whether or not the bed apparatus 5 operates as the state of the bed apparatus 5 . For example, the surrounding environment acquisition unit 102 outputs the floor height of the bed apparatus of "20 cm", the back-raising angle of "20 degrees", and the knee-raising angle of "10 degrees" as the first feature amounts.

また、周辺環境取得部102は、画像データを解析して障害物を認識する(ステップS1006)。周辺環境取得部102が、周辺環境として障害物を認識するとは、画像データに含まれている備品や物の中から、転倒・転落の原因となる可能性のあるものを障害物として認識する。そして、周辺環境取得部102は、障害物の種類、位置、向き、経路上にあるかどうか、大きさ、形状、動作の有無、ベッド装置5からの距離といったものを必要に応じて認識する。周辺環境取得部102は、認識した障害物に関する情報に基づいて、第1の特徴量として出力する。 The surrounding environment acquisition unit 102 also analyzes the image data and recognizes obstacles (step S1006). When the surrounding environment acquisition unit 102 recognizes an obstacle as the surrounding environment, it recognizes, as an obstacle, equipment or objects included in the image data that may cause a fall. Then, the surrounding environment acquiring unit 102 recognizes the type, position, orientation, presence or absence of the obstacle on the path, size, shape, presence/absence of movement, distance from the bed apparatus 5, etc., as necessary. The surrounding environment acquisition unit 102 outputs the first feature amount based on the information about the recognized obstacle.

例えば、周辺環境取得部102は、障害物の種類「車椅子」が、大きさ「56cm×100cm」、位置は「ベッド装置5の右側の30cm」であることを特徴量として出力する。 For example, the surrounding environment acquisition unit 102 outputs that the type of obstacle "wheelchair" has a size of "56 cm×100 cm" and a position of "30 cm on the right side of the bed apparatus 5" as feature amounts.

また、周辺環境取得部102は、ベッド装置5のキャスタの向きや、ロック状態をベッド装置の状態や、障害物として認識してもよい。周辺環境取得部102は、認識結果を特徴量として出力する。 The surrounding environment acquiring unit 102 may also recognize the orientation of the casters of the bed apparatus 5 and the locked state as the state of the bed apparatus and obstacles. The surrounding environment acquisition unit 102 outputs the recognition result as a feature amount.

さらに、周辺環境取得部102は、利用者の転倒転落に繋がるリスクが軽減される要因である軽減要因を認識する(ステップS1008)。軽減要因は、利用者の転倒転落に繋がるリスクが軽減する(離床や転倒転落の発生確率や重症化の確率が下がる)要因である。軽減要因としては、スタッフがいることや、側柵・杖・衝撃吸収マット等の転倒転落に繋がるリスクを軽減する設備があることである。周辺環境取得部102は、スタッフ等が認識したこと、側柵・杖・衝撃吸収マット等の転倒転落に繋がるリスクを軽減する設備を認識したことを、特徴量として出力する。 Furthermore, the surrounding environment acquisition unit 102 recognizes a mitigation factor that reduces the risk of the user falling down (step S1008). The mitigation factor is a factor that reduces the risk of the user falling down (the probability of getting out of bed or falling down, and the probability of aggravation). Mitigating factors include the presence of staff and equipment that reduces the risk of falling, such as side fences, canes, and shock-absorbing mats. The surrounding environment acquisition unit 102 outputs, as a feature quantity, what the staff and the like have recognized, and what equipment such as side fences, walking sticks, and shock absorbing mats have been recognized to reduce the risk of falling.

なお、周辺環境取得部102は、上述した説明では、カメラ装置20の画像データを認識して、周辺環境を取得しているが画像データ以外から周辺環境を取得してもよい。例えば、周辺環境取得部102は、ベッド制御装置40から、直接ベッド装置5の背上げ角度、膝上げ角度、床高等を取得して特徴量として出力してもよい。また、周辺環境取得部102は、障害物に設けられた周辺装置60と通信を行うことにより、障害物の種類、位置、大きさ等を取得してもよい。 In the above description, the surrounding environment acquisition unit 102 acquires the surrounding environment by recognizing the image data of the camera device 20, but may acquire the surrounding environment from other sources than the image data. For example, the surrounding environment acquiring unit 102 may directly acquire the back-raising angle, knee-raising angle, floor height, etc. of the bed device 5 from the bed control device 40 and output them as feature amounts. Further, the surrounding environment acquisition unit 102 may acquire the type, position, size, etc. of the obstacle by communicating with the peripheral device 60 provided on the obstacle.

また、周辺環境取得部102は、図4(a)のステップS1004~S1008を選択的に実行してもよい。例えば、3つのステップのうち1つだけを実行してもよいし、2つ実行してもよい。周辺環境取得部102は、任意の組み合わせで実行してよい。 Further, the surrounding environment acquisition unit 102 may selectively execute steps S1004 to S1008 in FIG. 4(a). For example, only one of the three steps may be performed, or two may be performed. The surrounding environment acquisition unit 102 may be executed in any combination.

図4(b)は、周辺環境記憶領域1202に記憶される周辺環境に関する第1の特徴量の一例を示す図である。例えば、周辺環境記憶領域1202は、ベッド装置5の状態の特徴量と、障害物に基づく特徴量と、軽減要因に基づく特徴量とを記憶する。 FIG. 4B is a diagram showing an example of the first feature amount related to the surrounding environment stored in the surrounding environment storage area 1202. As shown in FIG. For example, the surrounding environment storage area 1202 stores a feature amount of the state of the bed apparatus 5, a feature amount based on obstacles, and a feature amount based on mitigation factors.

周辺環境記憶領域1202は、ベッド装置5に関する特徴量として、床高、背上げ角度、膝上げ角度、足上げ角度、傾き角度(チルト角度)、背ボトムと膝ボトムが連動して動作するか否かといったものを記憶可能である。ベッド装置5の状態を認識するときに、周辺環境取得部102は、ベッド装置5と付随して利用するもの(例えば、エアマット)の状態も認識してもよい。また、周辺環境記憶領域1202は、その他にもベッド装置5の動作の状態について、特徴量として記憶してもよい。例えば、周辺環境記憶領域1202は、ベッド装置5の背ボトムと膝ボトムとが連動している場合は、フラグ「1」を特徴量として記憶したり、ベッド装置5においてローリング動作が行われている場合はフラグ「1」を特徴量として記憶したりしてもよい。 The surrounding environment storage area 1202 stores, as feature values related to the bed apparatus 5, floor height, back-raising angle, knee-raising angle, leg-raising angle, inclination angle (tilt angle), and whether or not the back bottom and the knee bottom are interlocked. and so on can be stored. When recognizing the state of the bed apparatus 5 , the surrounding environment acquiring unit 102 may also recognize the state of an accessory (for example, an air mattress) used with the bed apparatus 5 . In addition, the surrounding environment storage area 1202 may also store the operation state of the bed apparatus 5 as a feature amount. For example, the surrounding environment storage area 1202 stores a flag "1" as a feature amount when the back bottom and knee bottom of the bed device 5 are linked, or stores a rolling motion in the bed device 5. In this case, flag "1" may be stored as a feature amount.

また、周辺環境記憶領域1202は、障害物に関する特徴量として、障害物の種類、障害物の位置等を記憶する。周辺環境記憶領域1202は、障害物の位置を、ベッド装置5や、カメラ装置20からの距離を特徴量として記憶してもよいし、相対的な位置座標(例えば、居室Rを仮想空間としたXYZ座標)を記憶してもよい。また、周辺環境記憶領域1202は、障害物の種類である「車いす」「床頭台」等に対応したと特徴量を記憶してもよいし、障害物自体の大きさ(例えば、幅xcm、長さycm、高さzcm)を第1の特徴量として記憶してもよい。 In addition, the surrounding environment storage area 1202 stores the type of obstacle, the position of the obstacle, and the like as feature amounts related to obstacles. The surrounding environment storage area 1202 may store the position of an obstacle as a feature amount from the bed device 5 or the distance from the camera device 20, or may store relative position coordinates (for example, the living room R as a virtual space). XYZ coordinates) may be stored. In addition, the surrounding environment storage area 1202 may store a feature amount corresponding to the types of obstacles such as “wheelchair” and “floor stand”, or may store the size of the obstacle itself (for example, width x cm, length y cm, height z cm) may be stored as the first feature quantity.

また、周辺環境記憶領域1202は、第1の特徴量を、利用者のIDや時刻に対応付けて利用者情報記憶領域1204に記憶してもよい。 Further, the surrounding environment storage area 1202 may store the first feature amount in the user information storage area 1204 in association with the user's ID and time.

(2)姿勢取得部(第2の取得部)
姿勢取得部104は、カメラ装置20により撮影された画像データから、利用者の姿勢を取得し、特徴量を出力する。ここで、利用者の姿勢とは、利用者の身体の構え方のこといい、画像データに基づいて推定される。また、姿勢取得部104は、推定する姿勢には、利用者の身体の構え方だけでなく、例えば利用者の位置(離床しているか)や、場所(端座位であるか)を取得してもよい。また、「姿勢を取得する」とは、後述するように、利用者の特徴点に基づいて姿勢を特定することをいうが、一部の特徴点に基づいて利用者の姿勢を推定する概念も含むものである。
(2) Posture Acquisition Unit (Second Acquisition Unit)
The posture acquisition unit 104 acquires the posture of the user from the image data captured by the camera device 20, and outputs a feature amount. Here, the posture of the user means the way the user holds the body, and is estimated based on the image data. In addition, the posture acquisition unit 104 acquires, for example, the position of the user (whether the user is out of bed) or the location (whether the user is sitting on the edge), in addition to the posture of the user. good too. As will be described later, "acquiring the posture" means specifying the posture based on the feature points of the user, but the concept of estimating the posture of the user based on some feature points is also used. includes.

また、姿勢取得部104は、取得した利用者の姿勢について、取得時刻とともに利用者に対応づけて利用者情報記憶領域1204に記憶してもよい。 Further, the posture acquisition unit 104 may store the acquired posture of the user in the user information storage area 1204 in association with the user together with the acquisition time.

そして、姿勢取得部104は、取得した姿勢に基づいて特徴量を出力する。特徴量は、端座位であれば「1」、仰臥位であれば「2」、それ以外は「0」といった姿勢毎の特徴量であってもよいし、利用者の向きの角度(例えば、「右に10度」)や、頭の位置(例えば、鉛直方向に対して「+5度」)、利用者の身体の構え方(例えば、「右手を挙げている角度」等)であってもよい。また、姿勢取得部104は、全ての姿勢や、身体の構え方を属性とし、該当すれば「1」を特徴量として出力してもよい。 Then, posture acquisition section 104 outputs a feature amount based on the acquired posture. The feature amount may be a feature amount for each posture, such as "1" for the sitting position, "2" for the supine position, and "0" for other positions. "10 degrees to the right"), the position of the head (e.g. "+5 degrees" to the vertical direction), the way the user holds the body (e.g. "the angle at which the right hand is raised", etc.) good. Also, the posture acquisition unit 104 may set all postures and postures of the body as attributes, and may output “1” as a feature amount if applicable.

姿勢取得部104は、取得した利用者の姿勢に基づく第2の特徴量を、利用者毎に対応付けて利用者情報記憶領域1204に記憶する。 The posture acquisition unit 104 stores the acquired second feature amount based on the posture of the user in the user information storage area 1204 in association with each user.

姿勢取得部104が実行する姿勢取得処理について、図5(a)を参照して説明する。まず、姿勢取得部104は、画像データを取得する(ステップS1102)。姿勢取得部104が画像データを取得するのは、周辺環境取得部102が画像データを取得するのと同じ方法が利用できる。 Posture acquisition processing executed by the posture acquisition unit 104 will be described with reference to FIG. First, the posture acquisition unit 104 acquires image data (step S1102). The posture acquisition unit 104 acquires image data using the same method as that used by the surrounding environment acquisition unit 102 to acquire image data.

姿勢取得部104は、取得された画像データから、利用者の骨格パーツを特徴点として認識する(ステップS1104)。例えば、姿勢取得部104は、パターン画像認識により、利用者の肩の位置、顔の位置、手の位置、足の位置を認識したり、膝関節、肘関節といった関節の位置も認識したりする。 The posture acquisition unit 104 recognizes the skeletal parts of the user as feature points from the acquired image data (step S1104). For example, the posture acquisition unit 104 recognizes the positions of the user's shoulders, face, hands, and feet, and also recognizes the positions of joints such as knee joints and elbow joints, through pattern image recognition. .

図5(b)は、利用者の骨格パーツを模式的に示した図である。例えば、姿勢取得部104は、撮影された利用者の骨格パーツをパターン画像解析により認識し、利用者の特徴点をそれぞれ認識する。そして、姿勢取得部104は、認識した人体の特徴点をそれぞれ結んだ線を検出することで、利用者の骨格が認識できる。 FIG. 5(b) is a diagram schematically showing the skeletal parts of the user. For example, the posture acquisition unit 104 recognizes the photographed skeletal parts of the user by pattern image analysis, and recognizes the feature points of the user. The posture acquisition unit 104 can recognize the skeleton of the user by detecting lines connecting the recognized feature points of the human body.

姿勢取得部104は、この特徴点を利用することにより、利用者の大きさ、利用者の身体の向き(体の向き、顔の向き、視線の向きも含む)、利用者の身体の構え方といった姿勢を取得する(ステップS1106)。この利用者の姿勢の取得は、例えば、特徴点を座標回帰分析することにより、姿勢を取得してもよいし、機械学習の結果を利用して姿勢を取得してもよい。そして、姿勢取得部104は、取得した姿勢に基づいて、第2の特徴量を出力する。 The posture acquisition unit 104 uses the feature points to determine the size of the user, the direction of the user's body (including the direction of the body, the direction of the face, and the direction of the line of sight), and the way the user holds the body. posture is obtained (step S1106). The posture of the user may be acquired by, for example, performing coordinate regression analysis on the feature points, or by using the result of machine learning. Posture acquisition section 104 then outputs a second feature amount based on the acquired posture.

なお、姿勢取得部104は、撮影された画像データから特徴点を認識して利用者の姿勢を取得することとして説明したが、例えばニューラルネットワークを利用することで、画像データから直接利用者の姿勢を取得してもよい。 Although the posture acquisition unit 104 has been described as acquiring the user's posture by recognizing feature points from captured image data, for example, by using a neural network, the user's posture can be obtained directly from the image data. may be obtained.

また、それ以外の利用者の姿勢等を取得する方法を利用してもよい。例えば特開2008-206869号公報(発明の名称:ベッドにおける使用者の状態検知システム、出願日:平成19年11月13日)に記載の使用者の状態検知方法、特開2009-118980号公報(発明の名称:寝台装置、出願日:平成19年2月27日)に記載の利用者の位置の検知方法を援用できる。この特許出願は援用によりその全体が組み込まれる。 Also, other methods of acquiring the posture of the user may be used. For example, the user state detection method described in Japanese Patent Application Laid-Open No. 2008-206869 (title of the invention: user state detection system in bed, filing date: November 13, 2007), Japanese Patent Application Laid-Open No. 2009-118980 (Title of invention: bed device, filing date: February 27, 2007) can be used. This patent application is incorporated by reference in its entirety.

なお、上述した姿勢取得部104は、カメラ装置20で撮影された画像データに基づいて利用者の姿勢に基づく特徴量を出力すると説明した。しかし、それ以外にも、姿勢取得部104は、例えばセンサ装置30を利用することにより、利用者の姿勢を取得し、特徴量を出力してもよい。 It has been described that the posture acquisition unit 104 described above outputs the feature amount based on the user's posture based on the image data captured by the camera device 20 . However, in addition to this, the posture acquisition unit 104 may acquire the posture of the user by using the sensor device 30, for example, and output the feature amount.

また、姿勢取得部104は、画像データを解析することにより、利用者の顔から表情を取得してもよい。姿勢取得部104は、顔の表情を取得した場合は、第2の特徴量として出力する。 Also, the posture acquisition unit 104 may acquire the facial expression from the user's face by analyzing the image data. When the facial expression is acquired, the posture acquisition unit 104 outputs it as a second feature amount.

(3)動作取得部(第3の取得部)
動作取得部106は、カメラ装置20又はセンサ装置30において取得された情報(センサ情報)に基づいて、利用者の動作を取得し、利用者の動作に基づく第3の特徴量を出力する。ここで、利用者の動作とは、利用者の身体の動きのことをいう。例えば、利用者の動作としては、利用者が動いた量、利用者の手や足の動き、重心位置、ふらつき、歩容、挙動、寝返り等をいう。また、利用者の動作として、立ち上がりといった動作だけでなく、立ち上がりの速さ、歩く速さ、方向転換の向き、方向転換に係る時間といったものも含まれる。動作取得部106は、取得された利用者の動作を、利用者情報記憶領域1204に利用者毎に時系列に記憶してもよい。
(3) Motion Acquisition Unit (Third Acquisition Unit)
The motion acquisition unit 106 acquires a user's motion based on information (sensor information) acquired by the camera device 20 or the sensor device 30, and outputs a third feature amount based on the user's motion. Here, the motion of the user means the movement of the user's body. For example, the motion of the user includes the amount of movement of the user, the movement of the user's hands and feet, the position of the center of gravity, the sway, the gait, the behavior, and turning over. In addition, the motion of the user includes not only the motion of standing up, but also the speed of standing up, the speed of walking, the direction of direction change, and the time required for direction change. The motion acquisition unit 106 may store the acquired motions of the user in the user information storage area 1204 in chronological order for each user.

動作取得部106が実行する動作取得処理について、図6を参照して説明する。まず、動作取得部106は、カメラ装置20又はセンサ装置30からセンサ情報を取得する(ステップS1102、ステップS1104)。センサ装置30が出力するセンサ情報は、例えば、振動データである。動作取得部106は、振動データ又は画像データを解析することにより、利用者の動作を取得することができる(ステップS1106)。 A motion acquisition process executed by the motion acquisition unit 106 will be described with reference to FIG. First, the motion acquisition unit 106 acquires sensor information from the camera device 20 or the sensor device 30 (steps S1102 and S1104). The sensor information output by the sensor device 30 is, for example, vibration data. The motion acquisition unit 106 can acquire the user's motion by analyzing the vibration data or the image data (step S1106).

ここで、動作取得部106がカメラ装置20から取得する情報としては、画像データである。動作取得部106は、画像データより利用者の骨格を時系列的に推定し、その重心位置、ふらつき、歩容、挙動といった利用者の動作を取得する。また、動作取得部106が、利用者の動作を取得するために、センサ装置30から取得する情報としては、例えばベッド上の荷重変化量や、重心データ、空気圧の振動データ(利用者のバイタルデータである体動データ、心拍データ、呼吸データを含む)等である。すなわち、動作取得部106は、センサ装置30から取得された情報に基づいて、利用者の動作を取得することができる。 Here, the information that the motion acquisition unit 106 acquires from the camera device 20 is image data. The motion acquisition unit 106 estimates the user's skeleton from the image data in time series, and acquires the user's motion such as the position of the center of gravity, sway, gait, and behavior. Information that the motion acquisition unit 106 acquires from the sensor device 30 in order to acquire the user's motion includes, for example, the amount of change in the load on the bed, center-of-gravity data, and air pressure vibration data (user's vital data). (including body motion data, heart rate data, and respiration data). That is, the motion acquisition unit 106 can acquire the user's motion based on the information acquired from the sensor device 30 .

そして、動作取得部106は、取得された動作に基づく特徴量を第3の特徴量として出力し、利用者情報記憶領域1204に記憶する。ここで、動作に基づく第3の特徴量として記憶されるものは、例えば以下の通りである。 The motion acquisition unit 106 then outputs the feature amount based on the acquired motion as the third feature amount, and stores it in the user information storage area 1204 . Here, what is stored as the third feature amount based on the motion is, for example, as follows.

・利用者の体動が大きいことが取得された場合に特徴量として「1」を記憶する。
・利用者(又は利用者の体の一部)が所定の距離以上の移動したことを取得した場合に特徴量として「1」を記憶する。
・荷重変化が閾値以上あったことが取得された場合に特徴量として「1」を出力する。また、荷重変化の数値を特徴量として記憶する。
・寝返りの回数を特徴量として記憶する。
- When it is acquired that the user's body movement is large, "1" is stored as the feature amount.
- When it is acquired that the user (or part of the user's body) has moved a predetermined distance or more, "1" is stored as a feature amount.
- Output "1" as a feature amount when it is acquired that the load change is greater than or equal to the threshold. Also, the numerical value of the load change is stored as a feature amount.
- The number of rollovers is stored as a feature amount.

なお、動作取得部106は、とくに利用者の動作に変化がなかった場合は、変化がなかったことを特徴量として利用者情報記憶領域1204に記憶してもよい。すなわち、動作取得部106は、定期的に(例えば、1秒間、5秒間、1分間、5分間毎等)に、利用者の動作を取得し、動作に基づく第3の特徴量を利用者情報記憶領域1204に記憶してもよい。 In addition, especially when there is no change in the user's action, the action acquisition unit 106 may store the fact that there is no change in the user information storage area 1204 as a feature amount. That is, the motion acquisition unit 106 periodically (for example, every 1 second, 5 seconds, 1 minute, 5 minutes, etc.) acquires the motion of the user, and uses the third feature value based on the motion as the user information. It may be stored in storage area 1204 .

(4)生体情報取得部(第4の取得部)
生体情報取得部108は、センサ装置30において取得された情報に基づいて、生体情報を取得する。例えば、生体情報取得部108が、生体情報取得処理を実行することにより、センサ装置30から受信した体動に基づいて呼吸波形や、心拍波形を算出する。そして、生体情報取得部108は、算出された呼吸波形から呼吸数を、心拍波形から心拍数をそれぞれ生体情報の値として取得する。生体情報取得部108は、生体情報値に基づいて第4の特徴量を算出し、出力する。
(4) Biometric information acquisition unit (fourth acquisition unit)
The biometric information acquisition unit 108 acquires biometric information based on the information acquired by the sensor device 30 . For example, the biological information acquisition unit 108 executes the biological information acquisition process to calculate a respiratory waveform and a heartbeat waveform based on the body motion received from the sensor device 30 . Then, the biological information acquiring unit 108 acquires the respiratory rate from the calculated respiratory waveform and the heart rate from the calculated heartbeat waveform as biological information values. The biometric information acquisition unit 108 calculates and outputs a fourth feature amount based on the biometric information value.

なお、これらの呼吸数、心拍数等の生体情報を取得する方法としては、例えば特開2016-30177号公報(発明の名称:呼吸障害判定装置、呼吸障害判定方法及びプログラム、出願日:平成26年7月30日)に記載の方法を援用できる。また、それ以外の公知の技術を利用してもよい。 In addition, as a method for acquiring biological information such as these respiratory rate and heart rate, for example, Japanese Patent Application Laid-Open No. 2016-30177 (title of the invention: respiratory disorder determination device, respiratory disorder determination method and program, filing date: Heisei 26 July 30, 2003) can be used. Moreover, you may utilize well-known technique other than that.

また、生体情報取得部108は、呼吸数、心拍数以外にも体温、血圧、経皮的動脈血酸素飽和度(SpO2)等の生体情報の値も取得可能である。また、生体情報取得部108は、センサ装置30によって連続的に取得可能な生体情報(例えば、脈拍値、呼吸数)を取得してもよいし、血圧計によって測定される血圧や、体温計によって測定される体温といった外部装置等によって離散的に(スポット的に)取得可能な生体情報のいずれを取得してもよい。 In addition to the respiratory rate and heart rate, the biological information acquisition unit 108 can also acquire biological information values such as body temperature, blood pressure, and percutaneous arterial oxygen saturation (SpO2). In addition, the biological information acquisition unit 108 may acquire biological information (for example, pulse value and respiratory rate) that can be continuously acquired by the sensor device 30, blood pressure measured by a sphygmomanometer, and blood pressure measured by a thermometer. Any biological information that can be obtained discretely (spotwise) by an external device or the like, such as body temperature, may be obtained.

生体情報取得部108は、生体情報値をそのまま第4の特徴量として、利用者毎に利用者情報記憶領域1204に記憶してもよい。また、生体情報取得部108は、例えば生体情報値が正常レベル、注意レベル、警告レベルにあることを取得し、レベルに応じて第4の特徴量を出力してもよい。 The biometric information acquisition unit 108 may store the biometric information value as it is as the fourth feature amount in the user information storage area 1204 for each user. Also, the biometric information acquisition unit 108 may acquire that the biometric information value is at the normal level, the caution level, or the warning level, for example, and output the fourth feature quantity according to the level.

また、生体情報取得部108は、生体情報に基づいて取得できる利用者に関する情報を取得してもよい。例えば、生体情報取得部108は、利用者の睡眠状態/覚醒状態を取得したり、さらに睡眠状態としてレム睡眠、ノンレム睡眠を取得したりしてもよい。そして、生体情報取得部108は、利用者が睡眠状態のときは、睡眠の特徴量は「1」、利用者が覚醒状態のときは、睡眠の特徴量は「0」を出力してもよい。 Also, the biometric information acquisition unit 108 may acquire information about the user that can be acquired based on the biometric information. For example, the biological information acquisition unit 108 may acquire the sleep state/awakening state of the user, and further acquire REM sleep and non-REM sleep as sleep states. When the user is in a sleeping state, the biological information acquisition unit 108 may output "1" as the sleep feature amount, and may output "0" as the sleep feature amount when the user is in the wakeful state. .

これらの利用者の睡眠の状態を判定する方法としては、例えば特開2010-264193号公報(発明の名称:睡眠状態判定装置、プログラム及び睡眠状態判定システム、出願日:平成21年5月18日)、特開2014-229118号公報(発明の名称:睡眠状態判定装置、睡眠状態判定方法及びプログラム、出願日:平成26年11月11日)に記載の方法を援用できる。この特許出願は援用によりその全体が組み込まれる。また、他の公知の方法を利用して利用者の睡眠/覚醒の状態を取得してもよい。 As a method for determining the sleep state of these users, for example, Japanese Unexamined Patent Application Publication No. 2010-264193 (title of the invention: sleep state determination device, program and sleep state determination system, filing date: May 18, 2009 ), the method described in JP-A-2014-229118 (title of the invention: sleep state determination device, sleep state determination method and program, filing date: November 11, 2014) can be used. This patent application is incorporated by reference in its entirety. Alternatively, other known methods may be used to obtain the sleep/wake state of the user.

また、生体情報取得部108は、カメラ装置20から利用者の生体情報を取得してもよい。生体情報取得部108が取得できる生体情報としては、例えば利用者の表情や目線、体の動き(例えば、睡眠中にむずむず脚症候群を発症している等)を取得することが可能である。また、生体情報取得部108は、画像データを画像解析することにより、体動を検出し、呼吸、心拍を取得することも可能である。また、生体情報取得部108は、カメラ装置20に熱赤外線カメラ装置を利用することにより、体温を取得可能である。 Also, the biometric information acquisition unit 108 may acquire the biometric information of the user from the camera device 20 . As biometric information that the biometric information acquisition unit 108 can acquire, for example, it is possible to acquire the user's facial expression, line of sight, and body movement (for example, restless leg syndrome during sleep). In addition, the biological information acquiring unit 108 can also detect body movement and acquire respiration and heartbeat by performing image analysis on image data. Also, the biometric information acquisition unit 108 can acquire body temperature by using a thermal infrared camera device as the camera device 20 .

(5)疾病情報取得部(第5の取得部)
疾病情報取得部110は、利用者の疾病に関する情報(疾病情報)を取得する。例えば、疾病情報取得部110が、疾病情報取得処理を実行すると、サーバ装置50に接続して、電子カルテDB502にアクセスする。そして、疾病情報取得部110は、利用者の疾病に関する情報を取得する。ここで、疾病情報には、利用者の疾病に関連する情報を広義に含み、単なる病状だけでなく、投薬に関する情報、施術に関する情報、手術に関する情報、入院履歴といった情報や、手足の麻痺がある、食事における注意事項、補助具の使用有無、利用者に関する注意事項といった情報が含まれている。
(5) Disease information acquisition unit (fifth acquisition unit)
The disease information acquisition unit 110 acquires information (disease information) about a user's disease. For example, when the disease information acquisition unit 110 executes the disease information acquisition process, it connects to the server device 50 and accesses the electronic medical record DB 502 . Then, the disease information acquisition unit 110 acquires information about the user's disease. Here, the disease information broadly includes information related to the user's disease, and includes not only simple medical conditions, but also information on medication, information on treatment, information on surgery, information on hospitalization history, and limb paralysis. , precautions for meals, whether or not to use assistive devices, and precautions for users.

疾病情報取得部110は、疾病情報に基づいた第5の特徴量を利用者情報記憶領域1204に記憶する。第5の特徴量は、例えば疾病歴、入院歴に基づいた特徴量であってもよい。例えば、疾病情報取得部110は、入院日数を第5の特徴量として出力してもよい。また、疾病情報取得部110は、特定の疾病に該当する場合は「1」を第5の特徴量として出力してもよいし、利用者の血圧の値や、血糖値に基づいて第5の特徴量を算出し、出力してもよい。 The disease information acquisition unit 110 stores the fifth feature amount based on the disease information in the user information storage area 1204 . The fifth feature amount may be, for example, a feature amount based on a history of illness or history of hospitalization. For example, the disease information acquisition unit 110 may output the number of days of hospitalization as the fifth feature amount. In addition, the disease information acquisition unit 110 may output “1” as the fifth feature value if the disease corresponds to a specific disease, or may output the fifth feature value based on the user's blood pressure value or blood sugar level. A feature amount may be calculated and output.

(6)予測部
予測部112は、利用者の転倒転落の危険性や転倒転落の危険性がある時刻を予測する。予測部112は、上述した特徴量に基づいて転倒・転落に繋がるリスクを確率として出力したり、レベルとして出力したりする。また、予測部112は、特徴量に基づいて、転倒・転落の危険性がある時刻や、時間を予測する。
(6) Predicting Unit The predicting unit 112 predicts the risk of falling of the user and the time when there is a risk of falling. The prediction unit 112 outputs the risk leading to overturning/falling as a probability or as a level, based on the feature amount described above. Also, the prediction unit 112 predicts the time and duration when there is a risk of falling or falling based on the feature quantity.

また、予測部112は、さらに上述した特徴量から説明変数を算出し、説明変数に基づいて転倒転落の危険性等の予測を行ってもよい。すなわち、予測部112は、複数の特徴量の中から1又は複数の特徴量を選択し、説明変数を算出する。そして、予測部112は、上述した第1の特徴量から第5の特徴量から算出した第1説明変数から第5説明変数を利用することにより、転倒・転落に繋がるかの予測を行う。かかる第1説明変数から第5説明変数の詳細な説明は後述する。 Further, the prediction unit 112 may further calculate an explanatory variable from the feature amount described above, and predict the risk of falling down based on the explanatory variable. That is, the prediction unit 112 selects one or a plurality of feature amounts from among the plurality of feature amounts, and calculates explanatory variables. Then, the prediction unit 112 uses the first to fifth explanatory variables calculated from the first to fifth feature amounts described above to predict whether or not the person will fall. A detailed description of the first to fifth explanatory variables will be given later.

予測部112は、転倒・転落の危険性や確率を数値で出力してもよいし、レベルで出力してもよい。また、予測部112は、第1の特徴量から第5の特徴量又は第1説明変数から第5説明変数のうち、必要なものを選択して転倒転落を予測する処理に利用してもよいし、重み付けをおこなって利用してもよい。また、予測部112は、特徴量と説明変数とを組み合わせて利用してもよい。すなわち、予測部112は、特徴量及び/又は説明変数から、転倒・転落に繋がるリスクを予測結果として出力する。 The prediction unit 112 may output the risk or probability of falling/falling as a numerical value or as a level. Further, the prediction unit 112 may select a necessary one from the first to fifth feature amounts or the first to fifth explanatory variables and use it for the process of predicting a fall. may be used after weighting. Also, the prediction unit 112 may use a combination of feature amounts and explanatory variables. That is, the prediction unit 112 outputs the risk leading to overturning/falling as a prediction result from the feature amount and/or explanatory variables.

予測部112が実行する予測処理について、図7を参照して説明する。まず、予測部112は、図4(a)の周辺環境取得処理を実行し、第1の特徴量を取得する(ステップS1202)。そして、予測部112は、第1の特徴量に基づいて、第1説明変数を算出する(ステップS1204)。ここで、第1説明変数は、評価対象の利用者が、ベッド装置5の周辺環境に基づいて転倒転落する可能性がどれほどあるかを示す変数である。第1説明変数は、周辺環境取得処理から出力される特徴量の中から必要に応じた特徴量がそのまま含まれたものであってもよいし、行列であってもよい。また、第1説明変数は、特徴量ごとに点数化したものに総和(ないし積算)をとり数値化したものであってもよい。 A prediction process executed by the prediction unit 112 will be described with reference to FIG. First, the prediction unit 112 executes the surrounding environment acquisition process in FIG. 4A to acquire a first feature amount (step S1202). Then, the prediction unit 112 calculates a first explanatory variable based on the first feature amount (step S1204). Here, the first explanatory variable is a variable that indicates how likely the user to be evaluated falls over based on the surrounding environment of the bed apparatus 5 . The first explanatory variable may directly include a feature amount according to need from among the feature amounts output from the surrounding environment acquisition process, or may be a matrix. Also, the first explanatory variable may be a numerical value obtained by summing (or integrating) points scored for each feature amount.

例えば、周辺環境取得部102が、ベッド装置5の床高や、ベッド姿勢、障害物の有無、障害物の形状、障害物の動作有無、障害物の大きさ、障害物が経路上に有るか無いか、障害物の距離、光は十分に明るいか、音は静かか、といった属性に基づいて特徴量を算出する。予測部112は、特徴量を1又は複数選択し、所定の重みづけの係数を乗じて総和をとり第1説明変数とする(ステップS1204)。予測部112は、第1説明変数を、説明変数テーブル1220に記憶する。 For example, the surrounding environment acquisition unit 102 obtains the floor height of the bed device 5, the bed posture, the presence or absence of an obstacle, the shape of the obstacle, the presence or absence of movement of the obstacle, the size of the obstacle, and whether the obstacle is on the route. Feature values are calculated based on attributes such as presence, distance of obstacles, whether the light is sufficiently bright, and whether the sound is quiet. The prediction unit 112 selects one or a plurality of feature quantities, multiplies them by predetermined weighting coefficients, sums them, and sets them as first explanatory variables (step S1204). The prediction unit 112 stores the first explanatory variable in the explanatory variable table 1220 .

次に、予測部112は、図5(a)の姿勢取得処理を実行し、第2の特徴量を取得する(ステップS1206)。予測部112は第2の特徴量に基づいて、第2説明変数を算出する(ステップS1208)。ここで、第2説明変数は、評価対象の利用者が、利用者の姿勢に基づいて転倒転落する可能性がどれほどあるかを示す変数である。第2説明変数は、姿勢取得処理から出力される特徴量の中から必要に応じた特徴量がそのまま含まれたものであってもよいし、行列であってもよい。また、第2説明変数は、特徴量ごとに点数化したものに総和(ないし積算)をとり数値化したものであってもよい。 Next, the prediction unit 112 executes the posture acquisition process of FIG. 5A to acquire a second feature amount (step S1206). The prediction unit 112 calculates a second explanatory variable based on the second feature amount (step S1208). Here, the second explanatory variable is a variable that indicates how likely the user to be evaluated falls over based on the user's posture. The second explanatory variable may include the feature amount output from the posture acquisition process as it is, or may be a matrix. Also, the second explanatory variable may be a numerical value obtained by summing (or integrating) points scored for each feature amount.

例えば、姿勢取得部104が、利用者の大きさ、利用者の身体の向き、利用者の身体の構え方といった属性に基づいて特徴量を算出する。予測部112は、特徴量を1又は複数選択し、所定の重みづけの係数を乗じて総和をとり第2説明変数とする(ステップS1208)。予測部112は、第2説明変数を、説明変数テーブル1220に記憶する。 For example, the posture acquisition unit 104 calculates feature amounts based on attributes such as the size of the user, the orientation of the user's body, and the way the user holds the body. The prediction unit 112 selects one or a plurality of feature quantities, multiplies them by predetermined weighting coefficients, sums them up, and uses them as second explanatory variables (step S1208). The prediction unit 112 stores the second explanatory variable in the explanatory variable table 1220. FIG.

次に、予測部112は、図6の動作取得処理を実行し、第3の特徴量を取得する(ステップS1210)。予測部112は、第3の特徴量に基づいて、第3説明変数を算出する(ステップS1212)。ここで、第3説明変数は、評価対象の利用者が、利用者の動作に基づいて転倒転落する可能性がどれほどあるかを示す変数である。第3説明変数は、動作取得処理から出力される特徴量の中から必要に応じた特徴量がそのまま含まれたものであってもよいし、行列であってもよい。また、第3説明変数は、特徴量ごとに点数化したものに総和(ないし積算)をとり数値化したものであってもよい。 Next, the prediction unit 112 executes the action acquisition process of FIG. 6 to acquire a third feature amount (step S1210). The prediction unit 112 calculates a third explanatory variable based on the third feature amount (step S1212). Here, the third explanatory variable is a variable that indicates how likely the user to be evaluated falls over based on the user's motion. The third explanatory variable may directly include the feature amount output from the motion acquisition process as required, or may be a matrix. Also, the third explanatory variable may be a numerical value obtained by summing (or integrating) points scored for each feature amount.

例えば、動作取得部106が、利用者の体動が大きかったか、利用者(又は利用者の体の一部)が所定の距離以上の移動をしたか、利用者の荷重変動があったかといった属性に基づいて特徴量を算出する。予測部112は、特徴量を1又は複数選択し、所定の重みづけの係数を乗じて総和をとり第3説明変数とする(ステップS1212)。予測部112は、第3説明変数を、説明変数テーブル1220に記憶する。 For example, the motion acquisition unit 106 detects attributes such as whether the user's body movement was large, whether the user (or a part of the user's body) moved a predetermined distance or more, or whether there was a change in the user's load. Based on this, the feature amount is calculated. The prediction unit 112 selects one or a plurality of feature amounts, multiplies them by predetermined weighting coefficients, sums them, and sets them as third explanatory variables (step S1212). The prediction unit 112 stores the third explanatory variable in the explanatory variable table 1220. FIG.

次に、予測部112は、生体情報算出処理を実行し、第4の特徴量を取得する(ステップS1214)。予測部112は、第4の特徴量に基づいて、第4説明変数を算出する(ステップS1216)。ここで、第4説明変数は、評価対象の利用者が、利用者の生体情報に基づいて転倒転落する可能性がどれほどあるかを示す変数である。第4説明変数は、生体情報算出処理から出力される特徴量の中から必要に応じた特徴量がそのまま含まれたものであってもよいし、行列であってもよい。また、第4説明変数は、特徴量ごとに点数化したものに総和(ないし積算)をとり数値化したものである。 Next, the prediction unit 112 executes biometric information calculation processing to acquire a fourth feature amount (step S1214). The prediction unit 112 calculates a fourth explanatory variable based on the fourth feature amount (step S1216). Here, the fourth explanatory variable is a variable that indicates how likely the user to be evaluated falls over based on the user's biological information. The fourth explanatory variable may contain the feature amount output from the biometric information calculation process as it is, or may be a matrix. The fourth explanatory variable is a numerical value obtained by summing (or multiplying) the points scored for each feature amount.

例えば、生体情報取得部108が、利用者の心拍数が安定しているか、利用者の呼吸数が安定しているか、利用者は睡眠時間が確保されているかといった属性に基づいて特徴量を算出する。予測部112は、特徴量を1又は複数選択し、所定の重みづけの係数を乗じて総和をとり第4説明変数とする(ステップS1216)。予測部112は、第4説明変数を、説明変数テーブル1220に記憶する。 For example, the biometric information acquisition unit 108 calculates feature amounts based on attributes such as whether the user's heart rate is stable, whether the user's breathing rate is stable, and whether the user has sufficient sleep. do. The prediction unit 112 selects one or a plurality of feature quantities, multiplies them by predetermined weighting coefficients, sums them up, and uses them as fourth explanatory variables (step S1216). The prediction unit 112 stores the fourth explanatory variable in the explanatory variable table 1220. FIG.

次に、予測部112は、疾病情報取得処理を実行し、第5の特徴量を取得する(ステップS1218)。予測部112は、第5の特徴量に基づいて、第5説明変数を算出する(ステップS1220)。ここで、第5説明変数は、評価対象の利用者が、利用者の疾病情報に基づいて転倒転落する可能性がどれほどあるかを示す変数である。第5説明変数は、疾病情報取得処理から出力される特徴量の中から必要に応じた特徴量がそのまま含まれたものであってもよいし、行列であってもよい。また、第5説明変数は、特徴量ごとに点数化したものに総和(ないし積算)をとり数値化したものである。 Next, the prediction unit 112 executes disease information acquisition processing to acquire a fifth feature amount (step S1218). The prediction unit 112 calculates a fifth explanatory variable based on the fifth feature amount (step S1220). Here, the fifth explanatory variable is a variable that indicates how likely the user to be evaluated falls over based on the user's disease information. The fifth explanatory variable may contain the feature amount output from the disease information acquisition process as it is, or may be a matrix. The fifth explanatory variable is a numerical value obtained by summing (or multiplying) the points scored for each feature amount.

例えば、疾病情報取得部110が、利用者に手足の麻痺があるか、頻尿であるか、ふらつきのある薬を投与されているか、転倒履歴はあるか、リウマチ等で手足の使用に支障はないか、せん妄はないか等の属性に基づいて特徴量を算出する。予測部112は、特徴量を1又は複数選択し、所定の重みづけの係数を乗じて総和をとり第5説明変数とする。予測部112は、第5説明変数を、説明変数テーブル1220に記憶する。 For example, the disease information acquisition unit 110 determines whether the user has paralysis of the limbs, frequent urination, is taking medicine that causes dizziness, has a history of falling, or has rheumatism or the like that interferes with the use of the limbs. A feature amount is calculated based on attributes such as whether or not there is delirium. The prediction unit 112 selects one or a plurality of feature quantities, multiplies them by predetermined weighting coefficients, sums them up, and uses them as fifth explanatory variables. The prediction unit 112 stores the fifth explanatory variable in the explanatory variable table 1220. FIG.

予測部112は、説明変数テーブル1220に記憶された第1説明変数~第5説明変数を利用して、転倒転落リスクを予測する処理を実行する(ステップS1222)。 The prediction unit 112 uses the first to fifth explanatory variables stored in the explanatory variable table 1220 to execute the process of predicting the fall risk (step S1222).

具体的には、予測部112は、第1説明変数~第5説明変数を利用して、回帰分析を行ったり、画素単位での特徴点を抽出して近似式を求めたりして、転倒転落に繋がる危険の確率や、未来の時刻を予測する。なお、以下、単に「確率」と表している場合、転倒転落に繋がる危険の確率のことをいう。 Specifically, using the first to fifth explanatory variables, the prediction unit 112 performs regression analysis, extracts feature points in pixel units and obtains approximate expressions, Predict the probability of danger leading to , and the time in the future. In addition, hereinafter, when simply expressed as "probability", it means the probability of danger leading to a fall.

また、予測部112は、第1説明変数~第5説明変数に対して重み付けを行って転倒転落に繋がる確率、未来の時刻を予測してもよい。また、予測部112は、各説明変数の中における特徴量に対して重み付けを行ってもよい。 In addition, the prediction unit 112 may predict the probability and the future time leading to a fall by weighting the first to fifth explanatory variables. Also, the prediction unit 112 may weight the feature amount in each explanatory variable.

また、予測部112は、予測モデルである予測辞書DB1230を利用して、転倒転落に繋がる確率、未来の時刻を予測してもよい。予測辞書DB1230は、何れかの機械学習の手法によって生成された学習済モデルの辞書データである。 The prediction unit 112 may also predict the probability of falling and the future time using the prediction dictionary DB 1230, which is a prediction model. The prediction dictionary DB 1230 is dictionary data of learned models generated by any machine learning method.

予測部112は、第1説明変数~第5説明変数をAIプログラムに入力する。AIプログラムは、予測辞書DB1230を利用して、転倒転落に繋がる危険の確率と、未来の時刻とを出力する。 The prediction unit 112 inputs the first to fifth explanatory variables to the AI program. The AI program uses the prediction dictionary DB 1230 to output the probability of danger leading to a fall and the future time.

また、予測部112は、確率の代わりに転倒転落リスクとしてレベルで出力する場合もある。例えば、予測部112は、確率が閾値以上(例えば、50%以上)の場合はリスクが高い、確率が閾値未満(例えば、50%未満)の場合は、リスクが低いと出力してもよい。また、予測部112は、閾値を複数設けることにより、転倒転落リスクが「高い」「やや高い」「やや低い」「低い」といった複数のレベルを出力してもよい。 In some cases, the prediction unit 112 outputs a level as the fall risk instead of the probability. For example, the prediction unit 112 may output that the risk is high when the probability is equal to or greater than a threshold (eg, 50% or more), and that the risk is low when the probability is less than the threshold (eg, less than 50%). Further, the prediction unit 112 may output a plurality of levels such as "high", "slightly high", "slightly low", and "low" by setting a plurality of thresholds.

予測部112がリスクを判定する閾値は、スタッフ等が共通して設定してもよいし、スタッフ等が利用者毎に設定してもよい。また、制御部100が、利用者の状態に応じて適宜変更してもよい。 The threshold for the prediction unit 112 to determine the risk may be commonly set by the staff or the like, or may be set for each user by the staff or the like. In addition, the control unit 100 may change it as appropriate according to the state of the user.

本明細書においては、予測部112は、転倒転落の危険性を確率として出力する場合と、レベルと出力する場合とがそれぞれあるものとする。したがって、予測部112が、転倒転落の危険性を確率で出力すると説明している場合でもレベルで出力することが含まれる。また、予測部112が、転倒転落の危険性をレベルで出力すると説明している場合でも確率で出力することが含まれる。 In this specification, the prediction unit 112 may output the risk of falling over as a probability or as a level. Therefore, even when the prediction unit 112 explains that the risk of falling over will be output in terms of probability, outputting it in terms of levels is included. In addition, even when the prediction unit 112 explains that the risk of overturning is to be output as a level, outputting it as a probability is included.

また、予測部112は、転倒転落のリスクが高くなる時刻や、時間を出力することができる。例えば、予測部112は、朝6時に転倒転落のリスクが高くなることを出力したり、現在の時刻から5分後に転倒転落のリスクが高くなることを出力することができる。 In addition, the prediction unit 112 can output the time and the duration when the risk of falling down becomes high. For example, the prediction unit 112 can output that the risk of tumbling and falling will be high at 6:00 in the morning, or that the risk of tumbling and falling will be high five minutes from the current time.

(7)対応実行部
対応実行部114は、予測部112の出力に応じた指示を例えば各装置に実行する。例えば、対応実行部114は、必要に応じて報知部140や、端末装置52、携帯端末装置54で適宜報知するようそれぞれに指示をしたり、表示部130にアドバイスを出力するように実行を指示したりする。
(7) Response Execution Unit The response execution unit 114 executes an instruction according to the output of the prediction unit 112 to each device, for example. For example, the response execution unit 114 instructs the notification unit 140, the terminal device 52, and the mobile terminal device 54 to make appropriate notifications as necessary, or instructs the display unit 130 to output advice. or

対応実行部114が実行する対応実行処理の動作について、図8を参照して説明する。まず、予測部112は、転倒転落に繋がる危険の確率(以下、単に「確率」という)が所定の閾値以上の場合には、報知処理を実行する(ステップS1302;Yes→ステップS1304)。 The operation of the handling execution process executed by the handling execution unit 114 will be described with reference to FIG. First, the prediction unit 112 executes notification processing when the probability of danger leading to a fall (hereinafter simply referred to as "probability") is equal to or greater than a predetermined threshold (step S1302; Yes→step S1304).

例えば、対応実行部114は、例えば確率が所定の閾値(好ましくは40%~60%)以上の場合は、転倒転落のリスクが高いとして、報知部140に報知するよう指示する。報知部140は、その指示を受けて報知をする。 For example, when the probability is equal to or greater than a predetermined threshold value (preferably 40% to 60%), the response execution unit 114 determines that the risk of falling is high, and instructs the notification unit 140 to make a notification. The notification unit 140 receives the instruction and gives notification.

また、対応実行部114は、通信部150を介して、他の装置(端末装置52、携帯端末装置54)から報知するように指示してもよい。また、対応実行部114は、スタッフ等により設定された装置に報知するよう指示をしてもよいし、確率や利用者・スタッフの状況に応じて指示をする装置を変えてもよい。 In addition, the response execution unit 114 may instruct, via the communication unit 150, that other devices (the terminal device 52 and the mobile terminal device 54) should notify. Further, the response execution unit 114 may instruct a device set by the staff or the like to notify, or may change the device for giving the instruction according to the probability or the situation of the user or the staff.

例えば、対応実行部114は、確率が40%以上の場合、報知部140のみに報知の指示を行う。しかし、対応実行部114は、確率が50%以上の場合、報知部140だけでなく、端末装置52、携帯端末装置54にも報知の指示を行うこととしてもよい。また、対応実行部114は、各装置が報知を行う場合に、手が空いていたり、近くの距離にいたりするスタッフの携帯端末装置54のみに報知の指示を行うこととしてもよい。 For example, when the probability is 40% or higher, the response execution unit 114 instructs the notification unit 140 only to perform notification. However, when the probability is 50% or more, the response execution unit 114 may instruct not only the notification unit 140 but also the terminal device 52 and the mobile terminal device 54 to notify. Further, when each device performs notification, the response execution unit 114 may instruct only the portable terminal device 54 of a staff member who is free or who is in a short distance to perform notification.

また、報知部140は、報知方法としてはアラームを出力したり、発光や振動により報知したりしてもよい。また、報知部140は、表示部130に警告を表示してもよい。また、併せて報知部140は、例えばレイアウト上の注意をアナウンスしたり、利用者に対して音声による警告を報知したりしてもよい。 Further, the notification unit 140 may output an alarm, or may notify by light emission or vibration as a notification method. Also, the notification unit 140 may display a warning on the display unit 130 . In addition, the notification unit 140 may also announce, for example, layout precautions, or may notify the user of a warning by voice.

つづいて、対応実行部114は、各装置に対して制御指示する必要がある場合(ステップS1306)、装置制御処理を実行する(ステップS1308)。対応実行部114は、装置制御処理を実行することで、例えばベッド制御装置40によってベッドの床高や背ボトムの角度を自動で調整するように指示してもよい。また、対応実行部114は、それ以外にも、例えばトイレや出口までの足下ライトを自動で点灯するよう指示したり、センサ設定ボタン操作を自動的に操作不可に切り替える指示をしたり、離床センサの設定を自動変更する指示をしたりしてもよい。 Next, when the response execution unit 114 needs to issue a control instruction to each device (step S1306), it executes device control processing (step S1308). The response execution unit 114 may instruct, for example, the bed control device 40 to automatically adjust the floor height and the back bottom angle of the bed by executing the device control process. In addition, the response execution unit 114 also instructs, for example, to automatically turn on the foot light to the toilet or the exit, instructs to automatically switch the operation of the sensor setting button to disabled, You may give an instruction to automatically change the setting of .

つづいて、対応実行部114は、アドバイスの出力が可能な場合には、転倒転落DBを用いてアドバイス出力処理を実行する(ステップS1310;Yes→ステップS1312)。対応実行部114は、アドバイス出力処理を実行することで、例えば転倒リスクレベルに応じた備品類の自動選定を行ったり、居室レイアウト案の提示を例えば所定の又は近くのスタッフ等に行ったりしてもよい。 Subsequently, if the advice output is possible, the response execution unit 114 executes advice output processing using the fall/fall DB (step S1310; Yes→step S1312). By executing the advice output process, the response execution unit 114 automatically selects equipment according to the fall risk level, or presents a room layout plan to a predetermined or nearby staff member, for example. good too.

つづいて、対応実行部114は、学習処理を実行する場合は、予測辞書DB1230の学習処理を実行してもよい。例えば、対応実行部114は、転倒転落のリスクが高いことを、表示部130に表示の指示をする。このとき、スタッフ等が対応に来たが、利用者の転倒転落の可能性はなかった場合、可能性がなかったことを、操作部135によりスタッフ等が入力する。また、逆に、対応実行部114の指示により報知が行われた場合、実際に転倒転落のリスクがあったことを、スタッフ等が操作部135により入力する。 Next, when executing the learning process, the correspondence executing unit 114 may execute the learning process of the prediction dictionary DB 1230 . For example, the response execution unit 114 instructs the display unit 130 to display that there is a high risk of falling. At this time, if a staff member or the like comes to help, but there is no possibility of the user falling down, the staff member or the like inputs through the operation unit 135 that there is no possibility. Conversely, when the notification is given by the instruction of the countermeasure execution unit 114, the staff or the like inputs through the operation unit 135 that there was an actual risk of falling.

これらのスタッフ等に入力された情報は、予測辞書DB1230に記憶される。また、スタッフ等に入力された情報に基づいて、対応実行部114は、機械学習を行い、予測辞書DB1230の学習を行う。 Information input by these staff members is stored in the predictive dictionary DB 1230 . Further, based on the information input by the staff or the like, the response execution unit 114 performs machine learning to learn the prediction dictionary DB 1230 .

[1.2.2 その他の構成]
表示部130は、各種情報を表示する。例えば、表示部130は、液晶ディスプレイや、有機ELディスプレイで構成される。また、表示部130は、HDMI(登録商標)や、D-SUBにより接続された他の表示装置であってもよい。
[1.2.2 Other configurations]
The display unit 130 displays various information. For example, the display unit 130 is configured with a liquid crystal display or an organic EL display. Also, the display unit 130 may be another display device connected by HDMI (registered trademark) or D-SUB.

操作部135は、利用者やスタッフ等から各種操作を入力する。例えば、操作リモコンや、ナースコールといった入力装置も含まれる。また、表示部130と一体に形成されたタッチパネルも操作部135として機能する。 The operation unit 135 inputs various operations from a user, a staff member, or the like. For example, input devices such as a remote control and a nurse call are also included. A touch panel formed integrally with the display unit 130 also functions as the operation unit 135 .

報知部140は、報知を行う。例えば、警報音が出力可能なスピーカや、光や振動で報知を行う装置であってもよい。また、報知部140は、音声出力により報知する内容を音声出力したり、表示部130に警告内容を表示したりして報知してもよい。 The notification unit 140 performs notification. For example, it may be a speaker capable of outputting an alarm sound, or a device that notifies with light or vibration. Further, the notification unit 140 may output the content to be notified by voice output, or display the content of the warning on the display unit 130 for notification.

通信部150は、他の装置と通信を行う。例えば、ネットワークに接続するLANインタフェースや、他の装置と接続するUSBや、近距離無線通信部が含まれる。通信部150は、LTE/5Gといった携帯電話通信網に接続可能な通信装置であってもよい。 The communication unit 150 communicates with other devices. For example, it includes a LAN interface that connects to a network, a USB that connects to other devices, and a short-range wireless communication unit. The communication unit 150 may be a communication device connectable to a mobile phone communication network such as LTE/5G.

カメラ装置20は、周辺の状況を撮影するための撮影装置である。カメラ装置20は、静止画像、動画像を撮影可能である。 The camera device 20 is a photographing device for photographing surrounding conditions. The camera device 20 can shoot still images and moving images.

センサ装置30は、利用者の体動等を検出することにより、利用者の生体情報や、利用者の位置、姿勢を取得することができる。また、センサ装置30は、ベッド装置5に設けられたロードセルを利用して荷重を検出することで、生体情報を取得してもよい。 The sensor device 30 can acquire the user's biological information and the user's position and posture by detecting the user's body movement and the like. Moreover, the sensor device 30 may acquire biological information by detecting a load using a load cell provided in the bed device 5 .

ベッド制御装置40は、ベッド装置5を制御する。例えば、ベッド制御装置40は、背ボトム、腰ボトム、膝とボム、足ボトムの各ボトムを制御することで、背上げ動作/背下げ動作や、足上げ動作/足下げ動作を実現する。また、ベッド制御装置40は、ベッド装置5の床高を変更することも可能である。 The bed control device 40 controls the bed device 5 . For example, the bed control device 40 realizes back raising/back lowering and leg raising/leg lowering actions by controlling the back bottom, waist bottom, knees and bombs, and leg bottoms. The bed control device 40 can also change the floor height of the bed device 5 .

サーバ装置50は、利用者の疾病に関する情報が記憶された電子カルテDB502が記憶されている。サーバ装置50は、院内システムを管理するサーバであり、例えば電子カルテサーバ、オーダリングシステムのサーバであってもよい。サーバ装置50の電子カルテDB502には、利用者の氏名、生年月日、血液型といった基本的な情報に加えて、疾病歴、検査履歴、手術情報、投薬情報、注意事項、通院履歴、転倒履歴といった治療に必要な情報が種々記憶されている。なお、これらの情報は一例であり、必ずしもサーバ装置50が記憶・管理しておく必要はない。例えば、手術に関する情報は、手術管理サーバ(不図示)で管理されてもよいし、投薬に関する情報は投薬サーバ(不図示)で管理されてもよい。 The server device 50 stores an electronic medical record DB 502 that stores information about diseases of users. The server device 50 is a server that manages an in-hospital system, and may be, for example, an electronic chart server or an ordering system server. In addition to basic information such as the user's name, date of birth, blood type, etc., the electronic medical chart DB 502 of the server device 50 stores disease history, examination history, surgery information, medication information, precautions, hospital visit history, and fall history. Various types of information necessary for such treatment are stored. It should be noted that these pieces of information are examples, and the server device 50 does not necessarily have to store and manage them. For example, information on surgery may be managed by a surgery management server (not shown), and information on medication may be managed by a medication server (not shown).

周辺装置60は、他の装置に設けられたものである。例えば、車椅子や、治療テーブル、杖等の障害物は、IoTモジュールを搭載することができる。これらの障害物は、周辺装置60として、障害物の位置等を制御装置10に出力することができる。 A peripheral device 60 is provided in another device. For example, wheelchairs, treatment tables, walking sticks, and other obstacles can be equipped with IoT modules. These obstacles can output the positions of the obstacles and the like to the control device 10 as the peripheral device 60 .

[1.3 動作例]
以下、システム1を利用した場合の動作例について説明する。なお、制御部100が各機能を実行することにより、特徴量が算出される。そして、予測部112が、特徴量に基づいて及び/又は説明変数テーブル1220に記憶されている説明変数に基づいて、転倒転落に繋がるリスクを出力する。対応実行部114は、出力された転倒転落に繋がるリスク(例えば、確率)に基づいて報知等の指示を行う。
[1.3 Operation example]
An operation example using the system 1 will be described below. Note that the feature amount is calculated by the control unit 100 executing each function. Then, the prediction unit 112 outputs the risk of falling down based on the feature quantity and/or the explanatory variables stored in the explanatory variable table 1220 . The response execution unit 114 issues an instruction such as notification based on the output risk (for example, probability) leading to a fall.

以下説明する動作例は、どのような情報を取得し、特徴量としてどのように利用するかで、報知するパターンを説明するものである。すなわち、以下の動作例は、複数ある特徴量、説明変数の中で、効果の高い組み合わせを説明するものである。 The operation example described below explains the notification pattern according to what kind of information is acquired and how it is used as a feature amount. That is, the following operation example explains a highly effective combination among a plurality of feature quantities and explanatory variables.

[1.3.1 第1動作例]
第1動作例について図9を参照して説明する。
[1.3.1 First operation example]
A first operation example will be described with reference to FIG.

第1動作例について図9(a)を参照して説明する。すなわち、予測部112は、周辺環境取得部102から出力される障害物に関する第1の特徴量を取得する(ステップA104)。なお、このとき、障害物の特徴量は、カメラ装置20により撮影された画像データに基づいて、周辺環境取得部102が算出したものである。画像データとして取得されるカメラ装置20は、図2(a)においてベッド装置5の周辺環境を撮影している画像データか、図2(b)や(c)のカメラ装置20において広角のカメラ装置20で周辺環境を撮影している画像データである必要がある。 A first operation example will be described with reference to FIG. That is, the prediction unit 112 acquires the first feature amount related to the obstacle output from the surrounding environment acquisition unit 102 (step A104). At this time, the feature amount of the obstacle is calculated by the surrounding environment acquisition unit 102 based on the image data captured by the camera device 20 . The camera device 20 acquired as image data is either image data capturing the surrounding environment of the bed device 5 in FIG. 20 must be image data of the surrounding environment.

また、第1の特徴量としては、障害物の種類(車いす、IVポール)、大きさ、形状、色、場所、経路上に有るか無いか、動きは有るか無いか等といった属性から算出されている。 The first feature value is calculated from attributes such as the type of obstacle (wheelchair, IV pole), size, shape, color, location, presence or absence on the route, presence or absence of movement, and the like. ing.

予測部112は、カメラ装置20又はベッド装置5から障害物までの距離が、閾値未満であるか(ステップA106)又は指定された範囲内に障害物が位置しているか否かを判定する(ステップA108)。 The prediction unit 112 determines whether the distance from the camera device 20 or the bed device 5 to the obstacle is less than a threshold value (step A106) or whether the obstacle is located within the specified range (step A108).

ここで、予測部112は、障害物までの距離が閾値未満の場合は、転倒転落の確率が高いと出力する(ステップA106;Yes)。また、予測部112は、指定範囲内に障害物がある場合には、同様に確率が高いと出力する(ステップA106;No→ステップA108;Yes)。すなわち、予測部112は、利用者の転倒転落に繋がるリスクが高いと予測している。 Here, if the distance to the obstacle is less than the threshold, the prediction unit 112 outputs that the probability of falling is high (step A106; Yes). Moreover, the prediction unit 112 similarly outputs that the probability is high when there is an obstacle within the specified range (step A106; No → step A108; Yes). That is, the prediction unit 112 predicts that there is a high risk of the user falling.

予測部112が、転倒転落の確率が高いと出力した場合、対応実行部114は報知部140に対して報知を行う指示を行う(ステップA110)。また、対応実行部114は、報知部140から報知を行うだけでなく、表示部130によりレイアウト上の注意点をアナウンスする指示をしてもよい。なお、予測部112は、障害物がある状態で転倒しなかった場合、その環境の特徴量や説明変数に基づいて予測辞書DB1230に対して学習を行ってもよい。 When the prediction unit 112 outputs that the probability of falling is high, the response execution unit 114 instructs the notification unit 140 to make a notification (step A110). In addition, the response execution unit 114 may issue an instruction to announce precautions regarding the layout using the display unit 130 in addition to issuing the notification from the notification unit 140 . Note that the prediction unit 112 may perform learning on the prediction dictionary DB 1230 based on the feature amount and explanatory variables of the environment when there is an obstacle and the user does not fall.

具体的に説明すると、例えば、予測部112は、第1の特徴量として障害物の距離が「1メートル」未満の場合には、報知を行う指示を行う。また、予測部112は、ベッド装置5から患者が離床する方向に障害物がある場合は、報知を行う指示を行う。 Specifically, for example, the prediction unit 112 instructs to make a notification when the distance to the obstacle is less than "1 meter" as the first feature value. Further, the prediction unit 112 issues an instruction to notify when there is an obstacle in the direction in which the patient leaves the bed apparatus 5 .

また、これらの特徴量を1又は複数組み合わせることにより、予測部112は、第1説明変数を算出してもよい。そして、予測部112は、第1説明変数に基づいて、確率を出力することができる。 Also, the prediction unit 112 may calculate the first explanatory variable by combining one or more of these feature amounts. Then, the prediction unit 112 can output a probability based on the first explanatory variable.

また、障害物として、ベッド装置5のキャスタ等の可動部が適切な位置になっていないことを含めてもよい。また、第1の特徴量には、ベッド装置5の配置位置や向き(例えば、ベッド装置5は適切な位置に配置されているのか、ベッド装置5は適切な向きにとなっているのか)の属性に基づく特徴量が含まれてもよい。予測部112は、当該特徴量又は当該特徴量に基づく第1説明変数から、転倒転落のリスクが高いかを出力する。 In addition, the obstacle may include movable parts such as casters of the bed apparatus 5 that are not in proper positions. In addition, the first feature amount includes the arrangement position and orientation of the bed apparatus 5 (for example, is the bed apparatus 5 arranged at an appropriate position, or is the bed apparatus 5 oriented appropriately?). Attribute-based features may also be included. The prediction unit 112 outputs whether the risk of falling is high from the feature amount or the first explanatory variable based on the feature amount.

また、第1動作例において、複数の特徴量、説明変数にもとづいて、予測部112は、転倒転落のリスクを予測することができる。例えば、図9(b)は、特徴量や説明変数と、予測部112が出力する結果との対応の一例を示す図である。 In addition, in the first operation example, the prediction unit 112 can predict the risk of overturning based on a plurality of feature amounts and explanatory variables. For example, FIG. 9(b) is a diagram showing an example of the correspondence between feature amounts, explanatory variables, and results output by the prediction unit 112. As shown in FIG.

例えば、第1ケースについて説明する。障害物がある場合、予測部112は、障害物があるという第1の特徴量に基づいて、転倒転落のリスクが高いと予測する。また、居室の明るさが暗い場合、予測部112は、居室の明るさを示す第1の特徴量に基づいて、転倒転落のリスクが高いと予測する。結果として、予測部112は、転倒転落のリスクが高いと予測し、出力する。 For example, the first case will be described. If there is an obstacle, the prediction unit 112 predicts that the risk of falling is high based on the first feature quantity indicating that there is an obstacle. Moreover, when the brightness of the living room is dark, the prediction unit 112 predicts that the risk of falling down is high based on the first feature value indicating the brightness of the living room. As a result, the prediction unit 112 predicts that there is a high risk of falling, and outputs the result.

同様に、第2ケースのように、明るさが暗い場合は転倒転落のリスクが高くなるため、リスクの低い障害物があったとしても、予測部112は、転倒転落のリスクが高いと予測し、出力する。第3ケースも同様に、予測部112は、転倒転落のリスクが高いと予測し、出力する。 Similarly, as in the second case, when the brightness is low, the risk of falling is high, so even if there is an obstacle with a low risk, the prediction unit 112 predicts that the risk of falling is high. ,Output. Similarly, in the third case, the prediction unit 112 predicts that the risk of falling over is high and outputs the result.

第4ケースは、障害物があるという第1の特徴量に基づいて、予測部112は転倒転落リスクが高いと予測する。しかし、利用者が睡眠状態のため、第3の特徴量に基づき予測部は転倒転落リスクが低いと予測している。この場合、予測部112は、全体として転倒転落のリスクを低いと予測し、出力している。なお、障害物の除去など、転倒リスクの低減につなげるアドバイスを報知しても良い。 In the fourth case, the prediction unit 112 predicts that the risk of overturning is high, based on the first feature amount that there is an obstacle. However, since the user is in a sleeping state, the prediction unit predicts that the risk of falling is low based on the third feature amount. In this case, the prediction unit 112 predicts and outputs that the overall risk of overturning is low. It should be noted that it is also possible to provide advice for reducing the risk of falling, such as removing obstacles.

また、軽減要因としてスタッフがベッド装置5の周辺にいるため、予測部112は、転倒転落のリスクが低いと予測している。この場合、障害物があったとしても、予測部112は、転倒転落のリスクを低いと予測する。 In addition, since the staff is around the bed device 5 as a mitigating factor, the prediction unit 112 predicts that the risk of falling down is low. In this case, even if there is an obstacle, the prediction unit 112 predicts that the risk of overturning is low.

[1.3.2 第2動作例]
第2動作例について図10(a)を参照して説明する。
[1.3.2 Second operation example]
A second operation example will be described with reference to FIG.

すなわち、周辺環境取得部102は、ベッド装置5の床高を特徴量として取得する(ステップB104)。また、制御部100は、利用者情報記憶領域1204又は電子カルテDB502から利用者の身長を取得し、ベッド装置の理想の床高を特定する(ステップB106)。ベッド装置の理想の床高は、制御部100が、記憶部120に予め記憶しているテーブルを利用してもよいし、利用者の身長から算出してもよい。例えば、利用者の身長が「150cm」のとき、理想のベッド装置5の床高は「60~80cm」として特定される。なお、利用者の身長は、利用者自身やスタッフ等が直接入力してもよい。 That is, the surrounding environment acquiring unit 102 acquires the floor height of the bed apparatus 5 as a feature amount (step B104). Further, the control unit 100 acquires the height of the user from the user information storage area 1204 or the electronic medical chart DB 502, and specifies the ideal floor height of the bed apparatus (step B106). The ideal floor height of the bed apparatus may be calculated from a table pre-stored in the storage unit 120 by the control unit 100 or calculated from the height of the user. For example, when the height of the user is "150 cm", the ideal floor height of the bed apparatus 5 is specified as "60 to 80 cm". The height of the user may be directly input by the user or staff.

また、例えば、制御部100は、利用者の骨格から利用者の下肢部分の長さを取得する。そして、制御部100は、利用者が端座位姿勢を取った際、膝角度が床に対して90°になる場合に、足が接地する高さを理想の床高として特定してもよい。予測部112は、特徴量としてベッド装置の床高を特徴量として出力する。 Also, for example, the control unit 100 acquires the length of the user's lower limbs from the user's skeleton. Then, the control unit 100 may specify, as the ideal floor height, the height at which the user's feet touch the ground when the knee angle is 90° with respect to the floor when the user takes the edge-sitting posture. The prediction unit 112 outputs the floor height of the bed apparatus as a feature amount.

そして、予測部112は、ステップB106により特定されたベッド装置5の床高と、理想のベッド装置の床高とが所定の床高以上乖離している場合(所定の閾値以上離れている場合)には(ステップB108;Yes)、転倒転落の確率が高いと予測する。 Then, the prediction unit 112 determines if the floor height of the bed apparatus 5 specified in step B106 and the floor height of the ideal bed apparatus deviate by a predetermined floor height or more (if they are apart by a predetermined threshold value or more). (Step B108; Yes), it is predicted that the probability of falling is high.

そして、対応実行部114は、報知処理を実行したり(ステップB110)、ベッド装置5の床高をベッド制御装置40に指示したりする。ベッド制御装置40は、対応実行部114からの指示に基づいて、ベッド装置5の床高を、理想の床高になるように自動調整する(ステップB112)。 Then, the response execution unit 114 executes notification processing (step B110) and instructs the bed control device 40 about the floor height of the bed device 5 . The bed control device 40 automatically adjusts the floor height of the bed device 5 to the ideal floor height based on the instruction from the response execution unit 114 (step B112).

また、第2動作例において、複数の特徴量、説明変数にもとづいて、予測部112は、転倒転落のリスクを予測することができる。例えば、図10(b)は、特徴量や説明変数と、予測部112が出力する結果との対応の一例を示す図である。 In addition, in the second operation example, the prediction unit 112 can predict the risk of overturning based on a plurality of feature amounts and explanatory variables. For example, FIG. 10(b) is a diagram showing an example of the correspondence between feature amounts, explanatory variables, and results output by the prediction unit 112. As shown in FIG.

例えば、第1ケースについて説明する。理想の床高とベッド装置の床高との乖離が大きいためにリスクが高い場合、予測部112は、転倒転落のリスクが高いと予測する。また、居室の明るさが暗い場合、予測部112は、居室の明るさを示す第1の特徴量に基づいて、転倒転落のリスクが高いと予測する。結果として、予測部112は、転倒転落のリスクが高いと予測し、出力する。 For example, the first case will be described. If the risk is high because the deviation between the ideal floor height and the floor height of the bed apparatus is large, the prediction unit 112 predicts that the risk of falling is high. Moreover, when the brightness of the living room is dark, the prediction unit 112 predicts that the risk of falling down is high based on the first feature value indicating the brightness of the living room. As a result, the prediction unit 112 predicts that there is a high risk of falling, and outputs the result.

同様に、第2ケースのように、明るさが暗い場合は転倒転落のリスクが高くなるため、理想の床高とベッド装置の床高との乖離の差が小さいためリスクの低いとしても、予測部112は、転倒転落のリスクが高いと予測し、出力する。第3ケースも同様に、利用者にせん妄があるため、予測部112は、転倒転落のリスクが高いと予測し、出力する。 Similarly, as in the second case, when the brightness is dark, the risk of falling over is high. The unit 112 predicts that there is a high risk of overturning and outputs the result. Similarly, in the third case, since the user has delirium, the prediction unit 112 predicts and outputs that the risk of falling is high.

第4ケースは、ベッド装置の理想の床高と、現在のベッド装置の床高との乖離があるため、予測部112は、転倒転落リスクが高いと予測する。しかし、利用者が睡眠状態のため、第3の特徴量に基づき予測部112は転倒転落リスクが低いと予測している。この場合、予測部112は、全体として転倒転落のリスクを低いと予測し、出力している。なお、床高の変更など、転倒リスクの低減につなげるアドバイスを報知しても良い。 In the fourth case, there is a gap between the ideal floor height of the bed apparatus and the current floor height of the bed apparatus, so the prediction unit 112 predicts that the risk of falling over is high. However, since the user is in a sleeping state, the prediction unit 112 predicts that the risk of falling over is low based on the third feature amount. In this case, the prediction unit 112 predicts and outputs that the overall risk of overturning is low. It should be noted that advice such as changing the floor height to reduce the risk of falling may be notified.

このように、複数の特徴量、説明変数に基づいて、予測部112は、転倒転落リスクを予測することができる。例えば、予測部112は、軽減要因としてスタッフがベッド装置5の周辺にいるため、予測部112は、図10(a)の動作例では転倒転落のリスクが高いと予測するが、全体としては転倒転落のリスクが低いと予測してもよい。 In this way, the prediction unit 112 can predict the fall risk based on a plurality of feature quantities and explanatory variables. For example, the prediction unit 112 predicts that the risk of overturning is high in the operation example of FIG. A low risk of falls may be expected.

[1.3.3 第3動作例]
第3動作例について図11(a)を参照して説明する。
[1.3.3 Third operation example]
A third operation example will be described with reference to FIG.

予測部112は、姿勢取得部104から出力される第2の特徴量に基づいて、利用者の頭、肩、足、手、膝、重心の位置を特定する(ステップC106)。 The prediction unit 112 identifies the positions of the user's head, shoulders, feet, hands, knees, and center of gravity based on the second feature amount output from the posture acquisition unit 104 (step C106).

なお、利用者の姿勢や、重心は姿勢取得部104で取得してもよい。予測部112は、姿勢取得部104で取得した利用者の姿勢、重心に基づいた特徴量を利用する。なお、これらの骨格は必ずしも全て特定される必要はないが、特定される点が多ければ多いほど、姿勢取得部104が推定する姿勢の精度は向上する。予測部112は、これらの第2の特徴量をそのまま利用してもよいし、1又は複数の特徴量を選択し、第2説明変数を算出してもよい。 Note that the posture of the user and the center of gravity may be acquired by the posture acquisition unit 104 . The prediction unit 112 uses feature amounts based on the user's posture and the center of gravity acquired by the posture acquisition unit 104 . Although not all of these skeletons need to be specified, the accuracy of the posture estimated by posture acquisition section 104 improves as the number of specified points increases. The prediction unit 112 may use these second feature amounts as they are, or may select one or a plurality of feature amounts to calculate the second explanatory variable.

予測部112は、ステップC106で特定された第2の特徴量又は第2説明変数を利用して、転倒転落の確率(リスクが高いか否か)を予測する(ステップC108)。予測部112は、具体的には、各部位の絶対位置や相対位置に基づいて、頭が支持基底面にない、体が曲がっている、端座位を取っている、起き上がりをしている、立位を取っている、歩行に適さない姿勢となっている等を判定する。そして、利用者の姿勢が転倒転落のリスクが高いと判定された場合、対応実行部114は、報知処理を実行する(ステップC110)。さらに、上記のような基準に拠らず、機械学習により各位置から転倒転落のリスクを算出してもよい。 The prediction unit 112 uses the second feature amount or the second explanatory variable specified in step C106 to predict the probability of falling (whether the risk is high) (step C108). Specifically, based on the absolute position and relative position of each part, the prediction unit 112 predicts whether the head is not on the base of support, the body is bent, the body is sitting on the edge, the sitting position is standing, or the body is standing. It is determined whether the person is in a posture that is not suitable for walking, etc. Then, when it is determined that the user's posture poses a high risk of overturning, the response execution unit 114 executes notification processing (step C110). Furthermore, the risk of falling from each position may be calculated by machine learning without relying on the above criteria.

具体的には、予測部112は、例えば、利用者の重心が支持基底面上にないことにより正しい姿勢をしていないことを特定したり、利用者が投薬により正しい姿勢をしていないことを特定したり、施術により右半身の動きが悪いにもかかわらず右端座位をとっていることを特定したりすることで、リスクの高い姿勢をといっていると特定する。 Specifically, the prediction unit 112 identifies, for example, that the user's center of gravity is not on the base of support and that the user is not in the correct posture, or that the user is in the correct posture due to medication. By identifying that the patient is sitting on the far right side even though the movement of the right side of the body is poor due to the treatment, it is identified that the patient is in a high-risk posture.

また、第3動作例において、複数の特徴量、説明変数にもとづいて、予測部112は、転倒転落のリスクを予測することができる。例えば、図11(b)は、特徴量や説明変数と、予測部112が出力する結果との対応の一例を示す図である。 In addition, in the third operation example, the prediction unit 112 can predict the risk of overturning based on a plurality of feature amounts and explanatory variables. For example, FIG. 11(b) is a diagram showing an example of the correspondence between feature amounts, explanatory variables, and results output by the prediction unit 112. As shown in FIG.

例えば、第1ケースについて説明する。予測部112は、第2の特徴量又は第2説明変数に基づいて、姿勢に基づくリスクが高い場合、予測部112は、転倒転落のリスクが高いと予測する。また、予測部112は、第1の特徴量又は第1説明変数に基づいて、ベッド装置の床高に基づくリスクが高い場合、予測部112は、転倒転落のリスクが高いと予測する。結果として、予測部112は、転倒転落のリスクが高いと予測し、出力する。 For example, the first case will be described. Based on the second feature amount or the second explanatory variable, the prediction unit 112 predicts that the risk of falling is high when the risk based on the posture is high. Moreover, the prediction unit 112 predicts that the risk of falling is high when the risk based on the floor height of the bed apparatus is high, based on the first feature amount or the first explanatory variable. As a result, the prediction unit 112 predicts that there is a high risk of falling, and outputs the result.

第2ケースのように、予測部112は、第2の特徴量又は第2説明変数に基づいて、姿勢に基づく転倒転落のリスクが中と予測する。また、予測部112は、第5の特徴量又は第5説明変数に基づいて、投薬に基づくリスクが高い場合、予測部112は、転倒転落のリスクが高いと予測する。結果として、予測部112は、転倒転落のリスクが高いと予測し、出力する。 As in the second case, the prediction unit 112 predicts that the posture-based fall risk is medium based on the second feature amount or the second explanatory variable. Moreover, the prediction unit 112 predicts that the risk of falling is high when the risk based on medication is high, based on the fifth feature amount or the fifth explanatory variable. As a result, the prediction unit 112 predicts that there is a high risk of falling, and outputs the result.

第3ケースのように、予測部112は、第2の特徴量又は第2説明変数に基づいて、姿勢に基づく転倒転落のリスクが高いと予測する。また、予測部112は、第1の特徴量又は第1説明変数に基づいて、軽減要因であるスタッフがいることを取得し、転倒転落のリスクは低いと予測する。結果として、予測部112は、転倒転落のリスクが低いと予測し、出力する。 As in the third case, the prediction unit 112 predicts that the risk of falling based on the posture is high, based on the second feature amount or the second explanatory variable. Also, the prediction unit 112 acquires the presence of staff, which is a mitigating factor, based on the first feature amount or the first explanatory variable, and predicts that the risk of falling is low. As a result, the prediction unit 112 predicts and outputs that the risk of falling is low.

第4ケースのように、予測部112は、第2の特徴量又は第2説明変数に基づいて、姿勢に基づく転倒転落のリスクが高いと予測する。また、予測部112は、第1の特徴量又は第1説明変数に基づいて、軽減要因である設備(例えば、衝撃吸収マット、杖)があり、転倒転落のリスクは低いと予測する。結果として、予測部112は、転倒転落のリスクが中と予測し、出力する。 As in the fourth case, the prediction unit 112 predicts that the risk of falling based on posture is high, based on the second feature amount or the second explanatory variable. Based on the first feature amount or the first explanatory variable, the prediction unit 112 also predicts that there is equipment that is a mitigating factor (for example, a shock absorbing mat, a cane), and that the risk of falling is low. As a result, the prediction unit 112 predicts that the risk of overturning is medium and outputs the result.

このように、複数の特徴量、説明変数に基づいて、予測部112は、転倒転落リスクを予測することができる。例えば、予測部112は、軽減要因の設備の種類に応じて、転倒転落のリスクが低いと予測してもよい。 In this way, the prediction unit 112 can predict the fall risk based on a plurality of feature quantities and explanatory variables. For example, the prediction unit 112 may predict that the risk of overturning is low according to the type of facility that is the mitigation factor.

[1.3.4 第4動作例]
第4動作例について図12を参照して説明する。
[1.3.4 Fourth Operation Example]
A fourth operation example will be described with reference to FIG.

すなわち、予測部112は、姿勢取得部104から利用者の頭、肩、足、手、膝、重心を取得する(ステップD106)。すなわち、姿勢取得部104から取得される第2の特徴量を利用するか、第2の特徴量から算出される第2説明変数を利用する。 That is, the prediction unit 112 acquires the user's head, shoulders, feet, hands, knees, and center of gravity from the posture acquisition unit 104 (step D106). That is, the second feature amount acquired from the posture acquisition unit 104 is used, or the second explanatory variable calculated from the second feature amount is used.

予測部112は、第3の特徴量又は第3説明変数に基づいて特定される利用者の重心の軌跡から、転倒転落のリスクを予測する(ステップD108)。具体的には、予測部112は、利用者の重心の軌跡が、利用者が進行する方向に対してぶれが大きい場合はふらついていると判断し、リスクを高くする。例えば、利用者が端座位から立位に移行する場合、通常は体の上半身の重心の位置が高くなっていくが、予測部112が、利用者の重心が下がったり、下半身から高くなっていく場合には、通常とは異なる動作であると特定し、転倒のリスクを高くする。上記のような基準に拠らず、機械学習により各軌跡から転倒転落のリスクを算出してもよい。ここで、予測部112が、転倒転落のリスクが高いと予測した場合には、対応実行部114は、報知処理を実行する(ステップD110)。 The prediction unit 112 predicts the risk of falling from the trajectory of the user's center of gravity specified based on the third feature amount or the third explanatory variable (step D108). Specifically, the prediction unit 112 determines that the trajectory of the user's center of gravity fluctuates greatly with respect to the direction in which the user travels, and increases the risk. For example, when the user shifts from a sitting position to a standing position, the position of the center of gravity of the upper half of the body usually rises, but the prediction unit 112 predicts that the center of gravity of the user will lower or rise from the lower half of the body. In some cases, identify abnormal behavior and increase the risk of falls. A fall risk may be calculated from each trajectory by machine learning without relying on the above criteria. Here, when the prediction unit 112 predicts that the risk of overturning is high, the response execution unit 114 executes notification processing (step D110).

なお、予測部112は、複数の特徴量、説明変数を組み合わせて転倒転落リスクを予測してもよい。例えば、予測部112は、投薬や疾病に関する第5の特徴量/第5説明変数とを組み合わせて転倒転落リスクを予測してもよいし、軽減要因がある場合には、転倒転落リスクを低く予測してもよい。 Note that the prediction unit 112 may combine a plurality of feature amounts and explanatory variables to predict the fall risk. For example, the prediction unit 112 may predict the fall risk by combining the fifth feature value/fifth explanatory variable related to medication or disease, or predict the fall risk to be low if there is a mitigating factor. You may

[1.3.5 第5動作例]
第5動作例について図13を参照して説明する。
[1.3.5 Fifth Operation Example]
A fifth operation example will be described with reference to FIG.

すなわち、予測部112は、動作取得部106から出力される第3の特徴量又は第3の特徴量から算出する第3説明変数に基づいて、利用者の肩の位置を取得する(ステップE106)。 That is, the prediction unit 112 acquires the shoulder position of the user based on the third feature amount output from the motion acquisition unit 106 or the third explanatory variable calculated from the third feature amount (step E106). .

予測部112は、第3の特徴量又は第3説明変数に基づいて、利用者の肩の位置が、進行方向から所定の閾値以上進行方向から乖離が大きい場合には、転倒転落のリスクが高いと予測する(ステップE108;Yes)。この場合、対応実行部114は、報知処理を実行する(ステップE110)。ここで、利用者の肩の位置が、進行方向から所定の閾値以上進行方向から乖離が大きい場合とは、利用者の本来の動きから乖離しているものであり、前後の動きであっても、左右の動きであってもよい。 Based on the third feature amount or the third explanatory variable, the prediction unit 112 determines that the risk of falling is high when the position of the user's shoulder deviates from the direction of travel by a predetermined threshold or more from the direction of travel. (Step E108; Yes). In this case, the response execution unit 114 executes notification processing (step E110). Here, when the position of the user's shoulder deviates from the direction of travel by a predetermined threshold or more from the direction of travel, it means that the user's original movement deviates from the direction of travel, and even if the movement is back and forth. , left and right movement.

[1.3.6 第6動作例]
第6動作例について図14を参照して説明する。
[1.3.6 Sixth Operation Example]
A sixth operation example will be described with reference to FIG.

予測部112は、姿勢取得部104から第2の特徴量又は第2の特徴量から算出された第2説明変数に基づいて、利用者の表情を取得する。また、予測部112は、動作取得部106から第3の特徴量又は第3の特徴量から算出された第3説明変数に基づいて、利用者の動きを取得する(ステップF104)。 The prediction unit 112 acquires the facial expression of the user based on the second feature amount from the posture acquisition unit 104 or the second explanatory variable calculated from the second feature amount. Also, the prediction unit 112 acquires the motion of the user based on the third feature amount or the third explanatory variable calculated from the third feature amount from the motion acquisition unit 106 (step F104).

つづいて、予測部112は、利用者の動きから、変化領域を特定する(ステップF106)。利用者の変化した領域とは、例えば、表情の移り変わりや、身体の動きをいう。また、予測部112は、第3の特徴量(第3説明変数)から体温が取得できる場合には、体温の変化を取得する。 Subsequently, the prediction unit 112 identifies a change area from the motion of the user (step F106). The changed area of the user means, for example, a change in facial expression or a movement of the body. Also, the prediction unit 112 acquires a change in body temperature when the body temperature can be acquired from the third feature amount (third explanatory variable).

予測部112は、利用者の動きや表情から転倒転落のリスクを判定する(ステップF110)。ここで、予測部112が、利用者の表情の動き方、遷移等から、利用者の体調が悪いと判定した場合、対応実行部114は、例えば通信部150を介して離床センサの設定を変更する指示を行う(ステップF112)。具体的には、予測部112は、離床センサの設定を1段階報知しやすい設定に変更する指示を行う(ステップF114)。なお、予測部112は、このとき併せて報知処理を実行してもよい。 The prediction unit 112 determines the risk of falling from the movement and facial expression of the user (step F110). Here, when the prediction unit 112 determines that the user is in poor physical condition from the movement of the user's facial expression, the transition, etc., the response execution unit 114 changes the setting of the bed leaving sensor via the communication unit 150, for example. is instructed (step F112). Specifically, the prediction unit 112 issues an instruction to change the setting of the bed exit sensor to a setting that facilitates one-step notification (step F114). In addition, the prediction part 112 may perform an alerting|reporting process collectively at this time.

また、予測部112は、利用者の体温が取得できている場合、利用者の体温が閾値を超えたと判定した場合には(ステップF114;Yes)、対応実行部114は、報知処理を実行する(ステップF116)。 If the prediction unit 112 determines that the user's body temperature has exceeded the threshold (Step F114; Yes), the response execution unit 114 executes notification processing. (Step F116).

この場合、対応実行部114は、例えば報知部140により報知をする指示を実行するだけでなく、端末装置52や、携帯端末装置54に報知をする指示を行ってもよい。また、対応実行部114は、予め登録している看護師、医療従事者や、電子カルテDB502から取得した看護師、医療従事者が所有する携帯端末装置54に報知を行う指示を行ってもよい。 In this case, the response execution unit 114 may instruct the terminal device 52 or the mobile terminal device 54 to perform notification, for example, in addition to executing the instruction to perform notification by the notification unit 140 . In addition, the response execution unit 114 may instruct the portable terminal device 54 owned by a pre-registered nurse or medical staff, or the nurse or medical staff acquired from the electronic medical record DB 502 to perform notification. .

[1.3.7 第7動作例]
第7動作例について図15を参照して説明する。
[1.3.7 Seventh Operation Example]
A seventh operation example will be described with reference to FIG.

予測部112は、疾病情報取得部110から利用者の疾病情報を第5の特徴量又は第5の特徴量から算出された第5説明変数として取得する(ステップG102)。また、併せて、予測部112は、周辺環境取得部102から、第1の特徴量(第1説明変数)を取得してもよい。予測部112は、第5の特徴量(第5説明変数)から、入院履歴や、病状履歴に関する情報を取得する。 The prediction unit 112 acquires the user's disease information from the disease information acquisition unit 110 as a fifth feature amount or a fifth explanatory variable calculated from the fifth feature amount (step G102). In addition, the prediction unit 112 may also acquire a first feature amount (first explanatory variable) from the surrounding environment acquisition unit 102 . The prediction unit 112 acquires information about hospitalization history and medical condition history from the fifth feature amount (fifth explanatory variable).

予測部112は、利用者の疾病情報である入院履歴や、病状履歴に基づいて転倒転落のリスクのレベルを予測する(ステップG104)。例えば、予測部112は、転倒事故の履歴がある場合は、転倒リスクが高いと予測したり、病状によりふらつきにつながりやすい薬を常飲している場合は転倒リスクが高いと予測したりする。ここで、予測部112は、例えばAIプログラムを利用し、予測辞書DB1230を参照して転倒転落のリスクレベルを予測する。 The prediction unit 112 predicts the level of the risk of falling based on the user's disease information, such as hospitalization history and medical condition history (step G104). For example, the prediction unit 112 predicts that the risk of falling is high if there is a history of falling accidents, or that the risk of falling is high if the person is taking drugs that tend to lead to dizziness due to a medical condition. Here, the prediction unit 112 uses an AI program, for example, and refers to the prediction dictionary DB 1230 to predict the risk level of falling.

予測部112により、転倒転落のリスクが高いと判定された場合(ステップG104;Yes)、対応実行部114は、転倒転落のリスクが低くなる備品(例えば、衝撃吸収マット、杖)を選定し、スタッフ等に対して提示を行う指示をする(ステップG108)。なお、転倒転落のリスクが低くなる備品には、利用者の重症化を防ぐ備品が含まれてもよい。具体的には、対応実行部114が、端末装置52(携帯端末装置54)に表示する指示をしたり、スタッフ等にメール等を送信する指示をしたりする。また、併せて対応実行部114は、居室のレイアウト案の提示を行ってもよい(ステップG108)。例えば、対応実行部114は、ベッドと床頭台間の距離を20cm以上開けることであったり、ベッド高さを40cm以下にすること、ベッド横から30cm以内には障害物を置かないことなどを、表示部130に表示する。 If the prediction unit 112 determines that the risk of falling over is high (step G104; Yes), the response execution unit 114 selects equipment that reduces the risk of falling over (for example, a shock absorbing mat, a cane), The staff or the like is instructed to present (step G108). Equipment that reduces the risk of falling may include equipment that prevents the user from becoming seriously ill. Specifically, the response execution unit 114 instructs the terminal device 52 (portable terminal device 54) to display, or instructs the staff or the like to send an e-mail or the like. At the same time, the response execution unit 114 may present a room layout plan (step G108). For example, the response execution unit 114 may request that the distance between the bed and the headrest should be 20 cm or more, the height of the bed should be 40 cm or less, and that no obstacle should be placed within 30 cm from the side of the bed. , is displayed on the display unit 130 .

また、対応実行部114は、居室レイアウトの適切性を提示してもよい。一例としては、利用者が左片麻痺の場合は、利用者がベッド装置の右側から居室に出ることができるようになっているかのアドバイスを表示する。例えば、対応実行部114は、ベッドと床頭台間の距離を一定距離開ける、またベッド高さを適切な高さにする、またベッド横から一定距離以内に障害物を置かないなどを表示部130に表示する。 Further, the response execution unit 114 may present the appropriateness of the room layout. As an example, if the user has left hemiplegia, advice is displayed as to whether or not the user can exit the living room from the right side of the bed apparatus. For example, the response execution unit 114 displays a message such as increasing the distance between the bed and the headrest by a certain distance, setting the bed to an appropriate height, and not placing an obstacle within a certain distance from the side of the bed. 130.

[1.3.8 第8動作例]
第8動作例について説明する。
[1.3.8 Eighth operation example]
An eighth operation example will be described.

周辺環境取得部102は、カメラ装置20で撮影された画像データから、備品の中から障害物(ここでは、主に備品)に関する情報として、位置、大きさ、形状、色等を1又は複数取得し、特徴量として出力する。 The surrounding environment acquisition unit 102 acquires one or a plurality of items such as position, size, shape, color, etc. as information related to obstacles (mainly fixtures here) from the image data captured by the camera device 20. and output as features.

これにより、予測部112は、以下の特徴量からリスクが高いことを判定し、対応実行部114は適宜対応を実行する。以下、いくつかの例を説明する。 As a result, the prediction unit 112 determines that the risk is high from the following feature amounts, and the response execution unit 114 performs appropriate response. Some examples are described below.

(第1の例)
予測部112は、第1の特徴量又は第1説明変数を利用して転倒転落のリスクを予測する。例えば、予測部112は、適切な居室レイアウト(初期位置)と、現状の居室のレイアウトとを比較し、レイアウトの違いが基準範囲内に収まっているかを判定する。このとき、判定方法としては以下のような場合が考えられる。
(1)基準レイアウトからずれている場合
看護師はリスクが高い患者に対しては、ベッドから手が届かない(物を取らせない)、ベッドから立つときに手が届かない(不安定な支持物を使わせない)レイアウトにするため、当該レイアウトを基準レイアウトとする。予測部112は、リスクがある患者に対して、ベッドから手が届く範囲でなかったものが範囲に入ってきたり、端座位で届かない位置だったものが、届く範囲に入ってきたりした場合を判定する。また、予測部112は、靴、杖、ナースコールボタン等のように、届く範囲にあるべきものがないかを判定してもよい。
(2)想定していないものがある場合
例えば、ベッド上のものが落ちたり(ティッシュ箱やイヤホンなど)、折りたたんで床頭台と壁の隙間にしまっておいた折りたたみ椅子を家族等が使ってそのままになっていたりということを判定する。
(first example)
The prediction unit 112 predicts the risk of falling using the first feature amount or the first explanatory variable. For example, the prediction unit 112 compares the appropriate living room layout (initial position) with the current layout of the living room, and determines whether the layout difference is within a reference range. At this time, the following cases can be considered as the determination method.
(1) Deviation from the standard layout For high-risk patients, nurses cannot reach from the bed (do not allow them to pick up objects), and cannot reach when getting up from the bed (unstable support). In order to create a layout that does not allow the use of objects, the layout is used as a reference layout. The prediction unit 112 predicts a case where an object that was out of reach from the bed or an object that was out of reach in a sitting position comes into reach for a patient at risk. judge. The prediction unit 112 may also determine whether there are any objects that should be within reach, such as shoes, walking sticks, nurse call buttons, and the like.
(2) When there is something unexpected For example, things on the bed (tissue boxes, earphones, etc.) fall, or family members use a folding chair that is folded and stored in the gap between the bedside table and the wall. It is judged whether it remains as it is.

なお、適切な居室レイアウトは、記憶部120に予め記憶されていてもよいし、スタッフ等が設定してもよい。適切な居室レイアウトは外部サーバから取得されてもよい。 An appropriate room layout may be stored in the storage unit 120 in advance, or may be set by a staff member or the like. A suitable room layout may be obtained from an external server.

対応実行部114は、適切な居室レイアウトと、現状の居室のレイアウトとを比較した結果に基づいて報知処理を行ったり、アドバイスを指示したりする。例えば、対応実行部114は、表示部130に、基準範囲から外れている物品の種類と、当該物品をXcmどちら側に移動すればよいかをアドバイスをする指示を実行する。 The response execution unit 114 performs notification processing and gives advice based on the result of comparing the appropriate living room layout and the current living room layout. For example, the response execution unit 114 instructs the display unit 130 to give advice on the type of the article outside the reference range and to which side X cm the article should be moved.

(第2の例)
予測部112は、ベッドからの立ち上がり動作時に、利用者がサイドテーブル等に捕まって立ち上がろうとしていることを検知する。具体的には、予測部112は、カメラ装置20により取得された画像データを直接参照し、立ち上がり時に利用者の手がサイドテーブル上にあることを検知し、リスクが高いと判定する。また、予測部112は、端座位状態の利用者の位置と、利用者が手を伸ばした先にある備品との距離が所定の距離未満に近づいていることを検知し、リスクが高いと判定する。
(Second example)
The prediction unit 112 detects that the user is caught by a side table or the like and tries to stand up when the user stands up from the bed. Specifically, the prediction unit 112 directly refers to the image data acquired by the camera device 20, detects that the user's hand is on the side table when standing up, and determines that the risk is high. In addition, the prediction unit 112 detects that the distance between the position of the user in the edge-sitting state and the equipment at the end of the user's extended hand is less than a predetermined distance, and determines that the risk is high. do.

対応実行部114は、予測部112がリスクを高いと予測した場合は、その旨を報知する指示を行ったり、備品を自動的に移動させる指示をしたり、ロックをする指示をしたりする。例えば、サイドテーブルにIoTユニットが内蔵されている周辺装置60の場合、対応実行部114は周辺装置60に移動を指示したり、ロック操作を指示したりする。 When the prediction unit 112 predicts that the risk is high, the countermeasure execution unit 114 issues an instruction to notify that effect, an instruction to automatically move equipment, or an instruction to lock the equipment. For example, in the case of the peripheral device 60 in which the IoT unit is built in the side table, the response execution unit 114 instructs the peripheral device 60 to move or to perform a lock operation.

(第3の例)
予測部112は、多床室において、カーテンが閉まっているか、利用者が片手で動作をしようとしているか(例えば、杖を使用しているか)どうかを検知する。例えば、予測部112は、利用者が杖を使用している場合には、片手でカーテンの開け閉めをすることから、転倒転落リスクが高いと予測する。
(Third example)
The prediction unit 112 detects whether the curtains are closed and whether the user is trying to move with one hand (for example, using a cane) in the multi-bed room. For example, when the user uses a cane, the prediction unit 112 predicts that the risk of falling is high because the user opens and closes the curtain with one hand.

対応実行部114は、予測部112が、転倒転落のリスクが高いと予測した場合、例えば利用者がベッド装置から立ち上がろうとしている場合や、居室から利用者が出ようとしている場合、対応実行部114は、カーテンを自動で開けるといった制御を周辺装置60に指示する。また、利用者が杖を持っているときに、カーテンを触ろうとしているときには、対応実行部114は、強制的に報知処理を実行してもよい。 When the prediction unit 112 predicts that the risk of falling over is high, for example, when the user is about to stand up from the bed apparatus or when the user is about to leave the living room, the response execution unit 114 114 instructs the peripheral device 60 to automatically open the curtain. Further, when the user is holding a cane and is about to touch the curtain, the response execution unit 114 may forcibly execute the notification process.

(第4の例)
予測部112は、居室において床が濡れていることを検知した場合には、転倒転落リスクが高いと予測する。具体的には、予測部112は、第1の特徴量に基づいて、画像データから床の反射率によって床が濡れていることを特定する。また、周辺環境取得部102が、画像データを解析し、清掃員を服装、骨格、靴等から判定し、清掃員がモップ等の清掃用具を持っていることを特定することで床の清掃作業が行われたことを取得する。予測部112は、清掃作業が行われたこと、清掃作業が行われてからの経過時間等を含めて、床が濡れていることを検知する。
(Fourth example)
The prediction unit 112 predicts that the risk of falling over is high when it is detected that the floor in the living room is wet. Specifically, the prediction unit 112 identifies that the floor is wet based on the reflectance of the floor from the image data based on the first feature amount. In addition, the surrounding environment acquisition unit 102 analyzes the image data, determines the cleaning staff from their clothes, skeleton, shoes, etc., and identifies that the cleaning staff has cleaning tools such as mops, thereby performing floor cleaning work. to get what has been done. The prediction unit 112 detects that the floor is wet, including the fact that the cleaning work has been performed and the elapsed time since the cleaning work was performed.

そして、予測部112は、床が濡れていることを検知すると、転倒転落リスクが高いと予測する。対応実行部114は、予測部112が転倒転落リスクを高いと予測した場合には、利用者がベッド装置から離床しようとした場合に報知処理を実行する。 Then, when detecting that the floor is wet, the prediction unit 112 predicts that the risk of overturning is high. If the prediction unit 112 predicts that the risk of falling over is high, the response execution unit 114 executes notification processing when the user tries to get out of the bed apparatus.

対応実行部114は、離床の判定としては、姿勢取得部104や、動作取得部106の出力により利用者が離床することを判定する。また、対応実行部114は、画像データを解析して利用者の身体の位置がサイドレール側に寄った場合に、利用者が離床することを判定してもよい。 The response executing unit 114 determines whether the user leaves the bed based on the output from the posture acquisition unit 104 and the motion acquisition unit 106 as the determination of leaving the bed. Further, the response execution unit 114 may analyze the image data and determine that the user leaves the bed when the user's body position is closer to the side rail.

また、対応実行部114は、単に床が濡れていることを報知するだけでなく、例えば清掃員が退出してから一定時間の間だけ、床が滑りやすくなっていることを注意するアナウンスを行ってもよい。 In addition, the response execution unit 114 not only informs that the floor is wet, but also makes an announcement warning that the floor is slippery for a certain period of time after the cleaning staff leaves. may

(第5の例)
周辺環境取得部102は、画像データの明るさを取得し、居室の明るさ(昼夜の区別)を取得し、第1の特徴量として出力する。予測部112は、第1の特徴量から、画像データの明るさが所定の閾値未満の場合には、転倒転落リスクが高いと予測する。
(Fifth example)
The ambient environment acquisition unit 102 acquires the brightness of the image data, acquires the brightness of the room (distinction between day and night), and outputs it as a first feature amount. From the first feature amount, the prediction unit 112 predicts that the risk of falling is high when the brightness of the image data is less than a predetermined threshold.

対応実行部114は、予測部112が転倒転落リスクを高いと予測した場合に、離床センサの設定を変更する。具体的には、対応実行部114は、離床センサにおける通報レベルの設定を1段階上げることにより、報知しやすい状況に遷移させる。 The response execution unit 114 changes the setting of the bed sensor when the prediction unit 112 predicts that the risk of falling is high. Specifically, the response execution unit 114 raises the setting of the notification level of the sensor for getting out of bed by one level, thereby transitioning to a situation in which notification is easy.

また、対応実行部114は、予測部112が転倒転落リスクの低くなった場合(すなわち、画像データの明るさが所定の閾値以上となった場合)にも、離床センサの設定を変更してもよい。この場合、対応実行部114は、離床センサにおける通報レベルの設定を1段階下げることにより、余計な報知をしない状況に遷移させる。 Further, even when the predicting unit 112 has reduced the risk of falling (that is, when the brightness of the image data exceeds a predetermined threshold value), the response executing unit 114 changes the setting of the bed leaving sensor. good. In this case, the response execution unit 114 lowers the setting of the notification level of the sensor for getting out of bed by one step, thereby transitioning to a situation in which unnecessary notification is not performed.

また、対応実行部114は、足元ライトを制御する指示を行ってもよい。例えば、対応実行部114は、トイレ等の目的地までの足元ライトを自動で点灯するように指示をしてもよい。 Further, the response execution unit 114 may issue an instruction to control the foot light. For example, the response execution unit 114 may instruct to automatically turn on footlights leading to a destination such as a restroom.

(第6の例)
予測部112は、姿勢取得部104により出力された第2の特徴量から特定される利用者の姿勢から、利用者の手が、設定スイッチの近くにあり、なおかつ利用者が設定スイッチを操作する権限がない人である場合リスクが高いと予測する。ここで、リスクを判定する設定スイッチは、センサ装置30に関する設定スイッチや、ベッド装置5を操作する操作スイッチ等、種々のスイッチが考えられる。スタッフ等は、利用者がどのスイッチを操作してはいけないかを、予めシステムにおいて設定してもよい。
(Sixth example)
Based on the posture of the user specified from the second feature quantity output by the posture acquisition unit 104, the prediction unit 112 predicts that the user's hand is near the setting switch and that the user will operate the setting switch. Predict high risk if unauthorized person. Here, various switches such as a setting switch for the sensor device 30 and an operation switch for operating the bed device 5 can be considered as the setting switch for determining the risk. The staff or the like may set in advance in the system which switches the user should not operate.

対応実行部114は、予測部112が転倒転落リスクを高いと予測した場合に、設定スイッチの操作を自動的に操作不可に切り替える。これにより、利用者がセンサ設定を勝手に変更してしたり、センサ装置30の電源をOFFにしたりすることを防ぐことが可能となる。 When the predicting unit 112 predicts that the risk of falling down is high, the countermeasure execution unit 114 automatically switches the operation of the setting switch to disabled. This makes it possible to prevent the user from arbitrarily changing the sensor settings or turning off the sensor device 30 .

[1.3.9 第9動作例]
第9動作例について説明する。
[1.3.9 Ninth Operation Example]
A ninth operation example will be described.

すなわち、姿勢取得部104は、カメラ装置20で撮影された画像データから、利用者の姿勢に関する情報として、例えば、頭、肩、手の位置等を1又は複数取得し、第2の特徴量として出力する。 That is, the posture acquisition unit 104 acquires one or a plurality of information regarding the posture of the user, such as the positions of the head, shoulders, and hands, from the image data captured by the camera device 20, and obtains the position of the head, shoulders, and hands as the second feature amount. Output.

これにより、予測部112は、以下の特徴量からリスクが高いことを判定し、対応実行部114は適宜対応を実行する。以下、いくつかの例を説明する。 As a result, the prediction unit 112 determines that the risk is high from the following feature amounts, and the response execution unit 114 performs appropriate response. Some examples are described below.

(第1の例)
予測部112は、第2の特徴量又は第2説明変数に基づき、利用者の前かがみ角度が一定の閾値を超えている場合には、転倒転落のリスクが高いと予測する。
(first example)
Based on the second feature amount or the second explanatory variable, the prediction unit 112 predicts that the risk of falling is high when the user's forward bending angle exceeds a certain threshold.

対応実行部114は、予測部112が転倒転落リスクを高いと予測した場合に、報知処理を実行する。例えば、対応実行部114は、近くのスタッフ等に利用者を支えるようにアナウンスを行う指示をする。なお、スタッフ等が近いかどうかは、スタッフ等が所有しているビーコンや携帯端末等から位置情報にて判断してもよい。また対応実行部114は、治療履歴より、スタッフ等の位置を予想して通知する指示をしてもよい。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. For example, the response execution unit 114 instructs a nearby staff member or the like to make an announcement to support the user. It should be noted that whether the staff or the like is close may be determined based on position information from a beacon, mobile terminal, or the like owned by the staff or the like. Further, the response execution unit 114 may predict the position of the staff or the like based on the treatment history and issue an instruction to notify the staff.

(第2の例)
予測部112は、第2の特徴量に基づいて特定される利用者の目線の動きから、離床する確率を算出する。例えば、予測部112は、利用者がベッド上において行き先を見ていたり、足元を見ていたりする等の目線の動きから、離床するときの目線の傾向を認識する。そして、予測部112は、利用者が離床する確率が閾値以上となった場合、転倒転落リスクが高いと予測する。
(Second example)
The prediction unit 112 calculates the probability of leaving the bed from the eye movement of the user identified based on the second feature amount. For example, the prediction unit 112 recognizes the line-of-sight tendency when the user leaves the bed, based on the line-of-sight movement of the user, such as looking at the destination or looking at the feet on the bed. Then, the prediction unit 112 predicts that the risk of falling over is high when the probability of the user leaving the bed is equal to or greater than the threshold.

対応実行部114は、予測部112が転倒転落リスクを高いと予測した場合に、報知処理を実行する。具体的には、対応実行部114は、「ベッド高さを下げる」旨を報知する指示をし、併せて自動でベッド装置5の床高を下げたり、最低床高にしたりする指示を行う。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. Specifically, the response execution unit 114 issues an instruction to notify that "lower the bed height", and an instruction to automatically lower the floor height of the bed apparatus 5 or to the minimum floor height.

(第3の例)
予測部112は、第2の特徴量に基づいて特定される利用者の頭の位置が、規定位置から閾値以上ずれていることを検知する。例えば、利用者の頭の位置が、規定位置から頭位置から下側(足側)に10cm以上ずれている場合には、転倒転落のリスクが高いと予測する。
(Third example)
The prediction unit 112 detects that the position of the user's head specified based on the second feature amount is shifted from the prescribed position by a threshold value or more. For example, when the position of the user's head deviates from the specified position downward (toward the feet) by 10 cm or more, it is predicted that the risk of falling is high.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。例えば、対応実行部114は、担当スタッフ等の端末装置に報知の指示をすることで、スタッフ等が利用者の位置を直すことができる。これにより、利用者のベッド装置上でのずり下がりを防止することができる。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. For example, the response execution unit 114 instructs the terminal device of the staff member in charge to notify, so that the staff member or the like can correct the position of the user. Thereby, it is possible to prevent the user from sliding down on the bed apparatus.

(第4の例)
予測部112は、第2の特徴量に基づいて利用者のサイドレール上の手の位置を取得する。そして、予測部112は、利用者の手の位置が、備品毎に設定された処置の位置(備品が介助バーの場合、介助バー毎に設定されている位置)ベッド装置5上における利用者の身体の位置と比較して適切か否かを判定する。予測部112は、利用者の手の位置が、適切な位置から閾値以上ずれている場合には、利用者の手の握り位置が不適切であるとして転倒転落のリスクが高いと予測する。
(Fourth example)
The prediction unit 112 acquires the position of the user's hand on the side rail based on the second feature amount. Then, the prediction unit 112 predicts that the position of the user's hand is the position of the treatment set for each equipment (if the equipment is an assistance bar, the position set for each assistance bar), the position of the user on the bed apparatus 5 It is judged whether it is appropriate or not by comparing with the position of the body. When the position of the user's hand deviates from the appropriate position by a threshold value or more, the prediction unit 112 predicts that the gripping position of the user's hand is inappropriate and that there is a high risk of falling.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。例えば、対応実行部114は、握り位置が不適切な手について「あとXcm右(左)側を握ると立ち上がりやすくなります」といった内容をアナウンスする。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. For example, the response execution unit 114 announces the contents such as "If you grip the right (left) side by X cm, it will be easier to stand up" for the hand whose grip position is inappropriate.

(第5の例)
予測部112は、第2の特等量に基づいて利用者が立ち上がった後に方向転換をするかどうかを、骨格の肩位置や、周辺環境取得部102から出力される第1の特徴量に基づいて予測する。予測部112は、利用者が立ち上がった後に方向転換をする可能性が高い場合は、転倒転落のリスクが高いと予測する。
(Fifth example)
The prediction unit 112 determines whether or not the user will change direction after standing up based on the second special quantity, based on the shoulder position of the skeleton and the first feature quantity output from the surrounding environment acquisition unit 102. Predict. The prediction unit 112 predicts that there is a high risk of falling when the user is likely to change direction after getting up.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。例えば、対応実行部114は、スタッフ等について、利用者の動作について報知を行う指示をしたり、利用者に対して「方向転換に気をつけましょう」といった内容のアナウンスを行う指示をおこなう。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. For example, the response execution unit 114 instructs the staff to notify the user of the action, or instructs the user to make an announcement such as "be careful when turning".

[1.3.10 第10動作例]
第10動作例について説明する。
[1.3.10 Tenth Operation Example]
A tenth operation example will be described.

動作取得部106、生体情報取得部108は、利用者の行動に関する情報として、例えば、利用者の動作、生体情報(睡眠/覚醒状態等)を1又は複数取得する。動作取得部106は、取得した動作に関する情報を第3の特徴量として出力し、生体情報取得部108は、取得した生体情報に関する情報を第4の特徴量として出力する。 The motion acquisition unit 106 and the biometric information acquisition unit 108 acquire, for example, one or a plurality of user motions and biometric information (sleep/awake state, etc.) as information related to user behavior. The motion acquisition unit 106 outputs the acquired information about the motion as a third feature amount, and the biometric information acquisition unit 108 outputs the acquired information about the biometric information as a fourth feature value.

これにより、予測部112は、以下の特徴量からリスクが高いことを判定し、対応実行部114は適宜対応を実行する。以下、いくつかの例を説明する。 As a result, the prediction unit 112 determines that the risk is high from the following feature amounts, and the response execution unit 114 performs appropriate response. Some examples are described below.

(第1の例)
予測部112は、第4の特徴量に基づいて、利用者が覚醒状態になってから行動へ移るまでの時間や動きの傾向を検知する。すなわち、予測部112は、利用者が睡眠から起きてベッド装置から出ようとするまでの動きを検知する。そして、予測部112は、予測辞書DB1230を参照することにより、転倒転落のリスクが高いことを予測する。
(first example)
The prediction unit 112 detects the time from the user's wakefulness to the time when the user takes action and the tendency of movement based on the fourth feature amount. In other words, the prediction unit 112 detects the movement of the user from sleep to getting out of the bed apparatus. Then, the prediction unit 112 predicts that the risk of falling is high by referring to the prediction dictionary DB 1230 .

すなわち、予測部112は、覚醒から離床までの利用者毎の平均時間を算出する。これにより、覚醒から離床するタイミング(時刻、経過時間)を特定できる。予測部112は、この離床するタイミングと、転倒転落のリスクに応じて、利用者毎に優先順位を決定する。そして、利用者がベッド装置から出ようとする動きの予測からスタッフ等に対応の優先順位を通知しても良い。予測部112は、ある利用者の覚醒から起き上がりまでの平均時間よりも短い時間で、利用者が覚醒から起き上がった場合には、この利用者の転倒転落のリスクが高いと予測してもよい。 That is, the prediction unit 112 calculates the average time from awakening to getting out of bed for each user. This makes it possible to identify the timing (time, elapsed time) from awakening to getting out of bed. The prediction unit 112 determines the order of priority for each user according to the timing of leaving the bed and the risk of falling. Then, based on the prediction of the user's movement to get out of the bed apparatus, it is possible to notify the staff or the like of the order of priority. The prediction unit 112 may predict that the user has a high risk of falling if the user wakes up in a shorter time than the average time from awakening to getting up.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。例えば、対応実行部114は、覚醒から行動までの傾向に合わせてセンサ設定を自動で調整する指示をしたり、ベッド装置5を自動で制御する指示をしたり、周辺装置60を自動で制御する指示をしたりする。具体的には、対応実行部114は、離床センサの通報のレベルを1段階上げる指示を行ったり、周辺装置60にてサイドテーブルのロックをかける指示を行ったりする。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high. For example, the response execution unit 114 instructs to automatically adjust the sensor settings according to the tendency from awakening to behavior, instructs to automatically control the bed device 5, and automatically controls the peripheral device 60. give instructions. Specifically, the response execution unit 114 issues an instruction to raise the notification level of the bed sensor by one level, or issues an instruction to lock the side table with the peripheral device 60 .

(第2の例)
予測部112は、利用者が前回の離床からの時間情報を画像データ(映像データ)と併せて参照する。これにより、例えば、予測部112は、15分前に利用してトイレに行ったなら、今回の起き上がりは離床確率が低いといったことを予測できる。
(Second example)
The prediction unit 112 refers to the time information from when the user left the bed last time together with the image data (video data). As a result, for example, the prediction unit 112 can predict that if the user used the toilet 15 minutes ago and went to the bathroom, the probability of getting out of bed this time is low.

対応実行部114は、予測部112の結果に応じて、各装置の設定を変更する。例えば、対応実行部114は、起き上がり時に利用センサを設定している利用者であっても、前回の離床からX分以内の場合は、報知する条件をリスクが低い側に変更してもよい。具体的には、離床センサの場合、センサの鳴りやすさ(利用者がベッド上に寝ている状態から離床するまでの間におけるセンサが鳴るまでの早さ)は、(1)起き上がり、(2)端座位、(3)離床となる。このとき、報知する条件をリスクが高い側に変更するとは、例えば現在の設定が(3)離床であった場合は、よりセンサが鳴りやすい(1)起き上がりで鳴るようにするということである。報知する条件をリスクが低い側に変更するとは、例えば現在の設定が(1)起き上がりであった場合は、よりセンサが鳴りにくい(3)離床で鳴るようにするということである。 The response execution unit 114 changes the settings of each device according to the result of the prediction unit 112 . For example, the response execution unit 114 may change the notification condition to a lower risk side even for a user who sets the usage sensor when getting up, if it is within X minutes since the user left the bed last time. Specifically, in the case of the bed-leaving sensor, the easiness of sensor ringing (the speed at which the sensor rings from the state in which the user is lying on the bed to the time the user leaves the bed) is determined by (1) getting up, (2) ) sitting on the edge, and (3) leaving the bed. At this time, changing the notification condition to a higher risk side means that, for example, if the current setting is (3) getting out of bed, the sensor will sound more easily (1) when getting up. Changing the notification condition to a lower risk side means that, for example, if the current setting is (1) getting up, the sensor will sound less likely and (3) it will sound when getting out of bed.

[1.3.11 第11動作例]
第11動作例について説明する。
[1.3.11 Eleventh Operation Example]
An eleventh operation example will be described.

制御部100(周辺環境取得部102、姿勢取得部104、動作取得部106)は、利用者が服薬を行ったかを取得する。また、制御部100(疾病情報取得部110)は、利用者が服薬している薬の種類を取得する。 The control unit 100 (surrounding environment acquisition unit 102, posture acquisition unit 104, motion acquisition unit 106) acquires whether the user has taken medicine. In addition, the control unit 100 (disease information acquisition unit 110) acquires the type of medicine that the user is taking.

予測部112は、利用者が服薬を行った場合、服用した薬の種類からふらつきやすい薬である場合には転倒転落のリスクが高いと予測する。 When the user takes medicine, the prediction unit 112 predicts that the risk of tumbling is high if the type of medicine that the user takes is likely to cause dizziness.

対応実行部114は、予測部112の結果に応じて、各装置に設定を変更する。例えば、服薬からX時間以内は転倒転落リスクが上昇しているため、対応実行部114は、離床センサを当該時間内においてはリスクが高い側に変更するようにする。また、対応実行部114は、併せて「気をつけて下さい」という旨のアナウンスを報知してもよい。 Correspondence execution unit 114 changes the settings for each device according to the result of prediction unit 112 . For example, since the risk of falling falls increases within X hours after taking the medicine, the response execution unit 114 changes the bed sensor to the higher risk side within that time. In addition, the response execution unit 114 may also make an announcement to the effect that "Please be careful".

[1.3.12 第12動作例]
第12動作例について説明する。
[1.3.12 Twelfth operation example]
A twelfth operation example will be described.

ベッド装置5は、センサの設定状態を示すランプを設ける。そして、制御部100は、センサ装置30の状態に応じて、センサのランプを点灯させる。 The bed apparatus 5 is provided with a lamp indicating the setting state of the sensor. Then, the controller 100 turns on the lamp of the sensor according to the state of the sensor device 30 .

例えば、制御部100は、センサ装置30により、利用者の体動が検出できる場合は緑色に点灯し、検出できない場合はランプを赤色に点灯する。 For example, the control unit 100 lights the lamp in green when the body movement of the user can be detected by the sensor device 30, and lights the lamp in red when it cannot be detected.

対応実行部114は、画像データを解析し、ランプの色が赤色である場合には設定が正しくない旨を報知する。また、対応実行部114は、センサ装置30の設定を自動的に修正してもよい。 The response execution unit 114 analyzes the image data and notifies that the setting is incorrect when the color of the lamp is red. Also, the response execution unit 114 may automatically correct the settings of the sensor device 30 .

[1.3.13 第13動作例]
第13動作例について説明する。
[1.3.13 13th operation example]
A thirteenth operation example will be described.

予測部112は、以下の特徴量に基づいて、転倒転落のリスクが高いかを判定する。 The prediction unit 112 determines whether the risk of falling over is high based on the following feature amounts.

・第2の特徴量:姿勢取得部104から出力される利用者の姿勢のうち、重心の軌跡、肩の位置の進行方向からのブレ、床からの頭の高さ、足の位置として特徴点同士の相対位置。 ・Second feature amount: Of the user's posture output from the posture acquisition unit 104, feature points such as the trajectory of the center of gravity, the deviation of the shoulder position from the direction of movement, the height of the head from the floor, and the position of the feet relative position to each other.

・第1の特徴量:周辺環境取得部102から出力される備品の位置。具体的には、周辺環境取得部102は、学習した備品画像データとマッチングして備品を検知する。そして、利用者が備品に接触していれば使用している備品として検出する。備品毎に重要度の係数を乗算する。 - First feature amount: the position of the equipment output from the surrounding environment acquisition unit 102 . Specifically, the surrounding environment acquisition unit 102 detects equipment by matching with the learned equipment image data. If the user touches the equipment, it is detected as being in use. Multiply the importance coefficient for each fixture.

・第3の特徴量:動作取得部106から出力される利用者の重心の軌跡、肩の位置の進行方向からのブレ、床からの頭の高さ、足の位置として特徴点同士の相対位置 ・Third feature quantity: the trajectory of the center of gravity of the user output from the motion acquisition unit 106, the deviation of the shoulder position from the direction of movement, the height of the head from the floor, and the relative positions of the feature points as the positions of the feet

これらの特徴量から、1又は複数の特徴量を選択し、予測部112は、説明変数を算出する。そして、予測部112は、説明変数に基づいて、利用者の転倒転落のリスクを予測する。 From these feature amounts, one or more feature amounts are selected, and the prediction unit 112 calculates explanatory variables. Then, the prediction unit 112 predicts the user's fall risk based on the explanatory variables.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high.

[1.3.14 第14動作例]
第14動作例について説明する。
[1.3.14 Fourteenth Operation Example]
A fourteenth operation example will be described.

予測部112は、以下の特徴量をもとに、転倒転落のリスクが高いかを判定する。 The prediction unit 112 determines whether the risk of falling is high based on the following feature amounts.

・第1の特徴量:周辺環境取得部102により、利用者の身長を算出し、当該身長に対応する適切なベッド高さとの乖離を推定
・第5の特徴量:疾病情報取得部110により、利用者の疾病情報、処置内容(施術、投薬、補助具の使用有無)、アセスメントを取得し、項目毎に係数を乗算したもの
・First feature value: The surrounding environment acquisition unit 102 calculates the height of the user and estimates the deviation from the appropriate bed height corresponding to the height ・Fifth feature value: The disease information acquisition unit 110, The user's disease information, treatment details (treatment, medication, use of assistive devices), and assessment are acquired, and each item is multiplied by a coefficient.

これらの特徴量から、1又は複数の特徴量を選択し、予測部112は、説明変数を算出する。そして、予測部112は、説明変数に基づいて、利用者の転倒転落のリスクを予測する。 From these feature amounts, one or more feature amounts are selected, and the prediction unit 112 calculates explanatory variables. Then, the prediction unit 112 predicts the user's fall risk based on the explanatory variables.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high.

[1.3.15 第15動作例]
第15動作例について説明する。
[1.3.15 Fifteenth Operation Example]
A fifteenth operation example will be described.

予測部112は、以下の特徴量をもとに、転倒転落のリスクが高いかを判定する。 The prediction unit 112 determines whether the risk of falling is high based on the following feature amounts.

・第1の特徴量:周辺環境取得部102がベッド制御装置40から取得したベッド装置5の高さ、背角度、膝角度。また、周辺環境取得部102により、利用者の身長を算出し、当該身長に対応する適切なベッド高さとの乖離。また、周辺環境取得部102は、画像データ又は周辺装置60(照度センサ)により、光量を取得する。明るさあによって係数を乗算する。また、周辺環境取得部102は、備品・障害物を画像データから取得する。例えば、介助バー、棚、布団、マットレス、パーティション、キャビネット、カーテン、車椅子、IVポール、マットセンサー、靴、他の利用者を形状(エッジ)、色を取得する。そして、周辺環境取得部102は、取得された備品・障害物毎に係数を乗算する。 First feature amount: the height, back angle, and knee angle of the bed device 5 acquired by the surrounding environment acquisition unit 102 from the bed control device 40 . Also, the height of the user is calculated by the surrounding environment acquisition unit 102, and the deviation from the appropriate bed height corresponding to the height is calculated. Also, the surrounding environment acquisition unit 102 acquires the amount of light from the image data or the peripheral device 60 (illuminance sensor). Multiply the factor by the brightness. Also, the surrounding environment acquisition unit 102 acquires fixtures/obstacles from the image data. For example, assist bars, shelves, futons, mattresses, partitions, cabinets, curtains, wheelchairs, IV poles, mat sensors, shoes, and other users are captured in shape (edge) and color. Then, the surrounding environment acquiring unit 102 multiplies a coefficient for each of the acquired fixtures/obstacles.

・第5の特徴量:疾病情報取得部110により、利用者の疾病情報、処置内容(施術、投薬、補助具の使用有無)、アセスメントを取得し、項目毎に係数を乗算したもの ・Fifth feature value: User's disease information, treatment details (treatment, medication, use of assistive device), and assessment acquired by the disease information acquisition unit 110, and each item is multiplied by a coefficient.

これらの特徴量から、1又は複数の特徴量を選択し、予測部112は、説明変数を算出する。そして、予測部112は、説明変数に基づいて、利用者の転倒転落のリスクを予測する。 From these feature amounts, one or more feature amounts are selected, and the prediction unit 112 calculates explanatory variables. Then, the prediction unit 112 predicts the user's fall risk based on the explanatory variables.

対応実行部114は、予測部112が転倒転落のリスクを高いと予測した場合に、報知処理を実行する。 The response execution unit 114 executes notification processing when the prediction unit 112 predicts that the risk of falling is high.

[1.3.16 第16動作例]
第16動作例は、対応実行部114が、周辺装置60と通信を行うことにより、以下のような動作制御を行うことがさらに可能となることを説明するものである。
[1.3.16 Sixteenth Operation Example]
The sixteenth operation example explains that the correspondence execution unit 114 can further perform the following operation control by communicating with the peripheral device 60 .

(1)リフト装置
周辺装置60がリフト装置に内蔵されている場合、制御部100は、以下のような情報を取得したり、周辺装置60(リフト装置)を制御したりすることができる。
(1) Lift Device When the peripheral device 60 is built in the lift device, the controller 100 can acquire the following information and control the peripheral device 60 (lift device).

・利用者に対してスリングをつける正しい手順をガイドする。
・スタッフ等がベッド装置から車椅子へ利用者を降ろす場合に、降ろす位置が適切かどうかを車椅子の座面位置と利用者臀部の位置関係等から判定する。もし、正しい位置でない場合は、どちらへどのくらい動かせばよいのかをアナウンスをする。
・選択したスリングが利用者にとって適切なものかどうかを判断する。
• Guiding the user through the correct procedure for applying the sling.
・When the staff unloads the user from the bed device onto the wheelchair, it is determined whether the unloading position is appropriate based on the positional relationship between the seat surface of the wheelchair and the user's buttocks. If it is not in the correct position, announce how far it should be moved.
• Determine if the selected sling is appropriate for the user.

・ベッド横に置かれている車椅子の位置が適切であるかどうかをリフトの稼働可能範囲や利用者の吊り上げ位置から判断する。車椅子又はリフトを動かす必要がある場合には、どちらの方向へどのくらい動かせばよいかアナウンスをする。
・リフトの使用状況を画像データから解析して、ベッド装置とリフト装置とを自動運転する。例えば、スリングをかけ終わったらベッド装置とリフト装置とを自動的に動かす。そして、車いすがある位置までリフトのアームを動かす。
・利用者がリフト上で吊られている体勢が適切かどうかを取得する。利用者にとって局所的に圧が係る体勢である場合には、その部分へクッションを入れる耐方法をアナウンスする。
・Judge whether the position of the wheelchair placed next to the bed is appropriate from the operable range of the lift and the lifting position of the user. If the wheelchair or lift needs to be moved, announce how far and in which direction it should be moved.
・Analyze the lift usage status from the image data and automatically operate the bed device and the lift device. For example, when the sling is finished, the bed device and the lift device are automatically moved. Then move the arm of the lift to the position where the wheelchair is.
・Acquire whether the posture of the user suspended on the lift is appropriate. If the user is in a position where pressure is applied locally, an announcement is made as to how to put a cushion in that area.

(2)車椅子
車椅子のロックが正しくかかっているかをスタッフ等の手の動き等から判断する。また、ロックが行われていない場合は、車椅子のロックをするようスタッフ等へアナウンスする。
(2) Wheelchair Whether or not the wheelchair is properly locked will be judged from the hand movements of the staff. Also, if the wheelchair is not locked, an announcement is made to the staff to lock the wheelchair.

(3)服薬
利用者が決まった時間に薬を飲んでいるかについてカメラ映像と撮像時間を解析して判断する。例えば、利用者が薬を飲んでいなかったり、捨てたりしている場合にはアラームを出力する。
(3) Medication Whether or not the user is taking medicine at a fixed time is determined by analyzing the camera image and the imaging time. For example, if the user does not take medicine or throws it away, an alarm is output.

(4)センサ装置
利用者が起きた時間、寝る時間を取得し、おやすみ、おはよう等の挨拶を行う。
(4) Sensor device Acquires the time when the user wakes up and goes to bed, and offers greetings such as good night and good morning.

(5)カーテン
利用者が居室から出ようとしていること、離床したことを患者の動作から検知して、カーテンを自動的に開く。また、居室に入ったこと、仰臥したことを検知して、カーテンを自動的に閉じる。
(5) Curtain The curtain is automatically opened by detecting from the patient's movement that the user is about to leave the room or has left the bed. It also automatically closes the curtains when it detects that the person has entered the living room or lies on his or her back.

(6)窓
明るさ又は時刻を判断して朝ならブラインドを開けて利用者の覚醒を促す。また、明るさ又は時刻を判断して夜ならブラインドを閉じて利用者の眠りを促す。
(6) Windows Determine the brightness or the time of day and open the blinds if it is morning to wake up the user. Also, the brightness or the time of day is determined, and if it is night, the blinds are closed to encourage the user to sleep.

(7)キャビネット
ペットボトル等で飲み物を飲んでいた場合、飲み物がなくなったことを検知してスタッフ等に通知する。
(7) Cabinet When a drink is taken from a plastic bottle or the like, it detects that the drink has run out and notifies the staff.

(8)オーバベッドテーブル
食事が終わったことを判断して、食器を下げるように報知する。また、食事中にベッド(マットレス等)が汚れたことを取得し、スタッフ等へ報知する。
(8) Overbed table Determines that the meal is over and notifies the user to put down the tableware. In addition, it acquires that the bed (mattress, etc.) is dirty during meals and notifies the staff.

(9)IVポール
点滴チューブが絡まっていることを検出し、危険な場合はスタッフ等に通知する。また、点滴の薬剤残量が減ってきた場合、終了予定時刻を算出し、スタッフ等へ報知する。
(9) IV pole Detects tangled IV tubes and notifies staff, etc. in case of danger. In addition, when the remaining amount of medicine for the infusion is decreasing, the scheduled end time is calculated and notified to the staff and the like.

[2.第2実施形態]
第2実施形態について説明する。第1実施形態は、制御装置10において、各種処理を実行する実施形態である。第2実施形態は、サーバ装置で各種処理を実行する実施形態である。なお、本実施形態は、第1実施形態とは異なる部分だけを説明し、共通の機能を有する構成については、同一の符号を付して、その説明を省略する。
[2. Second Embodiment]
A second embodiment will be described. 1st Embodiment is embodiment which performs various processes in the control apparatus 10. FIG. The second embodiment is an embodiment in which various processes are executed by a server device. In this embodiment, only parts different from the first embodiment will be explained, and the same reference numerals will be given to the configurations having common functions, and the explanation thereof will be omitted.

図16は、第2実施形態のシステム2の概要を示す一部の図である。第2実施形態では、制御装置15がネットワークNWに接続されている。また、制御装置15には、カメラ装置20の他、種々の装置が接続されている。また、サーバ装置70は、転倒転落予測処理等を実行する。サーバ装置70は、ネットワークNWに接続されている。 FIG. 16 is a partial diagram showing an overview of the system 2 of the second embodiment. In the second embodiment, the control device 15 is connected to the network NW. Various devices other than the camera device 20 are connected to the control device 15 . The server device 70 also executes a fall prediction process and the like. The server device 70 is connected to the network NW.

図17は、第2実施形態の機能を説明するための図である。第1実施形態の制御装置10で行っていた処理を、サーバ装置70で実現している。 FIG. 17 is a diagram for explaining functions of the second embodiment. The processing performed by the control device 10 of the first embodiment is implemented by the server device 70 .

すなわち、居室Rには、制御部を有する制御装置200を有しており、制御装置200に各装置が接続されている。なお、表示装置210は第1実施形態の表示部130と、操作装置220は、第1実施形態の操作部135と、報知装置230は、第1実施形態の報知部140と、通信装置240は、第1実施形態の通信部150とにそれぞれ対応している。各装置は、制御装置200と一体として形成されていてもよいし、別の装置として構成されていてもよい。 That is, the living room R has a control device 200 having a control unit, and each device is connected to the control device 200 . Note that the display device 210 is the display unit 130 of the first embodiment, the operation device 220 is the operation unit 135 of the first embodiment, the notification device 230 is the notification unit 140 of the first embodiment, and the communication device 240 is , and the communication unit 150 of the first embodiment. Each device may be formed integrally with the control device 200, or may be configured as a separate device.

第2実施形態では、種々の装置で取得したデータを、サーバ装置70に送信する。例えば、カメラ装置20で撮影した画像データは、制御装置200から、サーバ装置70に送信される。サーバ装置70は、受信した画像データを画像データ記憶領域1240に記憶する。同様に、例えばセンサ装置30で取得された体動を示す信号等も、サーバ装置70に送信される。 In the second embodiment, data acquired by various devices are transmitted to the server device 70 . For example, image data captured by the camera device 20 is transmitted from the control device 200 to the server device 70 . Server device 70 stores the received image data in image data storage area 1240 . Similarly, a signal or the like indicating body movement acquired by the sensor device 30 is also transmitted to the server device 70 .

そして、サーバ装置70は、受信された各種信号、情報に基づいて予測部112が転倒転落の危険性の確率(リスク)を予測する。そして、対応実行部114は、報知処理等を報知装置230に対して実行する。 Then, in the server device 70, the prediction unit 112 predicts the probability (risk) of the risk of falling based on the received various signals and information. Then, the response execution unit 114 executes notification processing and the like on the notification device 230 .

このように、本実施形態によれば、第1実施形態で説明した機能は、サーバ装置やクラウドで実現することも可能である。なお、本実施形態では、第1実施形態で実現される機能を全てサーバ装置70で実現することとして説明したが、第1実施形態の制御装置10で実現される機能のうち、一部のみをサーバ装置70で実現してもよい。例えば、生体情報取得部108、疾病情報取得部110は、制御装置200で実現し、他の機能をサーバ装置70で実現してもよい。 As described above, according to the present embodiment, the functions described in the first embodiment can be realized by a server device or a cloud. In the present embodiment, all the functions realized in the first embodiment are described as being realized by the server device 70, but only some of the functions realized by the control device 10 of the first embodiment are It may be implemented by the server device 70 . For example, the biological information acquisition unit 108 and the disease information acquisition unit 110 may be realized by the control device 200 and other functions may be realized by the server device 70 .

[3.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[3. Modification]
Although the embodiments of the present invention have been described in detail above with reference to the drawings, the specific configuration is not limited to these embodiments, and designs and the like within the scope of the scope of the claims can be applied without departing from the gist of the present invention. include.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 In addition, the program that operates in each device in the embodiment is a program that controls the CPU and the like (a program that causes the computer to function) so as to implement the functions of the above-described embodiments. The information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) during processing, then stored in various ROM, HDD, and SSD storage devices, and read out by the CPU as necessary. , correction and writing are performed.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 When distributed to the market, the program can be stored in a portable recording medium for distribution, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server computer is also included in the present invention.

また、上述した実施形態は、例えばスマートフォンやタブレットで実現することもかのうである。例えば、スタッフ等は、ベッド装置5のフットボードにスマートフォンを設置し、スマートフォンに内蔵されたカメラでベッド装置5上を撮影する。また、センサ装置30や、ベッド制御装置40等とは、近距離無線通信で接続することにより情報を取得する。 Also, the above-described embodiments can be realized by, for example, smartphones and tablets. For example, a staff member or the like installs a smartphone on the footboard of the bed apparatus 5 and takes an image of the bed apparatus 5 with a camera built into the smartphone. Further, information is acquired by connecting the sensor device 30, the bed control device 40, and the like by short-range wireless communication.

そして、制御部100で実現される機能を実現できるアプリケーションをスマートフォンにインストールすることにより、上述した実施形態のシステムをスマートフォン上で実現することが可能となる。 By installing an application capable of realizing the functions realized by the control unit 100 on the smartphone, the system of the above-described embodiment can be realized on the smartphone.

1 システム
10 制御装置
100 制御部
120 記憶部
20 カメラ装置
30 センサ装置
40 ベッド制御装置
50 サーバ装置
502 電子カルテDB
60 周辺装置
1 system 10 control device 100 control unit 120 storage unit 20 camera device 30 sensor device 40 bed control device 50 server device 502 electronic chart DB
60 Peripherals

Claims (4)

利用者の姿勢に関する情報、前記利用者の動作に関する情報、前記利用者の生体情報、前記利用者の疾病情報のうち、少なくとも1つ以上の第1情報と前記利用者の周りの環境の情報を取得する取得部と、
前記取得部により取得された情報により、前記利用者の転倒転落のリスクを予測する予測部と、
前記予測部の予測結果に応じて報知を行う報知部と、
を備え、
前記利用者の環境の情報として、前記利用者の転倒転落のリスクを軽減する設備を認識できるか否か及び前記利用者の周辺にスタッフが存在するか否かを示す軽減要因が含まれているシステム。
At least one or more first information among information on the posture of the user, information on the movement of the user, biological information on the user, and disease information on the user, and information on the environment around the user. an acquisition unit that acquires
a prediction unit that predicts the risk of falling of the user based on the information acquired by the acquisition unit;
a notification unit that performs notification according to the prediction result of the prediction unit;
with
The information of the user's environment includes a mitigation factor indicating whether or not equipment that reduces the risk of falling of the user can be recognized and whether or not staff are present around the user. system.
前記予測部は、前記取得部が前記軽減要因として、前記利用者の周辺にスタッフが存在することを認識した場合、前記利用者の転倒転落のリスクを、前記利用者の周辺にスタッフが存在しない場合と比較して低く予測する請求項1に記載のシステム。 When the acquisition unit recognizes that a staff member is present around the user as the mitigation factor, the prediction unit determines the risk of the user falling down by determining that there is no staff member around the user. 2. The system of claim 1, which predicts less than the case. 前記予測部が、前記利用者の転倒転落リスクが閾値よりも高いと予測するとき、ベッド装置の高さ又はボトムの変更、部屋の明るさの変更、又はセンサの設定変更をするように制御する制御部を更に備える請求項1又は2に記載のシステム。 When the prediction unit predicts that the user's fall risk is higher than a threshold, control is performed to change the height or bottom of the bed apparatus, change the brightness of the room, or change the setting of the sensor. 3. The system of claim 1 or 2, further comprising a controller. 前記取得部は、前記利用者の周りの環境として、障害物に関する第1特徴量を取得し、
前記予測部は、前記利用者から前記障害物までの距離が第1の距離より短い場合に、前記利用者の転倒転落のリスクを第1の値とし、前記利用者から前記障害物までの距離が前記第1の距離より長い場合に、前記利用者の転倒転落のリスクを前記第1の値よりも低い第2の値とする
請求項1に記載のシステム。
The acquisition unit acquires a first feature amount related to obstacles as an environment around the user,
When the distance from the user to the obstacle is shorter than a first distance, the prediction unit sets the risk of falling of the user to a first value, and calculates the distance from the user to the obstacle. 2. The system of claim 1, wherein the user's risk of falling is a second value lower than the first value if is greater than the first distance.
JP2023068742A 2019-05-24 2023-04-19 system Pending JP2023109751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023068742A JP2023109751A (en) 2019-05-24 2023-04-19 system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019097760A JP7267104B2 (en) 2019-05-24 2019-05-24 system
JP2023068742A JP2023109751A (en) 2019-05-24 2023-04-19 system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019097760A Division JP7267104B2 (en) 2019-05-24 2019-05-24 system

Publications (1)

Publication Number Publication Date
JP2023109751A true JP2023109751A (en) 2023-08-08

Family

ID=73547589

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019097760A Active JP7267104B2 (en) 2019-05-24 2019-05-24 system
JP2023068742A Pending JP2023109751A (en) 2019-05-24 2023-04-19 system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019097760A Active JP7267104B2 (en) 2019-05-24 2019-05-24 system

Country Status (1)

Country Link
JP (2) JP7267104B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102608941B1 (en) * 2021-11-12 2023-12-01 인빅 주식회사 Abnormal behavior detecting system using artificial intelligence
JP7237382B1 (en) 2021-12-24 2023-03-13 知能技術株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7612681B2 (en) * 2007-02-06 2009-11-03 General Electric Company System and method for predicting fall risk for a resident
JP6327438B2 (en) * 2014-01-14 2018-05-23 清水建設株式会社 Pedestrian alarm server and portable terminal device
JP2016224619A (en) * 2015-05-28 2016-12-28 シャープ株式会社 Accident prevention device and portable electronic device having the accident prevention device
JP2017010383A (en) * 2015-06-24 2017-01-12 シャープ株式会社 Danger detection device

Also Published As

Publication number Publication date
JP2020194212A (en) 2020-12-03
JP7267104B2 (en) 2023-05-01

Similar Documents

Publication Publication Date Title
JP7457625B2 (en) bed system
JP6688274B2 (en) How to predict the user's leaving condition
US10172522B2 (en) Patient-need prediction system
EP2732761A1 (en) Augmented reality system in the patient care environment
JP2023109751A (en) system
JP5657315B2 (en) A device that supports the user and monitors the user's condition
US8844073B2 (en) Apparatus for supporting and monitoring a person
JP2014515628A (en) Sensing system for patient support
KR20160080898A (en) Smart bed system and control method thereof
JP6757155B2 (en) Status judgment device
JP5202469B2 (en) Monitoring support apparatus, system, and monitoring support method
US20160375219A1 (en) Patient support system for monitoring and controlling sleep
US20200155059A1 (en) Systems and methods for determining an objective pressure injury score and altering a treatment plan based on the same
US20240115443A1 (en) Techniques For Managing Patient Therapy Protocols
JP6713900B2 (en) Bed system
JP6955609B2 (en) Bed system
JP2023161202A (en) Information processing system, information processing apparatus, and information processing method
WO2023210035A1 (en) Information processing system, information processing device, and information processing method
US20240037991A1 (en) Information processing system and an information processing method
US11837363B2 (en) Remote management of patient environment
US20230123309A1 (en) Adaptive patient monitoring system for bed exit
US20230123333A1 (en) Devices, systems, and methods for providing remote support to a user of care components
JP2023084336A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423