JP3238765U - Posture/Action Recognition System - Google Patents

Posture/Action Recognition System Download PDF

Info

Publication number
JP3238765U
JP3238765U JP2022002039U JP2022002039U JP3238765U JP 3238765 U JP3238765 U JP 3238765U JP 2022002039 U JP2022002039 U JP 2022002039U JP 2022002039 U JP2022002039 U JP 2022002039U JP 3238765 U JP3238765 U JP 3238765U
Authority
JP
Japan
Prior art keywords
bed
depth
state
human head
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022002039U
Other languages
Japanese (ja)
Inventor
林献堂
曾瀚▲ハオ▼
陳浩▲ウェイ▼
魏華廷
皮遠▲ポン▼
Original Assignee
伍碩科技股▲分▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 伍碩科技股▲分▼有限公司 filed Critical 伍碩科技股▲分▼有限公司
Priority to JP2022002039U priority Critical patent/JP3238765U/en
Application granted granted Critical
Publication of JP3238765U publication Critical patent/JP3238765U/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ベッドから離れる行為、転倒その他の行為をモニターすることができる姿勢・動作識別システムを提供する。【解決手段】姿勢・動作識別システムは、少なくとも1つの撮像装置1と、少なくとも1つのバックグランドサーバ2とを備える。撮像装置は、ターゲット環境内の3次元深度画像データをキャプチャする。バックグランドサーバは、撮像装置がキャプチャした3次元深度画像データを受信する。バックグランドサーバは、深度学習アプリケーションが実装され、3次元深度画像データに基づいて画像検出及び追跡を行い、人体頭部位置及びベッド型物体位置をキャプチャし、人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、人体頭部位置及びベッド型物体位置のオーバーラップ状態に基づいてベッド上状態を判断し、人体頭部の落下幅及び落下幅時間に基づいて非ベッド上状態を判断する。【選択図】図1A posture/action identification system capable of monitoring actions such as getting out of bed, falling, and the like. A posture/action identification system includes at least one imaging device (1) and at least one background server (2). An imaging device captures three-dimensional depth image data within the target environment. A background server receives the three-dimensional depth image data captured by the imaging device. The background server implements a depth learning application, performs image detection and tracking based on the 3D depth image data, captures the human head position and the bed-type object position, and based on the human head position, in the target environment In addition to determining the number of people in the bed, based on the overlapping state of the position of the human head and the position of the bed-type object, the state on the bed is determined, and the non-on-bed state is determined based on the drop width and drop width time of the human head. . [Selection drawing] Fig. 1

Description

本考案は、姿勢・動作識別システムに関し、特に、ベッド上状態又は/及び非ベッド上状態を判断し、電子装置に送信して警告及び通知を行う姿勢識別システムに関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a posture and motion identification system, and more particularly to a posture identification system that determines on-bed and/or non-on-bed conditions and sends them to electronic devices to provide warnings and notifications.

高齢又は虚弱体質の患者にとって、転倒は病院及び介護施設で発生する傷害及び死亡の主な原因となっている。転倒は、患者がベッドを離れるときに発生し易いが、医療及び介護に対する要求が徐々に高まっている状況下では、介護スタッフが常に患者に関心を払うことは実質的にほぼ不可能であった。 For elderly or frail patients, falls are the leading cause of injury and death occurring in hospitals and nursing homes. Falls are more likely to occur when patients leave their beds, but given the ever-increasing demand for medical and nursing care, it was virtually impossible for nursing staff to pay constant attention to patients. .

これに対し、患者が病院のベッドから離れるときに、ベッドから離れる状況、転倒又はその他の行為をモニターし、直ちに警告及び通知することができれば、上述した問題を解決することができる。そのため、人体頭部位置及びベッド型物体位置に基づき、ターゲット環境内の人数、ベッド上状態、非ベッド上状態を判断し、その姿勢状態を電子装置に送信し、警告及び通知を行うことができる技術が求められていた。 On the other hand, if a patient leaves the hospital bed, the above-mentioned problems could be solved if bed separation conditions, falls or other actions could be monitored and immediate warnings and notifications could be provided. Therefore, based on the human head position and the bed-type object position, the number of people in the target environment, the state on the bed, and the state not on the bed can be determined, and the posture state can be transmitted to the electronic device for warning and notification. technology was required.

本考案の課題は、患者がベッドから離れる際、ベッドから離れる行為、転倒その他の行為をモニターすることができる姿勢・動作識別システムを提供することにある。
本考案のもう一つの課題は、人体頭部位置及びベッド型物体位置に基づき、ターゲット環境内の人数、ベッド上状態、非ベッド上状態、ベッド位置の移動状態を判断し、その姿勢状態を電子装置に送信して警告及び通知を行うことができる姿勢・動作識別システムを提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a posture and motion identification system that can monitor bed-leaning, falls, and other behaviors when a patient leaves the bed.
Another object of the present invention is to determine the number of people in the target environment, the state on the bed, the state not on the bed, and the state of movement of the bed position based on the position of the human head and the position of the bed-type object, and electronically record the posture state. To provide a posture/motion identification system capable of sending warnings and notifications to devices.

上記の課題を解決するために、本考案の第1の形態によれば、少なくとも1つの撮像装置と、少なくとも1つのバックグランドサーバと、を備えた姿勢・動作識別システムであって、前記撮像装置は、ターゲット環境内の3次元深度画像データをキャプチャし、前記バックグランドサーバは、前記撮像装置がキャプチャした前記3次元深度画像データを受信し、前記バックグランドサーバは、深度学習アプリケーションが実装され、前記3次元深度画像データに基づいて画像検出及び追跡を行い、人体頭部位置及びベッド型物体位置をキャプチャし、前記人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、前記人体頭部位置及び前記ベッド型物体位置のオーバーラップ状態に基づいてベッド上状態を判断し、人体頭部の落下幅及び落下幅時間に基づいて非ベッド上状態を判断することを特徴とする姿勢・動作識別システムが提供される。 In order to solve the above problems, according to a first aspect of the present invention, there is provided a posture/motion identification system comprising at least one imaging device and at least one background server, wherein the imaging device captures 3D depth image data in a target environment, the background server receives the 3D depth image data captured by the imaging device, the background server is implemented with a depth learning application; performing image detection and tracking based on the three-dimensional depth image data, capturing a human head position and a bed-type object position, determining the number of people in a target environment based on the human head position, and A posture/movement characterized by judging a state on the bed based on the overlapping state of the body position and the position of the bed-type object, and judging a state not on the bed based on the fall width and the fall width time of the human head. An identification system is provided.

前記深度学習アプリケーションは、深度トレーニングユニット、画像受信ユニット、画像検出・追跡ユニット及び状態判断ユニットを有し、前記深度トレーニングユニットは、前記バックグランドサーバに記憶した複数のフィールド深度データに対してモデルトレーニングを行って深度学習モデルを構築し、前記画像受信ユニットは、前記3次元深度画像データを受信し、前記画像検出・追跡ユニットは、前記深度トレーニングユニット及び前記画像受信ユニットと接続され、画像検出・追跡ユニットは、深度学習モデルを含み、前記深度学習モデルを介して前記3次元深度画像データに対して画像検出・追跡を行い、ターゲット環境内の前記人体頭部位置及び前記ベッド型物体位置を検出するとともに、人体頭部及びベッド型物体を追跡し、前記状態判断ユニットは、前記画像検出・追跡ユニットと接続され、前記人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、前記人体頭部位置及び前記ベッド型物体位置のオーバーラップ状態に基づき、ベッド上状態を判断し、人体頭部の落下幅及び落下幅時間に基づいて非ベッド上状態を判断することが好ましい。 The depth learning application comprises a depth training unit, an image receiving unit, an image detection and tracking unit and a state determination unit, wherein the depth training unit performs model training on multiple field depth data stored in the background server. to build a depth learning model, the image receiving unit receives the three-dimensional depth image data, the image detection and tracking unit is connected with the depth training unit and the image reception unit, and performs image detection and tracking. The tracking unit includes a depth learning model, and performs image detection and tracking on the three-dimensional depth image data via the depth learning model to detect the human head position and the bed-shaped object position in the target environment. and tracking a human head and a bed-shaped object, wherein the state determination unit is connected with the image detection and tracking unit to determine the number of people in the target environment based on the human head position; It is preferable to determine the on-bed state based on the overlapping state of the head position and the bed-shaped object position, and to determine the non-on-bed state based on the fall width and the fall width time of the human head.

前記3次元深度画像データは、RGB3色チャネルにより構成されるか、グレイスケール画像チャネルにより構成され、前記3次元深度画像データの入力ビット数は、8ビット又は16ビットであることが好ましい。 Preferably, the three-dimensional depth image data is composed of three color channels of RGB or composed of grayscale image channels, and the number of input bits of the three-dimensional depth image data is 8 bits or 16 bits.

本考案の姿勢・動作識別システムは、以下(1)及び(2)の効果を有する。
(1)患者がベッドから離れる際、ベッドから離れる行為、転倒その他の行為をモニターすることができる。
(2)人体頭部位置及びベッド型物体位置に基づき、ターゲット環境内の人数、ベッド上状態、非ベッド上状態、ベッド位置の移動状態を判断し、その姿勢状態を電子装置に送信して警告及び通知を行うことができる。
The posture/action identification system of the present invention has the following effects (1) and (2).
(1) When the patient leaves the bed, it is possible to monitor the action of leaving the bed, falls and other actions.
(2) Based on the position of the human head and the position of the bed-type object, determine the number of people in the target environment, the state on the bed, the state not on the bed, and the movement state of the bed position, and send the posture state to the electronic device for warning. and notification.

本考案の一実施形態に係る姿勢・動作識別システムの全体構成を示すブロック図である。1 is a block diagram showing the overall configuration of a posture/motion identification system according to an embodiment of the present invention; FIG. 本考案の一実施形態に係る姿勢・動作識別システムのバックグラウンドサーバの構成を示すブロック図である。1 is a block diagram showing the configuration of a background server of a posture/motion identification system according to an embodiment of the present invention; FIG. 本考案の一実施形態に係る姿勢・動作識別システムの深度学習アプリケーションの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a depth learning application of the posture/motion recognition system according to an embodiment of the present invention; 本考案の一実施形態に係る姿勢・動作識別システムの流れ図である。1 is a flow diagram of a posture and motion recognition system according to an embodiment of the present invention; 本考案の一実施形態に係る姿勢・動作識別システムの流れ図である。1 is a flow diagram of a posture and motion recognition system according to an embodiment of the present invention; 本考案の一実施形態に係る姿勢・動作識別システムの流れ図である。1 is a flow diagram of a posture and motion recognition system according to an embodiment of the present invention;

本考案の他の技術内容、特徴及び効果について、以下、図面を参照しながら好適な実施形態の詳細な説明で明らかにする。 Other technical contents, features and effects of the present invention will be clarified in the detailed description of the preferred embodiments with reference to the drawings.

図1~図3を参照する。
図1は、本考案の一実施形態に係る姿勢・動作識別システムの全体構成を示すブロック図である。図2は、本考案の一実施形態に係る姿勢・動作識別システムのバックグラウンドサーバの構成を示すブロック図である。図3は、本考案の一実施形態に係る姿勢・動作識別システムの深度学習アプリケーションの構成を示すブロック図である。
図1~図3に示すように、本考案の一実施形態に係る姿勢・動作識別システムは、少なくとも1つの撮像装置1と、少なくとも1つのバックグランドサーバ2と、を含む。撮像装置1は、ターゲット環境内の3次元深度画像データをキャプチャする深度画像撮影装置であるか、深度画像撮影機能を有する装置である。
Please refer to FIGS.
FIG. 1 is a block diagram showing the overall configuration of a posture/motion identification system according to an embodiment of the present invention. FIG. 2 is a block diagram showing the configuration of the background server of the posture/motion identification system according to one embodiment of the present invention. FIG. 3 is a block diagram showing the configuration of the depth learning application of the posture/motion recognition system according to one embodiment of the present invention.
As shown in FIGS. 1 to 3, the posture/motion identification system according to one embodiment of the present invention includes at least one imaging device 1 and at least one background server 2. As shown in FIGS. The imaging device 1 is a depth imaging device that captures three-dimensional depth image data in a target environment, or a device with depth imaging capabilities.

3次元深度画像データ(例えば点群)は、深度カメラが受信したその環境の距離情報のデータ態様を表す。深度画像は主に物体の大体の輪郭を表し、カラー画像より機密性が高い上、それが有する「深度情報」を利用することができるため、機密空間に応用可能な長所を有する。 The 3D depth image data (eg, point cloud) represents a data aspect of the range information of the environment received by the depth camera. A depth image mainly represents the outline of an object, is more confidential than a color image, and has the advantage of being able to use the "depth information" that it has, so that it can be applied to a confidential space.

3次元深度画像データは、RGB3色チャネルにより構成されるか、グレイスケール画像チャネル(grayscale image channel)により構成される。シングルチャネルの深度画像(グレイスケール図)は、射影アルゴリズムにより投射して発生させ、深度画像は物体の距離情報を表し、一般のカラー画像は、RGB3色チャネルにより形成されるが、多すぎるチャネル数は、AIモデルの検出に必要な時間が多くかかり、システムのリソースを多く消耗する。そのため、シングルチャネルを受けることができるように修正することができる場合、シングルチャネルは3チャネルと比べ、不必要なリソースの消耗を放出し、アルゴリズム毎の時間を減らし、全体の性能を高めることができる。 The 3D depth image data may consist of RGB tricolor channels or may consist of a grayscale image channel. A single-channel depth image (grayscale image) is generated by projection using a projection algorithm, the depth image represents the distance information of the object, and a general color image is formed by RGB three color channels, but the number of channels is too large. However, AI model detection takes a lot of time and consumes a lot of system resources. Therefore, if it can be modified to accept single channel, single channel can release unnecessary resource consumption, reduce time per algorithm and increase overall performance compared to 3 channels. can.

3次元深度画像データは、入力ビット数(深度画像の各画素)が8ビット又は16ビットであり、0~65535により検出した距離情報を表し、CenterNetの入力要求を満たすために、深度画像を8ビットに圧縮してから入力するため、距離情報の多くが流出してしまい、良好な検出結果が得られなかった。そのため、CenterNetを修正すると16ビットのデータを受け取ることができるようになり、最も好ましい効果が得られる。そのため、16ビットのデータを使用した場合、初期の圧縮していない深度情報を入力し、AIモデル(AI model)の完全な詳細データを提供し、その判断の精度を高めることができる。 The 3D depth image data has an input bit number (each pixel of the depth image) of 8 bits or 16 bits, and represents the detected distance information from 0 to 65535. Since the data is input after being compressed into bits, much of the distance information is leaked out, and good detection results cannot be obtained. Therefore, modifying CenterNet to accept 16-bit data has the most favorable effect. Therefore, when using 16-bit data, it is possible to input the initial uncompressed depth information and provide full details of the AI model to improve the accuracy of its decisions.

バックグランドサーバ2は、撮像装置1がキャプチャした3次元深度画像データを受信する。バックグランドサーバ2は、少なくとも1つのプロセッサ21と、少なくとも1つのコンピュータ可読記憶媒体22とを含む。
コンピュータ可読記憶媒体22は、少なくとも1つの深度学習アプリケーション221を記憶する。コンピュータ可読記憶媒体22は、コンピュータ可読コマンドを記憶し、複数のプロセッサ21がコンピュータ可読コマンドを実行するとき、深度学習アプリケーション221が3次元深度画像データに基づいて画像検出及び追跡を行うとともに、ターゲット環境内の人数、ベッド上状態又は/及び非ベッド上状態を判断する。
The background server 2 receives the 3D depth image data captured by the imaging device 1 . Background server 2 includes at least one processor 21 and at least one computer-readable storage medium 22 .
Computer readable storage medium 22 stores at least one depth learning application 221 . The computer-readable storage medium 22 stores computer-readable commands, and when the plurality of processors 21 executes the computer-readable commands, the depth learning application 221 performs image detection and tracking based on the three-dimensional depth image data and the target environment. determine the number of people in, bed-on condition or/and non-bed-on condition.

深度学習アプリケーション221は、深度トレーニングユニット2211、画像受信ユニット2212、画像検出・追跡ユニット2213及び状態判断ユニット2214を含む。
(1)深度トレーニングユニット2211は、バックグランドサーバ2に記憶した複数のフィールド深度データに対してモデルトレーニングを行い、深度学習モデルを構築する。
(2)画像受信ユニット2212は、3次元深度画像データを受信する。
(3)画像検出・追跡ユニット2213は、深度トレーニングユニット2211及び画像受信ユニット2212と接続され、画像検出・追跡ユニット2213は、深度学習モデルを介して3次元深度画像データに対して画像検出・追跡を行い、ターゲット環境内の人体頭部位置及びベッド型物体位置を検出するとともに、人体頭部及びベッド型物体を追跡する。
(4)状態判断ユニット2214は、画像検出・追跡ユニット2213と接続され、人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、人体頭部位置及びベッド型物体位置のオーバーラップ状態に基づき、ベッド上状態を判断し、人体頭部の落下幅(頭部が傾いてから止まるまでの傾斜加速度)及び落下幅時間(頭部が傾いてから止まるまでの傾斜時間)に基づいて非ベッド上状態を判断する。
The depth learning application 221 includes a depth training unit 2211 , an image receiving unit 2212 , an image detection and tracking unit 2213 and a state determination unit 2214 .
(1) The depth training unit 2211 performs model training on a plurality of field depth data stored in the background server 2 to construct a depth learning model.
(2) The image receiving unit 2212 receives 3D depth image data.
(3) The image detection and tracking unit 2213 is connected with the depth training unit 2211 and the image receiving unit 2212, and the image detection and tracking unit 2213 performs image detection and tracking on the 3D depth image data through the depth learning model. to detect the human head position and bed-shaped object position in the target environment and track the human head and bed-shaped object.
(4) The state determination unit 2214 is connected with the image detection and tracking unit 2213 to determine the number of people in the target environment according to the human head position, and to determine the overlapping state of the human head position and the bed-type object position. Based on this, the state on the bed is determined, and the width of the fall of the human head (incline acceleration from head tilt to stop) and fall width time (tilt time from head tilt to stop). Determine top condition.

深度トレーニングユニット2211は、物体検出アルゴリズム(object detection algorithms)によりモデルトレーニングを行い、深度学習モデルにより3次元深度画像データに対して画像の検出及び追跡を行う。物体検出アルゴリズム技術は、CenterNet、YOLO、SSD、DarkNet又はMobileNetである。 The depth training unit 2211 performs model training with object detection algorithms and image detection and tracking on 3D depth image data with depth learning models. Object detection algorithm technologies are CenterNet, YOLO, SSD, DarkNet or MobileNet.

本考案の深度トレーニングユニット2211は、大量の様々な環境のデータを収集してトレーニングする。本考案がトレーニングするモデルは、以下(1)~(6)のモデル最適化過程を有する。
(1)様々なフィールドの深度データを収集し、データの多様性を高める。
(2)深度データ中の人体頭部が位置する画面中の位置をマーキングして収集し、深度画像中の人体頭部位置のマーキングは、画面中に65~70%より多く現れる人体頭部をマーキングし、頭全体を必ずマーキングしなければならないことによりマーキングが失われることを減らすことができる。
(3)モデルトレーニング。
(4)トレーニングが終了したモデルが、異なる環境での精度が98%より大きいか否かをテストする。もし達成できない場合、データマーキングの検視及び修正を行う。
(5)モデルの精度目標が達成できた場合アルゴリズムを実際のフィールド中に利用して1週間又はそれ以上の時間をかけてテストする(人体頭部を確実にマーキングして識別した後、アルゴリズムにより実際のフィールド中に対してテストし、人体の行為状態(ベッド上状態又は非ベッド上状態)を判断する)。
(6)過程で発生する行為が予期できないか、検出できない場合、モデルデータ及び行為アルゴリズムを最適化し、最適な効果を得る。
The depth training unit 2211 of the present invention collects and trains a large amount of various environmental data. The model trained by the present invention has the following model optimization processes (1) to (6).
(1) Collect depth data in various fields to increase data diversity.
(2) Marking and collecting the position in the screen where the human head is located in the depth data, and marking the position of the human head in the depth image, the human head that appears more than 65 to 70% in the screen. Marking and loss of marking due to having to mark the entire head can be reduced.
(3) model training.
(4) Test whether the trained model is more than 98% accurate in different environments. If not achievable, review and correct data markings.
(5) If the accuracy goal of the model is achieved, the algorithm is used in the actual field and tested for a week or more (after reliably marking and identifying the human head, the algorithm test against the actual field to determine the behavioral state of the human body (bed-on or non-bed-on)).
(6) Optimizing model data and behavioral algorithms to achieve optimal results when behaviors occurring in the process are unpredictable or undetectable.

深度学習アプリケーション221は、状態に変化が発生したことを判断する毎に、状態が変化した画像を記憶するため、複数回記憶するのにかかるコスト及び時間を節約することができる。 The depth learning application 221 stores an image with a change in state each time it determines that a change in state has occurred, thus saving the cost and time required to store multiple times.

深度学習アプリケーション221の実際の工程を、図4A~図4Cに示す流れ図に基づき、以下(1)~(7)で説明する。
(1)画像入力(401)を行った後、画像検出(402)を開始し、ターゲット環境内の人数に基づき、ターゲット環境内が無人状態(406)であるか、1人の状態(404)であるか、複数人の状態(405)であるかを判断する。
(2)複数人の状態とは、介護者が介護する状態に入り、転倒の正確な判断及び誤差を減らすために、1人の状態に対してベッド上状態又は/及び非ベッド上状態を分析してもよいが、複数人の状態に対してベッド上状態又は/及び非ベッド上状態を分析・判断してもよい。
(3)続いて、画像追跡(407)を開始し、オーバーラップ(408)を判断する。つまり、人体頭部位置がベッド型物体位置の範囲内にあるか否かを判断する。オーバーラップされている場合(つまり範囲内にある場合)、ベッド上状態を判断し、オーバーラップされていない場合(つまり範囲内にない場合)、非ベッド上状態を判断する。
(4)オーバーラップされていると判断した場合、人体頭部位置が第1の高さより高いか判断し(409)、第1の高さより低い場合、ベッド上状態がベッド上に横たわっている状態(410)(例えば、ベッド上に横たわっている)と判断する。反対に、第1の高さより高い場合、人体頭部位置が第2の高さより高いか判断する(411)。第2の高さより低い場合、ベッド上状態が身を起こした状態(412)(第2の高さが人体の上半身の高さに近いため、第2の高さより低い場合、上半身が完全に直立されていない状態を表す)であると判断する。もし第2の高さより高い場合、ベッド上状態がベッドに座った状態(413)(第2の高さより高いため、上半身が直立した状態)であると判断する(例えば、ベッドに腰かけた状態)。
(5)オーバーラップされていないと判断した場合、転倒の有無をさらに判断する。これは主に、人体頭部の傾斜速度及び傾斜時間に基づいて人体頭部の落下幅を判断し、まず、人体頭部の傾き(414)の有無を判断し、もし傾きが無い場合、画像追跡(407)に再び戻る。
(6)もし傾いている場合、人体頭部の落下幅が加速度基準値(100~120cm/s、100cm/s、101cm/s、102cm/s、103cm/s、104cm/s、105cm/s、106cm/s、107cm/s、108cm/s、109cm/s、110cm/s、111cm/s、112cm/s、113cm/s、114cm/s、115cm/s、116cm/s、117cm/s、118cm/s、119cm/s、120cm/s)415より高いか否かを判断する。もし判断が「ノー」の場合、非ベッド上状態は、人が進入した状態であると判断し(416)(可視範囲に人が進入したことを検出)、もし判断が「イエス」の場合、非ベッド上状態が転倒した可能性がある状態であると判断する(417)。
(7)その後、転倒した可能性がある状態であると判断した後、人体頭部位置の停止時間が一定時間を超えたか判断し(418)(これは自ら設定可能である)、もし判断が「ノー」の場合、非ベッド上状態が軽微な転倒状態であると判断する(419)。もし判断が「イエス」の場合、非ベッド上状態が深刻な転倒状態であると判断する(420)(例えば、ベッドから転げ落ちた状態、立ち上がったときにバランスを崩して転倒した状態など)。
The actual steps of the deep learning application 221 will be described in (1)-(7) below based on the flowcharts shown in FIGS. 4A-4C.
(1) After image input (401), image detection (402) is started, and based on the number of people in the target environment, the target environment is empty (406) or alone (404). or multiple persons (405).
(2) Multi-Person State: Analyze Bed-On or/and Non-Bed-On State for One Person to Enter Caregiver-Care State and Accurately Determine Falls and Reduce Errors However, it is also possible to analyze and determine the bed state and/or the non-bed state for the states of a plurality of persons.
(3) Subsequently, image tracking (407) is started and overlap (408) is determined. That is, it is determined whether or not the human head position is within the range of the bed-shaped object position. If overlapped (i.e., within range), determine an on-bed condition; if not overlapped (i.e., not within range), determine a non-on-bed condition.
(4) If it is determined that they are overlapped, determine whether the human head position is higher than the first height (409), and if it is lower than the first height, the bed state is lying on the bed. (410) Determine (eg, lying on the bed). Conversely, if it is higher than the first height, it is determined whether the human head position is higher than the second height (411). If it is lower than the second height, the bed state is the upright state (412) (because the second height is close to the height of the upper body of the human body, if it is lower than the second height, the upper body is completely upright). (represents a state in which the If it is higher than the second height, it is determined that the state on the bed is sitting on the bed (413) (the upper body is upright because the height is higher than the second height) (for example, sitting on the bed). .
(5) If it is determined that there is no overlap, further determine whether there is a fall. It mainly determines the fall width of the human head according to the tilting speed and tilting time of the human head. Return to tracking (407) again.
(6) If the human head is tilted, the fall width of the human head is the acceleration reference value 106 cm/s, 107 cm/s, 108 cm/s, 109 cm/s, 110 cm/s, 111 cm/s, 112 cm/s, 113 cm/s, 114 cm/s, 115 cm/s, 116 cm/s, 117 cm/s, 118 cm/s s, 119 cm/s, 120 cm/s) 415 or not. If the decision is 'no' then determine 416 that the non-bed condition is a human intrusion condition (detects human intrusion into visibility range), if the decision is 'yes' then: The non-on-bed condition is determined to be a possible fall condition (417).
(7) After that, after judging that there is a possibility of falling, it is judged whether or not the stop time of the human head position has exceeded a certain period of time (418) (this can be set by oneself). If no, determine 419 that the non-in-bed condition is a minor fall condition. If the determination is "yes", determine 420 that the non-in-bed condition is a severe fall condition (eg, falling out of bed, losing balance when standing up, etc.).

深度学習アプリケーションは、身長データに基づいて第1の高さ及び第2の高さを区分する(使用者は予め身長に関する情報を入力し、システムで設定しておくことができる)。第1の高さは、身長データの0.2~0.25倍数である。第2の高さは、身長データの0.25~0.4倍数である。 The depth learning application differentiates between the first height and the second height based on the height data (the user can enter the height information in advance and set it in the system). The first height is 0.2-0.25 multiples of the height data. The second height is a 0.25-0.4 multiple of the height data.

ベッドに腰かけている状態と判断した後、一定時間内に人体頭部位置が既にベッド型物体位置の範囲内に位置していないと検出した場合、ベッド上状態はベッドから離れた状態であるか判断する(ベッド縁に座って身体を傾けてベッドから離れるかベッドから降りる準備をしていると判断する)。 After determining that the person is sitting on the bed, if it is detected that the human head position is not already within the range of the bed type object position within a certain period of time, is the state on the bed separated from the bed? Judging (judging that he is sitting on the edge of the bed and leaning away from the bed or preparing to get off the bed).

ベッドに横たわっている状態と判断した後、一定時間内に人体頭部位置が変化していないことを検出した場合、ベッド上状態が静止状態であるかをさらに判断する。 If it is detected that the head position of the human body has not changed within a certain period of time after determining that the person is lying on the bed, it is further determined whether the state on the bed is a stationary state.

深度学習アプリケーションは、ターゲット環境内のベッド型物体位置に基づき、一定時間の範囲内にベッドの位置が移動した状態であるか、ベッドの位置が移動していない状態であるかを判断する。 The depth learning application determines whether the bed has moved or not moved within a period of time based on the position of the bed-type object in the target environment.

バックグランドサーバ2は、電子装置3と通信し、深度学習アプリケーション221が判断したベッド上状態又は/及び非ベッド上状態を電子装置3に送信する。ここで電子装置3は、携帯電話、タブレットコンピュータ、ノート型パソコン又はデスクトップ型パソコンである。姿勢状態を電子装置3に送信し、以下(1)~(6)において数種類の姿勢状態について説明する。 The background server 2 communicates with the electronic device 3 and sends the on-bed state and/or non-on-bed state determined by the depth learning application 221 to the electronic device 3 . Here, the electronic device 3 is a mobile phone, a tablet computer, a notebook computer, or a desktop computer. The posture state is transmitted to the electronic device 3, and several types of posture states will be described below in (1) to (6).

(1)ベッドに座った状態:ベッドに座った状態に変わってから3秒以内に通知し、この状態が継続する場合、10分毎に1回通知する。
(2)ベッドから離れた状態:ベッドから離れた状態に変わってから3秒以内に通知し、この状態が継続する場合、10分毎に1回通知する。
(3)深刻な転倒状態:深刻な転倒が発生した状態になってから3秒以内に通知し、この状態が継続する場合、10分毎に1回通知する。
(4)静止状態:ベッドに横たわり全く動かない時間が数十分間継続した場合、通知し、この状態が継続する場合、10分毎に1回通知する。
(5)進入者がいる状態:人がベッドに横たわるかベッドに座る場合、人が進入して近づいたことを検出し、通知する。
(6)ベッドの位置が移動した状態:ベッドの位置が移動されたときに警告を発し、スタッフにベッドを元の位置に戻すように通知する。ベッドが元の位置に戻されるまで、検出システムを一時的にオフし、状態が解除されない場合、10分毎に1回注意喚起する。
(1) Sitting on bed: Notify within 3 seconds after changing to sitting on bed, and if this state continues, notify once every 10 minutes.
(2) Away from bed state: Notify within 3 seconds after changing to Away from bed state, and notify once every 10 minutes if this state continues.
(3) Severe fall condition: Notify within 3 seconds after a serious fall condition occurs, and if this condition continues, notify once every 10 minutes.
(4) Stationary state: When the user lies on the bed and does not move at all for several tens of minutes, the user is notified, and when this state continues, the user is notified once every 10 minutes.
(5) Intruder presence state: When a person lies or sits on a bed, it detects and notifies that a person has entered and is approaching.
(6) Bed moved position: Issue an alert when the bed position is moved and notify the staff to return the bed to its original position. Until the bed is replaced, the detection system is turned off temporarily and alerted once every 10 minutes if the condition is not relieved.

本考案に係る姿勢・動作識別システムは、従来技術と比べ、以下(1)及び(2)の長所を有する。
(1)患者がベッドから離れる際、ベッドから離れる行為、転倒その他の行為をモニターすることができる。
(2)人体頭部位置及びベッド型物体位置に基づき、ターゲット環境内の人数、ベッド上状態、非ベッド上状態、ベッド位置の移動状態を判断し、その姿勢状態を電子装置に送信して警告及び通知を行うことができる。
The posture/action recognition system according to the present invention has the following advantages (1) and (2) compared with the conventional technology.
(1) When the patient leaves the bed, it is possible to monitor the action of leaving the bed, falls and other actions.
(2) Based on the position of the human head and the position of the bed-type object, determine the number of people in the target environment, the state on the bed, the state not on the bed, and the movement state of the bed position, and send the posture state to the electronic device for warning. and notification.

当該分野の技術を熟知するものが理解できるように、本考案の好適な実施形態を前述の通り開示したが、これらは決して本考案を限定するものではない。本考案の主旨と領域を逸脱しない範囲内で各種の変更や修正を加えることができる。従って、本考案の実用新案登録請求の範囲は、このような変更や修正を含めて広く解釈されるべきである。 As can be appreciated by those skilled in the art, the preferred embodiments of the present invention have been disclosed above and are not intended to limit the invention in any way. Various changes and modifications may be made without departing from the spirit and scope of the invention. Therefore, the claims of the utility model registration of the present invention should be broadly interpreted including such changes and modifications.

1 撮像装置
2 バックグランドサーバ
3 電子装置
21 プロセッサ
22 コンピュータ可読記憶媒体
221 深度学習アプリケーション
2211 深度トレーニングユニット
2212 画像受信ユニット
2213 画像検出・追跡ユニット
2214 状態判断ユニット
1 imaging device 2 background server 3 electronic device 21 processor 22 computer readable storage medium 221 depth learning application 2211 depth training unit 2212 image receiving unit 2213 image detection and tracking unit 2214 state determination unit

Claims (3)

少なくとも1つの撮像装置と、少なくとも1つのバックグランドサーバと、を備えた姿勢・動作識別システムであって、
前記撮像装置は、ターゲット環境内の3次元深度画像データをキャプチャし、
前記バックグランドサーバは、前記撮像装置がキャプチャした前記3次元深度画像データを受信し、
前記バックグランドサーバは、深度学習アプリケーションが実装され、前記3次元深度画像データに基づいて画像検出及び追跡を行い、人体頭部位置及びベッド型物体位置をキャプチャし、前記人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、前記人体頭部位置及び前記ベッド型物体位置のオーバーラップ状態に基づいてベッド上状態を判断し、人体頭部の落下幅及び落下幅時間に基づいて非ベッド上状態を判断することを特徴とする、
姿勢・動作識別システム。
A posture/action identification system comprising at least one imaging device and at least one background server,
the imaging device capturing three-dimensional depth image data within a target environment;
The background server receives the three-dimensional depth image data captured by the imaging device,
The background server is implemented with a depth learning application, performs image detection and tracking based on the 3D depth image data, captures a human head position and a bed-type object position, and based on the human head position Judging the number of people in the target environment, judging the state on the bed based on the overlapping state of the position of the human head and the position of the bed-type object, and non-bed based on the drop width and drop width time of the human head Characterized by judging the upper state,
Posture/action recognition system.
前記深度学習アプリケーションは、深度トレーニングユニット、画像受信ユニット、画像検出・追跡ユニット及び状態判断ユニットを有し、前記深度トレーニングユニットは、前記バックグランドサーバに記憶した複数のフィールド深度データに対してモデルトレーニングを行って深度学習モデルを構築し、前記画像受信ユニットは、前記3次元深度画像データを受信し、前記画像検出・追跡ユニットは、前記深度トレーニングユニット及び前記画像受信ユニットと接続され、画像検出・追跡ユニットは、深度学習モデルを含み、前記深度学習モデルを介して前記3次元深度画像データに対して画像検出・追跡を行い、ターゲット環境内の前記人体頭部位置及び前記ベッド型物体位置を検出するとともに、人体頭部及びベッド型物体を追跡し、前記状態判断ユニットは、前記画像検出・追跡ユニットと接続され、前記人体頭部位置に基づいてターゲット環境内の人数を判断するとともに、前記人体頭部位置及び前記ベッド型物体位置のオーバーラップ状態に基づき、ベッド上状態を判断し、人体頭部の落下幅及び落下幅時間に基づいて非ベッド上状態を判断することを特徴とする請求項1に記載の姿勢・動作識別システム。 The depth learning application comprises a depth training unit, an image receiving unit, an image detection and tracking unit and a state determination unit, wherein the depth training unit performs model training on multiple field depth data stored in the background server. to build a depth learning model, the image receiving unit receives the three-dimensional depth image data, the image detection and tracking unit is connected with the depth training unit and the image reception unit, and performs image detection and tracking. The tracking unit includes a depth learning model, and performs image detection and tracking on the three-dimensional depth image data via the depth learning model to detect the human head position and the bed-shaped object position in the target environment. and tracking a human head and a bed-shaped object, wherein the state determination unit is connected with the image detection and tracking unit to determine the number of people in the target environment based on the human head position; The bed-on-bed state is determined based on the overlapping state of the head position and the bed-type object position, and the non-bed-on-bed state is determined based on the fall width and the fall width time of the human head. 2. The posture/action identification system according to 1. 前記3次元深度画像データは、RGB3色チャネルにより構成されるか、グレイスケール画像チャネルにより構成され、前記3次元深度画像データの入力ビット数は、8ビット又は16ビットであることを特徴とする請求項1に記載の姿勢・動作識別システム。 The three-dimensional depth image data is composed of three color channels of RGB or composed of grayscale image channels, and the number of input bits of the three-dimensional depth image data is 8 bits or 16 bits. Item 2. The posture/action recognition system according to item 1.
JP2022002039U 2022-06-20 2022-06-20 Posture/Action Recognition System Active JP3238765U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022002039U JP3238765U (en) 2022-06-20 2022-06-20 Posture/Action Recognition System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022002039U JP3238765U (en) 2022-06-20 2022-06-20 Posture/Action Recognition System

Publications (1)

Publication Number Publication Date
JP3238765U true JP3238765U (en) 2022-08-19

Family

ID=82839879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022002039U Active JP3238765U (en) 2022-06-20 2022-06-20 Posture/Action Recognition System

Country Status (1)

Country Link
JP (1) JP3238765U (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863500A (en) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 Patient out-of-bed monitoring method and system
CN116863500B (en) * 2023-06-14 2024-05-10 中国人民解放军总医院第一医学中心 Patient out-of-bed monitoring method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116863500A (en) * 2023-06-14 2023-10-10 中国人民解放军总医院第一医学中心 Patient out-of-bed monitoring method and system
CN116863500B (en) * 2023-06-14 2024-05-10 中国人民解放军总医院第一医学中心 Patient out-of-bed monitoring method and system

Similar Documents

Publication Publication Date Title
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
US10504226B2 (en) Seizure detection
WO2015133195A1 (en) Information processing device, information processing method, and program
RU2679864C2 (en) Patient monitoring system and method
EP3689236A1 (en) Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
JP2020500570A (en) Patient monitoring system and method
BE1021528B1 (en) FALL DETECTION SYSTEM AND METHOD FOR DETECTING A FALL OF A MONITORED PERSON
JP6822328B2 (en) Watching support system and its control method
Mousse et al. Percentage of human-occupied areas for fall detection from two views
SG178270A1 (en) Condition detection methods and condition detection devices
US20220084657A1 (en) Care recording device, care recording system, care recording program, and care recording method
EP3504649A1 (en) Device, system and method for patient monitoring to predict and prevent bed falls
JP3238765U (en) Posture/Action Recognition System
CN111191499A (en) Fall detection method and device based on minimum center line
TWI797013B (en) Posture recoginition system
US11671566B2 (en) Attention focusing for multiple patients monitoring
WO2021033453A1 (en) Image processing system, image processing program, and image processing method
US11087157B2 (en) Image detection method and image detection device utilizing dual analysis
US11257246B2 (en) Image detection method and image detection device for selecting representative image of user
TWM632258U (en) Posture recoginition system
Nishimura et al. Development of a nursing care support system that seamlessly monitors both bedside and indoor locations
TWI744990B (en) Care system for predicting bed exit and patient management system including the same
JP7435609B2 (en) Image processing system, image processing program, and image processing method
CN115457731B (en) Fall detection system and detection method thereof
Baek Autonomous patient safety assessment from depth camera based video analysis

Legal Events

Date Code Title Description
R150 Certificate of patent or registration of utility model

Ref document number: 3238765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150