JP2007072964A - Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system - Google Patents

Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system Download PDF

Info

Publication number
JP2007072964A
JP2007072964A JP2005262065A JP2005262065A JP2007072964A JP 2007072964 A JP2007072964 A JP 2007072964A JP 2005262065 A JP2005262065 A JP 2005262065A JP 2005262065 A JP2005262065 A JP 2005262065A JP 2007072964 A JP2007072964 A JP 2007072964A
Authority
JP
Japan
Prior art keywords
bed
image
leaving
person
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005262065A
Other languages
Japanese (ja)
Inventor
Fumiaki Takeda
史章 竹田
Hiroshi Ishihara
寛 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ishihara Sangyo Kaisha Ltd
Original Assignee
Ishihara Sangyo Kaisha Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ishihara Sangyo Kaisha Ltd filed Critical Ishihara Sangyo Kaisha Ltd
Priority to JP2005262065A priority Critical patent/JP2007072964A/en
Publication of JP2007072964A publication Critical patent/JP2007072964A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a bed-leaving prediction automatic sensing and notification system capable of preventing a secondary accident which may occur when a patient or the like of dementia leaves a bed, eliminating fine setting and only requiring the setting of the direction of a device so that the range in which the patient or the like moves is covered in the view angle of a lens of a camera, easy to handle, and capable of accurately sensing a start state of a bed-leaving motion of the patient or the like. <P>SOLUTION: An image obtained by imaging movement on the bed of an observed person at predetermined intervals is converted into a silhouette image or mosaic image. Whether the observed person is awake or sleeping is identified by using image data. Whether the observed person leaves the bed or not is determined by using a neural network. When bed-leaving of the observed person is sensed, it is notified automatically to a nurse or the like who is previously specified. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、病院、養護老人施設、介護施設等の各種施設内(以下、単に院内あるいは施設内という)において、例えば認知障害をもつ患者や高齢者など(以下、患者等という)が寝起きしているベッド(寝具)上から離れようとする、いわゆる離床行動を開始直前に予測して感知し、自動的に通報することによってベッド上からの患者等の転倒事故防止を図る離床予測自動感知通報方法と同自動感知通報システムに関する。   In the present invention, in various facilities such as hospitals, nursing homes and nursing homes (hereinafter simply referred to as hospitals or facilities), for example, patients with cognitive impairment or elderly people (hereinafter referred to as patients) wake up. Premature bed prediction automatic detection and notification method to prevent falling accidents such as patients from the bed by predicting and detecting the so-called bed leaving behavior that is about to leave the bed (bedding) just before the start. And related to the automatic sensing and reporting system.

現在、介護医療において高齢者など特に認知障害をもつ患者等が施設内のベッド上から起きあがり離床しようとして転倒し、骨折や打撲などを起こしたりする二次的事故が多発している。このような状況下において、現状では、ベッドの脇に配置され、患者等が乗るとその荷重圧を感知してスイッチがonになる感圧マット(接触型センサ)が使用されている。また、近赤外線をベッド上の患者等に常時照射しておき、患者等が遠赤外線の照射範囲から外れると、患者等が離床行動を取ったと判定する遠赤外線式感知装置(非接触型センサ)が開発され、使用されている。いずれのセンサもナースコールに有線で接続され、それらのセンサが患者等の離床行動を感知すると、自動的にナースコールを鳴らす通報システムとして実用化されている。   Currently, there are many secondary accidents in elderly care patients such as elderly people who have cognitive impairments, etc., get up from the bed in the facility, fall down and cause fractures or bruises. Under such circumstances, at present, a pressure sensitive mat (contact type sensor) is used which is arranged beside the bed and senses the load pressure when a patient or the like gets on and switches on. A far-infrared sensing device (non-contact type sensor) that always irradiates a patient on the bed with near-infrared light and determines that the patient has taken a bed leaving action when the patient is out of the far-infrared radiation range. Has been developed and used. All sensors are connected to a nurse call by wire, and when these sensors sense a bed leaving action of a patient or the like, they are put into practical use as a notification system that automatically sounds a nurse call.

ところで、この種の自動通報システムに関する先行技術として、ベッド使用者がベッドから離れたことを検知し離床信号を出力する検知手段と、該検知手段からの前記離床信号を受信し外部に注意信号を表示する外部表示手段とを備えたベッド通報装置で、検知手段が、ベッド外に設置され圧力を感知したときに電気的信号を離床信号として出力する圧力センサ型検知手段あるいはベッド外に設置されベッド使用者が触れたことを検知し電気的信号として前記離床信号を出力するタッチセンサ型検知手段から構成された装置が提案されている(例えば、特許文献1参照)。   By the way, as a prior art related to this type of automatic notification system, detection means for detecting that the bed user has left the bed and outputting a bed leaving signal, and receiving the bed leaving signal from the detection means and outputting a caution signal to the outside. A bed reporting device comprising an external display means for displaying, a pressure sensor type detection means for outputting an electrical signal as a bed leaving signal when the detection means is installed outside the bed and senses pressure, or a bed installed outside the bed There has been proposed an apparatus including touch sensor type detection means that detects that the user has touched and outputs the floor signal as an electrical signal (see, for example, Patent Document 1).

ただし、その検知精度は一定しておらず、また患者が意識してセンサ感知エリアをかいくぐってベッドから起床しようとして脱落するなど、決定的な対応策とそのシステムがないのが現状である。   However, the detection accuracy is not constant, and the current situation is that there is no definitive countermeasure and its system, such as the patient consciously passing through the sensor detection area and dropping out to get up from the bed.

その他の先行技術に、 寝具の荷重を受ける加圧体と、少なくとも一方の面に感歪抵抗
体が設けられ前記加圧体により押圧されるセンサ基板と、前記センサ基板を支持するセンサケースと、前記感歪抵抗体の端子間の抵抗値に応じた電気信号を外部に出力する電気回路で構成された荷重センサと、前記荷重センサからの電気信号を入力し処理して監視システムへ出力する制御装置とを備え、その 制御装置には、荷重センサからの電気信号を入
力し必要な信号のみに選別するフィルター回路と、前記フィルター回路からの信号を入力し在床情報を判断する判定手段と、前記判定手段からの信号を入力し表示を行う表示手段と、前記判定手段からの信号を入力し監視システムへ出力する出力手段とが設けられた在床検出装置が提案されている(例えば、特許文献2参照)。
In other prior art, a pressure body that receives the load of the bedding, a sensor board that is provided with a strain sensitive resistor on at least one surface and is pressed by the pressure body, a sensor case that supports the sensor board, A load sensor composed of an electric circuit that outputs an electric signal corresponding to a resistance value between the terminals of the strain sensitive resistor, and a control that inputs the electric signal from the load sensor, processes it, and outputs it to the monitoring system A filter circuit that inputs an electrical signal from a load sensor and selects only the necessary signal, and a determination means that inputs a signal from the filter circuit and determines occupancy information; There is proposed an in-bed detection apparatus provided with display means for inputting and displaying a signal from the determination means, and output means for inputting a signal from the determination means and outputting it to a monitoring system (example) If, see Patent Document 2).

さらに、被観察者の画像データを用いて該被観察者の転倒を検知する検知方法で、該被観察者を撮影して、画像データを得る工程と、該画像データを用いて、該被観察者の動作ベクトルを求める工程と、該被観察者の転倒を示す所定の閾値を記憶する工程と、該動作ベクトルと該閾値とを比較して、該被観察者が転倒したか否かを判定する判定工程と、該被観察者の転倒を知らせる警報工程とを含み、上記判定工程に、ニューラルネットワークを用いる検知方法が提案されている(例えば、特許文献3参照)。
特開平10−94525号公報(段落0007〜0028および図1・図4) 特開2000−105884号公報(段落0078〜0100および図1・図2) 特開2002−232870号公報(段落0020〜0046および図1・図7)
And a step of detecting the fall of the person to be observed by using the image data of the person to be observed, photographing the person to be observed to obtain image data, and using the image data, A step of obtaining a motion vector of the person, a step of storing a predetermined threshold value indicating the fall of the person to be observed, and the motion vector and the threshold value are compared to determine whether or not the person has fallen. A detection method using a neural network has been proposed for the determination step (see, for example, Patent Document 3).
Japanese Patent Laid-Open No. 10-94525 (paragraphs 0007 to 0028 and FIGS. 1 and 4) JP 2000-105884 A (paragraphs 0078 to 0100 and FIGS. 1 and 2) JP 2002-232870 A (paragraphs 0020 to 0046 and FIGS. 1 and 7)

しかしながら、上記した従来の各装置は、感圧マットによる接触感知や赤外線ビームによる非接触感知であるが、どちらも事故後の通報が目的である。感圧マットにおいては、患者がマットを避けてベッドから離床した場合、感知できない。一方、赤外線ビームにおいては、患者等が赤外線ビームをかいくぐってベッドから離床する場合、感知できない。また、赤外線ビームは直線状のビームで患者の動きを感知するものであるため、ベッド上の患者等を確実に捉えるようにするためのセッティングには慎重を要し、時間がかかる。しかも、使用中にセッティングがずれてしまった場合や、患者等に対して的確なセッティングがなされていない場合、その感知精度は低く、感知が不十分なものとなる。   However, each of the above-described conventional devices performs contact detection using a pressure-sensitive mat and non-contact detection using an infrared beam, both of which are intended for notification after an accident. Pressure sensitive mats cannot be detected when the patient leaves the bed avoiding the mat. On the other hand, the infrared beam cannot be detected when a patient or the like leaves the bed through the infrared beam. In addition, since the infrared beam is a linear beam that senses the movement of the patient, the setting for ensuring the capture of the patient on the bed is careful and takes time. In addition, when the setting is shifted during use, or when the patient is not set accurately, the detection accuracy is low and the detection is insufficient.

さらに上記各公報に記載の検知方法あるいは検知装置は、いずれも患者等が転倒するなどの動作が終了した状態を検知するもので、例えば転倒直前の動作を検知し、事前に事故を防止するというものではない。   Furthermore, each of the detection methods or detection devices described in the above publications detects a state in which an operation such as a patient falling is completed, for example, detects an operation immediately before a fall and prevents an accident in advance. It is not a thing.

本発明は上記した従来の各装置における問題点を解決するためになされたもので、特に認知障害者の患者等がベッドから離床しようとする際に生じるおそれのある二次的事故を未然に防止でき、しかもカメラのレンズの視野角内に患者等の動作する範囲が収まるように装置の向きを設定するだけで、微妙なセッティングが不要で、取り扱いが容易であること、患者等の離床動作の開始状態を予測を含めて感知でき、また患者等が離床する動作を事前に自動通報できること、装置が小型で安価に製造できること、装置を使用中の画像情報が個人情報の侵害にならないこと、患者等に対し監視されているような不快感を与えにくいことなどの利点をもつ、離床予測自動感知通報方法と同自動感知通報システムを提供することを目的としている。   The present invention has been made to solve the problems in the conventional devices described above, and in particular prevents secondary accidents that may occur when a patient with cognitive impairment or the like tries to get out of bed. It is possible to set the orientation of the device so that the range of movement of the patient is within the viewing angle of the camera lens. It is possible to detect the start state including prediction, and to automatically notify the movement of the patient etc. in advance, that the device is small and can be manufactured at low cost, that the image information while using the device does not infringe on personal information, the patient It is an object of the present invention to provide an automatic detection notification method and an automatic detection notification system for predicting getting out of bed, which have advantages such as being less likely to cause discomfort as monitored.

上記の目的を達成するために請求項1に係る離床予測自動感知通報方法は、ベッド上での多数の他の被観察者の起床・就寝動作を含む離床動作をあらかじめカメラで撮影した画像からシルエット画像またはモザイク画像に変換処理し、変換処理した画像データをニューラルネットワークに入力して学習登録させ、ベッド上での被観察者の起床・就寝動作を含む離床動作をカメラにて撮影した画像をシルエット画像またはモザイク画像に変換処理し、同画像データをニューラルネットワークに入力し、前記被観察者が起床状態または就寝状態であるかを識別し、さらに離床動作を開始する状態と判定したときには、ナースコール等によりあらかじめ特定した看護師等に自動的に通報することを特徴とするものである。   In order to achieve the above object, a method for automatically detecting a bed leaving prediction according to claim 1 is characterized in that a silhouette is obtained from an image obtained by shooting a bed leaving motion including a wake-up / sleeping motion of a large number of other observers on a bed in advance. Image or mosaic image is converted, and the converted image data is input to a neural network to be registered for learning, and a silhouette of an image taken by the camera, including getting up and going to sleep on the bed, is captured. An image or a mosaic image is converted, and the image data is input to a neural network to identify whether the person is in a wake-up state or a sleep state. It is characterized by automatically reporting to a nurse or the like specified in advance.

上記の構成を有する請求項1に係る離床予測自動感知通報方法によれば、ベッドを含む患者等(被観察者)の画像を撮影すれば、患者等の動作がカメラの視野角の範囲内に包含されるので、赤外線ビームを用いた従来の非接触型センサに比べて微妙なセッティングが不要で、取り扱いが容易であり、また非線形識別手段であるニューラルネットワークを用いた学習と識別で患者等の離床動作を感知して通報するので、特に学習登録においては種々の患者等の起床パターンや離床パターンをあらかじめ実際の動作画像で示すことができ、実情に即した柔軟な識別システムとなり、またノイズに対しても離床か否かの正確な判定が可能になるうえ、ニューラルネットワークを判定手段に用いているので、使用に際し
て新たな患者等に対し起床・就寝動作を含む離床パターンをカメラにて撮影し変換処理した画像データを現場で自動登録することができ、あらかじめ準備した画像データだけによる判定に比べてより優れた判定精度が発揮される。さらに、患者等の動作はカメラで撮影するが、ニューラルネットワークへの入力値の演算は変換処理したモザイク画像またはシルエット画像を対象とするので、患者等の個人情報を保護しその漏洩も防止できる。
According to the method for automatically detecting a bed leaving prediction according to claim 1 having the above-described configuration, if an image of a patient or the like (a person to be observed) including a bed is taken, the movement of the patient or the like is within the range of the viewing angle of the camera. Because it is included, subtle settings are not required compared with conventional non-contact sensors using infrared beams, handling is easy, and learning and identification using a neural network, which is a nonlinear identification means, can be used for patients and the like. Because it detects and reports the movement of the bed, especially in learning and registration, it is possible to show the wake-up pattern and bed-getting pattern of various patients in advance in the actual movement image, resulting in a flexible identification system that matches the actual situation and noise. In addition, it is possible to accurately determine whether or not you are getting out of bed, and since a neural network is used as the determination means, you can wake up and enter new patients, etc. Operation can be automatically registered in the field of image data captured by converting processing by the camera ambulation pattern comprising, a better determination accuracy than the determination only by previously prepared image data is exhibited. Furthermore, the movement of the patient or the like is photographed by the camera, but the calculation of the input value to the neural network is targeted for the converted mosaic image or silhouette image, so that personal information of the patient and the like can be protected and leakage thereof can be prevented.

請求項2に記載のように、前記離床動作の開始状態の判定は、所定時間内に一定時間ごとにベッド上の被観察者の一連の動作を前記カメラにて複数回撮影し、前記一連の動作から前記離床動作の開始をニューラルネットワークにより複数回判定し、多数決原理で離床動作か否かの最終判定を行うようにすることが望ましい。   As described in claim 2, the determination of the start state of the bed leaving movement is performed by photographing a series of movements of the person on the bed at a predetermined time within a predetermined time by the camera a plurality of times. It is desirable to determine the start of the bed leaving operation from the operation a plurality of times using a neural network, and to finally determine whether or not the bed leaving operation is based on the majority rule.

このようにすれば、患者等の離床動作を正確に判定でき精度が向上するうえに、患者等が離床する直前にナースコール等による通報が行われるので、離床時に事故を未然に防止することができる。   In this way, it is possible to accurately determine the movement of the patient such as getting out of bed, and the accuracy is improved. In addition, since a notification is made by a nurse call etc. immediately before the patient leaves the bed, an accident can be prevented in advance. it can.

上記の目的を達成するために請求項3に係る離床予測自動感知通報システムは、あらかじめ撮影した複数の種々の起床パターン・就寝パターンを含む離床パターンのシルエット画像またはモザイク画像からなる画像データに基づいて、被観察者のベッド上での動作を撮影した画像から該被観察者の離床動作の開始状態を判定し、判定すると同時に通報する離床予測自動感知通報システムであって、
該被観察者のベッド上での動作を一定時間ごとに撮影する撮影手段と、該撮影手段で撮影した画像をシルエット画像またはモザイク画像に変換処理する画像変換手段と、変換処理された画像データを用いて前記被観察者の動作パターンを識別し、前記被観察者が離床を開始するか否かを予測を含めて判定するニューラルネットワークを用いた判定手段と、前記被観察者の離床動作の開始状態と判定した際に自動的に通報する通報手段とを備えたことを特徴とするものである。
In order to achieve the above object, a bed prediction automatic detection notification system according to claim 3 is based on image data composed of a silhouette image or a mosaic image of a bed pattern including a plurality of various wake-up patterns and bedtime patterns previously captured. A system for automatically detecting a bed leaving prediction that determines a start state of a bed moving operation of the person to be observed from an image obtained by photographing an action on the bed of the person to be observed;
Image capturing means for capturing the movement of the person on the bed at regular intervals, image conversion means for converting an image captured by the image capturing means into a silhouette image or a mosaic image, and the converted image data A determination means using a neural network for identifying the movement pattern of the person to be observed and determining whether or not the person to be observed starts leaving the bed, including prediction, and start of the bed movement of the person to be observed And a reporting means for automatically reporting when the state is determined.

上記の構成を有する請求項3に係る離床予測自動感知通報システムによれば、請求項1に関する上記の作用効果と同様の効果を奏するほか、画像変換手段および判定手段をPCボードまたはDSP(デジタルシグンルプロセッサー)ボードに内蔵し、かつデジタルカメラ等の撮影手段を備えた小型の装置をベッドの近くに配置するだけで、通報手段は例えばあらかじめ設置済みのナースコールなどを利用できるので、システム全体が小型化され安価に製造でき、ベッドの脇に配置することで、邪魔になりにくい。特に、実施例のように判定結果を無線によりナースコール装置に送信するようにすれば、有線の場合と比較して、猥雑な環境にも影響を与えず、容易に感知用の機器を配置することができる。   According to the system for automatically detecting a bed leaving prediction according to claim 3 having the above-described configuration, in addition to the same effect as the above-described operation effect relating to claim 1, the image conversion means and the determination means can be a PC board or a DSP (digital signage). Just by placing a small device built in the board and equipped with a photographing means such as a digital camera near the bed, the notification means can use a nurse call that has been installed in advance. It is small and can be manufactured at low cost, and it is difficult to get in the way by placing it beside the bed. In particular, if the determination result is transmitted wirelessly to the nurse call device as in the embodiment, the sensing device can be easily arranged without affecting the complicated environment as compared with the wired case. be able to.

請求項4に記載のように、前記画像変換手段により変換処理される画像がモザイク画像であり、該モザイク画像は前記撮影手段で撮影した画像を所定数に分割した各メッシュ内の全画素を加算し、その平均値を算出して求められるもので、求められた平均値をニューラルネットワークに入力することができる。   5. The image converted by the image conversion unit is a mosaic image according to claim 4, and the mosaic image is obtained by adding all pixels in each mesh obtained by dividing the image captured by the imaging unit into a predetermined number. Then, the average value is calculated and obtained, and the obtained average value can be input to the neural network.

このようにすることで、病院内などで取り扱われる画像データが第三者の目に触れても特定しいくいので、個人情報が保護され、また患者等本人にとっても監視されているような不快感を与えにくい。   By doing so, it is difficult to identify the image data handled in hospitals even if the image data is touched by a third party, so that personal information is protected and the patient or other person is monitored. It is difficult to give pleasure.

請求項5に記載のように、被観察者を撮影して変換処理したシルエット画像またはモザイク画像の画像データおよびあらかじめ撮影した複数の種々の起床パターン・就寝パターンを含む離床パターンのシルエット画像またはモザイク画像からなる画像データをニューラルネットワークに入力することにより、前記被観察者が離床するか否かを予測を含めて判定させることが好ましい。   6. A silhouette image or mosaic image of a leaving pattern including a plurality of various wake-up patterns / sleeping patterns captured in advance and image data of a silhouette image or a mosaic image obtained by photographing and converting the image of the person to be observed. It is preferable to determine whether or not the person to be observed gets out of bed, including prediction, by inputting image data consisting of

このようにすれば、あらかじめ撮像した種々の離床パターン画像データだけでなく、現場における被観察者個人個人の離床パターンに関する画像データの登録が可能であるため、個人に特化した離床システムが実現でき、事前に作成した性能以上の感知(判定)精度を発揮できる。また、被観察者の離床パターンに関する画像データの登録数を増加すればするほど、識別誤差を縮小できるため、より精度の高い感知(判定)能力が期待できる。   In this way, it is possible to register not only various types of bed pattern image data imaged in advance, but also image data related to the individual bed pattern of the individual to be observed in the field, so that a bed system specialized for individuals can be realized. , It can demonstrate detection (judgment) accuracy that exceeds the performance created in advance. In addition, since the identification error can be reduced as the number of registered image data regarding the bed pattern of the person to be observed increases, a more accurate sensing (determination) capability can be expected.

本発明に係る離床予測自動感知通報方法と同自動感知通報システムには、以下のような優れた効果がある。   The bed prediction automatic detection notification method and the automatic detection notification system according to the present invention have the following excellent effects.

・患者等の離床動作を開始直前に感知し看護師等へ自動的に通報することにより、離床時の事故を未然に防止できる。   -Accidents when getting out of bed can be prevented by detecting the bed leaving action of the patient immediately before the start and automatically notifying the nurse.

・個人情報の保護および漏洩を防止できる。   ・ Protection and leakage of personal information can be prevented.

・個人に特化した柔軟な判定(識別)システムを構築でき、ノイズに対しても離床か否かの正しい識別(判定)が可能になる。   -A flexible determination (identification) system specialized for individuals can be constructed, and correct identification (determination) can be made as to whether or not the person is getting out of bed.

・機器のセッティングおよび設置が容易であ離、設置場所も狭くて済む。   ・ Easy to set up and install the equipment, and the installation location is small.

以下、本発明の離床予測自動感知通報システムについて実施の形態を図面に基づいて説明し、併せて離床予測自動感知通報方法についても説明する。   Hereinafter, embodiments of the bed prediction automatic detection notification system of the present invention will be described based on the drawings, and a bed prediction automatic detection notification method will also be described.

図1(a)は本発明の実施例に係る離床予測自動感知通報システムの主要部としての感知装置を示す正面図、図1(b)は同感知装置の台座部の開閉蓋14を取り外した状態をを拡大して示す上方より見た斜視図、図1(c)は同感知装置の台座部に内蔵された電子機器を拡大して示す上方より見た斜視図である。   FIG. 1 (a) is a front view showing a sensing device as a main part of a bed leaving prediction automatic sensing notification system according to an embodiment of the present invention, and FIG. 1 (b) is a diagram in which an opening / closing lid 14 is removed from a base portion of the sensing device. FIG. 1C is a perspective view of the electronic device built in the pedestal portion of the sensing device, as viewed from above.

図1に示すように、感知装置1は下端に台座部2を備えたスタンド型で、デジタルカメラ(撮像手段)3がスタンドの伸縮式支柱4の上端に上下方向の位置およびカメラレンズの方向を調整できるように傾倒可能に取り付けられている。この感知装置1はベッドBの足元側で、ベッドB上の患者である被観察者Aの動作(姿勢)を全体的に撮影できる方向にデジタルカメラ3のレンズを向けて配置される。台座部2内には、図1(c)に示すようにAC/DCコンバータ付き充電池5、ナースコール呼出用発信装置6あるいは識別結果通信用PHS、DSPボードまたはPCボード(学習・識別などのニューラルネットワークに関するソフトウェアを含む)7が配備されており、デジタルカメラ3がUSBカメラケーブル8でDSPボードまたはPCボード7に接続されている。また、台座部2の外面中央部付近には、LEDパイロット(駆動)ランプ9および開閉蓋14内に操作スイッチ13付き液晶表示パネル10が配備されている。さらに、台座部2の側周面には、電源スイッチ11およびACケーブルの差し込み口12が設けられている。   As shown in FIG. 1, the sensing device 1 is a stand type having a pedestal 2 at the lower end, and the digital camera (imaging means) 3 sets the vertical position and the direction of the camera lens at the upper end of the telescopic support column 4 of the stand. It is attached so that it can be adjusted. The sensing device 1 is arranged on the foot side of the bed B with the lens of the digital camera 3 facing in a direction in which the motion (posture) of the subject A who is a patient on the bed B can be photographed as a whole. In the pedestal 2, as shown in FIG. 1 (c), a rechargeable battery 5 with an AC / DC converter, a nurse call calling transmitter 6, an identification result communication PHS, a DSP board or a PC board (such as learning / identification) 7 (including software related to the neural network) is provided, and the digital camera 3 is connected to the DSP board or the PC board 7 by the USB camera cable 8. Further, an LED pilot (drive) lamp 9 and a liquid crystal display panel 10 with an operation switch 13 are provided in the opening / closing lid 14 near the center of the outer surface of the pedestal 2. Further, a power switch 11 and an AC cable insertion opening 12 are provided on the side peripheral surface of the base portion 2.

DSPボードまたはPCボード7内のニューラルネットワークには、あらかじめ多数の患者等がベッド上で就寝状態(就寝パターン)や起床状態(起床パターン)や就寝状態から起床状態に移る動作状態(パターン)、起床状態から就寝状態に移る動作状態(パターン)、起床してベッドから離床しようとする動作状態(パターン)など、様々な画像データが入力され、学習登録されている。   In the neural network in the DSP board or PC board 7, a large number of patients or the like in advance sleep on the bed (sleeping pattern), wake-up state (wake-up pattern), operation state (pattern) that shifts from the sleep state to the wake-up state, wake-up Various image data such as an operation state (pattern) for shifting from a state to a sleeping state and an operation state (pattern) for getting up and getting out of bed are input and registered for learning.

しかし、たとえ何百例の画像データが登録されていても、新しい患者に対して本感知装
置1を使用する場合には、あらかじめ学習登録させた患者等の離床パターンなどとは個人個人によって相違する点があるので、現場で新たな患者の起床状態、就寝状態および離床状態などの各パターンを撮影してモザイク画像などに処理した上、ニューラルネットワークに自動的に登録される。この結果、あらかじめ学習登録した画像データだけで離床パターンを判定するのに比べて、判定ミスが極めて少なくなり、感知精度が大幅に改善される。本例の場合は、病院や介護施設での使用を前提とするので、通報先は看護師であり、感知装置1が離床パターンと判定するとナースコールに送信し、無線で警報音を鳴らすようにしている。
However, even when hundreds of image data are registered, when using the sensing device 1 for a new patient, the bed leaving pattern of a patient or the like that has been registered in advance differs depending on the individual. Since there is a point, each pattern of a new patient's wake-up state, sleeping state, bed-exit state, etc. is photographed on the site, processed into a mosaic image, etc., and then automatically registered in the neural network. As a result, as compared with the case where the bed leaving pattern is determined using only image data that has been learned and registered in advance, the determination error is extremely reduced, and the sensing accuracy is greatly improved. In the case of this example, since it is assumed to be used in a hospital or a care facility, the report destination is a nurse, and when the sensing device 1 determines that it is a bed leaving pattern, it is transmitted to a nurse call and an alarm sound is generated wirelessly. ing.

一方、感知装置1の電源スイッチ11を入れると、LEDランプ9が点灯し、液晶表示パネル10に患者の動画像が映し出されるので、デジタルカメラ3の向きを確認できる。また、DSPボードまたはPCボード7からの指令で、デジタルカメラ3によりベッドB上の被観察者の状態が一定時間ごと(例えば30秒間隔)に撮影される。撮影された画像はDSPボードまたはPCボード7へ送られ、モザイク画像(白・黒・灰色の方形タイルを組み合わせた画像:図5参照)またはシルエット画像(背景白の黒い影画像)に変換処理される。そして、変換処理された画像データがニューラルネットワーク(以下、NNという)に送られる。   On the other hand, when the power switch 11 of the sensing device 1 is turned on, the LED lamp 9 is turned on, and a moving image of the patient is displayed on the liquid crystal display panel 10, so that the orientation of the digital camera 3 can be confirmed. Further, in response to a command from the DSP board or PC board 7, the state of the person on the bed B is photographed at regular intervals (for example, at intervals of 30 seconds) by the digital camera 3. The captured image is sent to the DSP board or PC board 7 and converted into a mosaic image (image combining white, black and gray square tiles: see Fig. 5) or silhouette image (black shadow image with white background). The Then, the converted image data is sent to a neural network (hereinafter referred to as NN).

本例では、図2に示すように、撮影済み画像を7×7のメッシュに分割し、分割した各メッシュ内の全画素の加算平均値をNNのスラブ値(入力値)とする。具体的な演算方法としては、各メッシュ内の全画素を加算し、その平均値を算出する。   In this example, as shown in FIG. 2, the captured image is divided into 7 × 7 meshes, and the addition average value of all the pixels in each divided mesh is defined as the NN slab value (input value). As a specific calculation method, all the pixels in each mesh are added, and the average value is calculated.

NNへの入力は、Slab1 〜Slab49の平均値、ただしSlab50は1とし、
入力層50個、隠れ層(中間層)35個、出力層2個の構成で、NNが動作する。
The input to NN is the average value of Slab1 to Slab49, except that Slab50 is 1.
The NN operates with a configuration of 50 input layers, 35 hidden layers (intermediate layers), and 2 output layers.

つまり、   That means

Figure 2007072964
こうして、各メッシュに算出した平均値が49、また50番目が1として入力層に50の入力値が入力される。
Figure 2007072964
In this way, the average value calculated for each mesh is 49, the 50th is 1, and 50 input values are input to the input layer.

また、基本の離床パターンのモザイク画像については、上記したようにあらかじめ複数(できるだけ多く)の患者の離床パターンを撮像したモザイク画像データをNNに入力して学習登録しているが、個人個人で離床パターンは相違している。そこで、本例の離床予測自動感知通報システムの感知装置1については、新たな患者に対して使用する際には現場で新たな患者の離床パターン(起床パターンや就寝パターンを含む)をできるだけ多く撮影し、NNに登録することにより、個々の患者に特化した画像データを用いて離床動作をより確実に感知し、離床動作であるとNNが判定したときにはナースコールで自動的に看護師に通報することができる。   As for the mosaic image of the basic bed leaving pattern, as described above, the mosaic image data obtained by imaging the bed patterns of a plurality of patients (as many as possible) is input to the NN for learning and registration. The pattern is different. Therefore, when using the sensing device 1 of the bed leaving prediction automatic detection notification system of this example, as many new bed leaving patterns (including a wake-up pattern and a sleeping pattern) as possible are photographed on the spot when used for a new patient. By registering with the NN, it is possible to sense the bed leaving movement more reliably using image data specialized for each patient, and when the NN determines that it is a bed leaving movement, a nurse call is automatically notified to the nurse. can do.

図3(a)〜(e)は一被観察者を対象として、シミュレーションシステムの性能確認
実験を行ったときの被観察者の就寝パターンを示す画像、図4(a)〜(e)は同じく被観察者の起床パターンを示す画像である。図5はシミュレーション時に使用した図4(c)のモザイク画像である。また、図6はNNに入力して学習登録した際の、学習終了時のシミュレーションシステムGUI(グラフィックユーザーインターフェイス)の全体を示す概要正面図で、就寝と起床の2パターンに付きいずれのパターンであるかを識別させた実験結果を表している。図7(a)は図6の一部を拡大したもので、就寝パターンについての識別の強さと学習回数の関係を示すグラフ、図7(b)は同誤差と学習回数の関係を示すグラフ、図7(c)は起床パターンについての識別の強さと学習回数の関係を示すグラフ、図7(d)は同誤差と学習回数の関係を示すグラフ、図8(a)は図6の一部を拡大したもので、誤差曲線で誤差は略0.0001、図8(b)は学習勾配を示すグラフである。
3 (a) to 3 (e) are images showing a sleep pattern of an observer when a simulation system performance confirmation experiment is performed on one observer, and FIGS. 4 (a) to 4 (e) are the same. It is an image which shows a to-be-observed person's wake-up pattern. FIG. 5 is the mosaic image of FIG. 4C used during the simulation. FIG. 6 is a schematic front view showing the entire simulation system GUI (graphic user interface) at the end of learning when it is input to NN and registered for learning, and it is any of the two patterns of sleeping and waking up. It represents the experimental results that have been identified. FIG. 7A is an enlarged view of a part of FIG. 6, a graph showing the relationship between the strength of identification and the number of learnings for the sleeping pattern, FIG. 7B is a graph showing the relationship between the error and the number of learnings, FIG. 7 (c) is a graph showing the relationship between the strength of identification and the number of learning times for the wake-up pattern, FIG. 7 (d) is a graph showing the relationship between the error and the number of learning times, and FIG. 8 (a) is a part of FIG. In the error curve, the error is approximately 0.0001, and FIG. 8B is a graph showing the learning gradient.

上記の実験結果としては、誤差0.0001と低い誤差で学習が収束し、90%の動作識別率が得られ、学習勾配は0.7であるが、これらは一例として示したものである。   As a result of the above experiment, learning converges with an error as low as 0.0001, an operation recognition rate of 90% is obtained, and the learning gradient is 0.7. These are shown as an example.

上記実験の場合、階層構造の演算部は、入力層(50ニューロ素子)、隠れ層(35ニューロ素子)および出力層(2ニューロ素子)の3層からなっており、入力層は各画像データに基づくパターンの種類に1対1で対応するようにニュ−ロ素子が設けられており、各マスクメッシュごとに演算処理されたスラブ値(各メッシュの全画素を加算して算出した平均値)を対応するニュ−ロ素子に入力する。隠れ層は、本例では35のニュ−ロ素子の層からなり、入力層の情報を分離演算して出力層に伝達する役割を果たしている。この隠れ層が多くなればそれだけ、入力層の各ニュ−ロ素子の変動に対しても不変に各パタ−ンの各々に分離して演算できる。出力層には、識別すべき起床パターンと就寝パターンとに1対1にて対応するように2つのニュ−ロ素子が設けられている。そして、学習により完成したニュ−ロ素子間の重み係数による出力ニューロ素子値を出力ニューロ素子数個分算出する。   In the case of the above experiment, the hierarchical calculation unit is composed of three layers: an input layer (50 neuro elements), a hidden layer (35 neuro elements), and an output layer (2 neuro elements). A neuro element is provided so as to correspond one-to-one to the type of pattern based on the slab value (average value calculated by adding all pixels of each mesh) calculated for each mask mesh. Input to the corresponding neuro element. In this example, the hidden layer is composed of 35 neuro element layers, and plays a role of separating and transmitting information of the input layer to the output layer. As the number of hidden layers increases, the calculation can be performed separately for each pattern invariably with respect to the variation of each neuro element in the input layer. In the output layer, two neuro elements are provided so as to correspond to the wake-up pattern and the sleeping pattern to be identified on a one-to-one basis. Then, the output neuro element values based on the weighting coefficient between the neuro elements completed by learning are calculated for several output neuro elements.

ところで、本発明の実施例に係る離床予測自動感知通報システムについては、特定の患者の就寝パターン・起床パターン・離床パタ−ンなどのモザイク画像データが、既存の多数の患者の離床パターン(離床直前パターンを含む)のモザイク画像データとともにNNに学習登録されている。そして、実際に特定の患者等に適用する際に、ベッド上の特定の患者の動作を感知装置1のデジタルカメラ3で、例えば数分間隔で撮影し、画像をモザイク画像データに変換処理して入力パターン(スラブ値)をNNの入力層に入力する。この入力パターンは入力層→隠れ層→出力層へ伝達・処理され、出力層から出力値(出力パターン)が出力される。この出力値は、それまでの学習によって得られた重み係数に基づくもので、本例の場合には、離床パターン(離床直前パターンを含む)であるか否かが出力される。   By the way, about the bed prediction automatic detection notification system according to the embodiment of the present invention, the mosaic image data such as a sleeping pattern, a wake-up pattern, and a bed pattern of a specific patient is obtained from a number of existing bed patterns (just before bed leaving). (Including the pattern) and the mosaic image data. Then, when actually applied to a specific patient or the like, the motion of the specific patient on the bed is captured by the digital camera 3 of the sensing device 1, for example, at intervals of several minutes, and the image is converted into mosaic image data. An input pattern (slab value) is input to the NN input layer. This input pattern is transmitted and processed from the input layer → the hidden layer → the output layer, and an output value (output pattern) is output from the output layer. This output value is based on the weighting coefficient obtained by learning so far, and in the case of this example, it is output whether or not it is a bed leaving pattern (including a pattern just before bed leaving).

また、NNにおいて、離床パターンであるか否かにつき逆に正しい出力値が与えられると、出力層→隠れ層→入力層の順で伝達・処理され、各層間の重み係数について学習がなされるが、この重み係数の学習は、実際の出力値と正しい出力値との差が減るように、入力ニューロ素子・隠れニューロ素子・出力ニューロ素子のニューロ素子間における結合の強さを変化・収束させることである。   On the other hand, when a correct output value is given to the NN regarding whether or not it is a bed leaving pattern, it is transmitted and processed in the order of output layer → hidden layer → input layer, and the weighting coefficient between each layer is learned. This learning of the weighting factor is to change and converge the strength of coupling between the neuro elements of the input neuro element, hidden neuro element and output neuro element so that the difference between the actual output value and the correct output value is reduced. It is.

そして、対象とする被観察者の離床パターンと、あらかじめ学習登録された多数の患者の離床パターンとが比較され、対象とする被観察者の各種動作パターンが全体的に把握され、学習した離床パターンと比較されることによって、より正確に離床パターンか否かの判定をできるようにしている。被観察者の離床パターンに該当する入力がなされた場合には、離床パターンに対応した出力層のニューロ素子の最大反応値(限りなく1に近い)を得、「離床パターンとの判定」と判断される。   Then, the floor pattern of the target viewer is compared with the floor patterns of a large number of patients that have been registered in advance, and the various motion patterns of the target viewer are generally grasped and learned. , It is possible to more accurately determine whether or not it is a bed leaving pattern. When the input corresponding to the floor pattern of the observer is made, the maximum response value of the neuro element in the output layer corresponding to the floor pattern (closely 1) is obtained, and it is determined as “determination from the floor pattern”. Is done.

ただし、こうした判定の結果としてのナースコールによる通報はNNによる1回の判定のみで行われるのではなく、数分あるいは数十分など一定時間ごとに患者のベッド上での起床パターン、就寝パターン、起床直前パターンおよび離床直前パターンなどの動作をモニタリングすることにより、患者の離床前にNNによる判定(離床動作(離床直前動作を含む)か否かの判定)を複数回(例えば9回)行って、多数決原理により総合的に判定される。つまり、離床動作であるとの判定が半分より多く(例えば6回以上)あれば、患者が離床動作に移るための動作(離床開始状態)あるいは離床直前の動作であると判定し、患者が離床する直前にナースコールを鳴らして看護師に通報する。   However, the notification by the nurse call as a result of such determination is not performed only by one determination by the NN, but the wake-up pattern on the patient's bed, the sleeping pattern, By monitoring movements such as the pattern immediately before getting up and the pattern immediately before leaving, the judgment by the NN (determination of whether or not to get out of bed (including the action immediately before leaving)) is performed a plurality of times (for example, 9 times) before leaving the patient. It is judged comprehensively by the majority rule. In other words, if more than half (for example, 6 times or more) is determined to be a bed leaving action, it is determined that the patient is moving to a bed leaving action (a bed leaving start state) or an action immediately before leaving the bed, and the patient leaves the bed. Just call the nurse call and notify the nurse.

繰り返しになるが、被観察者の離床パターンであるとの判定は1回撮影した画像(複数枚の画像も含む)のみで判定されるのではなく、一定時間間隔で繰り返し撮影される画像(1枚とは限らず、複数枚の連続画像の場合もある)について離床パターンか否かが判定され、この判定が所定時間内で複数回行われたうえ、複数回の判定結果に基づいて多数決原理で離床パターンであると総合的に判定される。仮に一回だけで判定されると、判定ミスの確率は高いが、複数回の判定を元に最終的に判定されるから、判定ミスの起こる確率は極めて少ない。   Although it is repeated, it is not determined only by the image (including a plurality of images) that is taken once, but the image that is taken repeatedly at regular time intervals (1). It is determined whether or not it is a bed leaving pattern for not only a sheet but also a plurality of continuous images), and this determination is performed a plurality of times within a predetermined time, and the majority rule based on the determination results of the plurality of times It is judged comprehensively that it is a bed leaving pattern. If it is determined only once, the probability of a determination error is high, but since the determination is finally made based on a plurality of determinations, the probability of a determination error occurring is extremely small.

したがって、本例の離床予測自動感知通報システムでは、患者が離床する直前に離床の開始状態を感知し、看護師に通報するので、通報を受けた看護師がベッドに来たときには、例えば患者がベッド上に起きあがって正に離床しようとしている状態であり、離床時の事故を未然にかつ確実に防止することができる。   Therefore, in the present example of the automatic detection and notification system for getting out of bed, the start state of bed leaving is sensed immediately before the patient leaves, and the nurse is notified, so when the nurse who received the report comes to bed, for example, the patient It is a state where the person gets up on the bed and is about to get out of bed, and an accident at the time of getting out of bed can be prevented without fail.

図1(a)は本発明の実施例に係る離床予測自動感知通報システムの主要部としての感知装置を示す正面図、図1(b)は同感知装置の台座部を拡大して示す上方より見た斜視図、図1(c)は同感知装置の台座部に内蔵された電子機器を拡大して示す上方より見た斜視図である。FIG. 1 (a) is a front view showing a sensing device as a main part of a predicted bed leaving detection system according to an embodiment of the present invention, and FIG. 1 (b) is an enlarged view showing a pedestal portion of the sensing device. FIG. 1C is a perspective view seen from above, showing an enlarged view of the electronic device built in the pedestal portion of the sensing device. 撮影済み画像を7×7のメッシュに分割し、分割した各メッシュ内の全画素の加算平均値して演算することによりモザイク画像に変換処理する演算方法を示す説明図である。It is explanatory drawing which shows the calculation method which divides the image | photographed image into a 7x7 mesh, and converts to a mosaic image by calculating it as the addition average value of all the pixels in each divided | segmented mesh. 図3(a)〜(e)は一被観察者を対象として、シミュレーションシステムの性能確認実験を行ったときの被観察者の就寝パターンを示す画像である。FIGS. 3A to 3E are images showing a sleep pattern of a person to be observed when a performance confirmation experiment of the simulation system is performed for one person to be observed. 図4(a)〜(e)は同じく被観察者の起床パターンを示す画像である。4A to 4E are images showing the wake-up pattern of the person to be observed. シミュレーション時に使用した図4(c)のモザイク画像である。It is the mosaic image of FIG.4 (c) used at the time of simulation. ニューラルネットワークに入力して学習登録した際の、学習終了時のシミュレーションシステムGUI(グラフィックユーザーインターフェイス)の全体を示す概要正面図で、就寝と起床の2パターンに付きいずれのパターンであるかを識別させた実験結果を表している。It is a schematic front view showing the entire simulation system GUI (graphic user interface) at the end of learning when it is entered into the neural network and registered for learning, and it identifies which pattern is associated with the two patterns of sleeping and waking up Represents the experimental results. 図7(a)は図6の一部を拡大したもので、就寝パターンについての識別の強さと学習回数の関係を示すグラフ、図7(b)は同誤差と学習回数の関係を示すグラフ、図7(c)は起床パターンについての識別の強さと学習回数の関係を示すグラフ、図7(d)は同誤差と学習回数の関係を示すグラフである。FIG. 7A is an enlarged view of a part of FIG. 6, a graph showing the relationship between the strength of identification and the number of learnings for the sleeping pattern, FIG. 7B is a graph showing the relationship between the error and the number of learnings, FIG. 7C is a graph showing the relationship between the strength of identification and the number of learning times for the wake-up pattern, and FIG. 7D is a graph showing the relationship between the error and the number of learning times. 図8(a)は誤差曲線で誤差は略0.0001、図8(b)は学習勾配0.7を示すグラフである。FIG. 8A is an error curve with an error of approximately 0.0001, and FIG. 8B is a graph showing a learning gradient of 0.7.

符号の説明Explanation of symbols

1 感知装置
2 台座部
3 デジタルカメラ(撮像手段)
4 伸縮軸
5 AC/DCコンバータ付き充電池
6 ナースコール呼出用発信装置
7 PCボード(学習・識別などのニューラルネットワークに関するソフトウェアを含む)
8 USBカメラケーブル
9 LEDパイロット(駆動)ランプ
10 液晶表示パネル
11 電源スイッチ
12 ACケーブルの差し込み口
13 操作スイッチ
DESCRIPTION OF SYMBOLS 1 Sensing apparatus 2 Base part 3 Digital camera (imaging means)
4 Telescopic shaft 5 Rechargeable battery with AC / DC converter 6 Nurse call calling transmitter 7 PC board (including software related to neural network such as learning and identification)
8 USB camera cable 9 LED pilot (drive) lamp 10 LCD panel 11 Power switch 12 AC cable outlet 13 Operation switch

Claims (5)

ベッド上での多数の他の被観察者の起床・就寝動作を含む離床動作をあらかじめカメラで撮影した画像からシルエット画像またはモザイク画像に変換処理し、変換処理した画像データをニューラルネットワークに入力して学習登録させ、
ベッド上での被観察者の起床・就寝動作を含む離床動作をカメラにて撮影した画像をシルエット画像またはモザイク画像に変換処理し、同画像データをニューラルネットワークに入力し、
前記被観察者が起床状態または就寝状態であるかを識別し、さらに離床動作を開始する状態と判定したときには、ナースコール等によりあらかじめ特定した看護師等に自動的に通報することを特徴とする離床予測自動感知通報方法。
Converting a bed movement including a wake-up / sleeping movement of many other observers on a bed from an image captured in advance by a camera into a silhouette image or a mosaic image, and inputting the converted image data into a neural network Let me register
An image obtained by taking a camera-awake operation including waking up and going to sleep on the bed is converted into a silhouette image or a mosaic image, and the image data is input to a neural network.
Identifying whether the subject is in a wake-up state or a sleeping state, and further, when determined to be in a state to start getting out of bed, automatically notifies a nurse or the like specified in advance by a nurse call or the like A method to automatically detect getting out of bed.
前記離床動作の開始状態の判定は、所定時間内に一定時間ごとにベッド上の被観察者の一連の動作を前記カメラにて複数回撮影し、前記一連の動作から前記離床動作の開始をニューラルネットワークにより複数回判定し、多数決原理で離床動作か否かの最終判定を行うようにしたことを特徴とする請求項1記載の自動感知通報方法。   The determination of the start state of the bed leaving movement is performed by photographing a series of movements of the person on the bed at predetermined intervals within a predetermined time by the camera a plurality of times, and the start of the bed leaving movement is determined from the series of actions by a neural 2. The automatic sensing and reporting method according to claim 1, wherein a determination is made a plurality of times by a network, and a final determination is made as to whether or not the bed leaving operation is based on a majority rule. あらかじめ撮影した複数の種々の起床パターン・就寝パターンを含む離床パターンのシルエット画像またはモザイク画像からなる画像データに基づいて、被観察者のベッド上での動作を撮影した画像から該被観察者の離床動作の開始状態を判定し、判定すると同時に通報する離床予測自動感知通報システムであって、
前記被観察者のベッド上での動作を一定時間ごとに撮影する撮影手段と、該撮影手段で撮影した画像をシルエット画像またはモザイク画像に変換処理する画像変換手段と、変換処理された画像データを用いて前記被観察者の動作パターンを識別し、前記被観察者が離床を開始するか否かを予測を含めて判定するニューラルネットワークを用いた判定手段と、
前記被観察者の離床動作の開始状態と判定した際に自動的に通報する通報手段とを備えたことを特徴とする離床予測自動感知通報システム。
Based on image data consisting of a silhouette image or a mosaic image of a leaving pattern including a plurality of various wake-up patterns / sleeping patterns that have been photographed in advance, the subject's bed is taken from the image obtained by photographing the motion of the person on the bed. It is a system for automatically detecting a bed leaving prediction that determines a start state of an operation and reports at the same time as the determination,
Image capturing means for capturing an operation of the person on the bed at regular intervals, image conversion means for converting an image captured by the image capturing means into a silhouette image or a mosaic image, and the converted image data Using a neural network to identify the movement pattern of the person to be observed, and to determine whether or not the person to start getting out of bed includes prediction,
A bed leaving prediction automatic sensing and reporting system, comprising: reporting means for automatically reporting when it is determined that the observation subject's bed leaving operation has started.
前記画像変換手段により変換処理される画像がモザイク画像であり、該モザイク画像は前記撮影手段で撮影した画像を所定数に分割した各メッシュ内の全画素を加算し、その平均値を算出し、算出した平均値をニューラルネットワークに入力することを特徴とする請求項3記載の離床予測自動感知通報システム。   The image converted by the image conversion means is a mosaic image, and the mosaic image adds all the pixels in each mesh obtained by dividing the image captured by the imaging means into a predetermined number, and calculates an average value thereof. 4. The bed leaving prediction automatic sensing notification system according to claim 3, wherein the calculated average value is input to a neural network. 被観察者を撮影して変換処理したシルエット画像またはモザイク画像の画像データおよびあらかじめ撮影した複数の種々の起床パターン・就寝パターンを含む離床パターンのシルエット画像またはモザイク画像からなる画像データをニューラルネットワークに入力することにより、前記被観察者が離床するか否かを予測を含めて判定させることを特徴とする請求項3記載の離床予測自動感知通報システム。   Image data of the silhouette image or mosaic image obtained by photographing the subject and converted, and the image data consisting of the silhouette image or mosaic image of the leaving pattern including a plurality of various wake-up patterns / sleeping patterns previously captured are input to the neural network. 4. The bed leaving prediction automatic detection notification system according to claim 3, further comprising: determining whether or not the person to get out of the bed includes prediction.
JP2005262065A 2005-09-09 2005-09-09 Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system Pending JP2007072964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005262065A JP2007072964A (en) 2005-09-09 2005-09-09 Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005262065A JP2007072964A (en) 2005-09-09 2005-09-09 Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system

Publications (1)

Publication Number Publication Date
JP2007072964A true JP2007072964A (en) 2007-03-22

Family

ID=37934325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005262065A Pending JP2007072964A (en) 2005-09-09 2005-09-09 Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system

Country Status (1)

Country Link
JP (1) JP2007072964A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240479A1 (en) * 2013-02-28 2014-08-28 Nk Works Co., Ltd. Information processing apparatus for watching, information processing method and non-transitory recording medium recorded with program
WO2018105171A1 (en) 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method
JP2018156635A (en) * 2017-02-02 2018-10-04 ヒル−ロム サービシズ,インコーポレイテッド Method and apparatus for automatic event prediction
JP2019020993A (en) * 2017-07-14 2019-02-07 オムロン株式会社 Watching support system and method for controlling the same
JP2019185134A (en) * 2018-04-02 2019-10-24 Kddi株式会社 Information processing device, learning method, and program
JP2020188487A (en) * 2020-07-22 2020-11-19 コニカミノルタ株式会社 Central processing device, monitored person monitoring method, and monitored person monitoring system
JP2021029673A (en) * 2019-08-26 2021-03-01 アースアイズ株式会社 Medical accessory self-removal monitoring system and medical accessory self-removal monitoring method
CN113393923A (en) * 2020-03-11 2021-09-14 希尔-罗姆服务公司 Patient behavior pattern based out-of-bed prediction

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140240479A1 (en) * 2013-02-28 2014-08-28 Nk Works Co., Ltd. Information processing apparatus for watching, information processing method and non-transitory recording medium recorded with program
WO2018105171A1 (en) 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method
US10846538B2 (en) 2016-12-06 2020-11-24 Konica Minolta, Inc. Image recognition system and image recognition method to estimate occurrence of an event
JP2018156635A (en) * 2017-02-02 2018-10-04 ヒル−ロム サービシズ,インコーポレイテッド Method and apparatus for automatic event prediction
JP2019020993A (en) * 2017-07-14 2019-02-07 オムロン株式会社 Watching support system and method for controlling the same
JP2019185134A (en) * 2018-04-02 2019-10-24 Kddi株式会社 Information processing device, learning method, and program
JP2021029673A (en) * 2019-08-26 2021-03-01 アースアイズ株式会社 Medical accessory self-removal monitoring system and medical accessory self-removal monitoring method
CN113393923A (en) * 2020-03-11 2021-09-14 希尔-罗姆服务公司 Patient behavior pattern based out-of-bed prediction
JP2020188487A (en) * 2020-07-22 2020-11-19 コニカミノルタ株式会社 Central processing device, monitored person monitoring method, and monitored person monitoring system

Similar Documents

Publication Publication Date Title
JP5992296B2 (en) Nurse call system and condition judgment system
JP2007072964A (en) Bed-leaving prediction automatic sensing and notification method, and its automatic sensing and notification system
JP6150207B2 (en) Monitoring system
WO2012043020A1 (en) Safe nursing system and method for controlling safe nursing system
JP5858940B2 (en) Bed leaving monitoring system
KR101715218B1 (en) System and method for detecting the patient&#39;s fall by analyzing image
KR101927220B1 (en) Method and Apparatus for Detecting Object of Interest By Using Infrared Thermography Image
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP2009077908A (en) Care receiver movement detector and care receiver movement detecting method
WO2016199495A1 (en) Behavior detection device, behavior detection method and program, and subject monitoring device
JP2019020993A (en) Watching support system and method for controlling the same
KR101712191B1 (en) Patient Fall Prevention Monitoring Device
EP3855451A1 (en) Machine vision system to predict clinical patient parameters
JPWO2017183602A1 (en) Monitored person monitoring system and monitored person monitoring method
WO2014185406A1 (en) Mechanism for predicting/detecting arising from bed
JP6711474B2 (en) System, system control method, control program, and device including program
JP6611871B1 (en) Monitoring device
JP5517285B2 (en) Wake-up monitoring device
KR102604548B1 (en) Fall monitoring system
JP2019197263A (en) System and system control method
WO2021033453A1 (en) Image processing system, image processing program, and image processing method
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device
JP5207040B2 (en) Fall detection system
JP2020091628A (en) Care recipient monitoring system
JPWO2019216045A1 (en) System and system control method