JP7457625B2 - ベッドシステム - Google Patents

ベッドシステム Download PDF

Info

Publication number
JP7457625B2
JP7457625B2 JP2020170023A JP2020170023A JP7457625B2 JP 7457625 B2 JP7457625 B2 JP 7457625B2 JP 2020170023 A JP2020170023 A JP 2020170023A JP 2020170023 A JP2020170023 A JP 2020170023A JP 7457625 B2 JP7457625 B2 JP 7457625B2
Authority
JP
Japan
Prior art keywords
user
bed
unit
control unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020170023A
Other languages
English (en)
Other versions
JP2022061829A (ja
Inventor
真央 吉田
武 永易
陽介 山崎
純一 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Paramount Bed Co Ltd
Original Assignee
Paramount Bed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Paramount Bed Co Ltd filed Critical Paramount Bed Co Ltd
Priority to JP2020170023A priority Critical patent/JP7457625B2/ja
Priority to CN202110546862.4A priority patent/CN114300130A/zh
Priority to US17/326,612 priority patent/US11657615B2/en
Publication of JP2022061829A publication Critical patent/JP2022061829A/ja
Priority to US18/133,720 priority patent/US20230245459A1/en
Application granted granted Critical
Publication of JP7457625B2 publication Critical patent/JP7457625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0461Sensor means for detecting integrated or attached to an item closely associated with the person but not worn by the person, e.g. chair, walking stick, bed sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0492Sensor dual technology, i.e. two or more technologies collaborate to extract unsafe condition, e.g. video tracking and RFID tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/36General characteristics of devices characterised by sensor means for motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/05Parts, details or accessories of beds
    • A61G7/0507Side-rails
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data

Description

本実施形態は、ベッドシステム等に関する。
ベッド装置を利用する利用者に対して、様々な支援を行うシステムが提案されている。例えば、ベッドと利用者とが写る画像を入力し、当該画像から離床の行動や、利用者の転落する危険性を判定する発明が開示されている(例えば、特許文献1、特許文献2参照)。
特開2019-008515号公報 特開2018-067203号公報
本実施形態は、利用者の転倒・転落等のリスクを適切なタイミングで通知することが可能なシステム等を提供することである。
本開示のベッドシステムは、撮像装置と、前記撮像装置を設置可能なベッドと、前記撮像装置で取得した画像を処理して利用者の転倒可能性を予測する制御部と、を備え、前記制御部は、利用者の状態が第1状態であると判定した場合、第1のパラメータに基づいて、前記利用者の転倒可能性を予測し、前記制御部は、利用者の状態が第2状態であると判定した場合、第2のパラメータに基づいて、前記利用者の転倒可能性を予測し、前記第1状態は、前記第2状態とは異なる前記利用者の状態であり、前記第1パラメータは、前記第2パラメータと異なることを特徴とする。
本開示のベッドシステムは、撮像装置と、前記撮像装置を搭載したベッドと、前記撮像装置で取得した画像を処理して利用者の転倒可能性を予測する制御部と、を備え、前記制御部は、前記ベッドと利用者との位置に基づいて選択されるパラメータに基づいてリスクを予測し、前記撮像装置で取得した画像に基づいて低減要因があると判定した場合は、前記予測したリスクを低いレベルで予測することを特徴とする。
本実施形態によれば、利用者の転倒・転落等のリスクを適切なタイミングで通知することが可能なシステム等を提供することができるようになる。
第1実施形態におけるシステム全体を示す図である。 第1実施形態におけるカメラの設置状況を説明するための図である。 第1実施形態における機能構成を説明するための図である。 第1実施形態における周辺環境取得処理を説明するための図である。 第1実施形態における姿勢推定処理を説明するための図である。 第1実施形態における動作取得処理を説明するための図である。 第1実施形態における予測処理を説明するための図である。 第1実施形態における対応実行処理を説明するための図である。 第2実施形態におけるシステム全体を示す図である。 第2実施形態における機能構成を説明するための図である。 第4実施形態におけるカメラ装置の配置(位置)について説明するための図である。 第5実施形態における動作例を説明するための図である。 第5実施形態における動作例を説明するための図である。 第5実施形態における処理を説明するためのフロー図である。 第5実施形態における動作例を説明するための図である。 第5実施形態における動作例を説明するための図である。 第6実施形態における処理を説明するためのフロー図である。 第7実施形態における動作例を説明するための図である。 第7実施形態における処理を説明するためのフロー図である。 変形例を説明するための図である。
以下、図面を参照して本開示のシステムを実施するための一つの形態について説明する。なお、本開示の内容は、実施を行うための形態の一例を示しているに過ぎず、開示されている数値や、構成に限定されず、当業者であれば想到することができる均等の範囲も含まれるものである。
[1.第1実施形態]
利用者の転倒や転落を防ぐために、様々な手法が提案されている。例えば、比較例のシステムは、ベッド装置と、利用者とが写った画像を解析する。比較例のシステムは、画像を解析することで利用者が離床をする可能性や、利用者がベッド装置から転落する可能性があることを認識できる。また、比較例のシステムは、利用者が転落する危険性が高い場合には、医療従事者やスタッフ、介助者等に報知するものである。
ここで、医療従事者やスタッフ、介助者等に報知するタイミングが遅いと、利用者がベッド装置から転落してしまう危険性がある。また、利用者がベッド装置から離床した後に、ベッド装置の周りの環境(例えば、車椅子や、靴が置かれている位置、サイドテーブルの配置等)により、利用者が転倒してしまうリスクが生じる場合がある。
しかし、利用者がベッド装置から離床するタイミングよりも早いタイミングで比較例のシステムが通知してしまうと、医療従事者やスタッフ、介助者等に過度に(必要以上に)通知がなされてしまい、業務負担に繋がるという問題が生じる。また、利用者の身体状況や、周辺環境の違い等によって転倒・転落リスクの高さは異なる。そのため、比較例のシステムが報知条件を設定した後、この設定条件に応じた一律の基準でスタッフ等に通知をしてしまうと、スタッフ等が利用者の特性や周辺環境に応じた適切な対応をとることができなくなりえる。
そこで、本実施形態の第1のシステムによれば、利用者のリスクを予測し、適切なタイミングでの報知や、適切なアドバイスが可能なシステムを提供するものである。
なお、本明細書における利用者とは、ベッド装置(マットレス)を利用する者をいい、病気で治療を受けるもの(例えば患者)に限られず、施設で介護を受ける者や、ベッド装置に在床する者(例えば仰臥する者)であれば、健常者であっても利用者となりえる。
また、本明細書でスタッフ等は、医療従事者、施設等のスタッフ、家庭等を含む利用者を介助する者だけでなく、利用者に関わる者も含む。
また、本明細書で障害物とは、利用者の転倒・転落に繋がる原因になるものをいう。例えば、ベッド装置の近くに配置されたテーブル、ポール、車椅子といったものや、利用者の履物(靴やサンダル)、カーテン等居室内に含まれるものを障害物と表現する。また、障害物は事象を含んでいてもよい。例えば、床が濡れていることにより利用者の転倒・転落に繋がる原因となっている場合、そのような事象も障害物に含めてもよい。
また、ベッド装置自体が、利用者の転倒・転落に繋がる原因である場合は、障害物となりうる。例えば、ベッド装置のキャスタの向きが適切でない場合や、ベッド装置のキャスタがアンロック状態となっている場合には、ベッド装置が障害物となりうる。キャスタの向きが適切でない場合としては、例えば利用者がベッド装置を押した場合に、容易に動いてしまう方向であってもよい。
また、本明細書の転倒・転落は、転倒及び/又は転落を含む。例えば、「利用者の転倒・転落に繋がる原因」とは、「利用者の転倒に繋がる原因」と、「利用者の転落に繋がる原因」との何れか又は両方を含む。
また、本明細書で画像とは、カメラ装置により撮影された画像(画像データ)であり、静止画像、動画像、その他カメラ装置にて撮影された画像全てを含むものである。
[1.1 全体説明]
[1.1.1 システム全体の説明]
図1(a)は、本実施形態におけるシステム1の概略を説明するための全体図である。図1(b)は、ベッド装置3の構成を説明するための図である。図1(c)は、センサ装置30の配置を説明する図である。
システム1は、図1(a)に示すように、制御装置10と、サーバ装置50と、端末装置52と、携帯端末装置54を含む。制御装置10と、サーバ装置50と、端末装置52と、携帯端末装置54はネットワークNWを介して通信可能に接続される。
ベッド装置3は、動作可能な背ボトム、腰ボトム、膝ボトム、足ボトム等(以下、これらを総称して「ボトム部」と呼ぶ)を1又は複数設けており、背上げ動作、足上げ動作を行うことができる。例えば、図1(b)は、背ボトムが上昇することで、背上げ動作が行われている状態を示している。また、ベッド装置3は、マットレス4を、ボトムの上に載置してもよい。
また、ベッド装置3は昇降機構を備えており、ベッド装置3におけるボトム部の高さ(床高)を変えることができる。なお、本明細書において、ベッド装置の床高とは、基準となるベッド装置3を載置している床からボトム部までの距離をいう。なお、ベッド装置3の床高は、床からボトム部までの距離以外にも、床から上部のフレームの距離であってもよいし、床からマットレス上までの距離であってもよい。また、ベッド装置の床高は、基準となる位置を床ではなく、下部のフレームにしてもよい。
さらに、ベッド装置3は、ベッド装置3全体を傾ける動作(チルト動作)を行うこともできる。ベッド装置3は、いずれの部分も可動できないベッド装置であってもよい。
また、ベッド装置3は、ボード5を着脱可能に設置できる。図1(b)に示すように、ボードは頭側にヘッドボード(ボード5a)、足側にフットボード(ボード5b)を設置できる。また、ベッド装置3は、サイドレール6を着脱可能に設置可能である。サイドレール6は、ベッド装置の左右に設置可能である。また、サイドレール6は、ベッド装置3の長手方向にも複数設置可能である。例えば、サイドレール6は、ベッド装置3の頭側、足側に2つ設置してもよい。
また、ベッド装置3は、キャスタ7を利用することにより移動可能である。キャスタ7はロック機構を備えている。ベッド装置3は、ロック機構によりロックされると、移動が制限される。
さらに、ベッド装置3は、カメラ装置20を備えている。カメラ装置20は、利用者P、ベッド装置3、周辺環境の状態やスタッフ等を撮影している。カメラ装置20の設置方法については後述する。
ここでいう「周辺環境」とは、ベッド装置3が設置されている周辺の範囲(例えば、ベッド装置3が設置されている位置から所定の距離に含まれる範囲や、ベッド装置3がある居室・病室が含まれる範囲、カメラ装置20が撮影できる範囲)の環境をいう。例えば、周辺環境として含まれるものは、ベッド装置3の周りに配置されているもの(例えば、床頭台、IVポール等)や、靴や車椅子といった移動可能なもの、部屋の明るさ、多床室の場合の他の利用者、スタッフ等の位置といったものが含まれる。
また、本明細書において「周辺」とは、カメラ装置20によって撮影可能な範囲(画角)をいう。例えば、カメラ装置20により、ベッド装置3が設置された居室の出入口や、居室の全範囲が撮影可能な場合、居室の出入口や、居室の全範囲も「周辺」に含まれる。
また、ベッド装置3の上には、センサ装置30が載置可能である。センサ装置30は、ベッド装置3にいる利用者の体動を検出するセンサである。センサ装置30を利用することにより、制御装置10は、利用者の心拍、呼吸数と言った生体情報値が取得できたり、利用者の位置や重心、姿勢等を検出できたりする。
センサ装置30は、利用者の状態や、居室・病室の状態を検出可能なセンサである。例えば、ベッド装置3の上にあるマットレスの上に載置されてもよいし、ベッド装置3のボトム部とマットレスとの間に載置されてもよい。また、センサ装置30が載置される位置は、ベッド装置3の上において、利用者の体動が検出できる位置に載置されればよい。このセンサ装置30が載置される位置は、好ましくは、利用者が横になったとき、利用者の背中に対応する位置である。
例えば、図1(c)に示すように、センサ装置30は、ベッド装置3のボトム部の上に載置されるマットレス4の上又は下に載置される。このとき、センサ装置30は、利用者Pの背中(胸部近傍)に位置するように頭側端部から距離M20離れた位置に載置される。例えば、M20は40cmである。
また、センサ装置30は、ベッド装置3の下(床とベッド装置3の間)に荷重センサを設けることで実現してもよいし、フレームやベッドを支えるモータに歪みゲージを設けて利用者の体動を検出してもよい。
また、センサ装置30は、それ以外のセンサを含んでも良い。例えば、センサ装置30は、居室の明るさを検出する照度センサや、他の装置の位置を検出する位置センサ、利用者の顔認証を行うセンサであってもよい。また、利用者の排泄を検出する臭気センサであってもよい。例えば特開2018-066885号公報(発明の名称:排泄センサ、出願日:平成30年3月30日)に記載の排泄センサを援用できる。この特許出願は援用によりその全体が組み込まれる。センサ装置30は、何らかの情報や状態を検出したり、検知したりすることができる装置であればよい。
ベッド装置3がある居室・病室には、さまざまな物として備品が置かれている。例えば、点滴等を取り付けることができるスタンド(IVスタンド)、ベッド装置3に取り付けられるポール(IVポール)、サイドテーブル、車椅子、キャビネット(床頭台)等の備品等が置かれる可能性がある。システム1は、これらの備品を、後述するように、カメラ装置20で備品、物の位置を把握してもよい。また、IVスタンド、IVポール、サイドテーブル、車椅子、キャビネット等の備品は、IoTユニット(通信モジュールを含む)をそれぞれ内蔵することで、システム1が、備品の位置や状態を把握してもよい。
さらに居室・病室内のカーテン(ベッド装置3の周りにあるカーテン、窓に取り付けられているカーテン等)を備品としてもよい。システム1は、カメラ装置20や、IoTユニットを利用することで、カーテンが開いているか、閉まっているかの状態を把握してもよい。また、システム1は、カメラ装置20や、IoTユニットを利用することで、ベッド周辺に設置されているカーテンが開いているか、閉まっているかの状態を把握してもよい。また、ベッド周辺に設置されているカーテンは、例えば多床室で、各患者の空間を仕切るためのカーテンであってもよい。
制御装置10は、本システム全体を制御する装置である。本実施形態の、制御装置10は、タブレット型装置に設置されており、他の装置から各装置を制御してもよい。例えば、制御装置10は、センサ装置30が取得した心拍数や呼吸値といった生体情報値を、モニタに表示してもよい。
また、制御装置10は、他の装置とさらに接続されてもよい。例えば、制御装置10は、ベッド装置3を制御するベッド制御装置40(図3)と接続してもよい。制御装置10は、ベッド装置3の状態を取得したり、ベッド装置3の制御(例えば、背上げ/背下げの制御)を行ったりすることができる。
なお、制御装置10は、カメラ装置20と一体となって構成されてもよいし、カメラ装置20とは異なる装置として構成されてもよい。また、制御装置10は、ベッド装置3を制御するベッド制御装置40と一体に構成してもよい。
また、制御装置10は、他の場所にある装置で実現されてもよいし、利用者や、スタッフ等の端末装置(例えば、スマートフォン)にアプリケーションがインストールされることにより提供されてもよい。また、制御装置10で実現されている機能は、サーバ装置側で実現してもよい。
制御装置10は、ネットワークNWに接続可能に構成されている。制御装置10は、例えば、無線LANを介してアクセスポイント12に接続し、ネットワークNWに接続する。アクセスポイント12は、無線LANの基地局装置であり、IEEE802.11a/b/g/n等の無線通信が可能である。なお、制御装置10は、無線LANでなく、有線LANや、Bluetooth(登録商標)の近距離無線通信、LTE/5G等のその他の通信回線を利用して通信をしてもよい。
サーバ装置50は、システムにおける必要な情報を管理するサーバである。サーバ装置50は、利用者の疾病に関する情報、投薬に関する情報、入院履歴、転倒履歴に関する情報といった種々の情報を管理している。端末装置52、携帯端末装置54はスタッフが利用する装置である。例えば、転倒・転落に繋がるリスクが発生した場合に、制御装置10は、端末装置52や、携帯端末装置54に報知を行ってもよい。
なお、サーバ装置50は、制御装置10が取得したデータを受信し、管理してもよい。例えば、サーバ装置50は、カメラ装置20が撮影した画像を受信して、管理してもよい。サーバ装置50は、本システムを管理するサーバ装置に限られず、医療システム・病院システムを管理するサーバ装置、電子カルテサーバ装置、病院や施設がカスタマイズした管理サーバ装置が含まれるものである。
[1.1.2 カメラのパターン]
図2は、カメラを利用するパターンを説明するための図である。以下、5つのパターンについて説明する。なお、カメラ装置20は、予めベッド装置3のフレームや、ベッド装置3のボードに内蔵・外付けしてもよい。また、カメラ装置20は、ベッド装置3に対して後から内蔵・外付けしてもよい。
(パターンa)
図2(a)に示すように、カメラ装置20は、ベッド装置3の周辺に設置する。具体的には、カメラ装置20は、ベッド装置3の頭側、足側、長手側(利用者右手側、利用者左手側)のフレームや、ボード、ベッドに取り付けられた柵(例えば、差込柵、折畳柵、追従柵、説明の便宜上サイドレールともよぶ)・介助バー、その他柵穴やボードを利用した専用の取付器具に設置する。これにより、カメラ装置20は、ベッド装置3の外側周辺や利用者・スタッフ等を撮影することができる。例えば、カメラ装置20は、好ましくは120~230度の範囲で撮影できるものであってもよい。
なお、図2(a)では、カメラ装置20は、フレーム、ボード5の中央に設置しているが、ベッド装置3の角部4箇所いずれかに設置してもよいし、ベッド装置3の角部4箇所それぞれに設置してもよいし、一辺に2つ以上、複数台設置してもよい。また、カメラ装置20は、画角が異なるものを組み合わせて設置してもよいし、場所を問わずに設置してもよい。カメラ装置20のレンズはベッド装置3の外側に向くように設置されている。
(パターンb)
図2(b)に示すように、カメラ装置20は、ボード5に設置する。具体的には、カメラ装置20は、ベッド装置3の足側のフットボード(ボード5b)(又は頭側のヘッドボード(ボード5a))の中央に設置されることで、ベッド装置3の利用者全体が撮影できるようになる。カメラ装置20は、好ましくは60度~230度の範囲で撮影できるものであってもよい。また、カメラ装置20は、2つ以上、複数台設置されてもよいし、カメラ装置20の画角が異なるものが組み合わせて設置されてもよい。また、カメラ装置20は、利用者を含めたベッド装置の上が撮影できる範囲であれば、例えばフットボード(ヘッドボード)の右側よりや左側よりに設置する等、場所を問わずに設置してもよい。カメラ装置20のレンズはベッド装置3の内側に向くように設置されている。
(パターンc)
図2(c)に示すように、カメラ装置20は、両側のボード5に設置する。具体的には、カメラ装置20は、ベッド装置3のフットボード(ボード5b)及びヘッドボード(ボード5a)の中央に設置されることで、ベッド装置3の利用者全体が撮影できるようになる。その他の説明は、第2パターンと同様であり、詳細な説明は省略する。
(パターンd)
図2(d)に示すように、カメラ装置20は、ヘッドボード(ボード5a)及び/又はフットボード(ボード5b)の端部に設置する。例えば、カメラ装置20は、フットボードの端部近傍や、フットボードの上方に設けられている把持部近傍に設置している。このように、カメラ装置20は、利用者や、ベッド装置3の周辺が撮影できる場所の、何れかに配置されることとなる。
このように、カメラ装置20は、部屋に予めあるカメラ装置ではなく、1つのベッド装置3に対応するように設けられる。これにより、カメラ装置20は、ベッド装置3や、周辺の環境等にキャリブレーションを実行する必要がなく、利用者およびスタッフ等の利便性が向上する。また、ベッド装置3の利用者が変わったり、ベッド装置3を配置する居室が変わったりしても、ベッド装置3と、カメラ装置20が対応しているため、システムに保存されたデータの変更などは不要であり、利用者およびスタッフ等の利便性が向上する。例えば、キャリブレーションを実行する必要が無くなることから、スタッフ等がキャリブレーションをし忘れてしまった場合でも、適切にカメラを利用することができる。
(パターンe)
上述したパターンでは、カメラ装置20はベッド装置3に設置することを例に説明したが、例えば、既に居室に設置されているカメラ装置20や備品に設置されているカメラ装置20を利用することもできる。具体的には、すでに監視カメラ等が設置されている場合には、その画像を利用してもよい。この場合、ベッド装置の上の利用者Pが画角に入る位置のカメラ装置20を利用する。
なお、上述したパターンaからパターンeは、必要に応じて組み合わせて設置することができる。例えば、設置パターンは、パターンaと、パターンcとを組み合わせたり、パターンcと、パターンdとを組み合わせたりすることができる。
また、カメラを利用するパターンは、カメラ装置20を各位置に改めて設置する(後付けで設置する)こともあれば、予め設置してある(初期状態で設置してある)こともある。また、カメラを利用するパターンは、既に設定されているカメラの中から選択して利用することを含むものとする。例えば、図2(a)、図2(c)、図2(d)の箇所に予めカメラは設置されている。このとき、システム1は、パターンcの場合は、図2(a)や、図2(d)で示したカメラは利用せず、図2(c)(ボード5)に設置されたカメラを利用する。
[1.1.3 カメラ装置により取得可能なデータ]
制御装置10は、カメラ装置20により撮影された画像を解析することで、以下のようなデータを取得することが可能である。以下、取得可能なデータの概要について説明する。
(1)利用者の行動
例えば、利用者の行動として、食事(食事量も含む)、水分等を摂取する行為(水分摂取量も含む)、寝返り回数、無呼吸、ポータブルトイレの使用頻度、禁止行動の有無、異常行動、服薬したか否か、引っ掻き行動の有無といったことを取得することができる。
(2)利用者の状態
例えば、利用者の状態として、利用者の体調変化、利用者の表情、利用者の感情、利用者の痙攣、利用者の出血、利用者の生体情報、利用者の寝姿勢、利用者の離在床(離床または在床継続時間も含む)、利用者が転倒した際の状況といったことを取得することができる。
(3)人の検知
例えば、撮影範囲にいる利用者、病院・施設のスタッフ、家族、他人、第三者といった人を検知したり、認識したりすることができる。
(4)その他の情報
例えば、カルテ情報、利用者が使用している点滴残量、利用者が利用している又は居室にある消耗品の残量、ベッド清拭の有無、補助具の位置、ベッド装置の周辺又はベッド装置の下にある物や障害物の状態、床の状態(床が濡れているか否か)、物品の状態(物が置かれている状況として適切か否か、破損等ないか)、ケーブル等の配線類の位置、看護師等のスタッフや家族の行動(スタッフ等が行った処置、居室や装置の電源差忘れ)、スタッフ等が利用者を訪問した時刻や、未訪問継続時間、居室内の備品の位置や使用の有無、居室全体の景色、利用者やスタッフ等に対する暴力の有無、居室内における窃盗、水漏れや火災などの災害(災害の発生場所等の情報も含む)等を認識したりすることができる。
なお、制御装置10が、撮影した画像から取得するデータについては、後述するように画像を解析して認識してもよいし、撮影した画像に基づき人工知能(AI)によりデータを取得してもよい。
例えば、システム1(制御装置10)は、ベッド装置3を含めた居室内と、利用者とを含めて撮影した画像をデータベースに蓄積する。また、このとき、制御装置10は、撮影した画像と、利用者の行動、利用者の状態、検知される人、その他画像に対応する情報との関係をディープラーニングによりニューラルネットワークに学習させる。
そして、制御装置10は、ベッド装置3を含めた居室内と、利用者とを含めて撮影した画像に基づいて、学習済みニューラルネットワークを利用することで、後述するように必要なデータを取得することができる。
[1.1.4 入力パラメータ及び出力パラメータ]
制御装置10は、機械学習された学習済みモデルや、ニューラルネットワークに、いくつかのパラメータを入力することにより、出力を得ることが可能である。以下、いくつかの状況(situation)に基づいて、制御装置10が入力するパラメータと、出力するパラメータとを説明する。
(1)第1の状況
制御装置10は、利用者が在床中に、どれだけ水分摂取を行ったかをカメラ装置20が撮影した画像から認識し、認識結果に基づいて離床予測を行ったり、「トイレ誘導してあげてください」のレコメンドをスタッフ等に通知したりする。
この場合、制御装置10は、入力パラメータとして、「水分摂取量」「在床継続時間」を入力する。また、制御装置10は、出力として「離床予測」「レコメンド通知」を出力する。
(2)第2の状況
制御装置10は、スタッフが前回実施した処置の内容(例えば、スタッフが利用者に施した治療)と、その後の経過時間(未訪室時間)によって、スタッフが巡回すべき利用者である患者の優先順位と必要準備項目(物品)を通知する。
この場合、制御装置10は、入力パラメータとして「前回実施処置」「未訪室継続時間」を入力する。また、制御装置10は出力として「巡回優先順位通知」「訪室時必要準備項目(物品)」を出力する。
(3)第3の状況
制御装置10は、火災(カメラ)や地震(振動)が発生した際に、その付近にいる利用者である患者やスタッフ、離れたところにいる利用者やスタッフにアラートを通知する。また、制御装置10は、通知先に応じて、種類を変えたアラートを通知する。例えば、災害が発生場所の付近にいる利用者やスタッフには、避難するアラートを通知し、発生場所から離れた場所にいる利用者やスタッフには、待機するアラートを通知する。
制御装置10は、入力パラメータとして「火災・地震」「発生場所」「利用者の在床有無」を入力する。また、制御装置10は、出力として「災害用アラーム」を出力する。
(4)第4の状況
制御装置10は、スタッフの処置忘れを防止するための通知をする。制御装置10は、例えば、カルテ上、利用者に複数の薬を投薬しなければならなかったが、一部の薬を投薬しなかった場合を防止するための通知をする。また、スタッフの処置としては、利用者に対する処置(例えば、点滴の確認、清拭の実施)だけでなく、スタッフ自身の処置(例えば、スタッフの手指消毒等)を含めてもよい。
制御装置10は、入力パラメータとして「スタッフ処置」「カルテ情報」を入力する。また、制御装置10は、出力として「処置忘れアラート」を出力する。
(5)第5の状況
制御装置10は、利用者の状態や動作に応じて通知する。例えば、利用者が片麻痺患者の場合、行いたくてもできないこと(要望)を、動作から読み取って通知する。
制御装置10は、入力パラメータとして「姿勢」「動作」「カルテ情報」を入力する。また、制御装置10は、出力として「要望推定(通知)」を出力する。
(6)第6の状況
制御装置10は、患者の転倒プロセス(例えば、どの部位をどのくらいの強さで打ったか)によって、治療要否判断を行う。
制御装置10は、入力パラメータとして「打った部位」「転倒スピード」「衝撃音」を入力する。また、制御装置10は、出力として「治療要否判断」を出力する。
(7)第7の状況
制御装置10は、センサ設定の変更に合わせて、周辺備品(環境)の変更をレコメンドする。例えば、制御装置10は、離床センサの設定を「起き上り」から「端座位」に変更したら(つまり立ち上がりができるようになったら)、今使っている差込柵ではなく介助バーをレコメンドする。
制御装置10は、入力パラメータとして「センサ設定変更(看護師の動作)」「周辺備品」「カルテ情報」を入力する。また、制御装置10は、出力として「備品・レイアウトの変更レコメンド」を出力する。
(8)第8の状況
制御装置10は、利用者の動作を検知し、カルテ情報に記載されている身体情報と変化(例えば、ADLの低下/向上)があれば、それに合わせた周辺備品(環境)の変更をレコメンドする。
制御装置10は、入力パラメータとして「動作」「周辺備品」「カルテ情報」を入力する。また、制御装置10は、出力として「備品・レイアウトの変更レコメンド」を出力する。
(9)第9の状況
制御装置10は、物があるべき位置から落下した事象をカメラが捉えて、利用者がそれを取ろうとする動作を検知した場合に、スタッフに通知する。
制御装置10は、入力パラメータとして「物の落下」「手を伸ばす行為」「カルテ情報」を入力する。また、制御装置10は、出力として「落下物通知(転倒予防)」を出力する。
[1.2 機能構成・処理の説明]
つづいて、本実施形態におけるシステム1において、制御装置10を中心とする機能構成について図3を参照して説明する。
[1.2.1 制御部・記憶部]
制御装置10は、制御部100と、記憶部120と、表示部130と、操作部135と、報知部140と、通信部150とを備える。また、通信部150は、カメラ装置20と、センサ装置30と、ベッド制御装置40と、サーバ装置50、周辺装置60と接続可能である。
制御部100は、制御装置10の全体を制御する。制御部100は、記憶部120に記憶されている各種プログラムを読み出して実行することにより、各種機能を実現する1又は複数の演算装置(例えば、CPU(Central Processing Unit))である。
制御部100は、記憶部120が記憶しているプログラムを読み出して実行することにより、取得部として、周辺環境取得部102と、姿勢取得部104と、動作取得部106と、生体情報取得部108と、疾病情報取得部110と機能する。また、制御部100は、予測部112と、対応実行部114として機能する。
記憶部120は、制御装置10の動作に必要な各種プログラムや、各種データを記憶する。記憶部120は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。
また、記憶部120は、周辺環境記憶領域1202と、利用者情報を記憶する利用者情報記憶領域1204と、画像記憶領域1240との領域を含み、説明変数テーブル1220と、予測辞書DB1230とを記憶している。
以下、制御部100が実現する機能について説明する。ここで、制御部100が取得部として機能する場合、各取得部は、所定の入力値から、予測部112が使用可能なパラメータとして特徴量を出力する。取得部は、以下に説明する特徴量を1又は複数組み合わせて出力可能である。
(1)周辺環境取得部(第1の取得部)
周辺環境取得部102は、カメラ装置20により撮影された画像に基づいて、画像に含まれる備品の中から障害物の取得、周囲の明るさ等のベッド装置3の周辺環境を取得する。周辺環境取得部102は、取得した周辺環境に基づいた特徴量を、周辺環境記憶領域1202に出力して記憶する。
周辺環境取得部102が実行する周辺環境取得処理について、図4(a)を参照して説明する。まず、周辺環境取得部102は、カメラ装置20から画像を取得する(ステップS1002)。具体的には、制御装置10がカメラ装置20から定期的に画像を取得する場合には、制御部100は受信した画像を画像記憶領域1240に記憶する。この場合、周辺環境取得部102は、ステップS1002で画像記憶領域1240から画像を読み出し、取得する。これに限定されることなく、例えば制御装置10がカメラ装置20を制御して画像を受ける場合、周辺環境取得部102は、ステップS1002でカメラ装置20から画像を直接取得してもよい。
なお、周辺環境取得部102は、パターンa、パターンdで配置されたカメラ装置20を利用することが好ましい。また、周辺環境取得部102は、ベッド装置3の状態(背上げ等の状態)を取得する場合は、パターンb、パターンcで配置されたカメラ装置20を利用してもよい。
周辺環境取得部102は、画像に基づいてベッド装置3の状態を認識する(ステップS1004)。ここで、ベッド装置3の状態とは、ベッド装置3の少なくとも一部が可動であるとき、可動な部分の状況を意味する。
周辺環境取得部102が画像を解析して、ベッド装置3のボトム部の高さ(床高)、背上げ角度、膝上げ角度、傾き角度(チルト角度)、背ボトムと膝ボトムが連動して動作するか否か等といった項目をベッド装置3の状態として認識する。例えば、周辺環境取得部102は、ベッド装置の床高が「20cm」、背上げ角度「20度」、膝上げ角度「10度」を特徴量の1つとして出力する。
また、周辺環境取得部102は、画像を解析して障害物を認識する(ステップS1006)。周辺環境取得部102が、周辺環境として障害物を認識するとは、画像に含まれている備品や物の中から、転倒・転落の原因となる可能性のあるものを障害物として認識する。そして、周辺環境取得部102は、障害物の種類、位置、向き、経路上にあるかどうか、大きさ、形状、動作の有無、ベッド装置3からの距離といったものを必要に応じて認識する。周辺環境取得部102は、認識した障害物に関する情報を特徴量の1つとして出力する。
例えば、周辺環境取得部102は、障害物の種類「車椅子」が、大きさ「56cm×100cm」、位置は「ベッド装置3の右側の30cm」であることを特徴量として出力する。
また、周辺環境取得部102は、ベッド装置3のキャスタの向きや、ロック状態、サイドレールの有無(設置の有無、使用の有無)、介助バーの有無(設置の有無、使用の有無)をベッド装置の状態や、障害物として認識してもよい。周辺環境取得部102は、認識結果を特徴量として出力する。
なお、周辺環境取得部102は、上述した説明では、カメラ装置20の画像を認識して、周辺環境を取得しているが画像以外から周辺環境を取得してもよい。例えば、周辺環境取得部102は、ベッド制御装置40から、直接ベッド装置3の背上げ角度、膝上げ角度、床高等を取得して特徴量として出力してもよい。また、周辺環境取得部102は、障害物に設けられた周辺装置60と通信を行うことにより、障害物の種類、位置、大きさ等を取得してもよい。
また、周辺環境取得部102は、図4(a)のステップS1004~S1006を選択的に実行してもよい。例えば、3つのステップのうち1つだけを実行してもよいし、2つ実行してもよい。周辺環境取得部102は、任意の組み合わせで実行してよい。
図4(b)は、周辺環境記憶領域1202に記憶される周辺環境に関する第1の特徴量の一例を示す図である。例えば、周辺環境記憶領域1202は、ベッド装置3の状態の特徴量と、障害物に基づく特徴量とを記憶する。
周辺環境記憶領域1202は、ベッド装置3に関する特徴量として、床高、背上げ角度、膝上げ角度、足上げ角度、傾き角度(チルト角度)、背ボトムと膝ボトムが連動して動作するか否かといったものを記憶可能である。
ベッド装置3の状態を認識するときに、周辺環境取得部102は、ベッド装置3と付随して利用するもの(例えば、エアマット)の状態も認識してもよい。また、周辺環境記憶領域1202は、その他にもベッド装置3の動作の状態について、特徴量として記憶してもよい。例えば、周辺環境記憶領域1202は、ベッド装置3の背ボトムと膝ボトムとが連動している場合は、フラグ「1」を特徴量として記憶してもよい。また、ベッド装置3においてローリング動作が行われている場合はフラグ「1」を特徴量として記憶したりしてもよい。
また、周辺環境記憶領域1202は、ベッド装置3に装着されている備品等を記憶してもよい。例えば、ボード5の有無、サイドレール6の有無、キャスタ7の状態を記憶してもよい。また、周辺環境記憶領域1202は、ボード5としてヘッドボード/フットボードの有無や、サイドレール6が装着されている場所(例えば、右側、左側、上側(頭側)、下側等)を記憶してもよい。
また、周辺環境記憶領域1202は、障害物に関する特徴量として、障害物の種類、障害物の位置等を記憶する。周辺環境記憶領域1202は、障害物の位置を、ベッド装置3や、カメラ装置20からの距離を特徴量として記憶してもよいし、相対的な位置座標(例えば、居室を仮想空間としたXYZ座標)を記憶してもよい。また、周辺環境記憶領域1202は、障害物の種類である「介助バー」「テーブル」等に対応した特徴量を記憶してもよいし、障害物自体の大きさ(例えば、幅xcm、長さycm、高さzcm)を特徴量として記憶してもよい。
また、周辺環境記憶領域1202は、特徴量を、利用者のIDや時刻に対応付けて利用者情報記憶領域1204に記憶してもよい。
(2)姿勢取得部(第2の取得部)
姿勢取得部104は、カメラ装置20により撮影された画像から、利用者の姿勢を取得し、特徴量を出力する。ここで、利用者の姿勢とは、利用者の身体の構え方のこといい、画像に基づいて推定される。また、姿勢取得部104は、推定する姿勢には、利用者の身体の構え方だけでなく、例えば利用者の位置(離床しているか)や、場所(端座位であるか)を取得してもよい。また、「姿勢を取得する」とは、後述するように、利用者の特徴点に基づいて姿勢を特定することをいうが、一部の特徴点に基づいて利用者の姿勢を推定する概念も含むものである。
また、姿勢取得部104は、取得した利用者の姿勢について、取得時刻とともに利用者に対応づけて利用者情報記憶領域1204に記憶してもよい。
そして、姿勢取得部104は、取得した姿勢に基づいて特徴量を出力する。特徴量は、端座位であれば「1」、仰臥位であれば「2」、それ以外は「0」といった姿勢毎の特徴量であってもよいし、利用者の向きの角度(例えば、「右に10度」)や、頭の位置(例えば、鉛直方向に対して「+5度」)、利用者の身体の構え方(例えば、「右手を挙げている角度」等)であってもよい。また、姿勢取得部104は、全ての姿勢や、身体の構え方を属性とし、該当すれば「1」を特徴量として出力してもよい。
姿勢取得部104は、取得した利用者の姿勢に基づく第2の特徴量を、利用者毎に対応付けて利用者情報記憶領域1204に記憶する。
姿勢取得部104が実行する姿勢取得処理について、図5(a)を参照して説明する。まず、姿勢取得部104は、画像を取得する(ステップS1102)。姿勢取得部104が画像を取得するのは、周辺環境取得部102が画像を取得するのと同じ方法が利用できる。
姿勢取得部104は、取得された画像から、利用者の骨格パーツを特徴点として認識する(ステップS1104)。例えば、姿勢取得部104は、パターン画像認識により、利用者の肩の位置、顔の位置、手の位置、足の位置を認識したり、膝関節、肘関節といった関節の位置も認識したりする。
図5(b)は、利用者の骨格パーツを模式的に示した図である。例えば、姿勢取得部104は、撮影された利用者の骨格パーツをパターン画像解析により認識し、利用者の特徴点をそれぞれ認識する。そして、姿勢取得部104は、認識した人体の特徴点をそれぞれ結んだ線を検出することで、利用者の骨格が認識できる。
姿勢取得部104は、この特徴点を利用することにより、利用者の大きさ、利用者の身体の向き(体の向き、顔の向き、視線の向きも含む)、利用者の身体の構え方といった姿勢を取得する(ステップS1106)。この利用者の姿勢の取得は、例えば、特徴点を座標回帰分析することにより、姿勢を取得してもよいし、機械学習の結果を利用して姿勢を取得してもよい。そして、姿勢取得部104は、取得した姿勢に基づいて、第2の特徴量を出力する。
なお、姿勢取得部104は、撮影された画像から特徴点を認識して利用者の姿勢を取得することとして説明したが、他の方法であってもよい。例えばニューラルネットワークを利用することで、画像から直接利用者の姿勢を取得してもよい。
また、画像からInstance Segmentationの手法により画像内の人や人の姿勢を認識してもよい。具体的には、姿勢取得部104は、画像に含まれる物体(人やベッド装置3等)の領域や、人の部位がある領域をオブジェクトして認識する。すなわち、姿勢取得部104は、人が含まれる領域を認識したり、更に人の手や足等の領域を認識したりすることで、利用者の姿勢を取得してもよい。
また、それ以外の利用者の姿勢等を取得する方法を利用してもよい。例えば特開2008-206869号公報(発明の名称:ベッドにおける使用者の状態検知システム、出願日:平成19年11月13日)に記載の使用者の状態検知方法、特開2009-118980号公報(発明の名称:寝台装置、出願日:平成19年2月27日)に記載の利用者の位置の検知方法を援用できる。この特許出願は援用によりその全体が組み込まれる。
なお、上述した姿勢取得部104は、カメラ装置20で撮影された画像に基づいて利用者の姿勢に基づく特徴量を出力すると説明した。しかし、それ以外にも、姿勢取得部104は、例えばセンサ装置30を利用することにより、利用者の姿勢を取得し、特徴量を出力してもよい。
また、姿勢取得部104は、画像を解析することにより、利用者の顔から表情を取得してもよい。姿勢取得部104は、顔の表情を取得した場合は、顔の表情に基づく特徴量を出力する。
(3)動作取得部(第3の取得部)
動作取得部106は、カメラ装置20又はセンサ装置30において取得された情報(センサ情報)に基づいて、利用者の動作を取得し、利用者の動作に基づく特徴量を出力する。ここで、利用者の動作とは、利用者の身体の動きのことをいう。例えば、利用者の動作としては、利用者が動いた量、利用者の手や足の動き、重心位置(重心位置の移動も含む)、ふらつき、歩容、挙動、寝返り等をいう。また、利用者の動作として、立ち上がりといった動作だけでなく、立ち上がりの速さ、歩く速さ、方向転換の向き、方向転換に係る時間といったものも含まれる。動作取得部106は、取得された利用者の動作を、利用者情報記憶領域1204に利用者毎に時系列に記憶してもよい。
動作取得部106が実行する動作取得処理について、図6を参照して説明する。まず、動作取得部106は、カメラ装置20又はセンサ装置30からセンサ情報を取得する(ステップS1202、ステップS1204)。センサ装置30が出力するセンサ情報は、例えば、振動データである。動作取得部106は、振動データ又は画像を解析することにより、利用者の動作を取得することができる(ステップS1206)。
ここで、動作取得部106がカメラ装置20から取得する情報としては、画像である。動作取得部106は、画像より利用者の姿勢を時系列的に推定し、その重心位置、ふらつき、歩容、挙動といった利用者の動作を取得する。また、動作取得部106が、利用者の動作を取得するために、センサ装置30から取得する情報としては、例えばベッド上の荷重変化量や、重心データ、空気圧の振動データ(利用者のバイタルデータである体動データ、心拍データ、呼吸データを含む)等である。すなわち、動作取得部106は、センサ装置30から取得された情報に基づいて、利用者の動作を取得することができる。
そして、動作取得部106は、取得された動作に基づく特徴量を特徴量として出力し、利用者情報記憶領域1204に記憶する。ここで、動作に基づく特徴量として記憶されるものは、例えば以下の通りである。
・利用者の体動が大きいことが取得された場合に特徴量として「1」を記憶する。
・利用者(又は利用者の体の一部)が所定の距離以上の移動したことを取得した場合に特徴量として「1」を記憶する。
・荷重変化が閾値以上あったことが取得された場合に特徴量として「1」を出力する。また、荷重変化の数値を特徴量として記憶する。
・寝返りの回数を特徴量として記憶する。
なお、動作取得部106は、とくに利用者の動作に変化がなかった場合は、変化がなかったことを特徴量として利用者情報記憶領域1204に記憶してもよい。すなわち、動作取得部106は、定期的に(例えば、1秒間、5秒間、1分間、5分間毎等)に、利用者の動作を取得し、動作に基づく第3の特徴量を利用者情報記憶領域1204に記憶してもよい。
(4)生体情報取得部(第4の取得部)
生体情報取得部108は、センサ装置30において取得された情報に基づいて、生体情報を取得する。例えば、生体情報取得部108が、生体情報取得処理を実行することにより、センサ装置30から受信した体動に基づいて呼吸波形や、心拍波形を算出する。そして、生体情報取得部108は、算出された呼吸波形から呼吸数を、心拍波形から心拍数をそれぞれ生体情報の値として取得する。生体情報取得部108は、生体情報値に基づいて第4の特徴量を算出し、出力する。
なお、これらの呼吸数、心拍数等の生体情報を取得する方法としては、例えば特開2016-30177号公報(発明の名称:呼吸障害判定装置、呼吸障害判定方法及びプログラム、出願日:平成26年7月30日)に記載の方法を援用できる。また、それ以外の公知の技術を利用してもよい。
また、生体情報取得部108は、呼吸数、心拍数以外にも体温、血圧、経皮的動脈血酸素飽和度(SpO2)等の生体情報の値も取得可能である。また、生体情報取得部108は、センサ装置30によって連続的に取得可能な生体情報(例えば、脈拍値、呼吸数)を取得してもよいし、血圧計によって測定される血圧や、体温計によって測定される体温といった外部装置等によって離散的に(スポット的に)取得可能な生体情報のいずれを取得してもよい。
生体情報取得部108は、生体情報値をそのまま特徴量として、利用者毎に利用者情報記憶領域1204に記憶してもよい。また、生体情報取得部108は、例えば生体情報値が正常レベル、注意レベル、警告レベルにあることを取得し、レベルに応じて特徴量を出力してもよい。
また、生体情報取得部108は、生体情報に基づいて取得できる利用者に関する情報を取得してもよい。例えば、生体情報取得部108は、利用者の睡眠状態/覚醒状態を取得したり、さらに睡眠状態としてレム睡眠、ノンレム睡眠を取得したりしてもよい。そして、生体情報取得部108は、利用者が睡眠状態のときは、睡眠の特徴量は「1」、利用者が覚醒状態のときは、睡眠の特徴量は「0」を出力してもよい。
これらの利用者の睡眠の状態を判定する方法としては、例えば特開2010-264193号公報(発明の名称:睡眠状態判定装置、プログラム及び睡眠状態判定システム、出願日:平成21年5月18日)、特開2014-229118号公報(発明の名称:睡眠状態判定装置、睡眠状態判定方法及びプログラム、出願日:平成26年11月11日)に記載の方法を援用できる。この特許出願は援用によりその全体が組み込まれる。また、他の公知の方法を利用して利用者の睡眠/覚醒の状態を取得してもよい。
また、生体情報取得部108は、カメラ装置20から利用者の生体情報を取得してもよい。生体情報取得部108が取得できる生体情報としては、例えば利用者の表情や目線、体の動き(例えば、睡眠中にむずむず脚症候群を発症している等)を取得することが可能である。また、生体情報取得部108は、画像を画像解析することにより、体動を検出し、呼吸、心拍を取得することも可能である。また、生体情報取得部108は、カメラ装置20に熱赤外線カメラ装置を利用することにより、体温を取得可能である。
(5)疾病情報取得部(第5の取得部)
疾病情報取得部110は、利用者の疾病に関する情報(疾病情報)を取得する。例えば、疾病情報取得部110が、疾病情報取得処理を実行すると、サーバ装置50に接続して、電子カルテDB502にアクセスする。そして、疾病情報取得部110は、利用者の疾病に関する情報を取得する。ここで、疾病情報には、利用者の疾病に関連する情報を広義に含み、単なる病状だけでなく、投薬に関する情報、施術に関する情報、手術に関する情報、入院履歴といった情報や、手足の麻痺がある、食事における注意事項、補助具の使用有無、利用者に関する注意事項といった情報が含まれている。
疾病情報取得部110は、疾病情報に基づいた特徴量を利用者情報記憶領域1204に記憶する。疾病情報取得部110が取得する特徴量は、例えば疾病歴、既往歴、入院歴に基づいた特徴量であってもよい。また、疾病情報には、転倒歴が含まれてもよい。転倒歴はスタッフ等が入力してもよいし、システムにより利用者が転倒した回数を検出し、自動的に更新してもよい。その他にも疾病情報取得部110は、利用者の服薬情報、健診情報、各種アセスメント(転倒アセスメントを含む)の記録等に基づいた特徴量であってもよい。
疾病情報取得部110は、入院日数を第5の特徴量として出力してもよい。また、疾病情報取得部110は、特定の疾病に該当する場合は「1」を第5の特徴量として出力してもよいし、利用者の血圧の値や、血糖値に基づいて第5の特徴量を算出し、出力してもよい。
(6)予測部
予測部112は、予測モデルである予測辞書DB1230を利用して、転倒・転落に繋がる危険性を予測する。予測部112は、転倒・転落に繋がる可能性として、確率や、転倒・転落が生じうる未来の時刻を予測してもよい。また、予測辞書DB1230は、何れかの機械学習の手法によって生成された学習済モデルの辞書データである。
予測部112は、上述した特徴量を説明変数として人工知能プログラムに入力する。人工知能プログラムは、予測辞書DB1230を利用して、目的変数として利用者が転倒・転落に繋がる危険性(可能性)を出力する。
上記の例では、予測部112は、複数の特徴量に基づいて利用者が転倒・転落に繋がる危険性(可能性)を出力しているが、これに限られず、複数の特徴量をそれぞれ求めることなく、カメラ装置20において撮影された画像に基づいて転倒・転落に繋がる可能性を予測してもよい。例えば、CNN(Convolutional Neural Network)を用いて作成された学習モデルを利用し、カメラ装置20により撮影された画像から、必要な特徴量を取得してもよい。また、予測部112は、カメラ装置20により撮影された画像から、CNN(Convolutional Neural Network)や、RNN(Recurrent Neural Network)を用いて作成された学習モデルを利用して、転倒・転落に繋がる可能性を出力してもよい。
転倒・転落に繋がる危険性は、例えば利用者が転倒転落をする危険の確率及び/又は転倒・転落をする時刻(予測される未来の時刻)を出力する。
また、予測部112は、転倒・転落の可能性として、危険の確率の代わりに転倒・転落リスクとしてレベルで出力する場合もある。例えば、予測部112は、確率が閾値以上(例えば、50%以上)の場合はリスクが高い、確率が閾値未満(例えば、50%未満)の場合は、リスクが低いと出力してもよい。また、予測部112は、閾値を複数設けることにより、転倒転落リスクが「高い」「やや高い」「やや低い」「低い」といった複数のレベルを出力してもよい。
予測部112がリスクを判定する閾値は、スタッフ等が共通して設定してもよいし、スタッフ等が利用者毎に設定してもよい。また、制御部100が、利用者の状態に応じて適宜変更してもよい。
本明細書においては、予測部112は、転倒・転落の危険性を確率として出力する場合と、レベルと出力する場合とがそれぞれあるものとする。したがって、予測部112が、転倒・転落の危険性を確率で出力すると説明している場合でもレベルで出力することが含まれる。また、予測部112が、転倒転落の危険性をレベルで出力すると説明している場合でも確率で出力することが含まれる。
また、予測部112は、転倒・転落のリスクが高くなる時刻や、時間を出力することができる。例えば、予測部112は、朝6時に転倒転落のリスクが高くなることを出力したり、現在の時刻から5分後や15秒後に転倒転落のリスクが高くなることを出力することができる。
以下、予測部112が実行する予測処理の動作について、図7を参照して説明する。
まず、予測部112は、疾病情報取得部110から転倒アセスメントを取得する(ステップS1300)。この転倒アセスメントは、例えば(1)利用者の年齢、(2)利用者の既往歴、(3)利用者の身体的機能障害の程度、(4)利用者の精神的機能障害の程度、(5)利用者の活動状況、(6)利用者に投与される薬剤の情報、(7)利用者の排泄状況、(8)利用者が使用するセンサの種類とその設定情報、(9)利用者に用いる柵の種類と柵の設置本数を含む。
予測部112は、転倒アセスメントに基づいて、潜在的な転倒・転落リスクの程度を利用者ごとに評価する(ステップS1301)。
予測部112は、利用者ごとの潜在的な転倒・転落リスクとカメラ装置20やセンサ装置30から取得される情報に基づき、利用者の転倒・転落リスクの予測を行う(ステップS1302~ステップS1312)。以下具体的に説明する。
予測部112は、利用者の位置を特定する(ステップS1302)。利用者の位置は、利用者がベッド装置3と相対的に位置している場所や、居室・病室内で位置している場所を示している。
本実施形態では、利用者の位置は、ベッド装置3と関係を示すものとして説明する。例えば、利用者の位置として以下の3つの場合を考える。
第1の位置:利用者がベッド装置3の内側にいる。すなわち、利用者が臥位、半座位、長座位の状態(姿勢)である。
第2の位置:利用者がベッド装置3の外側にいる。例えば、利用者が立位の状態(姿勢)に限られず、利用者が車椅子やポータブルトイレ等を利用している場合も含む。説明の便宜上、以下の実施形態では利用者が立位の状態を例に説明する。
第3の位置:利用者がベッド装置3の端にいる。すなわち、利用者が端座位の状態(姿勢)である。
利用者の位置としては、例えばカメラ装置20の画像を解析して判定してもよいし、センサ装置30の検出結果に応じて判定してもよい。例えば、ベッド装置3に設けられた離床・在床センサにより、利用者が第1の位置から、第2の位置かを判定してもよい。また、ベッド装置3に設けられた荷重センサにより、利用者の位置を検出し、第1の位置や第3の位置を判定してもよい。
つづいて、予測部112は、利用者の位置に応じて、使用する特徴量を決定する(ステップS1304)。そして、予測部112は、ステップS1304において決定した特徴量を、取得部(周辺環境取得部102、姿勢取得部104、動作取得部106、生体情報取得部108、疾病情報取得部110)から取得したり、センサ装置30から取得したりする(ステップS1306)。
つづいて、予測部112は、低減要因があるかを判定する(ステップS1308)。ここで、予測部112は、低減要因があると判定した場合、低減要因を取得する(ステップS1308;Yes→ステップS1310)。予測部112は、取得部から低減要因を取得してもよいし、カメラ装置20が撮影した画像から低減要因を取得してもよい。
予測部112は、リスク予測処理を実行する(ステップS1312)。予測部112は、リスク予測処理を実行すると、利用者に対するリスクを予測して出力する。本実施形態では、予測部112は、例えば取得した特徴量や、低減要因を説明変数として、学習済みデータである予測辞書DB1230を利用し、目的変数として転倒・転落に繋がる危険性を予測(出力)する。すなわち、本実施形態では、利用者に対するリスクとして転倒・転落に繋がる危険性を出力する。
上記の図7では、予測部112は、ステップS1300およびステップS1301を実行したのちにステップS1302を実行しているが、この場合に限られず、例えばステップS1300およびステップS1301を実行せずに、ステップS1302以降を実行してもよい。この場合、予測部112は、転倒アセスメントの代わりに、例えば取得部、センサ装置30から取得した周辺環境情報(カメラ装置20やセンサ装置30に電源が投入されたときの周辺環境情報、またはスタッフ等が設定したタイミングでの周辺環境設定)を用いてアセスメントと同等の情報を取得してもよい。
また、上記の図7では、予測部112は、利用者の位置に応じて、使用する特徴量を決定し(ステップS1304)、決定された特徴量を取得する(ステップS1306)形態で説明したが、これに限定されることなく、例えば予測処理が始まる前から、取得部やセンサ装置30から画像等を予測部112が取得していてもよい。この場合、予測部112は、図7のステップS1304およびステップS1306の代わりに、利用者の位置に応じて、特徴量ごとに重みづけを変更し(使用する特徴量のウェイトが高くなるように重みづけされ)、そののちに低減要因があるかを判定してもよい(ステップS1308)。言い換えれば、この例は、決定された特徴量以外の特徴量も使用する点で図7と相違する。
なお、予測部112が機械学習により転倒・転落に繋がる危険性を予測する場合の具体的な動作例については後述する。
(7)対応実行部
対応実行部114は、予測部112の出力に応じた指示を例えば各装置に実行する。例えば、対応実行部114は、必要に応じて報知部140や、端末装置52、携帯端末装置54で適宜報知するようそれぞれに指示をしたり、表示部130にアドバイスを出力するように実行を指示したりする。
対応実行部114が実行する対応実行処理の動作について、図8を参照して説明する。まず、対応実行部114は、リスクが所定の閾値以上かを判定する。本実施形態では、対応実行部114は、転倒転落に繋がる危険の確率(以下、単に「確率」という)が所定の閾値以上かを判定する。そして、対応実行部114は、確率が閾値以上の場合には、報知処理を実行する(ステップS1402;Yes→ステップS1404)。
例えば、対応実行部114は、例えば確率が所定の閾値(好ましくは40%~60%)以上の場合は、転倒転落のリスクが高いとして、報知部140に報知するよう指示する。報知部140は、その指示を受けて報知をする。
また、対応実行部114は、通信部150を介して、他の装置(端末装置52、携帯端末装置54)から報知するように指示してもよい。また、対応実行部114は、スタッフ等により設定された装置に報知するよう指示をしてもよいし、確率や利用者・スタッフの状況に応じて指示をする装置を変えてもよい。
例えば、対応実行部114は、確率が40%以上の場合、報知部140のみに報知の指示を行う。しかし、対応実行部114は、確率が50%以上の場合、報知部140だけでなく、端末装置52、携帯端末装置54にも報知の指示を行うこととしてもよい。また、対応実行部114は、各装置が報知を行う場合に、手が空いていたり、近くの距離にいたりするスタッフの携帯端末装置54のみに報知の指示を行うこととしてもよい。
また、報知部140は、報知方法としてはアラームを出力したり、発光や振動により報知したりしてもよい。また、報知部140は、表示部130に警告を表示してもよい。また、併せて報知部140は、例えばレイアウト上の注意をアナウンスしたり、利用者に対して音声による警告を報知したりしてもよい。
つづいて、対応実行部114は、各装置に対して制御指示する必要がある場合(ステップS1406)、装置制御処理を実行する(ステップS1408)。対応実行部114は、装置制御処理を実行することで、例えばベッド制御装置40によってベッドの床高や背ボトムの角度を自動で調整するように指示してもよい。また、対応実行部114は、それ以外にも、例えばトイレや出口までの足下ライトを自動で点灯するよう指示したり、センサ設定ボタン操作を自動的に操作不可に切り替える指示をしたり、離床センサの設定を自動変更する指示をしたりしてもよい。
つづいて、対応実行部114は、アドバイスの出力が可能な場合には、転倒転落DBを用いてアドバイス出力処理を実行する(ステップS1410;Yes→ステップS1412)。対応実行部114は、アドバイス出力処理を実行することで、例えば転倒リスクレベルに応じた備品類の自動選定を行ったり、居室レイアウト案の提示を例えば所定の又は近くのスタッフ等に行ったりしてもよい。
つづいて、対応実行部114は、学習処理を実行する場合は、予測辞書DB1230の学習処理を実行してもよい(ステップS1414;Yes→ステップS1416)。例えば、対応実行部114は、転倒転落のリスクが高いことを、表示部130に表示の指示をする。このとき、スタッフ等が対応に来たが、利用者の転倒転落の可能性はなかった場合、可能性がなかったことを、操作部135によりスタッフ等が入力する。また、逆に、対応実行部114の指示により報知が行われた場合、実際に転倒転落のリスクがあったことを、スタッフ等が操作部135により入力する。
これらのスタッフ等に入力された情報は、予測辞書DB1230に記憶される。また、スタッフ等に入力された情報に基づいて、対応実行部114は、機械学習を行い、予測辞書DB1230の学習を行う。
[1.2.2 その他の構成]
表示部130は、各種情報を表示する。例えば、表示部130は、液晶ディスプレイや、有機ELディスプレイで構成される。また、表示部130は、HDMI(登録商標)や、D-SUBにより接続された他の表示装置であってもよい。
操作部135は、利用者やスタッフ等から各種操作を入力する。例えば、操作リモコンや、ナースコールといった入力装置も含まれる。また、表示部130と一体に形成されたタッチパネルも操作部135として機能する。
報知部140は、報知を行う。例えば、警報音が出力可能なスピーカや、光や振動で報知を行う装置であってもよい。また、報知部140は、音声出力により報知する内容を音声出力したり、表示部130に警告内容を表示したりして報知してもよい。
通信部150は、他の装置と通信を行う。例えば、ネットワークに接続するLANインタフェースや、他の装置と接続するUSBや、近距離無線通信部が含まれる。通信部150は、LTE/5Gといった携帯電話通信網に接続可能な通信装置であってもよい。
カメラ装置20は、周辺の状況を撮影するための撮影装置である。カメラ装置20は、静止画像、動画像を撮影可能である。
センサ装置30は、利用者の体動等を検出することにより、利用者の生体情報や、利用者の位置、姿勢を取得することができる。また、センサ装置30は、ベッド装置3に設けられた荷重センサを利用して荷重を検出することで、生体情報を取得してもよい。
ベッド制御装置40は、ベッド装置3を制御する。例えば、ベッド制御装置40は、背ボトム、腰ボトム、膝とボム、足ボトムの各ボトムを制御することで、背上げ動作/背下げ動作や、足上げ動作/足下げ動作を実現する。また、ベッド制御装置40は、ベッド装置3の床高を変更することも可能である。
サーバ装置50は、利用者の疾病に関する情報が記憶された電子カルテDB502が記憶されている。サーバ装置50は、院内システムを管理するサーバであり、例えば電子カルテサーバ、オーダリングシステムのサーバであってもよい。サーバ装置50の電子カルテDB502には、利用者の氏名、生年月日、血液型といった基本的な情報に加えて、疾病歴、検査履歴、手術情報、投薬情報、注意事項、通院履歴、転倒履歴といった治療に必要な情報が種々記憶されている。なお、これらの情報は一例であり、必ずしもサーバ装置50が記憶・管理しておく必要はない。例えば、手術に関する情報は、手術管理サーバ(不図示)で管理されてもよいし、投薬に関する情報は投薬サーバ(不図示)で管理されてもよい。
周辺装置60は、他の装置に設けられたものである。例えば、車椅子や、テーブル、杖等の障害物は、IoTモジュールを搭載することができる。これらの障害物は、周辺装置60として、障害物の位置等を制御装置10に出力することができる。
[1.3 予測部の処理]
ここで、本実施形態における予測部112が実行する予測処理について説明する。
[1.3.1 利用者がベッド装置3の内側にいる場合]
利用者がベッド装置3の内側にいる場合(利用者の位置が第1の位置である場合)について説明する。すなわち、利用者がベッド装置3において臥床状態(臥位の姿勢)等にある場合である。なお、利用者の姿勢としては、臥位の姿勢以外にも、起き上がった状態である長座位等も含む。また、臥位の姿勢は、側臥位、背臥位、腹臥位、側臥位等の何れの姿勢であってもよい。
この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)動作
予測部112は、動作取得部106から、利用者の動作として、(i)利用者がベッド装置3上から、ベッド装置3の外側に手を伸ばしているか否か、(ii)利用者が柵を乗り越えているかまたは柵をまたいでいるか否か、(iii)利用者が柵を外しているか否か、(iv)操作部135を操作せずに利用者が動作しているか否か(例えば操作部135を操作せずに利用者が起き上がったか否か)について特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
なお、本実施形態では、予測部112は、上記(i)~(iv)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。例えば、予測部112は、番号(i)、(ii)のみ、または(i)、(iii)のみを特徴量として用いてもよい。また、予測部112は、番号(i)~(iv)のうち、番号の小さいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。また、予測部112は、番号(i)~(iv)のうち、番号の大きいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。
(2)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
利用者がベッド装置3上から、ベッド装置3の外側に手を伸ばしているか否かにかかわらず、利用者が利用しているベッド装置3が低床ベッドであれば、利用者の重心または頭がベッド装置の外側にでないのであれば、または利用者に抑制帯が付けられていれば、この動作については低減要因があると判定する。
利用者が柵を乗り越えているかまたは柵をまたいでいるか否かにかかわらず、利用者が利用しているベッド装置3が低床ベッドであれば、または、ベッド装置3の周辺の床に衝撃緩和用のマットが設置されているのであれば、この動作については低減要因があると判定する。
利用者が柵を外しているか否かに関わらず、柵がベッド装置3に固定されていれば、この動作については低減要因があると判定する。
例えば、予測部112は、本来利用者がベッド装置3上から、ベッド装置3の外側に手を伸ばしている場合、リスクが高いと予測する。しかし、予測部112は、ベッド装置3が低床ベッドである場合は、利用者がベッド装置3上からベッド装置3の外側に手を伸ばしている場合であっても、動作に関するリスクは低いと予測してもよい。
また、予測部112は、ベッド装置3が低床ベッドである場合は、低減する要因があると判定し、利用者がベッド装置3上からベッド装置3の外側に手を伸ばしている場合のリスクのレベルより低いレベルのリスクと動作に関するリスクを予測してもよい。その結果として、予測部112は、転倒・転落のリスクを、利用者がベッド装置3上からベッド装置3の外側に手を伸ばしている場合より低いレベルと予測してもよい。
すなわち、予測部112は、低減要因がある場合には、通常予測されるリスクを低いレベル(低い確率)で予測する。例えば、利用者がベッド装置3上からベッド装置3の外側に手を伸ばしている場合、予測部112は、転倒・転落のリスクが「高」と通常は予測する。しかし、予測部112は、ベッド装置3が低床ベッドである等の低減要因がある場合は、転倒・転落のリスクが「中」と1段階下げて予測する。また、予測部112は、転倒・転落のリスクを確率で出力している場合は、リスクの確率を下げてもよい。例えば、予測部112は、低減要因がない場合は転倒・転落の確率を「80%」と出力する。しかし、低減要因がある場合、予測部112は、転倒・転落の確率を「60%」と出力する。
どうように、予測部112は、他の低減要因がある場合は、本来予測(出力)する転倒・転落のリスクのレベルより低いレベルで出力したり、本来出力する転倒・転落の確率より低い値で出力したりする。
[1.3.2 利用者がベッド装置の外側にいる場合]
利用者がベッド装置3の外の位置、例えば利用者が立っている場合(利用者の位置が第2の位置である場合)について説明する。この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)周辺環境
予測部112は、周辺環境取得部102から、(i)操作部135が利用者の手の届く位置にあるか否かを特徴量として取得する。この特徴量は、周辺環境取得部102が、操作部135の位置と利用者の手の位置との間の距離等に基づいて出力する。
予測部112は、周辺環境取得部102から、(ii)利用者が操作部135を操作して、スタッフ等が利用者のところに訪問するまでの時間の程度を特徴量として取得する。周辺環境取得部102は、例えば利用者が操作部135を操作したことをカメラ装置20で検知してから、カメラ装置20がスタッフ等を認識するまでの時間を算出してものに基づいて特徴量を出力する。
予測部112は、周辺環境取得部102から、(iii)備品(例えば歩行器やポータブルトイレ)がある場合に、備品の位置が適切であるか否かを特徴量として取得する。周辺環境取得部102は、備品の位置に関する特徴量を、例えば備品とベッド装置3との間の距離等に基づいて算出し、出力する。ここで、システム1が、カメラ装置20を利用するパターンとしては、上記(1)(iii)について図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。上記(1)(i)および(ii)について、図2で説明したパターンのうち、パターンb、パターンc、パターンd等が利用できれば良い。
なお、本実施形態では、上記(i)~(iii)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。例えば番号(i)のみ、または(i)、(ii)のみを特徴量として用いてもよい。また、番号(i)~(iii)のうち、番号の小さいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。番号(i)~(iii)のうち、番号の大きいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。
(2)姿勢
予測部112は、姿勢取得部104から、(i)利用者の身体の重心が偏っているか否かについて特徴量として取得する。例えば利用者の一部に麻痺症状があり、その結果として利用者の身体の重心が偏っている場合がある。姿勢取得部104は、利用者の姿勢から身体の重心を算出し、その重心が左右又は前後に偏っているかで特徴量を算出し、出力する。
予測部112は、姿勢取得部104から、(ii)利用者が履物を適切にはいているか否かについて特徴量として取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
なお、本実施形態では、上記(i)、(ii)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。
(3)動作
予測部112は、動作取得部106から、利用者の動作として、(i)操作部135でスタッフ等を呼ばずに利用者が立っているか否か(操作部135を操作せずに利用者が立っているか否か)、(ii)利用者がバランスを崩した状態で立っているか否か、(iii)利用者がベッド装置3に入床する際に、立っている状態からベッド装置3の端坐位の姿勢をとるまでの間の動作が適切になされているか否か、(iv)利用者がふらついているか、(v)利用者が補装具をはずそうとしているかまたははずしているか否か、(vi)利用者が失禁しているか否かについて特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
なお、本実施形態では、上記(i)~(vi)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。例えば番号(i)~のみ、または(i)、(ii)のみを特徴量として用いてもよい。また、番号(i)~(iii)のうち、番号の小さいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。番号(i)~(iii)のうち、番号の大きいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。
(4)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
予測部112は、利用者の身体の重心が偏っているか否かに関わらず、利用者が安定したもの(例えば固定された備品)につかまっていれば、利用者の身体の重心が偏っているか否かについては低減要因があると判定する。また、利用者が安定したものにつかまっていなくとも、利用者の身体の重心の偏りが低減すれば、予測部112は低減要因があると判定する。
予測部112は、利用者がベッド装置3に入床する際に、立っている状態からベッド装置3の端坐位の姿勢をとるまでの間の動作が適切になされているか否かにかかわらず、ベッド装置3の周辺の床に衝撃緩和用のマットが設置されているのであれば、この動作が適切になされているかについては低減要因があると判定する。
また、これらの低減要因は、動作取得部106が低減要因となる動作を判定したり、低減要因を示す特徴量を出力したりしてもよい。このように、予測部112は、本来出力する転倒・転落のリスクのレベルより低いレベルで出力したり、本来出力する転倒・転落の確率より低い確率で出力したりする。
[1.3.3 利用者がベッド装置3において端座位である場合]
利用者がベッド装置3において端座位である場合(利用者の位置が第3の位置である場合)について説明する。
この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)周辺環境
予測部112は、周辺環境取得部102から、(i)利用者に用いるセンサの設定情報が転倒アセスメントのセンサの設定情報よりも低いレベルに設定されているかを特徴量として取得する。センサとして、例えばベッド上又は床上に載置されるマットセンサやマットレスの下に載置されるシートセンサ(体動センサ)があり、多種多様なセンサが含まれる。
利用者に用いるセンサの設定情報が転倒アセスメントのセンサの設定情報よりも低いレベルに設定されているとは、転倒アセスメントで必要なセンサの設定情報と比較し、実際に設置されているセンサが適切でないことをいう。
例えば、適切なセンサが利用者に供されていない(適切なセンサの設置無、種類の相違)ことで、転倒アセスメントのセンサから取得できる情報からみて利用者に用いるセンサから取得できる情報だけでは不足する場合を含んでもよい。また、利用者の起き上がりを検知したい場合において、何もセンサが設置されていない場合を含んでもよい。
また、適切なセンサが利用者に供されていたとしても、そのセンサが有する複数の設定のうち利用者に対し適切な設定がなされていない場合を含んでもよい。例えば、ベッド装置3の周辺に離床検知用のマットセンサが設置されていたり、利用者にシートセンサが適切に供されていたりするとき、シートセンサが起き上がりを検知したときに通知する設定としなければならないところ、利用者が離床したときを検知する設定となっていた場合等である。周辺環境取得部102は、転倒アセスメントのセンサの設定情報と、利用者に用いるセンサの設定情報に基づいて低いレベルに設定されていることを特徴量として出力する。
また、予測部112は、周辺環境取得部102から、(ii)センサの検知対象となっている動作を正しく検知しているか否かを特徴量として取得する。周辺環境取得部102は、センサでの検知結果と、カメラ装置20で撮像した画像の結果に基づいてそれぞれの結果が一致しているか否か等に基づき特徴量を算出し、出力する。例えば、周辺環境取得部102は、センサが利用者の離床を検知対象としているが、離床してもセンサは検知せず、カメラ装置20の画像で離床したと判定できるとき、センサの検知対象となっている動作を正しく検知していないと判定し、例えばフラグ「1」を特徴量として出力する。
また、予測部112は、周辺環境取得部102から、(iii)利用者に用いる柵の種類が適切な種類(転倒アセスメントで設定された種類の柵)であるか否か、利用者に用いる柵の本数が転倒アセスメントで設定された柵の本数以上か否かを特徴量として取得する。周辺環境取得部102は、転倒アセスメントの設定本数および種類と、カメラ装置20で撮像した画像から、利用者に用いる柵の本数が転倒アセスメントで設定された柵の本数以上か否か、利用者に用いる柵の種類が適切な種類であるか否か等に基づいて特徴量を算出し、出力する。
予測部112は、周辺環境取得部102から、(iv)利用者が補装具を適切に装着しているか否かを特徴量として取得する。
予測部112は、周辺環境取得部102から、(v)備品がある場合(例えば車椅子やテーブル)に、その備品のブレーキがかかっているか否か、(vi)ベッド装置3の周辺の床に障害物(例えば利用者自身の持ち物)が落ちているか否か、(vii)利用者は衣服を適切に着ていないか否か(例えば衣服のボタンがずれていたり、はだけていりするか否か)、(viii)操作部135が所定の位置に配置されているか否かを特徴量として取得する。周辺環境取得部102は、操作部135が所定の位置に配置されているか否かについては、操作部135位置と利用者の手の位置の間の距離等で判定してもよい。
なお、本実施形態では、上記(i)~(viii)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。例えば番号(i)~(v)のみ、または(i)、(iii),(v)のみを特徴量として用いてもよい。また、番号(i)~(viii)のうち、番号の小さいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。番号(i)~(viii)のうち、番号の大きいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。
ここで、システム1が、カメラ装置20を利用するパターンとしては、種々考えられる。例えば、システム1が、上記の(1)(v)、(vi)について取得するためには、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。また、システム1が、上記の(1)(i)、(ii)、(iii)、(iv)、(vii)、(viii)について取得するためには、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(2)姿勢
予測部112は、姿勢取得部104から、(i)利用者が深く座っているか否か(腰・お尻の位置)について特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(3)動作
予測部112は、動作取得部106から、利用者の動作として、(i)利用者が適切に離床の動作を行っているか(例えば、利用者の上半身があがらないまま、下半身がベッド装置3の外側にでて、ずりおちる動作を行っているか否か)、(ii)操作部135でスタッフ等を呼ばずに利用者が離床しようとしているか(操作部135を操作せずに利用者が離床しようとしているか否か)、(iii)利用者がふらついているか否か、(iv)利用者が履物を履かずに立ち上がろうとしているか否か、(v)備品がある場合に、利用者が備品に手をかけようとしているか否か、(vi)利用者が、ベッド装置3の周辺にある物(例えば利用者自身の持ち物、床や低い場所にある物であり、上記で説明した障害物よりも広い概念である)を取ろうとしているか否かについて特徴量を取得する。
ここで、システム1が、カメラ装置20を利用するパターンとしては、上記の(3)(iv)、(vi)については、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。また、システム1が、カメラ装置20を利用するパターンとしては、上記の(3)(i)、(ii)、(iii)、(iv)、(v)については、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
なお、本実施形態では、上記(i)~(vi)の全てを特徴量として用いる場合を説明したが、これに限定されることなく、その一部を用いてもよい。例えば番号(i)、(ii)のみ、または(i)、(iii),(v)のみを特徴量として用いてもよい。また、番号(i)~(vi)のうち、番号の小さいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。番号(i)~(vi)のうち、番号の大きいものを順に優先順位を高く設定し、優先順位の高い順に特徴量の重みづけをしてもよい。
(4)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
・予測部112は、ベッド装置3の周辺の床に物(例えば利用者自身の持ち物)が落ちているか否かに関わらず、利用者がその障害物に視線を向けずに離床しようとしていれば、ベッド装置3の周辺の床に障害物(例えば利用者自身の持ち物)が落ちているか否かの状態については低減要因があると判定する。
・備品がある場合に、利用者が備品に手をかけようとしているか否かにかかわらず、備品のブレーキがかかっていれば、予測部112は、利用者が備品に手をかけようとしているか否かの状態については低減要因があると判定する。
このように、予測部112は、低減要因があると判定した場合、本来出力する転倒・転落のリスクのレベルより低いレベルで出力したり、本来出力する転倒・転落の確率より低い確率で出力することができる。
[1.3.4 リスク予測処理]
そして、予測部112は、ステップS1306で取得した特徴量と、ステップS1310で取得した低減要因を説明変数として、リスク予測処理を実行する(ステップS1312)。予測部112は、リスク予測処理を実行することで、これらの説明変数に基づき、予測辞書DB1320を利用して転倒転落リスクを目的変数として出力する。
[1.3.5 その他の低減要因]
また、その他の低減要因を出力してもよい。例えば、予測部112は、利用者の近くにスタッフ等がいる場合や疾病の状況に応じて転倒転落リスクが低いと判定できる場合には、低減要因があると判定する。
[1.4 装置制御処理]
また、対応実行部114が実行する処理の1つである装置制御処理(図8のステップS1408)について、いくつかの例を説明する。
制御部100(対応実行部114)は、装置制御処理を実行することで他の装置等に対して制御する処理を実行出来る。なお、制御部100は、装置制御処理において、予測部112により出力された値により以下の処理を実行してもよい。また、制御部100は、装置制御装置において、カメラ装置20において撮影された画像を解析することで、以下の処理を実行してもよい。
(1)制御部100は、現在動作している処理等を停止したり、異なる処理に切り替えたりしてもよい。例えば、制御部100がローテーション処理を実行し、ローテーション動作が行われているときに、転倒・転落の確率が閾値以上となった場合(ステップS1402;Yes)、ローテーションの動作を中止してもよい。また、制御部100は、転倒・転落の確率が閾値以上となった場合(ステップS1402;Yes)、実行しているローテーションの動作を遅くしたり、セルの膨縮パターンを切り替えるといった制御に変更してもよい。
例えば、制御部100は、マットレス4の上又は下に載置されたローテーション用のサブのエアセルを膨縮することにより、ローテーション動作を実行してもよい。また、制御部100は、ベッド装置3のボトムの角度を変化させてローテーションの動作を実現してもよいし、ボトムを傾斜してローテーションの動作を実現してもよい。
(2)更に制御部100は、単にローテーションの動作を中止したりするだけでなく、取得された利用者の姿勢等により制御を変えてもよい。例えば、利用者の姿勢が所定時間変化していないと判定した場合、制御部100はローテーション動作を実行してもよい。このとき、制御部100は予め設定された角度となるようにサブのエアセルを制御するが、カメラ装置20から受信した画像から利用者の姿勢が変化していないと判断するときに、より変化の角度が大きくなるようにエアセルを膨縮させてもよい。また、制御部100は、カメラ装置20から受信した画像から利用者の姿勢が大きく変化したと判断したとは、ローテーション動作による変化の角度が小さくなるようにエアセルを膨縮させてもよいし、停止してもよい。
(3)制御部100は、疾病情報取得部110から取得した疾病情報に基づいて、利用者の禁止行動を取得する。そして、制御部100は、利用者の動作として、カメラ装置20から受信した画像から利用者の禁止行動を検知した場合に、報知部140を介して報知する動作を行う。
(4)制御部100は、利用者の行動をカメラ装置20により撮影した画像から解析する。そして、制御部100は、利用者の行動に応じてベッド制御装置40を制御することで、ベッド装置3(ボトム)の形状を変化させる。例えば、制御部100は、カメラ装置20から受信した画像から利用者に食事が配膳されていることを認識すると、利用者が食事をするのに適切な形状となるように、背ボトムを上昇させ、所定の背上げ角度とする。また、制御部100は、ベッド装置3の形状と、時刻とを突き合わせ、所定時刻毎にベッド装置3の形状を制御する。このとき、制御部100は、所定の時刻となった場合でも、カメラ装置20を介して認識した利用者の状態に応じてベッド装置3の形状を変化させてもよいし、変化させなくてもよい。
[2.第2実施形態]
第2実施形態について説明する。第1実施形態は、制御装置10において、各種処理を実行する実施形態である。第2実施形態は、サーバ装置で各種処理を実行する実施形態である。なお、本実施形態は、第1実施形態とは異なる部分だけを説明し、共通の機能を有する構成については、同一の符号を付して、その説明を省略する。
図9は、第2実施形態のシステム2の概要を示す一部の図である。第2実施形態では、制御装置15がネットワークNWに接続されている。また、制御装置15には、カメラ装置20の他、種々の装置が接続されている。また、サーバ装置70は、転倒転落予測処理等を実行する。サーバ装置70は、ネットワークNWに接続されている。
図10は、第2実施形態の機能を説明するための図である。第1実施形態の制御装置10で行っていた処理を、サーバ装置70で実現している。
すなわち、居室には、制御部を有する制御装置200を有しており、制御装置200に各装置が接続されている。なお、表示装置210は第1実施形態の表示部130と、操作装置220は、第1実施形態の操作部135と、報知装置230は、第1実施形態の報知部140と、通信装置240は、第1実施形態の通信部150とにそれぞれ対応している。各装置は、制御装置200と一体として形成されていてもよいし、別の装置として構成されていてもよい。
第2実施形態では、種々の装置で取得したデータを、サーバ装置70に送信する。例えば、カメラ装置20で撮影した画像は、制御装置200から、サーバ装置70に送信される。サーバ装置70は、受信した画像を画像記憶領域1240に記憶する。同様に、例えばセンサ装置30で取得された体動を示す信号等も、サーバ装置70に送信される。
そして、サーバ装置70は、受信された各種信号、情報に基づいて予測部112が転倒転落の危険性の確率(リスク)を予測する。そして、対応実行部114は、報知処理等を報知装置230に対して実行する。
このように、本実施形態によれば、第1実施形態で説明した機能は、サーバ装置やクラウドで実現することも可能である。なお、本実施形態では、第1実施形態で実現される機能を全てサーバ装置70で実現することとして説明したが、第1実施形態の制御装置10で実現される機能のうち、一部のみをサーバ装置70で実現してもよい。例えば、生体情報取得部108、疾病情報取得部110は、制御装置200で実現し、他の機能をサーバ装置70で実現してもよい。
[3.第3実施形態]
第3実施形態は、カメラ装置20による特徴量の取得と、センサ装置30による特徴量の取得とを組み合わせた実施形態である。第1実施形態及び第2実施形態と共通の構成については説明を省略し、異なる構成について以下説明する。
第3実施形態では、必要に応じてベッド装置3や、周辺の装置、備品に対してそれぞれセンサ装置30を設ける。そして、制御部100(予測部112)は、必要に応じてカメラ装置20から特徴量を取得することと、センサ装置30から特徴量を取得することを選択することができる。
例えば、周辺環境取得部102は、サイドレール6、介助バー等の装着状態については、カメラ装置20ではなく、センサ装置30から情報に基づいて取得してもよい。具体的には、センサ装置30は、オプション受けのある部分にかかる圧力を検出する圧力センサである。この場合、圧力センサにより検知した圧力により、周辺環境取得部102は、サイドレール6が装着されているか否かを判定する。
また、センサ装置30は、オプション受けの下部に設けられた接触センサであってもよい。この場合、接触センサが、サイドレール6が接触されたことを検出することで、周辺環境取得部102は、サイドレール6が装着されているか否かを判定する。
また、センサ装置30は、介助バーに設けられた方向検知センサであってもよい。この場合、方向検知センサが、介助バーの向きを検出することで、周辺環境取得部102は、介助バーの向きが正しいか否かを判定する。
また、センサ装置30は、ボード5との接続を検出するセンサであってもよい。例えば、特開2017-42398号公報(出願日:2015年8月27日、発明の名称:ベッド装置におけるブレーキ装置)の構成において、ブレーキワイヤとして通電可能なワイヤを利用する。センサ装置30は、ブレーキワイヤに対する通電状態に基づいて、ボード5がベッド装置3に設置されているか、ロックされているかを検出する。
また、システム1は、センサ装置30として、接触センサを各場所に設けてもよい。例えば、サイドレール6や、介助バーに接触センサを設けることにより、利用者の手の位置を検出してもよい。また、ベッド装置3の周囲に圧力センサを配置し、利用者の足が床についたことを検出してもよい。
また、システム1は、センサ装置30として、周辺の装置(周辺装置60)や、備品に位置検出センサを設けてもよい。センサ装置30は、周辺の装置(周辺装置60)や、備品の居室・病室における位置を、ベッド装置3との相対的な位置として検出してもよい。
また、制御部100は、ベッド装置3の床高についてはベッド制御装置40から取得してもよい。
このように、制御部100が、特徴量を取得する場合には、カメラ装置20が撮影した画像に基づいて取得してもよいし、センサ装置30や、ベッド制御装置40、周辺装置60から特徴量を取得してもよい。
これにより、カメラ装置20で撮影された画像に基づいて検出するより、他の装置で検出した場合の方が高精度で検出できたり、確実に検出したりすることが可能となる。また、カメラ装置20と、センサ装置30等を組み合わせることにより、制御部100での処理(画像解析といった処理)を削減することが可能となり、全体の処理を高速化することができる。
[4.第4実施形態]
第4実施形態は、カメラ装置20の位置が複数あるボードを組み合わせて使用する場合の実施形態について説明する。上述した実施形態と共通の構成については説明を省略し、異なる構成について以下説明する。
図11は、ボード5に配置されたカメラ装置20の位置を説明するための図である。図11(a)で示すボード5(第1のボード)は、中央又は中央近傍にカメラ装置20a(カメラ装置20)を1つ固定して配置する。
図11(b)で示すボード5(第2のボード)は、1つカメラ装置20b(カメラ装置20)を右端から左端まで動かせるように配置する。
図11(c)で示すボード5(第3のボード)は、2つのカメラ装置20c、カメラ装置20dを左右の端部又は端部近傍に配置する。
図11(d)で示すボード5(第4のボード)は、3つのカメラ装置20が配置されている。例えば、第1のボードで説明したように、中央又は中央近傍にカメラ装置20aを配置し、カメラ装置20c、カメラ装置20dを左右の端部又は端部近傍に配置する。
これらのボード5を組み合わせることで、システム1は、適宜ベッド装置3上の利用者を認識することができる。
例えば、ヘッドボードに第1のボードを利用した場合、フットボードに第3のボードを利用することで、ベッド装置3上の利用者を認識することができる。また、ヘッドボードに第2のボードや、第4のボードを利用することで、フットボードはカメラ装置20が未装着であったり、ベッド装置3にフットボード自体が装着されていなかったりしてもよい。
[5.第5実施形態]
第5実施形態は、ベッド装置3が複数設置された場合に、利用者が利用するベッド装置3以外に設置されたカメラを利用する場合の実施形態である。
図12は、居室・病室全体を説明する概略図である。図12は、ベッド装置3が6床設けられた病室の例である。例えば、対象となる利用者が利用するベッド装置3Aの場合、ベッド装置3Aには、カメラ装置20A1と、カメラ装置20A2とが設けられている。
また、ベッド装置3Aの周りにもベッド装置が配置されている。ベッド装置3Aの向かい側(図12の下側)にはベッド装置3Bが配置されている。また、ベッド装置3Aの図上の右側にはベッド装置3ARが、図上の左側にはベッド装置3ALが配置されている。
また、ベッド装置3Aの向かいに配置されているベッド装置3Bの図上の右側にはベッド装置3BRが、図上の左側にはベッド装置3BLが配置されている。
また、それぞれのベッド装置3は、必要に応じてカメラを設けている。例えば、ベッド装置3ALは、ヘッドボードにカメラ装置20AL1を、フットボードにカメラ装置20AL2を設けている。また、病室全体を撮影できるカメラ装置20Rが室内の壁に設けられてもよい。
記憶部120は、それぞれのカメラ装置20が撮影できる範囲(撮影可能範囲)をテーブル(撮影範囲テーブル)に記憶する。図13(a)に、撮影範囲テーブル1250の一例を示す。
撮影範囲テーブルは、カメラを特定する識別情報と、カメラが設置されている位置と、撮影可能範囲とを記憶する。
ここで、撮影可能範囲は、例えば病室をXY空間で表した場合の座標を記憶してもよいし、予め設定された領域で示されてもよい。また、制御部100が、カメラ装置20により撮影した画像を解析することで算出し、算出した結果に基づいて撮影可能範囲を記憶してもよい。
例えば、図13(b)に示すように、ベッド装置3Aの周辺を含めた領域を仮想的に設定する。図13(b)では、以下の領域が設定される。
・領域R102:ベッド装置3Aの外であり頭側の領域
・領域R104:ベッド装置3Aの外であり頭側(上半身)の図上の左側の領域
・領域R106:ベッド装置3Aの内であり頭側(上半身)の図上の左側の領域
・領域R108:ベッド装置3Aの内であり頭側(上半身)の図上の右側の領域
・領域R110:ベッド装置3Aの外であり頭側(上半身)の図上の右側の領域
・領域R112:ベッド装置3Aの外であり足側(下半身)の図上の左側の領域
・領域R114:ベッド装置3Aの内であり足側(下半身)の図上の左側の領域
・領域R116:ベッド装置3Aの内であり足側(下半身)の図上の右側の領域
・領域R118:ベッド装置3Aの外であり足側(下半身)の図上の右側の領域
・領域R120:ベッド装置3Aの外であり足側の領域
また、ベッド装置3Bや、他のベッド装置に対しても全て仮想的に領域が設定されてもよい。図13(b)では、説明に必要な領域R202、領域R204、領域R206、領域R208、領域R210のみ符号を付している。
ここで、制御部100は、撮影範囲テーブル1250を参照することで、ベッド装置3Aに設けられたカメラ装置20A1の撮影が可能な範囲を取得できる。図13(a)の撮影範囲テーブル1250によれば、カメラ装置20A1が撮影可能な範囲は、領域R112~R120、領域R202~領域R210の範囲である。
これにより、制御部100は、カメラ装置20A1を利用して、周辺状況を取得したり、利用者の姿勢・動作を取得したりする範囲を特定することができる。もし、制御部100は、利用者が利用しているベッド装置3のカメラ装置20だけで撮影する範囲が足りない場合、他の装置に設けられたカメラ装置20と連携して画像を取得する。
図14は、制御部100が実行するカメラ連携処理の動作フローの一例である。例えば、制御部100は、利用者の位置を特定する(ステップS2002)。このとき、利用者の姿勢・動作を取得するのに必要なリスクの判定に必要な範囲として、撮影する範囲を特定する(ステップS2004)。また、制御部100は、利用者の周辺環境を取得するのに必要な撮影範囲を特定してもよい。制御部100は、ステップS2004で特定された撮影範囲が、現在有効なカメラ装置20で撮影可能であるかを判定する(ステップS2006)。ここで、有効なカメラとは、以下のようなカメラをいう。
・利用者自身が利用するベッド装置3に設けられたカメラ装置20
・電源がONとなっているカメラ装置20
・ベッド装置3に設けられていないが、既に制御部100が画像を取得可能となっているカメラ装置20
もし、ステップS2004で特定した撮影範囲を撮影するのに必要なカメラ装置20が有効となっていない場合には、制御部100は、撮影範囲テーブル1250を参照して必要なカメラを有効にする(ステップS2006;Yes→ステップS2008)。
必要なカメラを有効にするとは、制御部100は、カメラ装置20の電源をONにすることが含まれる。また、制御部100は、他の装置に設けられたカメラ装置20、例えば、ベッド装置3ALに設けられたカメラ装置20AL1や、病室に設けられたカメラ装置20Rから画像を取得可能にすることが含まれる。
このように、本実施形態によれば、ベッド装置3に設けられたカメラ装置20だけでなく、居室・病室や、施設全体の配置を考えてカメラ装置20の設置することができる。そして、制御部100は、ベッド装置3に設置されたカメラに限定されずに、他の装置に設置されたカメラと連携して利用者の姿勢や動作、周辺環境を取得することができる。
また、カメラ装置20の状態を必要に応じて切り替えることが可能となる。例えば、制御装置10は、通常はカメラ装置20の電源をOFFにしておく。そして、利用者の位置がベッド装置3の近傍に含まれた場合に、カメラ装置20の電源をONにし、カメラ装置20の状態を有効に切り替えてもよい。
この場合、例えばベッド装置3が複数のカメラ装置20を備えている場合、利用者が近づく位置を撮影可能なカメラ装置20のみを有効にしておき、消費電力軽減のため、他のカメラ装置20は無効(電源OFF)としてもよい。また、居室・病室に設けられたカメラ装置20を利用して利用者の位置を特定してもよい。
また、制御装置10は、利用者の姿勢・動作を取得するために必要なカメラ装置20を全て有効にしてもよい。例えば、利用者が利用しているベッド装置3の隣に設置されたベッド装置や、向かい合って設置されたベッド装置3に備えたカメラ装置20を有効にしてもよい。
動作例として、図15を参照して説明する。図15は、ベッド装置3Aと、ベッド装置3Aに向かい合って設置されたベッド装置3Bの関係を示した図である。例えば、ベッド装置3Aにはヘッドボード5A1の中央近傍にカメラ装置20A1が1つ設けられている。ここで、カメラ装置20A1の撮影範囲を、向かって配置されているベッド装置3Bが入る位置に設置する。同様に、ベッド装置3Bのヘッドボード5B1の中央近傍にカメラ装置20Bを1つ設ける。このカメラ装置20Bは、撮影範囲にベッド装置3Aが入る位置に設置する。
そして、システム1は、カメラ装置20A、カメラ装置20Bをそれぞれ連携させることで、ベッド装置3Aでは、フットボード5A2にカメラ装置20を配置しなくても、ベッド装置上の利用者を認識することが可能となる。また、ベッド装置3Bでは、フットボード5B2にカメラ装置20を配置しなくても、ベッド装置上の利用者を認識することが可能となる。
また、図15では、向かい合ったベッド装置3を例に説明したが、隣り合ったベッド装置3に設けられたカメラ装置20を連携させてもよい。例えば、図12において、第1のベッド装置3Aの制御装置10が、図14のステップS2002において、利用者の離床行動があったと判定する。
利用者の離床行動としては、姿勢取得部104により利用者が端座位の姿勢になったことを取得して判定してもよい。また、動作取得部106が、センサにより利用者の離床行動があったと判定してもよい。
ここで、制御装置10は、更に利用者が離床する方向を特定する。例えば、図12において、ベッド装置3Aの図上左側に離床したと判定すると、撮影範囲にベッド装置3ALがある領域も含める。
この場合、制御装置10は、ベッド装置3ALのカメラと連携する。すなわち、制御装置10の制御部100は、図14のステップS2006で、有効なカメラで撮影範囲を撮影可能は判定する。
ここで、撮影範囲は、ベッド装置3ALがある領域が含まれることが好ましいため、カメラ装置20AL1、カメラ装置20AL2が有効であることが必要である。制御部100は、カメラ装置20AL1、カメラ装置20AL2を有効にすることで、利用者の移動に追従して利用者及び利用者の周辺を撮影した画像を取得することができる。
これにより、本システムによれば、通常のベッド装置3Aに設けられたカメラ装置20A1、カメラ装置20A2だけを利用するときに比べて、ベッド装置3ALに設けられたカメラ装置20AL1、20AL2が連携して利用することができる。すなわち、本システムは、通常の撮影範囲と比較して、より広範囲の撮影範囲に基づいて種々のリスクを判定することができる。
なお、上述したリスクの判定に必要な範囲である撮影範囲は、動的に変更してしまう場合がある。例えば、図16(a)は、ベッド装置3A、3AL、3B、3BLのみを記載した図である。
このとき、各ベッド装置3は、他の利用者や、スタッフ等の視界を遮るために、周辺にカーテンが設置されることがある。例えば、図16(a)は、ベッド装置3Aの周りにカーテン3AC(一点鎖線部)が設置される。同様に、ベッド装置3ALの周りにカーテン3ACL、ベッド装置3Bの周りにカーテン3BC、ベッド装置3BLの周りにカーテン3BLCが設置されている。
カーテンは、利用者やスタッフ等が自由に開閉することが可能である。したがって、カーテンの開閉に応じて、カメラが撮影可能な範囲は変化する。例えば、図16(a)で示すように、カーテンが閉められていない場合、カメラ装置20A1で撮影可能な範囲は3AHである。
ここで、カーテンを閉めた状態を説明するのが図16(b)である。図16(b)は、ベッド装置3Aと、3ALのみを記載した図である。この場合、ベッド装置3Aと、ベッド装置3ALの間において、カーテン3ACが閉められている。これにより、例えばベッド装置3Aのカメラ装置20A1が撮影可能な範囲は、3AHとなる。したがって、カーテンを超えた範囲であるベッド装置3AL側の範囲は撮影することができず、障害物の検出等ができなくなる。
これにより、例えば、ベッド装置3Aの利用者が、ベッド装置3AL側に離床する場合、適切に撮影できない。そこで、制御部100は、隣接するベッド装置3ALのカメラ装置20AL1で撮影される画像を取得する。
これにより、制御部100は、カーテン3ACにより遮られた範囲においても、適切に画像を取得することができる。
なお、制御部100は、カーテンの状態(例えば、カーテンが閉まっているか、撮影範囲が制限されるか)は、取得された画像を解析してもよいし、センサで検出してもよい。例えば、制御部100は、ベッド装置3に設けられたカメラ装置で取得した画像や、別のカメラ装置により、居室・病室内を撮影した画像を解析することで、カーテンの状態を取得してもよい。また、制御部100は、カーテンレールにセンサを設けることで、カーテンの状態を取得してもよい。
[6.第6実施形態]
第6実施形態は、リスク予測処理により予測されたリスクに応じて、ベッド装置3の動作モードを切り替えたり、処理を切り替えたりする実施形態である。本実施形態は、第1実施形態における図8の処理を、図17の処理に置き換えたものである。なお、図8と、図17とで同一の処理には同一の符号を付して、説明を省略する。
まず、制御部100は、リスクが閾値未満の場合(ステップS1402;No)、装置の制御を実行するか否かを判定する(ステップS3002)。ここで、装置の制御を実行する場合、制御部100がベッド装置3に対して動作モードを設定したり、制御を実行したりする。また、制御部100が実行する制御は、例えばローテーションの処理、背上げ、足下げ、カインドモーションといった種々の動作が可能である。
例えば、ベッド装置3は、ローテーション処理を実行する設定になっているとして説明する。ローテーション処理を実行する設定は、例えばスタッフや、利用者が実行する操作をしたときであってもよい。また、利用者が所定時間以上動いていない場合に、制御部100が、ローテーション処理を実行すると設定されていてもよい。
すなわち、制御部100は、リスクが低い場合(例えば、転倒・転落の可能性が設定された確率以下の場合)に、ローテーション処理を実行する(ステップS3002;Yes→ステップS3004)。
また、ローテーション処理が実行されている間に、リスクが閾値以上となった場合(ステップS3006;No→ステップS1402;Yes)、ステップS1408においてローテーション処理は中止される。
このように、本実施形態によれば、制御部100は、装置が動作しているとき利用者のリスクが高いと判定した場合、適切に動作を中止する。また、制御部100は、装置を動作させるときに利用者のリスクが高いと判定した場合、リスクが高いと判定されている間は装置を動作させないといったことを実現できる。
とくにローテーション処理のように、利用者の体位が変換されることで、転倒・転落のリスクが高まる処理において有効である。
[7.第7実施形態]
第7実施形態は、利用者の動きの一つとして経路を予測して、リスクを判定する実施形態である。
本実施形態では、図7のステップS1312のリスク予測処理において、利用者のリスクと併せて利用者が動く経路を予測する。例えば、図18の例で説明すると、制御部100(予測部112)は、ベッド装置3Aの利用者Pが、左側である方向M1に離床したことを検出すると、利用者Pの経路M2を予測する。
予測部112は、利用者Pの離床した方向や、時間帯、通常の行動に応じて予測してもよい。例えば、図18では図の左側に出入口があるため、利用者Pは出入口に向かって歩くと予測する。
このとき、制御部100は、経路に応じた処理を実行する。例えば、図19に示すように、制御部100は、利用者の動作を取得する(ステップS4002)。例えば、動作取得部106が、図6の動作取得処理を実行することで取得する。
つづいて、予測部112は、取得した利用者の動作から、利用者の経路を予測する(ステップS4004)。そして、予測した経路上にリスクがあった場合、制御部100は、リスクに対応した処理を実行する(ステップS4006;Yes→ステップS4008)。
なお、予測部112は、ステップS4004において利用者の経路を予測しているが、次の動作に移る場所だけを予測してもよい。例えば、制御部100は、図18において、カメラ装置20A1を利用して利用者を認識している場合に、カメラ装置20AL1でも利用者が認識されたとする。この場合、制御部100は、利用者は、図18において左方向に移動していると取得することができる。
ここで、リスク対応処理としては、以下の処理が考えられる。
(1)障害物がある場合
例えば、経路上に障害物がある場合、リスクが高いと判定してもよい。すなわち、制御部100は、リスク予測処理を実行して出力されるリスクを通常より高いレベルで出力してもよい。また、障害物があるとは、例えば床が濡れている等も含まれる。
また、制御部100は、障害物がある場合に、危険性があることを利用者に報知してもよい。また、制御部100は、障害物がある場合に、離床があったことや、経路上に障害物があることをスタッフに報知しても良い。
(2)明るさ制御
制御部100は、利用者の経路上の明るさを制御することとしてもよい。例えば、ベッド装置3には、フットランプのような照明装置が設けられているとする。
例えば、図18のベッド装置3Aには、図左側にライト22ALと、図右側にライト22ARと、足側にライト22AFとが設けられている。同様にベッド装置3ALには、図左側にライト22ALLと、図右側にライト22ALRと、足側にライト22ALFとが設けられている。
このとき、利用者Pが、M1方向に離床したことから、制御部100は、ライト22ALを点灯する。また、制御部100は、ベッド装置3ALの制御装置と連携し(又は、照明装置と連携し)、経路M2にあるライトを点灯する。ここでは、ベッド装置3ALのライト22ALRと、ライト22ALFとを点灯する。
また、このとき、制御部100は、ベッド装置3BLのライト22BLFを併せて点灯してもよい。このように、制御部100は、他のベッド装置3に設けられた照明装置と連携することで、経路上にある明るさを調整することができる。
なお、制御部100は、照明装置を予測された経路に基づいて事前に点灯してもよいし、利用者Pが照明装置の近傍にさしかかったときに点灯してもよい。
[8.第8実施形態]
第8実施形態は、利用者のリスクとして、転倒・転落以外のリスクに基づいて適切なタイミングで報知を行ったり、スタッフ等や利用者にアドバイスを行い場合の実施形態である。本実施形態は、図7の予測処理を置き換えるものである。
図7の予測処理では、ステップS1302において利用者の位置を特定した後に、ステップS1304において使用する特徴量を適宜決定していた。本実施形態では、利用者の位置には関わらず(すなわちステップS1302を実行せず)、必要な特徴量を決定するものである。
なお、以下の処理については、例えばリスク予測処理(ステップS1312)で求められるリスクに応じて実行される。
[8.1 指先洗浄]
制御部100(周辺環境取得部102)は、利用者の周辺にいるスタッフ等の動作に基づいた特徴量を取得する。具体的には、カメラ装置20により利用者以外のスタッフを撮影し、スタッフの動作を取得する。
ここで、スタッフを特定するための情報(例えば、スタッフの氏名、スタッフコード等)は、カメラ装置20により撮影した画像に基づいて認識してもよい。また、ベッド装置3の周辺にある端末装置を介して、利用者の処置をするときに、スタッフを特定するための情報を登録してもよい。スタッフを特定するための情報を登録する方法としては、単にスタッフIDやスタッフ名を端末装置で選択してもよいし、IDカード等に記録された情報をカードリーダ等により読み出し、登録してもよい。
制御部100は、スタッフが指先洗浄を行ったことを取得した場合、記憶部120にその情報を記憶してもよい。また、制御部100は、サーバ装置50に、その情報を送信してもよい。サーバ装置50は、スタッフが指先情報を行ったか否かについて管理することが可能となる。
ここで、スタッフが指先洗浄を行ったか否かは、センサにより取得してもよいし、カメラ装置20により撮影した画像に基づいて認識してもよい。例えば、制御部100は、スタッフが装着しているウェアラブル装置を介して、指先洗浄が行われたことを取得してもよい。また、制御部100は、カメラ装置20が撮影した画像を解析し、スタッフの動きを認識する。そして、制御部100は、認識したスタッフの動きから指先洗浄が行われたことを取得してもよい。
また、制御部100が記憶部120に記憶したり、サーバ装置50に送信したりする情報には、例えば、スタッフ名(スタッフID)、指先洗浄した時刻、洗浄場所を含めてもよい。
そして、制御部100は、スタッフ等が指先洗浄をしてから一定時間経過した場合には、スタッフに対して指先洗浄を行っていない旨を通知してもよい。例えば、制御部100は、スタッフ等が指先洗浄をしてから一定時間経過しているにも関わらず、別の利用者のベッド装置3に近づいていることを認識すると、ベッド装置3の周辺にある端末装置上に表示することで、スタッフに対して通知してもよい。また、制御部100は、該当するスタッフが利用する端末装置に対してその旨を報知してもよい。
また、制御部100は、時間だけでなく、利用者の状態に応じて通知してもよい。例えば、スタッフが処置する利用者が感染症にかかっている場合、制御部100は、処置の前後でスタッフ等に通知してもよい。
このように、上述した実施形態によれば、指先洗浄に基づく報知を行うことにより、例えばスタッフへの感染や、利用者への感染といった感染のリスクを低減することができる。
また、制御部100は、カメラ装置20を利用した場合、追加の装置や、センサを用いることなく、カメラ装置20と連動してスタッフ等の指先洗浄の有無を取得し、通知することができる。
例えば、医師や医療スタッフ以外の、家族や、見舞いに来た者に対しても、制御部100は、指先洗浄を行ったか否かについてカメラ装置20から取得することが可能となる。
[8.2 備品管理]
制御部100(周辺環境取得部102)は、備品(移動補助具を含む)の位置や備品の使用の有無、備品の清拭の有無に基づく特徴量を取得する。
そして、制御部100は、取得した備品の位置、仕様の有無、清拭の有無を記憶部120に記憶してもよい。また、制御部100は、備品の位置、仕様の有無、清拭の有無を含む情報をサーバ装置50に送信してもよい。
サーバ装置50は、制御装置10から送信された施設内における備品の使用状況や配置状況を取得して、管理してもよい。サーバ装置50は、スタッフが備品を持参する通知を受けた場合、そのスタッフに対してスタッフの位置に近くて使用をしていない備品の位置を合わせて通知することができる。
また、スタッフは、施設内の備品の使用状況を把握することで、より適切な備品を把握することができる。これにより、利用者に必要な備品を素早く提供することが可能となり、例えば、利用者への対応が遅くなるといったリスクを避けることが可能となる。
[8.3 ベッド装置の移動]
制御部100(周辺環境取得部102)は、ベッド装置3の状態に基づく特徴量を取得する。そして、制御部100は、ベッド装置3の状態がリスクに繋がる状態であるかを判定し、適切に報知したり、スタッフ等にアドバイスをしたりする。例えば、制御部100は、ベッド装置3が移動された後に、スタッフが適切な行動をとっていない場合に報知を行う。
例えば、ベッド装置3を移動するために、制御装置10へ供給する電源をAC電源からバッテリ電源へ切り替えたとする。周辺環境取得部102は、カメラ装置20が撮影した画像に基づいて周辺環境を取得する。
ここで、周辺環境取得部102は、バッテリ電源に切り替わった後にベッド装置3が移動していない場合に、AC電源への切り替えを忘れている(電源アダプタをコンセントへ挿し忘れている)と判定し、スタッフ等に報知を行う。
ここで、ベッド装置3が移動していないと判定する方法としては、いくつか考えられる。例えば、制御部100は、カメラ装置20が撮影する画像が変化していない場合や、変化の割合が少ない場合には、ベッド装置3が移動していないと判定する。また、制御部100は、センサ装置30(例えば、加速度センサ)により取得された値(加速度)の変化がない又は変化が少ない場合には、ベッド装置3が移動していないと判定する。
このように、スタッフがベッド装置3を移動し終わったにも関わらず、バッテリ電源からAC電源に切り替えていなかったことをリスクとして判定し、報知部140を介して報知することができる。
[8.4 備品残量]
制御部100(周辺環境取得部102)は、ベッド装置3の周りの備品が所定の状況になったときにリスクに繋がる状態であると判定する。
制御部100は、カメラ装置20が撮影した画像に基づいてIVスタンド/IVポールに付けられている点滴の残量を特徴量として取得する。ここで、点滴の量が閾値以下になったと判定した場合、リスクが高くなったとして報知してもよい。また、制御部100は、このとき併せて補充する点滴の種類を報知してもよい。また、制御部100は、点滴の残量が少ないことを、利用者を担当するスタッフに報知してもよい。
[9.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。
また、上述した実施形態は、例えばスマートフォンやタブレットで実現することも可能である。例えば、スタッフ等は、ベッド装置3のフットボードにスマートフォンを設置し、スマートフォンに内蔵されたカメラでベッド装置3上を撮影する。また、センサ装置30や、ベッド制御装置40等とは、近距離無線通信で接続することにより情報を取得する。
そして、制御部100で実現される機能を実現できるアプリケーションをスマートフォンにインストールすることにより、上述した実施形態のシステムをスマートフォン上で実現することが可能となる。
また、上述した実施形態において、報知処理とは利用者及び/又はスタッフに報知する処理として種々の方法を含む。例えば、制御部100は、表示部130にリスクがあることを表示することで報知してもよい。また、制御部100は、報知部140から警報音、音声、光、振動といった報知手段を利用することで報知を行ってもよい。また、制御部100は、通信部150を介して他の端末装置に通知してもよい。また、制御部100は、通信部150を介してナースコールのシステムを介して報知してもよい。すなわち、制御装置10は、利用者や、利用者以外の者に対してアラートを出力する。
ここで、制御部100が報知を行う表示部130や、報知部140は、他の装置に設けられていてもよい。例えば、ベッド装置3の側にある端末装置、ナースステーションにある端末装置、医師が確認できる端末装置において表示を含む報知を行ってもよい。また、端末装置には、据置き型の装置であってもよいし、可搬型の装置であってもよい。また、可搬型の装置としては、例えばスマートフォン等を含む電話機や、タブレット等の情報端末装置であってもよい。
また、予測部112により予測されるリスクの度合いに応じて、報知する端末装置を切り替えてもよい。例えば、制御部100は、リスクが極めて高い(転倒・転落の確率が第1の閾値より高い)と判定したときはスタッフが見ることができる第1の端末装置(例えば、携帯端末装置)と、ベッド装置3の側にある第2の端末装置とに報知を行う。また、制御部100は、リスクが高い(転倒転落の確率が第2の閾値より高いが、第1の閾値より小さい)と判定したときは、第2の端末装置のみに報知を行う。このように、制御部100は、リスクの高低によって、報知先を切り替えてもよい。
また、上述した実施形態において、カメラ装置20により撮影された画像から学習済みモデルを利用して、各情報を取得してもよい。具体的には、カメラ装置20によりモデルを用いて対象物の動作や、状態を認識する。例えば、周辺環境取得部102、姿勢取得部104、動作取得部106、生体情報取得部108は、カメラ装置20により撮影された画像と、学習済みモデルとを利用し、それぞれ必要な情報を取得する。
例えば、制御部1000は、カメラ装置20により撮影された画像(信号)を、複数の層と、各層に含まれるニューロンによって構成されるニューラルネットワークに入力する。各ニューロンは別の複数のニューロンから信号を受け取り、演算を施した信号を別の複数のニューロンへ出力する。ニューラルネットワークが多層構造の場合、信号が流れる順に、入力層、中間層(隠れ層)、出力層と呼ばれる。
ニューラルネットワークの中間層が複数の層からなっているものはディープニューラルネットワークと呼ばれ、これを用いた機械学習の手法をディープラーニングと呼ぶ。なお、画像認識で高い精度を出しているのは、畳み込み演算を持つConvolutional Neural Network(畳み込みニューラルネットワーク)である。
画像はニューラルネットワークの各層のニューロンを各種演算(畳み込み演算、プーリング演算、正規化演算、行列演算等)をされ、形を変えながら流れ、出力層から複数の信号が出力される。
ニューラルネットワークからの複数の出力値は、最も大きい出力値にもとづいて、対象物の位置、利用者の動作、利用者の姿勢、利用者の生体情報と対応する。制御部100は、この出力値を利用して、カメラ装置20により撮影された画像から種々の情報を認識する。なお、ニューラルネットワークからの出力値は、直接動作等に紐づかずに、複数の出力値を分類器に通して、分類器の出力から認識してもよい。
制御部100は、ニューラルネットワークの各種演算に用いる係数であるパラメータを学習してもよい。例えば、制御部100は、事前にニューラルネットワークへ数多くの画像と、当該画像に写っている対象物、利用者の状態等が何かを示すラベルを入力する。そして、制御部100は、出力値と正解値との誤差を、誤差逆伝播法(バックプロパゲーション)により、ニューラルネットワークを逆方向に伝搬し、各層のニューロンのパラメータを何度も更新することで、学習してもよい。
この場合、制御装置10は、センサ装置30が接続されていなくても、カメラ装置20が撮影した画像だけで、学習済みのモデルを利用したニューラルネットワークを利用することで、適切な情報を取得することができる。
また、上記の実施形態とは別に、予測部112が実行する予測処理を以下のように変更してもよい。予測処理を実行する場合の例について、図20を参照して説明する。
[利用者がベッド装置3の内側]
この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)周辺環境
予測部112は、周辺環境取得部102から、サイドレール6の状態を特徴量として取得する。サイドレール6の状態は、サイドレール6の設置の有無、サイドレール6の種類、サイドレール6の設置場所等に基づいて判定される。また、予測部112は、周辺環境取得部102から、ボード5(フットボード/ヘッドボード)の状態を特徴量として取得する。ボード5の状態は、ボード5の設置の有無等に基づいて判定される。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(2)姿勢
予測部112は、姿勢取得部104から、利用者の重心や、利用者の頭の位置について特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(3)動作
予測部112は、動作取得部106から、利用者の動作として、利用者が手を伸ばしているか否か、サイドレール6を着脱する動作をしているか否かについて特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(4)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
第1にサイドレール6の状態にかかわらず、利用者が正しい姿勢で就寝しているのであれば、サイドレール6については低減要因があると判定する。
・ボード5の設置の有無にかかわらず、利用者が正しい姿勢で就寝していたり、またはサイドレール6が適切に設置されていたりする場合は、ボード5の設置されていないことに起因するリスクを低いものを判定する。
・利用者の動作として、利用者が手を伸ばす動作が検出された場合でも、周辺のもの(例えば、利用者がつかまれるもの)が近くにあったり、または利用者が正しい姿勢で就寝していたりする場合は、利用者の動作(手を伸ばす動作)については、低減要因があると判定する。
[利用者が立っている場合]
この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)周辺環境
予測部112は、周辺環境取得部102から、キャスタ7の状態を特徴量として取得する。キャスタ7の状態は、例えばキャスタ7の向き、ロックの状態等に基づいて判定される。また、予測部112は、周辺環境取得部102から、ベッド周辺の備品の状態を特徴量として取得する。ベッド周辺の備品の状態は、ベッド装置3の周辺に配置されている備品の有無、種類等に基づいて判定される。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。
(2)動作
予測部112は、動作取得部106から、利用者の動作として、利用者がふらついているか、利用者がサイドレール6を外す動作をしているか、利用者が靴下(スリッパ)で歩行しているかについて特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。また、システム1が、利用者が靴下(スリッパ)で歩行しているかについては、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。
(3)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
キャスタ7の状態にかかわらず、利用者の立位姿勢が適切、利用者が移乗する移乗先のものがロックされている、または利用者が掴まるものが適切に配置されているのであれば、キャスタ7については低減要因があると判定する。
このように、予測部112は、キャスタ8において低減要因があると判定した場合、本来出力する転倒・転落のリスクのレベルより低いレベルで出力したり、本来出力する転倒・転落の確率より低い確率で出力したりする。
[利用者がベッド装置3において端座位]
この場合、予測部112は、以下の点を使用する特徴量として決定し、決定した特徴量を取得する(図7のステップS1304、ステップS1306)。
(1)周辺環境
予測部112は、周辺環境取得部102から、ベッド装置3の床高(ベッド装置3のボトムや、マットレスの地上高)を特徴量として取得する。また、予測部112は、周辺環境取得部102から、介助バーの状態を特徴量として取得する。また、予測部112は、ベッド装置3の周辺の備品の状態を特徴量として取得する。ベッド装置3の周辺の備品の状態とは、例えば備品の種類、備品の状態、備品の位置等に基づいて判定される。また、予測部112は、ベッド装置3に設けられたセンサの状態を特徴量として取得する。センサの状態は、例えばセンサの設置の有無、センサの種類、センサから出力された値等に基づいて判定される。
ここで、システム1が、カメラ装置20を利用するパターンとしては、種々考えられる。例えば、システム1が、ベッド装置3の床高や、ベッド装置3の周辺の備品の状態について取得するためには、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。また、システム1が、介助バーの状態について取得するためには、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。また、システム1が、センサの状態を取得するためには、図2で説明したパターンのうち、パターンa、パターンb、パターンc、パターンd等が利用できればよい。
(2)姿勢
予測部112は、姿勢取得部104から、利用者の手の位置や、利用者の足が床についているか否か、利用者が深く座っているか否か(腰・お尻の位置)について特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。また、システム1が、利用者の足が床についているか否かを取得するためには、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。
(3)動作
予測部112は、動作取得部106から、利用者の動作として、利用者が履き物をはく動作を行っているか、遠いところにあるものを取ろうとしているか否か、サイドレール6を外す動作をしているか否かについて特徴量を取得する。ここで、システム1が、カメラ装置20を利用するパターンとしては、利用者が履き物をはく動作については、図2で説明したパターンのうちパターンa、パターンd等が利用できればよい。また、システム1が、カメラ装置20を利用するパターンとしては、遠いところにあるものを取ろうとしているか否かの動作については、図2で説明したパターンのうちパターンd等が利用できればよい。また、システム1が、カメラ装置20を利用するパターンとしては、サイドレール6を外す動作をしている動作については、図2で説明したパターンのうちパターンb、パターンc、パターンd等が利用できればよい。
(4)低減要因
さらに、予測部112は、予測処理において、低減要因があれば、低減要因を取得する(ステップS1308;Yes→ステップS1310)。例えば、低減要因としては以下のような内容が考えられる。
・介助バーの状態にかかわらず、利用者の端座位姿勢が適切であれば、介助バーの状態については低減要因があると判定する。
・ベッド装置3の周辺の備品の状態にかかわらず、利用者の端座位姿勢が適切であれば、ベッド装置3の周辺の備品の状態については低減要因があると判定する。
・利用者の手の位置の状態にかかわらず、ベッド装置3の周辺のものが近くにあり、利用者が適切な姿勢で就寝していれば、手の位置については低減要因があると判定する。
・利用者が遠いところにあるもの取ろうとする動作にかかわらず、ベッド装置3の周辺のものが近くにあり、利用者が適切な姿勢で就寝していれば、利用者が遠いところにあるもの取ろうとする動作については低減要因があると判定する。
1 システム
10 制御装置
100 制御部
120 記憶部
20 カメラ装置
30 センサ装置
40 ベッド制御装置
50 サーバ装置
502 電子カルテDB
60 周辺装置

Claims (5)

  1. 撮像装置と、
    前記撮像装置を設置可能なベッドと、
    前記撮像装置で取得した画像を処理して利用者の転倒可能性を予測する制御部と、
    を備え、
    前記制御部は、利用者の状態が第1状態であると判定した場合、第1のパラメータに基づいて、前記利用者の転倒可能性を予測し、
    前記制御部は、利用者の状態が第2状態であると判定した場合、第2のパラメータに基づいて、前記利用者の転倒可能性を予測し、
    前記第1状態は、前記第2状態とは異なる前記利用者の状態であり、
    前記第1のパラメータは、前記第2のパラメータと異なり、
    前記制御部は、
    低減要因がある場合は、第1パラメータに基づいて前記利用者の転倒可能性を低減要因がない場合と比較して低く予測し、
    低減要因がある場合は、第2パラメータに基づいて前記利用者の転倒可能性を低減要因がない場合と比較して低く予測する
    ことを特徴とするベッドシステム。
  2. 前記利用者の状態は、前記利用者の位置であることを特徴とする請求項1に記載のベッドシステム。
  3. 前記利用者の位置は、前記ベッドの内側、前記ベッドの外側、前記ベッドの端部の何れかの位置であることを特徴とする請求項に記載のベッドシステム。
  4. 前記利用者の状態は、前記利用者の姿勢であり、前記利用者の姿勢は、臥位、端座位又は立位の何れかの姿勢であることを特徴とする請求項1記載のベッドシステム。
  5. 撮像装置と、
    前記撮像装置を設置可能なベッドと、
    前記撮像装置で取得した画像を処理して利用者の転倒可能性を予測する制御部と、
    を備え、
    前記制御部は、利用者の状態が第1状態であると判定した場合、第1のパラメータに基づいて、前記利用者の転倒可能性を予測し、
    前記制御部は、利用者の状態が第2状態であると判定した場合、第2のパラメータに基づいて、前記利用者の転倒可能性を予測し、
    前記第1状態は、前記第2状態とは異なる前記利用者の状態であり、
    前記第1のパラメータは、前記第2のパラメータと異なり、
    前記第1のパラメータは、前記ベッドのサイドレールの設置有無、前記利用者の頭の位置または姿勢、を含み
    前記第1のパラメータはさらに、前記利用者の重心、前記利用者が柵を外しているか又は前記利用者が柵を下げているか否かを含み、
    前記第2のパラメータは、前記ベッドのキャスタの状態、前記ベッドの周辺にある備品の状態、前記利用者がふらついているか否か、前記利用者が柵を外しているか又は前記利用者が柵を下げているか否か、前記利用者が靴下またはスリッパで歩行しているか否かを含むことを特徴とするベッドシステム。
JP2020170023A 2020-10-07 2020-10-07 ベッドシステム Active JP7457625B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020170023A JP7457625B2 (ja) 2020-10-07 2020-10-07 ベッドシステム
CN202110546862.4A CN114300130A (zh) 2020-10-07 2021-05-19 床系统
US17/326,612 US11657615B2 (en) 2020-10-07 2021-05-21 Bed system
US18/133,720 US20230245459A1 (en) 2020-10-07 2023-04-12 Bed system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170023A JP7457625B2 (ja) 2020-10-07 2020-10-07 ベッドシステム

Publications (2)

Publication Number Publication Date
JP2022061829A JP2022061829A (ja) 2022-04-19
JP7457625B2 true JP7457625B2 (ja) 2024-03-28

Family

ID=80931499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020170023A Active JP7457625B2 (ja) 2020-10-07 2020-10-07 ベッドシステム

Country Status (3)

Country Link
US (2) US11657615B2 (ja)
JP (1) JP7457625B2 (ja)
CN (1) CN114300130A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113274216B (zh) * 2021-04-29 2022-03-25 上海惠上电子技术有限公司 一种多功能床控制装置及电路
TWI797013B (zh) * 2022-05-13 2023-03-21 伍碩科技股份有限公司 姿態動作辨識系統
US11836825B1 (en) * 2022-05-23 2023-12-05 Dell Products L.P. System and method for detecting postures of a user of an information handling system (IHS) during extreme lighting conditions
WO2024006396A2 (en) * 2022-06-28 2024-01-04 Mhealthcare, Inc. Sensory medical data collection table
CN114864094A (zh) * 2022-07-06 2022-08-05 湖南尚医康医疗科技有限公司 重症监护室智能控制方法、设备及介质
CN115363375B (zh) * 2022-08-15 2023-07-25 慕思健康睡眠股份有限公司 床垫厚度控制方法、装置、床垫及存储介质
KR102524273B1 (ko) * 2022-10-06 2023-04-20 박봉석 캠핑카용 화재 경보 및 전원 제어 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010383A (ja) 2015-06-24 2017-01-12 シャープ株式会社 危険検出装置
JP2018067203A (ja) 2016-10-20 2018-04-26 学校法人 埼玉医科大学 危険報知装置及び危険報知方法、並びに危険報知装置の校正方法
JP2018143338A (ja) 2017-03-02 2018-09-20 オムロン株式会社 見守り支援システム及びその制御方法

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1290652A2 (en) * 2000-05-05 2003-03-12 Hill-Rom Services, Inc. Hospital monitoring and control system and method
US9311540B2 (en) * 2003-12-12 2016-04-12 Careview Communications, Inc. System and method for predicting patient falls
DE102004015858A1 (de) * 2004-03-31 2005-10-27 Siemens Ag Bildgebende medizinische Untersuchungsvorrichtung
US9038217B2 (en) * 2005-12-19 2015-05-26 Stryker Corporation Patient support with improved control
US11246776B2 (en) * 2005-12-19 2022-02-15 Stryker Corporation Patient support with improved control
JP5111889B2 (ja) 2007-02-27 2013-01-09 パラマウントベッド株式会社 寝台装置
US20100212087A1 (en) * 2007-07-31 2010-08-26 Roger Leib Integrated patient room
US7987069B2 (en) * 2007-11-12 2011-07-26 Bee Cave, Llc Monitoring patient support exiting and initiating response
JP4963101B2 (ja) 2007-11-13 2012-06-27 パラマウントベッド株式会社 ベッドにおける使用者の状態検知システム
JP5180906B2 (ja) 2009-05-18 2013-04-10 パラマウントベッド株式会社 睡眠状態判定装置、プログラム及び睡眠状態判定システム
US10292625B2 (en) * 2010-12-07 2019-05-21 Earlysense Ltd. Monitoring a sleeping subject
US20220031196A1 (en) * 2010-12-07 2022-02-03 Hill-Rom Services, Inc. Monitoring a sleeping subject
US10446003B2 (en) * 2012-10-16 2019-10-15 Huntleigh Technology Limited System and methods for monitoring and entrapment prevention for a person disposed in a bed
US11017069B2 (en) * 2013-03-13 2021-05-25 Lookout, Inc. Method for changing mobile communications device functionality based upon receipt of a second code and the location of a key device
US9625884B1 (en) * 2013-06-10 2017-04-18 Timothy Harris Ousley Apparatus for extending control and methods thereof
DE102014100548A1 (de) * 2014-01-20 2015-07-23 Logicdata Electronic & Software Entwicklungs Gmbh Ergonomiesystem für ein verstellbares Bettensystem
US20150256355A1 (en) * 2014-03-07 2015-09-10 Robert J. Pera Wall-mounted interactive sensing and audio-visual node devices for networked living and work spaces
US10574474B2 (en) * 2014-03-07 2020-02-25 Ubiquiti Inc. Integrated power receptacle wireless access point (AP) adapter devices
US9463126B2 (en) * 2014-03-11 2016-10-11 Hill-Rom Services, Inc. Caregiver universal remote cart for patient bed control
JP6389391B2 (ja) 2014-07-30 2018-09-12 パラマウントベッド株式会社 呼吸障害判定装置、呼吸障害判定方法及びプログラム
JP6518056B2 (ja) 2014-11-11 2019-05-22 パラマウントベッド株式会社 睡眠状態判定装置、睡眠状態判定方法及びプログラム
WO2016154360A1 (en) * 2015-03-24 2016-09-29 Smarter Planet Enterprises Corporation Portable agrarian biosystem
US9836942B2 (en) * 2015-04-24 2017-12-05 Hill-Rom Services, Inc. Estimation and monitoring of patient torso angle
JP6738133B2 (ja) 2015-08-27 2020-08-12 パラマウントベッド株式会社 ベッド装置におけるブレーキ装置
CN105942749B (zh) * 2016-05-30 2019-03-01 京东方科技集团股份有限公司 电视床及其工作方法
JP7059206B2 (ja) * 2016-06-15 2022-04-25 リーフ ヘルスケア インコーポレイテッド 向き変更プロトコルを管理するシステム
JP6262379B1 (ja) * 2017-02-22 2018-01-17 新光商事株式会社 荷重測定用ピンセンサ、見守り用ベッド及び見守りシステム
US10481736B2 (en) * 2017-06-21 2019-11-19 Samsung Electronics Company, Ltd. Object detection and motion identification using electromagnetic radiation
JP6822326B2 (ja) 2017-06-23 2021-01-27 オムロン株式会社 見守り支援システム及びその制御方法
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
JP6932630B2 (ja) * 2017-12-07 2021-09-08 パラマウントベッド株式会社 睡眠状態判定装置及びプログラム
US11571346B2 (en) * 2017-12-28 2023-02-07 Sleep Number Corporation Bed having rollover identifying feature
JP6968741B2 (ja) 2018-03-30 2021-11-17 パラマウントベッド株式会社 排泄センサ
US10932970B2 (en) * 2018-08-27 2021-03-02 Careview Communications, Inc. Systems and methods for monitoring and controlling bed functions
EP3632298A1 (en) * 2018-10-05 2020-04-08 Koninklijke Philips N.V. Breathing adaptation system and method for influencing a breathing parameter
JP7190342B2 (ja) * 2018-12-05 2022-12-15 パラマウントベッド株式会社 ベッド装置
WO2020132233A1 (en) * 2018-12-20 2020-06-25 Augean Robotics, Inc. Collaborative autonomous ground vehicle
JP2022515942A (ja) * 2018-12-31 2022-02-24 スリープ ナンバー コーポレイション 睡眠を改善するための特徴を有するホームオートメーション
GB201900581D0 (en) * 2019-01-16 2019-03-06 Os Contracts Ltd Bed exit monitoring
JP2020175008A (ja) * 2019-04-22 2020-10-29 パラマウントベッド株式会社 制御装置及びベッド装置
AU2020321421A1 (en) * 2019-07-26 2022-01-27 Sleep Number Corporation Long term sensing of sleep phenomena
CN213941232U (zh) * 2019-10-09 2021-08-13 希尔-罗姆服务公司 人支撑装置
AU2020417816A1 (en) * 2020-01-03 2022-06-23 Sleep Number Corporation Bed airflow and temperature control
US20210254850A1 (en) * 2020-02-13 2021-08-19 Johnson Controls Technology Company User control device with in-home monitoring
IL303284A (en) * 2020-12-03 2023-07-01 Ziphycare Inc Medical diagnostic kit
US11671566B2 (en) * 2020-12-03 2023-06-06 Vitalchat, Inc. Attention focusing for multiple patients monitoring
US11076778B1 (en) * 2020-12-03 2021-08-03 Vitalchat, Inc. Hospital bed state detection via camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017010383A (ja) 2015-06-24 2017-01-12 シャープ株式会社 危険検出装置
JP2018067203A (ja) 2016-10-20 2018-04-26 学校法人 埼玉医科大学 危険報知装置及び危険報知方法、並びに危険報知装置の校正方法
JP2018143338A (ja) 2017-03-02 2018-09-20 オムロン株式会社 見守り支援システム及びその制御方法

Also Published As

Publication number Publication date
US20220108114A1 (en) 2022-04-07
JP2022061829A (ja) 2022-04-19
US20230245459A1 (en) 2023-08-03
US11657615B2 (en) 2023-05-23
CN114300130A (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
JP7457625B2 (ja) ベッドシステム
JP6688274B2 (ja) 使用者の離床条件を予測する方法
US10121070B2 (en) Video monitoring system
EP2732761A1 (en) Augmented reality system in the patient care environment
US8844073B2 (en) Apparatus for supporting and monitoring a person
WO2014151577A1 (en) Patient support apparatus with patient information sensors
JP2014515628A (ja) 患者支持装置のためのセンシングシステム
JP2023109751A (ja) システム
EP3504649B1 (en) Device, system and method for patient monitoring to predict and prevent bed falls
CN113112752B (zh) 一种智慧型居家养老智能看护系统及方法
US20240115443A1 (en) Techniques For Managing Patient Therapy Protocols
JP2024020035A (ja) 情報処理システム及び情報処理方法
JP2023161202A (ja) 情報処理システム、情報処理装置及び情報処理方法
CA3221320A1 (en) Patient video monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240315

R150 Certificate of patent or registration of utility model

Ref document number: 7457625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150