JP2023015598A - 制御装置、制御方法、制御プログラム、および情報処理システム - Google Patents

制御装置、制御方法、制御プログラム、および情報処理システム Download PDF

Info

Publication number
JP2023015598A
JP2023015598A JP2021119477A JP2021119477A JP2023015598A JP 2023015598 A JP2023015598 A JP 2023015598A JP 2021119477 A JP2021119477 A JP 2021119477A JP 2021119477 A JP2021119477 A JP 2021119477A JP 2023015598 A JP2023015598 A JP 2023015598A
Authority
JP
Japan
Prior art keywords
bed
image
state
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021119477A
Other languages
English (en)
Inventor
修司 一谷
Shuji Ichitani
隆志 太田
Takashi Ota
竜二 加藤
Ryuji Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2021119477A priority Critical patent/JP2023015598A/ja
Publication of JP2023015598A publication Critical patent/JP2023015598A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】ベッドが傾く等して、ベッドが動いた場合であっても画像による被看介護者の状態検知を適切に行うことができる制御装置、制御方法、制御プログラム、および情報処理システムを提供する。【解決手段】制御装置は、画像取得部111,画像解析部112、および制御部114を有する。画像取得部111は、ベッド90に設置された撮像部103により撮影された画像を取得する。画像解析部112は、画像を解析する。制御部114は、ベッド90の動作または状態に基づき、撮像部103、または画像解析部112を制御する。【選択図】図4

Description

本発明は、制御装置、制御方法、制御プログラム、および情報処理システムに関する。
介護老人福祉施設や病院等の看介護施設において、入居または入院している被看護者や被介護者(以下、「被看介護者」という)は、看介護施設内で、歩行中に転倒したり、ベッドから転落して怪我したり、生体情報に異常が検出されることがある。そのため、被看介護者がこのような状態になったときに看護師や介護士等(以下、「看介護者」という)がすぐに駆けつけられるようにするために、被看介護者の状態を常時検知するための見守りシステムの開発が進められている。
下記特許文献1には、見守りシステムとして、電動ベッドに設けられたモニタカメラの画像から患者の人体パーツをオブジェクトやパーツとして認識する画像認識ユニットが記載されている。
特開2018-134278号公報
特許文献1の技術では、電動ベッドにカメラを設置することによって、カメラは、電動ベッドや周囲の環境等に位置合わせをする必要がなくなり、看介護者の利便性が向上するという利点がある。一方で、特許文献1の技術では、画像による誤検知が頻発する問題が生じる可能性がある。発明者らが鋭意検討した結果、電動ベッドの駆動に起因して問題が発生しうることがわかった。具体的には、電動ベッドには、床高、背上げ角度、膝上げ角度、足上げ角度、傾き角度を調整する機能があり、カメラが電動ベッドに設置されることで、電動ベッドが傾く等の動きに応じてカメラの向きも変わってしまうことにより、画像による被看介護者の状態検知に問題が生じることが判明した。
本発明はこのような問題を解決するためになされたものである。すなわち、ベッドが傾く等して、ベッドが動いた場合であっても画像による被看介護者の状態検知を適切に行うことができる制御装置、制御方法、制御プログラム、および情報処理システムを提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)ベッドに設置された撮像部により撮影された画像を取得する画像取得部と、前記画像を解析する画像解析部と、前記ベッドの動作または状態に基づき、前記撮像部、または前記画像解析部を制御する制御部と、を備えた制御装置。
(2)前記制御部は、前記ベッドの動作または状態に基づき、前記画像を解析する方法を変更するように前記画像解析部を制御する、上記(1)に記載の制御装置。
(3)前記制御部は、前記ベッドの動作または状態に基づき、前記撮像部の向き、または位置を制御する、上記(1)に記載の制御装置。
(4)前記制御部は、前記ベッドの動作または状態に基づき、前記画像取得部よって取得された画像を補正するように前記画像解析部を制御する、上記(1)に記載の制御装置。
(5)前記ベッドの動作または状態を検知するセンサーからの検知結果を受け付ける受付部をさらに有し、前記制御部は、前記検知結果に基づいて、前記ベッドの動作または状態を判定する、上記(1)~(4)のいずれか1つに記載の制御装置。
(6)前記ベッドは、電動ベッドであり、前記制御部は、前記電動ベッドからの信号に基づいて、前記ベッドの動作または状態を判定する、上記(1)~(5)のいずれか1つに記載の制御装置。
(7)前記画像解析部は、前記撮像部により撮影された画像に含まれるオブジェクトを検出し、前記画像の前記ベッドに対応するベッドオブジェクトの上端の位置と、前記画像の人に対応する人オブジェクトの上端の位置とに基づいて、前記人の状態を判定する、上記(1)~(6)のいずれか1つに記載の制御装置。
(8)前記画像解析部は、前記ベッドオブジェクトの上端の位置と、前記人オブジェクトの上端の位置とを比較して、前記人オブジェクトの上端の位置が前記ベッドオブジェクトの上端の位置よりも上方にある場合は、前記人は転倒していないと判定する一方で、下方にある場合は転倒していると判定する、上記(7)に記載の制御装置。
(9)前記画像に含まれる人の状態を判定するための閾値を記憶する記憶部をさらに備え、前記画像解析部は、前記撮像部により撮影された画像に含まれるオブジェクトを検出し、前記画像の人に対応する人オブジェクトの上端の位置と前記閾値との比較結果に基づいて、前記人の状態を判定する、上記(2)に記載の制御装置。
(10)前記画像解析部は、前記ベッドの動作または状態に基づき、前記閾値を変更する、上記(9)に記載の制御装置。
(11)前記画像に含まれる人の姿勢を判定するための基準を記憶する記憶部をさらに備え、前記画像解析部は、前記撮像部により撮影された画像に含まれる人に対応する人オブジェクトの骨格および関節点を検知し、検知された骨格および関節点と前記基準とに基づいて、前記人の姿勢と、当該姿勢に対応する、前記人の状態とを判定する、上記(2)に記載の制御装置。
(12)前記画像解析部は、前記ベッドの動作または状態に基づき、前記基準を変更する、上記(11)に記載の制御装置。
(13)前記撮像部は、前記ベッドのマットレス、ヘッドボード、またはフットボードに設置される、上記(1)~(12)のいずれか1つに記載の制御装置。
(14)撮像部が設置されたベッドの動作または状態に基づき、前記撮像部を制御する制御ステップと、前記撮像部により前記ベッドを含む撮影対象を撮影する撮影ステップと、前記撮像部により撮影された画像を画像取得部により取得する取得ステップと、前記画像を解析する解析ステップと、を有する、制御方法。
(15)ベッドに設置された撮像部により前記ベッドを含む撮影対象を撮影する撮影ステップと、前記撮像部により撮影された画像を画像取得部により取得する取得ステップと、前記ベッドの動作または状態に基づき、前記画像を解析する画像解析部を制御する制御ステップと、を有する制御方法。
(16)上記(14)または(15)に記載の制御方法をコンピューターに実行させるための制御プログラム。
(17)ベッドに設置された撮像部と、上記(1)~(13)のいずれか1つに記載の制御装置と、を有する、情報処理システム。
本発明によれば、ベッドの動作または状態に基づき、撮像部、または画像解析部を制御するので、ベッドが傾く等して、ベッドが動いた場合であっても画像による被看介護者の状態検知を適切に行うことができる。
第1の実施形態に係る監視システムの全体構成を示す図である。 図1に示す検出装置が設置された、被看介護者のベッドを例示する模式図である。 図1に示す検出装置のハードウェア構成を示すブロック図である。 図3に示す演算制御部の主要な機能を例示するブロック図である。 図1に示すサーバーのハードウェア構成を示すブロック図である。 第1の実施形態における検出装置の制御方法の処理手順を例示するフローチャートである。 通常状態のベッド、および検出装置を側方から視た模式図である。 ベッド、および非転倒状態の被看介護者を含む画像を例示する模式図である。 ベッド、および転倒状態の被看介護者を含む画像を例示する模式図である。 リクライニング状態のベッド、および検出装置を側方から視た模式図である。 ベッド、および非転倒状態の被看介護者を含む画像を例示する模式図である。 ベッド、および転倒状態の被看介護者を含む画像を例示する模式図である。 リクライニング状態のベッド、および検出装置を側方から視た模式図である。 ベッド、および非転倒状態の被看介護者を含む画像を例示する模式図である。 ベッド、および転倒状態の被看介護者を含む画像を例示する模式図である。 第2の実施形態における検出装置の制御方法の処理手順を例示するフローチャートである。 ベッド、および非転倒状態の被看介護者を含む歪補正後の画像を例示する模式図である。 ベッド、および転倒状態の被看介護者を含む歪補正後の画像を例示する模式図である。 第3の実施形態における検出装置の制御方法の処理手順を例示するフローチャートである。 ベッド、および非転倒状態の被看介護者を含む画像を例示する模式図である。 ベッド、および転倒状態の被看介護者を含む画像を例示する模式図である。 ベッドが通常状態であり、被看介護者が非転倒状態である場合における骨格検知を例示する模式図である。 ベッドが通常状態であり、被看介護者が転倒状態である場合における骨格検知を例示する模式図である。 ベッドがリクライニング状態であり、被看介護者が非転倒状態である場合における骨格検知を例示する模式図である。 ベッドがリクライニング状態であり、被看介護者が転倒状態である場合における骨格検知を例示する模式図である。 第5の実施形態における通常状態のベッド、および検出装置を側方から視た模式図である。 フット側のマットレスが傾斜している状態におけるベッド、および検出装置を側方から視た模式図である。 第6の実施形態における通常状態のベッド、および検出装置を側方から視た模式図である。 リクライニング状態のベッドおよび検出装置を側方から視た模式図である。
以下、図面を参照して、本発明の実施形態に係る制御装置、制御方法、制御プログラム、および情報処理システムについて説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1の実施形態)
図1は、第1の実施形態に係る監視システム1の全体構成を示す図である。本実施形態では、監視システム1は、情報処理システムを構成し、看介護施設等で用いられる。監視システム1は、検出装置10、サーバー20、複数の携帯端末30、および無線AP(アクセスポイント)31を含む。検出装置10、サーバー20、および携帯端末30は、LAN(Local Area Network)および無線AP31を介して相互に通信可能に接続される。携帯端末30は、被看介護者80の看護または介護をする看介護者70に携帯される。検出装置10は、単独で、またはサーバー20の演算制御部201(図5を参照)とともに制御装置を構成する。以下、検出装置10が単独で制御装置を構成する場合について主に説明する。また、被看介護者80は撮影対象を構成する。以下、撮影対象は被看介護者80であるものとして説明するが、撮影対象には治験者等も含まれる。
(検出装置10)
図2は、図1に示す検出装置10が設置された、被看介護者80のベッド90を例示する模式図である。また、図3は、図1に示す検出装置10のハードウェア構成を例示するブロック図である。
図2に示すように、ベッド90は、フレーム部91、ヘッドボード92、フットボード93、マットレス94、およびセンサー部95を含む。本実施形態では、ベッド90は、例えば、電動ベッドであり、被看介護者80がベッド90に仰臥した場合の背部、膝部、および足部に各々対応するマットレス94を部分的に傾斜させる第1の駆動装置を備える(不図示)。例えば、被看介護者80の背部に対応する部分のマットレス94を傾斜させることにより、傾斜(リクライニング)の状態を作ることができる。第1の駆動装置は、電動ベッドの制御装置(不図示)からの制御信号によって動作が制御される。
さらに、フレーム部91は、上フレーム911、および下フレーム912を有し、上フレーム911に対して、下フレーム912を近接方向、または離間方向に移動させることにより、床面に対するマットレス94の高さ(床高)を調整できる(図2、図7A等を参照)。また、第1の駆動装置により、上フレーム911に対して、下フレーム912のヘッド側、およびフット側を各々独立に近接方向、または離間方向に移動させることにより、床面に対して上フレーム911を傾斜させることもできる。
センサー部95は、ベッドの動作または状態を検知するセンサーを有する。センサーは、公知の加速度センサー、傾きセンサー、角度センサー等でありうる。センサーによる検知結果は、演算制御部101に送信される。
図3に示すように、検出装置10は、演算制御部101、通信部102、およびカメラ103を有し、これらはバスにより相互に接続される。検出装置10は、例えばベッド90のマットレス94の上端部に設置され、撮影対象としての被看介護者80、およびベッド90を含む領域を監視領域として、監視領域内を撮影する。また、検出装置10は、演算制御部101、通信部102、およびカメラ103を収容する筐体をZ軸、およびY軸を回転軸として回転移動させる回転駆動部を備え、演算制御部101からの指令に応じて、筐体の向きを自在に変えることができる(座標軸の表示については図7Aを参照)。これにより、演算制御部101は、カメラ103が撮影する方向を制御できる。また、検出装置10は、筐体をX軸方向、またはZ軸方向に移動する機構を備えることもできる。
演算制御部101は、CPU、RAM、ROM等を備える。また、演算制御部101は、HDDまたはSSD(Solid State Drive)を備えうる。演算制御部101は、制御プログラムに従って検出装置10の各部の制御および演算処理を行う。演算制御部101の主要な機能については後述する。RAMには、後述する状態判定用閾値(第1の閾値、第2の閾値)、および姿勢判定用基準(通常状態の基準、リクライニング状態の基準)が記憶される。
通信部102は、LANを介して、例えば、サーバー20等と通信するためのインターフェース回路(例えばLANカード、無線通信回路等)である。
カメラ103は、監視領域内を撮影し、撮影画像(画像データ)を出力する。カメラ103は、撮像部を構成する。この撮影画像には、静止画および動画が含まれる。動画には、時系列で間欠的に撮影された複数の静止画が含まれうる。カメラ103は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。カメラ103は、検出装置10の筐体において、レンズの光軸がベッド90のフット側に向くように固定されており、筐体の回転、移動に応じて、カメラ103も回転、移動する。
図4は、図1に示す演算制御部101の主要な機能を例示するブロック図である。演算制御部101は、画像取得部111、画像解析部112、受付部113、および制御部114として機能する。
画像取得部111は、ベッド90に設置されたカメラ103により撮影された画像を取得する。画像解析部112は、画像取得部111よって取得された画像を解析する。本実施形態では、画像解析部112は、画像に基づいて、被看介護者80が転倒状態であるか、あるいは非転倒状態であるかを判定する。受付部113は、センサー部95のセンサーからの検知結果、およびベッド90の制御装置からの制御信号を受け付ける。
制御部114は、センサー部95のセンサーの検知結果、および/またはベッド90の制御装置からの制御信号に基づいて、ベッドの動作または状態を判定し、判定された動作または状態に基づき、カメラ103を制御する。ベッド90の動作には、例えば、マットレス94の一部を上フレーム911に対して傾斜させる動作、床面に対して上フレーム911を傾斜させる動作等が含まれる。また、ベッド90の状態には、例えば、マットレス94が床面に対して傾斜している状態、および傾斜していない状態等が含まれる。
(サーバー20)
図5は、サーバー20のハードウェア構成を示すブロック図である。サーバー20は、演算制御部201、通信部202、および記憶部203を有し、これらはバスにより相互に接続される。
演算制御部201は、CPU、RAM、およびROM等を備える。演算制御部201は、プログラムに従ってサーバー20の各部の制御および演算処理を行う。また、演算制御部201は、検出装置10とともに制御装置を構成し、画像解析部112と協働して、画像の解析処理の実行を担うように構成されうる。
通信部202は、LANを介して、例えば、携帯端末30等と通信するためのインターフェース回路により構成される。通信部202は、検出装置10から、被看介護者80の状態の判定結果、および/または撮影画像を受信する。
記憶部203は、HDDまたはSSDにより構成され、各種プログラムおよび各種データを記憶する。
(制御方法)
図6は、第1の実施形態における制御装置の制御方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが制御プログラムを実行することにより実現される。図7Aはマットレス94が床面に対して水平状態のベッド90、および検出装置10を側方から視た模式図であり、図7Bはベッド90、および非転倒状態の被看介護者80を含む画像を例示する模式図であり、図7Cはベッド90、および転倒状態の被看介護者80を含む画像を例示する模式図である。また、図8Aはリクライニング状態のベッド90、および検出装置10を側方から視た模式図であり、図8Bはベッド90、および非転倒状態の被看介護者80を含む画像を例示する模式図であり、図8Cはベッド90、および転倒状態の被看介護者80を含む画像を例示する模式図である。また、図9Aはリクライニング状態のベッド90、および検出装置10を側方から視た模式図であり、図9Bはベッド90、および非転倒状態の被看介護者80を含む画像を例示する模式図であり、図9Cはベッド90、および転倒状態の被看介護者80を含む画像を例示する模式図である。
なお、図7A、図8A、図9Aにおいて、紙面の左から右へ向かう方向(ベッド90のヘッド側からフット側へ向かう方向)をX軸方向、紙面の手前から奥へ向かう方向(ベッド90の幅方向)をY軸方向、紙面の下から上へ向かう方向(ベッド90の高さ方向)をZ軸方向と各々定義している。また、説明を簡略化するため、図7B、図7C、図8B、図8C、図9B、図9Cにおいて、フットボード93に対応するオブジェクトについては図示を省略している。
まず、カメラ103の向き、または位置を制御し、監視領域を設定する(ステップS101)。制御部114は、ベッド90の状態に基づき、カメラ103の向き、または位置を制御し、監視領域を設定する。例えば、図7Aに示すように、制御部114は、ベッド90のマットレス94が床面に対して水平、すなわち傾いていない状態(以下、「通常状態」という)である場合、カメラ103のパラメーターを初期値に設定する。本実施形態では、パラメーターは、例えば、パンP、チルトT、および倍率M(またはズームZ)を含む。制御部114は、パラメーター(P,T,M)を初期値(P0,T0,M0)に設定する。パラメーターに初期値が設定されたカメラ103の状態を初期状態と称する。初期状態におけるパンP0、およびチルトT0は、カメラ103の光軸が、マットレス94のフット側に向くように設定される。また、初期状態における倍率M0は、カメラ103の監視領域に少なくともマットレス94のフット側部分が含まれるように設定される。このようにパラメーター設定することにより、カメラ103の監視領域が設定される。
あるいは、ベッド90の状態に基づき、パンP、チルトT、倍率Mを設定する代わりに、カメラ103の位置を制御してもよい。例えば、ベッド90が通常状態である場合、カメラ103の位置をX軸方向に移動することにより、倍率Mの変更に相当する効果を得られる。
次に、カメラ103により監視領域内の撮影を開始する(ステップS102)。カメラ103は、パラメーターに基づいて設定された監視領域内の撮影を開始(継続)する。一例として、ベッド90に寝ていた被看介護者80がベッド90から起き上がり、床に降りて歩行しようとする場合を想定する。カメラ103は、監視領域内の被看介護者80およびベッド90を撮影する。
次に、撮影された画像を取得する(ステップS103)。画像取得部111は、カメラ103によって撮影された画像を取得し、画像解析部112に送信する。
次に、画像におけるオブジェクトを検出する(ステップS104)。画像解析部112は、画像取得部111により取得された画像に含まれるオブジェクトを検出する。例えば、図7Bに示すように、画像解析部112は、ベッド90に対応するオブジェクト(以下、「ベッドオブジェクト」という)940と、歩行しようとしている被看介護者80に対応するオブジェクト(以下、「人オブジェクト」という)800とを検出する。なお。画像中におけるオブジェクトの検出は、公知のアルゴリズムを使用して実現できるので、オブジェクト検出の方法については、詳細な説明を省略する。
次に、被看介護者80の状態を判定する(ステップS105)。画像解析部112は、検出された人オブジェクト800の上端の位置に基づいて、被看介護者80の状態を判定する。より具体的には、ベッドオブジェクト940の上端の位置を第1の閾値TH1として、状態判定用閾値に設定し、人オブジェクト800の上端の位置Bと状態判定用閾値とを比較する。画像解析部112は、例えば、図7Bに示すように、人オブジェクト800の上端の位置Bが状態判定用閾値よりも大きい場合は、被看介護者80が非転倒状態であると判定する。一方、画像解析部112は、例えば、図7Cに示すように、人オブジェクト800の上端の位置Bが状態判定用閾値よりも小さい場合は、被看介護者80が転倒状態であると判定する。なお、第1の閾値TH1は、演算制御部101のRAMに予め記憶されている値を使用してもよい。
次に、判定結果を出力する(ステップS106)。演算制御部101は、画像解析部112による判定結果を出力する。判定結果は、通信部202により携帯端末30へ送信される。
このように、ベッド90が通常状態、すなわち床面に対して、マットレス94が傾いていない場合は、カメラ103のパラメーターを初期値としたまま監視領域内を撮影し、取得した画像に基づいて、被看介護者80の状態(転倒/非転倒)を判定できる。
しかし、図8Aに示すように、ベッド90がリクライニング状態である場合、図8B、図8Cに示すように、カメラ103と、監視領域内のマットレス94との間の距離が近づくため、人オブジェクト800,およびベッドオブジェクト940の形状が、ベッド90が通常状態の場合の形状に対して変化する(例えば、大きくなる)。その結果、人オブジェクト800の上端の位置Bと状態判定用閾値との比較が正しく行われないので、被看介護者80の状態を適切に判定できない可能性がある。
そこで、図9Aに示すように、カメラ103の光軸とマットレス94のヘッド側の部分とが成す角度が、マットレス94の傾斜角a1に対応する角度となるように、カメラ103のパンP、およびチルトTを各々P1,T1に変更(制御)することにより、カメラ103の光軸をマットレス94のフット側の部分に対して概ね平行にさせる。また、図9B、図9Cに示すように、撮影した画像のベッド90の形状が通常状態のベッド90の形状と同等になるように、カメラ103の倍率を適当な値M1に設定する。パラメーター(P,T,M)をこのように設定し、監視領域内を撮影することにより、撮影された画像に基づいて、被看介護者80の状態を適切に判定できるようになる。
また、パンP、チルトT、および倍率Mを制御する代わりに、カメラ103の位置をX軸方向および/またはZ軸方向に移動するように制御してもよい。
また、ベッド90の状態(例えば、通常状態、またはリクライニング状態)に基づき、カメラ103の向き、または位置を制御する場合について説明したが、ベッド90の動作(例えば、マットレス94の移動)に基づき、カメラ103の向き、または位置を制御してもよい。マットレス94の移動は、例えば、マットレス94に設置されたセンサー部95の加速度センサー等によって検出できる。
以上で説明した本実施形態の検出装置10は、ベッド90の動作または状態に基づき、カメラ103を制御するので、ベッド90が傾く等して、ベッド90、すなわちカメラ103が動いた場合であっても画像による被看介護者の状態検知を適切に行うことができる。
(第2の実施形態)
第1の実施形態では、ベッド90の動作または状態に基づき、カメラ103のパラメーターを制御して設定した監視領域内を撮影し、撮影された画像に基づいて、被看介護者80の状態を判定する場合について説明した。第2の実施形態では、ベッド90の動作または状態に基づき、カメラ103により撮影された画像の歪(形状)を補正し、補正後の画像に基づいて被看介護者80の状態を判定する場合について説明する。なお、本明細書における「歪」の補正は、ベッド90がリクライニング状態の場合における画像を、ベッド90が通常状態の場合における画像と同等の画像に補正(変換)することを意味し、カメラ103の光学系(レンズ)における歪とは関係が無い。以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
図10は、第2の実施形態における検出装置10の制御方法の処理手順を例示するフローチャートである。同図のフローチャートの処理は、演算制御部101のCPUが制御プログラムを実行することにより実現される。また、図11はベッド、および非転倒状態の被看介護者を含む歪補正後の画像を例示する模式図である。また、図12はベッド、および転倒状態の被看介護者を含む歪補正後の画像を例示する模式図である。
図10に示すように、まず、カメラ103により監視領域内の撮影を開始する(ステップS201)。制御部114は、カメラ103のパラメーター(P,T,M)に、初期値(P0,T0,M0)を設定する。これにより、カメラ103が初期状態となる(図7Aを参照)。
次に、撮影された画像を取得する(ステップS202)。画像取得部111は、カメラ103によって撮影された画像を取得する。上述したように、ベッド90の状態が通常状態からリクライニング状態に変化した場合、カメラ103と、監視領域内のマットレス94との間の距離が近づくため、人オブジェクト800、およびベッドオブジェクト940の形状は通常状態における形状から変化する(図8Bおよび図8Cを参照)。
次に、取得された画像の歪を補正する(ステップS203)。画像解析部112は、ベッド90の状態に基づき、画像取得部111によって取得された画像の歪を補正する。画像解析部112は、画像取得部111によって取得された画像に対して、歪を補正するための所定の演算処理を施すことにより、ベッド90が通常状態である場合に得られる画像と同等の画像を生成する。例えば、図11、図12に示すように、画像解析部112は、既存のモーフィング技術等を用いて、画像取得部111によって取得された画像の各画素の位置を、ベッド90が通常状態である場合に得られる画像の位置に変換するとともに、画素間を補間する演算処理を施す。
次に、画像におけるオブジェクトを検出する(ステップS204)。画像解析部112は、歪が補正された画像に含まれるオブジェクトを検出する。
次に、被看介護者80の状態を判定する(ステップS205)。歪が補正された画像は、通常状態で撮影された画像と同等であるので、第1の実施形態における被看介護者80の状態を判定する方法と同じ方法を適用できるので、その詳細な説明を省略する。
次に、判定結果を出力する(ステップS206)。演算制御部101は、画像解析部112による判定結果を出力する。判定結果は、通信部202により携帯端末30へ送信される。
このように、図10に示すフローチャートの処理では、カメラ103により監視領域内を撮影し、画像を取得する。そして、ベッド90の動作または状態に基づき、画像の歪を補正し、歪が補正された画像に基づいて、被看介護者80の状態を判定し、判定結果を出力する。
以上で説明した本実施形態の検出装置10は、歪が補正された画像に基づき、被看介護者80の状態を判定するので、ベッド90が傾く等して、ベッド90が動いた場合であっても画像による被看介護者の状態検知を適切に行うことができる。
(第3の実施形態)
第3の実施形態では、ベッド90の動作または状態に基づき、画像解析方法を変更する場合について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
図13は、第3の実施形態における検出装置10の制御方法の処理手順を例示するフローチャートである。図13に示すフローチャートの処理は、演算制御部101のCPUが制御プログラムを実行することにより実現される。また、図14はベッド90がリクライニング状態であり、被看介護者80が非転倒状態である場合における状態判定用閾値の変更を例示する模式図であり、図15はベッド90がリクライニング状態であり、被看介護者80が転倒状態である場合における状態判定用閾値の変更を例示する模式図である。
以下、当初、通常状態であったベッド90がリクライニング状態に変化する場合について想定する。まず、図13に示すように、カメラ103により監視領域内の撮影を開始する(ステップS301)。当初、ベッド90は通常状態であり、カメラ103のパラメーターは、初期値(P0,T0,M0)に設定される(図7Aを参照)。
次に、撮影された画像を取得する(ステップS302)。画像取得部111は、カメラ103によって撮影された画像を取得する。上述したように、ベッド90の状態が通常状態からリクライニング状態に変化した場合、カメラ103と、監視領域内のマットレス94との間の距離が近づくため、人オブジェクト800,およびベッドオブジェクト940の形状は通常状態における形状から変化する(図14および図15を参照)。
次に、画像におけるオブジェクトを検出する(ステップS303)。画像解析部112は、画像取得部111により取得された画像に含まれるオブジェクトを検出する。例えば、図14、図15に示すように、画像解析部112は、ベッド90に対応するベッドオブジェクト940と、被看介護者80に対応する人オブジェクト800とを検出する。
次に、画像解析方法を変更する(ステップS304)。画像解析部112は、ベッド90の状態が通常状態からリクライニング状態に変化した場合、状態判定用閾値を、第1の閾値TH1から第2の閾値TH2に変更する。第1の閾値TH1は、ベッド90が通常状態である場合におけるベッドオブジェクト940の上端であり、第2の閾値TH2は、リクライニング状態である場合におけるベッドオブジェクト940の上端である。
次に、被看介護者80の状態を判定する(ステップS305)。画像解析部112は、人オブジェクト800の上端の位置Bと状態判定用閾値とを比較する。画像解析部112は、例えば、図14に示すように、人オブジェクト800の上端の位置Bが態判定用閾値よりも大きい場合は、被看介護者80が非転倒状態であると判定する。なお、人オブジェクト800が監視領域の範囲を超えているため、上端の位置Bは、便宜上、人オブジェクト800の画像の上端としている。一方、画像解析部112は、例えば、図15に示すように、人オブジェクト800の上端の位置Bが態判定用閾値よりも小さい場合は、被看介護者80が転倒状態であると判定する。なお、第2の閾値TH2は、演算制御部101のRAMに予め記憶されている値を使用してもよい。
次に、判定結果を出力する(ステップS306)。演算制御部101は、画像解析部112による判定結果を出力する。判定結果は、通信部202により携帯端末30へ送信される。
このように、図13に示すフローチャートの処理では、カメラ103により監視領域内を撮影し、画像を取得する。そして、ベッド90の動作または状態に基づき、画像解析方法としての、被看介護者80の状態判定に使用する状態判定用閾値を変更する。そして、変更された状態判定用閾値を使用して被看介護者80の状態を判定し、判定結果を出力する。
以上で説明した本実施形態の検出装置10は、変更された状態判定用閾値を使用して被看介護者80の状態を判定するので、ベッド90が傾く等して、ベッド90が動いた場合であっても画像による被看介護者80の状態判定を適切に行うことができる。
(第4の実施形態)
第3の実施形態では、ベッド90の動作または状態に基づき、画像解析方法としての、被看介護者80の状態判定に使用する状態判定用閾値を変更する場合について説明したが、第4の実施形態では、ベッド90の動作または状態に基づき、画像解析方法としての、被看介護者80の姿勢判定に使用する姿勢判定用基準を変更する場合について説明する。なお、以下では、説明の重複を避けるため、第1の実施形態と同一の構成については、詳細な説明を省略する。
図16はベッド90が通常状態であり、被看介護者80が非転倒状態である場合における骨格検知を例示する模式図であり、図17はベッド90が通常状態であり、被看介護者80が転倒状態である場合における骨格検知を例示する模式図である。また、図18はベッド90がリクライニング状態であり、被看介護者80が非転倒状態である場合における骨格検知を例示する模式図であり、図19はベッド90がリクライニング状態であり、被看介護者80が転倒状態である場合における骨格検知を例示する模式図である。
被看介護者80の姿勢判定は、例えば、機械学習を利用した人姿勢推定技術を用いることができる。人姿勢推定技術は、例えば、オープンポーズ(Open Pose(https://arxiv.org/abs/1611.08050)等参照)、ディープポーズ(Deep Pose(https://arxiv.org/abs/1312.4659)等参照)等、2次元の動画像データから人の骨格および関節点の位置を推定して姿勢を認識する技術である。これらの技術では、人を構成する骨格、たとえば、頭、首、肩、腕、腰、足等が認識され、さらにそれらの接続部や端部である関節点の位置情報として、座標値が得られる。
例えば、図16において、太線は骨格801を示し、骨格と骨格を接続する部位および骨格の端(図中丸で囲った部分)は関節点802を示す。また、頭部810も関節点を含む。なお、図17~図19においても、骨格および関節点の表示は同様であるので、説明の記載および符号の図示は省略する。本実施形態において関節点の位置は、人体の解剖学上の関節の位置に概ね一致する。画像解析部112は、人と認識されたオブジェクトの各関節点の座標データを取得し、座標データから、認識された人の姿勢等を解析する。
本実施形態における検出装置10の制御方法の処理手順は、第3の実施形態(図13のフローチャート)の処理手順におけるステップS304を除く処理(すなわち、ステップS301~S303、S305,S306)について同一である。したがって、以下では、本実施形態におけるステップS301~S303、S305,S306の説明については省略し、ステップS304の処理のみについて説明する。
画像解析部112は、例えば、画像解析方法としての、被看介護者80の姿勢判定に使用する姿勢判定用基準を変更する。より具体的には、図16、図17に示すように、画像解析部112は、ベッド90が通常状態である場合、姿勢判定用基準を通常状態の基準に設定する。通常状態の基準は、姿勢が立位である場合、非転倒と判定し、姿勢が座位である場合、転倒と判定する基準であり、演算制御部101のRAMに予め記憶されている。図16に示す例では、ベッド90が通常状態であるので、画像解析部112は通常状態の基準を使用して、例えば、被看介護者80の頭、首、肩、腕、腰、および足の関節点の位置に基づいて、被看介護者80が立位の姿勢であると判定する。この場合、画像解析部112は、姿勢が立位であるので、被看介護者80が非転倒状態であると判定する。また、図17に示す例では、同様に、画像解析部112は、被看介護者80が座位の姿勢であると判定する。この場合、画像解析部112は、姿勢が座位であるので、被看介護者80が転倒状態であると判定する。
一方、画像解析部112は、ベッドが90の状態が通常状態からリクライニング状態に変化した場合、姿勢判定基準を、通常状態の基準から、リクライニング状態の基準に変更する。リクライニング状態の基準は、被看介護者80の姿勢が立位と判定された場合に、被看介護者80が転倒状態であると判定する基準であり、演算制御部101のRAMに予め記憶されている。図18に示す例では、ベッド90がリクライニング状態であるので、画像解析部112はリクライニング状態の基準を使用して、被看介護者80の姿勢を判定する。画像解析部112は、被看介護者80の頭、および首が監視領域外にあるため、肩、腕、腰、および足の関節点の位置に基づいて、被看介護者80の姿勢判定を行う。画像解析部112は、この場合、立位以外の姿勢であると判定する可能性があるが、いずれの姿勢の場合でも、被看介護者80が非転倒状態であると判定する。また、図19に示す例では、ベッド90がリクライニング状態であるので、画像解析部112は、同様に、リクライニング状態の基準を使用して、被看介護者80の姿勢を判定する。画像解析部112は、被看介護者80の頭、首、肩、腕、腰、および足の関節点の位置が通常状態における立位の姿勢と骨格のバランスに関して類似していることから、被看介護者80が転倒状態であると判定する。
このように、本実施形態では、ベッド90の動作または状態に基づき、画像解析方法としての、被看介護者80の姿勢判定に使用する姿勢判定用基準を変更する。そして、変更された姿勢判定用基準を使用して被看介護者80の姿勢を判定し、判定結果に基づいて、被看介護者80の状態を判定する。
以上で説明した本実施形態の検出装置10は、被看介護者80の姿勢判定の結果に基づいて、被看介護者80の状態を判定するので、ベッド90が傾く等して、ベッド90が動いた場合であっても画像による被看介護者80の状態判定を適切に行うことができる。
(第5の実施形態)
第1~第4の実施形態では、マットレス94に検出装置10を設置する場合について例示した。第5の実施形態では、検出装置10をヘッドボード92に設置する場合について説明する。
図20は、第5の実施形態における通常状態のベッド90、および検出装置10を側方から視た模式図である。また、図21は、フット側のマットレス94が傾斜している状態におけるベッド90および検出装置10を側方から視た模式図である。
図20に示すように、検出装置10は、例えば、ヘッドボード92に設置され、ベッド90を含む領域をカメラ103の監視領域に設定して、監視領域内を撮影する。ベッド90が通常状態である場合は、カメラ103のパラメーターを初期値に設定して監視領域を撮影し、取得した画像に基づいて、被看介護者80の状態(転倒/非転倒)を判定できる。
一方、図21に示すように、例えば、マットレス94の被看介護者80の腰部に対応する部分が傾いている場合、カメラ103と、監視領域内のマットレス94との間の距離が近づくため、人オブジェクト800、およびベッドオブジェクト940の形状は通常状態における形状から変化する。その結果、画像解析部112は、被看介護者80の状態を正しく判定できない可能性がある。
そこで、本実施形態では、カメラ103のパンP、チルトTを各々P2,T2に変更(制御)し、カメラ103の光軸をマットレス94の傾斜角a2に対応する角度とすることにより、カメラ103の光軸をマットレス94のフット側の部分と概ね平行にさせる。また、撮影した画像のベッド90の形状が通常状態のベッド90の形状と同等になるように、カメラ103の倍率を適当な値M2に設定する。パラメーター(P,T,M)をこのように設定し、監視領域内を撮影することにより、撮影された画像に基づいて、被看介護者80の状態を適切に判定できるようになる。
(第6の実施形態)
第6の実施形態では、検出装置10をフットボード93に設置する場合について説明する。
図22は、第6の実施形態における通常状態のベッド90、および検出装置10を側方から視た模式図である。また、図23は、リクライニング状態のベッド90および検出装置10を側方から視た模式図である。
図22に示すように、検出装置10は、例えば、フットボード93に設置され、ベッド90を含む領域をカメラ103の監視領域に設定して、監視領域内を撮影する。ベッド90が通常状態である場合は、カメラ103のパラメーターを初期値に設定して監視領域を撮影し、取得した画像に基づいて、被看介護者80の状態(転倒/非転倒)を判定できる。
一方、図23に示すように、例えば、マットレス94の被看介護者80の背部に対応する部分が傾いている場合、カメラ103と、監視領域内のマットレス94との間の距離が近づくため、人オブジェクト800,およびベッドオブジェクト940の形状は通常状態における形状から変化する。その結果、画像解析部112は、被看介護者80の状態を正しく判定できない可能性がある。
そこで、本実施形態では、カメラ103のパンP、チルトTを各々P3,T3に変更(制御)し、カメラ103の光軸をマットレス94の傾斜角a3に対応する角度とすることにより、カメラ103の光軸をマットレス94のヘッド側の部分と概ね平行にさせる。また、撮影した画像のベッド90の形状が通常状態のベッド90の形状と同等になるように、カメラ103の倍率Mを適当な値M3に設定する。パラメーター(P,T,M)をこのように設定し、監視領域内を撮影することにより、撮影された画像に基づいて、被看介護者80の状態を適切に判定できるようになる。
以上説明した監視システム1の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変できる。
例えば、上述した第1~第6の実施形態では、検出装置10をマットレス94、ヘッドボード92、またはフットボード93に設置する場合について説明したが、検出装置10は、ベッド90上のマットレス94、ヘッドボード92、またはフットボード93以外の場所に設置されてもよい。また、検出装置10は、ヘッドボード92、フットボード93の上端部に限らず、例えば、ベッド90の中心に向いている面内に設置することもできる。
また、上述した第1~第6の実施形態では、主に、マットレス94の傾斜により、ベッド90の状態が変化する場合について説明したが、上フレーム911を傾斜させることにより、ベッド90の状態が変化する場合についても適用できる。また、床高が変化することにより、ベッド90の状態が変化する場合についても適用できる。制御部114は、カメラ103の向きや位置の変化に応じて、カメラ103、または画像解析部112を制御する。
また、上述した第1~第6の実施形態では、ベッド90が電動ベッドである場合を例示して説明したが、ベッド90は、電動に限らず油圧等により、マットレス94や上フレーム911を傾斜させる構成であってもよい。
また、上述したフローチャートにおいては、フローチャートに示したステップ以外のステップを含んでもよく、一部のステップを含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。
また、上述した実施形態における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
1 監視システム、
10 検出装置、
101 演算制御部、
102 通信部、
103 カメラ、
111 画像取得部、
112 画像解析部、
113 受付部、
114 制御部、
20 サーバー、
201 演算制御部、
202 通信部、
203 記憶部、
30 携帯端末、
31 アクセスポイント、
90 ベッド、
91 フレーム部、
911 上フレーム、
912 下フレーム、
92 ヘッドボード、
93 フットボード、
94 マットレス、
95 センサー部。

Claims (17)

  1. ベッドに設置された撮像部により撮影された画像を取得する画像取得部と、
    前記画像を解析する画像解析部と、
    前記ベッドの動作または状態に基づき、前記撮像部、または前記画像解析部を制御する制御部と、を備えた制御装置。
  2. 前記制御部は、前記ベッドの動作または状態に基づき、前記画像を解析する方法を変更するように前記画像解析部を制御する、請求項1に記載の制御装置。
  3. 前記制御部は、前記ベッドの動作または状態に基づき、前記撮像部の向き、または位置を制御する、請求項1に記載の制御装置。
  4. 前記制御部は、前記ベッドの動作または状態に基づき、前記画像取得部よって取得された画像を補正するように前記画像解析部を制御する、請求項1に記載の制御装置。
  5. 前記ベッドの動作または状態を検知するセンサーからの検知結果を受け付ける受付部をさらに有し、
    前記制御部は、前記検知結果に基づいて、前記ベッドの動作または状態を判定する、請求項1~4のいずれか1項に記載の制御装置。
  6. 前記ベッドは、電動ベッドであり、
    前記制御部は、前記電動ベッドからの信号に基づいて、前記ベッドの動作または状態を判定する、請求項1~5のいずれか1項に記載の制御装置。
  7. 前記画像解析部は、前記撮像部により撮影された画像に含まれるオブジェクトを検出し、前記画像の前記ベッドに対応するベッドオブジェクトの上端の位置と、前記画像の人に対応する人オブジェクトの上端の位置とに基づいて、前記人の状態を判定する、請求項1~6のいずれか1項に記載の制御装置。
  8. 前記画像解析部は、前記ベッドオブジェクトの上端の位置と、前記人オブジェクトの上端の位置とを比較して、前記人オブジェクトの上端の位置が前記ベッドオブジェクトの上端の位置よりも上方にある場合は、前記人は転倒していないと判定する一方で、下方にある場合は転倒していると判定する、請求項7に記載の制御装置。
  9. 前記画像に含まれる人の状態を判定するための閾値を記憶する記憶部をさらに備え、
    前記画像解析部は、前記撮像部により撮影された画像に含まれるオブジェクトを検出し、前記画像の人に対応する人オブジェクトの上端の位置と前記閾値との比較結果に基づいて、前記人の状態を判定する、請求項2に記載の制御装置。
  10. 前記画像解析部は、前記ベッドの動作または状態に基づき、前記閾値を変更する、請求項9に記載の制御装置。
  11. 前記画像に含まれる人の姿勢を判定するための基準を記憶する記憶部をさらに備え、
    前記画像解析部は、前記撮像部により撮影された画像に含まれる人に対応する人オブジェクトの骨格および関節点を検知し、検知された骨格および関節点と前記基準とに基づいて、前記人の姿勢と、当該姿勢に対応する、前記人の状態とを判定する、請求項2に記載の制御装置。
  12. 前記画像解析部は、前記ベッドの動作または状態に基づき、前記基準を変更する、請求項11に記載の制御装置。
  13. 前記撮像部は、前記ベッドのマットレス、ヘッドボード、またはフットボードに設置される、請求項1~12のいずれか1項に記載の制御装置。
  14. 撮像部が設置されたベッドの動作または状態に基づき、前記撮像部を制御する制御ステップと、
    前記撮像部により前記ベッドを含む撮影対象を撮影する撮影ステップと、
    前記撮像部により撮影された画像を画像取得部により取得する取得ステップと、
    前記画像を解析する解析ステップと、を有する、制御方法。
  15. ベッドに設置された撮像部により前記ベッドを含む撮影対象を撮影する撮影ステップと、
    前記撮像部により撮影された画像を画像取得部により取得する取得ステップと、
    前記ベッドの動作または状態に基づき、前記画像を解析する画像解析部を制御する制御ステップと、を有する制御方法。
  16. 請求項14または15に記載の制御方法をコンピューターに実行させるための制御プログラム。
  17. ベッドに設置された撮像部と、
    請求項1~13のいずれか1項に記載の制御装置と、
    を有する、情報処理システム。
JP2021119477A 2021-07-20 2021-07-20 制御装置、制御方法、制御プログラム、および情報処理システム Pending JP2023015598A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021119477A JP2023015598A (ja) 2021-07-20 2021-07-20 制御装置、制御方法、制御プログラム、および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021119477A JP2023015598A (ja) 2021-07-20 2021-07-20 制御装置、制御方法、制御プログラム、および情報処理システム

Publications (1)

Publication Number Publication Date
JP2023015598A true JP2023015598A (ja) 2023-02-01

Family

ID=85131173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021119477A Pending JP2023015598A (ja) 2021-07-20 2021-07-20 制御装置、制御方法、制御プログラム、および情報処理システム

Country Status (1)

Country Link
JP (1) JP2023015598A (ja)

Similar Documents

Publication Publication Date Title
US9477880B2 (en) Behavior detection method and behavior detection apparatus
CN107925748B (zh) 显示控制装置、显示控制系统、显示控制方法、记录介质
CN111507176B (zh) 姿势估计装置、行动估计装置、记录介质、姿势估计方法
JP6086468B2 (ja) 被写体見守りシステム
US10304184B2 (en) Non-transitory computer readable recording medium storing program for patient movement detection, detection method, and detection apparatus
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
JP6729510B2 (ja) 見守り支援システム及びその制御方法
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP2023015598A (ja) 制御装置、制御方法、制御プログラム、および情報処理システム
US20230412919A1 (en) Device and method for controlling a camera
JP6870514B2 (ja) 見守り支援システム及びその制御方法
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP2019204366A (ja) 行動監視装置及び行動監視方法
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP2023041168A (ja) 監視システム、監視方法、および監視プログラム
JP6635074B2 (ja) 見守り支援システム及びその制御方法
WO2021033597A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
WO2019163561A1 (ja) 情報処理装置
JP2022072765A (ja) ベッド領域抽出装置、ベッド領域抽出方法、ベッド領域抽出プログラムおよび見守り支援システム
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム