JP6264181B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP6264181B2
JP6264181B2 JP2014096213A JP2014096213A JP6264181B2 JP 6264181 B2 JP6264181 B2 JP 6264181B2 JP 2014096213 A JP2014096213 A JP 2014096213A JP 2014096213 A JP2014096213 A JP 2014096213A JP 6264181 B2 JP6264181 B2 JP 6264181B2
Authority
JP
Japan
Prior art keywords
head
image processing
face
image
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014096213A
Other languages
English (en)
Other versions
JP2015213537A (ja
Inventor
慎也 生田目
慎也 生田目
村下 君孝
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014096213A priority Critical patent/JP6264181B2/ja
Publication of JP2015213537A publication Critical patent/JP2015213537A/ja
Application granted granted Critical
Publication of JP6264181B2 publication Critical patent/JP6264181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
医療や介護などの施設において、看護側が気付かないうちに患者がベッドから離れ、徘徊や転倒等の事故が起きることがある。かかる事故の発生を抑制する技術の一例として、次のような安全看護システムが提案されている。
上記の安全看護システムでは、ベッドの上面の側端を含めて撮像可能な位置にカメラが配置される。このようなカメラが設置された状況の下、同システムは、カメラによって撮像された画像を用いて、患者の頭部を画像処理によって検出および追跡し、画像上の頭部の位置および位置の変動から患者の動作、例えば起き上がる動作やベッドから降りる動作を認識する。
特開2012−71003号公報
しかしながら、上記の技術では、患者でない来床者の頭部が患者の頭部と誤検出される場合がある。
すなわち、上記の安全看護システムでは、画像処理によって頭部が検出されるが、その頭部が患者であるのか、あるいは見舞客や医療または介護のスタッフなどの来床者の頭部であるのかまでは弁別できない。それ故、上記の安全看護システムでは、カメラが撮像する画像に来床者の頭部が映る場合には、画像に映る来床者の頭部を患者の頭部と誤検出してしまうことがある。
1つの側面では、本発明は、患者でない来床者の頭部が患者の頭部と誤検出されるのを抑制できる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
一態様の画像処理装置は、画像を取得する取得部と、前記画像の監視対象領域内で人間の頭部の有無を探索する探索部と、前記頭部が検出された際、検出された頭部が観察対象の患者の頭部か否かを患者の顔の向きに基づいて判断し、患者であれば前記頭部を追跡して起床または離床を判定させ、前記顔の向きが判断不能な場合に、検出された頭部の動きが検出されている場合は頭部を追跡する制御部とを有する。
患者でない来床者の頭部が患者の頭部と誤検出されるのを抑制できる。
図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。 図2は、学習方法の一例を示す図である。 図3は、スキャニング方法の一例を示す図である。 図4は、対象領域の一例を示す図である。 図5は、学習方法の一例を示す図である。 図6は、顔の向きの相対角度の算出方法の一例を示す図である。 図7は、画像の一例を示す図である。 図8は、起床ライン及び離床ラインの一例を示す図である。 図9は、実施例1に係る初期設定処理の手順を示すフローチャートである。 図10は、実施例1に係る探索処理の手順を示すフローチャートである。 図11は、実施例1に係る追跡処理の手順を示すフローチャートである。 図12は、効果の一側面を示す図である。 図13は、効果の一側面を示す図である。 図14は、応用例に係る探索処理の手順を示すフローチャートである。 図15は、実施例1及び実施例2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。
以下に添付図面を参照して本願に係る画像処理装置、画像処理方法及び画像処理プログラムについて説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[画像処理装置の構成]
図1は、実施例1に係る画像処理装置の機能的構成を示すブロック図である。図1に示す画像処理装置10は、カメラ20によって撮像された画像上で患者の頭部を探索および追跡し、患者の起床または離床の少なくとも一方の動作を検出する画像処理を実行するものである。なお、図1には、画像処理装置10に接続されるカメラとして1台のカメラを図示したが、画像処理装置10には任意の台数のカメラが接続されることとしてかまわない。
一実施形態として、画像処理装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の画像処理を実現する画像処理プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、画像処理装置10は、上記の画像処理によるサービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の画像処理によるサービスを提供するクラウドとして実装することとしてもかまわない。この他、スマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末のみならず、タブレット端末などを含む携帯端末装置全般に上記の画像処理プログラムをインストールさせることによって、携帯端末装置を画像処理装置10として機能させることもできる。
画像処理装置10は、所定のネットワークを介して、カメラ20と相互に通信可能に接続される。かかるネットワークには、一例として、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
ここで、上記のカメラ20には、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を搭載する撮像装置を採用できる。一実施形態として、カメラ20は、医療または介護の施設内に設けられた患者用のベッドの全部または一部を撮像範囲に収める位置に設置される。例えば、カメラ20は、ベッドの枕元から足下への方向に向けて、ベッドの上面の側端を撮像できる高さに設置することができる。なお、以下では、ベッドの枕元から足下への方向に向けてカメラを設置する場合を想定するが、ベッドの足下から枕元への方向に向けてカメラを設置することとしてもかまわない。
図1に示すように、画像処理装置10は、取得部11と、探索部12と、動き量算出部13と、向き算出部14と、追跡部15と、動作判定部16と、モード制御部17とを有する。なお、画像処理装置10は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイスなどの機能部を有することとしてもかまわない。
このうち、取得部11は、画像を取得する処理部である。
一実施形態として、取得部11は、カメラ20によって撮像された画像を取得することができる。他の実施形態として、取得部11は、画像を蓄積するハードディスクや光ディスクなどの補助記憶装置またはメモリカードやUSB(Universal Serial Bus)メモリなどのリムーバブルメディアから画像を取得することもできる。更なる実施形態として、取得部11は、外部装置からネットワークを介して受信することによって画像を取得することもできる。
ここで、取得部11は、上記のいずれかの入手経路によって画像を取得した後、後述のモード制御部17からの指示にしたがって探索部12または追跡部15のいずれかの機能部へ画像を出力する。例えば、画像から頭部候補領域を探索する「探索モード」がモード制御部17によって選択された場合、取得部11は、カメラ20から取得された画像を探索部12へ出力する。一方、画像のフレーム間で頭部を追跡する「追跡モード」がモード制御部17によって選択された場合、取得部11は、カメラ20から取得された画像を追跡部15へ出力する。
探索部12は、画像から頭部らしいと推定される領域、すなわち上記の「頭部候補領域」を探索する処理部である。
一実施形態として、探索部12は、HOG・RealAdaBoostによる学習データを用いて、画像から頭部候補領域を検出することができる。図2は、学習方法の一例を示す図であり、図3は、スキャニング方法の一例を示す図である。図2に示すように、探索部12は、人の頭部のポジティブデータと、布団、ベッド、頭部以外の身体などのネガティブデータとを学習サンプルとし、各学習サンプルのHOG特徴量をRealAdaBoostのアルゴリズムにしたがって学習することによってRealAdaBoostの分類器を作成する。このようにして作成された分類器を用いて、探索部12は、図3に示すように、画像をラスタスキャンすることによって頭部候補領域を検出する。
かかる頭部候補領域の検出後、探索部12は、頭部候補領域が画像内の対象領域に含まれない場合には、頭部候補領域に関する動き量を後述の動き量算出部13に算出させる一方で、対象領域に含まれる場合には、頭部候補領域から顔の向きを後述の向き算出部14に算出させる。図4は、対象領域の一例を示す図である。図4に示すように、ベッドの上面のうち手前側である枕元から所定の範囲、例えば縦半分までが対象領域として設定される。例えば、対象領域は、領域を形成する頂点、すなわちP1〜P4の4つの頂点の座標によって定義することができる。このように、対象領域には、患者がベッドで臥位の姿勢をとっている場合に患者の頭部が画像に映る公算が高い領域が設定される。
動き量算出部13は、頭部候補領域の動き量を背景差分によって算出する処理部である。
一実施形態として、動き量算出部13は、過去に頭部候補領域が検出されたフレームtの頭部候補領域の画像をテンプレートとして図示しない内部メモリに保存しておき、取得部11によって画像が取得された現在のフレームt+Nの画像との間で輝度差を画素ごとに算出する。このとき、動き量算出部13は、フレームtの画像およびフレームt+Nの画像の間でフレームtの頭部候補領域に位置する各画素の輝度差を算出する。そして、動き量算出部13は、輝度差が所定の閾値以上である画素に白「1」を設定する一方で、閾値未満である画素に黒「0」を設定することによって2値化する。その上で、動き算出部13は、白が設定された画素の数の和を算出し、当該和を頭部候補領域の面積で除算することによって動き量を算出する。このとき、動き量算出部13は、除算値×100等の計算を行うことによって動き量を正規化することもできる。このようにして、上記の動き量は、各頭部候補領域ごとに算出される。なお、動き量が一定値を超える場合には、テンプレートがフレームt+Nの頭部候補領域の部分画像に更新される。
向き算出部14は、顔の向きを算出する処理部である。
一実施形態として、向き算出部14は、目および口の位置関係から顔の向きを定めることができる。かかる目や口の顔パーツを検出する場合、一例として、Haar-LikeおよびAdaBoostによる学習データを用いて、画像から顔パーツを検出することができる。図5は、学習方法の一例を示す図である。図5に示すように、向き算出部14は、人の目や口のポジティブデータと、布団、髪や鼻などの目および口以外の画像などのネガティブデータとを学習サンプルとし、各学習サンプルのHaar-Like特徴量をAdaBoostのアルゴリズムにしたがって学習することによってAdaBoostの分類器を作成する。このようにして作成された分類器を用いて、向き算出部14は、頭部候補領域内をラスタスキャンすることによって目や口などの顔パーツを検出する。
例えば、向き算出部14は、頭部候補領域から目および口を検出する。このとき、向き算出部14は、顔の向きの算出に用いる顔パーツ、例えば目が2個、口1個が検出できた場合に、顔の向きの相対角度を算出する。図6は、顔の向きの相対角度の算出方法の一例を示す図である。図6に示すように、向き算出部14は、左の目の中心位置I及び右の目の中心位置Iを結ぶ線1に対し、口の中心位置Mから垂直方向の線2を算出する。続いて、向き算出部14は、上記の線2に平行で目から口へ向かう方向を顔の向きとする。その上で、向き算出部14は、顔の向きが所定の基準とする方位、例えば画像座標系でのY方向とでなす角度を顔の向きの相対角度θ[度]として算出する。
図7は、画像の一例を示す図である。図7には、患者とともに来床者が映っている画像30が示されている。図7に示す符号の「31」は、患者の顔に対応する頭部候補領域を指し、符号の「32」は、来床者の顔に対応する頭部候補領域を指す。図7に示すように、患者の顔の向きV1が画像座標系のY軸となす相対角度θ1は、180度前後である公算が高い一方で、来床者の顔の向きV2が画像座標系のY軸となす相対角度θ2は、90度未満である公算が高い。これは、患者の顔がカメラ20に映るのは、臥位である状態であるのに対し、来床者の顔がカメラ20に映るのは、立位または座位である状態であるといった相違が患者および来床者の間で相対角度に違いが生じる一因として挙げられる。このような相対角度を求めることによって、顔の向きの相対角度から頭部候補領域や頭部が患者または来床者のいずれであるのかを判別させることができる。
追跡部15は、画像のフレーム間で頭部を追跡する処理部である。
一実施形態として、追跡部15は、前のフレームで追跡された頭部の位置または探索部12によって探索された頭部候補領域の近傍に頭部の検出対象範囲を絞り込む。かかる検出対象範囲の一例として、前のフレームで追跡された頭部領域または頭部候補領域の中心位置を中心とし、頭部領域または頭部候補領域よりも大きく、かつ頭部の2つ分よりも小さいサイズの範囲を設定することができる。その上で、追跡部15は、上記の探索部12と同様に、上記のRealAdaBoostの分類器を用いて、当該範囲内をラスタスキャンすることによって頭部領域を追跡する。
かかる頭部領域の追跡後、追跡部15は、頭部領域の位置を動作判定部16へ出力することによって起床および離床などの動作の有無を判定させる。さらに、追跡部15は、頭部領域の位置を動き量算出部13へ出力することによって前のフレームとの間の動き量を算出させる。さらに、追跡部15は、頭部領域の位置を向き算出部14へ出力することによって顔の向きの相対角度を算出させた後に1フレーム前における顔の向きの相対角度との間で相対角度の変動量、すなわち相対角度の角度差を算出させる。
動作判定部16は、頭部領域から起床または離床の少なくとも一方の動作の有無を判定する処理部である。
一実施形態として、動作判定部16は、前のフレームと現在のフレームの頭部追跡位置、すなわち頭部領域の中心位置が所定の起床ライン及び離床ラインの各ラインをまたがったか否かによって患者の起床または離床を検出する。図8は、起床ライン及び離床ラインの一例を示す図である。図8には、起床ラインL1がベッドの縦方向半分の位置にベッドを横切って設定された例が示されている。さらに、離床ラインL21及びL22がベッドの左右の側端と平行に側端からNピクセル隔てた位置に設定された例が示されている。上記の起床ラインL1の設定の下、追跡部15によって追跡された頭部領域の中心位置が起床ラインL1よりも画像の上側に存在する場合、言い換えれば頭部領域の中心座標のY座標が起床ラインL1のY座標よりも小さい場合には、患者が起床していると判定される。また、上記の離床ラインL21及び離床ラインL22の設定の下、追跡部15によって追跡された頭部領域の中心位置が離床ラインL21よりも左側である場合、言い換えれば頭部領域の中心座標のX座標が離床ラインL21のX座標よりも小さい場合には、患者が離床していると判定される。また、追跡部15によって追跡された頭部領域の中心位置が離床ラインL22よりも右側である場合、言い換えれば頭部領域の中心座標のX座標が離床ラインL22のX座標よりも大きい場合にも、患者が離床していると判定される。
このようにして起床または離床が検出された場合には、画像処理装置10が有する図示しない表示デバイスを始め、任意の出力先へ出力することができる。例えば、患者の関係者、例えば患者の家族、看護師、医者や介護士などが使用する端末装置を出力先とすることもできる。また、施設の管理室やナースステーションなどのスピーカ等から起床または離床を報知する報知音、例えば電子音、メッセージなどを出力させることもできる。
モード制御部17は、探索モードおよび追跡モードの遷移を制御する処理部である。
一側面として、モード制御部17は、次のような条件を満たす場合に、滞在モードを探索モードから追跡モードへ遷移させる。一例として、モード制御部17は、向き算出部14によって算出された顔の向きの相対角度が所定の範囲、例えば患者が取りうる顔向きの範囲内である場合には、頭部候補領域が患者の頭部であると推定する。この場合、モード制御部17は、滞在モードを探索モードから追跡モードへ遷移させる。例えば、図6に示した顔の向きの相対角度の場合、相対角度θが180度±α度の範囲、例えば135度以上225度以下であれば患者と判断する。一方、相対角度θが180度±α度の範囲外である場合には、患者でないと判断して頭部を追跡させない。これによって、来床者などの頭部を追跡することなく、患者の頭部に絞って追跡させることができる。他の一例として、モード制御部17は、動き量算出部13によって算出された動き量が所定の閾値以上である頭部候補領域が存在する場合には、当該領域を頭部であると推定する。この場合には、上記の相対角度の場合と異なり、頭部が患者または来床者のいずれであるかまでは判断できない。すなわち、患者が起床しようとする過程で側頭部、後頭部または頭頂部が画像に映っている可能性があり、患者の頭部である余地が残る。よって、モード制御部17は、滞在モードを探索モードから追跡モードへ遷移させる。これによって、顔向きが寝ているときの角度と異なる、あるいは顔が映らない時に対して患者の頭部を追跡することが可能となる。
他の側面として、モード制御部17は、次のような条件を満たす場合に、滞在モードを追跡モードから探索モードへ遷移させる。一例として、モード制御部17は、向き算出部14によって算出された顔の向きの相対角度の変動量が所定の閾値以上である場合には、来床者によるオクルージョンが発生したとみなす。この場合、モード制御部17は、滞在モードを追跡モードから探索モードへ遷移させる。これによって来床者によるオクルージョンによって来床者の頭部を追跡することを抑制することができる。他の一例として、モード制御部17は、所定のフレーム数にわたって動き量が連続で所定の閾値以下であった場合、かつ探索時に顔の向きの相対角度が患者に対応する相対角度の範囲内、すなわち上記の180度±α度の範囲でなかった場合には、当該頭部領域が患者の頭部である可能性が低いと推定する。この場合にも、モード制御部17は、滞在モードを追跡モードから探索モードへ遷移させる。
なお、上記の取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16及びモード制御部17は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などに画像処理プログラムを実行させることによって実現できる。また、上記の各機能部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
また、上記の内部メモリには、半導体メモリ素子や記憶装置を採用できる。例えば、半導体メモリ素子の一例としては、フラッシュメモリ(Flash Memory)、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などが挙げられる。また、記憶装置の一例としては、ハードディスク、光ディスクなどの記憶装置が挙げられる。
[処理の流れ]
続いて、本実施例に係る画像処理装置10の処理の流れについて説明する。なお、ここでは、画像処理装置10によって実行される(1)初期設定処理を説明した後に(2)探索処理を説明し、その後、(3)追跡処理について説明することとする。
(1)初期設定処理
図9は、実施例1に係る初期設定処理の手順を示すフローチャートである。この初期設定処理は、画像処理装置10の出荷前、あるいは画像処理装置10に画像処理プログラムがインストールされてから最初に画像処理プログラムが起動された場合などに実行される。
図9に示すように、画像処理装置10は、一例として、画像上のベッドの位置の角を4点指定し、座標を設定する(ステップS1)。続いて、画像処理装置10は、一例として、図4に示したベッド位置の半分を対象領域として設定する(ステップS2)。
さらに、画像処理装置10は、一例として、起床および離床の動作判定で用いる起床ライン及び離床ラインを設定する(ステップS3)。例えば、図8を用いて説明したように、ベッドの縦方向半分の位置にベッドを横切って設定された起床ラインL1が設定される。さらに、ベッドの左右の側端と平行に側端からNピクセル隔てた位置に離床ラインL21及びL22が設定される。
そして、画像処理装置10は、動き量に関する閾値を設定する(ステップS4)。例えば、顔が少し動くなどの場合には動いたと判定したいため、閾値は低めに設定する。ここでは動き量の閾値を5とする。
さらに、画像処理装置10は、顔の向きの相対角度と比較する閾値を設定する(ステップS5)。例えば、患者が取りうる顔の向きの相対角度の範囲を設定する。一例として、図7に示した定義の顔向きで135度〜225度の範囲とする。
そして、画像処理装置10は、顔の向きの相対角度の変動量と比較する閾値を設定する(ステップS6)。例えば、45度以上の変動がある場合に来床者によるオクルージョンが発生したと見なし、閾値を45度に設定する。
さらに、画像処理装置10は、頭部および頭部候補領域の検出用の学習データを作成する(ステップS7)。図2に示すように、患者の頭部画像と頭部以外の画像から、HOG・RealAdaBoostにより学習データを作成する。
そして、画像処理装置10は、顔の向きの相対角度を算出するのに用いる顔パーツ検出用の学習データを作成する(ステップS8)。図6に示すように、目または口の画像と目・口以外の画像からHaar-Like・AdaBoostにより学習データを作成する。
さらに、画像処理装置10は、顔検出をするための学習データを作成する(ステップS9)。患者の顔と顔以外の学習データから、Haar-Like・AdaBoostにより学習データを作成する。
なお、図9に示した各ステップS1〜9の処理は、図示の順序で実行されずともよく、いずれのステップが先または後に実行されてもよく、各ステップの処理を並行して実行することとしてもよい。
(2)探索処理
図10は、実施例1に係る探索処理の手順を示すフローチャートである。この探索処理は、画像処理プログラムが起動された時点、もしくはモード制御部17によって滞在モードが探索モードへ遷移された場合に実行される処理である。
図10に示すように、カメラ20から画像が取得されると(ステップS101)、探索部12は、RealAdaBoostの分類器を用いて、ステップS101で取得された画像をラスタスキャンすることによって頭部候補領域を検出する(ステップS102)。
このとき、頭部候補領域が画像内の対象領域に含まれない場合(ステップS103No)には、動き量算出部13は、ステップS102で検出された頭部候補領域を動き量の算出対象に設定し(ステップS104)、各頭部候補領域ごとに動き量を算出する(ステップS105)。
そして、動き量が所定の閾値以上である頭部候補領域が存在する場合(ステップS106Yes)には、当該領域を頭部であると推定する。この場合には、モード制御部17は、滞在モードを探索モードから追跡モードへ遷移させ(ステップS107)、探索処理を終了する。なお、動き量が所定の閾値以上である頭部候補領域が存在しない場合(ステップS106No)には、上記のステップS101の処理へ戻る。
また、頭部候補領域が画像内の対象領域に含まれる場合(ステップS103Yes)には、向き算出部14は、ステップS102で検出された頭部候補領域から目および口の位置関係にしたがって顔の向きの相対角度を算出する(ステップS108)。
このとき、上記のステップS108で顔の向きの相対角度が算出できなかった場合、すなわち相対角度の算出に用いる全ての顔パーツが頭部候補領域から検出できなかった場合(ステップS109No)には、動き量から追跡モードへの移行を判定するために、上記のステップS104の処理へ進む。
一方、上記のステップS108で顔の向きの相対角度が算出できた場合、すなわち相対角度の算出に用いる全ての顔パーツが頭部候補領域から検出できた場合(ステップS109Yes)には、下記のステップS110の判定に進む。
ここで、ステップS108で算出された顔の向きの相対角度が所定の範囲、例えば患者が取りうる顔向きの範囲内である場合(ステップS110Yes)には、頭部候補領域が患者の頭部であると推定する。この場合、モード制御部17は、滞在モードを探索モードから追跡モードへ遷移させ(ステップS107)、探索処理を終了する。
一方、ステップS108で算出された顔の向きの相対角度が所定の範囲外である場合(ステップS110No)には、頭部候補領域が来床者の頭部であると推定する。この場合、追跡による誤検出を避けるために、モード遷移を実行せずに、上記のステップS101へ戻る。
(3)追跡処理
図11は、実施例1に係る追跡処理の手順を示すフローチャートである。この追跡処理は、モード制御部17によって滞在モードが追跡モードへ遷移された場合に実行される処理である。
図11に示すように、カメラ20から画像が取得されると(ステップS301)、追跡部15は、RealAdaBoostの分類器を用いて、ステップS301で取得された画像のうち前のフレームで追跡された頭部領域またはステップS102で検出された頭部候補領域を含む近傍の所定範囲をラスタスキャンすることによって頭部を追跡する(ステップS302)。
そして、動作判定部16は、ステップS302で追跡された頭部領域から起床または離床の少なくとも一方の動作の有無を判定する(ステップS303)。続いて、動き量判定部13は、頭部領域の動き量を算出する(ステップS304)。また、向き算出部14は、ステップS302で検出された頭部領域から目および口の位置関係にしたがって顔の向きの相対角度を算出する(ステップS305)。その上で、向き算出部14は、1フレーム前における顔の向きの相対角度との間で相対角度の変動量、すなわち相対角度の角度差を算出する(ステップS306)。
ここで、ステップS306で算出された顔の向きの相対角度の変動量が所定の閾値以上である場合(ステップS307Yes)には、来床者によるオクルージョンが発生したとみなす。この場合、モード制御部17は、滞在モードを追跡モードから探索モードへ遷移させ(ステップS310)、追跡処理を終了する。
また、所定のフレーム数にわたって動き量が連続で所定の閾値以下であった場合、かつ探索時に顔の向きの相対角度が患者に対応する相対角度の範囲内でなかった場合(ステップS308YesかつステップS309No)には、当該頭部領域が患者の頭部である可能性が低いと推定する。この場合にも、モード制御部17は、滞在モードを追跡モードから探索モードへ遷移させ(ステップS310)、追跡処理を終了する。
一方、所定のフレーム数にわたって動き量が連続で所定の閾値以下でない場合または探索時に顔の向きの相対角度が患者に対応する相対角度の範囲内である場合(ステップS308NoまたはステップS309Yes)には、上記のステップS301に戻り、追跡処理を継続する。
[効果の一側面]
上述してきたように、本実施例に係る画像処理装置10は、ベッド画像から検出された顔の向きで患者の頭部か否かを判断し、患者ならば追跡して起床離床を判定し、顔の向きが判断不能な場合は頭部に動きがあれば頭部を追跡する。図12は、効果の一側面を示す図である。図12に示すように、来床者が離床ラインL21またはL22をまたいだとしても、あるいは起床ラインL1をまたいだとしても、来床者の頭部はそもそも追跡の対象とされず、ひいては起床や離床の判定が実行されない。また、顔の検出が不能である場合も、起床または離床の判定時に追跡対象を可能性のある頭部に限定して判断できる。これらのことから、本実施例に係る画像処理装置10によれば、患者でない来床者の頭部が患者の頭部と誤検出されるのを抑制できる。
さらに、本実施例に係る画像処理装置10は、顔の向きの相対角度の変動量が所定の閾値以上である場合に、頭部の追跡を中止させる。図13は、効果の一側面を示す図である。図13に示すように、本実施例に係るカメラ20の配置の場合、患者の顔および来床者の顔の両方が前のフレームで追跡された頭部領域または頭部候補領域を含む近傍の所定範囲に含まれる場合、すなわち来床者によるオクルージョンが発生する場合がある。かかるオクルージョンの発生を顔の向きの相対角度の変動量によって検知し、オクルージョンの発生時に追跡、ひいては起床や離床の判定を抑制できる。このため、本実施例に係る画像処理装置10によれば、来床者によるオクルージョンの発生に起因する誤検出を抑制できる。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[応用例1]
例えば、画像処理装置10は、顔の有無を検出してから顔の向きの相対角度を算出することとしてもよい。この場合、顔が検出できない場合には、顔の向きの相対角度を算出する代わりに、対象領域を動き量算出対象にすることとすればよい。
図14は、応用例に係る探索処理の手順を示すフローチャートである。図14には、図10に示したフローチャートから追加された処理のステップ番号に500番台の番号が付与されている。なお、図10に示したステップ番号と同一の処理については、同様の内容の処理が実行される。
図14に示すフローチャートでは、図10に示したフローチャートに比べて、ステップS103Yesの場合に、ステップS501及びステップS502の処理が追加されている点が異なる。
すなわち、図14に示すように、頭部候補領域が画像内の対象領域に含まれる場合(ステップS103Yes)には、向き算出部14は、顔の向きの相対角度を算出するのに先立って頭部候補領域に顔検出を実行する(ステップS501)。
ここで、頭部候補領域に顔が存在する場合(ステップS502Yes)には、向き算出部14は、ステップS102で検出された頭部候補領域から目および口の位置関係にしたがって顔の向きの相対角度を算出する(ステップS108)。一方、頭部候補領域に顔が存在しない場合(ステップS502No)には、ステップS104の処理へ移行する。なお、以降の処理については、図10に示したフローチャートと同様の処理が実行される。
これによって、患者がうつ伏せで寝ていて顔の向きが算出できず、かつ来床者の顔が映っている状況においても、来床者の頭部を追跡せず、患者の頭部領域を動き量算出対象にし、かつ患者が動いた場合に追跡することができる。なお、上記の顔検出は、Haar-Like・AdaBoostによる学習データを用いて行う。顔の学習用画像を収集し、Haar-Like・AdaBoostにより学習データを作成する。同学習データを用いて、頭部候補領域内をラスタスキャンすることにより顔を検出する。
[応用例2]
例えば、画像処理装置10は、追跡処理の実行中に顔が検出できない場合に、追跡処理を中止させ、探索処理を実行させることもできる。この場合、一例として、動き量が所定の閾値以下である場合に絞って探索モードへ遷移させることもできる。これによって、頭部領域が誤検出されている場合に、その頭部領域で起床や離床が判定されるのを抑制できる。
[分散および統合]
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16またはモード制御部17を画像処理装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16またはモード制御部17を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の画像処理装置10の機能を実現するようにしてもよい。
[画像処理プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図15を用いて、上記の実施例と同様の機能を有する画像処理プログラムを実行するコンピュータの一例について説明する。
図15は、実施例1及び実施例2に係る画像処理プログラムを実行するコンピュータの一例について説明するための図である。図15に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図15に示すように、上記の実施例1で示した取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16またはモード制御部17と同様の機能を発揮する画像処理プログラム170aが予め記憶される。この画像処理プログラム170aについては、図1に示した各々の取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16またはモード制御部17の各構成要素と同様、適宜統合又は分離しても良い。すなわち、HDD170に格納される各データは、常に全てのデータがHDD170に格納されずともよく、処理に用いるデータのみがHDD170に格納されれば良い。
そして、CPU150が、画像処理プログラム170aをHDD170から読み出してRAM180に展開する。これによって、図15に示すように、画像処理プログラム170aは、画像処理プロセス180aとして機能する。この画像処理プロセス180aは、HDD170から読み出した各種データを適宜RAM180上の自身に割り当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。なお、画像処理プロセス180aは、図1に示した取得部11、探索部12、動き量算出部13、向き算出部14、追跡部15、動作判定部16またはモード制御部17にて実行される処理、例えば図9〜図11や図14に示す処理を含む。また、CPU150上で仮想的に実現される各処理部は、常に全ての処理部がCPU150上で動作されずともよく、処理に用いる処理部のみが仮想的に実現されれば良い。
なお、上記の画像処理プログラム170aについては、必ずしも最初からHDD170やROM160に記憶させておく必要はない。例えば、コンピュータ100に挿入されるフレキシブルディスク、いわゆるFD、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から各プログラムを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータ100がこれらから各プログラムを取得して実行するようにしてもよい。
10 画像処理装置
11 取得部
12 探索部
13 動き量算出部
14 向き算出部
15 追跡部
16 動作判定部
17 モード制御部

Claims (6)

  1. 画像を取得する取得部と、
    前記画像の監視対象領域内で人間の頭部の有無を探索する探索部と、
    前記頭部が検出された際、検出された頭部が観察対象の患者の頭部か否かを患者の顔の向きに基づいて判断し、患者であれば前記頭部を追跡して起床または離床を判定させ、前記顔の向きが判断不能な場合に、検出された頭部の動きが検出されている場合は頭部を追跡する制御部と
    を有することを特徴とする画像処理装置。
  2. 前記制御部は、前記頭部の追跡中に前記画像のフレーム間で前記顔の向きの変動量が所定の閾値以上になった場合に、前記頭部の追跡を中止するとともに前記探索部による探索を開始させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御部は、前記画像から顔が検出されるか否かによって前記頭部の動きを検出する処理または前記顔の向きを算出する処理のいずれを実行させるかを選択することを特徴とする請求項1に記載の画像処理装置。
  4. 前記制御部は、前記頭部の追跡中に顔が検出できなくなった場合に、前記頭部の追跡を中止するとともに前記探索部による探索を開始させることを特徴とする請求項1に記載の画像処理装置。
  5. コンピュータが、
    画像を取得し、
    前記画像の監視対象領域内で人間の頭部の有無を探索し、
    前記頭部が検出された際、検出された頭部が観察対象の患者の頭部か否かを患者の顔の向きに基づいて判断し、患者であれば追跡して起床または離床を判定させ、前記顔の向きが判断不能な場合に、検出された頭部の動きが検出されている場合は頭部を追跡する
    処理を実行することを特徴とする画像処理方法。
  6. コンピュータに、
    画像を取得し、
    前記画像の監視対象領域内で人間の頭部の有無を探索し、
    前記頭部が検出された際、検出された頭部が観察対象の患者の頭部か否かを患者の顔の向きに基づいて判断し、患者であれば追跡して起床または離床を判定させ、前記顔の向きが判断不能な場合に、検出された頭部の動きが検出されている場合は頭部を追跡する
    処理を実行させることを特徴とする画像処理プログラム。
JP2014096213A 2014-05-07 2014-05-07 画像処理装置、画像処理方法及び画像処理プログラム Active JP6264181B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014096213A JP6264181B2 (ja) 2014-05-07 2014-05-07 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014096213A JP6264181B2 (ja) 2014-05-07 2014-05-07 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015213537A JP2015213537A (ja) 2015-12-03
JP6264181B2 true JP6264181B2 (ja) 2018-01-24

Family

ID=54751063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014096213A Active JP6264181B2 (ja) 2014-05-07 2014-05-07 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6264181B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6570731B2 (ja) * 2016-03-18 2019-09-04 シェンチェン ユニバーシティー 乗客の混雑度の算出方法及びそのシステム
JP2018005413A (ja) 2016-06-29 2018-01-11 富士通株式会社 状況特定装置、状況特定プログラム、及び状況特定方法
JP6406371B2 (ja) * 2017-03-02 2018-10-17 オムロン株式会社 見守り支援システム及びその制御方法
JP6558387B2 (ja) * 2017-03-14 2019-08-14 オムロン株式会社 画像解析装置、画像解析方法、及び画像解析プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921936B2 (ja) * 1990-07-13 1999-07-19 株式会社東芝 画像監視装置
JP3697286B2 (ja) * 1995-03-24 2005-09-21 株式会社東芝 状態監視装置
JPH1199140A (ja) * 1997-09-26 1999-04-13 Toshiba Corp 就寝状態異常検知装置
JP2008048819A (ja) * 2006-08-23 2008-03-06 Fujifilm Corp 監視システム及び監視装置
JP5782737B2 (ja) * 2011-02-17 2015-09-24 富士通株式会社 状態検知装置、状態検知方法および状態検知プログラム

Also Published As

Publication number Publication date
JP2015213537A (ja) 2015-12-03

Similar Documents

Publication Publication Date Title
US9477880B2 (en) Behavior detection method and behavior detection apparatus
US10786183B2 (en) Monitoring assistance system, control method thereof, and program
JP6547563B2 (ja) 検出プログラム、検出方法及び検出装置
JP6264181B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7271915B2 (ja) 画像処理プログラムおよび画像処理装置
JP2014174627A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2018005413A (ja) 状況特定装置、状況特定プログラム、及び状況特定方法
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP6870514B2 (ja) 見守り支援システム及びその制御方法
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
CN110415486B (zh) 姿态判断方法、电子系统以及非暂态电脑可读取记录媒体
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP6613828B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP2019008515A (ja) 見守り支援システム及びその制御方法
JP2008130015A (ja) 被写体識別プログラム、および被写体識別装置
JP5170130B2 (ja) 身長推定装置
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP5776187B2 (ja) 表情判定プログラムおよび表情判定装置
JP2019204366A (ja) 行動監視装置及び行動監視方法
US10970988B2 (en) Information processing apparatus, information processing system, method, and program
JP2022126070A (ja) 画像処理方法
JP2020120829A (ja) ロボット
CN115620217A (zh) 用于预测和预防碰撞的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171204

R150 Certificate of patent or registration of utility model

Ref document number: 6264181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150