JP6137425B2 - 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP6137425B2
JP6137425B2 JP2016571761A JP2016571761A JP6137425B2 JP 6137425 B2 JP6137425 B2 JP 6137425B2 JP 2016571761 A JP2016571761 A JP 2016571761A JP 2016571761 A JP2016571761 A JP 2016571761A JP 6137425 B2 JP6137425 B2 JP 6137425B2
Authority
JP
Japan
Prior art keywords
person
image
image processing
processing system
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016571761A
Other languages
English (en)
Other versions
JPWO2016199749A1 (ja
Inventor
保理江 大作
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Application granted granted Critical
Publication of JP6137425B2 publication Critical patent/JP6137425B2/ja
Publication of JPWO2016199749A1 publication Critical patent/JPWO2016199749A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Psychology (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像処理技術に関し、特に、人物の行動を判別するための画像処理システム、画像処理装置、画像処理方法、および画像処理プログラムに関する。
画像から人物の行動を判別するための画像処理技術がある。この画像処理技術は、たとえば、高齢者等の介護を要する被介護者の行動を見守る画像処理装置に応用されている。当該画像処理装置は、被介護者が転倒等を伴う行動を取ったことを検出し、そのことを介護者に報知する。これにより、介護者は、被介護者の転倒等を未然に防ぐことができる。
このような画像処理装置に関して、特開2014−235669号公報(特許文献1)は、「見守り領域において、見守り度合いに応じた部分見守り領域を設定でき、部分見守り領域を所望の位置に容易に設定できる」見守り装置を開示している。特開2014−149584号公報(特許文献2)は、「ボタンを押す事による通知だけでなく、検知したい対象の動きに応じての通知が可能であり、なおかつ、監視者が映像を通して検知したい対象の様子を確認できる」通知システムを開示している。
特開2014−235669号公報 特開2014−149584号公報
被介護者が同じ行動を取ったとしても、被介護者の写り方は、被介護者の画像内の位置に応じて変わる。そのため、常に同じ処理で行動が判別されると、被介護者の画像内の位置によっては行動判別処理の精度が低下する可能性がある。
特許文献1に開示される見守り装置は、カメラユニットで高齢者を撮影し、得られた画像に基づいて高齢者の位置と高さとを検出する。当該見守り装置は、検出された位置と高さとの組み合わせに応じて、離床や転倒等の行動を判別する。当該見守り装置は、画像内の高齢者の位置に依らず同じ処理で行動を判別するため、画像内の高齢者の位置によっては行動判別の精度が低下する可能性がある。
特許文献2に開示される通知システムは、検出対象の形状のサイズを示す上下限値の設定を受け付ける。当該通知システムは、画像内において検出された患者の形状のサイズが設定された上下限値に含まれる場合に、患者の転倒等を看護師に通知する。当該通知システムは、画像内の患者の位置に依らず同じ処理で行動を判別するため、画像内の患者の位置によっては行動判別の精度が低下する可能性がある。
本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる画像処理システムを提供することである。他の局面における目的は、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる画像処理装置を提供することである。さらに他の局面における目的は、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる画像処理方法を提供することである。さらに他の局面における目的は、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる画像処理プログラムを提供することである。
ある局面に従うと、人物の行動を判別することが可能な画像処理システムが提供される。画像処理システムは、画像から、人物を表わす人物領域を検出するための人物検出部と、画像または人物領域から、人物の特定の部位を表わす部位領域を検出するための部位検出部と、人物領域における画像情報と部位領域における画像情報とに基づいて、人物が所定の行動を取っている程度を表わす評価値を算出するとともに、人物の行動を判別するための判別式に評価値を適用し、適用した結果に応じて所定の行動を判別するための判別部とを備える。判別部は、画像内における人物領域の位置、または画像内における部位領域の位置に応じて、所定の行動を判別するための判別式を変える。
好ましくは、人物領域における画像情報は、画像内における人物領域の位置、当該位置の変化度合い、画像内における人物領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含む。部位領域における画像情報は、画像内における部位領域の位置、当該位置の変化度合い、画像内における部位領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含む。
好ましくは、評価値は、人物領域における画像情報と部位領域における画像情報との間の関係に基づいて算出される。
好ましくは、画像処理システムは、人物が所定の行動を取っていないことを示す予め定められた条件を評価値が満たした場合に、判別部による行動判別結果から所定の行動を除外するための除外部をさらに備える。
好ましくは、判別部は、画像内における人物領域の形状をさらに用いて所定の行動を判別する。
好ましくは、検出対象の部位は、人物の頭部を含む。
好ましくは、判別部によって判別される行動は、起床、離床、転落、臥床、入床、および立ち上がりの少なくとも1つを含む。
好ましくは、判別部は、人物が所定の行動を取っている程度を表わす評価値を互いに異なる方法で算出し、画像内の人物領域の位置、または画像内の部位領域の位置に応じた重みで複数の評価値を統合し、統合された評価値を判別式に適用した結果に応じて所定の行動を判別する。
他の局面に従うと、人物の行動を判別することが可能な画像処理装置が提供される。画像処理装置は、画像から、人物を表わす人物領域を検出するための人物検出部と、画像または人物領域から、人物の特定の部位を表わす部位領域を検出するための部位検出部と、人物領域における画像情報と部位領域における画像情報とに基づいて、人物が所定の行動を取っている程度を表わす評価値を算出するとともに、人物の行動を判別するための判別式に評価値を適用し、適用した結果に応じて所定の行動を判別するための判別部とを備える。判別部は、画像内における人物領域の位置、または画像内における部位領域の位置に応じて、所定の行動を判別するための判別式を変える。
さらに他の局面に従うと、人物の行動を判別することが可能な画像処理方法が提供される。画像処理方法は、画像から、人物を表わす人物領域を検出するステップと、画像または人物領域から、人物の特定の部位を表わす部位領域を検出するステップと、人物領域における画像情報と部位領域における画像情報とに基づいて、人物が所定の行動を取っている程度を表わす評価値を算出するとともに、人物の行動を判別するための判別式に評価値を適用し、適用した結果に応じて所定の行動を判別するステップとを備える。判別するステップは、画像内における人物領域の位置、または画像内における部位領域の位置に応じて、所定の行動を判別するための判別式を変えるステップを含む。
さらに他の局面に従うと、人物の行動を判別することが可能な画像処理プログラムが提供される。画像処理プログラムは、コンピュータに、画像から、人物を表わす人物領域を検出するステップと、画像または人物領域から、人物の特定の部位を表わす部位領域を検出するステップと、人物領域における画像情報と部位領域における画像情報とに基づいて、人物が所定の行動を取っている程度を表わす評価値を算出するとともに、人物の行動を判別するための判別式に評価値を適用し、適用した結果に応じて所定の行動を判別するステップとを実行させる。判別するステップは、画像内における人物領域の位置、または画像内における部位領域の位置に応じて、所定の行動を判別するための判別式を変えるステップを含む。
ある局面において、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる。
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
本実施の形態に従う画像処理システムの構成の一例を示す図である。 移動している被介護者を撮影して得られた時系列の画像を示す図である。 画像処理システムの機能構成の一例を示すブロック図である。 被介護者の画像内の位置による写り方の違いを示す図である。 行動判別処理に用いる特徴量を示す図である。 判別対象の行動の種類と、画像内における人物領域の位置と、被介護者が当該位置において当該行動を取ったときにおける人物領域の変化の様子との関係を示す図である。 判別対象の行動の種類と、画像内における人物領域の位置と、当該位置において適用する判別式との関係を示す図である。 画像処理システムが実行する画像処理を示すフローチャートである。 行動判別処理を示すフローチャートである。 人物検出処理を概略的に示す概念図である。 転倒判別処理を示すフローチャートである。 起床判別処理を示すフローチャートである。 離床判別処理を示すフローチャートである。 画像処理システムの画面遷移図を示す図である。 メイン画面の一例を示す図である。 設定モードトップ画面の一例を示す図である。 領域設定画面の一例を示す図である。 平常時画面の一例を示す図である。 発報時画面の一例を示す図である。 画像処理システムの主要なハードウェア構成を示すブロック図である。
以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。
[画像処理システム300の構成]
図1を参照して、実施の形態に従う画像処理システム300の構成について説明する。図1は、画像処理システム300の構成の一例を示す図である。
画像処理システム300は、たとえば、被介護者10の行動を見守るために用いられる。図1に示されるように、画像処理システム300は、画像処理装置としての室内端末100と、管理サーバー200とを含む。室内端末100および管理サーバー200は、ネットワーク400を介して互いに接続されている。
室内端末100は、たとえば、医療施設、介護施設、宅内等に設置される。室内端末100は、カメラ105を備える。図1には、カメラ105が被介護者10およびベッド20を天井から撮影している様子が示されている。室内端末100は、カメラ105から得られた時系列の画像(映像)に基づいて被介護者10の行動を判別する。一例として、室内端末100が判別可能な行動は、被介護者10の起床、離床、転落、臥床、入床、および立ち上がりの少なくとも1つを含む。また、判別対象の行動は、被介護者の状態を示す姿勢を含んでもよい。
室内端末100は、報知対象の行動(たとえば、起床等)を検出すると、当該行動の種類を示す情報を管理サーバー200に送信する。報知対象の行動として起床が検出されると、管理サーバー200は、被介護者10が起床したことを介護者に報知する。これにより、介護者は、被介護者10がベッド20から立ち上がることを支援することができ、被介護者10の起床時に生じる転倒等を未然に防ぐことができる。
なお、図1には、画像処理システム300が1つの室内端末100を備えている例が示されているが、画像処理システム300は、複数の室内端末100を備えてもよい。また、図1には、画像処理システム300が1つの管理サーバー200を備えている例が示されているが、画像処理システム300は、複数の管理サーバー200を備えてもよい。さらに、図1には、室内端末100と管理サーバー200とが別個の装置として構成されているが、室内端末100と管理サーバー200とは一体的に構成されてもよい。
また、図1には、カメラ105が天井に設定されている例が示されているが、カメラ105の設置場所は、天井に限定されない。カメラ105は、被介護者10を見下ろすことが可能な場所に設置されればよい。たとえば、カメラ105は、側壁に設置されてもよい。
[画像処理システム300の処理概要]
図2を参照して、画像処理システム300の行動判別処理の概要について説明する。図2は、移動している被介護者10を撮影して得られた時系列の画像32A〜32Cを示す図である。
被介護者10がカメラ105の真下にいる場合には、画像32Aに示されるように、被介護者10は、画像内の真ん中に写る。画像処理システム300は、画像32Aから、被介護者10を表わす人物領域12Aを検出する。また、画像処理システム300は、画像32Aまたは人物領域12Aから、被介護者10の特定の部位を表わす部位領域13Aを検出する。一例として、検出対象の部位は、被介護者10の頭部である。
被介護者10がカメラ105の真下の位置から離れたとする。その結果、画像32Bに示されるように、被介護者10の写り方が変わる。より具体的には、人物領域12Bのサイズは、人物領域12Aのサイズよりも小さくなる。部位領域13Bのサイズは、部位領域13Aのサイズよりも小さくなる。人物領域12Bは、人物領域12Aと比べて、より画像中心から離れた位置に移動する。部位領域13Bは、部位領域13Aと比べて、より画像中心から離れた位置に移動する。
被介護者10がカメラ105の真下の位置からさらに離れたとする。その結果、画像32Cに示されるように、被介護者10の写り方が変わる。より具体的には、人物領域12Cのサイズは、人物領域12Bのサイズよりも小さくなる。部位領域13Cのサイズは、部位領域13Bのサイズよりも小さくなる。人物領域12Cは、人物領域12Bと比べて、より画像中心から離れた位置に移動する。部位領域13Cは、部位領域13Bと比べて、より画像中心から離れた位置に移動する。
本実施の形態に従う画像処理システム300は、画像内の人物領域12A〜12Cの位置、または画像内の部位領域13A〜13Cの位置に応じて、同一の行動(たとえば、起床)を判別するための判別式を変える。一例として、画像処理システム300は、画像32Aに対しては第1判別式を用いて、被介護者10の所定の行動を判別する。画像処理システム300は、画像32Bに対しては第2判別式を用いて、被介護者10の行動を判別する。画像処理システム300は、画像32Cに対しては第3判別式を用いて、被介護者10の行動を判別する。これにより、画像処理システム300は、画像内の被介護者10の位置に依存せずに、被介護者10の行動を正確に判別できる。
以下では、人物領域12A〜12Cを人物領域12と総称することもある。部位領域13A〜13Cを部位領域13と総称することもある。画像32A〜32Cを画像32と総称することもある。
[画像処理システム300の機能構成]
図3を参照して、画像処理システム300の機能について説明する。図3は、画像処理システム300の機能構成の一例を示すブロック図である。図3に示されるように、画像処理システム300は、室内端末100と、管理サーバー200とを備える。以下では、室内端末100および管理サーバー200の機能について順に説明する。
(室内端末100の機能構成)
図3に示されるように、室内端末100は、機能構成として、人物検出部120と、部位検出部125と、算出部130と、除外部135と、判別部140と、送信部160とを含む。
人物検出部120は、カメラ105(図2参照)から順次出力される画像に対して人物検出処理を実行し、人物領域を検出する。一例として、人物領域は、画像内に含まれる人物に外接し、矩形形状を有する。人物領域は、たとえば、画像内の座標値で示される。人物検出処理の詳細については後述する。人物検出部120は、検出した人物領域を部位検出部125および算出部130に出力する。
部位検出部125は、順次検出される人物領域、またはカメラ105から順次出力される画像に対して部位検出処理を実行し、部位領域を検出する。一例として、部位領域は、画像内に含まれる頭部に外接し、矩形形状を有する。部位領域は、たとえば、画像内の座標値で示される。部位検出部125は、検出した部位領域を算出部130に出力する。
算出部130は、人物領域における画像情報と部位領域における画像情報とに基づいて、被介護者が判別対象の行動を取っている程度を表わす評価値を算出する。一例として、人物領域における画像情報は、画像内における人物領域の位置、当該位置の変化度合い、画像内における人物領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含む。部位領域における画像情報は、画像内における部位領域の位置、当該位置の変化度合い、画像内における部位領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含む。評価値の算出方法の詳細については後述する。
除外部135は、被介護者が所定の行動を取っていないことを示す予め定められた条件を評価値が満たした場合に、判別部140による行動判別結果から当該所定の行動を除外する。除外部135の詳細については後述する。
判別部140は、算出部130によって出力される評価値を行動判別のための判別式に適用し、適用した結果に応じて被介護者の所定の行動を判別する。行動判別方法の詳細については後述する。
送信部160は、判別部140によって判別された行動の種類を管理サーバー200に送信する。
(管理サーバー200の機能構成)
引き続き図3を参照して、管理サーバー200の機能構成について説明する。図3に示されるように、管理サーバー200は、機能構成として、受信部210と、報知部220とを含む。
受信部210は、判別部140によって判別された行動の種類を室内端末100から受信する。
受信部210が報知対象の行動を受信した場合に、報知部220は、当該行動が検出されたことを介護者に報知する。報知対象の行動は、たとえば、起床、離床、転落、臥床、入床、および立ち上がり、監視対象の被介護者に危険が伴うその他の行動を含む。報知手段の一例として、報知部220は、行動の種類を示す情報をメッセージとして表示したり、音声によって出力したりする。あるいは、報知部220は、介護者が有する携帯端末(図示しない)に行動の種類を示す情報をメッセージとして表示させたり、当該携帯端末に音声を出力させたり、当該携帯端末を振動させたりする。
[行動判別処理]
図4〜図7を参照して、行動判別処理について説明する。図4は、被介護者の画像内の位置による写り方の違いを示す図である。図5は、行動判別処理に用いる特徴量を示す図である。図6は、判別対象の行動の種類と、画像内における人物領域の位置と、被介護者が当該位置において当該行動を取ったときにおける人物領域の変化の様子との関係を示す図である。図7は、判別対象の行動の種類と、画像内における人物領域の位置と、当該位置において適用する判別式との関係を示す図である。
画像処理システム300は、行動判別処理の前処理として画像を回転補正し、回転補正後の画像から特徴量を抽出し、抽出した特徴量に基づいて行動判別処理を実行する。一例として、判別対象の行動としては、起床、離床、転倒が挙げられる。以下では、回転補正処理、特徴抽出処理、起床判別処理、離床判別処理、転倒判別処理について順に説明する。
(回転補正)
図4を参照して、行動判別処理の前処理として実行される回転補正について説明する。図4に示されるように、画像処理システム300は、画像中心45を基準として、人物領域が一定方向(たとえば、画像長手方向)に向くように回転する。画像処理システム300は、回転補正処理を実行した上で行動判別処理を実行することで、画像32内における人物領域の方向に依存せずに行動を判別することができる。
詳細については後述するが、画像処理システム300は、画像中心45から回転補正後の人物領域12の中心46までの距離に応じて行動判別処理を変える。すなわち、画像処理システム300は、当該距離が等しい被介護者10A,10Bに対しては同じ判定条件で行動判別を行なう。画像処理システム300は、当該距離が異なる被介護者10A,10Cに対しては異なる判定条件で行動判別を行なう。
なお、回転補正は、必ずしも、行動判別処理の前処理として実行される必要はない。たとえば、画像処理システム300は、部位領域の抽出を先に行い、当該部位領域を用いて画像全体を回転補正した上で、残りの処理を実行してもよい。あるいは、画像処理システム300は、人体領域の抽出後に画像を回転補正し、その後、残りの処理を実行してもよい。また、画像処理システム300は、画像に対して回転補正を行なわずに、座標値を逆回転補正し、その後、残りの処理を実行してもよい。
また、図4では、回転補正が人物領域12の中心46を基準に行われる例が示されているが、回転補正は、人物領域12の重心や部分領域の重心等を基準として行われてもよい。さらに、画像処理システム300は、処理速度、容量等のシステム要求、後述する各判別条件等に合わせて回転補正を変えてもよい。
(特徴量)
上述したように、画像処理システム300は、人物領域12における画像情報と部位領域13における画像情報とを用いて、被介護者が対象の行動を取っている程度を表わす評価値を算出し、当該評価値に応じて行動を判別する。以下では、図5を参照して、当該評価値を算出するために用いられる画像情報(すなわち、特徴量)について説明する。
当該特徴量は、画像中心45から人物領域12の中心までの距離dと、人物領域12の長手方向の長さpと、人物領域12の短手方向の長さqと、長手方向に対する部位領域13の中心47から画像中心45までの距離mと、短手方向に対する部位領域13の中心47から画像中心45までの距離nと、部位領域13のサイズSとの少なくとも1つを含む。
以下の説明では、時系列の2枚の画像を前画像と現画像とした場合、前画像における上記特徴量には符号「0」を付し、現画像における上記特徴量には符号「1」を付す。すなわち、前画像における距離d,m,nを「距離d0,m0,n0」とする。前画像における長さp,qを「長さp0,q0」とする。現画像における距離d,m,nを「距離d1、m1,n1」とする。現画像における長さp,qを「長さp1,q1」とする。
なお、前画像と現画像との間のフレーム間隔は、一定であってもよいし、上記特徴量の種類や判定条件ごとに変えてもよい。
(起床判別処理)
画像処理システム300は、一例として、被介護者の起床を判別する。「起床」とは、被介護者10がベッド上で目を覚ましてから立ち上がるまでの行動のことをいう。以下では、図4〜図7を参照して、被介護者の起床を判別する方法について説明する。
画像処理システム300は、画像中心45から人物領域12の中心46までの距離dに応じて起床判別処理に適用する判別式を変える。たとえば、距離dが閾値Thd1よりも小さい場合には、画像処理システム300は、カテゴリ1Aを選択する。カテゴリ1Aに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の起床を検出する。
より具体的には、図7の式(1)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12に対する頭部のサイズの比を算出し、当該比が閾値Th1よりも大きいか否かを判断する。画像処理システム300は、当該比が閾値Th1よりも大きいと判断した場合に、人物領域12に対する頭部のサイズが一定値以上であると判断する。
図7の式(2)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12の縦横比を算出し、当該縦横比の変化度が閾値Th2よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th2よりも小さいと判断した場合、人物領域12の縦横比が減少していると判断する。
距離dが閾値Thd1以上であって閾値Thd2よりも小さい場合には、画像処理システム300は、カテゴリ1Bの判別式を選択する。カテゴリ1Bに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の起床を検出する。
より具体的には、図7の式(3)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12のサイズに対する頭部のサイズの比を算出し、当該比が閾値Th10よりも大きいか否かを判断する。画像処理システム300は、当該比が閾値Th10よりも大きいと判断した場合に、人物領域12に対する頭部のサイズが一定値以上であると判断する。
図7の式(4)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12の縦横比を算出し、当該縦横比の変化度が閾値Th11よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th11よりも小さいと判断した場合、人物領域12の縦横比が減少していると判断する。
距離dが閾値Thd2以上である場合には、画像処理システム300は、カテゴリ1Cの判別式を選択する。カテゴリ1Cに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の起床を検出する。
より具体的には、図7の式(5)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12の縦横比を算出し、当該縦横比の変化度が閾値Th18よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th18よりも大きいと判断した場合、人物領域12の縦横比が増加していると判断する。
図7の式(6)に示されるように、画像処理システム300は、起床判別のための評価値として、人物領域12のサイズの変化度を算出し、当該変化度が閾値Th19よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th19よりも大きいと判断した場合、人物領域12の縦横比が増加していると判断する。
(離床判別処理)
画像処理システム300は、一例として、被介護者の離床を判別する。「離床」とは、被介護者10がベッド(寝具)から離れた後の行動のことをいう。以下では、図4〜図7を参照して、被介護者の離床を判別する方法について説明する。
画像処理システム300は、画像中心45から人物領域12の中心46までの距離dに応じて起床判別処理に適用する判別式を変える。たとえば、距離dが閾値Thd1よりも小さい場合には、画像処理システム300は、カテゴリ2Aを選択する。カテゴリ2Aに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の離床を検出する。
より具体的には、図7の式(7)に示されるように、画像処理システム300は、頭部のサイズSを離床判別の評価値とし、サイズSが閾値Th4よりも大きいか否かを判断する。画像処理システム300は、サイズSが閾値Th4よりも大きいと判断した場合、頭部が一定値以上のサイズを有すると判断する。
図7の式(8)に示されるように、画像処理システム300は、離床判別のための評価値として、人物領域12のサイズの変化度を算出し、当該変化度が閾値Th5よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th5よりも小さいと判断した場合、人物領域12のサイズが減少していると判断する。
図7の式(9)に示されるように、画像処理システム300は、離床判別のための評価値として、長さpに対する距離mの比を算出し、当該比の変化度が閾値Th6よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th6よりも小さいと判断した場合、頭部の位置が人物領域の中央寄りに変化していると判断する。
距離dが閾値Thd1以上であって閾値Thd2よりも小さい場合には、画像処理システム300は、カテゴリ2Bの判別式を選択する。カテゴリ2Bに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の離床を検出する。
より具体的には、図7の式(10)に示されるように、画像処理システム300は、頭部のサイズSを離床判別の評価値とし、サイズSが閾値Th13よりも大きいか否かを判断する。画像処理システム300は、サイズSが閾値Th13よりも大きいと判断した場合、頭部が一定値以上のサイズを有すると判断する。
図7の式(11)に示されるように、画像処理システム300は、離床判別のための評価値として、長さqに対する長さpの比を算出し、当該比の変化度が閾値Th14よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th14よりも大きいと判断した場合、人物領域12の長手方向の長さが増加したと判断する。
距離dが閾値Thd2以上である場合には、画像処理システム300は、カテゴリ2Cの判別式を選択する。カテゴリ2Cに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の離床を検出する。
より具体的には、図7の式(12)に示されるように、画像処理システム300は、離床判別のための評価値として、長さqに対する長さpの比を算出し、当該比の変化度が閾値Th21よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th21よりも大きいと判断した場合、人物領域12の長手方向の長さが増加したと判断する。
図7の式(13)に示されるように、画像処理システム300は、離床判別のための評価値として、長さpに対する距離mの比を算出し、当該比の変化度が閾値Th22よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th22よりも大きいと判断した場合、頭部の位置が人物領域の右寄りに変化していると判断する。
(転倒判別処理)
画像処理システム300は、一例として、被介護者の転倒を判別する。「転倒」とは、被介護者10が床に倒れている状態のこという。なお、「転倒」は、被介護者10が立っている状態から床に倒れている状態の他にも、ベッドから落ちて床に倒れている状態(すなわち、転落)も含む。以下では、図4〜図7を参照して、被介護者の転倒を判別する方法について説明する。
画像処理システム300は、画像中心45から人物領域12の中心46までの距離dに応じて起床判別処理に適用する判別式を変える。たとえば、距離dが閾値Thd1よりも小さい場合には、画像処理システム300は、カテゴリ3Aを選択する。カテゴリ3Aに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の転倒を検出する。
より具体的には、図7の式(14)に示されるように、画像処理システム300は、人物領域12のサイズに対する頭部のサイズSの比を転倒判別の評価値として算出し、当該比が閾値Th7よりも小さいか否かを判断する。画像処理システム300は、当該比が閾値Th7よりも小さいと判断した場合、人物領域12に対する頭部のサイズが一定値よりも小さいと判断する。
図7の式(15)に示されるように、画像処理システム300は、長さqに対する長さpの比を算出し、当該比の変化度が閾値Th8よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th8よりも大きいと判断した場合、人物領域の縦横比が増加していると判断する。
図7の式(16)に示されるように、画像処理システム300は、距離m,nの変化度を算出し、当該変化度が閾値Th9よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th9よりも大きいと判断した場合、頭部の位置が人物領域の中央から離れていると判断する。
距離dが閾値Thd1以上であって閾値Thd2よりも小さい場合には、画像処理システム300は、カテゴリ3Bの判別式を選択する。カテゴリ3Bに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の転倒を検出する。
より具体的には、図7の式(17)に示されるように、画像処理システム300は、人物領域12のサイズに対する頭部のサイズSの比を転倒判別の評価値として算出し、当該比が閾値Th15よりも小さいか否かを判断する。画像処理システム300は、当該比が閾値Th15よりも小さいと判断した場合、人物領域12に対する頭部のサイズが一定値よりも小さいと判断する。
図7の式(18)に示されるように、画像処理システム300は、長さqに対する長さpの比を算出し、当該比の変化度が閾値Th16よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th16よりも大きいと判断した場合、人物領域の縦横比が増加していると判断する。
図7の式(19)に示されるように、画像処理システム300は、距離m,nの変化度を算出し、当該変化度が閾値Th17よりも大きいか否かを判断する。画像処理システム300は、当該変化度が閾値Th17よりも大きいと判断した場合、頭部の位置が人物領域の中央から離れていると判断する。
距離dが閾値Thd2以上である場合には、画像処理システム300は、カテゴリ3Cの判別式を選択する。カテゴリ3Cに示される条件が全て満たされた場合に、画像処理システム300は、被介護者の転倒を検出する。
より具体的には、図7の式(20)に示されるように、画像処理システム300は、長さqに対する長さpの比を算出し、当該比の変化度が閾値Th23よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th23よりも小さいと判断した場合、人物領域の縦横比が増加していると判断する。
図7の式(21)に示されるように、画像処理システム300は、転倒判別のための評価値として、長さpに対する距離mの比を算出し、当該比の変化度が閾値Th20よりも小さいか否かを判断する。画像処理システム300は、当該変化度が閾値Th20よりも小さいと判断した場合、頭部の位置が人物領域の左寄りに移動していると判断する。
(変形例1)
図7の例では、2つの閾値Thd1,Thd2が示されているが、閾値の数(すなわち、分類数)は、さらに多くてもよい。これらの閾値は、画像処理システム300の精度、処理速度、ロバスト性、画角、画像サイズ、検知対象の行動の種類等を総合的に考慮して予め設定される。また、画像処理システム300は、距離dに応じて判定条件を明確に分類するのではなく、距離dに応じて連続的に判定条件を変化してもよい。
(変形例2)
上述の例では、選択されたカテゴリに示される判別式が全て満たされた場合に、当該カテゴリに関連付けられている行動が検出される例について説明したが、選択されたカテゴリに示される判別式の一部が満たされた場合に、当該カテゴリに関連付けられている行動が検出されてもよい。さらに、各カテゴリ内の一部の判別条件が入れ替えられてもよいし、各カテゴリに新たな判別条件が追加されてもよい。
(変形例3)
上述の例では、画像処理システム300が各評価値を対応する閾値と比較する例について説明を行なったが、画像処理システム300は、各評価値を重み付けして統合し、統合した結果を閾値と比較することで所定の行動を検出してもよい。たとえば、画像処理システム300は、カテゴリ1Aに示される式(1),(2)の代わりに、以下の式(A)、(B)を用いて、評価値V1,V2を算出する。
V1=S/(p1×q1)−Th1・・・(A)
V2=(|log(p1/q1)|−|log(p0/q0)|)−Th2・・・(B)
画像処理システム300は、以下の式(C)に示されるように、予め定められた重みk1,k2のそれぞれを評価値V1,V2のそれぞれに掛け合わせ、掛け合わせた結果を足し合わせて最終的な評価値Vとして算出する。当該重みは、判別対象の行動の種類、人物領域の位置、部位領域の位置等に応じて予め定められている。すなわち、当該重みは、図7の各カテゴリに示される各判別式ごとに予め定められている。
V=V1×k1+V2×k2・・・(C)
画像処理システム300は、以下の判別式(D)に示されるように、評価値Vが閾値Thvよりも大きいと判断した場合に、被介護者の起床を検出する。閾値Thvは、経験等に基づいて、予め定められている。
V>Thv・・・(D)
このように、本変形例では、画像処理システム300は、人物が所定の行動を取っている程度を表わす評価値を互いに異なる方法で算出するとともに、人物領域または部位領域の位置に応じた重みで評価値を統合する。画像処理システム300は、統合した評価値を所定の判別式に適用した結果に応じて被介護者の所定の行動を判別する。このように、各評価値が重み付けされることで、画像処理システム300は、被介護者の行動をより正確に判別することができる。
なお、画像処理システム300は、必ずしも、上記式(C)に示されるように、評価値V1,V2を線形結合することで評価値Vを算出する必要はなく、評価値V1,V2を非線形結合することで評価値Vを算出してもよい。
(変形例4)
図7では、判別対象の行動として、起床、離床、転倒を例に挙げたが、他の行動が判別対象になってもよい。たとえば、画像処理システム300は、起床と動きが反対である臥床、離床と動きが反対である入床、転倒と動きが反対である立ち上がり等の行動を判別する。より具体的には、画像処理システム300は、図7の判別式(1)〜(6)の不等号を反対にすることで、被介護者の臥床を検出する。画像処理システム300は、図7の判別式(7)〜(13)の不等号を反対にすることで、被介護者の入床を検出する。画像処理システム300は、図7の判別式(14)〜(21)の不等号を反対にすることで、被介護者の立ち上がりを検出する。
他にも、画像処理システム300は、行動「走る」を検出してもよい。より具体的には、画像処理システム300は、画像中心から人物領域までの距離dに応じて、異なる方法で「走る」を判別する。たとえば、画像処理システム300は、距離dが一定距離よりも長い場合には、2本の足領域を検出した上で画像を回転補正し、フレーム間における各足領域の移動量を所定閾値と比較する。画像処理システム300は、当該移動量が所定閾値を超えている場合に、行動「走る」を検出する。距離dが一定距離よりも短い場合には、フレーム間における人物領域の移動量を所定閾値と比較する。画像処理システム300は、当該移動量が所定閾値を超えている場合に、行動「走る」を検出する。
(変形例5)
特徴量は、人物領域と部分領域との間の位置関係等を含む。たとえば、特徴量は、人物領域に対する頭部の位置等を含む。この場合、評価値は、人物領域における画像情報と部位領域における画像情報との間の関係に基づいて算出される。
行動判別処理で用いられる特徴量は、上記の例に限定されない。たとえば、特徴量は、人物領域の動き、部分領域の動きを含んでもよい。他にも、特徴量は、人物領域の形状、人物領域の形状変化、部分領域の形状、部分領域の形状変化等を含んでもよい。この場合、画像処理システム300は、画像内における人物領域の形状や部分領域の形状を用いて行動判別処理を行なう。
他にも、画像処理システム300は、被介護者の画像上での任意の向きを対象として、モーメント等の他の方法で算出された人物領域の細長度を他の特徴量として算出してもよい。特徴量は、要求される性能、検知したい行動の種類や数等に応じて、追加、削除、修正され得る。
(変形例6)
上述では、説明を簡単にするため、あおり補正や歪曲補正が必要ない場合について説明を行なったが、画像処理システム300は、必要に応じて、あおり補正や歪曲補正を行なってもよい。
(変形例7)
画像処理システム300は、第1の判別式の結果に応じて、次の第2の判別式における閾値を変えてもよい。たとえば、図7の判別式(1)が満たされた場合には、画像処理システム300は、図7の判別式(2)における閾値Th2を現在の1.1倍にし、判別式(2)を満たしやすくする。一方で、判別式(1)が満たされなかった場合には、画像処理システム300は、判別式(2)における閾値Th2を現在の0.9倍にし、判別式(2)を満たしにくくする。これにより、画像処理システム300は、行動判別処理の精度を改善することができる。
[除外処理]
上述の除外部135(図3参照)による除外処理について説明する。上述したように、除外部135は、被介護者が所定の行動を取っていないことを示す予め定められた条件を評価値が満たした場合に、行動判別結果から当該所定の行動を除外する。すなわち、除外された結果は報知されない。これにより、行動の誤検出が低減される。
ある局面において、画像処理システム300は、頭部の移動方向と体の移動方向とが異なっている場合には、報知対象の行動が検出されたとしても、そのことを報知しない。画像処理システム300は、たとえば、頭領域のオプティカルフローの平均ベクトルを算出し、当該平均ベクトルの方向を頭領域の移動方向とする。また、画像処理システム300は、体領域のオプティカルフローの平均ベクトルを算出し、当該平均ベクトルの方向を体領域の移動方向とする。画像処理システム300は、頭領域の移動方向と体領域の移動方向とが90度以上異なる場合に、判別対象の行動が検出されたとしても、そのことを報知しない。
他の局面において、画像処理システム300は、以下の方法で転倒判定処理について除外処理を実行する。被介護者の転倒方向がカメラから離れる方向であった場合には、体領域に対する頭領域のサイズの比率が小さくなる。一方で、被介護者の転倒方向がカメラに近付く方向であった場合には、体領域に対する頭領域のサイズの比率が大きくなる。画像処理システム300は、この点に矛盾する結果が生じた場合には、「転倒」が検出された場合であっても、「転倒」を報知しない。
たとえば、距離dが閾値Thd2以上である場合の転倒判定処理に適用する除外処理について説明する。この場合、画像処理システム300は、頭部領域の中心が人物領域の中心よりも右側であり、かつ、人物領域に対する頭部領域のサイズの比を示す評価値(=S/(p1×q1))が閾値Th21よりも大きい場合に、矛盾が生じていると判断する。あるいは、画像処理システム300は、当該評価値(=S/(p1×q1))が閾値Th21よりも小さい場合に、矛盾が生じていると判断する。画像処理システム300は、矛盾が生じていると判断した場合、「転倒」を報知しない。
[画像処理システム300の制御構造]
図8〜図12を参照して、画像処理システム300の制御構造について説明する。図8は、画像処理システム300が実行する画像処理を示すフローチャートである。図8の処理は、室内端末100のCPU102(図20参照)や、管理サーバー200のCPU202(図20参照)によって実行される。他の局面において、処理の一部または全部が、回路素子その他のハードウェアによって実行されてもよい。
ステップS40において、画像処理システム300は、画像処理プログラムが実行されたことに基づいて初期化を行なう。
ステップS50において、画像処理システム300は、監視対象の被介護者を撮影して得られた画像を本実施の形態に従う画像処理プログラムに入力する。
ステップS60において、画像処理システム300は、上述の判別部140(図3参照)として、行動判別処理を実行する。行動判別処理のフローについては後述する(図9参照)。
ステップS70において、画像処理システム300は、本実施の形態に従う画像処理を終了するか否かを判断する。たとえば、画像処理システム300は、管理者から処理を中断する操作を受け付けた場合に、本実施の形態に従う画像処理を終了すると判断する(ステップS70においてYES)。そうでない場合には(ステップS70においてNO)、画像処理システム300は、制御をステップS80に切り替える。
ステップS80において、画像処理システム300は、次の入力画像を取得する。これにより、画像処理システム300は、時系列の画像(すなわち、映像)に対して本実施の形態に従う画像処理を順次実行する。
(行動判別処理)
図9〜図13を参照して、図8のステップS60で実行される行動判別処理について詳細に説明する。図9は、行動判別処理を示すフローチャートである。図10は、図9のステップS90で実行される人物検出処理を概略的に示す概念図である。図11は、図9のステップS100で実行される転倒判別処理を示すフローチャートである。図12は、図9のステップS200で実行される起床判別処理を示すフローチャートである。図13は、図9のステップS300で実行される離床判別処理を示すフローチャートである。
ステップS90において、画像処理システム300は、上述の人物検出部120(図3参照)として、入力画像から人物領域を検出する。人物領域は、たとえば、入力画像から背景画像を差分する背景差分や、撮影時刻が前後である画像を差分する時間差分によって検出される。
図10には、背景差分によって画像32から人物領域12を抽出する処理が示されている。より具体的には、画像処理システム300は、人物が写っていない背景画像35を予め取得しておく。背景画像35は、後述する設定画像30(図17参照)と同一の画像であってもよいし、設定画像30とは別に得られた画像であってもよい。
画像処理システム300は、カメラ105(図1参照)から画像32を取得すると、画像32から背景画像35を差分する。これにより、画像処理システム300は、画像32から背景を除いた背景差分画像36を得ることができる。画像処理システム300は、背景差分画像36から所定値以上の画素値を有する領域を抽出し、当該領域に外接する矩形領域を人物領域12とする。
なお、人物領域12は、図10に示される方法とは異なる方法で抽出されてもよい。たとえば、画像処理システム300は、被介護者10の特徴的な部分(すなわち、特徴量)をテンプレートとして予め準備しておき、画像32を走査することにより当該テンプレートと類似する領域を探索する。画像処理システム300は、画像32内でテンプレートと類似する領域を探索できた場合には、当該領域を人物領域12とする。他にも、人物領域12は、オプティカルフローやトラッキング等のその他の画像処理技術によって抽出されてもよい。
再び図9を参照して、ステップS92において、画像処理システム300は、上述の部位検出部125(図3参照)として、人物領域12から部位領域を検出する。一例として、画像処理システム300は、頭部を部位領域として検出する。頭部領域の検出方法は任意である。一例として、画像処理システム300は、人物領域12から円形の形状を探索し、探索された円領域を頭部として検出する。
ステップS100において、画像処理システム300は、被介護者が転倒したか否かを判別するための転倒判別処理を実行する。図11を参照して、転倒判別処理について説明する。
ステップS102において、画像処理システム300は、画像中心から人物領域の中心点までの距離に基づいて、判別対象の行動である「転倒」に関連付けられているカテゴリ3A〜3C(図7参照)のいずれかを選択する。画像処理システム300は、選択したカテゴリに含まれる判別式を取得する。
ステップS104において、画像処理システム300は、上述の算出部130(図3参照)として、取得した判別式に適用する評価値を算出する。当該評価値の算出方法は上述の通りであるので説明を繰り返さない。
ステップS110において、画像処理システム300は、算出された評価値が取得した判別式を満たすか否かを判断する。画像処理システム300は、当該評価値が取得した判別式を満たしたと判断した場合(ステップS110においてYES)、制御をステップS112に切り替える。そうでない場合には(ステップS110においてNO)、画像処理システム300は、ステップS100の転倒判別処理を終了する。
ステップS112において、画像処理システム300は、被介護者が転倒したことを検出し、被介護者の転倒を介護者に通知する。
再び図9を参照して、ステップS200において、画像処理システム300は、被介護者が起床したか否かを判別するための起床判別処理を実行する。図12を参照して、起床判別処理について説明する。
ステップS201において、画像処理システム300は、前回の行動判別処理結果によって示される被介護者の状態が「起床前」であるか否かを判断する。画像処理システム300は、当該状態が「起床前」であると判断した場合(ステップS201においてYES)、制御をステップS202に切り替える。そうでない場合には(ステップS201においてNO)、画像処理システム300は、ステップS200の起床判別処理を終了する。
ステップS202において、画像処理システム300は、画像中心から人物領域の中心点までの距離に基づいて、判別対象の行動である「起床」に関連付けられているカテゴリ1A〜1C(図7参照)のいずれかを選択する。画像処理システム300は、選択したカテゴリに含まれる判別式を取得する。
ステップS204において、画像処理システム300は、上述の算出部130(図3参照)として、取得した判別式に適用する評価値を算出する。当該評価値の算出方法は上述の通りであるので説明を繰り返さない。
ステップS210において、画像処理システム300は、算出された評価値が取得した判別式を満たすか否かを判断する。画像処理システム300は、当該評価値が取得した判別式を満たしたと判断した場合(ステップS210においてYES)、制御をステップS212に切り替える。そうでない場合には(ステップS210においてNO)、画像処理システム300は、ステップS200の起床判別処理を終了する。
ステップS212において、画像処理システム300は、被介護者が起床したことを検出し、被介護者の起床を介護者に通知する。
ステップS214において、画像処理システム300は、被介護者の現在の状態を「起床後」に設定する。
再び図9を参照して、ステップS300において、画像処理システム300は、被介護者が離床したか否かを判別するための離床判別処理を実行する。図13を参照して、離床判別処理について説明する。
ステップS301において、画像処理システム300は、前回の行動判別処理の結果によって示される被介護者の状態が「離床前」であるか否かを判断する。画像処理システム300は、当該状態が「離床前」であると判断した場合(ステップS301においてYES)、制御をステップS302に切り替える。そうでない場合には(ステップS301においてNO)、画像処理システム300は、ステップS300の離床判別処理を終了する。
ステップS302において、画像処理システム300は、画像中心から人物領域の中心点までの距離に基づいて、判別対象の行動である「離床」に関連付けられているカテゴリ2A〜2C(図7参照)のいずれかを選択する。画像処理システム300は、選択したカテゴリに含まれる判別式を取得する。
ステップS304において、画像処理システム300は、上述の算出部130(図3参照)として、取得した判別式に適用する評価値を算出する。当該評価値の算出方法は上述の通りであるので説明を繰り返さない。
ステップS310において、画像処理システム300は、算出された評価値が取得した判別式を満たすか否かを判断する。画像処理システム300は、当該評価値が取得した判別式を満たしたと判断した場合(ステップS310においてYES)、制御をステップS312に切り替える。そうでない場合には(ステップS310においてNO)、画像処理システム300は、ステップS300の離床判別処理を終了する。
ステップS312において、画像処理システム300は、被介護者が離床したことを検出し、被介護者の離床を介護者に通知する。
ステップS314において、画像処理システム300は、被介護者の現在の状態を「離床後」に設定する。
[画像処理システム300の画面遷移]
図14〜図19を参照して、画像処理システム300に表示される画面例について説明する。図14は、画像処理システム300の画面遷移図を示す図である。
画像処理システム300は、本実施の形態に従う画像処理プログラムを実行したときに、初期画面としてメイン画面310を表示する。管理者は、メイン画面310からは、設定モードトップ画面320または平常時画面340に遷移させることができる。管理者は、設定モードトップ画面320からは、メイン画面310または領域設定画面330に遷移させることができる。管理者は、領域設定画面330からは、設定モードトップ画面320に遷移させることができる。管理者は、平常時画面340からは、メイン画面310または発報時画面350に遷移させることができる。管理者は、発報時画面350からは、平常時画面340に遷移させることができる。
以下では、メイン画面310、設定モードトップ画面320、領域設定画面330、平常時画面340、および発報時画面350の画面例について順に説明する。
(メイン画面310)
図15は、メイン画面310の一例を示す図である。画像処理システム300は、本実施の形態に従う画像処理プログラムを実行したときに、初期画面としてメイン画面310を表示する。
メイン画面310は、行動判別処理の開始を受け付けるためのボタン312と、行動判別処理に関する設定画面を開くためのボタン314とを含む。画像処理システム300は、ボタン312の押下を検出した場合には、平常時画面340を表示する。また、画像処理システム300は、ボタン314の押下を検出した場合には、設定モードトップ画面320を表示する。
(設定モードトップ画面320)
図16は、設定モードトップ画面320の一例を示す図である。設定モードトップ画面320は、画像処理システム300の初期設定時やメンテナンス時に表示される。
設定モードトップ画面320は、行動判別処理に関するパラメータの設定を受け付ける。たとえば、設定モードトップ画面320は、カメラ105(図1参照)のフレームレートに関するパラメータを受け付ける。また、設定モードトップ画面320は、カメラ105から出力される画像の明るさに関するパラメータを受け付ける。さらに、設定モードトップ画面320は、被介護者の行動の検出感度に関するパラメータを受け付ける。さらに、設定モードトップ画面320は、カメラ105を設置する天井の高さに関するパラメータを受け付ける。設定モードトップ画面320の「更新」ボタンが押下されると、各パラメータは、画像処理システム300に反映される。
画像処理システム300は、ボタン322の押下を検出した場合には、領域設定画面330を表示する。画像処理システム300は、ボタン324の押下を検出した場合には、メイン画面310を表示する。
設定モードトップ画面320は、他のパラメータの入力を受け付けてもよい。たとえば、設定モードトップ画面320は、カメラ105に関するパラメータとして、入力画像のコントラストに関するパラメータ、カメラのズーム調整に関するパラメータ、およびカメラのパンチルト調整に関するパラメータ等を受け付けてもよい。他にも、設定モードトップ画面320は、室内端末100から画像処理システム300に送信する画像の圧縮率等を受け付けてもよい。他にも、設定モードトップ画面320は、起床または入床等の行動を判別する時間帯等の設定を受け付けてもよい。
(領域設定画面330)
図17は、領域設定画面330の一例を示す図である。領域設定画面330は、設定画像30に対するベッド境界40の設定を受け付ける。設定されたベッド境界40は、行動判別処理で用いられる。一例として、画像処理システム300は、ベッド内で検出されていた人物領域がベッド境界40と重なった場合に、被介護者の起床を判別する。
領域設定画面330は、たとえば、点41A〜41Dの設定を受け付けることでベッド境界40の設定を受け付ける。一例として、点41A〜41Dは、マウス操作に連動するポインタ332によって入力される。画像処理システム300は、管理者によって設定されたベッド境界40を保存する操作を受け付けたことに基づいて、設定画像30内でベッド境界40を特定するための情報(たとえば、座標等)を記憶する。
なお、図17では、ベッド境界40を設定する方法として、点41A〜41Dを設定する例について説明を行なったが、ベッド境界40は、他の方法で設定されてもよい。たとえば、領域設定画面330は、線の設定を受け付けることでベッド境界40の設定を受け付けてもよい。他の方法としては、領域設定画面330は、面の設定を受け付けることでベッド境界40の設定を受け付ける。この場合、管理者は、領域設定画面330に対するドラッグ操作によりベッド20が写っている範囲を指定する。このように、ベッド境界40の設定方法としては、ベッド領域とその他の領域との境界の一部または全部を指定することが可能な任意の方法が採用され得る。
また、図17では、ベッド境界40を設定する方法として、矩形の境界を設定する例について説明を行なったが、ベッド境界40は、他の形状で設定されてもよい。たとえば、ベッド境界40は、円形、楕円形、多角形(たとえば、六角形)等のその他の形状で設定されてもよい。あるいは、ベッド境界40の形状は、線、弧等であってもよい。当該線や弧は、所定の太さを有していてもよい。
また、図17では、ポインタ332でベッド境界40を設定する例について説明を行なったが、ベッド境界40は、タッチ操作等のその他の操作で設定されてもよい。
また、図17では、ベッド20に対してベッド境界40を設定する例について説明を行なったが、境界が設定される対象物は、ベッドに限定されない。たとえば、境界が設定される対象物は、布団等の寝具、椅子、被介護者によって利用されるその他の物体を含む。
また、図17では、ベッド境界40が管理者によって手動で設定される例について説明を行なったが、画像処理システム300は、エッジ抽出やテンプレートマッチングなどの画像処理によってベッド境界40を自動で検出してもよい。あるいは、画像処理システム300は、3Dセンサ、ベッド20の脚に取り付けられた位置センサ、圧力センサを有するカーペット等、その他のセンサによってベッド境界40を検出してもよい。
(平常時画面340)
図18は、平常時画面340の一例を示す図である。平常時画面340は、画像処理システム300による行動判別処理の実行中において、監視対象の被介護者10が危険を伴わない行動(たとえば、就寝等)を取っているときに表示される画面である。一例として、画像処理システム300は、被介護者10を撮影して得られた画像(映像)をそのまま平常時画面340として表示する。
(発報時画面350)
図19は、発報時画面350の一例を示す図である。発報時画面350は、画像処理システム300による行動判別処理の実行中において、監視対象の被介護者10が危険を伴う行動を取ったときに表示される画面である。画像処理システム300は、発報時画面350を表示する前に発報時画面350の表示の可否を管理者に問い合わせてもよい。
図19に示されるように、画像処理システム300は、被介護者10が離床したことを検出したことに基づいて、被介護者10の離床を介護者に報知する。ある局面において、画像処理システム300は、メッセージ352によって被介護者10の離床を介護者に報知する。他の局面において、画像処理システム300は、音声等の音によって被介護者10の離床を介護者に報知する。さらに他の局面において、画像処理システム300は、被介護者10の離床の検出時における画像または映像を表示する。これにより、万が一、画像処理システム300が誤発報を行なった場合であっても、介護者は、行動検出時における被介護者10の行動を画像または映像で確認できる。そのため、被介護者10の元に無駄に駆け付けずに済む。
なお、報知対象になる行動は、離床に限定されない。たとえば、報知対象になる行動は、入床、起床、被介護者10に危険が生じるその他の行動を含む。
[画像処理システム300のハードウェア構成]
図20を参照して、画像処理システム300のハードウェア構成の一例について説明する。図20は、画像処理システム300の主要なハードウェア構成を示すブロック図である。図20に示されるように、画像処理システム300は、室内端末100と、管理サーバー200と、ネットワーク400とを含む。室内端末100および管理サーバー200は、ネットワーク400を介して接続されている。以下では、室内端末100のハードウェア構成と、管理サーバー200のハードウェア構成とについて順に説明する。
(室内端末100のハードウェア構成)
図20に示されるように、室内端末100は、ROM(Read Only Memory)101と、CPU102と、RAM(Random Access Memory)103と、ネットワークI/F(インタフェース)104と、カメラ105と、記憶装置106とを含む。
ROM101は、オペレーティングシステム、室内端末100で実行される制御プログラム等を格納する。CPU102は、オペレーティングシステムや室内端末100の制御プログラム等の各種プログラムを実行することで、室内端末100の動作を制御する。RAM103は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
ネットワークI/F104には、アンテナやNIC(Network Interface Card)等の通信機器が接続される。室内端末100は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、管理サーバー200、その他の端末等を含む。室内端末100は、本実施の形態に従う各種の処理を実現するための画像処理プログラム108を、ネットワーク400を介してダウンロードできるように構成されてもよい。
カメラ105は、たとえば、監視カメラまたは被写体を撮影することが可能なその他の撮像装置である。たとえば、カメラ105は、室内の2D画像を取得できるものであればよく、サーモグラフィ画像等の非可視画像を取得できるセンサであってもよい。カメラ105は、室内端末100と別個に構成されてもよいし、図20に示されるように室内端末100と一体的に構成されてもよい。
記憶装置106は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置106は、設定画像に対して設定されたベッド境界40と、本実施の形態に従う各種の処理を実現するための画像処理プログラム108とを格納する。ベッド境界40は、設定画像や入力画像内でベッドが写っている領域を特定するための情報である。他にも、記憶装置106は、判別対象の行動の種類と、画像内における人物領域の位置と、当該位置において適用する判別式との関係(図7参照)を格納する。
なお、画像処理プログラム108は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像処理システム300の趣旨を逸脱するものではない。さらに、本実施の形態に従う画像処理プログラム108によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、少なくとも1つのサーバーが本実施の形態に従う処理を実現する、所謂クラウドサービスのような形態で管理サーバー200が構成されてもよい。
(管理サーバー200のハードウェア構成)
次に、管理サーバー200のハードウェア構成について説明する。図20に示されるように、管理サーバー200は、ROM201と、CPU202と、RAM203と、ネットワークI/F204と、モニタ205と、記憶装置206とを含む。
ROM201は、オペレーティングシステム、管理サーバー200で実行される制御プログラム等を格納する。CPU202は、オペレーティングシステムや管理サーバー200の制御プログラム等の各種プログラムを実行することで、管理サーバー200の動作を制御する。RAM203は、ワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
ネットワークI/F204には、アンテナやNIC等の通信機器が接続される。管理サーバー200は、当該通信機器を介して、他の通信端末との間でデータを送受信する。他の通信端末は、たとえば、室内端末100、その他の端末等を含む。管理サーバー200は、本実施の形態に従う各種の処理を実現するためのプログラムを、ネットワーク400を介してダウンロードできるように構成されてもよい。
モニタ205は、本実施の形態に従う画像処理プログラム208を実行することで表示される各種画面を表示する。たとえば、モニタ205は、メイン画面310(図15参照)、設定モードトップ画面320(図16参照)、領域設定画面330(図17参照)、平常時画面340(図18参照)、および発報時画面350(図19参照)等の画面を表示する。なお、モニタ205は、タッチセンサ(図示しない)と組み合わされてタッチパネルとして実現されてもよい。タッチパネルは、ベッド境界40の設定操作や画面の切り替え操作等をタッチ操作で受け付ける。
記憶装置206は、たとえば、ハードディスクや外付けの記憶装置等の記憶媒体である。一例として、記憶装置206は、本実施の形態に従う各種の処理を実現するための画像処理プログラム208を記憶する。
[まとめ]
以上のようにして、画像処理システム300は、画像内における人物領域の位置、または画像内における部位領域の位置に応じて、行動判別処理に用いる判別式を変える。これにより、画像処理システム300は、被介護者の画像内の位置に応じて行動の判別精度が低下することを防止できる。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1A〜1C,2A〜2C,3A〜3C カテゴリ、10,10A〜10C 被介護者、12,12A〜12C 人物領域、13,13A〜13C 部位領域、20 ベッド、30 設定画像、32,32A〜32C 画像、35 背景画像、36 背景差分画像、40 ベッド境界、41A〜41D 点、45 画像中心、46,47 中心、100 室内端末、101,201 ROM、102,202 CPU、103,203 RAM、104,204 ネットワークI/F、105 カメラ、106,206 記憶装置、108,208 画像処理プログラム、120 人物検出部、125 部位検出部、130 算出部、135 除外部、140 判別部、160 送信部、200 管理サーバー、205 モニタ、210 受信部、220 報知部、300 画像処理システム、310 メイン画面、312,314,322,324 ボタン、320 設定モードトップ画面、330 領域設定画面、332 ポインタ、340 平常時画面、350 発報時画面、352 メッセージ、400 ネットワーク。

Claims (11)

  1. 人物の行動を判別することが可能な画像処理システムであって、
    画像から、前記人物を表わす人物領域を検出するための人物検出部と、
    前記画像または前記人物領域から、前記人物の特定の部位を表わす部位領域を検出するための部位検出部と、
    前記人物領域における画像情報と前記部位領域における画像情報とに基づいて、前記人物が所定の行動を取っている程度を表わす評価値を算出するとともに、前記人物の行動を判別するための判別式に前記評価値を適用し、適用した結果に応じて前記所定の行動を判別するための判別部とを備え、
    前記判別部は、前記画像内における前記人物領域の位置、または前記画像内における前記部位領域の位置に応じて、前記所定の行動を判別するための前記判別式を変える、画像処理システム。
  2. 前記人物領域における前記画像情報は、前記画像内における前記人物領域の位置、前記当該位置の変化度合い、前記画像内における前記人物領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含み、
    前記部位領域における前記画像情報は、前記画像内における前記部位領域の位置、前記当該位置の変化度合い、前記画像内における前記部位領域のサイズ、および当該サイズの変化度合いの少なくとも1つを含む、請求項1に記載の画像処理システム。
  3. 前記評価値は、前記人物領域における画像情報と前記部位領域における画像情報との間の関係に基づいて算出される、請求項1または2に記載の画像処理システム。
  4. 前記画像処理システムは、前記人物が前記所定の行動を取っていないことを示す予め定められた条件を前記評価値が満たした場合に、前記判別部による行動判別結果から前記所定の行動を除外するための除外部をさらに備える、請求項1〜3のいずれか1項に記載の画像処理システム。
  5. 前記判別部は、前記画像内における前記人物領域の形状をさらに用いて前記所定の行動を判別する、請求項1〜4のいずれか1項に記載の画像処理システム。
  6. 検出対象の前記部位は、前記人物の頭部を含む、請求項1〜5のいずれか1項に記載の画像処理システム。
  7. 前記判別部によって判別される行動は、起床、離床、転落、臥床、入床、および立ち上がりの少なくとも1つを含む、請求項1〜6のいずれか1項に記載の画像処理システム。
  8. 前記判別部は、
    前記人物が所定の行動を取っている程度を表わす評価値を互いに異なる方法で算出し、
    前記画像内の前記人物領域の位置、または前記画像内の前記部位領域の位置に応じた重みで複数の前記評価値を統合し、
    統合された前記評価値を前記判別式に適用した結果に応じて前記所定の行動を判別する、請求項1〜7のいずれか1項に記載の画像処理システム。
  9. 人物の行動を判別することが可能な画像処理装置であって、
    画像から、前記人物を表わす人物領域を検出するための人物検出部と、
    前記画像または前記人物領域から、前記人物の特定の部位を表わす部位領域を検出するための部位検出部と、
    前記人物領域における画像情報と前記部位領域における画像情報とに基づいて、前記人物が所定の行動を取っている程度を表わす評価値を算出するとともに、前記人物の行動を判別するための判別式に前記評価値を適用し、適用した結果に応じて前記所定の行動を判別するための判別部とを備え、
    前記判別部は、前記画像内における前記人物領域の位置、または前記画像内における前記部位領域の位置に応じて、前記所定の行動を判別するための前記判別式を変える、画像処理装置。
  10. 人物の行動を判別することが可能な画像処理方法であって、
    画像から、前記人物を表わす人物領域を検出するステップと、
    前記画像または前記人物領域から、前記人物の特定の部位を表わす部位領域を検出するステップと、
    前記人物領域における画像情報と前記部位領域における画像情報とに基づいて、前記人物が所定の行動を取っている程度を表わす評価値を算出するとともに、前記人物の行動を判別するための判別式に前記評価値を適用し、適用した結果に応じて前記所定の行動を判別するステップとを備え、
    前記判別するステップは、前記画像内における前記人物領域の位置、または前記画像内における前記部位領域の位置に応じて、前記所定の行動を判別するための前記判別式を変えるステップを含む、画像処理方法。
  11. 人物の行動を判別することが可能な画像処理プログラムであって、
    前記画像処理プログラムは、コンピュータに、
    画像から、前記人物を表わす人物領域を検出するステップと、
    前記画像または前記人物領域から、前記人物の特定の部位を表わす部位領域を検出するステップと、
    前記人物領域における画像情報と前記部位領域における画像情報とに基づいて、前記人物が所定の行動を取っている程度を表わす評価値を算出するとともに、前記人物の行動を判別するための判別式に前記評価値を適用し、適用した結果に応じて前記所定の行動を判別するステップとを実行させ、
    前記判別するステップは、前記画像内における前記人物領域の位置、または前記画像内における前記部位領域の位置に応じて、前記所定の行動を判別するための前記判別式を変えるステップを含む、画像処理プログラム。
JP2016571761A 2015-06-10 2016-06-07 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム Active JP6137425B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015117556 2015-06-10
JP2015117556 2015-06-10
PCT/JP2016/066856 WO2016199749A1 (ja) 2015-06-10 2016-06-07 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6137425B2 true JP6137425B2 (ja) 2017-05-31
JPWO2016199749A1 JPWO2016199749A1 (ja) 2017-06-22

Family

ID=57504754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016571761A Active JP6137425B2 (ja) 2015-06-10 2016-06-07 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム

Country Status (5)

Country Link
US (1) US20180300538A1 (ja)
EP (1) EP3309748A4 (ja)
JP (1) JP6137425B2 (ja)
CN (1) CN107735813A (ja)
WO (1) WO2016199749A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753859A (zh) * 2017-11-08 2019-05-14 佳能株式会社 在图像中检测人体部件的装置和方法及图像处理系统

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6635074B2 (ja) * 2017-03-02 2020-01-22 オムロン株式会社 見守り支援システム及びその制御方法
WO2018230103A1 (ja) * 2017-06-15 2018-12-20 コニカミノルタ株式会社 被監視者監視装置および該方法ならびに被監視者監視支援システム
JP6870514B2 (ja) * 2017-07-14 2021-05-12 オムロン株式会社 見守り支援システム及びその制御方法
JP7039011B2 (ja) * 2018-02-23 2022-03-22 エイアイビューライフ株式会社 情報処理装置
TWI666933B (zh) * 2018-04-02 2019-07-21 緯創資通股份有限公司 物件監控方法及其運算裝置
WO2019206239A1 (en) * 2018-04-27 2019-10-31 Shanghai Truthvision Information Technology Co., Ltd. Systems and methods for detecting a posture of a human object
JP6611871B1 (ja) * 2018-07-12 2019-11-27 医療法人社団皓有会 監視装置
JP7172376B2 (ja) * 2018-09-27 2022-11-16 株式会社リコー 情報提供装置、情報提供システム、情報提供方法、及びプログラム
JP7169213B2 (ja) * 2019-02-05 2022-11-10 株式会社日立製作所 身体健康状態映像分析装置、方法並びにシステム
CN110169885B (zh) * 2019-04-25 2021-03-09 青岛市中心医院 外科术后患者服务装置
JP6583953B1 (ja) * 2019-06-27 2019-10-02 アースアイズ株式会社 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
CN110287923B (zh) * 2019-06-29 2023-09-15 腾讯科技(深圳)有限公司 人体姿态获取方法、装置、计算机设备及存储介质
CN113853158B (zh) * 2019-07-22 2024-05-14 松下知识产权经营株式会社 步行功能评价装置、步行功能评价系统、步行功能评价方法、记录介质及认知功能评价装置
WO2021024691A1 (ja) * 2019-08-07 2021-02-11 コニカミノルタ株式会社 画像処理システム、画像処理プログラム、および画像処理方法
JP6621127B1 (ja) * 2019-08-26 2019-12-18 アースアイズ株式会社 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
DE102019006326A1 (de) * 2019-09-09 2021-03-11 Drägerwerk AG & Co. KGaA System und Verfahren zur Überwachung einer Lagesicherheit
EP4107711A1 (en) * 2020-02-17 2022-12-28 Koninklijke Philips N.V. System to secure health safety during charging of health wearable
WO2022074886A1 (ja) * 2020-10-05 2022-04-14 株式会社島津製作所 姿勢検出装置、姿勢検出方法および寝相判定方法
WO2022152554A1 (en) * 2021-01-13 2022-07-21 Signify Holding B.V. Detecting human facing directions using thermal images from embedded overhead sensors
CN112907894B (zh) * 2021-03-02 2022-12-02 深圳市医创加科技有限公司 一种基于患者动作预判的坠床预警方法及系统
JP7722855B2 (ja) * 2021-07-05 2025-08-13 株式会社 日立産業制御ソリューションズ 異常行動検知システム、異常行動検知方法、及び異常行動検知プログラム
JP2023080864A (ja) * 2021-11-30 2023-06-09 富士通株式会社 ラベル変更プログラム、ラベル変更方法および情報処理装置
WO2024077005A1 (en) * 2022-10-03 2024-04-11 Sensormatic Electronics, LLC Systems and methods for detecting fall events
WO2024176342A1 (ja) * 2023-02-21 2024-08-29 日本電気株式会社 人物検出装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JP2001056853A (ja) * 1999-08-19 2001-02-27 Matsushita Electric Ind Co Ltd 挙動検出装置および種類識別装置、並びに挙動検出方法および挙動検出用プログラムが記録された記録媒体
SE0203483D0 (sv) * 2002-11-21 2002-11-21 Wespot Ab Method and device for fall detection
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification
ES2334617B1 (es) * 2008-02-13 2011-02-10 Jose Juan Blanch Puig Sistema y procedimiento para monitorizar la actividad de una persona en un recinto, y sensor para detectar una persona en un area predefinida.
US9866797B2 (en) * 2012-09-28 2018-01-09 Careview Communications, Inc. System and method for monitoring a fall state of a patient while minimizing false alarms
US8427324B2 (en) * 2010-07-30 2013-04-23 General Electric Company Method and system for detecting a fallen person using a range imaging device
JP5682204B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
US20120106778A1 (en) * 2010-10-28 2012-05-03 General Electric Company System and method for monitoring location of persons and objects
CA3177719A1 (en) * 2011-04-04 2012-10-04 Alarm.Com Incorporated Fall detection and reporting technology
CN102387345B (zh) * 2011-09-09 2014-08-06 浙江工业大学 基于全方位视觉的独居老人安全监护系统
JP5760905B2 (ja) * 2011-09-28 2015-08-12 株式会社Jvcケンウッド 危険検知装置及び危険検知方法
US20140266693A1 (en) * 2011-11-14 2014-09-18 University Of Technology, Sydney Monitoring a person
US9247211B2 (en) * 2012-01-17 2016-01-26 Avigilon Fortress Corporation System and method for video content analysis using depth sensing
CN102831750B (zh) * 2012-08-24 2014-10-29 张颖锋 用于人体跌倒检测的智能视频监控系统及检测方法
CA2834877A1 (en) * 2012-11-28 2014-05-28 Henry Leung System and method for event monitoring and detection
CN103136511B (zh) * 2013-01-21 2016-06-29 信帧电子技术(北京)有限公司 行为检测方法及装置
JP6115335B2 (ja) * 2013-06-10 2017-04-19 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
CN103517042B (zh) * 2013-10-17 2016-06-29 吉林大学 一种养老院老人危险行为监测方法
JP6417670B2 (ja) * 2014-02-21 2018-11-07 オムロン株式会社 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体
CN104680557A (zh) * 2015-03-10 2015-06-03 重庆邮电大学 视频序列图像中的异常行为智能检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753859A (zh) * 2017-11-08 2019-05-14 佳能株式会社 在图像中检测人体部件的装置和方法及图像处理系统
CN109753859B (zh) * 2017-11-08 2023-10-24 佳能株式会社 在图像中检测人体部件的装置和方法及图像处理系统

Also Published As

Publication number Publication date
EP3309748A1 (en) 2018-04-18
EP3309748A4 (en) 2018-06-06
US20180300538A1 (en) 2018-10-18
CN107735813A (zh) 2018-02-23
JPWO2016199749A1 (ja) 2017-06-22
WO2016199749A1 (ja) 2016-12-15

Similar Documents

Publication Publication Date Title
JP6137425B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP6717235B2 (ja) 見守り支援システム及びその制御方法
JP6822328B2 (ja) 見守り支援システム及びその制御方法
US10755400B2 (en) Method and computing device for monitoring object
US10762761B2 (en) Monitoring assistance system, control method thereof, and program
JP6048630B1 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
US20190266872A1 (en) Watching system, watching device, watching method and watching program
JP6119938B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP2020071717A (ja) 情報処理装置、情報処理方法及びプログラム
WO2019013105A1 (ja) 見守り支援システム及びその制御方法
JP6822326B2 (ja) 見守り支援システム及びその制御方法
JP6311809B2 (ja) 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
TWI807969B (zh) 跌倒偵測系統及其偵測方法
WO2018030024A1 (ja) 見守りシステム、見守り装置、見守り方法、および見守りプログラム
JP6115689B1 (ja) 転倒検知装置および転倒検知方法ならびに被監視者監視装置
JP2022126071A (ja) 画像処理方法
JP7607319B2 (ja) 画像処理方法
JP6729512B2 (ja) 見守り支援システム及びその制御方法
JP2023051147A (ja) ナースコールシステム、および状態判断システム
JP2022126070A (ja) 画像処理方法
JP2021106319A (ja) 人体検出装置、人体検出装置の処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R150 Certificate of patent or registration of utility model

Ref document number: 6137425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150