JP6731600B2 - 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP6731600B2
JP6731600B2 JP2015096261A JP2015096261A JP6731600B2 JP 6731600 B2 JP6731600 B2 JP 6731600B2 JP 2015096261 A JP2015096261 A JP 2015096261A JP 2015096261 A JP2015096261 A JP 2015096261A JP 6731600 B2 JP6731600 B2 JP 6731600B2
Authority
JP
Japan
Prior art keywords
posture
image data
inspection
human body
transition model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015096261A
Other languages
English (en)
Other versions
JP2015231517A (ja
Inventor
豊 畑
豊 畑
中嶋 宏
宏 中嶋
雄亮 谷口
雄亮 谷口
冨実二 相田
冨実二 相田
田中 純一
純一 田中
直樹 土屋
直樹 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
University of Hyogo
Original Assignee
Omron Corp
University of Hyogo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, University of Hyogo filed Critical Omron Corp
Priority to JP2015096261A priority Critical patent/JP6731600B2/ja
Publication of JP2015231517A publication Critical patent/JP2015231517A/ja
Application granted granted Critical
Publication of JP6731600B2 publication Critical patent/JP6731600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1115Monitoring leaving of a patient support, e.g. a bed or a wheelchair
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、室内における人体の姿勢を推定することができる姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
従来から、高齢者などの介護を必要とする人の挙動を監視する装置が知られている。
たとえば、特許文献1(特開2006−175082号公報)に記載の装置では、ベッドに就寝している被介護者が起床挙動を行ったことを判定するために、ベッドの上側に見守り領域を設定して、ベッドの横方向から見守り領域をカメラで撮像する。この装置では、カメラから得られる撮像画像の見守り領域に占める被介護者の画像領域の大きさが所定値以上の場合に被介護者が起床挙動を行っていると推定する。
特開2006−175082号公報
しかしながら、特許文献1の装置では、撮像画像における被介護者の画像領域の大きさが所定値以上の場合に、被介護者が起床挙動を行っていると推定するため、被介護者の画像領域を特定するための画像処理が必要となる。その結果、データ処理量が多くなり、リアルタイムに姿勢の変化を推定することができない。
それゆえに、本発明の目的は、少ないデータ処理量で人体の姿勢を推定することができる姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体を提供することである。
本発明の姿勢推定装置は、室内に設けられた画像センサからの画像データを取得する取得部と、人体の姿勢の遷移モデルを表わす情報と、遷移モデルにおける各姿勢での画像データの検査領域を表わす検査情報を記憶する記憶部と、遷移モデルを表わす情報および検査情報を参照して、画像データの検査領域での統計量を算出し、統計量に基づいて1時点前の人体の姿勢から現時点の人体の姿勢を推定する推定部とを備える。
好ましくは、推定部は、遷移モデルを表わす情報を参照して、1時点前の人体の姿勢から遷移可能な姿勢の候補を特定する候補特定部と、特定した姿勢の候補について、検査情報を参照して、画像データの検査領域を特定する検査領域特定部と、特定された画像データの検査領域における統計量を算出する統計量算計算部と、算出された統計量に基づいて、特定された姿勢の候補が現時点の姿勢として推定するかどうかを判定する判定部とを含む。
好ましくは、統計量は、検査領域の画素の値の合計値または平均値である。
好ましくは、判定部は、算出された統計量が、特定された姿勢の候補に応じて定まる基準値以上の場合に、特定された姿勢の候補を現時点の姿勢として推定する。
好ましくは、画像センサは、赤外線アレイセンサである。
好ましくは、室内にはベッドが設置される。姿勢の遷移モデルは、ベッドに対する人体の姿勢を含む。
好ましくは、取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、室内の側方に設けられた第2の画像センサからの第2の画像データを取得する。記憶部は、遷移モデルにおける各姿勢での第1の画像データの検査領域および第2の画像データの検査領域を表わす検査情報を記憶する。推定部は、遷移モデルを表わす情報および検査情報を参照して、第1の画像データおよび第2の画像データの検査領域での統計量を算出し、算出した統計量を用いて、1時点前の人体の姿勢から現時点の人体の姿勢を推定する。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢が室内に不在の場合に、姿勢から遷移可能な姿勢の候補は、室内に滞在を含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢が室内に滞在の場合に、姿勢から遷移可能な姿勢の候補は、ベッド横で立位、転倒、および室内に不在のうちの少なくとも1つを含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢がベッド横で立位の場合に、姿勢から遷移可能な姿勢の候補は、ベッド上で臥位、ベッド上で座位、ベッド端で座位、転倒、および室内に滞在のうちの少なくとも1つを含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢がベッド上で臥位の場合に、姿勢から遷移可能な姿勢の候補は、ベッド上で座位、ベッド端で座位、ベッド横で立位、およびベッドから転落のうちの少なくとも1つを含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢がベッド上で座位の場合に、姿勢から遷移可能な姿勢の候補は、ベッド上で臥位、ベッド端で座位、ベッド横で立位、およびベッドから転落のうちの少なくとも1つを含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢がベッド端で座位の場合に、姿勢から遷移可能な姿勢の候補は、ベッド上で臥位、ベッド上で座位、ベッド横で立位、およびベッドから転落のうちの少なくとも1つを含む。
好ましくは、姿勢の遷移モデルにおいて、1時点前の人体の姿勢から遷移可能な姿勢の候補として、1時点前の姿勢と同じ姿勢を含む。
好ましくは、姿勢の候補が、室内に不在の場合に、第1の画像データの検査領域は第1の画像データの全領域であり、第2の画像データの検査領域は第2の画像データの全領域である。
好ましくは、姿勢の候補が、室内に滞在の場合に、第1の画像データの検査領域は第1の画像データの全領域であり、第2の画像データの検査領域は第2の画像データの全領域である。
好ましくは、姿勢の候補が、ベッド横で立位の場合に、第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、ベッドに対応する範囲に隣接する位置から所定の幅の範囲である。
好ましくは、姿勢の候補が、転倒の場合に、第1の画像データの検査領域は、全領域からベッドに対応する領域を除いた領域であり、第2の画像データの検査領域の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲であり、鉛直方向の範囲は、最も低い位置から上方に向かって所定の幅の範囲である。
好ましくは、姿勢の候補が、ベッド上で臥位の場合に、第1の画像データの検査領域は、ベッドに対応する領域であり、第2の画像データの検査領域の鉛直方向の範囲は、ベッドに対応する範囲の上方の境界に隣接する位置から所定の第1の幅の範囲であり、水平方向の範囲は、ベッドに対応する範囲と同じ範囲である。
好ましくは、姿勢の候補が、ベッド上で座位の場合に、第1の画像データの検査領域は、ベッドに対応する領域であり、第2の画像データの検査領域の鉛直方向の範囲は、ベッドに対応する範囲の上方の境界に隣接する位置から所定の第2の幅の範囲であり、水平方向の範囲は、ベッドに対応する範囲と同じ範囲である。
好ましくは、姿勢の候補が、ベッド端で座位の場合に、第1の画像データの検査領域は、ベッドに対応する領域であり、第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、ベッドに対応する範囲に隣接する位置から所定の幅の範囲である。
好ましくは、姿勢の候補が、ベッドから転落の場合に、第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、第2の画像データの検査領域の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲であり、鉛直方向の範囲は、所定の位置から上方に向かって所定の幅の範囲である。
本発明の姿勢推定システムは、室内に設けられた画像センサと、画像センサからの画像データを取得する取得部と、人体の姿勢の遷移モデルを表わす情報と、遷移モデルにおける各姿勢での画像データの検査領域を表わす検査情報を記憶する記憶部と、遷移モデルを表わす情報および検査情報を参照して、画像データの検査領域での統計量を算出し、統計量に基づいて1時点前の人体の姿勢から現時点の人体の姿勢を推定する推定部とを備える。
本発明の姿勢推定方法は、室内に設けられた画像センサが、室内を撮像することによって画像データを生成するステップと、人体の姿勢の遷移モデルを表わす情報と、遷移モデルにおける各姿勢での画像データの検査領域を表わす検査情報とを参照して、画像データの検査領域での統計量を算出し、統計量に基づいて1時点前の人体の姿勢から現時点の人体の姿勢を推定するステップとを備える。
本発明の姿勢推定プログラムは、コンピュータを、室内に設けられた画像センサからの画像データを取得する取得部と、人体の姿勢の遷移モデルを表わす情報と、遷移モデルにおける各姿勢での画像データの検査領域を表わす検査情報を記憶する記憶部と、遷移モデルを表わす情報および検査情報を参照して、画像データの検査領域での統計量を算出し、統計量に基づいて1時点前の人体の姿勢から現時点の人体の姿勢を推定する推定部として機能させる。
本発明のコンピュータ読み取り可能な記録媒体に記録される姿勢推定プログラムは、コンピュータを、室内に設けられた画像センサからの画像データを取得する取得部と、人体の姿勢の遷移モデルを表わす情報と、遷移モデルにおける各姿勢での画像データの検査領域を表わす検査情報を記憶する記憶部と、遷移モデルを表わす情報および検査情報を参照して、画像データの検査領域での統計量を算出し、統計量に基づいて1時点前の人体の姿勢から現時点の人体の姿勢を推定する推定部として機能させる。
本発明によれば、少ないデータ処理量で人体の姿勢を推定することができる。
本発明の実施形態の姿勢推定システムの構成を表わす図である。 室内を表わす立体図である。 第1の画像データおよび第1の画像データの検査領域を説明するための図である。 第1の画像データおよび第1の画像データの検査領域を説明するための図である。 第2の画像データおよび第1の画像データの検査領域を説明するための図である。 第2の画像データおよび第1の画像データの検査領域を説明するための図である。 人体の姿勢の遷移モデルを表わす図である。 遷移モデル情報を表わす図である。 遷移モデルにおける各姿勢での第1の画像データの検査領域と第2の画像データの検査領域を表わす領域情報と、各姿勢に遷移したかを判定するための基準値を表わす基準値情報とを表わす図である。 姿勢(A)からの遷移先を判定するための手順を表わすフローチャートである。 姿勢(B)からの遷移先を判定するための手順を表わすフローチャートである。 姿勢(C)からの遷移先を判定するための手順を表わすフローチャートである。 姿勢(D)からの遷移先を判定するための手順を表わすフローチャートである。 姿勢(E)からの遷移先を判定するための手順を表わすフローチャートである。 姿勢(F)からの遷移先を判定するための手順を表わすフローチャートである。
以下、本発明の実施の形態について図面を用いて説明する。
以下の説明で、監視対象者とは高齢者などの介護を必要とする居住者を意味し、室内とは、監視対象者が居住する空間を意味する。
図1は、本発明の実施形態の姿勢推定システム1の構成を表わす図である。
図1に示すように、この姿勢推定システム1は、上方画像センサ2と、側方画像センサ3と、姿勢推定装置4とを備える。
上方画像センサ2は、室内の天井に取り付けられ、室内を上方から撮像する。側方画像センサ3は、室内の側面に取り付けられ、室内を側方から撮像する。本実施の形態では、上方画像センサ2および側方画像センサ3は、赤外線アレイセンサで構成される。上方画像センサ2から出力される第1の画像データは、姿勢推定装置4に送られる。側方画像センサ3から出力される第2の画像データは、姿勢推定装置4に送られる。
赤外線アレイセンサで生成される画像データは、画素値が高いほど撮像した領域の温度が高く、画素値が低いほど、撮像した領域の温度が低いという特徴がある。人体が存在する領域は、温度が高いため、人体を撮像した領域の画素の値は高くなる。したがって、画像データから、画素値が高い領域を見つけることによって、人体が存在する領域を特定することができる。
姿勢推定装置4は、画像取得部15と、姿勢推定部5と、記憶部6と、表示部7とを備える。姿勢推定部5は、候補特定部8と、検査領域特定部9と、統計量計算部10と、判定部11とを備える。記憶部6は、遷移モデル情報記憶部12と、検査情報記憶部13とを備える。
画像取得部15は、上方画像センサ2からの第1の画像データと、側方画像センサ3からの第2の画像データを取得する。
遷移モデル情報記憶部12は、人体の姿勢の遷移モデルを表わす遷移モデル情報を記憶する。検査情報記憶部13は、遷移モデルにおける各姿勢での第1の画像データの検査領域と第2の画像データの検査領域を表わす領域情報と、各姿勢に遷移したかを判定するための基準値を表わす基準値情報とを含む検査情報を記憶する。遷移モデル情報および検査情報は、現時点の人体の姿勢を推定するために用いられる。その詳細は後述する。
候補特定部8は、遷移モデル情報を参照して、1時点前の人体の姿勢から遷移可能な姿勢の候補を特定する。
検査領域特定部9は、特定した姿勢の候補について、領域情報を参照して、第1の画像データの検査領域および第2の画像データの検査領域を特定する。
統計量計算部10は、特定された第1の画像データの検査領域における統計量および第1の画像データの統計量を算出する。
判定部11は、基準値情報を参照して、算出された統計量に基づいて、特定された姿勢の候補が現時点の姿勢として推定するかどうかを判定する。
姿勢推定装置4は、図示しないコンピュータが、姿勢推定プログラムを実行することによって実現される。言い換えると、姿勢推定プログラムは、コンピュータを画像取得部15と、姿勢推定部5と、記憶部6と、表示部7として機能させる。姿勢推定プログラムは、メモリカード、CDROM、DVDなどのコンピュータ読みとり可能な記録媒体に記録されて、コンピュータにインストールされる。
図2は、室内を表わす立体図である。
図2に示すように、室内の上方に上方画像センサ2が設置され、室内の側方に側方画像センサ3が設置される。室内にはベッド90が設けられている。室内の座標系X−Y−Zは、図2に示す通りである。
図3および図4は、第1の画像データおよび第1の画像データの検査領域を説明するための図である。第1の画像データは、X方向に16画素、Y方向に16画素から構成される。
領域RV1は、第1の画像データの全領域、つまり0≦X≦15、0≦Y≦15の範囲の領域である。
領域RV2は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅(3画素)の領域、つまり7≦X≦9、3≦Y≦10の範囲の領域である。
領域RV3は、ベッドに対応する領域、つまり3≦X≦6、3≦Y≦10の範囲の領域である。
領域RV4は、領域RV3を除く領域であり、4つの領域から構成される。第1の領域は、0≦X≦2、0≦Y≦15の範囲の領域である。第2の領域は、7≦X≦15、0≦Y≦15の範囲の領域である。第3の領域は、3≦X≦6、0≦Y≦2の範囲の領域である。第4の領域は、3≦X≦6、11≦Y≦15の範囲の領域である。
図5および図6は、第2の画像データおよび第2の画像データの検査領域を説明するための図である。第2の画像データは、X方向に16画素、Z方向に16画素から構成される。
領域RH1は、第2の画像データの全領域、つまり0≦X≦15、0≦Z≦15の範囲の領域である。
領域RH2の鉛直方向(Z方向)の範囲は、全範囲である。領域RH2の水平方向(X方向)の範囲は、ベッドに対応する範囲(11≦X≦15)に隣接する位置から所定の幅(3画素)の範囲である。したがって、領域RH2は、8≦X≦10、0≦Z≦15の範囲の領域である。
領域RH3の鉛直方向(Z方向)の範囲は、ベッドに対応する範囲の上方の境界に隣接する位置から所定の幅(5画素)の範囲である。領域RH3の水平方向(X方向)の範囲は、ベッドに対応する範囲と同じ範囲である。したがって、領域RH3は、11≦X≦15、5≦Z≦9の範囲の領域である。
領域RH4の鉛直方向(Z方向)の範囲は、ベッドに対応する範囲の上方の境界に隣接する位置から所定の幅(3画素)の範囲である。領域RH4の水平方向(X方向)の範囲は、ベッドに対応する範囲と同じ範囲である。したがって、領域RH4は、11≦X≦15、7≦Z≦9の範囲の領域である。
領域RH5の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲である。領域RH5の鉛直方向の範囲は、最も低い位置(Z=15)から上方に向かって所定の幅(6画素)の範囲である。したがって、領域RH5は、0≦X≦10、10≦Z≦15の範囲の領域である。
領域RH6の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲である。領域RH6の鉛直方向の範囲は、所定の位置(Z=12)から上方に向かって所定の幅(3画素)の範囲である。したがって、領域RH6は、0≦X≦10、10≦Z≦12の範囲の領域である。
図7は、人体の姿勢の遷移モデルを表わす図である。図8は、遷移モデル情報を表わす図である。
監視対象者が、室内に不在(A)を初期状態とする。
姿勢(A)の次の姿勢は、室内に滞在(B)、または元の姿勢(A)のいずれかである。
姿勢(B)の次の姿勢は、ベッド横で立位(C)、転倒(X)、室内に不在(A)、または元の姿勢(B)のいずれかである。
姿勢(C)の次の姿勢は、ベッド上で臥位(D)、ベッド上で座位(E)、ベッド端で座位(F)、転倒(X)、室内に滞在(B)、または元の姿勢(C)のいずれかである。
姿勢(D)の次の姿勢は、ベッド上で座位(E)、ベッド端で座位(F)、ベッド横で立位(C)、ベッド上から転落(第1パターン)(Y1)、または元の姿勢(D)のいずれかである。
姿勢(E)の次の姿勢は、ベッド上で臥位(D)、ベッド端で座位(F)、ベッド横で立位(C)、ベッド上から転落(第1パターン)(Y1)、または元の姿勢(E)のいずれかである。
姿勢(F)の次の姿勢は、ベッド上で臥位(D)、ベッド上で座位(E)、ベッド横で立位(C)、ベッド上から転落(第2パターン)(Y2)、または元の姿勢(F)のいずれかである。
図9は、遷移モデルにおける各姿勢での第1の画像データの検査領域と第2の画像データの検査領域を表わす領域情報と、各姿勢に遷移したかを判定するための基準値を表わす基準値情報とを表わす図である。
室内に不在(A)へ遷移したかどうかを判定するためには、第1の画像データの領域RV1の統計量と、第2の画像データの領域RH1の統計量の和が算出される。この統計量の和が、基準値THA以上のときに、姿勢(A)に遷移したと判定される。
室内に滞在(B)へ遷移したかどうかを判定するためには、第1の画像データの領域RV1の統計量と、第2の画像データの領域RH1の統計量の和が算出される。この統計量の和が、基準値THB以上のときに、姿勢(B)に遷移したと判定される。
ベッド横で立位(C)へ遷移したかどうかを判定するためには、第1の画像データの領域RV2の統計量と、第2の画像データの領域RH2の統計量の和が算出される。この統計量の和が、基準値THC以上のときに、姿勢(C)に遷移したと判定される。
ベッド上で臥位(D)へ遷移したかどうかを判定するためには、第1の画像データの領域RV3の統計量と、第2の画像データの領域RH4の統計量の和が算出される。この統計量の和が、基準値THD以上のときに、姿勢(D)に遷移したと判定される。
ベッド上で座位(E)へ遷移したかどうかを判定するためには、第1の画像データの領域RV3の統計量と、第2の画像データの領域RH3の統計量の和が算出される。この統計量の和が、基準値THE以上のときに、姿勢(E)に遷移したと判定される。
ベッド端で座位(F)へ遷移したかどうかを判定するためには、第1の画像データの領域RV3の統計量と、第2の画像データの領域RH2の統計量の和が算出される。この統計量の和が、基準値THF以上のときに、姿勢(F)に遷移したと判定される。
転倒(X)へ遷移したかどうかを判定するためには、第1の画像データの領域RV4の統計量と、第2の画像データの領域RH5の統計量の和が算出される。この統計量の和が、基準値THX以上のときに、姿勢(X)に遷移したと判定される。
ベッドから転落(第1パターン)(Y1)へ遷移したかどうかを判定するためには、第1の画像データの領域RV2の統計量と、第2の画像データの領域RH6の統計量の和が算出される。この統計量の和が、基準値THY1以上のときに、姿勢(Y1)に遷移したと判定される。領域RH6を用いる理由は、側方画像センサ3が設置されている箇所と、監視対象者がベッドから転落する箇所との距離が短いため、第2の画像データでは、転落した監視対象者を撮像した部分が、最も低いライン(Y=15)よりも高い位置にくるからである。
ベッドから転落(第2パターン)(Y2)へ遷移したかどうかを判定するためには、第1の画像データの領域RV2の統計量と、第2の画像データの領域RH6の統計量の和が算出される。この統計量の和が、基準値THY2以上のときに、姿勢(Y2)に遷移したと判定される。領域RH6を用いる理由は、ベッドから転落(第1パターン)と同じである。
(姿勢Aからの遷移)
図10は、姿勢(A)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS100において、1時点前の姿勢が室内に不在(A)の場合には、処理がステップS101に進む。
ステップS101において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(A)からの遷移先の候補として姿勢(B)と姿勢(A)とを特定する。
ステップS102において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(B)に対する第1の画像データの検査領域としてRV1を特定する。統計量計算部10が、第1の画像データの領域RV1の画素の画素値の総和PVを計算する。
ステップS103において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(B)に対する第2の画像データの検査領域としてRH1を特定する。統計量計算部10が、第2の画像データの領域RH1の画素の画素値の総和PHを計算する。
ステップS104において、統計量計算部10が、PVとPHの和PBを計算する。
ステップS105において、判定部11が、PBの値と基準値THBの値を比較する。PBの値が基準値THB以上の場合には、処理がステップS106に進む。PBの値が基準値THB未満の場合には、処理がステップS107に進む。
ステップS106において、判定部11が、現時点の姿勢が、室内に滞在(B)と判定する。
ステップS107において、判定部11は、現時点の指定が、姿勢(B)ではなく、残りの候補である1時点前の姿勢(A)であると判定する。
(姿勢Bからの遷移)
図11は、姿勢(B)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS200において、1時点前の姿勢が室内に滞在(B)の場合には、処理がステップS201に進む。
ステップS201において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(B)からの遷移先の候補として姿勢(C)と、姿勢(X)と、姿勢(A)と、姿勢(B)とを特定する。
ステップS202において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS203において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS204において、統計量計算部10が、PVとPHの和PCを計算する。
ステップS205において、判定部11が、PCの値と基準値THCの値を比較する。PCの値が基準値THC以上の場合には、処理がステップS206に進む。PCの値が基準値THC未満の場合には、処理がステップS207に進む。
ステップS206において、判定部11が、現時点の姿勢が、ベッド横で立位(C)と判定する。
ステップS207において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(X)に対する第1の画像データの検査領域としてRV4を特定する。統計量計算部10が、第1の画像データの領域RV4の画素の画素値の総和PVを計算する。
ステップS208において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(X)に対する第2の画像データの検査領域としてRH5を特定する。統計量計算部10が、第2の画像データの領域RH5の画素の画素値の総和PHを計算する。
ステップS209において、統計量計算部10が、PVとPHの和PXを計算する。
ステップS210において、判定部11が、PXの値と基準値THXの値を比較する。PXの値が基準値THX以上の場合には、処理がステップS211に進む。PXの値が基準値THX未満の場合には、処理がステップS212に進む。
ステップS211において、判定部11が、現時点の姿勢が、転倒(X)と判定する。
ステップS212において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(A)に対する第1の画像データの検査領域としてRV1を特定する。統計量計算部10が、第1の画像データの領域RV1の画素の画素値の総和PVを計算する。
ステップS213において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(A)に対する第2の画像データの検査領域としてRH1を特定する。統計量計算部10が、第2の画像データの領域RH1の画素の画素値の総和PHを計算する。
ステップS214において、統計量計算部10が、PVとPHの和PAを計算する。
ステップS215において、判定部11が、PAの値と基準値THAの値を比較する。PAの値が基準値THA以上の場合には、処理がステップS216に進む。PAの値が基準値THA未満の場合には、処理がステップS217に進む。
ステップS216において、判定部11は、現時点の姿勢が、姿勢(C)、姿勢(X)および姿勢(A)ではなく、残りの候補である1時点前の姿勢(B)(室内に滞在)であると判定する。
ステップS217において、判定部11が、現時点の姿勢が、室内に不在(A)と判定する。
(姿勢Cからの遷移)
図12は、姿勢(C)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS300において、1時点前の姿勢がベッド横で立位(C)の場合には、処理がステップS301に進む。
ステップS301において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(C)からの遷移先の候補として姿勢(D)と、姿勢(E)と、姿勢(F)と、姿勢(X)と、姿勢(B)と、姿勢(C)を特定する。
ステップS302において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS303において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第2の画像データの検査領域としてRH4を特定する。統計量計算部10が、第2の画像データの領域RH4の画素の画素値の総和PHを計算する。
ステップS304において、統計量計算部10が、PVとPHの和PDを計算する。
ステップS305において、判定部11が、PDの値と基準値THDの値を比較する。PDの値が基準値THD以上の場合には、処理がステップS306に進む。PDの値が基準値THD未満の場合には、処理がステップS307に進む。
ステップS306において、判定部11が、現時点の姿勢が、ベッド上で臥位(D)と判定する。
ステップS307において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS308において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第2の画像データの検査領域としてRH3を特定する。統計量計算部10が、第2の画像データの領域RH3の画素の画素値の総和PHを計算する。
ステップS309において、統計量計算部10が、PVとPHの和PEを計算する。
ステップS310において、判定部11が、PEの値と基準値THEの値を比較する。PEの値が基準値THE以上の場合には、処理がステップS311に進む。PEの値が基準値THE未満の場合には、処理がステップS312に進む。
ステップS311において、判定部11が、現時点の姿勢が、ベッド上で座位(E)と判定する。
ステップS312において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS313において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS314において、統計量計算部10が、PVとPHの和PFを計算する。
ステップS315において、判定部11が、PFの値と基準値THFの値を比較する。PFの値が基準値THF以上の場合には、処理がステップS316に進む。PFの値が基準値THF未満の場合には、処理がステップS317に進む。
ステップS316において、判定部11が、現時点の姿勢が、ベッド端で座位(F)と判定する。
ステップS317において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(X)に対する第1の画像データの検査領域としてRV4を特定する。統計量計算部10が、第1の画像データの領域RV4の画素の画素値の総和PVを計算する。
ステップS318において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(X)に対する第2の画像データの検査領域としてRH5を特定する。統計量計算部10が、第2の画像データの領域RH5の画素の画素値の総和PHを計算する。
ステップS319において、統計量計算部10が、PVとPHの和PXを計算する。
ステップS320において、判定部11が、PXの値と基準値THXの値を比較する。PXの値が基準値THX以上の場合には、処理がステップS321に進む。PXの値が基準値THX未満の場合には、処理がステップS322に進む。
ステップS321において、判定部11が、現時点の姿勢が、転倒(X)と判定する。
ステップS322において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(B)に対する第1の画像データの検査領域としてRV1を特定する。統計量計算部10が、第1の画像データの領域RV1の画素の画素値の総和PVを計算する。
ステップS323において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(X)に対する第2の画像データの検査領域としてRH1を特定する。統計量計算部10が、第2の画像データの領域RH1の画素の画素値の総和PHを計算する。
ステップS324において、統計量計算部10が、PVとPHの和PCを計算する。
ステップS325において、判定部11が、PCの値と基準値THCの値を比較する。PCの値が基準値THC未満の場合には、処理がステップS326に進む。PCの値が基準値THC以上の場合には、処理がステップS327に進む。
ステップS326において、判定部11が、現時点の姿勢が、室内に滞在(B)と判定する。
ステップS327において、判定部11は、現時点の姿勢が、姿勢(D)、姿勢(E)、姿勢(F)、姿勢(X)および姿勢(B)ではなく、残りの候補である1時点前の姿勢(C)(ベッド横で立位)であると判定する。
(姿勢Dからの遷移)
図13は、姿勢(D)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS400において、1時点前の姿勢がベッド上で臥位(D)の場合には、処理がステップS401に進む。
ステップS401において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(D)からの遷移先の候補として姿勢(E)と、姿勢(F)と、姿勢(C)と、姿勢(Y1)と、姿勢(D)を特定する。
ステップS402において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS403において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第2の画像データの検査領域としてRH3を特定する。統計量計算部10が、第2の画像データの領域RH3の画素の画素値の総和PHを計算する。
ステップS404において、統計量計算部10が、PVとPHの和PEを計算する。
ステップS405において、判定部11が、PEの値と基準値THEの値を比較する。PEの値が基準値THE以上の場合には、処理がステップS406に進む。PEの値が基準値THE未満の場合には、処理がステップS407に進む。
ステップS406において、判定部11が、現時点の姿勢が、ベッド上で座位(E)と判定する。
ステップS407において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS408において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS409において、統計量計算部10が、PVとPHの和PFを計算する。
ステップS410において、判定部11が、PFの値と基準値THFの値を比較する。PFの値が基準値THF以上の場合には、処理がステップS411に進む。PFの値が基準値THF未満の場合には、処理がステップS412に進む。
ステップS411において、判定部11が、現時点の姿勢が、ベッド端で座位(F)と判定する。
ステップS412において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS413において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS414において、統計量計算部10が、PVとPHの和PCを計算する。
ステップS415において、判定部11が、PCの値と基準値THCの値を比較する。PCの値が基準値THC以上の場合には、処理がステップS416に進む。PCの値が基準値THC未満の場合には、処理がステップS417に進む。
ステップS416において、判定部11が、現時点の姿勢が、ベッド横で立位(C)と判定する。
ステップS417において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y1)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS418において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y1)に対する第2の画像データの検査領域としてRH6を特定する。統計量計算部10が、第2の画像データの領域RH6の画素の画素値の総和PHを計算する。
ステップS419において、統計量計算部10が、PVとPHの和PY1を計算する。
ステップS420において、判定部11が、PY1の値と基準値THY1の値を比較する。PY1の値が基準値THY1以上の場合には、処理がステップS421に進む。PY1の値が基準値THY1未満の場合には、処理がステップS422に進む。
ステップS421において、判定部11が、現時点の姿勢が、ベッドから転落(第1パターン)(Y1)と判定する。
ステップS422において、判定部11は、現時点の姿勢が、姿勢(E)、姿勢(F)、姿勢(C)、および姿勢(Y1)ではなく、残りの候補である1時点前の姿勢(D)であると判定する。
(姿勢Eからの遷移)
図14は、姿勢(E)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS500において、1時点前の姿勢がベッド上で座位(E)の場合には、処理がステップS501に進む。
ステップS501において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(E)からの遷移先の候補として姿勢(D)と、姿勢(F)と、姿勢(C)と、姿勢(Y1)と、姿勢(E)を特定する。
ステップS502において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS503において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第2の画像データの検査領域としてRH4を特定する。統計量計算部10が、第2の画像データの領域RH4の画素の画素値の総和PHを計算する。
ステップS504において、統計量計算部10が、PVとPHの和PDを計算する。
ステップS505において、判定部11が、PDの値と基準値THDの値を比較する。PDの値が基準値THD以上の場合には、処理がステップS506に進む。PDの値が基準値THD未満の場合には、処理がステップS507に進む。
ステップS506において、判定部11が、現時点の姿勢が、ベッド上で臥位(D)と判定する。
ステップS507において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS508において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(F)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS509において、統計量計算部10が、PVとPHの和PFを計算する。
ステップS510において、判定部11が、PFの値と基準値THFの値を比較する。PFの値が基準値THF以上の場合には、処理がステップS511に進む。PFの値が基準値THF未満の場合には、処理がステップS512に進む。
ステップS511において、判定部11が、現時点の姿勢が、ベッド端で座位(F)と判定する。
ステップS512において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS513において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS514において、統計量計算部10が、PVとPHの和PCを計算する。
ステップS515において、判定部11が、PCの値と基準値THCの値を比較する。PCの値が基準値THC以上の場合には、処理がステップS516に進む。PCの値が基準値THC未満の場合には、処理がステップS517に進む。
ステップS516において、判定部11が、現時点の姿勢が、ベッド横で立位(C)と判定する。
ステップS517において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y1)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS518において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y1)に対する第2の画像データの検査領域としてRH6を特定する。統計量計算部10が、第2の画像データの領域RH6の画素の画素値の総和PHを計算する。
ステップS519において、統計量計算部10が、PVとPHの和PY1を計算する。
ステップS520において、判定部11が、PY1の値と基準値THY1の値を比較する。PY1の値が基準値THY1以上の場合には、処理がステップS521に進む。PY1の値が基準値THY1未満の場合には、処理がステップS522に進む。
ステップS521において、判定部11が、現時点の姿勢が、ベッドから転落(第1パターン)(Y1)と判定する。
ステップS522において、判定部11は、現時点の姿勢が、姿勢(D)、姿勢(F)、姿勢(C)、および姿勢(Y1)ではなく、残りの候補である1時点前の姿勢(E)であると判定する。
(姿勢Fからの遷移)
図15は、姿勢(F)からの遷移先を判定するための手順を表わすフローチャートである。
ステップS600において、1時点前の姿勢がベッド端で座位(F)の場合には、処理がステップS601に進む。
ステップS601において、候補特定部8が、図8に示すシーケンス情報を参照することによって、姿勢(F)からの遷移先の候補として姿勢(D)と、姿勢(E)と、姿勢(C)と、姿勢(Y2)と、姿勢(F)を特定する。
ステップS602において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS603において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(D)に対する第2の画像データの検査領域としてRH4を特定する。統計量計算部10が、第2の画像データの領域RH4の画素の画素値の総和PHを計算する。
ステップS604において、統計量計算部10が、PVとPHの和PDを計算する。
ステップS605において、判定部11が、PDの値と基準値THDの値を比較する。PDの値が基準値THD以上の場合には、処理がステップS606に進む。PDの値が基準値THD未満の場合には、処理がステップS607に進む。
ステップS606において、判定部11が、現時点の姿勢が、ベッド上で臥位(D)と判定する。
ステップS607において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第1の画像データの検査領域としてRV3を特定する。統計量計算部10が、第1の画像データの領域RV3の画素の画素値の総和PVを計算する。
ステップS608において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(E)に対する第2の画像データの検査領域としてRH3を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS609において、統計量計算部10が、PVとPHの和PEを計算する。
ステップS610において、判定部11が、PEの値と基準値THEの値を比較する。PEの値が基準値THE以上の場合には、処理がステップS611に進む。PEの値が基準値THE未満の場合には、処理がステップS612に進む。
ステップS611において、判定部11が、現時点の姿勢が、ベッド上で座位(E)と判定する。
ステップS612において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS613において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(C)に対する第2の画像データの検査領域としてRH2を特定する。統計量計算部10が、第2の画像データの領域RH2の画素の画素値の総和PHを計算する。
ステップS614において、統計量計算部10が、PVとPHの和PCを計算する。
ステップS615において、判定部11が、PCの値と基準値THCの値を比較する。PCの値が基準値THC以上の場合には、処理がステップS616に進む。PCの値が基準値THC未満の場合には、処理がステップS617に進む。
ステップS616において、判定部11が、現時点の姿勢が、ベッド横で立位(C)と判定する。
ステップS617において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y2)に対する第1の画像データの検査領域としてRV2を特定する。統計量計算部10が、第1の画像データの領域RV2の画素の画素値の総和PVを計算する。
ステップS618において、検査領域特定部9が、図9に示す検査情報を参照して、姿勢(Y2)に対する第2の画像データの検査領域としてRH6を特定する。統計量計算部10が、第2の画像データの領域RH6の画素の画素値の総和PHを計算する。
ステップS619において、統計量計算部10が、PVとPHの和PY2を計算する。
ステップS620において、判定部11が、PY2の値と基準値THY2の値を比較する。PY2の値が基準値THY2以上の場合には、処理がステップS621に進む。PY2の値が基準値THY2未満の場合には、処理がステップS622に進む。
ステップS621において、判定部11が、現時点の姿勢が、ベッドから転落(第2パターン)(Y2)と判定する。
ステップS622において、判定部11は、現時点の姿勢が、姿勢(D)、姿勢(E)、姿勢(C)、および姿勢(Y2)ではなく、残りの候補である1時点前の姿勢(F)であると判定する。
以上のように、本実施の形態によれば、検査領域の画素値の和を求めるだけの処理で人体の存在を検知するので、特許文献1に記載のように人体の領域を特定する画像処理が不要となる。その結果、本実施の形態では、計算処理量が少なく、リアルタイムで人体の姿勢を推定することができる。また、本実施の形態によれば、姿勢の遷移モデルを用いることによって、特許文献1の記載のようなベッドからの起床だけでなく、より多くの姿勢を推定することができる。
(変形例)
本発明は、上記の実施形態に限定されるものではなく、たとえば以下のような変形例も含む。
(1)統計量
本発明の実施形態では、統計量として、検査領域の画素値の総和を用いたが、これに限定するものではない。たとえば、検査領域の画素値の平均、分散を統計量として用いることとしてもよい。
あるいは、標準の画像データの画素値または1つ前のフレームの画像データの画素値と現時点の画像データの画素値とを減算し、減算した値の総和、平均値、または分散を統計量として用いることとしてもよい。これによって、姿勢が変化した直後の統計量が大きくなり、姿勢が変化した直後のタイミングを検出することもできる。
また、所定の画素値以上の画素(つまり、撮像対象が所定の温度以上)の総和を統計量として用いることとしてもよい。この場合、画素値の所定のビット以上のビット値の加算となるので、計算量をさらに低減することができる。
また、検査領域内のすべての画素の値から統計量を計算するのではなく、検査領域からランダムにサンプリングした画素の値から統計量を計算することによって、計算量を削減することとしてもよい。
(2)判定部
本発明の実施形態では、現時点の姿勢の候補について、第1の画像データの検査領域の統計量と、第2の画像データの検査領域の統計量との和を計算して、その和が基準値以上のときに、その候補を現時点の姿勢として推定したが、これに限定するものではない。
たとえば、第1の画像データの検査領域の統計量が第1の基準値以上で、かつ第2の画像データの検査領域の統計量が第2の基準値以上の場合に、その候補を現時点の姿勢として推定するものとしてもよい。
(3)画像センサの個数
本発明の実施形態では、2台の画像センサを用いて人体の姿勢を推定したが、1台の画像センサを用いて人体の姿勢を推定することもできる。
たとえば、上方画像センサから得られる画像データのみを用いて、ベッドからの転落を推定するものとしてもよい。あるいは、側方画像センサから得られる画像データのみを用いて、ベッド上での姿勢変化を推定するものとしてもよい。
(4)画像センサ
本発明の実施形態では、上方画像センサおよび側方画像センサは、赤外線アレイセンサで構成されるのとして説明したが、可視カメラなどのその他のセンサで構成されるものであってもよい。
(5)姿勢
本発明の実施形態では、ベッドに対しての人体の姿勢を推定したが、これに限定するものではない。たとえば、椅子または車椅子に対しての人体の姿勢を推定することとしてもよい。
(6)判定方法
本発明の実施形態では、現時点の複数の姿勢の候補から1つずつ順番に選択し、選択した候補について、統計量が基準値以上となったときに、選択した候補を現時点の姿勢として推定したが、これに限定するものではない。
たとえば、現時点の複数の姿勢の候補すべてについて統計量を算出し、算出された複数の統計量の中から予め定めた基準に従って最適な統計量を決定し、最適な統計量の候補を現時点の姿勢として推定するものとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 姿勢推定システム、2 上方画像センサ、3 側方画像センサ、4 姿勢推定装置、5 姿勢推定部、6 記憶部、7 表示部、8 候補特定部、9 検査領域特定部、10 統計量計算部、11 判定部、12 遷移モデル情報記憶部、13 検査情報記憶部。

Claims (14)

  1. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド横で立位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である姿勢推定装置。
  2. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、転倒の場合に、
    前記第1の画像データの検査領域は、全領域からベッドに対応する領域を除いた領域であり、
    前記第2の画像データの検査領域の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲であり、鉛直方向の範囲は、最も低い位置から上方に向かって所定の幅の範囲である姿勢推定装置。
  3. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド上で臥位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、前記ベッドに対応する範囲の上方の境界に隣接する位置から所定の第1の幅の範囲であり、水平方向の範囲は、前記ベッドに対応する範囲と同じ範囲である姿勢推定装置。
  4. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド上で座位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、前記ベッドに対応する範囲の上方の境界に隣接する位置から所定の第2の幅の範囲であり、水平方向の範囲は、前記ベッドに対応する範囲と同じ範囲である姿勢推定装置。
  5. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド端で座位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である姿勢推定装置。
  6. 室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッドから転落の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の水平方向の範囲は、全範囲からベッドに対応する範囲を除く範囲であり、鉛直方向の範囲は、所定の位置から上方に向かって所定の幅の範囲である姿勢推定装置。
  7. 前記推定部は、
    前記遷移モデルを表わす情報を参照して、1時点前の前記人体の姿勢から遷移可能な姿勢の候補を特定する候補特定部と、
    前記特定した姿勢の候補について、前記検査情報を参照して、前記画像データの検査領域を特定する検査領域特定部と、
    前記特定された前記画像データの検査領域の画素値の統計量を算出する統計量算計算部と、
    前記算出された統計量に基づいて、前記特定された姿勢の候補が現時点の姿勢として推定するかどうかを判定する判定部とを含む、請求項1〜6のいずれか1項に記載の姿勢推定装置。
  8. 前記統計量は、前記検査領域の画素の値の合計値または平均値である、請求項記載の姿勢推定装置。
  9. 前記判定部は、前記算出された統計量が、前記特定された姿勢の候補に応じて定まる基準値以上の場合に、前記特定された姿勢の候補を現時点の姿勢として推定する、請求項記載の姿勢推定装置。
  10. 前記画像センサは、赤外線アレイセンサである、請求項1〜6のいずれか1項に記載の姿勢推定装置。
  11. 室内に設けられた画像センサと、
    前記画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部とを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており、
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド横で立位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である、姿勢推定システム。
  12. 室内の上方に設けられた第1の画像センサが、前記室内を撮像することによって第1の画像データを生成し、前記室内の側方に設けられた第2の画像センサが、前記室内を撮像することによって第2の画像データを生成するステップと、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報とを参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定するステップとを備え、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており
    前記姿勢の候補が、ベッド横で立位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である、姿勢推定方法。
  13. コンピュータを、
    室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部として機能させるためのものであって、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド横で立位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である、姿勢推定プログラム。
  14. コンピュータを、
    室内に設けられた画像センサからの画像データを取得する取得部と、
    人体の姿勢の遷移モデルを表わす情報と、前記遷移モデルにおける各姿勢での前記画像データの検査領域を表わす検査情報を記憶する記憶部と、
    前記遷移モデルを表わす情報および前記検査情報を参照して、前記画像データの検査領域の画素値の統計量を算出し、前記統計量に基づいて1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定する推定部として機能させるためのものであって、
    前記遷移モデルに含まれる人体の姿勢の数は、3個以上であり、
    前記遷移モデルにおいて、1時点前の前記人体の姿勢から遷移可能な姿勢の候補の数は、前記1時点前の姿勢と同じ姿勢を除いて2個以上であり、
    前記遷移可能な姿勢の候補ごとに前記検査領域が設定されており
    前記取得部は、室内の上方に設けられた第1の画像センサからの第1の画像データと、前記室内の側方に設けられた第2の画像センサからの第2の画像データを取得し、
    前記記憶部は、前記遷移モデルにおける各姿勢での前記第1の画像データの検査領域および前記第2の画像データの検査領域を表わす検査情報を記憶し、
    前記推定部は、前記遷移モデルを表わす情報および前記検査情報を参照して、前記第1の画像データおよび前記第2の画像データの検査領域の画素値の統計量を算出し、前記算出した統計量を用いて、1時点前の前記人体の姿勢から現時点の前記人体の姿勢を推定し、
    前記姿勢の候補が、ベッド横で立位の場合に、
    前記第1の画像データの検査領域は、ベッドに対応する領域の長手方向の境界に隣接する位置から所定の幅の領域であり、
    前記第2の画像データの検査領域の鉛直方向の範囲は、全範囲であり、水平方向の範囲は、前記ベッドに対応する範囲に隣接する位置から所定の幅の範囲である、姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2015096261A 2014-05-13 2015-05-11 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体 Active JP6731600B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015096261A JP6731600B2 (ja) 2014-05-13 2015-05-11 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014099347 2014-05-13
JP2014099347 2014-05-13
JP2015096261A JP6731600B2 (ja) 2014-05-13 2015-05-11 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2015231517A JP2015231517A (ja) 2015-12-24
JP6731600B2 true JP6731600B2 (ja) 2020-07-29

Family

ID=54479772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096261A Active JP6731600B2 (ja) 2014-05-13 2015-05-11 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (1) US10198813B2 (ja)
EP (1) EP3143931B1 (ja)
JP (1) JP6731600B2 (ja)
CN (1) CN106413545B (ja)
WO (1) WO2015174228A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11864926B2 (en) 2015-08-28 2024-01-09 Foresite Healthcare, Llc Systems and methods for detecting attempted bed exit
US10206630B2 (en) 2015-08-28 2019-02-19 Foresite Healthcare, Llc Systems for automatic assessment of fall risk
JP6520831B2 (ja) * 2016-06-07 2019-05-29 オムロン株式会社 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体
CA3030850C (en) * 2016-06-28 2023-12-05 Foresite Healthcare, Llc Systems and methods for use in detecting falls utilizing thermal sensing
JP6717235B2 (ja) 2017-03-02 2020-07-01 オムロン株式会社 見守り支援システム及びその制御方法
JP6406371B2 (ja) * 2017-03-02 2018-10-17 オムロン株式会社 見守り支援システム及びその制御方法
US10553099B2 (en) * 2017-08-07 2020-02-04 Ricoh Company, Ltd. Information providing apparatus and information providing system
CN111522429A (zh) * 2019-02-01 2020-08-11 北京市商汤科技开发有限公司 基于人体姿态的交互方法及装置、计算机设备
CN110638461A (zh) * 2019-09-17 2020-01-03 山东省肿瘤防治研究院(山东省肿瘤医院) 一种在电动病床上人体姿态识别方法及系统
CN111428564A (zh) * 2020-02-25 2020-07-17 浙江口碑网络技术有限公司 呼叫提示信息的获取方法及装置、存储介质、终端
CN113128336A (zh) * 2021-03-10 2021-07-16 恒鸿达科技有限公司 一种引体向上测试计数方法、装置、设备和介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792369B2 (ja) * 1993-01-14 1995-10-09 株式会社エイ・ティ・アール通信システム研究所 画像計測装置
JP2005128967A (ja) * 2003-10-27 2005-05-19 Sozo Gijutsu Kenkyusho:Kk 医療用動き検出装置、医療用動き検出方法、医療用動き検出プログラム並びにコンピュータで読取可能な記録媒体
JP2006175082A (ja) * 2004-12-24 2006-07-06 Hitachi Engineering & Services Co Ltd 起床監視方法および装置
CN1939215B (zh) 2005-09-27 2010-08-04 刘星 一种人体标示图像监测系统及应用系统
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
JP4579865B2 (ja) 2006-06-05 2010-11-10 日本電信電話株式会社 起き上がり検知装置
JP4579870B2 (ja) * 2006-06-13 2010-11-10 日本電信電話株式会社 起き上がり予兆検知装置
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification
US20090044334A1 (en) 2007-08-13 2009-02-19 Valence Broadband, Inc. Automatically adjusting patient platform support height in response to patient related events
JP4254892B1 (ja) * 2007-11-01 2009-04-15 オムロン株式会社 特徴量候補作成装置および特徴量候補作成方法
SG178270A1 (en) 2009-08-05 2012-03-29 Agency Science Tech & Res Condition detection methods and condition detection devices
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
JP5682203B2 (ja) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 安全看護システム、および、安全看護システムの制御方法
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP5813413B2 (ja) * 2011-08-22 2015-11-17 株式会社日立ハイテクノロジーズ シュリンク前形状推定方法およびcd−sem装置
NL2008359C2 (en) * 2012-02-27 2013-08-28 Nightbalance B V Sleep posture alerting apparatus and method.
JP6018803B2 (ja) * 2012-05-31 2016-11-02 株式会社日立ハイテクノロジーズ 計測方法、画像処理装置、及び荷電粒子線装置
WO2014012070A1 (en) 2012-07-12 2014-01-16 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
TWI469098B (zh) * 2013-01-25 2015-01-11 Hon Hai Prec Ind Co Ltd 安全監控系統及安全監控方法
JP6189170B2 (ja) 2013-10-16 2017-08-30 セコム株式会社 姿勢推定装置
EP3200155B1 (en) * 2014-05-14 2019-07-31 Sync-RX, Ltd. Object identification
US9799376B2 (en) * 2014-09-17 2017-10-24 Xiaomi Inc. Method and device for video browsing based on keyframe

Also Published As

Publication number Publication date
JP2015231517A (ja) 2015-12-24
EP3143931A4 (en) 2018-02-07
CN106413545B (zh) 2019-07-05
WO2015174228A1 (ja) 2015-11-19
EP3143931A1 (en) 2017-03-22
EP3143931B1 (en) 2020-12-09
US10198813B2 (en) 2019-02-05
CN106413545A (zh) 2017-02-15
US20170053401A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
JP6731600B2 (ja) 姿勢推定装置、姿勢推定システム、姿勢推定方法、姿勢推定プログラム、および姿勢推定プログラムを記録したコンピュータ読み取り可能な記録媒体
CN105283129B (zh) 信息处理装置、信息处理方法
KR101999934B1 (ko) 표시 제어 장치, 표시 제어 시스템, 표시 제어 방법, 표시 제어 프로그램, 기록 매체
US20230162397A1 (en) Temperature correction method, device and system
JP6504156B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6189170B2 (ja) 姿勢推定装置
JP2007304801A (ja) 立体性認証方法、立体性認証装置および立体性認証プログラム
JP5300694B2 (ja) 検出装置
JP6780641B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6417670B2 (ja) 監視装置、監視システム、監視方法、監視プログラム、および監視プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012057974A (ja) 撮影対象サイズ推定装置及び撮影対象サイズ推定方法並びにそのプログラム
JP6104066B2 (ja) 画像処理装置および画像処理方法
JP6452738B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4134147B2 (ja) 動作指示装置
JP5870230B1 (ja) 見守り装置、見守り方法および見守りプログラム
WO2021033453A1 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2022095994A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP2009245200A (ja) 煙検出装置
JP2010136113A (ja) 撮像パラメータ調整装置、撮像パラメータ調整方法とそのプログラム及び記録媒体
JP2021033379A (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7316712B1 (ja) 異常行動検出システム
US20230351637A1 (en) Excrement determination method, excrement determination device, and non-transitory computer readable recording medium
WO2019163561A1 (ja) 情報処理装置
JP2024011335A (ja) データ処理装置、介護支援システム、及び、データ処理方法
JP2022126069A (ja) 画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6731600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250