JP2020123239A - 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法 - Google Patents

姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法 Download PDF

Info

Publication number
JP2020123239A
JP2020123239A JP2019015905A JP2019015905A JP2020123239A JP 2020123239 A JP2020123239 A JP 2020123239A JP 2019015905 A JP2019015905 A JP 2019015905A JP 2019015905 A JP2019015905 A JP 2019015905A JP 2020123239 A JP2020123239 A JP 2020123239A
Authority
JP
Japan
Prior art keywords
target
posture
unit
feature amount
model parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019015905A
Other languages
English (en)
Other versions
JP7196645B2 (ja
Inventor
池田 直樹
Naoki Ikeda
直樹 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019015905A priority Critical patent/JP7196645B2/ja
Priority to EP20153099.5A priority patent/EP3689236A1/en
Priority to US16/750,471 priority patent/US11298050B2/en
Priority to CN202010078489.XA priority patent/CN111507176B/zh
Publication of JP2020123239A publication Critical patent/JP2020123239A/ja
Application granted granted Critical
Publication of JP7196645B2 publication Critical patent/JP7196645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象を俯瞰する位置から撮影された撮影画像に基づく、対象の姿勢の検出精度を向上できる姿勢推定装置を提供する。【解決手段】対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された対象の特徴を示す検出情報を取得する取得部と、検出情報に基づいて、特徴量を算出する特徴量算出部と、時系列の特徴量から、機械学習により、対象の姿勢を推定するためのモデルパラメーターを、撮影部と対象との幾何関係に基づいて切り替える切替部と、切り替え後のモデルパラメーターを用いて対象の姿勢を推定する推定部と、を有する。【選択図】図12

Description

本発明は、姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法に関する。
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護等の対応を必要とする要介護者等の増加が想定される。
要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をするおそれがある。そのため、要介護者等がこのような状態になったときに介護士や看護師等のスタッフがすぐに駆けつけられるようにするために、要介護者等の居室の天井等に備えられたカメラによる撮影画像から要介護者等の姿勢や行動を検出するための技術の開発が進められている。
このような技術に関連し、撮影画像から対象の動作等を判定する技術として下記特許文献に開示されたものがある。すなわち、撮像装置から出力された画像の複数のフレームから当該画像に映っている状況を、当該画像に対する認識処理により認識することで、所定のイベントを検出する。そして、当該複数のフレームから所定のイベントに関連する種別のオブジェクトを検出し、オブジェクトの検出位置に基づいてオブジェクト同士が現実空間中で接触しているか否かを判断する。これにより、映像中で起こったイベントを詳細に解釈できる。
特願2013−232181号公報
しかし、対象を俯瞰する位置から撮影された撮影画像は、撮影画像を撮影したカメラの特性等により、カメラと対象との位置関係等によって、撮影画像から取得できる情報が変化する。これにより、撮影画像から認識される対象の姿勢の精度が低下し得る。上記先行技術は、このような問題に対応できない。
本発明は、上述の問題を解決するためになされたものである。すなわち、対象を俯瞰する位置から撮影された撮影画像に基づく、対象の姿勢の検出精度を向上できる姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する取得部と、前記取得部により取得された前記検出情報に基づいて、所定の特徴量を算出する特徴量算出部と、前記特徴算出部により算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える切替部と、前記切替部による切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する姿勢推定部と、を有する姿勢推定装置。
(2)前記姿勢推定部は、隠れマルコフモデルにより前記対象の姿勢を推定し、前記切替部は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、上記(1)に記載の姿勢推定装置。
(3)前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、前記撮影部と前記対象との前記幾何関係に対応する指標を算出する指標算出部をさらに有し、前記切替部は、前記指標算出部により算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、上記(1)または(2)に記載の姿勢推定装置。
(4)前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、上記(1)〜(3)のいずれかに記載の姿勢推定装置。
(5)上記(1)〜(4)のいずれかに記載の姿勢推定装置と、前記姿勢推定部により推定された前記対象の姿勢に基づいて前記対象の行動を推定する行動推定部と、を有する行動推定装置。
(6)対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する手順(a)と、前記手順(a)において取得された前記検出情報に基づいて、所定の特徴量を算出する手順(b)と、前記手順(b)において算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える手順(c)と、前記手順(c)における切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する手順(d)と、を有する処理を、コンピューターに実行させるための姿勢推定プログラム。
(7)前記手順(d)は、隠れマルコフモデルにより前記対象の姿勢を推定し、前記手順(c)は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、上記(6)に記載の姿勢推定プログラム。
(8)前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、前記処理は、前記撮影部と前記対象との前記幾何関係に対応する指標を算出する手順(e)をさらに有し、手順(c)は、前記手順(e)において算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、上記(6)または(7)に記載の姿勢推定プログラム。
(9)前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、上記(6)〜(8)のいずれかに記載の姿勢推定プログラム。
(10)対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する段階(a)と、前記段階(a)において取得された前記検出情報に基づいて、所定の特徴量を算出する段階(b)と、前記段階(b)において算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える段階(c)と、前記段階(c)における切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する段階(d)と、を有する姿勢推定方法。
(11)前記段階(d)は、隠れマルコフモデルにより前記対象の姿勢を推定し、前記段階(c)は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、上記(10)に記載の姿勢推定方法。
(12)前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、前記撮影部と前記対象との前記幾何関係に対応する指標を算出する段階(e)をさらに有し、段階(c)は、前記段階(e)において算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、上記(10)または(11)に記載の姿勢推定方法。
(13)前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、上記(10)〜(12)のいずれかに記載の姿勢推定方法。
対象を俯瞰する位置から撮影部により撮影された撮影画像から検出された、対象の特徴を示す所定の検出情報から対象の特徴量を算出する。そして、時系列の特徴量から、機械学習により、対象の姿勢を推定するためのモデルパラメーターを、撮影部と対象との幾何関係に基づいて切り替える。これにより、対象を俯瞰する位置から撮影された撮影画像に基づく、対象の姿勢等の検出精度を向上できる。
姿勢推定システムの概略構成を示す図である。 検出部のハードウェア構成を示すブロック図である。 カメラと対象者との位置関係を示す説明図である。 撮影画像を示す説明図である。 カメラに対する対象者の向きおよび姿勢により対象者の映り方が変化することを示すための説明図である。 機械学習による姿勢推定のための学習時の制御部の機能を示す機能ブロック図である。 人矩形を示す模式図である。 人矩形、頭部矩形、および関節点を示す模式図である。 距離区分を説明するための説明図である。 隠れマルコフモデルを用いた、距離区分ごとの学習について説明するための説明図である。 特徴量である、上半身と下半身の重心距離の、対象者までの距離に対する分布を示すグラフである。 機械学習による姿勢の推定時の制御部の機能を示す機能ブロック図である。 検出部の動作を示すフローチャートである。
以下、図面を参照して、本発明の実施形態に係る姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
図1は、姿勢推定システム10の概略構成を示す図である。
姿勢推定システム10は、検出部100、通信ネットワーク200、および携帯端末300を含む。検出部100は姿勢推定装置および行動推定装置を構成し、通信ネットワーク200によりアクセスポイント210を介して携帯端末300と相互に通信可能に接続される。検出部100は、1つの一体化された装置でも、分離配置される複数の装置でもあり得る。なお、通信ネットワーク200を介して検出部100および携帯端末300と相互に通信可能なサーバー(図示せず)を設け、検出部100の機能の一部を当該サーバーが実施するようにしてもよい。
検出部100は、対象者500(対象)の居室の天井等に配設される。対象者500は、例えば、スタッフ等により介護または看護を必要とする者である。検出部100は、所定の観察領域を撮影することで、画像(以下、単に「撮影画像505」(図4等参照)とも称する)を取得し、撮影画像505に含まれる対象者500を人として検出する。検出部100は、撮影画像505上で物体(オブジェクト)が存在する領域を検出し、検出した領域に含まれる物体のカテゴリーを推定することで、対象者500を検出する。物体が存在する領域は、撮影画像505上で物体が含まれる候補矩形として検出される。検出された候補矩形のうち、物体のカテゴリーが人であると推定された候補矩形を、人矩形510(図7参照)として検出することで、対象者500を検出する。検出部100は、人矩形510に基づいて、頭部矩形520(図8参照)および関節点530(図8参照)をさらに検出(推定)する。詳細は後述するが、さらに、検出部100は、人矩形510、頭部矩形520、および関節点530に基づいて、対象者500の特徴量を算出する。対象者500の特徴を示し、かつ特徴量の算出の基礎となる、人矩形510、頭部矩形520、および関節点530を、以下では「検出情報」とも称する。検出部100は、時系列の特徴量から、機械学習により、対象者500の姿勢を推定するためのモデルパラメーターを、検出部100(より具体的には、カメラ)と対象者500との幾何関係に基づいて切り替え、切り替え後のモデルパラメーターを用いて対象者500の姿勢を推定する。そして、検出部100は、推定した、姿勢に基づいて、対象者500の行動を推定する。以下、例として、検出部100は、隠れマルコフモデルを用いた機械学習により対象者500の姿勢を推定するものとして説明する。検出部100と対象者500との幾何関係には、カメラに対する対象者500の位置、向き、および姿勢の少なくともいずれかが含まれる。以下、説明を簡単にするために、検出部100と対象者500との幾何関係は、カメラに対する対象者500の位置であるものとして説明する。
検出部100は、推定した姿勢および/または行動から、対象者500に関するイベントを検出し得る。イベントとは、対象者500に関する状態や状況の変化であって、例えば、起床、離床、転倒、転落、および微体動異常等のスタッフに発報(報知)を行うべき事象である。検出部100は、イベントを検出した場合は、イベントの内容を通知するイベント通知を携帯端末300へ送信する。
携帯端末300は、対象者500に対して介護および看護を含むケアを行うスタッフ等に携帯される。携帯端末300は、検出部100からイベント通知を受信し、イベント通知の内容を表示することで、イベントの発生およびその内容をスタッフ等に報知する。
図2は、検出部100のハードウェア構成を示すブロック図である。図2に示すように、検出部100は、制御部110、通信部120、カメラ130、および体動センサー140を備え、これらはバスによって、相互に接続されている。
制御部110は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリにより構成され、プログラムに従って検出部100の各部の制御および演算処理を行う。制御部110の機能の詳細については後述する。
通信部120は、通信ネットワーク200を介して、携帯端末300等と通信するためのインターフェース回路(例えばLANカード等)である。
カメラ130は、例えば、対象者500の居室の天井、または壁の上部に配置され、所定の観察領域として対象者500の居室のできるだけ広い範囲を、対象者500を俯瞰可能な位置から撮影し、撮影画像505(画像データ)を出力する。撮影画像505には対象者500を含む画像が含まれる。撮影画像505には、静止画および動画が含まれる。カメラ130は、広角カメラであり得る。広角カメラは、比較的広い画角の撮影画像505を撮影できるカメラであり、撮影画像505上の位置に対応して歪みの大きさが変化するカメラである。広角カメラには、例えば、魚眼レンズカメラが含まれる。カメラ130は、比較的広い範囲を撮影範囲とするために、カメラの設置高さ等を調整することで、画角を広くした広域撮影用カメラであってもよい。広域撮影用カメラは、カメラから撮影方向の物体までの距離に対応して、撮影画像505上の物体の大きさと、当該物体の実際の大きさとの比が変化した撮影画像505が撮影されるカメラである。広域撮影用カメラとして、撮影画像505上の位置に対応して歪みの大きさを変化させていない一般的なカメラを利用できる。カメラ130は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。
図3は、カメラ130と対象者500との位置関係を示す説明図である。図4は、撮影画像505を示す説明図である。図5は、カメラに対する対象者500の向きおよび姿勢により対象者500の映り方が変化することを示すための説明図である。図4、5においては、広角カメラによる撮影画像505が示されている。以下の説明においては、例として、撮影画像505は広角カメラにより撮影された画像であるものとして説明する。
図3において、カメラ130の直下であるAの位置にいる対象者500は、図4の撮影画像505の位置aおいて撮影されている。Aの位置にいる対象者500は、撮影画像505において、カメラ130に近いため、頭部と肩部が比較的大きく映り、腕や足は肩に隠れる。Bの位置にいる対象者500は、カメラ130から遠いため小さく映るが、全身が映る。図5のAの例においては、カメラ130に対する対象者500の向きが横向きであるため、床座位の姿勢の対象者500の足が上半身に隠れることなく映る。一方、図5のBの例においては、カメラ130に対する対象者500の向きが背中向きであるため、床座位の姿勢の対象者500の足が上半身に隠れて大部分が映っていない。このように、カメラ130に対する対象者500の位置、向き、および姿勢により、撮影画像505における対象者500の映り方(見え方)が変化する。
図6は、機械学習による姿勢推定のための学習時の制御部110の機能を示す機能ブロック図である。
図6に示すように、学習時において、制御部110は、関節点等検出部111、特徴量生成部112、分割判定部113、モデルパラメーター生成部114、およびクラス分類部115として機能する。
関節点等検出部111は、撮影画像505から、撮影画像505上で物体(オブジェクト)が存在する領域を候補矩形として検出し、検出した候補矩形に含まれる物体のカテゴリーごとの信頼度スコアを算出する。関節点等検出部111は、人のカテゴリーの信頼度スコアが最も高い候補領域を人矩形510として検出する。
関節点等検出部111は、人矩形510から対象者500の頭部を含む領域を頭部矩形520として検出する。
関節点等検出部111は、人矩形510から対象者500の関節点530を検出する。
関節点等検出部111は、撮影画像505から人矩形510を検出するための辞書(モデルパラメーター)が反映されたニューラルネットワーク(以下、「NN」と称する)により、撮影画像505から人矩形を検出し得る。関節点等検出部111は、人矩形510から頭部矩形520を検出するための辞書が反映されたNNにより、人矩形510から頭部矩形520を検出し得る。関節点等検出部111は、人矩形510から対象者500の関節点530を検出するための辞書が反映されたNNにより、対象者500の関節点530を検出し得る。
関節点等検出部111は、人矩形510を、撮影画像505と、当該人矩形510の対向する2つの頂点の座標との組み合わせとして出力し得る。関節点等検出部111は、頭部矩形520を、撮影画像505と、当該頭部矩形520の対向する2つの頂点の座標との組み合わせとして出力し得る。関節点等検出部111は、関節点530を、撮影画像505上のそれぞれの座標として出力し得る。人矩形、頭部矩形520、および関節点530は、撮影画像505のフレームごとに互いに関連付けされている。
学習時において検出される関節点530は、ユーザーにより姿勢ラベルが付与されることで、姿勢ラベルと対応付けされる。姿勢ラベルは、関節点530に対応する姿勢の正解である。姿勢ラベルは、例えば、「立位」、「座位」、および「臥位」の姿勢のいずれかを示すラベルである。
クラス分類部115は、人矩形に対応付けされた姿勢ラベルを、例えば3つのラベルクラスに分類する。ラベルクラスは、1〜3の数値であり、それぞれ、姿勢ラベルの、「立位」、「座位」、および「臥位」に対応する。
学習時において検出される関節点530は、それぞれに付与された姿勢ラベルに対応するラベルクラスとともに、学習のための教師データとして用いられる。
図7は、人矩形510を示す模式図である。
図7においては、撮影画像505から検出された、椅子上で座位の姿勢の対象者500を包含する人矩形510が太線の矩形枠内の領域として示されている。
図8は、人矩形510、頭部矩形520、および関節点530を示す模式図である。
図8においては、立位の姿勢の対象者500を包含する人矩形510が太線の矩形枠内の領域として示され、頭部矩形520が細線の矩形枠内の領域として示されている。関節点530は、黒色の点として示されている。関節点530のうち、「a」は右肩、「b」は左肩、「c」は右腰、「d」は左腰の関節点530をそれぞれ示している。
特徴量生成部112は、人矩形510、頭部矩形520、および関節点530の少なくともいずれかに基づいて対象者500の特徴量を算出する。特徴量には、例えば、上半身と下半身の重心距離等が含まれる。
図6に戻り、説明を継続する。
分割判定部113は、撮影画像505における人矩形510の位置(例えば、人矩形510の中心の座標)と、撮影画像505の中心との距離を、カメラ130と対象者500との距離(以下、「対象者500までの距離」とも称する)として算出する。また、分割判定部113は、検出部100(より詳細には、カメラ130)と対象者500との幾何関係に対応する指標を算出することで、指標ごとに特徴量を分割(区分)する。当該指標は、例えば、「近距離」、「中距離」、および「遠距離」であり、具体的には、これらに対応する数値(例えば、1〜3)であり得る。すなわち、分割判定部113は、当該指標を算出することで、指標ごとに、特徴量を、「近距離」、「中距離」、「遠距離」のいずれかの距離区分(以下、単に「距離区分」とも称する)に分割(区分)する。これに伴い、分割後の特徴量に関連付けられたラベルクラスも、特徴量とともに分割される。
検出部100と対象者500との幾何関係を、カメラ130に対する対象者500の向きとする場合は、分割判定部113は、例えば、対象者500が、カメラ130に対して「背中向き」か「正面向き」かを、検出部100と対象者500との幾何関係に対応する指標として算出する。具体的には、当該指標は、カメラ130に対して背中向きか正面向きかに対応する数値(例えば、1、2)であり得る。対象者500が、カメラ130に対して「背中向き」か「正面向き」かは、関節点320のうち、肩の関節点(a、b(図8参照))と腰の関節点(c、d(図8参照))との相対的な位置関係から推定し得る。なお、「背中向き」および「正面向き」以外の対象者500の向き(例えば、カメラ130に対して斜めの向き)を指標とする場合は、肩の関節点(a、b)を結ぶ線分の角度をさらに考慮して指標を算出し得る。分割判定部113は、当該指標を算出することで、当該指標ごとに、特徴量を、「背中向き」か、「正面向き」のいずれかの向き区分に分割(区分)する。これに伴い、分割後の特徴量に関連付けられたラベルクラスも特徴量とともに分割される。
検出部100と対象者500との幾何関係を対象者500の姿勢とする場合は、分割判定部113は、例えば、対象者500の姿勢が、「立位」、「座位」、および「臥位」のいずれであるかを、検出部100と対象者500との幾何関係に対応する指標として算出する。具体的には、当該指標は、「立位」、「座位」、および「臥位」の姿勢にそれぞれ対応する数値(例えば、1〜3)であり得る。当該指標は、人矩形510から姿勢を推定するための、NNを用いた公知の技術により算出(推定)し得る。分割判定部113は、当該指標を算出することで、当該指標ごとに、特徴量を、「立位」、「座位」、および「臥位」のいずれかの姿勢区分に分割(区分)する。これに伴い、分割後の特徴量に関連付けられたラベルクラスも特徴量とともに分割される。
図9は、距離区分を説明するための説明図である。
撮影画像505の中心aは、カメラ130の直下に対応する。図9の例においては、撮影画像505の中心aを含む近距離の距離区分がAで示す領域に対応する。そして、中距離の距離区分がBで示す領域に、遠距離の距離区分がCで示す領域にそれぞれ対応する。
モデルパラメーター生成部114は、分割後の特徴量と、当該特徴量に対応付けされたラベルクラスとを教師データとして、距離区分ごとに学習を行う。モデルパラメーター生成部は、学習により生成された、距離区分ごとのモデルパラメーターπ、A、φを出力する。
図10は、隠れマルコフモデルを用いた、距離区分ごとの学習について説明するための説明図である。
図10のAは、一般的な隠れマルコフモデルの模式図である。
隠れマルコフモデルは、観測変数xに基づいて、隠れ変数(潜在変数)zの系列を推定するモデルである。特徴量は観測変数xに相当し、ラベルクラスは隠れ変数zに相当する。iは、時系列で撮影された撮影画像のフレームの番号であり、番号が小さいほど過去のフレームであることを示す。
隠れマルコフモデルによる観測変数xと隠れ変数zの同時確率分布p(X,Z)は、下記式により与えられる。
上記式において、p(z)は初期状態の確率である。p(z|zi−1)は、時系列で、フレーム(i−1)の隠れ変数zi−1を条件としたときの、フレーム(i)の隠れ変数zへの遷移確率である。p(x|z)は、隠れ変数zを条件としたときに、観測変数xとなるエミッション確率である。
上記式は、下記式として表現できる。
上記式において、πZ1(π)は、初期状態を記述するモデルパラメーターである。Aは、隠れ変数の遷移確率を記述するモデルパラメーターである。φは、エミッション確率(出力確率)を記述するモデルパラメーター(以下、「出力確率パラメーター」と称する)である。
隠れマルコフモデルを用いた学習は、観測変数xおよび隠れ変数zの既知の値を教師データとして学習することで、モデルパラメーターπ、A、φを推定(生成)する。具体的には。上記式で表される観測変数xおよび隠れ変数zの同時確率分布において、教師データである、観測変数xおよび隠れ変数zの既知の値の組み合わせが生じる確率が最も大きくなるモデルパラメーターπ、A、φを推定する(最尤推定法)。
図10のAに示す、一般的な隠れマルコフモデルを用いた推定においては、学習により生成されたモデルパラメーターπ、A、φを用いて、観測変数xから隠れ変数zが推定される。
図10のBは、実施形態における隠れマルコフモデルの模式図である。
図10のBに示すように、実施形態においては、距離区分ごとに学習することで、距離区分ごとに出力確率パラメーターφ、φ、φを生成する。φは「近距離」の距離区分の教師データを用いた学習により生成された出力確率パラメーターである。φは「中距離」の距離区分の教師データを用いた学習により生成された出力確率パラメーターである。φは「遠距離」の距離区分の教師データを用いた学習により生成された出力確率パラメーターである。学習においては、それぞれ教師データとして、距離区分ごとに分割された分割後の特徴量と、当該特徴量に対応付けされたラベルクラスとが用いられる。
実施形態における推定では、距離区分ごとに学習された、学習後のモデルパラメーターπ、A、φ(φについては、距離区分に応じて、φ、φ、φのいずれか)を用いて、距離区分ごとに、観測変数xである特徴量から隠れ変数zであるラベルクラスが推定される。
距離区分ごとに異なる出力確率パラメーターφ、φ、φで、特徴量からラベルクラスを推定するのは、次の理由による。カメラ130に対する対象者500の位置(すなわち、対象者500までの距離)により、撮影画像505における対象者500の映り方が変化する(図4、5参照)ため、対象者500までの距離に依存して、特徴量が比較的大きく変化する。このため、対象者500までの距離にかかわらず、同じ出力確率パラメーターφを用いると、姿勢の推定精度が低下する可能性があるからである。なお、モデルパラメーターπ、Aは、撮影画像505における対象者500の映り方(見え方)に依存しないため、距離区分ごとに異なるモデルパラメーターπ、Aを用いる必要はない。
図11は、特徴量である、上半身と下半身の重心距離の、対象者500までの距離に対する分布を示すグラフである。比較的濃いグレーの分布は、距離区分が近距離の分布であり、比較的薄いグレーの分布は遠距離の分布であり、これらの中間の濃さのグレーの分布は中距離の分布である。
図11の例においては、各距離区分に対応して3つのピークが現れており、距離区分ごとにそれぞれピークを中心とした略正規分布となっている。このように、距離区分ごとに明確に分布が区別されるのは、距離区分の設定が適当になされたためである。
距離区分は、カメラ130と対象者500との光学的射影関係により算出した理論値を参考に、実際に分割したデータ(例えば、教師データ)の分布を確認することにより決定し得る。例えば、中距離と遠距離の境界は、撮影画像において立位の姿勢と臥位の姿勢とで体軸の長さが逆転する、撮影画像中心からの距離を理論値とし得る。
図12は、機械学習による姿勢の推定時の制御部110の機能を示す機能ブロック図である。
図12に示すように、推定時において、制御部110は、関節点等検出部111、特徴量生成部112、分割判定部113、推論部116、および転倒判定部117として機能する。関節点等検出部111は、取得部を構成する。特徴量生成部112は、特徴量算出部を構成する。分割判定部113は切替部および指標算出部を構成する。推論部116は、姿勢推定部を構成する。転倒判定部117は行動推定部を構成する。
関節点等検出部111および特徴量生成部112は、推定時においても学習時と同様に機能するため、説明を省略する。
分割判定部113は、撮影画像505における人矩形510の位置(例えば、人矩形の中心の座標)と、撮影画像505の中心との距離を、対象者500までの距離として算出する。また、分割判定部113は、検出部100と対象者500との幾何関係に対応する指標を算出することで、指標ごとに特徴量を分割(区分)する。すなわち、分割判定部113は、当該指標を算出することで、指標ごとに、特徴量を、「近距離」、「中距離」、「遠距離」のいずれかの距離区分に分割(区分)する。これに伴い、分割後の特徴量に関連付けられたラベルクラスも、特徴量とともに分割される。
分割判定部113は、距離区分ごとのモデルパラメーター((π、A、φ)、(π、A、φ)、(π、A、φ))のうち、分割後の特徴量の距離区分に対応するモデルパラメーターを特定する。
推論部116は、分割判定部113により特定された、分割後の特徴量に対応するモデルパラメーターが適用された隠れマルコフモデルにより、分割後の特徴量から、例えば、「立位」、「座位」、および「臥位」の3つのクラスのいずれか(具体的には、3つのクラスに対応する1〜3の数値のいずれかの)として姿勢を推定する。
転倒判定部117は、推論部116により推定された姿勢に基づいて、対象者500が転倒したかどうかを判定し、判定結果を出力する。転倒判定部117は、例えば、推論部116により、立位の姿勢と、臥位の姿勢とが、時系列で連続するフレームから生成された特徴量からそれぞれ推定された場合、対象者500が転倒したと判定する。あるいは、転倒判定部117は、例えば、推論部116により、座位の姿勢と、臥位の姿勢とが、時系列で連続するフレームから生成された特徴量からそれぞれ推定された場合、対象者500が転倒したと判定してもよい。
なお、転倒判定部117は、対象者500の転倒以外の行動をも判定(推定)し得る。例えば、推論部116により、立位の姿勢が、時系列で連続するフレームから生成された特徴量からそれぞれ推定された場合、対象者500が歩いていると判定(推定)し得る。
図13は、検出部100の動作を示すフローチャートである。本フローチャートは、プログラムに従い、制御部110により実行される。
制御部110は、撮影画像505から検出された、人矩形510、頭部矩形520、および関節点530を取得する(S101)。制御部110は、NNを用いた機械学習により、撮影画像505から、人矩形510、頭部矩形520、および関節点530を推定することで取得する。
制御部110は、人矩形510、頭部矩形520、および関節点530の少なくともいずれかから特徴量を時系列のフレームごとに算出する(S102)。
制御部110は、撮影画像505上の人矩形510の座標から、対象者500までの距離を算出する(S103)。
制御部110は、対象者500までの距離に基づいて、姿勢を推定するための隠れマルコフモデルのモデルパラメーターを、(π、A、φ)、(π、A、φ)、(π、A、φ)のいずれかに切替える(S104)。
制御部110は、切り替え後の隠れマルコフモデルにより、時系列のフレームに基づいて対象者500の姿勢を推定する(S105)。
本発明に係る実施形態は、以下の効果を奏する。
対象を俯瞰する位置から撮影部により撮影された撮影画像から検出された、対象の特徴を示す所定の検出情報から対象の特徴量を算出する。そして、時系列の特徴量から、機械学習により、対象の姿勢を推定するためのモデルパラメーターを、撮影部と対象との幾何関係に基づいて切り替える。これにより、対象を俯瞰する位置から撮影された撮影画像に基づく、対象の姿勢等の検出精度を向上できる。
さらに、隠れマルコフモデルにより対象の姿勢を推定し、隠れマルコフモデルの、出力確率を算出するモデルパラメーターを、撮影部と対象との幾何関係に基づいて切り替える。これにより、より簡単かつ適切に対象の姿勢等の検出精度を向上できる。また、遠方から撮影部直下まで対象が移動するような場合でも、時系列を考慮した対象の姿勢および行動の高精度な推定ができる。
さらに、上記幾何関係を、撮影部に対する対象の位置、向き、および姿勢の少なくともいずれかとし、当該幾何関係に対応する指標を算出する指標算出部をさらに設け、指標算出部により算出された指標に基づいて対象の姿勢を推定するためのモデルパラメーターを切り替える。これにより、対象の姿勢等の検出精度をさらに向上できる。
さらに、所定の検出情報を、撮影画像から検出された人矩形、頭部矩形520、および関節点の少なくともいずれかとする。これにより、効率的かつ適切に対象の特徴量を算出できる。
以上に説明した姿勢推定装置、行動推定装置等の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な姿勢推定装置等が備える構成を排除するものではない。
例えば、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、実施形態においては、人の姿勢等を推定するものとして説明したが、動物の姿勢等を推定してもよい。
また、実施形態において、隠れマルコフモデルを用いて対象者500の姿勢等を推定する際、観測変数(特徴量)から隠れ変数(クラス)を推定する部分を、ニューラルネットワークによる機械学習に置き換えて実行してもよい。
また、実施形態においては、検出部により、推定した姿勢に基づいて、転倒等の行動を判定し、判定結果を出力している。しかし、行動の判定、および判定結果の出力は、検出部では行わず、検出部と通信可能に接続されたサーバーが、検出部から姿勢の推定結果を受信し、当該姿勢の推定結果に基づいて転倒等の行動を判定し、判定結果を出力するようにしてもよい。
また、実施形態の姿勢推定システムにおける各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
10 姿勢推定システム、
100 検出部、
110 制御部、
120 通信部、
130 カメラ、
140 体動センサー、
200 通信ネットワーク、
210 アクセスポイント、
300 携帯端末、
500 対象者、
505 撮影画像、
510 人矩形、
520 頭部矩形、
530 関節点、
700 ベッド。

Claims (13)

  1. 対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する取得部と、
    前記取得部により取得された前記検出情報に基づいて、所定の特徴量を算出する特徴量算出部と、
    前記特徴算出部により算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える切替部と、
    前記切替部による切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する姿勢推定部と、
    を有する姿勢推定装置。
  2. 前記姿勢推定部は、隠れマルコフモデルにより前記対象の姿勢を推定し、
    前記切替部は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、請求項1に記載の姿勢推定装置。
  3. 前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、
    前記撮影部と前記対象との前記幾何関係に対応する指標を算出する指標算出部をさらに有し、
    前記切替部は、前記指標算出部により算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、請求項1または2に記載の姿勢推定装置。
  4. 前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、請求項1〜3のいずれか一項に記載の姿勢推定装置。
  5. 請求項1〜4のいずれか一項に記載の姿勢推定装置と、
    前記姿勢推定部により推定された前記対象の姿勢に基づいて前記対象の行動を推定する行動推定部と、
    を有する行動推定装置。
  6. 対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する手順(a)と、
    前記手順(a)において取得された前記検出情報に基づいて、所定の特徴量を算出する手順(b)と、
    前記手順(b)において算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える手順(c)と、
    前記手順(c)における切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する手順(d)と、
    を有する処理を、コンピューターに実行させるための姿勢推定プログラム。
  7. 前記手順(d)は、隠れマルコフモデルにより前記対象の姿勢を推定し、
    前記手順(c)は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、請求項6に記載の姿勢推定プログラム。
  8. 前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、
    前記処理は、前記撮影部と前記対象との前記幾何関係に対応する指標を算出する手順(e)をさらに有し、
    手順(c)は、前記手順(e)において算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、請求項6または7に記載の姿勢推定プログラム。
  9. 前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、請求項6〜8のいずれか一項に記載の姿勢推定プログラム。
  10. 対象を俯瞰する位置から撮影部により撮影された画像に基づいて検出された前記対象の特徴を示す所定の検出情報を取得する段階(a)と、
    前記段階(a)において取得された前記検出情報に基づいて、所定の特徴量を算出する段階(b)と、
    前記段階(b)において算出された、時系列の前記特徴量から、機械学習により、前記対象の姿勢を推定するためのモデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える段階(c)と、
    前記段階(c)における切り替え後の前記モデルパラメーターを用いて前記対象の姿勢を推定する段階(d)と、
    を有する姿勢推定方法。
  11. 前記段階(d)は、隠れマルコフモデルにより前記対象の姿勢を推定し、
    前記段階(c)は、前記隠れマルコフモデルの、出力確率を算出する前記モデルパラメーターを、前記撮影部と前記対象との幾何関係に基づいて切り替える、請求項10に記載の姿勢推定方法。
  12. 前記幾何関係は、前記撮影部に対する前記対象の位置、向き、および姿勢の少なくともいずれかであり、
    前記撮影部と前記対象との前記幾何関係に対応する指標を算出する段階(e)をさらに有し、
    段階(c)は、前記段階(e)において算出された前記指標に基づいて前記対象の姿勢を推定するための前記モデルパラメーターを切り替える、請求項10または11に記載の姿勢推定方法。
  13. 前記検出情報は、前記画像から検出された人矩形、頭部矩形、および関節点の少なくともいずれかである、請求項10〜12のいずれか一項に記載の姿勢推定方法。
JP2019015905A 2019-01-31 2019-01-31 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法 Active JP7196645B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019015905A JP7196645B2 (ja) 2019-01-31 2019-01-31 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
EP20153099.5A EP3689236A1 (en) 2019-01-31 2020-01-22 Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method
US16/750,471 US11298050B2 (en) 2019-01-31 2020-01-23 Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
CN202010078489.XA CN111507176B (zh) 2019-01-31 2020-02-03 姿势估计装置、行动估计装置、记录介质、姿势估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015905A JP7196645B2 (ja) 2019-01-31 2019-01-31 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法

Publications (2)

Publication Number Publication Date
JP2020123239A true JP2020123239A (ja) 2020-08-13
JP7196645B2 JP7196645B2 (ja) 2022-12-27

Family

ID=69187645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015905A Active JP7196645B2 (ja) 2019-01-31 2019-01-31 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法

Country Status (4)

Country Link
US (1) US11298050B2 (ja)
EP (1) EP3689236A1 (ja)
JP (1) JP7196645B2 (ja)
CN (1) CN111507176B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058155A1 (ja) * 2021-10-06 2023-04-13 日本電気株式会社 運転手監視装置、運転手監視方法及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
US11450192B2 (en) * 2020-01-06 2022-09-20 National Cheng Kung University Fall detection system
JP7185805B2 (ja) * 2020-03-19 2022-12-07 株式会社日立製作所 転倒リスク評価システム
CN113040755B (zh) * 2020-10-28 2022-01-04 北京新赛点体育投资股份有限公司 应用网络监控的状态调整平台及方法
EP4016376A1 (en) * 2020-12-18 2022-06-22 Toyota Jidosha Kabushiki Kaisha Computer-implemented process monitoring method
CN112597956B (zh) * 2020-12-30 2023-06-02 华侨大学 基于人体锚点集合与感知增强网络的多人姿态估计方法
JP2022131397A (ja) * 2021-02-26 2022-09-07 日本電気株式会社 姿勢推定装置、学習装置、姿勢推定方法及びプログラム
CN112990089B (zh) * 2021-04-08 2023-09-26 重庆大学 一种判断人体运动姿态的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527443A (ja) * 2003-06-12 2006-11-30 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
JP2012113369A (ja) * 2010-11-19 2012-06-14 Nikon Corp 姿勢状態判定装置
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション
WO2016143641A1 (ja) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104608669B (zh) * 2010-09-13 2017-01-18 松下知识产权经营株式会社 站姿乘车移动体及站姿乘车移动体的控制方法
KR101796190B1 (ko) * 2010-12-23 2017-11-13 한국전자통신연구원 디지털 클론 생성 장치 및 방법
JP5771413B2 (ja) * 2011-03-02 2015-08-26 パナソニック株式会社 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP6148480B2 (ja) 2012-04-06 2017-06-14 キヤノン株式会社 画像処理装置、画像処理方法
JP5898014B2 (ja) * 2012-07-26 2016-04-06 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP2014090841A (ja) * 2012-11-02 2014-05-19 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
US20160278683A1 (en) * 2015-03-24 2016-09-29 Fuji Xerox Co., Ltd. Standing position evaluation apparatus, standing position evaluation method, and non-transitory computer readable medium
JP6443393B2 (ja) * 2016-06-01 2018-12-26 トヨタ自動車株式会社 行動認識装置,学習装置,並びに方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527443A (ja) * 2003-06-12 2006-11-30 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション
JP2012113369A (ja) * 2010-11-19 2012-06-14 Nikon Corp 姿勢状態判定装置
WO2016143641A1 (ja) * 2015-03-06 2016-09-15 コニカミノルタ株式会社 姿勢検知装置および姿勢検知方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ARTUR WILKOWSKI: "A HMM-Based System for Real-Time Gesture Recognition in Movie Sequences", 2008 CONFERENCE ON HUMAN SYSTEM INTERACTIONS, JPN6022027714, 25 May 2008 (2008-05-25), ISSN: 0004817536 *
青木 茂樹 外4名: "人物の位置・姿勢に注目した行動パターンの学習・認識と非日常状態検出への応用", 電子情報通信学会論文誌 D-II VOL, J87-D-II NO. 5, JPN6022027715, 1 May 2004 (2004-05-01), ISSN: 0004817535 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058155A1 (ja) * 2021-10-06 2023-04-13 日本電気株式会社 運転手監視装置、運転手監視方法及びプログラム

Also Published As

Publication number Publication date
US11298050B2 (en) 2022-04-12
US20200245904A1 (en) 2020-08-06
EP3689236A1 (en) 2020-08-05
JP7196645B2 (ja) 2022-12-27
CN111507176B (zh) 2024-01-16
CN111507176A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
JP7196645B2 (ja) 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法
US7106885B2 (en) Method and apparatus for subject physical position and security determination
JP6822328B2 (ja) 見守り支援システム及びその制御方法
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP7403132B2 (ja) 介護記録装置、介護記録システム、介護記録プログラムおよび介護記録方法
WO2020261404A1 (ja) 人物状態検出装置、人物状態検出方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7347577B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP7243725B2 (ja) 対象物体検出プログラム、および対象物体検出装置
JP2020134971A (ja) 現場学習評価プログラム、現場学習評価方法、および現場学習評価装置
JP2019204464A (ja) 行動推定装置
WO2020261403A1 (ja) 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP6525179B1 (ja) 行動推定装置
CN118338853A (zh) 计算机程序、信息处理方法及信息处理装置
JP7351339B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7500929B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7388440B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP7435609B2 (ja) 画像処理システム、画像処理プログラム、および画像処理方法
JP6115693B1 (ja) 対象物検出装置および対象物検出方法ならびに被監視者監視装置
WO2023195305A1 (ja) 情報処理装置、情報処理プログラム、機械学習装置、および機械学習プログラム
JP7481843B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7124746B2 (ja) 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置
JP2023075559A (ja) 画像処理装置、画像処理システム、画像処理方法、および画像処理プログラム
JP2021065617A (ja) 画像処理装置および画像処理プログラム
JP2023121234A (ja) 補正システム、補正方法、および補正プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R150 Certificate of patent or registration of utility model

Ref document number: 7196645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150