JP2007313189A - 動作判別装置、動作判別方法およびプログラム - Google Patents

動作判別装置、動作判別方法およびプログラム Download PDF

Info

Publication number
JP2007313189A
JP2007313189A JP2006148198A JP2006148198A JP2007313189A JP 2007313189 A JP2007313189 A JP 2007313189A JP 2006148198 A JP2006148198 A JP 2006148198A JP 2006148198 A JP2006148198 A JP 2006148198A JP 2007313189 A JP2007313189 A JP 2007313189A
Authority
JP
Japan
Prior art keywords
human body
movement
movement range
bed
reference data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006148198A
Other languages
English (en)
Inventor
Takuya Otsuka
卓哉 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006148198A priority Critical patent/JP2007313189A/ja
Publication of JP2007313189A publication Critical patent/JP2007313189A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Invalid Beds And Related Equipment (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

【課題】ベッドからの離床前動作とそれ以外の動作とを区別することを可能とし、かつ、個人の運動能力の違いによらず離床前動作を検出することが可能な動作判別装置を提供する。
【解決手段】ベッド上の人体の動作を特定するための基準データが動作種毎に格納された記憶部80と、人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、該人体位置の情報を前記記憶部に格納し、1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、該移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する制御部82とを有する構成である。
【選択図】図1

Description

本発明は、ベッド上の人体の動作を判別するための動作判別装置および動作判別方法、ならびにその方法をコンピュータに実行させるためのプログラムに関する。
入院中の認知能力の低下した高齢者は、看護師の指示にしたがうことなく、勝手にベッドから離れてしまうことがある。高齢者は一般的に運動能力が衰えているので、高齢者のベッドから離れる行動が、ベッドから転落したり、転倒したりといった事故につながるおそれがある。
高齢者の患者がベッドから離れる行動を監視するために、ベッド上の人体の離床前動作を検出し、看護師に通知する監視装置が提案されている(例えば、特許文献1参照)。
特許第3536043号公報
しかし、上述の監視装置では、所定時間内にベッド上で重心が移動した距離の合計値から離床前動作と判定していた。距離の合計値から離床前動作と判定するので、寝返りも離床前動作と判定されていた。移動距離を算出する際、ベッド上に置かれた物体の配置による影響を受けるおそれもあった。さらに、所定時間内の合計値から離床前動作と判定するので、患者の動作が速すぎて判定前に患者が離床する場合や、患者の動作が遅すぎて離床前動作であると判定されない場合があった。
本発明は上述したような従来の技術が有する問題点を解決するためになされたものであり、ベッドからの離床前動作とそれ以外の動作とを区別することを可能とし、かつ、個人の運動能力の違いによらず離床前動作を検出することが可能な動作判別装置および動作判別方法、ならびにその方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
上記目的を達成するための本発明の動作判別装置は、
ベッド上の人体の動作を特定するための基準データが動作種毎に格納された記憶部と、
人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、該人体位置の情報を前記記憶部に格納し、1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、該移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する制御部と、
を有する構成である。
本発明では、所定の時間区分内における人体の移動範囲を求め、予め登録した動作種毎の基準データと移動範囲とを比較して、動作を推定している。ベッド上の移動距離のみを動作推定に利用せず、運動の情報である移動範囲を動作推定に利用することで、人体の動作をより正確に推定することが可能となる。また、動作判別に、移動距離を用いるのではなく、移動範囲を示す形状や面積を利用することで、動作を特定するための基準データに動作のばらつきを含む分布範囲を持たせることが可能となる。
また、上記本発明の動作判別装置において、
現在時刻から所定の時間過去に遡った時刻までを基本時間長とし、該基本時間長を所定の回数だけ等分割した時間を基本時間分割長とすると、
前記時間区分は、前記基本時間長または前記基本時間分割長の少なくともいずれかに相当するものとしてもよい。
本発明では、より長い時間に設定された時間区分では動作に関する大局的な情報を得ることが可能となり、より短い時間に設定された時間区分では、すばやい動作に関する情報を得ることが可能となる。また、時間区分の設定において、基本時間長を2等分割、4等分割、8等分割のように2のべき乗で分割した場合、分割された時間区分毎に移動範囲を算出することで、系統的に時間区分が設定され、時間長の等しい時間区分間で動作を相対的に比較することが可能となる。
また、上記本発明の動作判別装置において、
前記移動範囲から求まる面積は、人体位置の移動軌跡を囲む最小矩形の面積、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡と重なる単位矩形の合計面積の少なくともいずれかであり、
前記移動範囲が示す形状は、人体位置の移動軌跡を囲む最小矩形の辺の縦横比、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡に重なる部分と重ならない部分の2値化もしくは多値化したベクトルの少なくともいずれかであることとしてもよい。
本発明では、最小矩形の面積は運動量の大きさを示す指標となる。また、移動軌跡に沿って移動軌跡を覆う適度な大きさの単位矩形で人体位置の移動範囲を定義することで、移動軌跡を含む最小矩形を2値化した画像データにすることが可能となる。そして、2値化した画像データの移動軌跡を含む単位矩形の合計面積も運動量の大きさを示す指標となる。一方、最小矩形の辺の縦横の比、または、画像データの2値化もしくは多値化したベクトルのいずれもが運動方向を示す指標となる。
また、上記本発明の動作判別装置において、
前記制御部は、
複数の時間区分のうち2つの時間区分のそれぞれに対応して前記移動範囲を算出すると、算出した2つの移動範囲のそれぞれから求まる面積の比で前記基準データを特定すること、または、算出した2つの移動範囲の相対位置で前記基準データを特定することを少なくとも行って人体の動作を推定することとしてもよい。
人が意図を持って継続的な運動を行うと、より長い時間区分の移動範囲の重心に対する短い時間区分の移動範囲の重心の相対位置はトレンドをもった変化をする。一方、人が意図を持たずに不規則な運動を行うと、より長い時間区分の移動範囲の重心に対する短い時間区分の移動範囲の重心の相対位置は乱雑に変化する。本発明では、この性質を利用することで、2つの移動範囲の相対位置の変化は、意図を持った運動とそうでない運動の指標となる。面積比についても同様である。
一方、上記目的を達成するための本発明の動作判別方法は、ベッド上の人体の動作を推定するための情報処理装置による動作判別方法であって、
人体の動作を特定するための基準データを動作種毎に記憶部に格納し、
人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、
算出した人体位置の情報を前記記憶部に格納し、
1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、
前記移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定するものである。
また、上記目的を達成するための本発明のプログラムは、ベッド上の人体の動作を推定するためにコンピュータに実行させるためのプログラムであって、
人体の動作を特定するための基準データを動作種毎に記憶部に格納し、
人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、
算出した人体位置の情報を前記記憶部に格納し、
1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、
前記移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する処理を前記コンピュータに実行させるものである。
本発明によれば、人体の移動範囲からベッド上での動作を判別するため、ベッド上の人以外の物体の配置の影響や、人の就寝時の状態に影響されずに、より正確に動作を判別することができる。また、移動範囲を示す形状や面積を動作判別に利用し、動作を特定するための基準データに分布範囲を持たせることで、人それぞれに運動能力の違いがあってもより正確に動作を判別することができる。
本発明の動作判別装置は、人体の動作を推定するために運動の情報である移動範囲を利用することを特徴とする。
本実施例の動作判別装置の構成を説明する。図1は本実施例の動作判別装置の一構成例を示すブロック図である。
図1に示すように、動作判別装置19は、一定時間毎のベッド上の人体の位置の情報を格納するための記憶部80と、重量分布検出手段11が計測した、人体によるベッドへの重量分布のデータに基づいて人体の動作種を判別する制御部82とを有する構成である。動作判別装置19には、重量分布検出手段11およびアラーム出力手段18が接続されている。制御部82には、プログラムにしたがって所定の処理を実行するCPU(Central Processing Unit)(不図示)と、プログラムを格納するためのメモリ(不図示)とが設けられている。
図2は図1に示した動作判別装置の各構成を詳細に説明するための模式図である。図3は重量分布検出手段の構成例を示す模式図である。
制御部82は、重量分布検出手段11から受信するデータに基づいて人体の位置を推定する重量位置算出手段12と、人体の移動範囲を算出する際の時間長を設定する時間区分設定手段13と、設定された時間長における移動範囲を算出する重量位置移動範囲算出手段14と、算出された移動範囲から動作種を判別する動作判別手段17とを有する。重量位置算出手段12、時間区分設定手段13、重量位置移動範囲算出手段14および動作判別手段17は、CPUがプログラムを実行することで動作判別装置19内に仮想的に構成される。
重量分布検出手段11は、人体22によるベッド21への荷重配分を計測する重量計測装置23を複数有する。本実施例では、ベッド22を支える4脚のそれぞれに重量計測装置23が設けられている。4台の重量計測装置23が一定時間毎に重量分布を計測し、重量分布検出手段11は、4台の重量計測装置23が計測した重量分布データを重量位置算出手段12に送信する。
また、重量計測装置23の代わりに圧力計測装置24を用いてもよい。図3に示すように、ベッドの面が複数の区画に区分けされ、区画毎に圧力検出装置24が設けられている。ここでは、n(2以上の整数)個の区画に区分けしたものとする。そして、圧力計測装置24が設けられた各区画を圧力検出点と称する。ベッドの面をXY平面座標にあてはめ、i番目の圧力検出点のXY座標をVi(Xi,Yi)と表記する。ただし、iは圧力検出点毎に異なる番号であり、最小値は1であり、最大値はnである。また、圧力検出点iが検出する圧力をPiとする。各圧力検出装置24は外部から加えられる圧力を一定時間毎に計測し、重量分布検出手段11は、i=1〜nについて、XY座標Vi(Xi,Yi)とその座標の圧力検出装置24が計測した圧力Piの情報を含む重量分布データを重量位置算出手段12に送信する。
なお、図3では、説明のために、重量計測装置23と圧力計測装置24の両方をベッド21に備えた構成を示しているが、いずれか一方であってもよい。また、圧力計測装置24が設けられた区画の形状は、矩形に限らず、円や楕円などその他の形状であってもよい。
重量位置算出手段12は、重量分布検出手段11から重量分布データを受信すると、重量分布データから人体の重心位置を算出し、算出した重心位置を人体位置と特定する。XY座標Vi(Xi,Yi)と圧力Piの情報を含む重量分布データを受信した場合、(ΣiVi×Pi)/(ΣiPi)で算出する座標位置を人体位置として特定する。そして、重量分布データを受信した時刻とともに人体位置の情報を記憶部80に格納する。このようにして記憶部80に保存される、人体位置および時刻を含む情報を量位置履歴情報と称する。重量位置算出手段12は、重量分布検出手段11から重量分布データを受信した際、重量分布データを記憶部80に一旦格納してもよい。
時間区分設定手段13は、現在時刻からどのくらい過去に遡った時刻までの重量位置履歴情報を利用するか、現在時刻から過去に遡る時間長を重量位置移動範囲算出手段14に通知する。この時間長は、予め登録されていてもよく、操作者の入力により登録されるようにしてもよい。各重量位置履歴情報には、時刻の情報が含まれている。そのため、その時間長分遡った過去の時刻から現在時刻の間に人体がどのような動作をしたかを求めるための重量位置履歴情報を特定することが可能となる。
重量位置移動範囲算出手段14は、時間区分設定手段13から時間長の通知を受けると、一定時間毎に、その時間長分過去に遡った時刻から現在時刻までの時刻の情報を含む重量位置履歴情報を記憶部80を参照して特定し、特定した重量位置履歴情報を用いて人体の移動範囲を算出する。時間区分設定手段13から通知された時間長が、例えば、120秒とすると、重量位置移動範囲算出手段14は、120秒前から現在時刻に至るまでの間の時刻の情報を含む重量位置履歴情報を記憶部80から読み出し、重量位置履歴情報を用いて、人体の移動範囲を算出する。以下に、重量位置移動範囲算出手段14が行う、人体の移動範囲の求め方を詳しく説明する。
図4はベッドでの人体の移動範囲の求め方を説明するための模式図である。ここでは、4通りの方法を説明する。
はじめに、移動範囲を求めるための元になる画像データを説明する。図4に示すベッド21の矩形枠内に、時間区分設定手段13により設定された時間長における、人体22の移動軌跡31が示されている。移動軌跡31は、重量位置履歴情報に含まれる人体位置と時刻の情報を用いて、時刻経過にしたがって人体位置を線で結んだものである。そして、この矩形枠は、移動軌跡31を囲む矩形形状のうち大きさが最も小さいものである。以下では、この矩形枠を最小矩形と称する。このようにして、重量位置移動範囲算出手段14は、移動範囲を求める準備として、移動軌跡31を含む最小矩形の画像データを重量位置履歴情報を用いて生成する。
第1の方法を、図4の右下に示す最小矩形を参照して説明する。重量位置移動範囲算出手段14は、移動軌跡31を含む最小矩形の画像を生成すると、最小矩形に対して碁盤の目のようにさらに細かい矩形に分割する。分割した1つの矩形を単位矩形と称する。続いて、図4に示すように、最小矩形内の全ての単位矩形について、移動軌跡31に重なる単位矩形と、移動軌跡31に重ならない単位矩形とに分類する。そして、移動軌跡31に重なる単位矩形を黒色に変換し、移動軌跡31に重ならない単位矩形を白色に変換し、図4に示すような2値化画像データを生成する。重量位置移動範囲算出手段14は、生成した2値化画像データを移動範囲形状A32として動作判別手段17に渡す。移動軌跡に沿って移動軌跡を覆う適度な大きさの単位矩形で人体位置の移動範囲を定義することで、移動軌跡を含む最小矩形を2値化した画像データにすることが可能となる。そして、2値化した画像データの移動軌跡を含む単位矩形の合計面積は運動量の大きさを示す指標となる。また、2値化画像データを基準データの軌跡形状と比較することで、移動軌跡から動作を推定することが可能となる。
なお、単位矩形は、正方形および長方形のいずれでもよい。また、2値化する際の2種類の色は黒と白に限らず、異なる2種類の色であればよい。さらに、2値化する場合に限らず多値化してもよい。
第2の方法を、図4の右下に示す最小矩形を参照して説明する。重量位置移動範囲算出手段14は、移動軌跡31を含む最小矩形の画像から第1の方法と同様にして2値化画像データを生成する。そして、黒色に変換された単位矩形の面積を合計し、その結果を移動範囲面積A33として動作判別手段17に渡す。この方法では、移動範囲を示す値として、人体位置の細かい移動に対応した面積値に変換される。
第3の方法を、図4の左下に示す最小矩形を参照して説明する。重量位置移動範囲算出手段14は、移動軌跡31を含む最小矩形の画像を生成すると、その最小矩形について、ベッドの長辺に平行な方向の長さとベッドの短辺に平行な方向の長さとの比を求める。そして、この比の値を移動範囲形状B34として動作判別手段17に渡す。この比の値は、運動方向を示す指標となる。例えば、(ベッドの長辺に平行な方向の長さ)>(ベッドの短辺に平行な方向の長さ)であると、人体の移動範囲がベッドの短辺に比べて長辺に平行な方向に大きく、上体を起す動作と推定できる。反対に、(ベッドの長辺に平行な方向の長さ)<(ベッドの短辺に平行な方向の長さ)であると、人体の移動範囲がベッドの長辺に比べて短辺に平行な方向に大きく、寝返り動作と推定できる。この方法では、移動範囲を示す値として最小矩形の2辺の比を求めるだけなので、計算処理がより早くなる。
第4の方法を、図4の左下に示す最小矩形を参照して説明する。重量位置移動範囲算出手段14は、移動軌跡31を含む最小矩形の画像を生成すると、その最小矩形の面積を算出し、その結果を移動範囲面積B35として動作判別手段17に渡す。最小矩形の面積が運動量の大きさを示す指標となる。この方法では、移動範囲を示す値として、最小矩形の2辺に対して、その比を求める代わりに積を求めるだけなので、第3の方法と同様に、計算処理がより早くなる。
次に、動作判別手段17について説明する。
動作判別手段17は、移動範囲形状および移動範囲面積などの移動範囲を示す情報を重量位置移動範囲算出手段14から受け取ると、記憶部80に予め登録された、動作種毎に異なる基準データと移動範囲を示す情報と比較する。そして、移動範囲を示す情報に最もあてはまる基準データを特定し、その基準データの動作種を実際の動作として推定する。
ここで、記憶部80に予め登録される基準データについて説明する。人体の動作を判別するための基準となる教師情報が動作種毎に予め記憶部80に登録されている。教師情報は、動作種毎に異なる移動軌跡の特徴を示す情報である。移動範囲を示す情報が面積などの数値であれば、教師情報は数値で表される。初期段階では、教師情報が基準データとなる。
また、次のようにして、基準データにデータを補ってもよい。動作判別手段17が、移動範囲を示す情報を量位置移動範囲算出手段14から受け取ると、動作種を推定し、推定結果を出力する。操作者が、推定結果と実際の動作とを比較し、それらが一致していると、推定結果が合っている旨の信号を動作判別装置19に入力する。これにより、動作判別手段17は、その移動範囲を示す情報に対し、推定した動作種の教師情報を付与し、事例データとして記憶部80の基準データに追加登録する。このようにして、動作種毎に、その動作を示す新たなデータが事例データとして追加登録される。以下では、追加される事例データを学習データと称する。なお、学習データの追加登録の方法は、上述の方法以外であってもよい。
基準データは、教師情報だけに限らず、学習データを含んでいてもよい。基準データを、例えば、1次元座標にプロットすると、教師情報の前後に学習データが分布する。この分布範囲がその動作種と判別される範囲となり、上限値と下限値が決まる。
人体の動作種について説明する。動作判別手段17が判別する人体の動作には、「寝返り」、「長座位への体位変動」および「移動」などがある。人体が一定時間動作をせずに寝ている「安静」も動作種に含む。「長座位への体位変動」には、通常の速度で上体を起す「上体起し」の動作と、それよりも遅い速度で上体を起す「ゆっくり上体起し」の動作が含まれる。これらの動作のうちアラームの対象となるのは、ベッドから人体が離れる可能性のある動作であり、本実施例では「長座位への体位変動」および「移動」とする。いずれの動作をアラームの対象とするかの情報は、記憶部80に予め登録しておく。
なお、アラーム対象の動作は、「長座位への体位変動」および「移動」に限られず他の動作を含んでもよく、「長座位への体位変動」および「移動」のいずれか一方であってもよく、これら2つの動作以外の他の動作であってもよい。目的に応じて、アラーム対象の動作を記憶部80に登録すればよい。
次に、重量位置移動範囲算出手段14が取り得る方法に対応して、動作判別手段17が行う動作判別の具体例を説明する。
重量位置移動範囲算出手段14が移動範囲を示す情報を求める方法が第2の方法である場合、記憶部80には、寝返り動作と長座位への体位変動動作の2つの動作について基準データが予め登録されているものとする。寝返り動作の基準データの上限値をAとし、下限値をBとする。また、長座位への体位変動動作の基準データの上限値をCとし、下限値をDとする。この場合、動作判別手段17は、重量位置移動範囲算出手段14から移動範囲面積A33を受け取ると、移動範囲面積A33が値Aおよび値Bの間の分布範囲と値Cおよび値Dの間の分布範囲のいずれに属するかを判定する。そして、移動範囲面積A33が値Aおよび値Bの間の分布範囲に属すると判定すると、動作種を寝返り動作と推定する。一方、移動範囲面積A33が値Cおよび値Dの間の分布範囲に属すると判定すると、動作種を長座位への体位変動動作と推定する。
なお、重量位置移動範囲算出手段14が移動範囲を示す情報を求める方法が第4の方法であると、動作判別手段17の動作判別方法は、上述したのと同様であるため、その詳細な説明を省略する。
重量位置移動範囲算出手段14が移動範囲を示す情報を求める方法が第3の方法である場合について説明する。この場合、記憶部80には、寝返り動作と長座位への体位変動動作の2つの動作について基準データが予め登録されているものとする。寝返り動作の基準データの上限値をEとし、下限値をFとする。また、長座位への体位変動動作の基準データの上限値をGとし、下限値をHとする。動作判別手段17は、重量位置移動範囲算出手段14から移動範囲形状B34の情報を受け取ると、移動範囲形状B34の値が値Eおよび値Fの間の分布範囲と値Gおよび値Hの間の分布範囲のいずれに属するかを判定する。そして、移動範囲形状B34の値が値Eおよび値Fの間の分布範囲に属すると判定すると、動作種を寝返り動作と推定する。一方、移動範囲形状B34の値が値Gおよび値Hの間の分布範囲に属すると判定すると、動作種を長座位への体位変動動作と推定する。なお、第3の方法による移動範囲形状B34の値が移動範囲の形状を示す値であることから、基準データとの比較は各種動作について予め設定された形状と類似しているか否かの判定を意味する。
続いて、重量位置移動範囲算出手段14が移動範囲を示す情報を求める方法が第1の方法である場合について説明する。この場合、記憶部80には、寝返り動作と長座位への体位変動動作の2つの動作について基準データとなる2値化画像データが予め登録されているものとする。動作判別手段17は、重量位置移動範囲算出手段14から移動範囲形状A32の情報を受け取ると、移動範囲形状A32のパターン画像と2つの基準データとの類似度を算出し、算出結果から動作種を推定する。
類似度を用いる方法として、例えば、固有空間法がある。固有空間法は、移動範囲形状A32の2値化画像データをベクトル表現に変換し、動作種毎に学習してある移動範囲で構成された部分空間への射影を計算し、最もノルムの大きな動作対象を判別結果として出力するものである。また、移動範囲形状A32のパターン画像に対してニューラルネットワークによる方法を動作判別手段17に実行させ、移動範囲形状A32の2値化画像データをベクトル表現に変換し、それを入力として動作種を出力させるようにしてもよい。また、記憶部80に格納される基準データは、動作種毎に2値化画像データがベクトル表現に変換されたものであってもよい。さらに、重量位置移動範囲算出手段14から多値化したデータを受け取る場合には、多値化したデータに対して処理を実行するようにしてもよい。この場合、記憶部80に格納される基準データは、動作種毎に多値化したデータがベクトル表現に変換されたものとなる。画像データを2値化したベクトルまたは多値化したベクトルのいずれも人体の運動方向を示す指標となる。
なお、2値化画像データの移動軌跡を含む単位矩形の合計面積を利用する場合には、第2の方法の場合と同様に、予め記憶部80に保存した基準データと比較して動作種を推定すればよい。
さらに、移動範囲面積と移動範囲形状を組み合わせた場合の動作判別を説明する。
重量位置移動範囲算出手段14が移動範囲を示す情報として移動範囲形状B34と移動範囲面積B35の両方を算出した場合とする。この場合、記憶部80には、寝返り動作と長座位への体位変動動作の2つの動作について基準データが予め登録されているものとする。移動範囲形状B34に対して、寝返り動作の基準データの上限値をEとし、下限値をFとする。長座位への体位変動動作の基準データの上限値をGとし、下限値をHとする。また、移動範囲面積B35に対して、寝返り動作の基準データの上限値をMとし、下限値をNとする。長座位への体位変動動作の基準データの上限値をPとし、下限値をQとする。
動作判別手段17は、重量位置移動範囲算出手段14から移動範囲形状B34および移動範囲面積B35の情報を受け取ると、それぞれの値について基準データと比較する。動作判別手段17は、移動範囲形状B34の値が値Eおよび値Fの間の分布範囲にあることを認識し、かつ、移動範囲面積B35が値Mおよび値Nの間の分布範囲にあることを認識すると、寝返り動作と推定する。一方、移動範囲形状B34の値が値Gおよび値Hの間の分布範囲にあることを認識し、かつ、移動範囲面積B35が値Pおよび値Qの間の分布範囲にあることを認識すると、長座位への体位変動動作と推定する。
動作判別手段17は、上述のようにして動作を推定し、推定した動作がアラーム対象であるか否かを判定し、判定の結果、アラーム対象であることを認識すると、アラームを出すべき旨の信号であるアラーム動作信号をアラーム出力手段18に送信する。一方、推定した動作がアラーム対象でないことを認識すると、アラーム出力手段18に信号を送らない。
アラーム出力手段18は、動作判別手段17からアラーム動作信号を受信すると、アラームを発生させる旨の信号を看護師などの監督者が管理する所定の端末装置等へ送信する。監督者が管理する端末装置への通信方法は、無線通信および有線通信のいずれを介するものであってもよく、その組み合わせであってもよい。端末装置は、看護師の常駐場所に設置された情報処理装置であってもよく、看護師が携帯するページャや無線端末であってもよい。
次に、本実施例の動作判別装置19の動作手順を説明する。ここでは、重量分布検出手段11が複数の重量計測装置23を有する構成であり、重量位置移動範囲算出手段14が第2の方法で移動範囲を示す情報を求める場合とする。そして、記憶部80には予め、寝返り動作の基準データの上限値Aおよび下限値Bが格納され、長座位への体位変動動作の基準データの上限値Cおよび下限値Dが格納されているものとする。
図5は本実施例の動作判別装置の動作手順を示すフローチャートである。
複数の重量計測装置23が一定時間毎に重量分布を計測し、重量分布検出手段11は、重量計測装置23が計測した重量分布データを動作判別装置19に送信する。動作判別装置19の重量位置算出手段12は、重量分布検出手段11から重量分布データを受信すると、重量分布データから人体の重心位置を算出し、算出した重心位置を人体位置と特定する。そして、重量分布データを受信した時刻とともに人体位置の情報を重量位置履歴情報として記憶部80に格納する(ステップ101)。
重量位置移動範囲算出手段14は、一定時間毎に、時間区分設定手段13から通知された時間長分過去に遡った時刻から現在時刻までの時刻の情報を含む重量位置履歴情報を記憶部80を参照して特定する。続いて、特定した重量位置履歴情報を用いて、人体の移動軌跡31を含む最小矩形の画像を生成する。その後、移動軌跡31を含む最小矩形の画像を白色および黒色を用いた2値化画像データに変換する。そして、黒色に変換された単位矩形の面積を合計し、その結果を移動範囲面積A33として動作判別手段17に渡す(ステップ102)。
動作判別手段17は、重量位置移動範囲算出手段14から移動範囲面積A33を受け取ると、移動範囲面積A33が値Aおよび値Bの間の分布範囲と値Cおよび値Dの間の分布範囲のいずれに属するかを判定する(ステップ103)。そして、移動範囲面積A33が値Aおよび値Bの間の分布範囲に属すると判定すると、動作種を寝返り動作と推定する。一方、移動範囲面積A33が値Cおよび値Dの間の分布範囲に属すると判定すると、動作種を長座位への体位変動動作と推定する。
続いて、動作判別手段17は、推定した動作がアラーム対象であるか否かを判定する(ステップ104)。判定の結果、アラーム対象であることを認識すると、アラームを出すべき旨の信号であるアラーム動作信号をアラーム出力手段18に送信する(ステップ105)。一方、推定した動作がアラーム対象でないことを認識すると、アラーム出力手段18に信号を送らず、制御部82の処理はステップ101に戻る。アラーム出力手段18は、動作判別手段17からアラーム動作信号を受信すると、アラームを発生させる旨の信号を看護師が管理する端末装置へ送信する。
本発明では、所定の時間区分内における人体の移動範囲を求め、予め登録した動作種毎の基準データと移動範囲とを比較して、動作を推定している。従来、ベッド上の移動距離を主に動作推定に利用していたため、寝返り動作も離床前動作と検出されていたが、本発明では、運動の情報である移動範囲を動作推定に利用することで、人体の動作をより正確に推定することが可能となる。そのため、離床前動作とベッド上の人体の寝返り等の離床前以外の動作とを区別することができる。
また、ベッドの設計上、人はベッドの上ならどこでも横になることができ、必ずしもベッド中央で就寝するとは限らない。従来、ベッドに加わる重量の分布から人の位置を算出する手法には必然的に人以外のベッド上の物体の配置が影響するため、正確に人の絶対位置を算出することは困難であった。本発明では、運動の情報である移動範囲を動作推定に利用することで、ベッド上の人以外の物体の配置の影響や、人の就寝時の状態に影響されずに、従来よりも正確に動作を判別することができる。
また、移動範囲の形状や面積を動作判別に利用し、動作を特定するための基準データに動作のばらつきを含む分布範囲を持たせることで、人それぞれに運動能力の違いがあってもより正確に動作を判別することができる。そのため、個人の運動能力の差による動作速度が変化してもベッド上の人体の離床前動作を検出することができる。
本実施例は、時間長を複数の時間区分に分割し、各時間区分における移動範囲の相互の関係を利用することで、動作判別をより高精度に行うものである。なお、本実施例の動作判別装置の構成は実施例1と同様であるため、以下では、実施例1と異なる動作について詳細に説明する。
図6は時間区分設定手段による時間区分の設定例を示す図である。
図6に示す時間軸の現在時刻に相当する現時点45から予め設定された時間分過去に遡った時刻までの時間長を基本時間長41と定義する。実施例1では、基本時間長41の重量位置履歴情報を用いて人体の移動範囲を算出していた。本実施例では、基本時間長41をさらに複数に分割して、分割した時間について人体の移動範囲を求める。
図6は基本時間長41の分割例を示す。基本時間長41を2分割すると、基本時間2分割長42が2つ得られる。この2つの基本時間2分割長42のそれぞれを2分割すると、基本時間長41を4分割した基本時間4分割長43が得られる。さらに、4つの基本時間4分割長43のそれぞれを2分割すると、基本時間長41を8分割した基本時間8分割長44が得られる。なお、元になる基本時間長41を含め、基本時間2分割長42、基本時間4分割長43および基本時間8分割長44など、人体位置の移動範囲を求める時間長を時間区分と称する。
より長い時間に設定された時間区分では動作に関する大局的な情報を得ることが可能となり、より短い時間に設定された時間区分では、すばやい動作に関する情報を得ることが可能となる。
時間区分設定手段13が、基本時間長41と基本時間長41を何分割するかの情報を重量位置移動範囲算出手段14に通知する。この分割数は、予め登録されていてもよく、操作者の入力により登録されるようにしてもよい。
重量位置移動範囲算出手段14は、基本時間長41とその分割数の情報を時間区分設定手段13から通知を受けると、実施例1で説明した第1番目から第4の方法のうち少なくともいずれか採用する方法に対応して、人体の移動範囲を算出する。また、第1番目から第4の方法のうち複数を組み合わせる場合についても、組み合わせの対象となる方法毎に人体の移動範囲を算出する。
次に、本実施例の重量位置移動範囲算出手段14による、人体の移動範囲の算出方法を詳細に説明する。ここでは、基本時間長41を4分割する場合とする。
図7は本実施例における移動範囲の算出方法を説明するための図である。図7では、実施例1で説明した、図4の最小矩形を用いている。図7に示す移動範囲面積51内に、図6に示した基本時間長41の全体の時間区分411の間における人体位置の移動軌跡が示されている。移動範囲面積52内には、基本時間4分割の時間区分431の間における人体位置の移動軌跡が示されている。移動範囲面積53内には、時間区分432の間における人体位置の移動軌跡が示されている。
実施例1で説明した第2の方法を本実施例に適用すると、次のように重量位置移動範囲算出手段14は動作する。重量位置移動範囲算出手段14は、実施例1の第2の方法と同様にして、時間区分411における移動軌跡より移動範囲面積51を算出する。また、本実施例では、時間区分431における移動軌跡より移動範囲面積52を算出し、時間区分432における移動軌跡より移動範囲面積53を算出する。このようにして、実施例1の移動範囲面積A33に準じて、時間区分411、時間区分431および時間区分432のそれぞれに対して移動範囲面積51、移動範囲面積52および移動範囲面積53のそれぞれの値が算出される。
続いて、重量位置移動範囲算出手段14は、移動範囲面積51と移動範囲面積52との比を求める。この比の値は、時間区分411における人体の移動量に対する時間区分431における人体の移動量の大きさの指標となる。この指標を、運動量の局在性に関する面積比指標A(不図示)と定義する。
また、重量位置移動範囲算出手段14は、移動範囲面積52と移動範囲面積53との比を求めてもよい。この比の値は、時間区分431における人体の移動量に対する時間区分432における人体の移動量の大きさの指標となる。この指標を、連続する区間における運動量変化を表す面積比指標B(不図示)と定義する。上述のようにして、重量位置移動範囲算出手段14は、面積比指標Aおよび面積比指標Bの少なくともいずれかを算出する。
なお、実施例1で説明した第4の方法を本実施例に適用する場合も、第2の方法を適用した場合と同様にして、実施例1の移動範囲面積B35に準じて複数の時間区分に対応して移動範囲面積が算出され、複数の移動範囲面積から面積比指標Aおよび面積比指標Bが求まる。
実施例1で説明した第1の方法を本実施例に適用すると、次のように重量位置移動範囲算出手段14は動作する。重量位置移動範囲算出手段14は、実施例1の第1の方法と同様にして、時間区分411における移動軌跡より移動範囲形状を示す2値化画像データ生成する。また、本実施例では、時間区分431における移動軌跡より移動範囲形状を示す2値化画像データを生成し、時間区分432における移動軌跡より移動範囲形状を示す2値化画像データを生成する。このようにして、実施例1の移動範囲形状A32に準じて、時間区分411、時間区分431および時間区分432のそれぞれに対して移動範囲形状が生成される。
続いて、重量位置移動範囲算出手段14は、時間区分411による移動範囲形状が示す人体の移動量と時間区分431による移動範囲形状が示す人体の移動量との比を求める。この比の値を、時間区分411による移動範囲形状と時間区分431による移動範囲形状の相対的な位置関係を示す相対位置指標(不図示)と定義する。
また、重量位置移動範囲算出手段14は、時間区分431による移動範囲形状が示す移動量と時間区分432による移動範囲形状が示す移動量との比を求めてもよい。この比の値は、連続する区間における運動量変化を表す指標となり、時間区分431による移動範囲形状と時間区分432による移動範囲形状の相対的な位置関係を示す相対位置指標(不図示)と定義する。
人が意図を持って継続的な運動を行うと、より長い時間区分の移動範囲の重心に対する短い時間区分の移動範囲の重心の相対位置はトレンドをもった変化をする。一方、人が意図を持たずに不規則な運動を行うと、より長い時間区分の移動範囲の重心に対する短い時間区分の移動範囲の重心の相対位置は乱雑に変化する。この性質を利用することで、2つの移動範囲の相対位置の変化は、意図を持った運動とそうでない運動の指標となる。面積比についても同様である。
なお、実施例1で説明した第3の方法を本実施例に適用する場合についても、実施例1の移動範囲形状B34による値に準じて複数の時間区分に対応して移動範囲形状を示す値が算出され、複数の、移動範囲形状を示す値から相対位置指標が求まる。
次に、実施例1で説明した第1の方法から第4の方法までの方法を用いないで、移動範囲を算出する方法を説明する。
重量位置移動範囲算出手段14は、時間区分411における移動軌跡より移動範囲の重心54の位置を求める。また、時間区分432における移動軌跡より移動範囲の重心55の位置を求める。続いて、移動範囲面積51内に重心54を通る、図7の縦方向の軸(以下では、縦軸と称する)を移動範囲面積51内に引き、その縦軸に重心55を射影する。そして、重心55を縦軸に射影した点と重心54とを結んだ線分56の長さを求める。また、縦軸において移動範囲面積51の枠の下辺から重心54までの線分の長さを求める。その後、線分56の長さと線分57の長さとの比を算出する。この比の値は、移動範囲面積51と移動範囲面積53の相対的な位置関係を示す相対位置指標(不図示)となる。
また、重量位置移動範囲算出手段14は、移動範囲面積51内に重心54を通る、図7の横方向の軸(以下では、横軸と称する)について、次のようにして相対位置指標(不図示)を算出してもよい。移動範囲面積51内に重心54を通る横軸を引いて、重心55を横軸に射影する。続いて、移動範囲面積51内を通る縦軸に関する相対位置指標を求めた方法と同様にして、横軸2つの線分の比を算出する。そして、算出した比の値は、横軸について移動範囲面積51と移動範囲面積53の相対的な位置関係を示す相対位置指標となる。
重量位置移動範囲算出手段14は、面積比指標A、面積比指標Bおよび相対位置指標のうち少なくともいずれかを算出すると、算出した値を動作判別手段17に渡す。
次に、本実施例の動作判別手段17の動作を説明する。ここでは、動作判別手段17は面積比指標Aを用いて動作種を推定する場合とする。
記憶部80には、面積比指標Aについて、動作種毎に異なる基準データが予め格納されている。基準データは上限値と下限値を含むデータである。動作判別手段17は、重量位置移動範囲算出手段14から面積比指標Aを受け取ると、受け取った面積比指標Aについて、動作種毎に設定された上限値および下限値と比較する。そして、受け取った面積比指標Aの値が上限値と下限値の間に属する基準データがあれば、その基準データの動作種と推定する。ここでは、面積比指標Aで動作種を推定する場合を説明したが、面積比指標Bまたは相対位置指標であってもよい。また、面積比指標A、面積比指標Bおよび相対位置指標のうち複数の指標を用いて推定するようにしてもよい。動作判別手段17が推定に用いる指標についての基準データが予め記憶部80に保存されている。
なお、本実施例の動作判別装置による動作手順は、図5に示したフローチャートのステップ102で重量位置移動範囲算出手段14が複数の時間区分に対応して移動範囲面積および面積比指標を算出し、ステップ103で動作判別手段17が面積比指標から動作を推定すること以外は、実施例1と同様であるため、その詳細な説明を省略する。
本実施例の動作判別装置では、時間区分設定手段13が複数の時間区分を設定し、動作判別手段17が複数の移動範囲の情報から動作判別を行うことで、人体の動作をより高い精度で推定することが可能となる。
また、時間区分の設定において、基本時間長を2等分割、4等分割、8等分割のように2のべき乗で分割した場合、分割された時間区分毎に移動範囲を算出することで、系統的に時間区分が設定され、時間長の等しい時間区分間で動作を相対的に比較することが可能となる。
実施例2で説明した、2つの移動範囲の間で定義される相互関係を示す指標である面積比指標A、面積比指標Bおよび相対位置指標は、人体の動作に伴って変化する変数である。これらの変数のうち、少なくとも2以上の変数を用いて動作判別を行う場合、それぞれ指標について上限値および下限値を含む基準データを予め設定し、動作判別装置は、一定時間毎に変数と基準データを比較し、動作判別を行う必要がある。そのため、多くの変数について、一定時間毎に、各動作種の上限値および下限値の間にそれぞれの変数が属するか否かの判定を行うとすると、動作判別の精度は向上するが、動作推定までの効率が悪くなるおそれがある。
そこで、本実施例では、主成分分析(Principal Component Analysis)を用いて、複数の変数を線形組み合わせして新たな変数を生成し、これを動作判別のための指標とする。
以下に、本実施例の動作判別装置を説明するが、本実施例の動作判別装置の構成は実施例1と同様であるため、実施例1と同様な動作についてはその詳細な説明を省略する。また、本実施例は、実施例2で説明した指標を前提に行うものであるため、実施例2で説明した内容については、その詳細な説明を省略する。
図8は動作判別のための指標の一例を示す分布グラフである。図8は3軸を用いて動作判別を行う場合である。図8には、教師情報と、教師情報に紐付けされた学習データとを含む領域で構成される動作判別用の特徴空間が示されている。図8に示す特徴空間には、各種動作に対応して、安静領域61、寝返り領域62、ゆっくり上体起し領域63、上体起し領域64および移動領域65がある。各領域が動作を特定するための基準データとなる。動作判別手段17は、複数の変数による、新たな事例データが追加されると、主成分分析を用いて上記複数の変数の線形組み合わせにより新たな変数を生成し、予め記憶部80に格納された教師情報に学習データとして付随させる。これにより、図8に示すような領域が動作種毎に形成され、教師情報に学習データが紐付けされる。
重量位置移動範囲算出手段14は、時間区分設定手段13から通知された各時間区分について、移動範囲形状A32、移動範囲面積A33、移動範囲形状B34および移動範囲面積B35を算出する。続いて、実施例2と同様にして、移動範囲の相互関係として面積比指標A、面積比指標Bおよび相対位置指標を算出する。そして、面積指標A、面積比指標Bおよび相対位置指標を含む新規データを動作判別手段17に渡す。
動作判別手段17は、判別すべき新規データを重量位置移動範囲算出手段14から受け取ると、新規データを図8に示した動作判別用の特徴空間に射影する。そして、最も近傍に存在する既学習データを探索し、その学習データに紐付けされた教師情報の動作種が人体の動作であると推定する。
また、動作判別手段17は、次のようにして動作を推定してもよい。動作判別用の特徴空間における各動作種別間の境界を決めておく。判別すべき新規データが、例えば、図8に示すグラフで安静領域61にあることを認識すると、人体は安静状態にあると推定する。同様にして、判別すべき新規データが図8に示すグラフの寝返り領域62、ゆっくり上体起し領域63、上体起し領域64および移動領域65のうちいずれかに該当すると認識すると、認識した領域に対応して、人体の動作を寝返り、ゆっくり上体起し、上体起しまたは移動と推定する。
本実施例の動作判別装置による動作手順は、図5に示したフローチャートのステップ102で重量位置移動範囲算出手段14が複数の時間区分に対応して移動範囲形状A32および移動範囲面積A33等の移動範囲を示す情報を求めた後、面積比指標および相対位置指標を算出し、ステップ103で動作判別手段17が主成分分析により新たな変数を用いて動作を推定すること以外は、実施例1と同様であるため、その詳細な説明を省略する。
本実施例では、学習データを含む基準データにより構成された動作判別用の特徴空間を用いた動作判別法により、さらに正確な動作判別を行うことが可能である。
なお、本発明の動作判別装置の制御部および記憶部を備えた情報処理装置で、本発明の動作判別方法を実行させてもよい。
また、本発明の動作判別方法をコンピュータに実行させるためのプログラムに適用してもよい。この場合、本発明の動作判別装置を、そのプログラムとコンピュータによって実現することが可能である。また、そのプログラムを記録媒体に記録することも可能であり、ネットワークを介して外部に提供することも可能である。
さらに、上述した実施例は本発明の構成の一例であり、本発明は、上記実施例に限定されるものではない。
実施例1の動作判別装置の一構成例を示すブロック図である。 図1に示した動作判別装置の各構成を詳細に説明するための模式図である。 重量分布検出手段の構成例を示す模式図である。 人体の移動範囲の求め方を説明するための模式図である。 動作判別装置の動作手順を示すフローチャートである。 実施例2における時間区分の設定例を示す図である。 実施例2における移動範囲の算出方法を説明するための図である。 実施例3における動作判別のための指標の一例を示す分布グラフである。
符号の説明
19 動作判別装置
80 記憶部
82 制御部

Claims (9)

  1. ベッド上の人体の動作を特定するための基準データが動作種毎に格納された記憶部と、
    人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、該人体位置の情報を前記記憶部に格納し、1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、該移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する制御部と、
    を有する動作判別装置。
  2. 現在時刻から所定の時間過去に遡った時刻までを基本時間長とし、該基本時間長を所定の回数だけ等分割した時間を基本時間分割長とすると、
    前記時間区分は、前記基本時間長または前記基本時間分割長の少なくともいずれかに相当する請求項1記載の動作判別装置。
  3. 前記移動範囲から求まる面積は、人体位置の移動軌跡を囲む最小矩形の面積、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡と重なる単位矩形の合計面積の少なくともいずれかであり、
    前記移動範囲が示す形状は、人体位置の移動軌跡を囲む最小矩形の辺の縦横比、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡に重なる部分と重ならない部分の2値化もしくは多値化したベクトルの少なくともいずれかである、請求項1または2記載の動作判別装置。
  4. 前記制御部は、
    複数の時間区分のうち2つの時間区分のそれぞれに対応して前記移動範囲を算出すると、算出した2つの移動範囲のそれぞれから求まる面積の比で前記基準データを特定すること、または、算出した2つの移動範囲の相対位置で前記基準データを特定することを少なくとも行って人体の動作を推定する請求項1から3のいずれか1項記載の動作判別装置。
  5. ベッド上の人体の動作を推定するための情報処理装置による動作判別方法であって、
    人体の動作を特定するための基準データを動作種毎に記憶部に格納し、
    人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、
    算出した人体位置の情報を前記記憶部に格納し、
    1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、
    前記移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する、動作判別方法。
  6. 現在時刻から所定の時間過去に遡った時刻までを基本時間長とし、該基本時間長を所定の回数だけ等分割した時間を基本時間分割長とすると、
    前記時間区分は、前記基本時間長または前記基本時間分割長の少なくともいずれかに相当する請求項5記載の動作判別方法。
  7. 前記移動範囲から求まる面積は、人体位置の移動軌跡を囲む最小矩形の面積、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡と重なる単位矩形の合計面積の少なくともいずれかであり、
    前記移動範囲が示す形状は、人体位置の移動軌跡を囲む最小矩形の辺の縦横比、または、該最小矩形が複数の単位矩形に分割され、該移動軌跡に重なる部分と重ならない部分の2値化もしくは多値化したベクトルの少なくともいずれかである、請求項5または6記載の動作判別方法。
  8. 複数の時間区分の移動範囲を算出する際、該複数の時間区分のうち2つの時間区分のそれぞれに対応して前記移動範囲を算出し、
    算出した2つの移動範囲のそれぞれから求まる面積の比で前記基準データを特定すること、または、算出した2つの移動範囲の相対位置で前記基準データを特定することを少なくとも行って人体の動作を推定する、請求項5から7のいずれか1項記載の動作判別方法。
  9. ベッド上の人体の動作を推定するためにコンピュータに実行させるためのプログラムであって、
    人体の動作を特定するための基準データを動作種毎に記憶部に格納し、
    人体によりベッドに加えられる重量の分布を示す重量分布データを受信すると、該重量分布データからベッド上の人体の重心位置を人体位置として算出し、
    算出した人体位置の情報を前記記憶部に格納し、
    1以上の時間区分に対応して人体の移動範囲を前記人体位置の情報に基づいて算出し、
    前記移動範囲から求まる面積で前記基準データを特定すること、または、該移動範囲が示す形状で前記基準データを特定することを少なくとも行って人体の動作を推定する処理を前記コンピュータに実行させるためのプログラム。
JP2006148198A 2006-05-29 2006-05-29 動作判別装置、動作判別方法およびプログラム Pending JP2007313189A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006148198A JP2007313189A (ja) 2006-05-29 2006-05-29 動作判別装置、動作判別方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006148198A JP2007313189A (ja) 2006-05-29 2006-05-29 動作判別装置、動作判別方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2007313189A true JP2007313189A (ja) 2007-12-06

Family

ID=38847591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006148198A Pending JP2007313189A (ja) 2006-05-29 2006-05-29 動作判別装置、動作判別方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2007313189A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011245059A (ja) * 2010-05-27 2011-12-08 Tokai Rubber Ind Ltd 離床センサシステム
WO2014185406A1 (ja) * 2013-05-14 2014-11-20 学校法人久留米大学 離床予測検知機構
JP2017032443A (ja) * 2015-08-03 2017-02-09 一般財団法人電力中央研究所 人の行動の同定方法、同定装置、及び同定プログラム
US9782108B2 (en) 2013-06-28 2017-10-10 Sumitomo Riko Company Limited Bed-leaving sensor and bed-leaving detection method
US9795321B2 (en) 2013-06-28 2017-10-24 Sumitomo Riko Company Limited Bed-leaving sensor and bed-leaving detection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011245059A (ja) * 2010-05-27 2011-12-08 Tokai Rubber Ind Ltd 離床センサシステム
WO2014185406A1 (ja) * 2013-05-14 2014-11-20 学校法人久留米大学 離床予測検知機構
JPWO2014185406A1 (ja) * 2013-05-14 2017-02-23 学校法人 久留米大学 離床予測検知機構
US9782108B2 (en) 2013-06-28 2017-10-10 Sumitomo Riko Company Limited Bed-leaving sensor and bed-leaving detection method
US9795321B2 (en) 2013-06-28 2017-10-24 Sumitomo Riko Company Limited Bed-leaving sensor and bed-leaving detection method
JP2017032443A (ja) * 2015-08-03 2017-02-09 一般財団法人電力中央研究所 人の行動の同定方法、同定装置、及び同定プログラム

Similar Documents

Publication Publication Date Title
CN104123532B (zh) 对目标对象进行检测、确定目标对象数量的方法和设备
Yan et al. Estimating worker-centric 3D spatial crowdedness for construction safety management using a single 2D camera
CN104318578B (zh) 一种视频图像分析方法及系统
CN109492581A (zh) 一种基于tp-stg框架的人体动作识别方法
US9361702B2 (en) Image detection method and device
KR102319084B1 (ko) 지능형 수위감지 장치 및 방법
CN102449568A (zh) 机器人管理系统、机器人管理终端、机器人管理方法和程序
CN103186902A (zh) 基于视频的摔倒检测方法和设备
JP2007313189A (ja) 動作判別装置、動作判別方法およびプログラム
Wang et al. An accurate detection method for surface defects of complex components based on support vector machine and spreading algorithm
US20120281918A1 (en) Method for dynamically setting environmental boundary in image and method for instantly determining human activity
Wang et al. Cross-source sensing data fusion for building occupancy prediction with adaptive lasso feature filtering
CN104079798B (zh) 图像检测方法、装置及一种视频监控系统
US20230005237A1 (en) Parameter determination apparatus, parameter determination method, and non-transitory computer readable medium
Casaccia et al. Measurement of Activities of Daily Living: a simulation tool for the optimisation of a Passive Infrared sensor network in a Smart Home environment
CN108182410A (zh) 一种联合目标区域定位和深度特征学习的跌倒识别算法
CN111178178A (zh) 结合区域分布的多尺度行人重识别方法、系统、介质及终端
JP6000767B2 (ja) 学習装置、判別装置、行動状態判別システム、および判別方法
WO2021068589A1 (zh) 一种图像中物体及其关键点的确定方法和装置
TW201123087A (en) System and method for detecting multi-layer intrusion events and the computer program product thereof
JP2005215927A (ja) 行動認識システム
KR101313879B1 (ko) 기울기 히스토그램을 이용한 사람 검출 추적 시스템 및 방법
JP2021047538A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2004198237A (ja) 人体検知システム
CN103974028A (zh) 人员激烈行为侦测方法