JP4633865B2 - 動作判別装置、動作判別モデルの構築方法、動作判別方法、及び動作判別コンピュータ・プログラム - Google Patents
動作判別装置、動作判別モデルの構築方法、動作判別方法、及び動作判別コンピュータ・プログラム Download PDFInfo
- Publication number
- JP4633865B2 JP4633865B2 JP2010525094A JP2010525094A JP4633865B2 JP 4633865 B2 JP4633865 B2 JP 4633865B2 JP 2010525094 A JP2010525094 A JP 2010525094A JP 2010525094 A JP2010525094 A JP 2010525094A JP 4633865 B2 JP4633865 B2 JP 4633865B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- determination
- output
- detection
- discrimination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 title claims description 214
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000012850 discrimination method Methods 0.000 title claims 2
- 238000010276 construction Methods 0.000 title description 2
- 238000001514 detection method Methods 0.000 claims description 120
- 238000000034 method Methods 0.000 claims description 84
- 238000013528 artificial neural network Methods 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 45
- 238000005457 optimization Methods 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 28
- 238000012731 temporal analysis Methods 0.000 claims description 22
- 238000000700 time series analysis Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 20
- 238000009434 installation Methods 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 claims description 6
- 230000009977 dual effect Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 28
- 238000004458 analytical method Methods 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 15
- 210000002569 neuron Anatomy 0.000 description 15
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000012795 verification Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 241001673112 Citrus clementina Species 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
- A61B5/1117—Fall detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Mathematical Physics (AREA)
- Dentistry (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Alarm Systems (AREA)
Description
感圧センサ、荷重検知センサ、重量検出センサ、圧電センサ、加速度センサ等のセンサを単独で、又は他の生体信号検出装置と併せて利用した従来技術は、これらのセンサが対象の動作等を直接検知するものである。したがって、少数のセンサしか用いられない場合には、例えば患者等がベッドから離床したかしないかという、いわゆるオンオフ情報しか得られず、動作の種類並びにその方向及び速度等を判断することは困難である。対象の動作の種類並びにその方向及び速度等を精度よく検出できるようにするためには多数のセンサを用いる必要があるが、コストの上昇及びシステムの複雑性が問題になる。また、これらの技術は、センサが対象の動作や動きを直接検知するものであるため、仮に対象が検知範囲を避けて動作した場合には検知できないおそれがある。赤外線アクティブセンサを用いた従来技術も存在するが、この技術においても同様に、一定の範囲における患者等の動作の種類並びにその方向及び速度等を精度よく検出するためには、赤外線ビームの発光部及び受光部を多数設ける必要があるため、コストがかかるとともにシステムが複雑になる。少数のセンサしか用いないシステムの場合には、患者等が検知範囲を避けて行動した場合には対応できない。
図1は、本発明の一実施形態に係る動作判別装置190を含む動作判別システム100の基本的な構成を示すブロック図である。動作判別システム100は、焦電素子(検知素子)と焦電素子に取り付けられる又は被せられるレンズとを含むセンサモジュール部(検知手段)110と、センサモジュール部110から出力された連続的な電圧値すなわち電圧波形を受信し、受信した電圧波形を所定のレートでサンプリングするとともに、所定の時間幅で切り出したデータ(量子化された時系列データ)に加工するアナログ/デジタル変換部(データ加工手段)120と、加工されたデータを用いて動作判別を行う動作判別部(動作判別手段)131及び装置全体を制御する制御部132を含む解析・制御部130と、動作判別結果をデータサーバ150に送信する通信部140と、データサーバ150及びデータベース151と、データサーバ150から判別結果を受信する携帯端末等160とを含む。
(処理の概要)
図2は、本発明の一実施形態に係る最適化された動作判別装置190を含む動作判別システム110による、患者等によって行われた未知の動作をリアルタイムで判別するための処理の概略的なフロー図200である。焦電素子の種類、個数、位置、回転角度、感度、レンズの回転角度、種類、センサモジュール部の設置角度等といった各種のセンサ条件がニューラルネットワークを用いて予め最適化された動作判別装置190が、患者等が寝ているベッドの頭上に設置される。図3は、患者等が寝ているベッド301の頭上に最適化された動作判別装置190が設置された状態を示す。このように設置された動作判別装置190のセンサモジュール部110によって、ベッド301上の患者等の動作が検知され、動作の種類に対応する特徴が現れた電圧波形データが出力される(s201)。
図4は、本発明の一実施形態に係る最適化された動作判別装置190の外観(a)及び内部構成(b)を示す概略図である。本発明の一実施形態においては、動作判別装置190は、3つの受動センサ410、420、及び430を有する。受動センサ410〜430の各々は、それぞれ、レンズ111、112、113と、焦電素子115、116、117と、基板411、421、431とを含む。受動センサ410〜430の各々の検知領域は、それぞれのレンズ111〜113を適切に選択することにより、例えば以下のように設定することができる。
・受動センサ410;縦の検知領域が狭く、横の検知領域が広くなるレンズを用いて、離床時に患者等の上半身が横切るような検知領域を設定する(図5及び図8)
・受動センサ420;横の検知領域がベッドサイドをカバーするレンズを用いて、患者等のベッドからの転落を検知する領域を設定する(図6及び図8)
・受動センサ430;縦横の領域を広く検知するレンズを用いて、患者等のベッドからの離脱を検知する領域を設定する(図7及び図8)
なお、本明細書においては、受動センサ410、420、430によって出力されるデータは、それぞれチャネル1(ch1)のデータ、チャネル2(ch2)のデータ、チャネル3(ch3)のデータということもある。
受動センサ410〜430から出力された、動作の特徴が現れた3チャネルの電圧波形は、アナログ/デジタル変換部120に入力され、動作判別モデル135に入力するのに適した形態のデータに加工される(図2のs202)。図10は、センサモジュール部110の受動センサ410〜430の各々から出力された電圧波形を加工するための概略的な処理フロー図(a)と、加工後のデータの概念図(b)とを示す。図10(a)を参照すると、まず、連続的な電圧値(すなわち、電圧波形)が、受動センサ410〜430の各々から出力され(s1001)、アナログ/デジタル変換部120に入力される(s1002)。
図10(a)の処理によって得られた量子化された時系列データは、次いで、解析・制御部130の動作判別部131に入力される。図11は、動作判別部131に含まれる最適化された動作判別モデル135及び時系列分析モデル136によって動作判別が行われる処理の概略的なフロー図である。処理が開始すると、まず、量子化された時系列データが、動作判別部131の最適化された動作判別モデル135に入力され(s1101)、最適化された動作判別モデル135による動作判別処理が行われた後(s1102)、判別結果が出力される(s1103)。
本発明の一実施形態においては、好ましくは、動作判別モデル135としてニューラルネットワークが用いられる。図12は、本発明の一実施形態において最適化された動作判別モデル135として用いられる多層ニューラルネットワークを概念的に示す。多層ニューラルネットワークは、2つ以上の層に配置されるニューロン又はノードと呼ばれる処理エレメント(図12において「N」と表記されている要素)の組からなる。多層ニューラルネットワークは、通常、入力層と出力層に挟まれた少なくとも1つの隠れた中間層が存在する。入力層は、提示された入力パターンによって中間層への出力の値が決定されるニューロンを有し、中間層は、入力層から出力された値によって出力層への値が決定されるニューロンを有し、出力層は、中間層からの出力によって最終的に出力される値すなわち判別結果が決定されるニューロンを有する。各々の層におけるニューロンへの入力は、前の層のニューロンの出力に依存する。したがって、多層ニューラルネットワークにおける所定のニューロンの出力は、そのニューロンへの入力の関数となる。
(1)wの初期値を0でないランダムな値に定める。
(2)学習データから1つのデータxをランダムに選んで入力し、現在のwの値を用いてニューラルネットワークの出力を計算し、判別結果を示す。
(3)判別結果が誤りの場合のみ、結果が正しくなる方向にw及び/又はθの値を修正する。
本発明の一実施形態においては、時系列分析モデル136は、動作判別モデル135から出力された複数の判別結果、例えばN個の判別結果のうち、例えば離床と判別された回数がM回で、かつ、離床と連続的に判別された回数がL回のときに、離床と判断するように構成することができる。このN、M、及びLの数値は、判別しようとする動作を模擬した既知の動作に基づいて正しい判別結果が出力されるように予め調整される。すなわち、動作判別装置190に用いられる時系列分析モデルは最適化された時系列分析モデル136である。本発明の一実施形態においては、最適化された時系列分析モデル136のN、M、及びLの値は、N=30、M=20、L=10である。次いで、時系列分析モデル136から最終的な動作判別結果が出力され(s1107)、さらに処理すべき時系列データがあれば(s1108)、ステップはs1101に戻ってさらに動作判別が行われ、処理すべき時系列データがなければ動作判別処理は終了する。
図13は、図11のs1101〜s1108の処理をより詳細に説明するための本発明の一実施形態に係るフロー図である。この図に基づいて、例えば離床動作を判別する際の処理の詳細を説明する。まず、電圧波形から0.1秒ごとにサンプリングされた3.9秒間の39個/ch(117個/3ch)の時系列データ(電圧値)が解析・制御部130によって取得され、例えば解析・制御部130に設けられた記憶手段(メモリ)133に蓄積される(s1301)。次いで、解析・制御部130は、各々のチャネルの最新の0.1秒のデータを取得し、そのデータを3.9秒間の39個/chデータの後に付加して、40個/ch×3ch(すなわち、1ケース)のデータを生成する(s1302)。これらのデータは、40個(1ch)−40個(2ch)−40個(3ch)のようにチャネル順に並べられた時系列データ(図10(b)を参照)として構成され、動作判別モデル135に入力される。
上述の動作判別モデル135及び時系列分析モデル136によって離床であると判別された場合(s1306)、並びに、s1304において離床予兆ではないと判別された場合及びs1305において離床ではないと判別された場合には(s1307)、その判別結果は通信部140に送られ、通信部140から有線又は無線通信を介してデータサーバ150に送信される(s1308)。データサーバ150は、判別結果、その受信時刻、及び動作判別装置IDをデータベース151に格納する(s1309)とともに、判別結果を携帯端末等160に通知する(s1310)。この通知は、離床と判別された場合にのみ行われるようにしても、判別の都度行われるようにしてもよい。
次いで、解析・制御部130が、解析・制御部130の記憶手段133に蓄積され上述のように動作判別に用いられた各々のチャネルの40個の電圧値のうち最も古い電圧値をチャネルごとに破棄した(s1310)後、処理はステップs1302に戻る。解析・制御部130は、次の新たな0.1秒の電圧値を各々のチャネルのデータに加えて、新たな40個/ch×3chのデータを生成し、再び記憶手段133に蓄積する。このように生成された新たなデータを用いて、s1302〜s1310の処理が再び行われる。
本発明は、患者等の異なる動作に応じた特徴が現れている、複数の受動センサから出力された電圧波形を動作判別モデルに入力し、動作を判別するものである。しかしながら、例えばセンサの個数やレンズの種類等といったセンサ条件が適切に設定されていない場合には、検知された動作の種類が異なってもそれぞれの動作の固有の特徴が電圧波形に良好に現れないこともあり、そのような電圧波形を動作判別モデルに入力しても正確な判別結果が得られないことになる。したがって、本発明に係る動作判別装置190においては、センサモジュール部110は、動作の種類に応じて生成される電圧波形にそれぞれの動作の固有の特徴が現れるように予め最適化される。本発明においては、このセンサモジュール部110の最適化には、ニューラルネットワークが用いられる。
本発明は、上述のように、患者等の異なる動作に応じた特徴が現れている、複数の受動センサ410〜430から出力された電圧波形を動作判別モデル135に入力し、その出力結果から動作を判別するものである。しかしながら、仮に最適化されたセンサモジュール部110によって検知され、患者等の異なる動作に応じた特徴が現れた電圧波形から生成されたデータが、動作判別モデル135に入力された場合であっても、動作判別モデル135のパラメータ条件が最適化されなければ、正確な判別結果が得られないことになる。したがって、本発明に係る動作判別装置190においては、動作の種類に応じてそれぞれの動作の固有の特徴が現れた電圧波形から生成された時系列データが入力された場合に、それぞれの動作の判別が高精度に可能となるように、予め最適化された動作判別モデル135を用いる。
本発明の一実施形態においては、解析・制御部130の閾値判定手段137が、動作判別装置190の受動センサ410〜430の各々から出力される電圧値の大きさと所定の閾値との比較を行い、電圧値が所定の閾値より小さい場合には動作判別を行わないようにすることによって、動作判別の精度をより高めることができる。動作判別装置190のセンサモジュール部110によってベッド301上の患者等の動作が検知されると、動作の種類に対応する電圧値がセンサモジュール部110から出力される。本発明の一実施形態においては、センサモジュール部110には3個の受動センサ410〜430が設けられているため、センサモジュール部110からは3チャネルの電圧値が出力される。これらの電圧値は、判別されるべき動作が行われた場合以外にも出力されるため、そうした電圧値が多くなると、本来判別されるべき動作に特徴的な微妙な電圧波形が不要な電圧波形に紛れ、判別精度に悪影響が与えられることになる。そこで、本発明の一実施形態においては、判別されるべき動作が正しく判別されるように電圧値に対する所定の閾値を決定し、センサモジュール部110から出力される電圧値がその閾値を上回る場合のみ、動作判別モデル135が動作判別を行うようにすることができる。
Claims (24)
- 対象の動作をリアルタイムで判別するための最適化された動作判別装置であって、
複数の検知領域の各々における対象の動作に対応して異なるアナログ値を出力する検知手段であって、対象の既知の動作に対応して最適化前の検知手段から出力されたアナログ値を時系列データに加工し、前記時系列データを入力ノードへの入力とし前記既知の動作の種類を出力ノードからの出力とするニューラルネットワークを用いて前記既知の動作に対応する判別結果を出力し、その判別結果に基づいて前記最適化前の検知手段の条件を変更することを繰り返すことによって予め最適化された、検知手段と、
前記複数の検知領域の各々における前記対象の動作に対応して出力された前記アナログ値を、量子化された時系列データに加工するデータ加工手段と、
前記時系列データを入力ノードへの入力とし前記対象の動作の種類を出力ノードからの出力とする予め最適化されたニューラルネットワークを用いた動作判別モデルによって、前記対象の動作を判別した判別結果を出力する動作判別手段と、
を含む動作判別装置。 - 前記動作判別モデルは、前記検知手段を用いて対象の既知の動作に対応するアナログ値を取得する工程と、前記複数の検知領域の各々における前記既知の動作に対応して出力された前記アナログ値を量子化された時系列データに加工する工程と、前記時系列データを前記ニューラルネットワークの入力ノードに入力して前記動作の種類を出力ノードから出力することによって前記既知の動作に対応する判別結果を出力する工程と、前記判別結果と前記既知の動作との比較に基づいて前記ニューラルネットワークのパラメータを調整する工程とを繰り返すことによって最適化された、請求項1に記載の動作判別装置。
- 前記検知手段は、複数の検知素子と複数のレンズとを有する受動センサを含む、請求項1に記載の動作判別装置。
- 前記複数の検知素子は、デュアル素子、クワッド素子、又はそれらの組み合わせである、請求項3に記載の動作判別装置。
- 前記検知手段の前記条件は、前記複数の検知素子の種類、個数、位置、感度、及び回転角度、前記複数の検知素子の各々に取り付けられる前記複数のレンズの種類及び回転角度、並びに、前記検知手段の設置角度のうちの1つ又は複数の組み合わせである、請求項4に記載の動作判別装置。
- 前記動作判別手段は時系列分析モデルをさらに含み、該時系列分析モデルは、前記動作判別モデルによって判別された複数の判別結果の時系列的な関係に基づいて前記動作を判別し、判別結果を出力する、請求項1に記載の動作判別装置。
- 前記複数の判別結果の前記時系列的な関係は、順次出力される前記複数の判別結果のうちの所定の数について計算される、特定の動作として判別された判別結果の数とそれ以外の判別結果の数との割合、及び、特定の動作として判別された判別結果の連続個数である、請求項6に記載の動作判別装置。
- 前記動作判別手段によって出力された前記判別結果を携帯情報端末又は携帯情報端末に前記判別結果を通知するための装置に送信する通信手段をさらに含む、請求項1に記載の動作判別装置。
- 前記検知手段から出力される前記アナログ値と所定の閾値とを比較する判定手段をさらに含み、前記アナログ値が前記所定の閾値より小さい場合には動作判別を行わないようにした、請求項1に記載の動作判別装置。
- 前記対象は被介護者、患者、又は高齢者であり、前記対象の前記動作は、前記被介護者、前記患者、又は前記高齢者のベッドからの離床、転落、離脱、及びそれ以外のいずれかである、請求項1に記載の動作判別装置。
- 対象の動作をリアルタイムで判別する動作判別装置において動作を判別するための最適化された動作判別モデルの構築方法であって、
複数の検知領域の各々における対象の動作に対応して異なるアナログ値を出力する検知手段を用いて、対象の既知の動作に対応するアナログ値を取得する検知ステップであって、前記検知手段は、対象の既知の動作に対応して最適化前の検知手段から出力されたアナログ値を時系列データに加工し、前記時系列データを入力ノードへの入力とし前記既知の動作の種類を出力ノードからの出力とするニューラルネットワークを用いて前記既知の動作に対応する判別結果を出力し、その判別結果に基づいて前記最適化前の検知手段の条件を変更することを繰り返すことによって予め最適化された、検知ステップと、
前記複数の検知領域の各々における前記既知の動作に対応して出力された前記アナログ値を、量子化された時系列データに加工するデータ加工ステップと、
前記時系列データを入力ノードへの入力とし、前記既知の動作の種類を出力ノードからの出力とするニューラルネットワークを用いて、前記既知の動作に対応する判別結果を出力する動作判別ステップと
前記判別結果と前記既知の動作との比較に基づいて前記ニューラルネットワークのパラメータを調整する最適化ステップと、
を含む動作判別モデルの構築方法。 - 前記検知手段は、複数の検知素子と複数のレンズとを有する受動センサを含む、請求項11に記載の動作判別モデルの構築方法。
- 前記複数の検知素子は、デュアル素子、クワッド素子、又はそれらの組み合わせである、請求項12に記載の動作判別モデルの構築方法。
- 対象の動作をリアルタイムで判別するように最適化された動作判別方法であって、
複数の検知領域の各々における対象の動作に対応して異なるアナログ値を出力する検知手段を用いて、対象の動作に対応するアナログ値を取得する検知ステップであって、前記検知手段は、対象の既知の動作に対応して最適化前の検知手段から出力されたアナログ値を時系列データに加工し、前記時系列データを入力ノードへの入力とし前記既知の動作の種類を出力ノードからの出力とするニューラルネットワークを用いて前記既知の動作に対応する判別結果を出力し、その判別結果に基づいて前記最適化前の検知手段の条件を変更することを繰り返すことによって予め最適化された、検知ステップと、
前記複数の検知領域の各々における前記対象の動作に対応して出力された前記アナログ値を、量子化された時系列データに加工するデータ加工ステップと、
前記時系列データを入力ノードへの入力とし前記対象の動作の種類を出力ノードからの出力とする予め最適化されたニューラルネットワークを用いた動作判別モデルによって、前記対象の動作を判別した判別結果を出力する動作判別ステップと、
を含む動作判別方法。 - 前記動作判別モデルは、前記検知手段を用いて対象の既知の動作に対応するアナログ値を取得する工程と、前記複数の検知領域の各々における前記既知の動作に対応して出力された前記アナログ値を量子化された時系列データに加工する工程と、前記時系列データを前記ニューラルネットワークの入力ノードに入力して前記動作の種類を出力ノードから出力することによって前記既知の動作に対応する判別結果を出力する工程と、前記判別結果と前記既知の動作との比較に基づいて前記ニューラルネットワークのパラメータを調整する工程とを繰り返すことによって最適化される、請求項14に記載の動作判別方法。
- 前記検知手段は、複数の検知素子と複数のレンズとを有する受動センサを含む、請求項14に記載の動作判別方法。
- 前記複数の検知素子は、デュアル素子、クワッド素子、又はそれらの組み合わせである、請求項16に記載の動作判別方法。
- 前記検知手段の前記条件は、前記複数の検知素子の種類、個数、位置、及び角度、前記複数の検知素子の各々に取り付けられる前記複数のレンズの種類及び角度、並びに、前記検知手段の設置角度のうちの1つ又は複数の組み合わせである、請求項17に記載の動作判別方法。
- 前記動作判別ステップは、前記動作判別モデルによって判別された複数の判別結果の時系列的な関係に基づいて前記動作を判別し、判別結果を出力するステップをさらに含む、請求項14に記載の動作判別方法。
- 前記複数の判別結果の前記時系列的な関係は、順次出力される前記複数の判別結果のうちの所定の数について計算される、特定の動作として判別された判別結果の数とそれ以外の判別結果の数との割合、及び、特定の動作として判別された判別結果の連続個数である、請求項19に記載の動作判別方法。
- 前記動作判別ステップによって出力された前記判別結果を携帯情報端末又は携帯情報端末に前記判別結果を通知するための装置に送信する通信ステップをさらに含む、請求項14に記載の動作判別方法。
- 前記検知手段から出力される前記アナログ値と所定の閾値とを比較する判定ステップをさらに含み、前記アナログ値が前記所定の閾値より小さい場合には動作判別を行わないようにする、請求項14に記載の動作判別方法。
- 前記対象は被介護者、患者、又は高齢者であり、前記対象の前記動作は、前記被介護者、前記患者、又は前記高齢者のベッドからの離床、転落、離脱、及びそれ以外のいずれかである、請求項14に記載の動作判別方法。
- 請求項14から請求項23のいずれか1項に記載の方法のステップをコンピュータに実行させるためのプログラム・コード命令を含むコンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008250072 | 2008-09-29 | ||
JP2008250072 | 2008-09-29 | ||
PCT/JP2009/004889 WO2010035485A1 (ja) | 2008-09-29 | 2009-09-25 | 動作判別装置、動作判別モデルの構築方法、動作判別方法、及び動作判別コンピュータ・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4633865B2 true JP4633865B2 (ja) | 2011-02-16 |
JPWO2010035485A1 JPWO2010035485A1 (ja) | 2012-02-16 |
Family
ID=42059498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010525094A Expired - Fee Related JP4633865B2 (ja) | 2008-09-29 | 2009-09-25 | 動作判別装置、動作判別モデルの構築方法、動作判別方法、及び動作判別コンピュータ・プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120023048A1 (ja) |
JP (1) | JP4633865B2 (ja) |
WO (1) | WO2010035485A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013042631A1 (ja) * | 2011-09-20 | 2013-03-28 | パラマウントベッド株式会社 | 離床通報装置及びプログラム |
US20170055918A1 (en) * | 2015-08-28 | 2017-03-02 | Focus Ventures, Inc. | Automated motion of interest recognition, detection and self-learning |
JP6998518B2 (ja) * | 2016-08-24 | 2022-01-18 | パナソニックIpマネジメント株式会社 | 運動機能推定情報生成装置、運動機能推定システム、運動機能推定情報生成方法、運動機能推定方法及び記録媒体 |
JP7447999B2 (ja) * | 2020-05-15 | 2024-03-12 | 日本電気株式会社 | 処理装置、推定装置、監視システム、処理方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5309145A (en) * | 1992-05-01 | 1994-05-03 | Samsonite Corporation | Travel convenience and security device |
JP2000035955A (ja) * | 1998-07-17 | 2000-02-02 | Toshiba Mach Co Ltd | 階層型ニューラルネットワークの構成方法 |
US6049281A (en) * | 1998-09-29 | 2000-04-11 | Osterweil; Josef | Method and apparatus for monitoring movements of an individual |
JP4876304B2 (ja) * | 2000-09-08 | 2012-02-15 | パナソニック電工株式会社 | 焦電型赤外線センサ |
JP4063618B2 (ja) * | 2002-09-09 | 2008-03-19 | 株式会社山武 | 睡眠モニタリングシステム及びモニタリング装置 |
EP1586076A2 (en) * | 2003-01-15 | 2005-10-19 | Bracco Imaging S.p.A. | System and method for optimization of a database for the training and testing of prediction algorithms |
US20040186813A1 (en) * | 2003-02-26 | 2004-09-23 | Tedesco Daniel E. | Image analysis method and apparatus in a network that is structured with multiple layers and differentially weighted neurons |
JP4486809B2 (ja) * | 2003-12-22 | 2010-06-23 | フランスベッド株式会社 | ベッド装置 |
JP2007220055A (ja) * | 2006-02-14 | 2007-08-30 | Gootech:Kk | 時系列パターン解析を伴うニューラルネットワーク |
JP4579865B2 (ja) * | 2006-06-05 | 2010-11-10 | 日本電信電話株式会社 | 起き上がり検知装置 |
JP4697060B2 (ja) * | 2006-06-15 | 2011-06-08 | パナソニック電工株式会社 | 睡眠評価システム |
JP2008212306A (ja) * | 2007-03-01 | 2008-09-18 | Paramount Bed Co Ltd | 寝台装置 |
US8036425B2 (en) * | 2008-06-26 | 2011-10-11 | Billy Hou | Neural network-controlled automatic tracking and recognizing system and method |
-
2009
- 2009-09-25 JP JP2010525094A patent/JP4633865B2/ja not_active Expired - Fee Related
- 2009-09-25 WO PCT/JP2009/004889 patent/WO2010035485A1/ja active Application Filing
- 2009-09-25 US US12/998,230 patent/US20120023048A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JPWO2010035485A1 (ja) | 2012-02-16 |
WO2010035485A1 (ja) | 2010-04-01 |
US20120023048A1 (en) | 2012-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4785975B1 (ja) | 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム | |
US10080513B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
WO2019239813A1 (ja) | 情報処理方法、情報処理プログラム及び情報処理システム | |
CN102985007B (zh) | 健康装置监视装置 | |
Rodrigues et al. | Fall detection system by machine learning framework for public health | |
CN109697830B (zh) | 一种基于目标分布规律的人员异常行为检测方法 | |
Xefteris et al. | Performance, challenges, and limitations in multimodal fall detection systems: A review | |
KR101259560B1 (ko) | 손목 착용형 낙상 감지 장치 및 방법과 이를 이용한 낙상 감지 시스템 | |
JP7094814B2 (ja) | 検出システム、および検出方法 | |
CN113397520A (zh) | 室内对象的信息检测方法及装置、存储介质和处理器 | |
JP4633865B2 (ja) | 動作判別装置、動作判別モデルの構築方法、動作判別方法、及び動作判別コンピュータ・プログラム | |
AU2013296153A1 (en) | A system, method, software application and data signal for determining movement | |
JP7028787B2 (ja) | 視覚的コンテキストを用いる、生理学的パラメータの測定の適時トリガ | |
US20220122722A1 (en) | System and method for patient management using multi-dimensional analysis and computer vision | |
CN115984967A (zh) | 基于深度学习的人体跌倒检测方法、装置及系统 | |
CN113384247A (zh) | 照护系统与自动照护方法 | |
JP6870465B2 (ja) | 被監視者監視装置および該方法ならびに被監視者監視システム | |
JP2019051129A (ja) | 嚥下機能解析システム及びプログラム | |
Grassi et al. | A hardware-software framework for high-reliability people fall detection | |
Bauer et al. | Modeling bed exit likelihood in a camera-based automated video monitoring application | |
AU2021106898A4 (en) | Network-based smart alert system for hospitals and aged care facilities | |
Sukreep et al. | iWatch: a fall and activity recognition system using smart devices | |
JP2020201592A (ja) | 行動検知装置、それを備えるシステム、行動検知方法、および、プログラム | |
Brezmes et al. | Surveillance with alert management system using conventional cell phones | |
US20230016640A1 (en) | System and method for automated ambient mobility testing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101116 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4633865 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |