JP2021086605A - イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ - Google Patents

イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ Download PDF

Info

Publication number
JP2021086605A
JP2021086605A JP2020121341A JP2020121341A JP2021086605A JP 2021086605 A JP2021086605 A JP 2021086605A JP 2020121341 A JP2020121341 A JP 2020121341A JP 2020121341 A JP2020121341 A JP 2020121341A JP 2021086605 A JP2021086605 A JP 2021086605A
Authority
JP
Japan
Prior art keywords
features
subject
risk
fall
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020121341A
Other languages
English (en)
Other versions
JP7559391B2 (ja
Inventor
ヤンシャ ザング
Yanxia Zhang
ヤンシャ ザング
ガーゲンソン アンドレアス
Andreas Girgensohn
ガーゲンソン アンドレアス
チョン リュウ
Qiong Liu
リュウ チョン
ユリアス チアヒヤデ
Tjahjadi Yulius
ユリアス チアヒヤデ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Publication of JP2021086605A publication Critical patent/JP2021086605A/ja
Application granted granted Critical
Publication of JP7559391B2 publication Critical patent/JP7559391B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0492Sensor dual technology, i.e. two or more technologies collaborate to extract unsafe condition, e.g. video tracking and RFID tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/22Status alarms responsive to presence or absence of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Fuzzy Systems (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

【課題】落下が発生する前に落下を予測するイベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム及びプロセッサを提供する。【解決手段】コンピュータ実施方法は、環境内の物体の上に配置された対象の情報に基づいて、データストリームを生成することと、データストリームについて、センサから抽出された時空間特徴によって表される物体又は環境に対する対象の動きに関連付けられた特徴を抽出することと、抽出された特徴に基づく動きの尤度に関連付けられた予測及び複数の落下リスク要因に基づく動きのリスクプロファイルを生成することと、行動を実行するために、予測及びリスクプロファイルをルールベースに適用することと、を含む。【選択図】図4

Description

関連出願の相互参照
本出願は、2019年8月1日に出願された米国仮特許出願第62/881,665号明細書の優先権を主張し、その全内容は参照により本明細書に組み込まれる。
実施例の態様は、行動予想、電子健康記録、及び個々のイベントリスクプロファイルの組み合わせによるイベントの防止及び予測に関連付けられた方法、システム、及びユーザ体験に関する。
関連技術では、人がベッド、椅子、又はその他の物体から落下する可能性がある。このような落下は、軽度のあざ、身体障害、又は死亡などの怪我を人に生じる可能性がある、重大な問題である。入院又は病院環境では、落下及び関連する怪我は、入院中に患者が把握する主要な状態の一部である。米国では、毎年100万人を超える患者が病院内で落下しており、これは病院が把握した状態の85%を占めると推定される。さらに、患者の落下の29%から55%は怪我を招き、落下による怪我に関わる費用は年間300億ドルを超える。落下検出への関連技術アプローチは、病院などの医療施設、並びにそのスタッフにも、著しい経済的、感情的、及び法的な圧力を課す可能性がある。
落下の問題に対処するための関連技術アプローチは、患者がベッドから落下した後に警告を発するための、ベッド脱出警報若しくはベッド又は床のパッドの使用などのイベント検出アプローチに焦点を当ててきた。関連技術アプローチは、落下が発生した後に落下を検出するために、センサデータを分析する。しかしながら、センサデータに加えて、落下の一因となり得る人口構成、健康状態、及び周辺又は周囲環境など、その他の多面的な要因がある。
図1(a)から図1(c)は、様々な関連技術アプローチを示している。いくつかの関連技術アプローチは、パッド上の圧力の有無に反応して警報がトリガされるように、圧力ベースになっている。たとえば、図1(a)は、感圧パッド101に圧力がかかると警報がトリガされ得るように、ベッドで寝ている患者の下に配置された感圧パッド101を示している。しかしながら、この関連技術アプローチは、様々な問題及び不都合を有する可能性がある。たとえば、この関連技術アプローチは反応性であり、患者がベッドから出る前に十分に迅速に起動されない可能性がある。たとえば、ただし限定ではなく、圧力ベースの関連技術アプローチは、患者の体重差及び非落下運動による頻繁な誤警報、並びに上記で説明したような起動の不適切なタイミングの問題をもたらす可能性がある。したがって、圧力パッドは、患者がベッドから出るのを検出するには正確ではない場合がある。
あるいは、患者は落下時又は落下後に警報を手動で起動してもよい。図1(b)は、患者が寝ることができるベッドのフレームに配置されたベッド脱出警報103を示している。他のアプローチは、患者とともにシッターを利用すること、又はベッド拘束105として図1(c)に示されるような患者自体の動きを防止するベッド拘束を含む。
加えて、関連技術では、看護師は、落下リスクが高い患者に追加のリソースを投入する必要がある。落下リスクの評価は、モース・フォール・スケール(Morse Fall Scale)又は運動テストなど、関連技術のリスク評価ツールに基づくことができる。しかしながら、この関連技術アプローチは、様々な問題及び不都合を有する。たとえば、ただし限定ではなく、事実上病院内のすべての患者の落下リスクが高いと評価されるため、これらのリスク評価は信頼できない。したがって、これは落下リスクの高い特定の患者にリソースを割り当てるのに有用なツールではない。さらに、落下リスクは、移動性のみならず、関連技術のリスク評価テストでカバーされない別の要因にも関連している可能性がある。これらの別の要因は、たとえば、周囲環境、医療プロセスなどを含み得る。
加えて、関連技術アプローチを採用している看護師が追加のリソースを投入したとしても、介入が必要なときに患者が看護師を呼ぶのを忘れたり、呼ぶことができなかったりする可能性がある。また、リスク評価の難しさが、いつ患者が介入を必要とするかに関する課題を提示するので、関連技術アプローチは、患者のケアに優先順位を付けること、及びどの患者が介助を必要とする場合があるか区別することを困難にする。
さらに、いくつかの関連技術アプローチは、視覚的特徴として運動履歴画像シーケンスを使用することができ、活動分類のマルコフモデルでは、運動履歴画像は、求められる動きを手動で選択する必要があって照明又はカメラのわずかな振動に敏感であり、微妙な人間の姿勢の変化を見落とす可能性がある。このような関連技術アプローチは、ベッド内の活動にのみ焦点を当てており、落下のリスクの分析のために文脈的特徴を使用しない。関連技術アプローチはまた、本明細書に記載される高密度軌跡(dense trajectory)又はディープラーニングアプローチ(deep learning approaches)の代わりに、セグメント化された運動履歴も適用する。
Preventing falls in hospitals. https://www.ahrq.gov/professionals/systems/|hospital/fallpxtoolkit/fallpxtk3.html. Accessed: 2019-06-10. AMBROSE. A. et al. "Risk factors for falls among older adults: a review of the literature" Maturitas, 2013; pp. 51-61, Vol. 75, Issue 1. ATTENELLO, F, et al. "Incidence of "never events" among weekend admissions versus weekday admissions to US hospitals: national analysis" BMJ (online), April 2015, 350:h1460, 2015. CIPPITELLI, E. et al. "Radar and RGB-Depth Sensors for Fall Detection: A Review" IEEE Sensors Journal, 2017,17 (12): pp. 3585-3604. CUTTLER, S. ET AL. "Reducing medical-surgical inpatient falls and injuries with videos, icons and alarms" BMJ Open Quality, 6(2):e000119, 2017 (9 pages). DAI, XIAOXIAO "Vision-Based 3D Human Motion Analysis for Fall Detection and Bed-Exiting" Electronic Theses and Dissertations 152.2013 (65 pages) FEDER, G. et al "Guidelines for the prevention of falls in people over 65" BMJ. 2000 Oct 21; 321(7267): 1007-1011 FEIL, M. et al. The Use of Patient Sitters to Reduce Falls: Best Practices "Pennsylvania Patient Safety Advisory, Vol. 11. No.1; March 2014 (8 pages). OZDEMIR, A. T. et al "Detecting Falls with Wearable Sensors Using Machine Learning Techniques" Sensors 2014, 14, 10691-10708; doi: 10.3390/s140610691 RAJAGOPALAN, R. et al. "Fall Prediction and Prevention Systems: Recent Trends, Challenges, and Future Research Directions" Sensors, November 2017,17(11):2509.(17 pages) . SINGH,I. et al. "Risk of inpatient falls is increased with single rooms" BMJ 2013,1 page. VERONESE, N. et al. "Association Between Short Physical Performance Battery and Falls in Older People: The Progetto Veneto Anziani Study" Rejuvenation Research, June 1, 2014,17(3); pp.276-284. WANG, H. et al. "Action Recognition with Improved Trajectories" CCV- IEEE International Conference on Computer Vision, Dec 2013, Sydney, Australia, pp.3551-3558. WILLIAMS, T. et al "An analysis of patient falls and fall prevention programs across academic medical centers" Journal of Nursing Care Quality: January/March 2014 - Volume 29 - Issue 1-p 19-29. YOSHIDA, S. "A Global Report on Falls Prevention Epidemiology of Falls" Ageing and Life Course Family and Community Health World Health Organization, 2007 (40 pages). ZHOU, J. et al. "The Complexity of Standing Postural Sway Associates with Future Falls in Community-Dwelling Older Adults: The MOBILIZE Boston Study" Scientific reports, 7(1):2924,2017.
非限定的実施例の態様は、落下の防止に関し、より具体的には、落下が検出された後にのみ反応するのではなく、潜在的に落下を防止するために、落下が発生する前に落下を予測することに関する。
本開示の技術は、落下が発生する前に落下を予測することの可能なコンピュータ実施方法、プログラム、及びプロセッサを提供することを目的とする。
第1の態様によれば、コンピュータ実施方法であって、環境内の物体の上に配置された対象の情報に基づいて、データストリームを生成し、データストリームについて、物体又は環境に対する対象の動きに関連付けられた特徴を抽出し、ここで動きはセンサから抽出された時空間特徴によって表されるものであり、抽出された特徴に基づく動きの尤度に関連付けられた予測、及び複数の落下リスク要因に基づく動きのリスクプロファイルを生成し、行動を実行するために、予測及びリスクプロファイルをルールベースに適用するための、コンピュータ実施方法が提供される。
第2の態様は、第1の態様において、前記情報は、カメラセンサ及び運動センサのうちの少なくとも1つによって感知される。
第3の態様は、第2の態様において、前記カメラセンサは、深度センサ又は温度センサを含む。
第4の態様は、第1の態様において、前記特徴を抽出することは、前記データストリーム内のフレームのシーケンスから前記時空間特徴を学習するために前記特徴又は畳み込みニューラルネットワーク(CNN)を抽出するために高密度軌跡を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することと、を含む。
第5の態様は、第1の態様において、前記予測を生成することは、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又は畳み込みニューラルネットワークに提供することであって、その出力は、前記予測を生成するためにソフトマックス層に供給される、ことを含む。
第6の態様は、第1の態様において、前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される。
第7の態様は、第1の態様において、前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行することと、を含む。
第8の態様は、第1の態様において、前記行動は、前記対象の信号を生成すること、前記物体の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む。
第9の態様は、第1の態様において、前記対象は人であり、前記物体はベッド又は椅子であり、前記動きは前記人が前記ベッド又は椅子から落下することである。
第10の態様は、プロセッサに、環境内の物体の上に配置された対象の情報に基づいて、データストリームを生成することと、前記データストリームについて、前記物体又は前記環境に対する前記対象の動きに関連付けられた特徴を抽出することであって、前記動きは時空間の視覚的特徴によって表される、抽出することと、前記抽出された特徴に基づく前記動きの尤度に関連付けられた予測、及び複数の落下リスク要因に基づく前記動きのリスクプロファイルを生成することと、行動を実行するために、前記予測及び前記リスクプロファイルをルールベースに適用することと、を実行させるプログラムである。
第11の態様は、第10の態様において、前記情報は、カメラセンサ及び/又は運動センサのうちの少なくとも1つによって感知され、前記カメラセンサは深度センサ又は温度センサを備える。
第12の態様は、第10の態様において、前記特徴を抽出することは、前記データストリーム内のフレームのシーケンスから前記特徴を抽出するために前記時空間の視覚的特徴を学習するために高密度軌跡又は畳み込みニューラルネットワーク(CNN)を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することと、を含む。
第13の態様は、第10の態様において、前記予測を生成することは、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又は畳み込みニューラルネットワークに提供することを含み、その出力は、前記予測を生成するためにソフトマックス層に供給される。
第14の態様は、第10の態様において、前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される。
第15の態様は、第10の態様において、前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行すること、を含む。
第16の態様は、第10の態様において、前記行動は、前記対象の信号を生成すること、前記物体の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む。
第17の態様は、第10の態様において、前記対象は人であり、前記物体はベッド又は椅子であり、前記動きは前記対象が前記ベッド又は椅子から落下することである。
実施例はまた、ストレージ及びプロセッサを有する非一時的コンピュータ可読媒体も含むことができ、プロセッサは、行動予想、電子健康記録、及び個々のイベントリスクプロファイルによってイベントの防止及び予測のための命令を実行することができる。
第18の態様は、要求を処理することが可能なプロセッサであって、前記プロセッサは、環境内のベッド又は椅子の上に位置する対象の情報に基づいて、データストリームを生成する操作と、前記データストリームについて、前記ベッド又は椅子又は前記環境に対する前記対象の落下に関連付けられた特徴を抽出する操作であって、前記落下は時空間の視覚的特徴によって表されるものである、抽出する操作と、前記抽出された特徴に基づく前記落下の尤度に関連付けられた予測、及び複数の落下リスク要因に基づく前記落下のリスクプロファイルを生成する操作と、行動を実行するために、前記予測及び前記リスクプロファイルをルールベースに適用する操作と、を実行するように構成されているプロセッサである。
第19の態様は、第18の態様において、前記特徴を抽出する操作は、前記データストリーム内のフレームのシーケンスから前記時空間の視覚的特徴を学習するために前記特徴又は畳み込みニューラルネットワーク(CNN)を抽出するために高密度軌跡を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することとを含み、前記予測を生成する操作は、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又はディープニューラルネットワークに提供することを含み、その出力は、前記予測を生成するためにソフトマックス層に供給され、前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される。
第20の態様は、第18の態様において、前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行することと、を含み、前記行動は、前記対象の信号を生成すること、前記ベッド又は椅子の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む。
関連技術アプローチを示す図である。 関連技術アプローチを示す図である。 関連技術アプローチを示す図である。
実施例による、対象及び部屋の様々な態様を示す図である。
いくつかの実施例による、システムの様々な態様を示す図である。
いくつかの実施例による、視覚システムに関連付けられた、若しくは行動又はイベントを予測するワークフローを示す図である。
いくつかの実施例による、視覚システムに関連付けられた、若しくは行動又はイベントを予測するワークフローの絵図である。
いくつかの実施例による、局所特徴の高密度サンプリングを示す図である。 いくつかの実施例による、局所特徴の高密度サンプリングを示す図である。 いくつかの実施例による、局所特徴の高密度サンプリングを示す図である。
いくつかの実施例による、予測事例の抽出を示す図である。
いくつかの実施例のプロセス例を示す図である。
いくつかの実施例での使用に適した例示的なコンピュータ装置を有する例示的な計算環境を示す図である。
いくつかの実施例に適した環境例を示す図である。
以下の詳細な説明は、本出願の図面及び実施例のさらなる詳細を提供する。明確さのため、図面間の冗長な要素の参照番号及び説明は省略される。説明全体にわたって使用される用語は、例として提供されており、限定することを意図するものではない。
実施例の態様は、イベントの発生に先立つイベントの防止に関連するシステム及び方法を対象とする。たとえば、イベントは、物体(たとえば、環境)に対する対象(たとえば、人間)の動き、より具体的には、ベッド又は椅子からの人間(たとえば、患者)の落下に関し、これは病院内の対象又は介護施設の入居者などであり得、引き続き対象と呼ばれる。たとえば、ただし限定ではなく、前述の実施例は、夢遊病又は睡眠中のその他の異常な動きなどの状態に対処するために、対象の住居内など、非病院設定で適用され得る。さらに、実施例は、睡眠時無呼吸、乳幼児突然死症候群(SIDS:Sudden Infant Death Syndrome)、又はその他の状態など、他のタイプの状態に関するリスクを予測して対処し得る、別のタイプのセンサに組み込まれ得る。上記で説明されたのと類似の方法で、病院のベッドの制御に関して、実施例は、経静脈栄養法、酸素供給、呼吸サポートなど、その他の医療機器を制御してもよい。
運動軌跡及びディープリカレントニューラルネットワーク(RNN)に基づいて、対象が安全な位置を出ようとしているか否かを予測するために、視覚ベースの方法が提供される。また、動的で対象特有の落下リスクプロファイリングは、以下で説明されるように、内的及び外的要因に基づいて提供される。さらに、対象がベッド内の位置を出そうであるか否かの予測モデルとリスクプロファイリングとの組み合わせは、異なるリスク状況に陥ることの異なる重大性に基づいてカスタマイズ又は調整される落下の防止のために提供される信号伝達戦略を生成するために使用される。
より具体的には、実施例は、落下予測分析及び防止のための信号など、落下防止のためのシステム及び方法を含む。ビデオカメラなどのセンサから受信した情報は、対象の怪我のリスクを予想するために使用でき、ベッド又は椅子などの安全な位置から対象が動く尤度を連続的に推定し得る。
たとえば、センサは、対象の活動を監視し得る、対象の周囲の非侵入型の視覚ベースのセンサであってもよい。ビデオの色、グレースケール、深度、及びその他の態様が提供され得る。さらに、センサは、対象の動きを検出するためにパッシブ赤外線、マイクロ波、超音波、又はその他の媒体を捕捉するために提供され得る。
さらに、センサは、対象自身のごく近い場所での活動を感知するだけでなく、対象、ベッド又は椅子などの対象の安全な場所、及び対象が位置する部屋の周辺環境を含むがこれらに限定されない、対象の環境全体も感知することに、留意する。
この尤度は動的であり、対象ごとに異なる可能性がある。また、尤度は一般に、対象がベッドに横たわるか又は椅子に座るなどの安全な位置にいるときに低くなり、対象が安全な位置から動いて安全な位置から出ようとすると増加する。落下が実際に発生する前に落下を予測することで、落下を防止することができるかもしれない。
システムは、たとえば対象の健康記録から受信した情報、行動パターン、バイタルサイン、及び周囲の状況に基づいてリスク要因を監視することによって、連続的に更新できる。落下を防止するために実行すべき信号伝達戦略に関する推奨を提供するために、信号伝達の重大性に基づいてランキングが提供され得る。その結果、落下が発生した後に検出するのではなく、発生に先立って落下が予測される。
実施例は、対象が安全な位置から出ようとしているか否かを予測する、視覚ベースのアプローチを採用する。時空間の視覚的特徴(たとえば、高密度軌跡)は、移動体のデータストリーム(たとえば、画像ストリーム)から局所的原子行動パターンを抽出するために使用される。さらに、特徴を符号化するためにフィッシャーベクトルが使用され、ベッド又は椅子などの環境に関連付けられた活動予測のためにニューラルネットワークが使用される。
さらに、実施例は動的で対象特有のリスクプロファイリングを採用するが、これは落下のリスクに関連付けられている。たとえば、活動履歴、内部要因、及び外部要因は、落下に関連付けられた個人のリスク分析を提供するために融合され得る。落下に関連付けられた複数のリスク要因が変数に符号化され、回帰分析を使用して落下リスクが計算され得る。対象の行動パターンの分析を使用することで、対象の次の行動を予測するための予測モデルが生成され得る。たとえば、ただし限定ではなく、対象が横たわっていて急に起き上がった場合、対象がベッドから出ようとする尤度を計算することができる。この計算に基づいて、落下が発生する前に止めるための信号を、出ようとしている対象又は別のエンティティに提供することができる。こうして、落下を防止又は回避するために使用され得る複数のレベルの尤度のうちの1つを有する信号が、生成及び提供される。
加えて、実施例にしたがって落下防止信号伝達戦略が提供される。たとえば、対象の落下リスクと対象が安全な位置から脱出する尤度とを組み合わせることによって、タイミング及び介入の仕方とともに、介入の重大性が決定され得る。
実施例の態様は、イベントの予測を対象とし、より具体的には、対象がベッド又は椅子から脱出又は出るのを予測することを対象とする。実施例は、早期の予測及びリスク評価、これに続くタイムリーな行動を対象とする。本明細書で説明されるアプローチは、行動予想、電子健康記録、及び個別の落下リスクプロファイルを組み合わせる。
図2は、実施例によって提案されたシステム200を示す。環境201で、ベッド又は椅子などの物体203が提供される。対象205は、物体203上の静止位置にいる。さらに、運動センサ207及びカメラセンサ209が設けられている。運動センサ207は、パッシブ赤外線、マイクロ波、又は超音波、若しくはこれらの組み合わせのタイプの運動センサを含み得るが、これらに限定されない。カメラセンサ209は、グレースケール、RGB(赤緑青)、暗視、深度、及び/又はサーマルを含むがこれらに限定されない、1又は複数のタイプから選択され得る。運動センサ207及びカメラセンサ209は、部屋の天井又は壁などの組み合わせた場所に配置されてもよく、又は別々の場所に配置されてもよく、たとえば深度カメラ又は運動センサの使用など、プライバシーを保護するやり方で必要な情報を提供するために配置又は選択され得る。カメラの代わりの運動センサの使用、対象に関して感知又は収集された情報の匿名化、環境などを含むがこれらに限定されない、その他のプライバシー保護アプローチが提供されてもよい。
実施例によれば、そしてより具体的には、病院情報などの電子データを有する1又は複数のセンサから受信したデータを自動学習システムに組み込むことによって、ディープニューラルネットワークは、対象が安全な位置から脱出する尤度Pを予測するために、視覚ベースの行動予想を提供する。さらに、内在的、個人的、及び文脈的な特徴が、落下のリスクRを推定するために融合される。
たとえば、対象が同じ位置から脱出する尤度P、及び時間tにおける対象の落下に関連付けられた落下リスクRが計算され得る。たとえば、ただし限定ではなく、対象がベッドに横たわっている場合、Pは対象がベッドから出る尤度を表し、Rは対象が落下するリスクに関する連続的なリスクプロファイリングを表す。Rが、所定の閾値を超えるなど、高いとき、対象又は対象の世話を担当する他者には、リスクの高い対象の介助を進めることができるように、高い注意喚起が提供されるべきである。一方、Rが低いときは、実施例に関連する精度が向上するため、誤警報が回避され得る。
加えて、P及びRは、適用される落下防止介入戦略の重大性を決定するために組み合わせられる。たとえば、以下のルールベースによる重大性のレベルに基づいて、信号が生成及び発信されてもよい。
・Pが低くRも低い場合、信号を送らない
・Pが低くRが高い場合、介助の要求を提案するために対象に信号を送る
・Pが高くRが低い場合、安全手順に従うように対象に信号を送る
・Pが高くRも高い場合、安全な位置にとどまるように対象に信号を送り、介助のためにスタッフにも直接信号を送る。
図3は、実施例によるシステム概要を示す。システム概要300に示されるように、上記で論じられたカメラ及び/又は運動センサから、複数の入力が提供される。
より具体的には、301に示されるように、カメラなどのセンサから、時空間の視覚的特徴が提供される。たとえば、ただし限定ではなく、301でのセンサからの入力は、ビデオストリーム311を含むがこれに限定されず、そのために、高密度軌跡などの、ただしこれに限定されない、時空間の視覚的特徴313が生成される。カメラは、対象だけでなく、又はベッドだけでもなく、部屋自体の周囲環境を含むがこれに限定されない、対象がいる環境全体を感知する。
303に示されるように、過去のイベント及び健康記録などの電子記録から情報が提供されてもよい。たとえば、ただし限定ではなく、過去のイベントは、319の、トイレに行くなど最新のイベントの時刻、321で警報が押されたなどの対象の行動などを含むが、これらに限定されない。健康記録は、315での血圧などの対象のバイタルサインに関連する情報、及び317での以前の落下回数などの過去の関連イベントに関する情報を含み得るが、これらに限定されない。
301からの感知情報及び303からの電子記録情報は、323で入力としてリカレントニューラルネットワーク(RNN)に提供される。より具体的には、本実施例は、複数のフレーム325を含む、長・短期記憶(LSTM)RNN又は深層畳み込みニューラルネットワーク(CNN)を含み得る。この実施例では、327で2つの層を有するアプローチが提供される。
表1は、実施例に入力され得る感知情報301及び電子記録情報303の例を示す。リスク要因は、個人特有、環境的、及び行動ルーチンの3つの主要なカテゴリに分類される。個人特有リスク要因は、バイタルサイン、落下履歴、医療情報、身体情報、又は人口統計情報など、対象に関連付けられた情報を含む。環境的落下リスク要因は、場所、部屋タイプなどのユニット、同室者の存在、光強度及び温度、並びに時間情報など、周辺環境に関連付けられた情報を含む。行動リスク要因は、介助者の要求、トイレの使用(たとえば、連続的活動)、睡眠パターン情報(たとえば、カテゴリ別の活動)、及び医療プロセスなど、行動ルーチンに関連付けられた情報を含む。また、リスク要因変数は、連続変数又は離散変数として特徴付けられてもよい。
現在の医療事故について収集された情報を有することに加えて、情報は、たとえば以前の医療事故、若しくは家庭又は病院で発生する別の活動などに基づいて、事前に収集されてもよい。いくつかの実施例によれば、家庭と病院とで同じセンサが提供されてもよく、各設定で受信された情報は、ローカル環境向けに較正されてもよい。
Figure 2021086605
表1に記載されたリスク要因は単なる例であり、当業者によって理解されるように、別のリスク要因が含まれてもよく、又はこれらのリスク要因に置き換えられてもよい。上述のように、関連技術アプローチは、環境的リスク要因を考慮していない。
前述のリスク要因の現在の状態の測定に加えて、追加の実施例は、長期的な測定を含んでもよい。たとえば、リスク評価は、対象、及び環境及び/又は行動ルーチンについて、経時的に取得されてもよい。経時的なリスク評価の変化は、リスク評価における将来の変化を予測するために使用され得る。一実施例では、表1に示されるものなどのリスク要因は、たとえば毎年、5年ごとなどの時間間隔で、対象について取得されてもよい。結果は、将来のリスクの予想を提供するために、長期的に分析され得る。
さらに、個人に特有であり得るリスク要因の変化に加えて、リスク要因は、環境に関しても変化し得る。たとえば、ただし限定ではなく、病院内の異なる部屋は、同じ対象及び同じ行動ルーチンでも異なるリスク要因を有する場合があり、又は異なる病院は、同じ診療科の同じ対象及び同じ行動ルーチンでも、異なるリスク評価を有する場合がある。これらの変化は、リソース割り当て、スタッフ配置、部屋の割り当て、病院のレイアウトなどに起因する可能性がある。本明細書で説明されるように、このような要因は、リスク要因の決定に組み込まれ得る。
LSTM RNNの出力305は高密度層329を含み、LSTM層は、様々な時間にベッドから出るなどのイベントの尤度(たとえば、タイムスタンプ)を予測するために、高密度層と組み合わせられる。本例示的実施例では、1、5、及びkのタイムスタンプが、それぞれ331、333、及び335で表されている。
ベッドから出るという予測された尤度を提供する、305に示される出力は、現在の落下リスクを推定するために組み合わせられる。所望により、注意ベースのLSTMが使用されてもよい。より具体的には、このアプローチは、時間的関係マイニング(temporal relationship mining)中に特徴の重要性を学習し得る。あるいは、ゲート付き回帰型ユニット(gated recurrent units:GRU)及び時間的畳み込みネット(temporal convolution nets:TCN)などの代替シーケンスモデルを使用する、別の実施例又は代替例も使用され得る。
図4は、実施例によって提案されたワークフローを示す。より具体的には、行動予想のビデオ監視コンポーネントに関連するワークフロー400が提供される。出力は、現在の時間に、対象がベッドから出るなど、対象が安全な位置から動く尤度に関連付けられた連続スケールP∈[0,1]である。
401では、環境を感知するために、カメラセンサなどの感知装置が提供される。たとえば、及び上記で論じられたように、RGB、RGB−D、サーマル、及び暗視カメラを含むがこれらに限定されないカメラが採用され得る。たとえば、ただし限定ではなく、前景の対象をセグメント化するために、深度カメラ又はサーマルカメラが使用され得る。403では、ベッド又は椅子の上の対象の動き、並びに対象がいる部屋など、ベッドの周りの環境で生じる可能性のある人間の動きが、ストリーミングされる。
405で、フレームのシーケンスから特徴が抽出されるように、特徴抽出操作が実行される。たとえば、フレームレベルの特徴を表すために、画像及びオプティカルフローシーケンスを積層するための2ストリーム畳み込みニューラルネットワーク(CNN)アーキテクチャが採用され得る。画像シーケンスからの空間データは外観情報を含み、オプティカルフローからの時間データは動き情報に関連付けられている。あるいは、骨格関節などの特徴が、特徴表現として使用されてもよい。
実施例によれば、連続するフレームのウィンドウは、動きパターンの時空間ダイナミクスを表す特徴を抽出するために処理されてもよい。たとえば、ただし限定ではなく、このような動きパターンは、ベッドで寝返りを打つ対象、及び座っている又は横になっている対象に関連付けられた動きを含み得る。一実施例によれば、行動ダイナミクスを表すために、高密度軌跡として知られる、高密度にサンプリングされた局所的な時空間特徴が使用されてもよい。このような局所特徴の高密度サンプリングは、疎な時空間関心点よりも優れている場合がある。
したがって、実施例は、高密度サンプリングアプローチ及び高密度軌跡に沿って抽出された局所特徴の使用を対象とする。したがって、背景のセグメント化を必要とせずに、人間の行動と非常に関連のある特徴が符号化され得る。実施例で使用され得るアプローチは、勾配方向ヒストグラム(HOG)、オプティカルフローヒストグラム(HOF)、及び動き境界ヒストグラム(motion boundary histogram:MBH)を含むが、これらに限定されない。しかしながら、当業者によって理解されるように、これらのアプローチの代わりに別のアプローチが代用されてもよい。
407で、行動特徴が学習される。たとえば、システムが特徴符号化のためのコードブックを学習するように、ベッドで動き、椅子に座り、歩行する対象のビデオトレーニングデータが使用され得る。
409で、特徴ベクトルシーケンスが符号化される。特徴記述子の符号化は、異なる特徴タイプの組み合わせ、又は特徴のサブセットの使用を含み得る。訓練中に、たとえばガウス混合モデル(GMM)を使用して、行動特徴がクラスター化される。テスト中、連続するフレームのウィンドウから抽出された特徴は、記述子の分布を学習できるフィッシャーベクトルとして符号化されてもよく、したがって各単語の出現頻度、並びに中心からの各記述子の距離に関連付けられた符号化追加情報に対して感度が低い場合がある。代替実施例によれば、特徴は、バッグオブビジュアルワード(bag of visual words:BOV)ソフトBOV、又はハッシングを使用して表されてもよい。
411で、情報は、RNN予想モデルなどの予想モデルに供給される。予想モデルのさらなる詳細は、以下により詳細に論じられる。
図5は、実施例による行動予想のビデオ監視のワークフローの絵画的視覚化500を提供する。潜在的なイベント又は行動に関して人間の行動を予想する目的は、連続ビデオストリームが与えられたときに、時間内に行動を予測することである。ビデオストリームは、互いにわずかな違いを有し得る複数の行動を含み、所定のシーケンスに従うルーチン活動など、複数の順次行動を含み得る。たとえば、ただし限定ではなく、正常な睡眠中の対象と落下リスクの高い異常な睡眠中の対象の睡眠パターンの違いは、睡眠イベント中の全体的な動きに対して、対象の動きに関するわずかな違いしかない場合がある。
本実施例は、フレームレベル表現の代わりに、局所的な時空間を抽出するために高密度軌跡を使用する。特徴カテゴリ(たとえば、軌跡、HOG、HOF、及びMBH)の各々における高密度軌跡の記述子のコードブックを構築するために、ガウス混合モデル(GMM)が使用される。ビデオの短いシーケンスは、トレーニング済みコードブックからのフィッシャーベクトル、続いて短距離行動特徴表現と長距離行動依存を学習するためのTCN及びLSTMなどの高レベル時間モデルとの組み合わせを使用して、表現される。TCNモデルの場合、時間畳み込みネットワークは、畳み込みの反復ブロックと、これに続く非線形活性化からなる。
LSTMモデルの場合、入力データの順次情報が使用され、メモリセルを使用して以前のサブシーケンスから抽出された情報が与えられると、現在のサブシーケンスが処理される。したがって、LSTMは、入力特徴から短期及び長期の両方の依存パターンを学習することができる。本実施例は、2つの逆の単方向LSTMを備える双方向LSTMを含み得る。メモリユニットの後には、時間分散された高密度層が続いてもよく、その結果は、予測のために出力ソフトマックス層に供給され得る。
たとえば、501で、前景の人間の対象をセグメント化し、ベッド又は椅子の上の人間の動きのストリーミングを提供するための、深度カメラ又はサーマルカメラの使用が示されている。503で、特徴抽出で使用するための高密度軌跡の生成が開示される。さらに、505で、様々な高密度サンプリングアプローチが開示され、その結果、507でのGMMトレーニング行動コードブックを使用するなど、行動特徴を学習する。509では、抽出された特徴をフィッシャーベクトルとして符号化することが開示され、511では、出力行動尤度が開示される。
図6(a)から図6(c)は、高密度軌跡アプローチを採用する実施例を示す。図6(a)に示されるように、人は座っている位置にあり、関心点は、座っている人の周りで密度が高くなるようにサンプリングされる。図6(b)の603に見られるように、サンプリングされた関心点は、点の異なる色、テクスチャ、又は形状として動きを示すことができる。座っている人の周りでより高い密度でサンプリングされるため、動きの粒度は高くなる。さらに、図6(c)の605に示されるように、関心のある密度サンプル点は、人が椅子から出て歩いて行く動きを示す。
図7は、700で、実施例による行動尤度を予測するためのトレーニング事例のモデル学習及び収集を示す。行動予想のトレーニング事例は、行動分類タスクのための(L,k)個のタイムスタンプとして設定される。たとえば、701、703、705、及び707で、ベッドで寝返りを打つ、又は起き上がるなどの感知情報が、フレームとして示される。さらに、分類子は、トレーニングデータに基づいて、睡眠が、対象又は類似の状況にある別の類似の対象の睡眠パターン又は睡眠パターンに関連付けられた履歴情報に見られるなど、正常であるか、又は一方で、正常な睡眠活動とは見なされないかどうかを分類するが、後者は落下のリスクを示す可能性がある。
この情報は、特徴抽出のシーケンス715を表す。要素709、711、及び713は、起き上がる、出るなどのような、将来のタイムスタンプにおける今後の行動又はイベントを表す。タスクは、学習した長期パターン、並びに前のL個のフレームの間に行われた最近の観察に基づいて、今後のk個のタイムスタンプにおいて、対象がベッド又は椅子の安全な位置から動くか否かなどのイベント又は行動を予測し得る。
予測モデルへの入力は、上記で説明されたように、より具体的には図4の411で示されたように、符号化された特徴ベクトルの時系列である。ニューラルネットワークアプローチは、RNNの変型であるLSTMの使用、モデルの長期依存、及び入力に基づく予測の提供を含む。図3の327で上記に示されるように、一実施例は、717、719、及び721としてそれぞれ示される、後続の1、5、及びn個のタイムスタンプにおいて、対象がベッドの安全な位置から動く尤度を予測するために、1つの高密度層と組み合わせられた2つのLSTM層を含む。これらの予測の出力は、現在の落下リスクの推定を提供するために組み合わせられる。
代替実施例として、時間的関係マイニング中に特徴の重要性を学習するために、注意ベースのLSTMが使用され得る。別の実施例は、ゲート電流ユニット(gated current unit:GRU)及び時間的畳み込みネット(TCN)を含むがこれらに限定されない、別のシーケンスモデルを使用してもよい。
より具体的には、ビデオサブシーケンス
Figure 2021086605

からの連続するM個のフレームで、Xは、予測モデルへの入力である視覚的特徴表現を表す。時間ステップTの入力Xが与えられると、行動の尤度はPで予測される。実施例によれば、ディープニューラルネットワークの出力層でソフトマックス活性化関数が使用される場合、行動の出力尤度Pは、現在の行動に属する現在の入力Xの確率を得ることによって取得され得る。
したがって、本実施例は、動いている人体の画像ストリームから局所的原子行動パターンを抽出するための高密度軌跡の使用、並びに特徴及びニューラルネットワークを符号化するためのフィッシャーベクトル、及びベッド又は椅子にいる対象に関連付けられたイベント及び活動を予測するためのニューラルネットワークの使用、又は落下防止を提供する。
予測モデルに関連付けられた前述の予測情報に加えて、実施例はまた、各タイムスタンプについて、対象に特有の動的なリスクプロファイリングも含む。これらの実施例は、高い注意喚起又はリスクの高い対象を提供し得る。
上述のように、表1は、落下に関連するリスク要因を開示している。いくつかの要因は、既存の医学研究及び病院の報告に基づいて提供され得る。さらに、対象は、異なる組み合わせの落下に関連するリスク要因を有する場合があり、落下リスクは、対象の入院中を含め、経時的に変化し得る。さらに、リスクは医療部隊によって異なる場合があり、病院によっても異なる場合がある。
たとえば、65歳超の年齢、歩行障害、視覚障害、又はボディマス指数(BMI:Body Mass Index)など、固有の対象の特徴は、より落下につながりやすいだろう。加えて、落下のリスクは、落下の履歴及び神経障害の病歴がある対象の方が高いだろう。対象の部屋の特性もまた、対象の落下及び怪我のリスクに影響し得る。たとえば、外科の患者は集中治療対象よりもリスクが高い可能性があり、個室の対象は、スタッフ配置の制限のため落下のリスクが高い可能性がある。さらに、夜間シフト中の方が頻繁に怪我をする可能性がり、高齢の対象は、新しい部屋に移動した初日に落下しやすい場合があるため、日数も重要な要因であり得る。
行動ルーチンもまた、落下のリスクに影響を及ぼす可能性がある。たとえば、ただし限定ではなく、トイレに行くなどベッドの安全な位置から動く必要性を示すために複数回呼び出しボタンを使用した対象は、ベッドから出る確率又は尤度が高くなる場合があるが、他の対象は、実際にベッドから出る必要がなくても呼び出しボタンを押す場合がある。対象がベッドから出た後の落下リスクに影響し得る個々の対象のバイタル評価は、血圧、薬物、及び最近の怪我を含み得る。たとえば、血圧の低下は起立性高血圧を示す可能性があり、これはより高い落下リスクに関連しており、5種類以上の薬物を摂取することで落下リスクが高まる可能性がある。
実施例は、表1に含まれるものを含む入力、及びリスク確率の計算に基づいて、落下のリスクのプロファイルを提供する。言い換えると、リスク要因は、医学研究、病院の報告などに基づいて提供され、データはセンサによって提供され、得られた落下リスク要因の各々の値が、連続的な又はカテゴリ別の特徴のいずれかとして、バイタルサイン、電子健康記録コレクションなどを含み、収集及び符号化されるようになっていてもよい。たとえば、ただし限定ではなく、バイタルサインは、自動的に感知されるか、又は病院スタッフによって収集されてもよい。
一実施例によれば、データセットが病院から入手可能な場合、特徴重みbを学習し、落下リスクR∈[0,1]を推定するために、回帰分析法が適用されてもよい。あるいは、病院スタッフが、センサによって収集された変数の重要性の手動表示を提供してもよい。上述のように、センサは、ベッドでの対象のごく近い場所のみではなく全体的な環境を見るので、リスク要因として使用され得る追加情報を感知するように構成されている。入力リスク変数は、上記で説明されたように連続的な又はカテゴリ別の特徴のいずれかとして符号化されてもよく、正規化(たとえば、医療事故、対象などにわたる標準化及び比較を許容するように、0と1との間でリスクスコアをスケーリングする)が、各特徴次元に適用されてもよい。表1に示されるものなど、N個のリスク要因xのリストについて、i∈[1,N]では、落下リスクRは、各対象の時間tで、以下の式(1)及び(2)に示されるように、入力リスク要因のロジスティック回帰分析として計算される。
Figure 2021086605

患者の落下リスクスコアS
低血圧x1
#落下
患者の落下リスクR
落下のリスクRと組み合わせた安全な位置Pから動く前述の尤度に基づいて、落下防止信号伝達戦略が適応され得る。表2は、実施例による、P及びRの値に応じた落下防止プロトコルの一例を示す。
Figure 2021086605
たとえば、ルールベースのアプローチは、以下のように実施され得る。Pが閾値未満でRも閾値未満の場合、安全な位置から動く確率並びに落下のリスクが閾値未満なので、信号は提供されなくてよい。
別のシナリオでは、Pが閾値未満でRが閾値を超える場合、対象が介助を要求するように推奨する信号が、対象に提供されてもよい。この状況は、落下リスクが高いことを示すが、対象が安全な位置から出る確率は高くない。
加えて、Pが閾値を超えてRが閾値未満の場合、安全手順に従うための信号が対象に提供され得る。この状態は、対象が安全な位置から動く確率は高いが、その対象の落下のリスクは低いことに関連付けられていてもよい。
さらに、Pが閾値を超えてRもまた閾値を超える場合、安全な位置にとどまるための信号が対象に提供され、また、即時の介助を直接提供するために、スタッフにも信号が提供されてもよい。
前述のシナリオは単なる例であり、限定することを意図するものではない。当業者によって理解されるような変形を伴って、別の例もまた実施され得る。たとえば、特定のシナリオの場合に発信された信号は、地域病院のプロトコル、対象の好み、又はその他の基準によって異なる可能性がある。さらに、P及びRの閾値は異なる場合がある。さらに、プロトコルは、リマインダー及びスタッフ通知に限定されず、リハビリテーション、理学療法などのような、対象の動きの別の態様に組み込まれてもよい。
図8は、実施例によるプロセス例800を示す。本明細書で説明されるように、プロセス例800は、1又は複数の装置上で実行され得る。
801で、上記で説明されたように、カメラ又は運動センサなどによって、情報が感知される。さらに、感知情報が受信され、ストリームが生成される。ストリームは、ベッド又は椅子又は床の上の対象など、表面上の物体の動きを示す。情報の感知及びストリームの生成に関連付けられた構造及び技術は、実施例に関連して上記で説明されている。
803で、フレームのシーケンスからの特徴の抽出が実行され、行動特徴が学習される。たとえば、ただし限定ではなく、上記で説明された追加の技術及び実施とともに、高密度軌跡などのアプローチの使用が採用されてもよい。
805で、たとえば、連続するフレームのウィンドウをフィッシャーベクトルとして符号化するために、GMMトレーニング行動コードブックなどに基づいて、特徴ベクトルシーケンスが符号化される。符号化された特徴ベクトルシーケンスは、図3に関連して上記で説明された予想モデルに供給される。
807で、対象がベッド又は椅子から出る確率又は尤度、及び落下のリスクに関連付けられた、P及びRの値が計算される。P及びRの計算は、上記で説明されたような予測モデル及びリスクプロファイリングアプローチに基づく。
809で、P及びRの値は、これらが相対的に高いか低いかを判断するために評価される。たとえば、P及び/又はRの値は、閾値と比較され得る。評価に基づいて、ルールベースが適用されてもよく、上記の表2に示されるものなど、1又は複数のプロトコルが選択され得る。
811で、選択されたプロトコルに基づいて、行動が実行される。たとえば、ただし限定ではなく、行動は、対象に信号を提供すること、介護者又はスタッフのような第三者などの外部リソースに信号を提供すること、又はユーザに関連付けられた装置に関して自動的に行われる行動を実行することを含み、これは、上記の式(1)及び(2)に記されるような、落下のリスクと組み合わせられた、対象がベッド又は椅子の安全な位置から脱出する予測を示す、P及びRの値に基づくプロトコルの実施に関連する行動として理解され得るような、ベッド又は保護具の位置を切り替える、落下緩和具又はパッドを所定位置に配置する、警報を起動する、部屋へのドアを解錠する、又はその他の活動などであり得る。
前述の例に加えて、行われ得る行動に関して、追加の非限定例が採用され得る。たとえば、ただし限定ではなく、行動は、対象、又は落下を防止するための即時の行動を実施する介護者又はスタッフなどの第三者に提供される信号に限定されなくてもよい。追加の行動は、プライバシーを保護するように、診療科、病院のフロア、又は病院全体などの、複数の対象の集合リスクプロファイルを提供すること、及び集合リスクプロファイルに基づいて、病院、診療科、又はその他の組織エンティティ内のリソースを割り当てることを含み得る。一実施例によれば、落下リスクが日中又は夜間の特定の時間にかなり高い場合、これらのリスク要因に対処するために、追加のリソースが割り当てられてもよく、又は対象が移動してもよい。
選択されたプロトコルに基づいて実行され得る行動のさらなる非限定例は、介入して落下を防止するための第三者を派遣すること、フロア案内などの照明又は対象のための標識を起動すること、及び室内又は対象のモバイル機器上のスピーカによって警告又は推奨を提供することを含み得るが、これらに限定されず、提供された情報は、あらかじめ記録されたメッセージ、光信号、音声メッセージ、又は当業者によって理解されるようなその他の通信であり得る。
やはり上記で説明されたように、行動は、対象による落下に関連するリスクを低減するように、装置を制御することを伴う場合がある。たとえば、上記で説明されたように、床の上にパッドを設けるための、自動又は電動レール又はその他のガードなどのベッド、又はその他の支持構造に関連する特徴は、ベッドの位置、角度、配向を変更すること、ベッド自体を移動させること、又は室内の別の物体を移動させることなどによって、落下のリスクを低減するような方法で、対象がベッドから出るのを案内し、不注意によりベッドから出るのを困難にさえし得る。
いくつかの実施例では、システムは、感知又は検出システムとインターフェースするか、又は本明細書に記載のセンサ又はカメラによって、対象が不注意によりその適切な位置にベッドの保護機能を配置しなかったかどうかを判断し得る。たとえば、レール検出システムは、場合により対象の不注意でガードを適切な位置に配置していないため、対象の睡眠中にレールが係合位置にないときを検出する。
前述の実施例では、操作は、ユーザに関連付けられたオンラインモバイルアプリケーションで行われる。たとえば、クライアント装置は、カメラセンサを含んでもよく、又は室内のセンサと直接通信してもよく、処理のいくつか又は処理のすべてがオンラインモバイルアプリケーション上でローカルに実行されてもよい。しかしながら、実施例はこれに限定されず、本発明の範囲から逸脱することなく、別のアプローチがこれに置き換えられてもよい。たとえば、ただし限定ではなく、別の例示的なアプローチは、クライアント装置からリモートで(たとえば、サーバで)操作を行ってもよい。
図9は、いくつかの実施例での使用に適した例示的なコンピュータ装置905を有する例示的な計算環境900を示す。計算環境900の計算装置905は、1又は複数の処理ユニット、コア、又はプロセッサ910、メモリ915(たとえば、RAM、ROMなど)、内部ストレージ920(たとえば、磁気、光、ソリッドステートストレージ、及び/又は有機)、及び/又はI/Oインターフェース925を含むことができ、そのいずれも、情報を通信するために通信機構又はバス930に結合することができ、又は計算装置905に埋め込まれることができる。
計算装置905は、入力/インターフェース935及び出力装置/インターフェース940に通信可能に結合され得る。入力/インターフェース935及び出力装置/インターフェース940の一方又は両方は、有線又は無線インターフェースであり得、取り外し可能であり得る。入力/インターフェース935は、物理又は仮想の任意の装置、コンポーネント、センサ、又はインターフェースを含んでもよく、これらは入力を提供するために使用され得る(たとえば、ボタン、タッチスクリーン、インターフェース、キーボード、ポインティング/カーソル制御、マイクロフォン、カメラ、点字、運動センサ、光学式リーダなど)。
出力装置/インターフェース940は、ディスプレイ、テレビ、モニタ、プリンタ、スピーカ、点字などを含み得る。いくつかの実施例では、入力/インターフェース935(たとえば、ユーザインターフェース)及び出力装置/インターフェース940は、計算装置905に埋め込まれるか、又は物理的に結合されることが可能である。別の実施例では、別の計算装置が、計算装置905の入力/インターフェース935及び出力装置/インターフェース940として機能し、又はそれらの機能を提供してもよい。
計算装置905の例は、移動性の高い機器(たとえば、スマートフォン、車両及び他の機械の中の装置、人間又は動物が携帯する装置など)、モバイル機器(たとえば、タブレット、ノートブック、ラップトップ、パーソナルコンピュータ、携帯用テレビ、ラジオなど)、及び移動向けに設計されていない装置(たとえば、デスクトップコンピュータ、サーバ装置、その他のコンピュータ、情報キオスク、1又は複数のプロセッサが埋め込まれた及び/又は結合されたテレビ、ラジオなど)を含み得るが、これらに限定されない。
計算装置905は、同じ又は異なる構成の1又は複数の計算装置を含む、任意の数のネットワーク接続されたコンポーネント、装置、及びシステムと通信するために、外部ストレージ945及びネットワーク950に通信可能に(たとえば、I/Oインターフェース925を介して)接続され得る。計算装置905又は任意の接続された計算装置は、サーバ、クライアント、シンサーバ、汎用機械、専用機械、又はその他のラベルとして機能するか、これらのサービスを提供するか、又はこのように呼ばれることが可能である。たとえば、ただし限定ではなく、ネットワーク950は、ブロックチェーンネットワーク及び/又はクラウドを含み得る。
I/Oインターフェース925は、少なくとも計算環境900内の接続されたコンポーネント、装置、及びネットワークのすべてとの間で情報を通信するための、いずれかの通信又はI/Oプロトコル又は規格(たとえば、イーサネット(登録商標)、802.11xs、ユニバーサルシステムバス、WiMAX、モデム、セルラーネットワークプロトコルなど)を使用する有線及び/又は無線インターフェースを含むことができるが、これらに限定されない。ネットワーク950は、いずれのネットワーク又はネットワークの組み合わせ(たとえば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、電話ネットワーク、セルラーネットワーク、衛星ネットワークなど)であってもよい。
計算装置905は、一時的媒体及び非一時的媒体を含む、コンピュータ使用可能又はコンピュータ可読媒体を使用すること、及び/又はこれらを使用して通信することができる。一時的媒体は、伝送媒体(たとえば、金属ケーブル、光ファイバー)、信号、搬送波などを含む。非一時的媒体は、磁気媒体(たとえば、ディスク及びテープ)、光媒体(たとえばCD ROM、デジタルビデオディスク、BLU−RAY(登録商標)ディスク)、ソリッドステート媒体(たとえば、RAM、ROM、フラッシュメモリ、ソリッドステートストレージ)、及びその他の不揮発性ストレージ又はメモリを含む。
計算装置905は、いくつかの例示的な計算環境で技術、方法、アプリケーション、プロセス、又はコンピュータ実行命令を実施するために使用され得る。コンピュータ実行命令は、一時的媒体から取得されること、及び非一時的媒体に記憶されてそこから取得されることが可能である。実行可能な命令は、任意のプログラミング、スクリプト、及び機械言語(たとえば、C、C++、C#、JAVA(登録商標)、Visual Basic、Python、Perl、JavaScript(登録商標)など)の1又は複数から生じることができる。
プロセッサ910は、ネイティブ又は仮想環境で、任意のオペレーティングシステム(OS)(図示せず)の下で実行できる。論理ユニット955、アプリケーションプログラミングインターフェース(API)ユニット960、入力ユニット965、出力ユニット970、学習及び符号化ユニット975、P及びR決定ユニット980、プロトコル及び行動ユニット985、及び異なるユニットが互いに、OSと、及び別のアプリケーション(図示せず)と通信するためのユニット間通信機構995を含む、1又は複数のアプリケーションが展開され得る。
たとえば、学習及び符号化ユニット975、P及びR決定ユニット980、及びプロトコル及び行動ユニット985は、上記で説明された構造に関して上記で示された1又は複数のプロセスを実施してもよい。説明されたユニット及び要素は、設計、機能、構成、又は実施において異なる可能性があり、提供された説明に限定されない。
いくつかの実施例では、情報又は実行命令がAPIユニット960から受信されると、これは1又は複数の他のユニット(たとえば、論理ユニット955、入力ユニット965、学習及び符号化ユニット975、P及びR決定ユニット980、及びプロトコル及び行動ユニット985)に通信され得る。
たとえば、学習及び符号化ユニット975は、上記で説明されたように、1又は複数のセンサから情報を受信して処理し、特徴抽出を実行し、行動特徴を学習する、などを行うことができる。学習及び符号化ユニット975の出力はP及びR決定ユニット980に提供され、これは、たとえば上記で説明され図2に示されたニューラルネットワークのアプリケーションに基づいて必要な予想を実行し、やはり上記で説明されたように、環境における対象の落下のリスクを提供するためにRを決定する。加えて、プロトコル及び行動ユニット985は、学習及び符号化ユニット975及びP及びR決定ユニット980の出力に基づいて、行動に関連付けられた信号を提供し得る。
いくつかの事例では、論理ユニット955は、ユニット間の情報フローを制御し、上記で説明された幾つかの実施例におけるAPIユニット960、入力ユニット965、学習及び符号化ユニット975、P及びR決定ユニット980、及びプロトコル及び行動ユニット985によって提供されるサービスを指示し得る。たとえば、1又は複数のプロセス又は実施のフローは、論理ユニット955のみによって、又はAPIユニット960と併せて、制御され得る。
図10は、いくつかの実施例に適した環境例を示す。環境1000は、装置1005〜1045を含み、その各々は、たとえばネットワーク1060を介して(たとえば、有線及び/又は無線接続によって)少なくとも1つの別の装置に通信可能に接続されている。いくつかの装置は、1又は複数のストレージ装置1030及び1045に通信可能に接続され得る。
1又は複数の装置1005〜1045の一例は、それぞれ図9に示されている計算装置905であろう。装置1005〜1045は、上記で説明されたようなモニタ及び関連するウェブカメラを有するコンピュータ1005(たとえば、ラップトップ計算装置)、モバイル機器1010(たとえば、スマートフォン又はタブレット)、テレビ1015、車両に関連する装置1020、サーバコンピュータ1025、計算装置1035〜1040、ストレージ装置1030及び1045を含み得るが、これらに限定されない。
いくつかの実施例では、装置1005〜1020は、ユーザに関連付けられたユーザ装置と見なされてもよく、ユーザは、予想モデル及び/又はリスクプロファイリングのための入力として使用されて感知された入力をリモートで取得し得る。本実施例では、上記で説明されたように、これらのユーザ装置の1又は複数は、予測モデリング及びリスクプロファイリングに必要な情報を感知できる、1又は複数のカメラに関連付けられてもよい。
実施例の態様は、様々な利点及び利益を有し得る。たとえば、ただし限定ではなく、本実施例は、予測的なアプローチ及び活動分析を提供する。加えて、本実施例は、対象の周囲のセンサを使用する、受動的なアプローチを採用している。さらに、本実施例は、起立、座る、横たわる、歩行、及び階段の上り下りなど、他の日常活動と落下を区別できる。
加えて、本明細書の実施例は、深度センサ及び運動センサを有するカメラを対象とし、RGBを必要とせずに、グレースケール入力を使用することができる。さらに、実施例は、ベッド内だけではなく、いずれの安全な位置にいる人間の動きも対象としている。
したがって、実施例は、ルールベースのプロトコルアプローチにしたがって、リスクの高い対象に高い注意喚起を許容する予測及びリスクプロファイリングを提供し得る。これらの実施例は、病院設定内の対象を主に対象としているが、他の例も考えられる。たとえば、ただし限定ではなく、前述の実施例は、夢遊病又は睡眠中のその他の異常な動きなどの状態に対処するために、対象の住居内など、非病院設定で適用され得る。さらに、実施例は、睡眠時無呼吸、乳幼児突然症候群(SIDS)、又はその他の状態など、他のタイプの状態に関するリスクを予測して対処し得る、別のタイプのセンサに組み込まれ得る。上記で説明されたのと類似の方法で、病院のベッドの制御に関して、実施例は、経静脈栄養法、酸素供給、呼吸サポートなど、その他の医療機器を制御してもよい。
少数の実施例が図示及び説明されてきたが、これらの実施例は、本明細書で説明された主題をこの分野に精通している人々に伝えるために提供される。本明細書で説明された主題は、説明された実施例に限定されることなく、様々な形態で実施され得ることが、理解されるべきである。本明細書で説明された主題は、これらの具体的に定義又は説明された事項なしで、又は説明されない他の又は異なる要素又は事項を用いて、実践することができる。添付請求項及びこれらの均等物で定義されるように、本明細書で説明された主題から逸脱することなく、これらの実施例に変更がなされ得ることは、この分野に精通している人々によって理解されるだろう。
本開示の特定の非限定的実施形態の態様は、上記で論じられた特徴、及び/又は上記で説明されていないその他の特徴に対処する。しかしながら、非限定的実施形態の態様は、上記の特徴に対処する必要はなく、本開示の非限定的実施形態の態様は、上記で説明された特徴に対処しなくてもよい。

Claims (20)

  1. 環境内の物体の上に配置された対象の情報に基づいて、データストリームを生成することと、
    前記データストリームについて、前記物体又は前記環境に対する前記対象の動きに関連付けられた特徴を抽出することであって、前記動きはセンサから抽出された時空間特徴によって表されるものである、抽出することと、
    前記抽出された特徴に基づく前記動きの尤度に関連付けられた予測、及び複数の落下リスク要因に基づく前記動きのリスクプロファイルを生成することと、
    行動を実行するために、前記予測及び前記リスクプロファイルをルールベースに適用することと、
    を含むコンピュータ実施方法。
  2. 前記情報は、カメラセンサ及び運動センサのうちの少なくとも1つによって感知される、請求項1に記載のコンピュータ実施方法。
  3. 前記カメラセンサは、深度センサ又は温度センサを含む、請求項2に記載のコンピュータ実施方法。
  4. 前記特徴を抽出することは、前記データストリーム内のフレームのシーケンスから前記時空間特徴を学習するために前記特徴又は畳み込みニューラルネットワーク(CNN)を抽出するために高密度軌跡を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することと、を含む、請求項1に記載のコンピュータ実施方法。
  5. 前記予測を生成することは、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又は畳み込みニューラルネットワークに提供することであって、その出力は、前記予測を生成するためにソフトマックス層に供給される、ことを含む、請求項1に記載のコンピュータ実施方法。
  6. 前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される、請求項1に記載のコンピュータ実施方法。
  7. 前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行することと、を含む、請求項1に記載のコンピュータ実施方法。
  8. 前記行動は、前記対象の信号を生成すること、前記物体の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む、請求項1に記載のコンピュータ実施方法。
  9. 前記対象は人であり、前記物体はベッド又は椅子であり、前記動きは前記人が前記ベッド又は椅子から落下することである、請求項1に記載のコンピュータ実施方法。
  10. プロセッサに、
    環境内の物体の上に配置された対象の情報に基づいて、データストリームを生成することと、
    前記データストリームについて、前記物体又は前記環境に対する前記対象の動きに関連付けられた特徴を抽出することであって、前記動きは時空間の視覚的特徴によって表される、抽出することと、
    前記抽出された特徴に基づく前記動きの尤度に関連付けられた予測、及び複数の落下リスク要因に基づく前記動きのリスクプロファイルを生成することと、
    行動を実行するために、前記予測及び前記リスクプロファイルをルールベースに適用することと、
    を実行させるプログラム。
  11. 前記情報は、カメラセンサ及び/又は運動センサのうちの少なくとも1つによって感知され、前記カメラセンサは深度センサ又は温度センサを備える、請求項10に記載のプログラム。
  12. 前記特徴を抽出することは、前記データストリーム内のフレームのシーケンスから前記特徴を抽出するために前記時空間の視覚的特徴を学習するために高密度軌跡又は畳み込みニューラルネットワーク(CNN)を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することと、を含む、請求項10に記載のプログラム。
  13. 前記予測を生成することは、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又は畳み込みニューラルネットワークに提供することを含み、その出力は、前記予測を生成するためにソフトマックス層に供給される、請求項10に記載のプログラム。
  14. 前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される、請求項10に記載のプログラム。
  15. 前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行すること、を含む、請求項10に記載のプログラム。
  16. 前記行動は、前記対象の信号を生成すること、前記物体の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む、請求項10に記載のプログラム。
  17. 前記対象は人であり、前記物体はベッド又は椅子であり、前記動きは前記対象が前記ベッド又は椅子から落下することである、請求項10に記載のプログラム。
  18. 要求を処理することが可能なプロセッサであって、前記プロセッサは、
    環境内のベッド又は椅子の上に位置する対象の情報に基づいて、データストリームを生成する操作と、
    前記データストリームについて、前記ベッド又は椅子又は前記環境に対する前記対象の落下に関連付けられた特徴を抽出する操作であって、前記落下は時空間の視覚的特徴によって表されるものである、抽出する操作と、
    前記抽出された特徴に基づく前記落下の尤度に関連付けられた予測、及び複数の落下リスク要因に基づく前記落下のリスクプロファイルを生成する操作と、
    行動を実行するために、前記予測及び前記リスクプロファイルをルールベースに適用する操作と、
    を実行するように構成されているプロセッサ。
  19. 前記特徴を抽出する操作は、前記データストリーム内のフレームのシーケンスから前記時空間の視覚的特徴を学習するために前記特徴又は畳み込みニューラルネットワーク(CNN)を抽出するために高密度軌跡を適用することと、前記特徴を学習するために自動学習システムを適用することと、前記学習した特徴及び前記抽出された特徴に基づいて特徴ベクトルのシーケンスを符号化することとを含み、前記予測を生成する操作は、計画対象期間にわたって、高密度層に提供される出力を生成するために、前記抽出された特徴をリカレントニューラルネットワーク又はディープニューラルネットワークに提供することを含み、その出力は、前記予測を生成するためにソフトマックス層に供給され、前記リスクプロファイルは、経時的に、前記対象に特有の要因、前記対象に関連する環境に特有の要因、及び前記環境及び前記対象に関連する行動ルーチンに関連付けられた要因を含む前記複数の落下リスク要因を受信することによって生成される、請求項18に記載のプロセッサ。
  20. 前記ルールベースは、前記予測が第1の閾値を超過するか否か、及び前記リスクプロファイルが第2の閾値を超過するか否かを判断することと、前記判断に基づいて、前記行動を実行することと、を含み、前記行動は、前記対象の信号を生成すること、前記ベッド又は椅子の状態を制御すること、及び前記行動を実行するためのコマンドを外部リソースに提供すること、のうちの1又は複数を含む、請求項18に記載のプロセッサ。
JP2020121341A 2019-08-01 2020-07-15 イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ Active JP7559391B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962881665P 2019-08-01 2019-08-01
US16/698,616 US11410540B2 (en) 2019-08-01 2019-11-27 System and method for event prevention and prediction
US16/698,616 2019-11-27

Publications (2)

Publication Number Publication Date
JP2021086605A true JP2021086605A (ja) 2021-06-03
JP7559391B2 JP7559391B2 (ja) 2024-10-02

Family

ID=74258615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020121341A Active JP7559391B2 (ja) 2019-08-01 2020-07-15 イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ

Country Status (3)

Country Link
US (1) US11410540B2 (ja)
JP (1) JP7559391B2 (ja)
CN (1) CN112842258A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063542A1 (ko) * 2021-10-12 2023-04-20 경북대학교 산학협력단 딥러닝 기반의 낙상 감지 및 활동 인식 장치와 방법 및 이를 위한 컴퓨터 판독가능 프로그램

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11800993B2 (en) * 2019-06-28 2023-10-31 Hill-Rom Services, Inc. Exit monitoring system for patient support apparatus
US11222198B2 (en) * 2019-11-21 2022-01-11 International Business Machines Corporation Video analysis system for optimizing an activity protocol
US20210270050A1 (en) * 2020-02-27 2021-09-02 Mirza Faizan System to prevent injury from stair fall
US11587423B2 (en) * 2020-08-03 2023-02-21 Healthcare Integrated Technologies, Inc. Fall validation with privacy-aware monitoring
CN112998697B (zh) * 2021-02-22 2022-06-14 电子科技大学 一种基于骨架数据的跌倒伤害程度预测方法、系统及终端
US11747463B2 (en) * 2021-02-25 2023-09-05 Cherish Health, Inc. Technologies for tracking objects within defined areas
CN112907894B (zh) * 2021-03-02 2022-12-02 深圳市医创加科技有限公司 一种基于患者动作预判的坠床预警方法及系统
WO2022195329A1 (en) * 2021-03-18 2022-09-22 Telefonaktiebolaget Lm Ericsson (Publ) Systems, methods, computer programs for predicting whether a device will change state
CN112862219A (zh) * 2021-03-19 2021-05-28 浙江大学 一种基于时域卷积与循环神经网络的水电机组温度预测方法
CN113361855A (zh) * 2021-05-07 2021-09-07 浙江警官职业学院 一种短中长期风险的告警方法及装置
US12051262B2 (en) 2021-06-10 2024-07-30 Sony Group Corporation Clinical activity recognition with multiple cameras
CN114224326B (zh) * 2021-11-18 2024-05-03 北京精密机电控制设备研究所 一种穿戴式步态相位和动作识别装置及方法
CN114255565B (zh) * 2022-03-02 2022-06-17 济宁蜗牛软件科技有限公司 一种危险感知的智能头盔及感知系统
CN114757395B (zh) * 2022-03-22 2023-06-16 欧亚高科数字技术有限公司 一种基于智能物联网的危房监测方法
CN115171361B (zh) * 2022-09-02 2022-12-02 广东中科凯泽信息科技有限公司 一种基于计算机视觉的危险行为智能检测预警方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643585A (zh) 2016-08-24 2019-04-16 皇家飞利浦有限公司 用于进行患者监测以预测并防止坠床的设备、系统和方法
WO2018163555A1 (ja) 2017-03-07 2018-09-13 コニカミノルタ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2021500813A (ja) 2017-10-23 2021-01-07 ノキア テクノロジーズ オサケユイチア 通信システムにおけるエンドツーエンド学習
WO2019103620A2 (en) 2017-11-21 2019-05-31 Omniscient Medical As System, sensor and method for monitoring health related aspects of a patient
US11179064B2 (en) * 2018-12-30 2021-11-23 Altum View Systems Inc. Method and system for privacy-preserving fall detection
US20210142643A1 (en) * 2019-11-08 2021-05-13 Smart Health Solutions LLC Patient-fall scenario detector and systems and methods for remediating fall scenarios

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023063542A1 (ko) * 2021-10-12 2023-04-20 경북대학교 산학협력단 딥러닝 기반의 낙상 감지 및 활동 인식 장치와 방법 및 이를 위한 컴퓨터 판독가능 프로그램

Also Published As

Publication number Publication date
CN112842258A (zh) 2021-05-28
US20210035437A1 (en) 2021-02-04
US11410540B2 (en) 2022-08-09
JP7559391B2 (ja) 2024-10-02

Similar Documents

Publication Publication Date Title
JP7559391B2 (ja) イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
JP7083809B2 (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US10755817B2 (en) Systems, apparatuses and methods for predicting medical events and conditions reflected in gait
Kim et al. Emergency situation monitoring service using context motion tracking of chronic disease patients
Rastogi et al. A systematic review on machine learning for fall detection system
US20190057189A1 (en) Alert and Response Integration System, Device, and Process
CN108877914A (zh) 基于物联网的患者的行为监控方法及装置、存储介质、终端
US10524711B2 (en) Cognitive event predictor
JP2019537082A (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
JP7285046B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019535052A (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
JP2019534495A (ja) ベッド転落を予測及び防止する患者監視のためのデバイス、システム、及び方法
KR20200104759A (ko) 위험 상황을 판단하고, 사용자의 안전을 관리하는 시스템
Mansoor et al. A machine learning approach for non-invasive fall detection using Kinect
Ramanujam et al. A vision-based posture monitoring system for the elderly using intelligent fall detection technique
Pogorelc et al. Detecting gait-related health problems of the elderly using multidimensional dynamic time warping approach with semantic attributes
Mohan et al. Artificial Intelligence and IoT in Elderly Fall Prevention: A Review
US20210267491A1 (en) Methods and apparatus for fall prevention
Fayad et al. Fall detection application for the elderly in the family heroes system
US20240236277A1 (en) Patient Room Real-Time Monitoring and Alert System
KR102645192B1 (ko) 인공지능 모델을 기반으로 욕창을 관리하는 방법 및 이를 수행하는 전자 장치
US20230389880A1 (en) Non-obtrusive gait monitoring methods and systems for reducing risk of falling
US20210142047A1 (en) Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide
US11580439B1 (en) Fall identification system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240902

R150 Certificate of patent or registration of utility model

Ref document number: 7559391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150