JP2023537681A - Systems and methods for extended neurological rehabilitation - Google Patents

Systems and methods for extended neurological rehabilitation Download PDF

Info

Publication number
JP2023537681A
JP2023537681A JP2023504242A JP2023504242A JP2023537681A JP 2023537681 A JP2023537681 A JP 2023537681A JP 2023504242 A JP2023504242 A JP 2023504242A JP 2023504242 A JP2023504242 A JP 2023504242A JP 2023537681 A JP2023537681 A JP 2023537681A
Authority
JP
Japan
Prior art keywords
patient
beat
data
tempo
ras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023504242A
Other languages
Japanese (ja)
Inventor
マッカーシー,オーエン
ハリス,ブライアン
カルパキス、アレックス
チュウ,ジェフリー
ブスケ-スミス,ブライアン
リチャードソン,エリック
Original Assignee
メドリズムス,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メドリズムス,インコーポレイテッド filed Critical メドリズムス,インコーポレイテッド
Publication of JP2023537681A publication Critical patent/JP2023537681A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6829Foot or ankle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays

Abstract

患者の拡張された神経学的なリハビリテーション(ANR)のためのシステムおよび方法が開示される。ANRシステムが、共通のビートテンポに従って同期されて治療セッションの間に患者へ出力されるリズミカルな聴覚刺激(RAS)と視覚的拡張現実(AR)シーンを生成する。患者が装着するセンサが、患者が行う反復運動に関連する生体力学データをAR視覚コンテンツおよびRASと同期してキャプチャする。批判的思考アルゴリズムがセンサデータを分析して、視覚的要素および音声要素に対する患者の運動の空間的および時間的関係を判定し、患者の同調レベルと臨床目標/訓練目標に対する進捗を決定する。さらに、3D ARモデル化モジュールが、決定された同調レベルおよび訓練目標が達成されたかどうかに基づいて、患者へ出力される拡張現実視覚・音声コンテンツを動的に調整するようプロセッサを構成する。【選択図】 図32A system and method for enhanced neurological rehabilitation (ANR) of a patient is disclosed. The ANR system generates rhythmic auditory stimulation (RAS) and visual augmented reality (AR) scenes that are synchronized according to a common beat tempo and output to the patient during the treatment session. Sensors worn by the patient capture biomechanical data related to repetitive movements performed by the patient in synchronization with the AR visual content and RAS. A critical thinking algorithm analyzes the sensor data to determine the spatial and temporal relationship of the patient's movements to visual and audio components to determine the patient's level of attunement and progress toward clinical/training goals. Further, a 3D AR modeling module configures the processor to dynamically adjust the augmented reality visual and audio content output to the patient based on the determined level of entrainment and whether the training goal has been achieved. [Selection diagram] Figure 32

Description

関連出願の相互参照
本願は、「拡張された神経学的リハビリテーションのためのシステムおよび方法」と題され2020年7月21日に出願されたMcCarthyなどに対する米国仮特許出願第63/054,599号明細書に基づき、当該仮出願の利益および優先権を主張するものであり、さらに、「神経学的リハビリテーションのためのシステムおよび方法」と題され2016年4月14日に出願された米国仮特許出願第62/322,504号明細書に基づきその優先権を主張する、「神経学的リハビリテーションのためのシステムおよび方法」と題され2019年10月22日に発行された米国特許第10,448,888号明細書の継続出願である、McCarthyなどに対する米国特許出願第16/569,388号明細書、「神経学的リハビリテーションのためのシステムおよび方法」の一部継続出願であり、これらの特許出願および特許の明細書はそれぞれ、参照によりその全体が本明細書に記載されているかのように本明細書に援用される。
CROSS-REFERENCE TO RELATED APPLICATIONS This application is related to U.S. Provisional Patent Application No. 63/054,599 to McCarthy et al. U.S. Provisional Patent, entitled "SYSTEM AND METHOD FOR NEUROLOGICAL REHABILITATION," filed Apr. 14, 2016, which claims the benefit and priority of said provisional application on the basis of the specification; U.S. Patent No. 10,448, entitled "System and Method for Neurological Rehabilitation," issued Oct. 22, 2019, claiming priority from Application No. 62/322,504; U.S. patent application Ser. No. 16/569,388 to McCarthy et al., "Systems and Methods for Neurological Rehabilitation," which is a continuation of U.S. Pat. Each application and patent specification is hereby incorporated by reference as if set forth herein in its entirety.

本開示は概して、音楽療法を施すことにより身体障害を有するユーザのリハビリテーションのためのシステムおよび方法に関する。 The present disclosure relates generally to systems and methods for rehabilitation of users with physical disabilities by administering music therapy.

この10年にわたる多くの対照研究は、神経学的リハビリテーションにおける音楽の臨床的役割を重視してきた。例えば、厳格に管理された音楽療法は認知、運動および言語を直接強化できることが知られている。音楽を聴くプロセスは脳活動を多くの形で強化し、注意力、意味処理、記憶、認知、運動機能、および情動処理に関連する脳の領域間の広範な双方向ネットワークを刺激する。 Many controlled studies over the last decade have emphasized the clinical role of music in neurological rehabilitation. For example, rigorously controlled music therapy is known to be able to directly enhance cognition, movement and language. The process of listening to music enhances brain activity in many ways, stimulating extensive bidirectional networks between brain regions associated with attention, semantic processing, memory, cognition, motor function, and emotional processing.

臨床データは、音楽療法が記憶、注意力、実行機能、および気分を強化することを裏付けている。背後に音楽を流しての神経機構に対するPETスキャン研究により、心地よい音楽は腹側線条体、側座核、扁桃体、島、海馬、視床下部、腹側被蓋領域、前帯状領域、眼窩前頭皮質、および腹内側前頭前皮質を含む皮質領域と皮質下領域の間の広範なネットワークを刺激できることが明らかとなった。腹側被蓋領域は、ドパミンを作り出して、扁桃体、海馬、前帯状領域、および前頭前野に直接つながっている。この中脳皮質辺縁系は、音楽により活性化することができるが、覚醒、情動、報酬、記憶注意力、および実行機能を仲裁する上で重要な役割を果たす。 Clinical data support that music therapy enhances memory, attention, executive function, and mood. A PET scan study of neural mechanisms with background music revealed that pleasant music was associated with the ventral striatum, nucleus accumbens, amygdala, insula, hippocampus, hypothalamus, ventral tegmental area, anterior cingulate area, orbitofrontal cortex, and the ventromedial prefrontal cortex. The ventral tegmental area produces dopamine and connects directly to the amygdala, hippocampus, anterior cingulate area, and prefrontal cortex. The mesolimbic system, which can be activated by music, plays an important role in mediating arousal, emotion, reward, memory attention, and executive function.

神経科学の研究により、音楽で記憶を形成する基本的な組織化プロセスがどのようにして非音楽的な記憶プロセスと仕組みを共有するかが明らかとなった。フレーズの分類、階層抽象化、および音楽的パターンの基礎は、非音楽的な記憶プロセスでの時間的なチャンキングの原理と直接類似する点がある。これは、音楽で活性化される記憶プロセスは非音楽的な記憶プロセスを置き換えて強化しうることを示唆している。 Neuroscience research has revealed how the fundamental organizational processes that form musical memories share mechanisms with non-musical memory processes. The basis for phrase classification, hierarchical abstraction, and musical patterns bears direct parallels with the principle of temporal chunking in non-musical memory processes. This suggests that music-activated memory processes can replace and enhance non-musical memory processes.

したがって、ユーザの身元の利用を保護し、個人情報を安全に提供するための改善された装置、システム、および方法が依然として必要とされている。 Accordingly, there remains a need for improved devices, systems, and methods for protecting the use of user identities and securely providing personal information.

開示される主題の一態様では、患者の拡張された神経学的リハビリテーションのためのシステムが提供される。システムは、非一時的記憶媒体に記憶される機械可読命令を含むソフトウェアモジュールにより構成されるプロセッサを有するコンピュータシステムを備える。 In one aspect of the disclosed subject matter, a system is provided for extended neurological rehabilitation of a patient. The system comprises a computer system having a processor configured with software modules containing machine-readable instructions stored on a non-transitory storage medium.

ソフトウェアモジュールは、プロセッサにより実行された場合に、治療セッション中に患者へ出力するために拡張現実(AR)視覚コンテンツおよびリズミカルな聴覚刺激(RAS)を生成するようプロセッサを構成するAA/ARモデル化モジュールを含む。具体的には、RASはビートテンポで出力されるビート信号を含み、AR視覚コンテンツはビートテンポに基づいて規定された空間的および時間的な順番で動く視覚的要素を含む。 AA/AR modeling software module, when executed by the processor, configures the processor to generate augmented reality (AR) visual content and rhythmic auditory stimuli (RAS) for output to the patient during the treatment session Contains modules. Specifically, RAS includes beat signals output at the beat tempo, and AR visual content includes visual elements that move in a defined spatial and temporal order based on the beat tempo.

システムはさらに、プロセッサと通信を行い、患者がAR視覚コンテンツおよびRASに合わせて行う反復運動に関連する患者のタイムスタンプが付けられた生体力学データを含む患者データをリアルタイムで受信する入力インタフェースを備える。具体的には、生体力学データは患者と関連付けられたセンサを用いて測定される。 The system further comprises an input interface in communication with the processor for receiving patient data in real-time including AR visual content and patient time-stamped biomechanical data associated with repetitive movements performed by the patient in time with the RAS. . Specifically, biomechanical data are measured using sensors associated with the patient.

ソフトウェアモジュールはさらに、タイムスタンプが付けられた生体力学データを分析して、視覚的要素およびビートテンポで出力されるビート信号に対する患者の反復運動の時間的関係を判定し、目標パラメータに対する同調レベルを決定するようプロセッサを構成する、クリティカルシンキング(批判的思考)アルゴリズム(CTA)モジュールを含む。また、AA/ARモデル化モジュールはさらに、患者へ出力されるAR視覚およびRASを同期するように、かつ決定された同調レベルに基づいて動的に調整するようにプロセッサを構成する。 The software module further analyzes the time-stamped biomechanical data to determine the temporal relationship of the patient's repetitive motion to the beat signal output at the visual component and beat tempo, and to determine the level of entrainment to the target parameter. It includes a Critical Thinking Algorithm (CTA) module that configures the processor to make decisions. Also, the AA/AR modeling module further configures the processor to synchronize the AR vision and RAS output to the patient and dynamically adjust based on the determined entrainment level.

更なる態様によれば、身体障害を有する患者の拡張された神経学的リハビリテーションのための方法が提供される。方法は、実行された場合にこの方法を実行する機械可読命令により構成される物理プロセッサを有するコンピュータシステム上で実装される。 According to a further aspect, a method is provided for extended neurological rehabilitation of patients with physical disabilities. The method is implemented on a computer system having a physical processor configured with machine-readable instructions that, when executed, perform the method.

方法は、治療セッション中に音声出力装置を介して患者へ出力されるリズミカルな聴覚刺激(RAS)を提供するステップを含む。具体的には、RASはビートテンポで出力されるビート信号を含む。 The method includes providing rhythmic auditory stimuli (RAS) that are output to the patient via an audio output device during a therapy session. Specifically, the RAS contains beat signals that are output at the beat tempo.

また、方法は、AR表示装置を介して患者へ出力される拡張現実(AR)視覚コンテンツを生成するステップも含む。具体的には、AR視覚コンテンツは、ビートテンポに基づいて規定された空間的および時間的な順番で動き、RASと同期して出力される視覚的要素を含む。方法はさらに、RASのビート信号およびAR視覚コンテンツの視覚的要素の対応する動きに合わせて反復運動を行うよう患者に指示するステップを含む。 The method also includes generating augmented reality (AR) visual content that is output to the patient via the AR display device. Specifically, the AR visual content includes visual elements that move in a defined spatial and temporal order based on the beat tempo and are output in sync with the RAS. The method further includes instructing the patient to perform repetitive movements in time with the beat signal of the RAS and the corresponding movement of the visual elements of the AR visual content.

方法はさらに、患者がAR視覚コンテンツおよびRASに合わせて行う反復運動に関連する患者のタイムスタンプが付けられた生体力学データを含む患者データをリアルタイムで受信するステップを含む。具体的には、生体力学データは患者と関連付けられたセンサを用いて測定される。 The method further includes receiving, in real-time, patient data including time-stamped biomechanical data of the patient associated with repetitive movements performed by the patient in concert with the AR visual content and RAS. Specifically, biomechanical data are measured using sensors associated with the patient.

方法はさらに、タイムスタンプが付けられた生体力学データを分析して、視覚的要素およびビート信号に応じて出力されるビート信号に対する患者の反復運動の時間的関係を判定して、同調余地を決定するステップを含む。さらに、方法は、患者へ出力されるAR視覚コンテンツおよびRASを同期するように、かつ既定された同調余地を満たさない決定された同調余地に基づいて動的に調整するステップと、調整されたAR視覚コンテンツおよびRASを用いて治療セッションを継続するステップとを含む。 The method further analyzes the time-stamped biomechanical data to determine the temporal relationship of the patient's repetitive motion to the beat signal output in response to the visual component and the beat signal to determine entrainment margin. including the step of Further, the method includes dynamically adjusting to synchronize the AR visual content and the RAS output to the patient and based on the determined entrainment margin that does not meet the predetermined entrainment margin; continuing the therapy session with the visual content and the RAS.

本明細書に記載される装置、システム、および方法の前述した、および他の目的、特徴、および利点は、添付の図面に示されるその特定の実施形態の以下の説明から明らかとなるであろう。図面は必ずしも縮尺通りではなく、むしろ本明細書に記載される装置、システム、および方法の原理を図示することに重点が置かれる。 The foregoing and other objects, features, and advantages of the apparatus, systems, and methods described herein will become apparent from the following description of specific embodiments thereof that are illustrated in the accompanying drawings. . The drawings are not necessarily to scale, emphasis rather being placed upon illustrating the principles of the apparatus, systems and methods described herein.

開示される主題の例示の実施形態に係る、音楽療法を施すことでユーザを治療するシステムを示す図である。1 illustrates a system for treating a user with music therapy, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、音楽療法を施すことでユーザのリハビリテーションを行うシステムのいくつかの構成要素を示す図である。1 illustrates some components of a system for rehabilitating a user by administering music therapy, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の生体力学的な運動を測定するセンサの回路図である。1 is a circuit diagram of a sensor for measuring biomechanical motion of a patient, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係るシステムのいくつかの構成要素を示す図である。FIG. 1 illustrates some components of a system in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、音楽療法を施すことでユーザのリハビリテーションを行うシステムの構成要素の例示の表示を示す。FIG. 11 illustrates an exemplary display of components of a system for rehabilitating a user by administering music therapy, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、分析プロセスの一実装のフロー図である。1 is a flow diagram of one implementation of an analysis process, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係るプロセスの一実装のフロー図である。FIG. 4 is a flow diagram of one implementation of a process in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係るプロセスの一実装のフロー図である。FIG. 4 is a flow diagram of one implementation of a process in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係るプロセスの一実装のフロー図である。FIG. 4 is a flow diagram of one implementation of a process in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係るプロセスの一実装のフロー図である。FIG. 4 is a flow diagram of one implementation of a process in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、音楽および患者の身体の動きを示す時間グラフである。4 is a time graph showing music and patient body movements, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の反応を示す。FIG. 4 illustrates patient response in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、患者の歩行訓練の手法の一実装を示す。1 illustrates one implementation of a patient gait training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の無視訓練の手法の一実装を示す。4 illustrates one implementation of a patient neglect training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の抑揚訓練の手法の一実装を示す。4 illustrates one implementation of a technique for patient intonation training, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の音楽的刺激訓練の手法の一実装を示す。1 illustrates one implementation of a patient musical stimulation training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の粗大運動訓練の手法の一実装を示す。4 illustrates one implementation of a patient gross motor training technique, according to an exemplary embodiment of the disclosed subject matter. 開示される主題の例示の実施形態に係る、患者の握力訓練の手法の一実装を示す。4 illustrates one implementation of a patient grip strength training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の発話キュー訓練の手法の一実装を示す。1 illustrates one implementation of a technique for patient speech cue training, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、ごくわずかに意識のある患者の訓練の手法の一実装を示す。1 illustrates one implementation of a minimally conscious patient training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の注意力訓練の手法の一実装を示す。1 illustrates one implementation of a patient attention training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の注意力訓練の手法の一実装を示す。1 illustrates one implementation of a patient attention training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の注意力訓練の手法の一実装を示す。1 illustrates one implementation of a patient attention training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の器用さの訓練の手法の一実装を示す。4 illustrates one implementation of a patient dexterity training technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の口腔運動訓練の手法の一実装を示す。4 illustrates one implementation of an oral movement training technique for a patient, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者の呼吸訓練の手法の一実装を示す。1 illustrates one implementation of a patient breathing exercise technique, according to an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、患者へ治療を施すための、拡張された神経学的リハビリテーション、回復、または維持(「ANR」)用のシステムを示す図である。1 illustrates a system for augmented neurological rehabilitation, recovery, or maintenance (“ANR”) for administering therapy to a patient, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る図32のANRシステムを用いて行われる治療セッション中に測定されるパラメータ、システム応答、および標的/目標パラメータの図により可視化したものである。FIG. 33 is a graphical visualization of measured parameters, system responses, and target/target parameters during a treatment session conducted using the ANR system of FIG. 32 in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る図32のANRシステムを用いて行われる訓練セッションにより生じる代謝変化に関連する例示の結果を表現しているグラフである。33 is a graph depicting exemplary results related to metabolic changes produced by a training session conducted using the ANR system of FIG. 32 in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る治療セッション中に患者へ表示するANRシステムにより生成される、例示の拡張現実(AR)表示である。4 is an exemplary Augmented Reality (AR) display generated by an ANR system for display to a patient during a treatment session in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る治療セッション中に患者へ表示するANRシステムにより生成される、例示のAR表示である。4 is an exemplary AR display generated by an ANR system for display to a patient during a treatment session in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る治療セッション中に患者へ表示するANRシステムにより生成される、例示のAR表示である。4 is an exemplary AR display generated by an ANR system for display to a patient during a treatment session in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る、拡張された音声刺激および視覚刺激を患者へ与えることによる歩行訓練の手法の一実装を示す。FIG. 11 illustrates one implementation of a technique for gait training by providing enhanced audio and visual stimuli to a patient, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る、歩行訓練法を実行するよう構成されているANRシステムを概念的に示す、システムおよびプロセスを混合した図である。1 is a mixture of systems and processes conceptually illustrating an ANR system configured to perform a gait training method, according to an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る図38のANRシステムの拡張音声(AA)装置の構成要素を概念的に示す、システムおよびプロセスを混合した図である。39 is a mixed system and process diagram conceptually illustrating components of an augmented audio (AA) unit of the ANR system of FIG. 38 in accordance with an exemplary embodiment of the disclosed subject matter; FIG. 開示される主題の例示の実施形態に係る治療セッション中に患者へ表示するANRシステムにより生成される、例示のAR表示である。4 is an exemplary AR display generated by an ANR system for display to a patient during a treatment session in accordance with an exemplary embodiment of the disclosed subject matter; 開示される主題の例示の実施形態に係る治療セッション中に患者へ表示するANRシステムにより生成される、例示のAR表示である。4 is an exemplary AR display generated by an ANR system for display to a patient during a treatment session in accordance with an exemplary embodiment of the disclosed subject matter;

本発明は概して、人間の振る舞いおよび機能的な変化を観察および方向づける動的閉ループリハビリテーションプラットフォームシステムを実現するためのシステム、方法、および装置に関する。そのような変化は、音楽的リズム、ハーモニー、メロディ、および強さのキューにより時間的に引き起こされる言語、運動、および認知においてなされる。 The present invention relates generally to systems, methods, and apparatus for implementing a dynamic closed-loop rehabilitation platform system that observes and directs human behavioral and functional changes. Such changes are made in language, movement, and cognition temporally triggered by musical rhythm, harmony, melody, and intensity cues.

本発明の様々な実施形態において、図1に示される動的閉ループリハビリテーションプラットフォーム音楽療法システム100が提供され、このシステムはセンサ要素およびセンサシステム102と、エッジ処理要素104と、収集要素106と、分析システム108と、音楽療法センター110とを備える。以下でより詳細に説明されるように、センサ要素、エッジ処理要素、収集要素機械学習プロセス、および音楽療法センターは、様々なハードウェア要素上で提供可能である。例えば、一実施形態では、センサ要素およびエッジ処理要素は患者に取り付けられる、または患者に装着されることがある。そのような実施形態では、収集要素および音楽療法センターは携帯型機器上で提供されることがある。そのような実施形態では、分析システムはリモートサーバ上に設置されることがある。 In various embodiments of the present invention, a dynamic closed-loop rehabilitation platform music therapy system 100, shown in FIG. It comprises a system 108 and a music therapy center 110 . As described in more detail below, sensor elements, edge processing elements, collection element machine learning processes, and music therapy centers can be provided on various hardware elements. For example, in one embodiment, the sensor elements and edge processing elements may be attached to or worn by the patient. In such embodiments, the collection element and music therapy center may be provided on a portable device. In such embodiments, the analysis system may be located on a remote server.

センサシステム
本明細書での記述を通して、「患者」という用語は、音楽療法治療を受ける個人について言及するのに使用される。「療法士」という用語は、音楽療法治療を施す個人について言及するのに使用される。一部の実施形態では、患者は治療を施す療法士が存在しなくても本明細書に記載されるこのシステムとインタラクションを行うことができる。
Sensor System Throughout the description herein, the term "patient" is used to refer to an individual undergoing music therapy treatment. The term "therapist" is used to refer to an individual who administers music therapy treatment. In some embodiments, a patient can interact with the system described herein without a treating therapist present.

センサ要素102は、患者に関する検出された生体力学データを提供する。一部の実施形態では、センサ要素には、(1)ウェアラブル無線リアルタイム動作検出装置、すなわちIMU(慣性計測装置)、(2)センサ200などのウェアラブル無線リアルタイム結合多ゾーン足底圧/6次元モーションキャプチャ(IMU)装置、(3)センサ208などのウェアラブル無線リアルタイム筋電図(EMG)装置、および(4)撮像装置206などのリアルタイム無線近赤外線(NIR)ビデオキャプチャ装置が含まれうる(図4を参照)。 Sensor element 102 provides sensed biomechanical data about the patient. In some embodiments, the sensor elements include: (1) a wearable wireless real-time motion detection device or IMU (Inertial Measurement Unit); (3) a wearable wireless real-time electromyography (EMG) device such as sensor 208; and (4) a real-time wireless near-infrared (NIR) video capture device such as imaging device 206 (FIG. 4). ).

図2に示すように、本明細書に記載されるシステムおよび方法は、患者の歩行障害の治療に関連して用いられる。したがって、例示のセンサ200は、結合多ゾーン足底圧/6自由度モーションキャプチャ装置とすることができる。センサ200は、患者が音楽療法セッション中に歩行している間の患者の足圧力および6自由度運動プロファイルを記録する。一部の実施形態では、足圧力/6自由度モーションキャプチャ装置は、1~4個のゾーンを含む足圧力プロファイルに対して100Hzのサンプリングレートで可変記録時間間隔を有し、1足1秒あたり100~400個の圧力データ点が得られる。 As shown in FIG. 2, the systems and methods described herein are used in connection with the treatment of gait disorders in patients. Thus, the exemplary sensor 200 can be a combined multi-zone plantar pressure/six degrees of freedom motion capture device. Sensor 200 records the patient's foot pressure and 6-DOF motion profile while the patient is walking during a music therapy session. In some embodiments, the foot pressure/6 DOF motion capture device has a variable recording time interval at a sampling rate of 100 Hz for a foot pressure profile containing 1-4 zones, 100-400 pressure data points are obtained.

センサ200は、(1ゾーンの圧力、例えば踵接地圧力を測定するための)踵パッドから(4ゾーンの圧力を測定するための)インソール(靴の中敷)全体用パッドまでを有する足圧力パッド202を含みうる。圧力測定は、足へ伝達された患者の体重による圧縮の結果、トランスデューサの材料における抵抗変化を検出することでなされる。こうした足圧力のマップが音楽療法セッション中にサンプリング間隔毎に、または特定の時点において得られる。 Sensor 200 is a foot pressure pad that includes a heel pad (to measure one-zone pressure, e.g., heel-contact pressure) to an insole-wide pad (to measure four-zone pressure). 202. Pressure measurements are made by detecting resistance changes in the material of the transducer as a result of compression by the patient's weight transmitted to the foot. Such foot pressure maps are obtained at sampling intervals or at specific time points during the music therapy session.

センサ200は、3次元の線形加速度A、A、A、およびピッチ(縦揺れ)、ヨー、およびロール(横揺れ)などの回転運動を測定する、6自由度微小電気機械システム(MEMS)ベースのセンサを介して動きの変化を検出する、6次元モーションキャプチャ装置204を含みうる。100Hzでのサンプリングにより、1秒あたり600個の動きデータ点が作り出される。こうした足のモーションキャプチャが音楽療法セッション中にサンプリング間隔毎に、または特定の時点において得られる。 The sensor 200 is a six-degree-of-freedom micro-electromechanical system (MEMS) that measures three-dimensional linear accelerations Ax , Ay , Az , and rotational motion such as pitch (pitch), yaw, and roll (roll). ) may include a 6D motion capture device 204 that detects changes in motion via sensors in the base. Sampling at 100 Hz produces 600 motion data points per second. These foot motion captures are obtained at sampling intervals or at specific points in time during the music therapy session.

6自由度モーションキャプチャ装置を用いた多ゾーンでの圧力検出により、歩行中にマッピング可能な空間的および時間的な歩行の動力学の追跡が可能となる。センサ200の回路図が図3に示されている。 Multizone pressure detection using a 6-DOF motion capture device enables the tracking of spatial and temporal locomotion dynamics that can be mapped during locomotion. A circuit diagram of sensor 200 is shown in FIG.

図4に示すように、システム視点では、患者Pは2つの足センサ200を使用し、右200R、左200Lと指定される足のそれぞれに1つを使用する。例示の実施形態では、右足センサ200Rは、第1チャネル、例えばIEEE802.15.4の直接スペクトラム拡散(DSSS)方式のRF帯におけるチャネル5で、タイムスタンプが付けられた内部測定装置のデータおよび踵接地圧力データを無線で伝達する。左足センサ200Lは、第2チャネル、例えばIEEE802.15.4の直接スペクトラム拡散(DSSS)方式のRF帯におけるチャネル6で、タイムスタンプが付けられた内部測定装置のデータおよび踵接地圧力データを無線で伝達する。以下で説明されるように、療法士Tにより任意選択で使用されるタブレットまたはノートパソコン220は、右足/左足センサのRFデータをキャプチャするために、第1チャネルおよび第2チャネル、例えばチャネル5とチャネル6に合わせられた2つのIEEE802.15.4 DSSS RFトランシーバを含む無線USBハブを備える。携帯型無線式トリガー250は、ビデオを開始および停止するため、ならびに/または以下でより詳細に論じられるように、時間ストリームに印を付けると共にインデックス付けするために用いられる。 As shown in FIG. 4, in the system view, patient P uses two foot sensors 200, one for each of the feet designated right 200R and left 200L. In the exemplary embodiment, the right foot sensor 200R receives time-stamped internal measurement device data and heel-stamped data on a first channel, e.g., channel 5 in the IEEE 802.15.4 Direct Spread Spectrum (DSSS) RF band. Wireless transmission of ground pressure data. Left foot sensor 200L wirelessly transmits time-stamped internal measurement device data and heel pressure data on a second channel, e.g., channel 6 in the IEEE 802.15.4 Direct Spread Spectrum (DSSS) RF band. introduce. As described below, a tablet or laptop computer 220 optionally used by therapist T uses a first channel and a second channel, e.g. It has a wireless USB hub containing two IEEE 802.15.4 DSSS RF transceivers tuned to channel 6. Portable wireless trigger 250 is used to start and stop video and/or to mark and index the time stream as discussed in more detail below.

ビデオ分析ドメインを用いて、治療セッションについての患者の意味的情報および事象の情報を抽出することができる。患者の動作およびインタラクションは、治療の状況および管理に影響する、治療における構成要素である。一部の実施形態では、ビデオカメラなどの1つまたは複数の撮像装置206(図4を参照)が時間同期されたビデオフィードと共に用いられる。患者の動きをキャプチャするために適切なビデオをシステムへ組み込むことができるが、近赤外線(NIR)ビデオキャプチャは患者のプライバシーを保護し、処理するビデオデータを削減するのに有益である。NIRビデオキャプチャ装置は患者の胴体や手足の部位などの患者の体のNIRビデオ画像をキャプチャする。さらに、NIRビデオキャプチャ装置は、音楽療法セッションの機能として、患者のリアルタイムの動的な歩行の特性をキャプチャする。一部の実施形態では、ビデオは定置されたカメラを用いて撮影され、ビデオの中で背景は取り去られて前景の画素が分割される。 The video analysis domain can be used to extract patient semantic and event information about a treatment session. Patient movements and interactions are components in therapy that influence the context and management of therapy. In some embodiments, one or more imaging devices 206 (see FIG. 4), such as video cameras, are used with time-synchronized video feeds. Suitable video can be incorporated into the system to capture patient movement, but near-infrared (NIR) video capture is beneficial to protect patient privacy and reduce video data to process. A NIR video capture device captures NIR video images of a patient's body, such as the patient's torso or limbs. Additionally, the NIR video capture device captures real-time dynamic gait characteristics of the patient as a function of the music therapy session. In some embodiments, the video is shot with a stationary camera, the background is subtracted and the foreground pixels are split in the video.

図4に示すように、治療セッションが始まると1つまたは複数のビデオカメラ206がタブレットまたはノートパソコンのアプリケーションにより作動される。ビデオカメラ206は、療法士によって携帯型無線式トリガーユニット250で停止または起動することができる。これにより、キャプチャされた生体力学センサデータおよびビデオデータストリームにおいて、ラベルおよびタイムスタンプが付けられたインデックスを作成することが可能となる。 As shown in FIG. 4, one or more video cameras 206 are activated by a tablet or laptop application when a treatment session begins. The video camera 206 can be stopped or activated with a portable wireless trigger unit 250 by the therapist. This allows the creation of labeled and time-stamped indices in the captured biomechanical sensor data and video data streams.

一部の実施形態では、ウェアラブル無線リアルタイム筋電図(EMG)装置208を患者が装着することができる。EMGセンサは、移動のための主要な筋肉の発火に対する二足歩行全体のプロファイルを提供する。そのようなセンサは、筋肉が発火した際の正確な時間に関するデータを提供する。 In some embodiments, a wearable wireless real-time electromyography (EMG) device 208 can be worn by the patient. EMG sensors provide a profile of the entire bipedal gait for the firing of key muscles for locomotion. Such sensors provide data on the exact time when a muscle fires.

エッジ処理
一部の実施形態では、エッジ処理はセンサ200で行われ、センサデータはIMUおよび圧力センサからキャプチャされる。センサデータはフィルター処理されて様々な配列サイズへとグループ分けされ、抽出された属性および特徴を反映するフレームへとさらに処理されて、これらのフレームは、例えば無線で、タブレットまたはノートパソコン上の収集器106へ送信される。あるいは、センサ200から得られる生の生体力学センサデータは、エッジ処理機能を実行するための収集のためにリモートプロセッサへ転送できることが理解される。
Edge Processing In some embodiments, edge processing is performed at the sensor 200 and sensor data is captured from the IMU and pressure sensors. The sensor data is filtered and grouped into various array sizes, further processed into frames reflecting the extracted attributes and features, and these frames are collected, e.g., wirelessly, on a tablet or laptop. is sent to device 106. Alternatively, it is understood that raw biomechanical sensor data obtained from sensor 200 can be transferred to a remote processor for collection to perform edge processing functions.

ウェアラブルセンサ200、208、およびビデオキャプチャ装置206は、生体力学的特徴の抽出および分類を容易にするために総合的に処理されたセンサデータストリームを生成する。センサフュージョンは共通の事象をキャプチャする多数のセンサからの出力を結合し、いずれの単一の構成センサ入力よりも良好に結果を捉える。 The wearable sensors 200, 208 and video capture device 206 produce sensor data streams that are synthetically processed to facilitate biomechanical feature extraction and classification. Sensor fusion combines outputs from multiple sensors that capture common events and captures results better than any single constituent sensor input.

音楽療法の文脈において患者の活動を捉えることで、音楽療法に適用されるインタラクションと、音楽療法の成績および有効性に対する患者に特有な指標および一般化された正式な指標を開発する上でのインタラクションとが形式化される。ビデオの特徴を抽出して分析することで、患者の振る舞いについての意味的で高レベルの情報を捉えることが可能となる。 By capturing patient activity in the context of music therapy, interactions applied to music therapy and in developing patient-specific and generalized formal measures of performance and effectiveness of music therapy. and are formalized. By extracting and analyzing video features, it is possible to capture semantic and high-level information about patient behavior.

ビデオを処理する際に、音楽療法が行われる物理的場所における照明条件の変動および遮蔽を取り入れた背景モデルを作成するのに学習された背景差分法が用いられる。背景差分の結果は2次元の輪郭である一連のブロブを前景に有する前景のバイナリマップである。このように、ビデオは将来の画像処理およびセンサフュージョンのために個別の画像フレームへと分割される。ビデオ情報は、IMU、足圧力パッド、およびEMGセンサからのエッジ処理されたセンサデータを融合させることで、追加のメタデータと共に提供される。センサデータはRFトリガーを用いて他のデータと時間同期させることができる。データは収集器へ直接送信する、内部基板のメモリに記憶する、またはOpenCVライブラリを実行するエッジで分析することができる。 In processing the video, a learned background subtraction method is used to create a background model that takes into account variations in lighting conditions and occlusions in the physical location where music therapy is performed. The result of background subtraction is a binary map of the foreground with a series of 2D contour blobs in the foreground. Thus, the video is split into individual image frames for future image processing and sensor fusion. Video information is provided with additional metadata by fusing edge-processed sensor data from the IMU, foot pressure pads, and EMG sensors. Sensor data can be time-synchronized with other data using RF triggers. The data can be sent directly to the collector, stored in internal board memory, or analyzed at the edge running the OpenCV library.

エッジプロセッサ104はマイクロプロセッサとすることができて、例えば1秒あたり100~400個の完全な足圧力/6自由度運動プロファイルの速度で高速な多ゾーンスキャンを可能とする足圧力/6自由度モーションキャプチャ装置へ組み込まれる32ビットマイクロプロセッサなどにすることができる。 The edge processor 104 can be a microprocessor, for example, foot pressure/6DOF enabling fast multi-zone scanning at rates of 100-400 complete foot pressure/6DOF motion profiles per second. It can be, for example, a 32-bit microprocessor built into a motion capture device.

足圧力/6自由度モーションキャプチャ装置は、リアルタイム歩行分析のために足圧力/6自由度運動プロファイルデータを収集し、その結果、特徴の抽出と分類が行われる。一部の実施形態では、足圧力/6自由度モーションキャプチャ装置は、マイクロコントローラユニット(MCU)と、連続演算子処理(COP)、汎用入出力(GPIO)、シリアルペリフェラルインタフェース(SPI)、および割り込み要求(IRQ)を初期化し、マイクロコントローラユニット初期化(MCUInit)、汎用入出力初期化(GPIOInit)、シリアルペリフェラルインタフェース初期化(SPIInit)、割り込み要求肯定応答初期化(IRQInit)、割り込み要求肯定応答(IRQACK)、シリアルペリフェラルインタフェースドライバ読み出し(SPIDrvRead)、およびIRQPinEnableを含むルーチンを呼び出すことで、所望のRFトランシーバクロック周波数を設定する。MCUInitは、MCUウォッチドッグを停止させて、バスクロック(BUSCLK)を32のプリスケールで基準として使用するようにタイマーモジュールを設定するマスター初期化ルーチンである。 A foot pressure/6DOF motion capture device collects foot pressure/6DOF motion profile data for real-time gait analysis, resulting in feature extraction and classification. In some embodiments, the foot pressure/six degrees of freedom motion capture device includes a microcontroller unit (MCU), continuous operator processing (COP), general purpose input/output (GPIO), serial peripheral interface (SPI), and interrupt Initialize Request (IRQ), Microcontroller Unit Initialization (MCUInit), General Purpose Input/Output Initialization (GPIOInit), Serial Peripheral Interface Initialization (SPIInit), Interrupt Request Acknowledge Initialization (IRQInit), Interrupt Request Acknowledge ( IRQACK), Serial Peripheral Interface Driver Read (SPIDrvRead), and IRQPinEnable to set the desired RF transceiver clock frequency. MCUInit is the master initialization routine that stops the MCU watchdog and sets the timer module to use the bus clock (BUSCLK) with a prescale of 32 as the reference.

状態変数gu8RTxModeはSYSTEM_RESET_MODEに設定され、ルーチンGPIOInit、SPIInit、IRQInitが呼び出される。状態変数gu8RTxModeはRF_TRANSCEIVER_RESET_MODEに設定され、IRQがアサートされているかを確認するためにIRQFLAGがチェックされる。RFトランシーバの割り込みがまずSPIDrvReadを用いてクリアされ、ATTN IRQ割り込みについてRFトランシーバがチェックされる。最後に、MCUInitに関して、物理MAC層、IRQACK(保留中のIRQ割り込みをACKするために)、および信号の負エッジで、EnableとIEとIRQ CLRをピンするためのIRQPinEnableをリセットするために、PLMEPhyResetに対して呼び出しが行われる。 The state variable gu8RTxMode is set to SYSTEM_RESET_MODE and the routines GPIOInit, SPIInit, IRQInit are called. The state variable gu8RTxMode is set to RF_TRANSCEIVER_RESET_MODE and IRQFLAG is checked to see if IRQ is asserted. The RF transceiver interrupt is first cleared using SPIDrvRead and the RF transceiver is checked for ATTN IRQ interrupts. Finally, for MCUInit, PLMEPhyReset to reset the physical MAC layer, IRQACK (to ACK pending IRQ interrupts), and IRQPinEnable to pin Enable and IE and IRQ CLR on the negative edge of the signal. A call is made to

足圧力/6自由度モーションセンサ200は足圧力/6自由度運動収集ノードからの応答を、例えば250ミリ秒待って、デフォルトの全足圧力のスキャンが行われるかどうか、あるいはマッピングされた足圧力スキャンが開始されるかどうかを判定する。マッピングされた足圧力スキャンの場合は、足圧力/6自由度運動収集ノードは、適切な電極に足圧力スキャンマッピング構成データを送信する。 The foot pressure/6DOF motion sensor 200 waits for a response from the foot pressure/6DOF motion collection node, eg, 250 milliseconds, to determine whether a default full foot pressure scan is to be performed or the mapped foot pressure. Determines if scanning is started. For mapped foot pressure scans, the foot pressure/six degrees of freedom motion acquisition node sends the foot pressure scan mapping configuration data to the appropriate electrodes.

分析パイプラインの一態様は、特徴ベクトルを作成して分析用の入力データ構造を規定するのに使用される、それらのキャプチャされたセンサ値とその結果生じるセンサフュージョンされた値を規定する特徴集合エンジニアリングプロセスである。代表値はAx(i)、Ay(i)、Az(i)、Ph(i)であり、iはi番目のサンプルであり、Ax(i)は足センサに対して横方向であるx方向の加速度であり、Ay(i)は足センサに対して前方であるy方向の加速度であり、Az(i)は足センサに対して上へ向かうz方向の加速度であり、Ph(i)は踵接地圧力である。センサ値は表1に示される。

Figure 2023537681000002
One aspect of the analysis pipeline is a feature set that defines those captured sensor values and the resulting sensor-fused values that are used to create a feature vector and define the input data structure for analysis. It's an engineering process. Typical values are Ax(i), Ay(i), Az(i), Ph(i), where i is the ith sample and Ax(i) is the x direction transverse to the foot sensor. Ay(i) is the forward y-direction acceleration with respect to the foot sensor, Az(i) is the upward z-direction acceleration with respect to the foot sensor, and Ph(i) is heel contact pressure. Sensor values are shown in Table 1.
Figure 2023537681000002

一部の実施形態では、センサフュージョンする手法は、以下の例示の特徴量の分析を「ゲート」(gate)して後述されるデータのウインドウを導くために、踵接地圧力値Ph(i)を用いる。例えば、以下の表2に示されるように、「オンセット」(開始)は、踵接地を意味する閾値を超える踵圧力に基づいて判定することができて、「停止」は、踵が離れていることを意味する、踵圧力が閾値を下回っていることに基づいて判定される。踵接地圧力は、「ゲート」分析に使用可能なパラメータの一例であることが理解される。一部の実施形態では、「ゲーティング」はIMUセンサデータ、ビデオデータ、および/またはEMGデータを用いて判定される。

Figure 2023537681000003
In some embodiments, the sensor fusion approach uses the heel pressure values Ph(i) to "gate" the analysis of the following exemplary features to derive the windows of data described below. use. For example, as shown in Table 2 below, "onset" (start) can be determined based on heel pressure above a threshold signifying heel strike, and "stop" can be determined based on heel-off. The determination is based on heel pressure being below a threshold, which means that the It is understood that heel contact pressure is one example of a parameter that can be used for a "gated" analysis. In some embodiments, "gating" is determined using IMU sensor data, video data, and/or EMG data.
Figure 2023537681000003

より高レベルの特徴量が、表3に示される例示の値などのフュージョンされたセンサ値から算出される。

Figure 2023537681000004
Higher-level features are calculated from fused sensor values, such as the exemplary values shown in Table 3.
Figure 2023537681000004

本明細書に記載されるシステムは、患者の生体力学データに対して「ゲート」する、または「ウインドウ」を提供する能力を提供する。生体力学データのゲーティングは、患者が歩行している間の反復的ストライドなどの患者の反復的な運動に対して有益である。圧力センサ、IMUセンサ、ビデオデータ、EMGデータなどの1つまたは複数のソースからのセンサデータは、経時的に繰り返す運動のサイクルを特定するのに用いられる。例えば、患者が歩く場合、患者の足が地面に接した後に地面から持ち上げられるため、足圧力は反復的に増加および減少する。同様に、足の速度は、足が前方に進む際に増加し、足が地面に置かれている間はゼロへと減少する。更なる例として、患者の足のY位置、つまり高さは、(地面上の)低い位置と(ストライドのほぼ真ん中での)高い位置の間で循環する。「ゲーティング」手法は、そのようなデータの中の反復するサイクル、または「ウインドウ」を特定する。患者が歩いている場合、サイクルは各ステップで繰り返される。サイクル間、例えばステップ間に変動がありうるが、特定のパターンが各サイクルで繰り返される。各サイクルのオンセット時間(開始時間)を選択することには、生体力学的パラメータの特定可能な点(最大または最小)を配置することが含まれる。オンセット時間に対するパラメータの選択は、利用可能なデータに基づいて選択される。このように、一部の実施形態では、踵接地圧力が閾値を超える瞬間が各サイクルのオンセット時間の境界を定めるのに用いることができる。(例えば図5を参照。圧力316a、316bは周期的な特性を含む。「オンセット」は、圧力が閾値を超える瞬間に判定されうる。)同様に、オンセット時間は、足速度がゼロへと下がった場合に境界を定められうる。 The system described herein provides the ability to "gate" or provide a "window" on the patient's biomechanical data. Gating biomechanical data is beneficial for repetitive patient motion, such as repetitive strides while the patient is walking. Sensor data from one or more sources, such as pressure sensors, IMU sensors, video data, EMG data, etc., are used to identify repeating cycles of motion over time. For example, when a patient walks, the foot pressure repeatedly increases and decreases as the patient's foot touches the ground and then lifts off the ground. Similarly, foot velocity increases as the foot moves forward and decreases to zero while the foot is on the ground. As a further example, the Y position, or height, of the patient's foot cycles between a low position (above the ground) and a high position (approximately mid-stride). A "gating" approach identifies repeating cycles, or "windows", in such data. If the patient is walking, the cycle repeats with each step. A particular pattern is repeated in each cycle, although there may be variation from cycle to cycle, eg, step to step. Choosing the onset time (start time) for each cycle involves placing an identifiable point (maximum or minimum) of the biomechanical parameter. The selection of parameters for the onset time is chosen based on available data. Thus, in some embodiments, the instant at which heel contact pressure exceeds a threshold can be used to delimit the onset time of each cycle. (See, for example, FIG. 5. The pressures 316a, 316b include periodic characteristics. An "onset" may be determined at the moment the pressure crosses a threshold.) can be demarcated if

一部の実施形態では、生フレームデータは前処理され、瞬間的なデータを取って「ゲーティング」し、例えば、ウインドウを特定し、そのウインドウ内のデータを分析して、外れ値の特定やデータの分析、例えば指数関数分析、多数のウインドウでのデータの平均化を行う。センサデータのフュージョンは、IMUデータおよび踵接地圧力データの両方を含むことで、1回のストライドまたは他の反復される運動単位のオンセット時間を単一のセンサからのデータを用いる場合より正確に特定することを可能とする。一回のストライドの間にキャプチャされたセンサデータは「ウインドウ」であるとみなされ、この分析から抽出される情報には、例えば、ストライド長、ステップ数、歩調、ステップが発生した時間、移動距離、立脚期/遊脚期、両脚支持時間、速度、(例えば、左脚と右脚の間での)対称性分析、外側への遊脚、足を引きずっての歩行、出力ベクトル、横方向加速度、ステップ幅、これらの大きさのそれぞれの変動性、上記の情報から導出される更なるパラメータ、などが含まれる。特徴抽出はマイクロプロセッサチップ、例えば32ビットチップ上で処理することができる。無線同期ゲート生体力学センサデータのキャプチャ、およびビデオデータキャプチャ能力により、時系列テンプレートの作成が可能となる。 In some embodiments, the raw frame data is preprocessed to take instantaneous data and "gate" it, e.g., identify a window and analyze the data within that window to identify outliers or Analyze the data, eg exponential analysis, averaging the data over multiple windows. Fusion of sensor data includes both IMU and heel pressure data to provide more accurate onset times for a single stride or other repeated motor unit than using data from a single sensor. make it possible to identify Sensor data captured during one stride is considered a "window" and information extracted from this analysis includes, for example, stride length, number of steps, cadence, time the step occurred, distance traveled. , stance phase/swing phase, double support time, velocity, symmetry analysis (e.g. between left and right leg), lateral swing, shuffling, output vector, lateral acceleration , the step size, the variability of each of these magnitudes, further parameters derived from the above information, and so on. Feature extraction can be processed on a microprocessor chip, such as a 32-bit chip. Capture of wireless synchronous gated biomechanical sensor data, and video data capture capabilities enable the creation of time-series templates.

データは、音楽療法セッション中に患者または療法士によりインデックス付けすることができる。上述した「ゲーティング」機能は、特定のストライドまたはステップを例外条件に結び付けるのに有益である。例えば、療法士は、患者の運動において特定の例外条件や振る舞い(異常や事件など)を観察することがある。インデックス作成機能により、療法士が携帯型タブレットまたはノートパソコンのユーザインタフェース、例えば図4に示される無線式トリガーユニット250や音声制御などを介して例外条件または振る舞いを「記録する」ためのキャプチャなどを開始することが可能となる。タイムスタンプや、歩行中の患者の「つまづき」(stumble)が発生、などのコメントを含む注釈を作ることができる。そのようなインデックス作成により、時系列テンプレートの作成が容易になる。こうした時系列テンプレートは、治療セッション事象の精査、および機械学習アルゴリズム、例えば非線形多層パーセプトロン(NLMLP)、畳み込みニューラルネットワーク(CNN)、長・短期記憶(LSTM)を備える再帰型ニューラルネットワーク(RNN)などを訓練するための時系列テンプレートの開発のために研究される。 Data can be indexed by the patient or therapist during the music therapy session. The "gating" function described above is useful for tying a particular stride or step to an exception condition. For example, a therapist may observe certain exceptional conditions or behaviors (such as anomalies or incidents) in a patient's movements. The indexing feature allows the therapist to use a portable tablet or laptop user interface, such as the wireless trigger unit 250 shown in FIG. It is possible to start. Annotations can be made that include timestamps and comments such as when a patient "stumbles" while walking. Such indexing facilitates the creation of time series templates. These time-series templates are used to review treatment session events and machine learning algorithms such as non-linear multi-layer perceptrons (NLMLP), convolutional neural networks (CNN), recurrent neural networks (RNN) with long short-term memory (LSTM), etc. It is studied for the development of time series templates for training.

一実施形態では、通信プロトコルが(例えば、センサ200での)センサデータをエッジ処理104から収集器106へ転送するために提供される。以下の表4を参照。一部の実施形態では、接続が100msを越えてアイドル状態である場合、RFはタイムアウトした。 In one embodiment, a communication protocol is provided to transfer sensor data (eg, at sensor 200 ) from edge processing 104 to collector 106 . See Table 4 below. In some embodiments, RF timed out if the connection was idle for more than 100ms.

Figure 2023537681000005
Figure 2023537681000005

一実施形態では、足圧力センサゾーンのスキャンがFootScanルーチンにより行われ、このルーチンではFootDataBufferIndexが初期化されて足圧力センサゾーンが出力[PTCDD_PTCDDN=Output]に対するMCU方向モードを有効化して関連するポート線をlowにする[PTCD_PTCD6=0]ことで活性化される。足圧力センサゾーンが足圧力ゾーンスキャンマップに基づいて活性化されると、MCUのアナログ信号ポートに連結された足圧力センサゾーンはサンプリングされ、現在の電圧測定値がこれらをデジタル形式(時間ゾーン足圧力)へ変換する。 In one embodiment, the scanning of the foot pressure sensor zones is performed by the FootScan routine, which initializes the FootDataBufferIndex to enable the MCU direction mode for output [PTCDD_PTCDDN=Output] and the associated port line. is made low [PTCD_PTCD6=0]. When a foot pressure sensor zone is activated based on the foot pressure zone scan map, the foot pressure sensor zone coupled to the MCU's analog signal port is sampled and the current voltage measurements are converted to digital form (time zone foot pressure).

FootDataBufferIndexやIMUBufferIndexなどのいくつかの変数が、FootDataBuffer[]およびIMUBuffer[]で使用されるデータを送信するための、IEEE 802.15.4 RFパケット、gsTxPacket.gau8TxDataBuffer[]を準備するために使用される。RFパケットは、RFSendRequest(およびgsTxPacket)ルーチンを用いて送信される。このルーチンは、gu8RTxModeがIDLE_Modeに設定されているかを確認するためにチェックを行い、gsTxPacketをRAMDrvWriteTxルーチンを呼び出すためのポインタとして使用し、RAMDrvWriteTxルーチンがRFトランシーバのTXパケット長レジスタの内容を読み出すためにSPIDrvReadを呼び出す。これらの内容を用いて、マスク長設定が更新され、CRCに2を加算し、コードバイトに2を加算する。 Some variables, such as FootDataBufferIndex and IMUBufferIndex, are used in the IEEE 802.15.4 RF packet, gsTxPacket. Used to prepare gau8TxDataBuffer[ ]. RF packets are sent using the RFSendRequest (and gsTxPacket) routines. This routine checks to see if gu8RTxMode is set to IDLE_Mode and uses gsTxPacket as a pointer to call the RAMDrvWriteTx routine to read the contents of the RF transceiver's TX packet length register. Call SPIDrvRead. With these contents, the mask length setting is updated, adding 2 to the CRC and adding 2 to the code bytes.

SPISendCharが2番目のコードバイトである0x7Eバイトを送信するために呼び出され、その後にSPIWaitTransferDoneが送信が行われたことを検証するために再度呼び出される。これらのコードバイトが送信されると、パケットの残りはforループを用いて送信され、ここでpsTxPkt→u8DataLength+1はSPISendChar、SPIWaitTransferDone、SPIClearRecieveDataRegに対する一連のシーケンシャルに対する反復回数である。完了すると、RFトランシーバは送信するパケットがロードされる。ANTENNA_SWITCHは送信を行うよう設定され、LNA_ONモードは有効化され、最後に実際にパケットを送信するためにRTXENAssertの呼び出しが行われる。 SPISendChar is called to send the second code byte, the 0x7E byte, and then SPIWaitTransferDone is called again to verify that the transfer has taken place. Once these code bytes have been sent, the rest of the packet is sent using a for loop, where psTxPkt→u8DataLength+1 is the number of iterations for the sequential series for SPISendChar, SPIWaitTransferDone, SPIClearReceiveDataReg. Upon completion, the RF transceiver is loaded with packets to transmit. ANTENNA_SWITCH is set to transmit, LNA_ON mode is enabled, and finally a call to RTXENAssert is made to actually transmit the packet.

収集器
収集器106の主な機能は、後述されるように、エッジ処理104からのデータをキャプチャしてデータを分析システム108へ転送し、処理されたデータを分析システム108から受信してデータを音楽療法センター110へ転送することである。一部の実施形態では、収集器106は制御機能、例えば、ログインを行い、システムを構成し、ユーザとインタラクションを行うためのユーザインタフェースを提供し、データを視覚化/表示するための表示ユニットを備える。収集器106は、分類(例えば、横方向震え、非対称性、不安定性など)のために軽量分析または機械学習されるアルゴリズムを含むことができる。
Collector The primary function of the collector 106 is to capture data from the edge processing 104, transfer data to the analysis system 108, receive processed data from the analysis system 108, and send data to the analysis system 108, as described below. transfer to the music therapy center 110; In some embodiments, the collector 106 provides control functions, e.g., a user interface for logging in, configuring the system, interacting with users, and a display unit for visualizing/displaying data. Prepare. Collector 106 may include lightweight analytics or machine-learned algorithms for classification (eg, lateral tremor, asymmetry, instability, etc.).

収集器106は、エッジプロセッサ104から身体、動き、および局所化データを受信する。収集器106において受信されるデータは生とすることができる、または収集器へ転送する前にエッジ104で処理することができる。例えば、収集器106は、「ウインドウ処理」、および特徴抽出が行われる、フュージョンされたセンサデータを受信する。転送されたデータは2つのレベルのデータ、すなわち、(1)表1に記載される右足/左足センサから送信されるRFパケット、(2)表2、表3に記載されるより高レベルの属性および特徴を含む右足/左足センサからのRFパケットを含みうる。収集器106はデータを局所的に記憶する。一部の実施形態では、収集器106は受信したデータから動きを分類する、例えば、局所的に記憶された(分析システムから予めダウンロードされた)モデル、または分析システムへ送信されたモデルとこのデータを分類するために比較する。収集器は、データを視覚化/表示するための表示ユニットを備えることができる。 Collector 106 receives body, motion and localization data from edge processor 104 . Data received at the collector 106 can be raw or processed at the edge 104 before being transferred to the collector. For example, collector 106 receives fused sensor data that undergoes "windowing" and feature extraction. The transferred data is two levels of data: (1) RF packets transmitted from the right/left foot sensors listed in Table 1, and (2) higher level attributes listed in Tables 2 and 3. and RF packets from the right/left foot sensors containing the features. Collector 106 stores data locally. In some embodiments, the collector 106 classifies motion from the data received, e.g., a locally stored model (pre-downloaded from the analysis system), or a model transmitted to the analysis system and this data. Compare to classify. The collector may comprise a display unit for visualizing/displaying the data.

一部の実施形態では、収集器106は、メモリ、プロセッサ、およびディスプレイを備えるローカルコンピュータ上で動作する。収集器が設置される例示の装置には、拡張現実(AR)装置、仮想現実(VR)装置、タブレット、携帯機器、ノートブックコンピュータ、デスクトップコンピュータ、および同種のものを含みうる。図2は、ディスプレイ222を有し、収集機能を実行する携帯型機器220を示す。一部の実施形態では、患者センサと収集器の間でデータを転送するための接続パラメータは、Windowsのデバイスマネージャーの使用を含む(例えば、ボーレート:38400、データビット:8、パリティ:なし、ストップビット:1)ようにされる。一部の実施形態では、収集器106は、音楽療法の患者に保持される、または装着されるプロセッサを備える。一部の実施形態では、収集器106は、音楽療法の患者から遠隔にあり、療法士により携行され、無線または有線の接続により音楽療法の患者と接続されるプロセッサを備える。 In some embodiments, collector 106 runs on a local computer with memory, processor, and display. Exemplary devices on which collectors are installed may include augmented reality (AR) devices, virtual reality (VR) devices, tablets, mobile devices, notebook computers, desktop computers, and the like. FIG. 2 shows a portable device 220 having a display 222 and performing collection functions. In some embodiments, connection parameters for transferring data between the patient sensor and the collector include using Windows Device Manager (e.g., baud rate: 38400, databits: 8, parity: none, stop Bits: 1) Enabled. In some embodiments, the collector 106 comprises a processor that is held or worn by the music therapy patient. In some embodiments, the collector 106 comprises a processor that is remote from the music therapy patient, carried by the therapist, and connected with the music therapy patient via a wireless or wired connection.

一実施形態では、足圧力/6自由度運動収集ノードは、足圧力/6自由度モーションキャプチャ装置からのリアルタイムの足圧力/6自由度運動プロファイルデータを含む、RF送信されたデータパケットをキャプチャする。これは、RFトランシーバパケット受信割り込みに対するコールバック関数により駆動されるRFパケット受信キューを作成する足圧力/6自由度運動収集ノードにより開始される。 In one embodiment, the foot pressure/6DOF motion collection node captures RF transmitted data packets containing real-time foot pressure/6DOF motion profile data from the foot pressure/6DOF motion capture device. . This is initiated by the Foot Pressure/6DOF Motion Acquisition node creating an RF packet receive queue driven by a callback function for RF transceiver packet receive interrupts.

RFパケットが足圧力/6自由度モーションキャプチャ装置200から受信されると、まず、これが新しい足圧力/6自由度モーションキャプチャ装置からであるか、または既存のものからであるかを判定するためにチェックが行われる。これが既存の足圧力/6自由度モーションキャプチャ装置からである場合は、さらにパケットを分析する前にRFパケットシーケンス番号がチェックされて、連続的同期が判定される。これが足圧力をキャプチャする6自由度モーション装置である場合は、足圧力/6自由度モーションキャプチャ装置コンテキスト状態ブロックが作成されて初期化される。コンテキスト状態ブロックは情報、例えば足圧力プロファイルを含む。 When an RF packet is received from the foot pressure/6DOF motion capture device 200, first to determine if this is from a new foot pressure/6DOF motion capture device or an existing one. A check is made. If this is from an existing foot pressure/6DOF motion capture device, the RF packet sequence number is checked to determine continuous synchronization before further packet analysis. If this is a foot pressure capturing 6DOF motion device, a Foot Pressure/6DOF motion capture device context state block is created and initialized. The context state block contains information, eg foot pressure profile.

ノード間通信のためのこのRFパケットセッションレベルプロセスの上には、RFパケットデータペイロードの分析がある。このペイロードは、6自由度運動に追従する現在の可変圧力に基づく足圧力プロファイルを含む。これは以下のように構成される。
|0x10|開始|F1|F2|F3|F4|Ax|Ay|Az|Pi|Yi|Ri|XORチェックサム|
Above this RF packet session level process for internode communication is the analysis of the RF packet data payload. This payload contains a foot pressure profile based on current variable pressures that follow six degrees of freedom motion. It is constructed as follows.
|0x10|start|F1|F2|F3|F4|Ax|Ay|Az|Pi|Yi|Ri|XOR checksum|

IEEE802.15.4標準は、127バイトの最大パケットサイズを規定しており、時間同期メッシュプロトコル(TSMP)が動作用に47バイトを予約するため、ペイロード用に80バイトが残る。IEEE802.15.4は、2.4GHzの産業科学医療用(ISM)バンドの無線周波数(RF)トランシーバに適合している。 The IEEE 802.15.4 standard specifies a maximum packet size of 127 bytes, leaving 80 bytes for payload as the Time Synchronized Mesh Protocol (TSMP) reserves 47 bytes for operation. IEEE 802.15.4 is adapted for radio frequency (RF) transceivers in the 2.4 GHz industrial, scientific and medical (ISM) band.

RFモジュールは、IEEE802.15.4無線標準用に設計された、ピアツーピア、スター、およびメッシュネットワークに対応する完全な802.15.4物理層(PHY)モデムを含む。RFモジュールはMCUと組み合わされて、必要とされる無線RFデータリンクおよびネットワークを作成する。IEEE802.15.4トランシーバは、5.0MHzのチャネルでの250kbpsのO-QPSKデータおよび全拡散スペクトルの符号化/復号化に対応する。 The RF module contains a complete 802.15.4 physical layer (PHY) modem designed for the IEEE 802.15.4 wireless standard, supporting peer-to-peer, star and mesh networks. The RF modules are combined with MCUs to create the required wireless RF data links and networks. The IEEE 802.15.4 transceiver supports encoding/decoding of 250 kbps O-QPSK data and full spread spectrum on a 5.0 MHz channel.

一部の実施形態では、制御、状態の読み取り、データの書き込み、およびデータの読み出しは、検出システムノード装置のRFトランシーバインタフェースポートを介して行われる。検出システムノード装置のMPUは、インタフェースバス上で多数のバイト長データのバーストが送信されるインタフェース「トランザクション」により、検出システムノード装置のRFトランシーバにアクセスする。各トランザクションは、トランザクションの種類に応じて3バースト長以上である。トランザクションは、常にレジスタアドレスへの読み出しアクセスまたは書き込みアクセスである。任意の1回のレジスタアクセスの関連データは、常に16ビットの長さである。 In some embodiments, control, read status, write data, and read data are through the RF transceiver interface port of the detection system node device. The detection system node device's MPU accesses the detection system node device's RF transceiver through an interface "transaction" in which multiple byte-long bursts of data are sent over the interface bus. Each transaction is at least 3 bursts long, depending on the type of transaction. A transaction is always a read or write access to a register address. The associated data for any one register access is always 16 bits long.

一部の実施形態では、足圧力/6自由度運動収集ノードのRFトランシーバの制御およびデータ転送は、シリアルペリフェラルインタフェース(SPI)を用いて実現される。通常のSPIプロトコルは8ビット転送に基づいているが、足圧力/6自由度運動収集ノードのRFトランシーバは、トランザクション毎に多数の8ビット転送に基づくより高レベルのトランザクションプロトコルを課す。一つのSPI読み出しまたは書き込みトランザクションは、8ビットのヘッダ転送と、それに続く2回の8ビットデータ転送から成る。 In some embodiments, RF transceiver control and data transfer of the foot pressure/6DOF motion acquisition node is implemented using a serial peripheral interface (SPI). The normal SPI protocol is based on 8-bit transfers, but the RF transceiver of the Foot Pressure/6DOF motion acquisition node imposes a higher level transaction protocol based on multiple 8-bit transfers per transaction. One SPI read or write transaction consists of an 8-bit header transfer followed by two 8-bit data transfers.

ヘッダはアクセスの種類およびレジスタアドレスを示す。続くバイトは読み出しまたは書き込みのデータである。また、SPIは、更なるデータ転送が発生しうる再帰的な「データバースト」トランザクションに対応する。再帰的モードは、主にパケットRAMアクセスおよび足圧力/6自由度運動収集ノードのRFの高速な設定を目的としている。 The header indicates the access type and register address. The following bytes are the read or write data. SPI also supports recursive "data burst" transactions where additional data transfers can occur. The recursive mode is primarily intended for packet RAM access and fast setup of RF for foot pressure/6 DOF motion acquisition nodes.

一部の実施形態では、すべての足圧力センサゾーンは連続的にスキャンされ、リセット状態または不活性パワーダウンモードとなるまで、プロセス全体が繰り返される。6自由度の運動がMCUから慣性計測装置(IMU)へのシリアルUARTインタフェースによりキャプチャされる。すべての検出次元、すなわちAx、Ay、Az、ピッチ、ヨー、ロールのサンプリングレートは100Hz~300Hzであり、サンプリングされたデータはIMUBuffer[]に格納される。 In some embodiments, all foot pressure sensor zones are scanned continuously and the entire process is repeated until they are in a reset state or an inactive power down mode. Six degrees of freedom motion is captured by a serial UART interface from the MCU to an inertial measurement unit (IMU). The sampling rate for all detection dimensions, ie Ax, Ay, Az, pitch, yaw, roll, is 100Hz-300Hz and the sampled data is stored in IMUBuffer[].

TXパケット長フィールドを更新するため、SPIDryWriteが呼び出される。次に、状態レジスタをクリアするためにSPIClearRecieveStatRegが呼び出され、続いて、受信データレジスタをクリアするためにSPIClearRecieveDataRegが呼び出されて、SPIインタフェースを読み出しまたは書き込みに対して準備できた状態とする。SPIインタフェースが準備できた状態で、SPISendCharが呼び出されて、最初のコードバイトを表す0xFFの文字が送信されて、SPIWaitTransferDoneが呼び出されて送信が行われたことが検証される。 SPIDryWrite is called to update the TX packet length field. Next, SPIClearReceiveStatReg is called to clear the status register, followed by SPIClearReceiveDataReg to clear the receive data register, readying the SPI interface for reading or writing. Once the SPI interface is ready, SPISendChar is called to send a character of 0xFF representing the first code byte, and SPIWaitTransferDone is called to verify that the transfer has occurred.

図5は、携帯型機器のディスプレイ222上に提供されうる例示の出力300である。例えば、患者の歩行に対して治療が施される場合、ディスプレイ出力300は右足用の部分302と左足用の部分304とを含みうる。時間の関数として、右足用の表示は加速度A 310a、A 312a、およびA 314aと、足圧力316aとを含む。同様に、左足用の表示は加速度A 310a、A 312a、およびA 314aと、足圧力316aとを含む。 FIG. 5 is an exemplary output 300 that may be provided on the display 222 of the portable device. For example, if the patient's gait is being treated, the display output 300 may include a portion 302 for the right foot and a portion 304 for the left foot. As a function of time, the display for the right foot includes accelerations A x 310a, A y 312a, and A z 314a, and foot pressure 316a. Similarly, the display for the left foot includes accelerations A x 310a, A y 312a, and A z 314a, and foot pressure 316a.

分類は、データ(例えばセンサフュージョンされたデータ、特徴データ、または属性データ)の現実世界の事象(例えば患者の活動または気質)に対しての相関であると理解される。典型的には、分類は分析システム108上で作成されて実行される。一部の実施形態では、収集器106は一部の「テンプレート」のローカルコピーを有する。したがって、入力されるセンサデータと特徴が抽出されたデータは、収集器または分析システムにおいて分類することができる。 Classification is understood to be the correlation of data (eg, sensor-fused data, feature data, or attribute data) to real-world events (eg, patient activity or temperament). Typically, the classification is created and performed on analysis system 108 . In some embodiments, collector 106 has a local copy of some "templates." Thus, incoming sensor data and feature extracted data can be sorted in a collector or analysis system.

コンテキストとは、事象、発言、状況、または考えの背景を形成する状況または事実を指す。コンテキストを意識した(Context-aware)アルゴリズムは、アルゴリズムが特定のデータに対して実行される環境および時間に関連する、「誰が」、「何を」、「いつ」、「どこで」を精査する。いくつかのコンテキストを意識した動作には、身元、場所、時間、および実行されている活動が含まれる。決定的な動作を作成するためにコンテキスト情報を用いる際には、患者と環境と音楽療法セッションの間でコンテキストインタフェースが生成される。 Context refers to the circumstances or facts that form the background of an event, statement, situation, or thought. Context-aware algorithms probe the 'who', 'what', 'when' and 'where' in relation to the environment and time in which the algorithm is executed on the particular data. Some context-aware actions include identity, location, time, and activity being performed. In using contextual information to create deterministic actions, a contextual interface is created between the patient, the environment and the music therapy session.

音楽療法セッションに対する患者の反応のコンテキストには、フュージョンされたセンサデータを解釈してより高レベルの情報を推測するアルゴリズムの層が含まれうる。これらのアルゴリズムは、患者の反応のコンテキストを精製する。例えば、患者の生体力学的な歩行のシーケンスは、音楽療法セッションの特定の部分に関係しているので、分析される。一例では、「横方向震え」は着目する分類子である。したがって、患者の歩行は、横方向震えがより少ないと円滑になると判定される。 The context of a patient's response to a music therapy session can include layers of algorithms that interpret the fused sensor data and infer higher level information. These algorithms refine the context of the patient's response. For example, the patient's biomechanical walking sequence is analyzed as it relates to a particular portion of the music therapy session. In one example, "lateral tremor" is a classifier of interest. Therefore, it is determined that the patient's gait is smoother with less lateral tremor.

分析システム
バックエンドシステムと呼ばれることがある分析システム108は、大規模なモデル/アーカイブを記憶し、本明細書に記載されるモデルを用いた機械学習/分析処理を含む。一部の実施形態では、保管されているデータを閲覧するためのログイン用のウェブインタフェース、およびダッシュボードも提供される。一部の実施形態では、分析システム108は、携帯型機器やタブレット220などの携帯型ユニット上で動作する収集器106からデータを受信する、リモートサーバコンピュータ上に配置される。分析システム108の分析機能および機械学習機能を実行するのに必要な処理能力も携帯型機器220上に配置しうると考えられる。
Analysis system
Analysis system 108, sometimes referred to as a backend system, stores large models/archives and includes machine learning/analysis processing using the models described herein. Some embodiments also provide a web interface for login to view the stored data, and a dashboard. In some embodiments, analysis system 108 is located on a remote server computer that receives data from collector 106 operating on a handheld unit, such as a handheld device or tablet 220 . It is contemplated that the processing power required to perform the analytical and machine learning functions of analytical system 108 may also be located on portable device 220 .

データは分析処理のために収集器106から分析システム108へ転送される。図6に示すように、分析処理400は、収集器106からデータを受信するユーザインタフェース402を含む。データベース記憶装置404は、収集器106から入力されるデータを記憶するために受信する。分析処理(例えばアンサンブル機械学習システム410)の訓練データおよび出力も、予測モデルおよび分類子の作成および改良を容易にするために記憶装置404に記憶することができる。データバス406により分析処理を通るデータが流れることができる。1つまたは複数の予測モデルを導出するために訓練プロセス408が訓練データに対して行われる。アンサンブル機械学習システム410は予測モデルを利用する。アンサンブル機械学習システム410の出力は、これらの予測モデルの集約である。この集約された出力は、震え、対称性、円滑性、または同調、開始などの学習された生体力学的パラメータなどのテンプレート分類子412を用いた分類要求でも使用される。API418は収集器および/または音楽療法センターへ接続する。治療アルゴリズム414および予測アルゴリズム416には、多層パーセプトロンニューラルネットワーク、隠れマルコフモデル、放射基底関数ネットワーク、ベイズ推定モデルなどが含まれる。 Data is transferred from the collector 106 to the analysis system 108 for analytical processing. As shown in FIG. 6, analysis process 400 includes user interface 402 that receives data from collector 106 . Database storage 404 receives input data from collector 106 for storage. Training data and outputs of analytical processes (eg, ensemble machine learning system 410) can also be stored in storage 404 to facilitate creation and refinement of predictive models and classifiers. A data bus 406 allows data to flow through the analysis process. A training process 408 is performed on the training data to derive one or more predictive models. Ensemble machine learning system 410 utilizes predictive models. The output of ensemble machine learning system 410 is an aggregation of these predictive models. This aggregated output is also used in a classification request using the template classifier 412, such as quiver, symmetry, smoothness, or learned biomechanical parameters such as entrainment, initiation. API 418 connects to collectors and/or music therapy centers. Treatment algorithms 414 and prediction algorithms 416 include multilayer perceptron neural networks, hidden Markov models, radial basis function networks, Bayesian estimation models, and the like.

本明細書に記載されるシステムおよび方法の例示の用途は、患者の生体力学的な歩行の分析である。歩行シーケンスは特徴抽出されて、一連の特徴的な特徴が取り出される。キャプチャされたセンサフュージョンされたデータにおけるこれらおよび他の特徴の存在は、患者の生体力学的歩行シーケンスが妥当であるかどうかをコンテキスト検出アルゴリズムに知らせる。生体力学的歩行シーケンスのキャプチャには、頑健なコンテキスト検出が必要とされ、生体力学的歩行シーケンスはその後、音楽療法の患者の代表的母集団に対して抽象化される。 An exemplary application of the systems and methods described herein is the analysis of a patient's biomechanical gait. The gait sequence is feature extracted to retrieve a set of characteristic features. The presence of these and other features in the captured sensor-fused data informs the context detection algorithm whether the patient's biomechanical gait sequence is valid. Robust context detection is required to capture biomechanical gait sequences, which are then abstracted against a representative population of music therapy patients.

そのような活動の一例は、時間的にある場合における患者の場所とその時点での音楽療法に対する患者の反応である。患者の音楽療法への反応の認識と相関によって、音楽療法の患者の特定のパターンの反応の認識が可能となる。音楽療法の患者の反応の基準を作成し、この基準を将来の音楽療法の患者の反応に相関付けることで、特定の音楽療法管理体制が成績および有効性に関して評価および分析される。 An example of such activity is the patient's location in time and the patient's response to music therapy at that point in time. Recognizing and correlating a patient's response to music therapy allows recognition of specific patterns of patient response to music therapy. By developing a measure of music therapy patient response and correlating this measure to future music therapy patient response, a particular music therapy regime is evaluated and analyzed with respect to performance and effectiveness.

運動の検出と共に、歩行の生体力学的キャプチャに伴う距離の尺度が、2つ以上の音楽療法セッションの間の時間的および空間的な変化量/偏差を用いて、患者の経路の軌跡を判定するのに用いられる。このセンサフュージョンされたデータのキャプチャから、特徴が抽出および分類されて、様々な鍵となる患者の療法への反応がラベル付けされる。更なるセンサフュージョンされたデータの分析でヒストグラムを用いることで、初期の音楽療法への反応パターンの検出が可能となる。 Along with motion detection, a distance measure associated with biomechanical capture of gait determines the trajectory of the patient's path using temporal and spatial variations/deviations between two or more music therapy sessions used for From this sensor-fused data capture, features are extracted and classified to label various key patient responses to therapy. The use of histograms in further analysis of sensor-fused data allows the detection of patterns of response to early music therapy.

音楽療法セッションのセンサフュージョンされたデータの分析では、最初は、マルコフ連鎖を利用した患者特有のベイズ推定モデルが用いられる。連鎖の状態は、音楽療法の基本セッションからキャプチャされた患者特有の反応パターンを表す。患者の反応パターンの各サンプル間隔での出現の知識、および以前の状態に対する時間的関連に基づいて、推測が行われる。 Analysis of the sensor-fused data of music therapy sessions initially uses a patient-specific Bayesian inference model using Markov chains. Chain status represents patient-specific response patterns captured from a basic session of music therapy. Inferences are made based on knowledge of the occurrence of the patient's response pattern at each sample interval and the temporal relationship to previous conditions.

予測ルーチンおよび多層パーセプトロンニューラルネットワーク(MLPNN)は最上層ルートノードを有する、有向グラフノードベースのモデルを使用し、このモデルは、後続のノードへ到達して患者のセンサフュージョンされたデータの特徴ベクトルを得るための必要条件を予測する。このセンサフュージョンされたデータの特徴ベクトルは、時系列処理された運動データと、音楽署名データと、更なる処理で特に重要なビデオ画像データとを含む。この場合、有向グラフは上下逆に描かれたツリーのように見えて、葉がツリーの一番下にあり、根がルートノードである。各ノードから、ルーチンは左に進むことができて、ここで左はルートノードが位置する最上層の下の次の層にある左ノードであり、左のサブノードが次に観測されるノードとして選択され、あるいはルーチンは右に進むことができて、ここで右はルートノードが位置する最上層の下の次の層にある右ノードであり、これはそのインデックスが観測されたノードに記憶されている特定の変数の値に基づく。値が閾値未満である場合、ルーチンは左のノードへ進み、閾値より大きい場合には、ルーチンは右のノードへ進む。これらの領域、ここでは左および右は、予測空間となる。 Prediction routines and multi-layer perceptron neural networks (MLPNN) use a directed graph node-based model with a top-level root node that reaches subsequent nodes to obtain feature vectors of the patient's sensor-fused data. Predict the requirements for The feature vector of this sensor-fused data contains time-series processed motion data, music signature data, and video image data of particular interest for further processing. In this case, the directed graph looks like a tree drawn upside down, with the leaves at the bottom of the tree and the root as the root node. From each node, the routine can proceed to the left, where left is the left node in the next layer below the top layer where the root node is located, and the left subnode is selected as the next observed node. Alternatively, the routine can proceed to the right, where right is the right node in the next layer below the top layer where the root node is located, whose index is stored in the observed node. based on the values of certain variables that If the value is less than the threshold, the routine proceeds to the left node, otherwise the routine proceeds to the right node. These regions, here left and right, become the prediction space.

モデルは、2種類の入力変数を使用する、すなわち、順序付けされた変数とカテゴリ変数である。順序付けされた変数は、やはりノードに記憶されている閾値と比較される値である。カテゴリ変数は離散値であり、特定の限定された値のサブセットに属しているかどうか確認するためにテストされ、ノードに記憶されている。この変数は様々な分類に適用可能である。例えば、震えを記述するのに軽度、中程度、および重度を使用することができて、これらはカテゴリ変数の例である。反対に、震えを記述するのに非常に細かく刻まれた値の範囲または数値目盛を同様に(ただし数値的に)使用することもできる。 The model uses two types of input variables: ordered and categorical. The ordered variable is the value that is compared to the threshold, also stored in the node. Categorical variables are discrete values that are tested and stored in nodes to see if they belong to a particular, restricted subset of values. This variable is applicable to various classifications. For example, mild, moderate, and severe can be used to describe tremors, which are examples of categorical variables. Conversely, a very finely-divided value range or numerical scale can also be used (but numerically) to describe the tremor.

カテゴリ変数が限定された値の集合に属している場合、ルーチンは左のノードへ進み、そうでない場合はルーチンは右のノードへ進む。各ノードにおいて、この決定を行うのにエンティティのペア、すなわち、variable_indexおよびdecision_rule(閾値/サブセット)が用いられる。このペアは分割と呼ばれ、変数variable_indexに応じて分割される。 If the categorical variable belongs to the restricted set of values, the routine proceeds to the left node, otherwise the routine proceeds to the right node. At each node, a pair of entities is used to make this decision: variable_index and decision_rule (threshold/subset). This pair is called a partition, and is partitioned according to the variable variable_index.

ノードに到達すると、このノードに割り当てられた値が予測ルーチンの出力として使用される。多層パーセプトロンニューラルネットワークは、ルートノードから始まり再帰的に構築される。すべての訓練データ、特徴ベクトル、および反応が前述されたようにルートノードを分割するのに用いられ、エンティティ、variable_indexおよびdecision_rule(閾値/サブセット)は予測領域を分割する。各ノードにおいて、最良の一次分割に対する最適な決定規則が、分類に対するジニ「純度」基準と回帰の2乗誤差の合計とに基づいて見つけられる。ジニ係数は、集合のクラス全体での全分散の測定値に基づく。ジニ「純度」基準とは小さなジニ係数値を指し、ノードが所望の状態である単一クラスからの観察を主に含むことを示す。 Once the node is reached, the value assigned to this node is used as the output of the prediction routine. A multi-layer perceptron neural network is built recursively starting from the root node. All training data, feature vectors, and responses are used to split the root node as described above, and the entity, variable_index and decision_rule (threshold/subset) split the prediction region. At each node, the optimal decision rule for the best linear split is found based on the Gini "purity" criterion for classification and the sum of the squared errors of the regression. The Gini coefficient is based on a measure of total variance across classes of a set. A Gini "purity" criterion refers to a small Gini coefficient value, indicating that a node contains predominantly observations from a single class of the desired state.

多層パーセプトロンニューラルネットワークは、一旦構築されたら、交差検証ルーチンを用いてプルーニング(剪定)することができる。モデルが過剰適合するのを避けるため、ツリーの分岐の一部が切除される。このルーチンは、独立した決定に適用することができる。上述した決定アルゴリズム(MLPNN)の際立った特性の一つは、各変数の相対的な決定力および重要度を計算する能力である。 Once constructed, multi-layer perceptron neural networks can be pruned using cross-validation routines. Some branches of the tree are pruned to avoid overfitting the model. This routine can be applied for independent determination. One of the distinguishing properties of the decision algorithm (MLPNN) described above is the ability to compute the relative determinism and importance of each variable.

変数の重要度の格付けは、患者インタラクション特徴ベクトルに対して最も頻繁なインタラクションの種類を判定するのに用いられる。音楽療法への反応および音楽療法の事象の様々なカテゴリを区別するのに適した決定空間の定義をもって、パターン認識が始まる。決定空間は、N次元のグラフにより表現することができて、ここでNは音楽療法への反応および音楽療法の事象を表現すると考えられる属性または測定値の数である。N個の属性は、グラフにプロットできる特徴ベクトルまたは署名を構成する。充分なサンプルが入力された後に、決定空間は様々なカテゴリに属する音楽療法への反応および音楽療法の事象の集まりを明らかにし、新しいベクトルをこれらの集まりに関連付けるのに決定空間が用いられる。 Variable importance ratings are used to determine the most frequent interaction types for the patient interaction feature vector. Pattern recognition begins with the definition of a decision space suitable for differentiating different categories of music therapy responses and music therapy events. The decision space can be represented by an N-dimensional graph, where N is the number of attributes or measurements considered to represent music therapy responses and music therapy events. The N attributes constitute a feature vector or signature that can be plotted on a graph. After enough samples have been input, the decision space reveals collections of music therapy responses and music therapy events belonging to various categories, and the decision space is used to associate new vectors with these collections.

動的閉ループリハビリテーションプラットフォーム音楽療法システムは、パターンを学習および再現するためにいくつかの深層学習ニューラルネットワークを利用する。一実施形態では、非線形決定空間が適応的放射基底関数(RBF)モデル生成器を用いて構築される。新しいベクトルは、RBFモデルを用いて、および/またはk近傍法分類子を用いて計算することができる。図6は、動的閉ループリハビリテーションプラットフォーム音楽療法システムの機械学習サブシステムのワークフローを示す。 The dynamic closed-loop rehabilitation platform music therapy system utilizes several deep learning neural networks to learn and reproduce patterns. In one embodiment, a nonlinear decision space is constructed using an adaptive radial basis function (RBF) model generator. New vectors can be computed using the RBF model and/or using a k-nearest neighbor classifier. FIG. 6 shows the workflow of the machine learning subsystem of the dynamic closed-loop rehabilitation platform music therapy system.

図7は、多数の訓練サンプル502を含む教師あり訓練プロセス408を示し、例えば、入力は上記の表3に記載される特徴であって、出力の例は、震え、非対称性、力などの項目、これらの項目の度合い、変更の予測、患者がどれだけ良好に回復しているかの分類、である。新しい出力は、このプロセスの一部として学習されることが理解される。このプロセスは、このプロセスが様々なユースケース(例えば、様々な病状、薬剤との組み合わせ、プロバイダへの通知、適切性、転倒防止)へ適用される場合の、より高レベルの予測と分類の抽象化の基盤を提供する。これらの訓練サンプル502は学習アルゴリズムA1 504a、A2 504b、A3 504c、・・・、AN 504nを用いて実行されて、M1 506a、M2 506b、M3 506c、・・・、MN 506nにおいて予測モデルが導出される。例示のアルゴリズムとして、多層パーセプトロンニューラルネットワーク、隠れマルコフモデル、放射基底関数ネットワーク、ベイズ推定モデルが挙げられる。 FIG. 7 shows a supervised training process 408 including a number of training samples 502, for example, where the inputs are the features listed in Table 3 above and example outputs are items such as tremor, asymmetry, force, etc. , the degree of these items, the expected change, and the classification of how well the patient is recovering. It is understood that new outputs are learned as part of this process. This process provides higher-level prediction and classification abstractions when applied to different use cases (e.g., various medical conditions, drug combinations, provider notification, adequacy, fall prevention). provide a foundation for innovation. These training samples 502 are run with learning algorithms A1 504a, A2 504b, A3 504c, ..., AN 504n to derive predictive models at M1 506a, M2 506b, M3 506c, ..., MN 506n. be done. Exemplary algorithms include multilayer perceptron neural networks, hidden Markov models, radial basis function networks, and Bayesian inference models.

図8は、例えば特徴抽出されたデータであるサンプルデータ602に対する予測モデルM1 506a、M2 506b、M3 506c、・・・、MN 506nの集合としての、多数の予測結果データ606a、606b、606b、・・・、606nを提供するアンサンブル機械学習システム410を示す。例えば決定規則と投票を含む集約層608が、複数の予測モデルを与えられた場合に、出力610を導出するのに用いられる。 FIG. 8 shows a number of prediction result data 606a, 606b, 606b, . . . , 606n. An aggregation layer 608 containing, for example, decision rules and votes is used to derive output 610 given multiple predictive models.

MR ConvNetシステムは2つの層を持ち、第1層は平均プーリングをサポートする畳み込み層である。MR ConvNetシステムの第2層は、多項ロジスティック回帰をサポートする全結合層である。多項ロジスティック回帰は、ソフトマックスとも呼ばれるが、多数のクラス(マルチクラス)を扱うためにロジスティック回帰を一般化したものである。ロジスティック回帰の場合は、ラベルはバイナリである。 The MR ConvNet system has two layers, the first layer is a convolutional layer that supports average pooling. The second layer of the MR ConvNet system is a fully connected layer that supports multinomial logistic regression. Multinomial logistic regression, also called softmax, is a generalization of logistic regression to handle a large number of classes (multiclass). For logistic regression, the labels are binary.

ソフトマックスは、様々な取り得る出力の確率を予測するのに用いられるモデルである。以下では、ソフトマックスの最終出力層を用いてm個の個別のクラスを有するマルチクラス分類器を想定している。
Y1=Softmax(W11*X1+W12*X2+W13*X3+B1) [1]
Y2=Softmax(W21*X1+W22*X2+W23*X3+B2) [2]
Y3=Softmax(W31*X1+W32*X2+W33*X3+B3) [3]
Ym=Softmax(Wm1*X1+Wm2*X2+Wm3*X3+Bm) [4]
概して、
Y=softmax(W*X+B) [5]
Softmax(X)i=exp(Xi)/(j=1 ~Nのexp(Xj)の総和) [6]
ただし、Y=分類器出力、X=サンプル入力(スケーリング(正規化)されたすべての特徴量)、W=重み行列。分類は、例えばスコアの非対称性であり、例えば、「中程度の非対称性スコア、10点中(高いレベルの非対称性である10点から非対称性なしの0点まで)で6点」、歩行円滑性(「歩行円滑性スコアが10点(正常)中で8点」)、などとなる。分析パイプラインが図9に示されている。
Softmax is a model used to predict the probabilities of various possible outputs. In the following, we assume a multi-class classifier with m distinct classes using the final output layer of softmax.
Y1=Softmax (W11*X1+W12*X2+W13*X3+B1) [1]
Y2=Softmax (W21*X1+W22*X2+W23*X3+B2) [2]
Y3=Softmax (W31*X1+W32*X2+W33*X3+B3) [3]
Ym=Softmax (Wm1*X1+Wm2*X2+Wm3*X3+Bm) [4]
generally,
Y=softmax(W*X+B) [5]
Softmax(X)i=exp(Xi)/(sum of exp(Xj) of j=1 to N) [6]
where Y=classifier output, X=sample input (all scaled (normalized) features), W=weight matrix. Classification is for example asymmetry of the score, for example "moderate asymmetry score, 6 out of 10 (10 with high level of asymmetry to 0 with no asymmetry)", smooth walking (“gait smoothness score is 8 out of 10 (normal)”), and so on. The analysis pipeline is shown in FIG.

ソフトマックス回帰により、2つを超える多数のクラスを扱うことが可能となる。ロジスティック回帰では、
P(x)=1/(1+exp(-Wx))
ここで、Wは費用関数を最小化するよう訓練されたモデルパラメータを含む。また、xは入力特徴ベクトルであり、
((x(1), y(1)),・・・,(x(i), y(i))) [7]
は、訓練セットを表す。マルチクラス分類ではソフトマックス回帰が用いられ、バイナリの場合の1と0に代えて、クラスを表すN個の異なる値が取り得る。それゆえ、訓練セット((x(1),y(1)),・・・,(x(i),y(i)))に対しては、y(n)は1からNのクラスの範囲の任意の値でありうる。
Softmax regression allows us to handle a large number of classes beyond two. In logistic regression,
P(x)=1/(1+exp(-Wx))
where W contains the model parameters trained to minimize the cost function. Also, x is the input feature vector,
((x(1), y(1)), ..., (x(i), y(i))) [7]
represents the training set. Multi-class classification uses softmax regression, where instead of 1 and 0 in the binary case, there can be N different values representing the classes. Therefore, for the training set ((x(1), y(1)), . . . , (x(i), y(i))), y(n) is It can be any value in the range.

次に、p(y=N|x;W)は、i=1、・・・、Nの各値に対する確率である。以下は、ソフトマックス回帰プロセスを数学的に示している。
Y(x =(p(y=1|x;W),p(y=2|x;W),・・・,p(y=N|x;W)) [8]
ここで、Y(x)は仮説に対する答えであり、入力xが与えられた場合に、すべてのクラスに対する確率分布を正規化されたその総和が1となるように出力する。
Next, p(y=N|x;W) is the probability for each value of i=1, . The following shows the softmax regression process mathematically.
Y(x=(p(y=1|x;W),p(y=2|x;W),...,p(y=N|x;W)) [8]
Here, Y(x) is the answer to the hypothesis, and outputs the normalized probability distributions for all classes so that their sum equals 1 given the input x.

MR ConvNetシステムは、ベクトルとしてのウインドウ内のすべての生体力学データフレームと、ベクトルとしてのすべての生体力学的テンプレートフィルタとを畳み込み、特徴応答を平均化する平均プーリング関数を用いて応答を生成する。畳み込み処理は、任意のバイアスを加算してWxを計算し、これをロジスティック回帰(シグモイド)関数へと渡す。 The MR ConvNet system convolves all biomechanical data frames in the window as vectors with all biomechanical template filters as vectors and generates responses using an average pooling function that averages the feature responses. The convolution process adds any biases to compute Wx and passes it to the logistic regression (sigmoid) function.

次に、MR ConvNetシステムの第2層において、サブサンプリングされた生体力学的テンプレートフィルタ応答が2次行列へと移動され、各列はウインドウ内の生体力学データフレームをベクトルとして表す。ここで、ソフトマックス回帰活性化処理が次式を用いて開始される。
Y(x)=(1/(exp(Wx)+exp(Wx)+・・・+exp(Wx))*(exp(Wx),exp(Wx),・・・,(exp(Wx)) [9]
Then, in the second layer of the MR ConvNet system, the subsampled biomechanical template filter responses are moved into a secondary matrix, with each column representing the biomechanical data frame within the window as a vector. Now the softmax regression activation process is started using the following equation.
Y(x)=(1/(exp(Wx)+exp(Wx)+...+exp(Wx))*(exp(Wx), exp(Wx),...,(exp(Wx)) [9 ]

MR ConvNetシステムは、最適化アルゴリズムである、費用関数J(W)が定義されて最小化される勾配降下法を用いて訓練される。
J(W)=1/j*((H(t(j=1),p(y=1|x;W)+H(t(j=2),p(y=2|x;W)+・・・+H(t(j),p(y=N|x;W)) [10]
ここで、t(j)は目標クラスである。これにより、j個の訓練サンプルに対するすべての交差エントロピーが平均化される。交差エントロピー関数は、
H(t(j),p(y=N|x;W)=-t(j=1)*log(p(y=1|x;W))+t(j=2)*log(p(y=2|x;W))+・・・+t(j )*p(y=N|x;W) [11]
The MR ConvNet system is trained using an optimization algorithm, gradient descent, where the cost function J(W) is defined and minimized.
J(W)=1/j*((H(t(j=1),p(y=1|x;W)+H(t(j=2),p(y=2|x;W)+ . . . +H(t(j),p(y=N|x;W)) [10]
where t(j) is the target class. This averages all cross-entropies over the j training samples. The cross entropy function is
H (t (j), p (y = N | x; W) = - t (j = 1) * log (p (y = 1 | x; W)) + t (j = 2) * log (p ( y=2|x;W))+...+t(j)*p(y=N|x;W) [11]

図10において、アンサンブル機械学習システム408は、例えば、テンプレート系列1(震え)706a、テンプレート系列2(対称性)706b、テンプレート系列3(円滑性)706c、...、更なるテンプレート(例えば同調や開始といった、他の学習された生体力学的パラメータ)706nである複数の予測モデルを含み、これらの予測モデルは、例えば、右および左でのストライド長の特徴(x1、x2)、右および左でのストライド長の分散の特徴(x3、x4)、右および左での歩調(x6、x7)、右および左での歩調の分散(x8、x9)、などでありえる調整された入力702に対して適用され、サンプル(x1、x2、...、xn)はMLアルゴリズムのアンサンブルにおいて702へ入力されるベクトルXと呼ばれる。これらは、調整され参照正規化された、および/またはスケーリングされた入力である。集約分類器708は、震えの尺度、対称性の尺度、円滑性の尺度、などとしてそのような情報を出力する。 In FIG. 10, the ensemble machine learning system 408 may, for example, generate template sequence 1 (quiver) 706a, template sequence 2 (symmetry) 706b, template sequence 3 (smoothness) 706c, . . . , further templates (e.g., other learned biomechanical parameters, such as entrainment and onset) 706n, which include, for example, stride length features (x1 , x2), right and left stride length variance features (x3, x4), right and left cadences (x6, x7), right and left cadence variances (x8, x9), etc. Applied to the conditioned input 702, the samples (x1, x2, . . . , xn) are called the vector X input to 702 in the ensemble of ML algorithms. These are adjusted reference normalized and/or scaled inputs. Aggregate classifier 708 outputs such information as a measure of tremor, a measure of symmetry, a measure of smoothness, and the like.

音楽療法センター
音楽療法センター110は、図2の携帯型機器またはノートブックコンピュータ220などの処理装置上で動作する意思決定システムである。音楽療法センター110は、収集器106において特徴抽出されたセンサデータから入力を受け取り、それらを治療を施すための規定されたプロセスと比較し、音楽配信システム230を介して再生される聴覚刺激コンテンツを供給する。
Music Therapy Center The music therapy center 110 is a decision-making system that runs on a processing device such as the portable device or notebook computer 220 of FIG. The music therapy center 110 receives inputs from the sensor data characterized at the collector 106, compares them to prescribed processes for delivering therapy, and produces auditory stimulation content played via the music distribution system 230. supply.

本発明の実施形態は、コンテキスト情報を用いてある状況がなぜ発生しているかを判断し、観察された動作を符号化し、これによりシステム状態、ひいては音楽療法セッションに、閉ループで動的で調節された変化を発生させる。 Embodiments of the present invention use contextual information to determine why certain situations are occurring and encode observed behaviors, thereby providing system state, and thus music therapy sessions, with a closed-loop, dynamic, and adjustable approach. change.

患者と音楽療法セッションの間のインタラクションは、動作、姿勢、ストライド、歩行反応を含む、音楽療法の患者のコンテキストの認識を判断するためのリアルタイムデータを提供する。入力データが検出ノードにより(センサにおいて)収集された後に、組み込まれたノードがコンテキストを意識したデータを(エッジ処理において)処理し、即時の動的動作を提供する、および/またはデータを分析システム108、例えば、記憶および更なる処理と分析のための弾性ネットワークベースの処理クラウド環境へ送信する。 The interaction between the patient and the music therapy session provides real-time data for determining the patient's perception of the music therapy context, including movement, posture, stride, and gait response. After the input data is collected by the detection nodes (at the sensors), the embedded nodes process the context-aware data (at the edge processing) to provide immediate dynamic action and/or analyze the data in the analysis system. 108, for example, sending to an elastic network-based processing cloud environment for storage and further processing and analysis.

入力に基づいて、プログラムは任意の既存の曲コンテンツを取得し、抑揚、メジャーコード/マイナーコード、拍子、および音楽的キュー(例えば、旋律の美しいキュー、調和的なキュー、リズミカルなキュー、強さのキュー)を変更する。システムはメトロノームを既存の曲に重ね合わせることができる。曲コンテンツは、ビートがいつ発生するかの正確な知識を使って同調余地を算出することができるように、ビートマッピングすることができる(例えば、AVファイルまたはMP3ファイルに応答してWである場合)、またはMIDI形式とすることができる。患者に取り付けられるセンサは、音楽コンテンツにおいて触覚/振動フィードバックパルスを提供するよう構成することができる。 Based on the input, the program takes any pre-existing song content and analyzes intonations, major/minor chords, time signatures, and musical cues (e.g. melodic cues, harmonic cues, rhythmic cues, intensity). queue). The system can superimpose the metronome onto an existing song. Song content can be beat-mapped so that tuning margins can be calculated using precise knowledge of when beats occur (e.g., in response to an AV or MP3 file if W ), or in MIDI format. Sensors attached to the patient can be configured to provide tactile/vibratory feedback pulses in the musical content.

方法の例示の適用が本明細書に記載される。歩行訓練は、患者のために再生されている音楽のビートと、それらの音楽の特定のビートに応答して患者が踏み出した個々のステップとの間のリアルタイムの関係を分析する。上述したように、各ステップまたは反復運動に伴いいくらかのばらつきがある、繰り返されるデータのウインドウを判定するため、ゲーティング分析が使用される。一部の実施形態では、ウインドウの先頭は、踵接地圧力が閾値(または他のセンサパラメータ)を超える時点として判定される。図11は、音楽のビート(「時間ビート」)と、患者により踏み出されるステップ(「時間ステップ」)とを示す例示の時間グラフである。このように、この場合はオンセット時間が「時間ステップ」と関連付けられる。具体的には、このグラフは時間ビート1の時刻における、音楽の時間ビート1101を示す。ある時間の後に、患者は時間ビート1001に応答して、時間ステップ1の時刻においてステップ、すなわち時間ステップ1102を踏み出す。同調余地1103は、時間ビート1と時間ステップ1の間の遅延(存在する場合)を表す。 An example application of the method is described herein. Gait training analyzes the real-time relationship between the beats of the music being played for the patient and the individual steps taken by the patient in response to those specific beats of music. As noted above, a gating analysis is used to determine a window of repeated data in which there is some variability with each step or repetition. In some embodiments, the beginning of the window is determined as the point at which heel contact pressure exceeds a threshold (or other sensor parameter). FIG. 11 is an exemplary time graph showing the beats of the music (“time beats”) and the steps taken by the patient (“time steps”). Thus, in this case the onset time is associated with the "time step". Specifically, this graph shows the time beat 1101 of the music at the time of time beat 1 . After some time, the patient responds to the time beat 1001 by taking a step at the time of time step 1, namely time step 1102 . Tuning room 1103 represents the delay (if any) between time beat 1 and time step 1 .

図12~図13は、本明細書に記載されるシステムを用いた患者の歩行の同調の例を示す。図12は、「完全な」同調、例えば常にゼロの同調余地を示す。これは、時間ビートと、時間ビートに応答して踏み出される関連する時間ステップとの間に遅延がない場合、またはごくわずかな遅延が存在する場合に起こる。図13は位相シフト同調を示し、これは例えば同調余地が非ゼロであるが一定のままである、または経時的な変動が最小限度の状態である。これは、時間ビートと時間ステップの間に許容範囲内で一定の遅延が経時的に存在する場合に起こる。 12-13 show an example of synchronizing a patient's gait using the system described herein. FIG. 12 shows "perfect" tuning, eg, always zero tuning room. This occurs when there is no delay or a very small delay between the time beat and the associated time step taken in response to the time beat. FIG. 13 illustrates phase shift tuning, eg, where the tuning margin is non-zero but remains constant or has minimal variation over time. This occurs when there is an acceptable and constant delay over time between the time beat and the time step.

引き続き図11を参照すると、時間ビート間の時間の時間ステップ間の時間に対する比としてEP比が計算される。
EP比=(時間ビート2―時間ビート1)/(時間ステップ2―時間ステップ1) [6]
ここで、時間ビート1(1101)は第1の音楽ビートの時刻に対応し、時間ステップ1(1102)は時間ビート1に応答した患者のステップの時刻に対応する。時間ビート2(1106)は第2の音楽ビートの時刻に対応し、時間ステップ2(1108)は時間ビート2に応答した患者のステップの時刻に対応する。目標は、EP比=1、またはEP比/係数=1である。係数は以下のように決定される。

この係数により、ビートを再分割することが可能となる、あるいは誰かが3ビート毎に、または4ビートのうちの3ビートでステップをすることが可能となる。これにより、様々なシナリオに対する柔軟性を提供することができる。
With continued reference to FIG. 11, the EP ratio is calculated as the ratio of the time between time beats to the time between time steps.
EP ratio = (time beat 2 - time beat 1) / (time step 2 - time step 1) [6]
Here, time beat 1 (1101) corresponds to the time of the first musical beat and time step 1 (1102) corresponds to the time of the patient's step in response to time beat 1. Time beat 2 (1106) corresponds to the time of the second musical beat and time step 2 (1108) corresponds to the time of the patient's step in response to time beat 2. The goal is EP ratio=1, or EP ratio/factor=1. The coefficients are determined as follows.

This factor allows the beats to be subdivided, or allows someone to step every 3 beats or 3 out of 4 beats. This can provide flexibility for different scenarios.

図14および図15は、本明細書に記載される手法を用いた、患者の経時的な同調応答を示す。図14(左側Y軸:EP比、右側Y軸:1分あたりのビート数、X軸:時間)は、第1の患者の歩行のEP比の平均を表す散在するドット1402を示す。このグラフは、+0.1の上限1404と-0.1の下限1406を示している。線1408は経時的なテンポ(1分あたり60ビートで始まる)を示し、ステップにおいて100bpmまで増加する。図14は、テンポが60bpmから100bpmまで上げられた場合にEP比が1近辺(±0.1)に留まっていることを示している。図15は第2の患者の歩行のEP比を示し、テンポが60bpmから100bpmまで上げられた場合にEP比がやはり1近辺(±0.1)に留まっていることを示している。 Figures 14 and 15 show a patient's entrainment response over time using the techniques described herein. FIG. 14 (left Y-axis: EP ratio, right Y-axis: beats per minute, X-axis: time) shows scattered dots 1402 representing the average EP ratio of the first patient's gait. The graph shows an upper bound 1404 of +0.1 and a lower bound 1406 of -0.1. Line 1408 shows tempo over time (starting at 60 beats per minute) and increases in steps to 100 bpm. FIG. 14 shows that the EP ratio remains near 1 (±0.1) when the tempo is increased from 60 bpm to 100 bpm. FIG. 15 shows the EP ratio for the second patient's gait, showing that the EP ratio still remains near 1 (±0.1) when the tempo is increased from 60 bpm to 100 bpm.

図16および図17(Y軸:同調余地、X軸:時間)は、時間ビートの変化(例えばテンポの変化)、および/または、コードの変化、触覚フィードバックの変化、足のキューの変化(例えば、左-右というキュー、または右-左-杖というキュー)などに対する2人の患者の反応を示す。図16は時間ベースのグラフを示し、患者の歩行が「完全な同調」(常にゼロの同調余地、またはごくわずかな同調余地)、または一定の位相シフト同調余地で平衡している。図に示すように、平衡するまでにはある程度の時間(プライム時間1602)を要する。図17は時間ベースのグラフを示し、患者の歩行が平衡しない、例えば、時間ビートに対する変化の後に完全な同調、または一定の位相シフト同調余地に到達しない。プライム時間は、同調の精度の測定とは独立したデータ集合を表すので、有益である。また、プライム時間パラメータは、将来の曲を適切さでスクリーニングするのに使用することもできる。例えば、ある曲が使用されたときに患者が長めのプライム時間を示した場合、そのような曲には治療能力があまりない。 Figures 16 and 17 (Y-axis: entrainment room, X-axis: time) show time beat changes (e.g. tempo changes) and/or chord changes, tactile feedback changes, foot cue changes (e.g. , left-to-right cues, or right-to-left-to-cane cues). FIG. 16 shows a time-based graph where the patient's gait is balanced with "perfect entrainment" (always zero entrainment margin, or very little entrainment margin), or constant phase shift entrainment margin. As shown, it takes some time (prime time 1602) to reach equilibrium. FIG. 17 shows a time-based graph in which the patient's gait is not balanced, eg, does not reach perfect entrainment or constant phase-shift entrainment margin after a change to the time beat. The prime time is useful because it represents a data set that is independent of the tuning accuracy measurement. The prime time parameter can also be used to screen future songs for relevance. For example, if a patient exhibits longer prime times when a song is used, such song has less therapeutic power.

図18は歩行訓練で有益な手法を示し、反復運動は歩行中に患者が踏み出す複数のステップを指す。歩行訓練は、個人に合わせた個別の音楽介入を与えるようにそれぞれの患者の母集団、診断結果、および状態に合わせられる。入力に基づいて、適用可能な場合は、プログラムはコンテンツ、抑揚、メジャーコード/マイナーコード、拍子、および音楽的キュー(例えば、旋律の美しいキュー、調和的なキュー、強さのキュー)を変更する。プログラムは、生年月日、リストに記載された音楽の嗜好、同調するテンポを用いて音楽を選択して、日常的に使用すべき受動的音楽のプレイリストを提供することができる。歩行訓練で重要な入力は、身体活動、例えば歩行を行うユーザの歩調、対称性、およびストライド長である。プログラムは接続されたハードウェアを用いて、音楽のBPMで触覚/振動フィードバックを提供する。歩行訓練に適切な母集団には、外傷性脳損傷(TBI)、脳卒中、パーキンソン病、MS、および老化を抱える患者が含まれる。 FIG. 18 shows a technique useful in gait training, where repetitive movements refer to multiple steps taken by the patient during gait. Gait training is tailored to each patient population, diagnosis, and condition to provide a personalized and individualized musical intervention. Based on your input, the program changes content, intonation, major/minor chords, time signatures, and musical cues (e.g., melodic cues, harmonic cues, intensity cues) where applicable . The program can select music using date of birth, listed musical tastes, and tempo to tune in to provide a playlist of passive music to use on a daily basis. Important inputs in gait training are the user's cadence, symmetry, and stride length during physical activity, such as walking. The program uses connected hardware to provide haptic/vibrational feedback on the BPM of the music. Suitable populations for gait training include patients with traumatic brain injury (TBI), stroke, Parkinson's disease, MS, and aging.

方法は、ステップ1802で始まる。ステップ1804において、センサ、例えばセンサ200、206、208からのデータに基づく生体力学データが収集器106で受信される。生体力学データには、開始、ストライド長、歩調、対称性、補助器具に関するデータ、または分析システム108により記憶、生成された、患者の他のそのような特徴の集合が含まれる。例示の生体力学データパラメータが、上記の表1、表2、表3に挙げられている。基本的状態は、1つまたは複数のデータソースから判定される。第1に、音楽が再生されずに患者の歩行が検出される。患者の開始、ストライド長、歩調、対称性、補助器具に関するデータなどのセンサデータおよび特徴データが、治療セッションでの患者の基本的生体力学データを構成する。第2に、同じ患者の以前のセッションのセンサデータと、分析システム108からのより高レベルの分類データが、患者の履歴データを構成する。第3に、センサデータと、他の同様の状況に置かれた患者に対するより高レベルの分類データが母集団データを構成する。このように、基本的状態には、(a)治療セッションでの患者の基本的生体力学データ、(b)患者の以前のセッションのデータ、(c)母集団データ、のうちの1つまたは複数からのデータが含まれうる。そして、基礎となるビートテンポが基本的状態から選択される。例えば、基礎となるビートテンポは、音楽の再生より前の患者の現在の歩調と一致するよう選択することができる。あるいは、基礎となるビートテンポは、患者の現在の歩調の分数または倍数として選択することができる。別の選択肢として、基礎となるテンポは、同じ患者の以前のセッションで用いられた基礎となるビートテンポと一致するように選択することができる。さらに別の選択肢として、基礎となるビートテンポは、類似した身体状態を有する他の患者で使用された基礎となるビートテンポに基づいて選択することができる。最後に、基礎となるビートテンポは、上述したデータのいずれかの組み合わせに基づいて選択することができる。また、目標ビートテンポをこのデータから決定することもできる。例えば、目標ビートテンポは、他の同様の状況に置かれた患者が示した改善を参考にして、基礎となるビートテンポにおける増加率として選択してもよい。テンポは、音楽におけるビートの頻度を指すと理解される。 The method begins at step 1802 . At step 1804 , biomechanical data based on data from sensors, eg, sensors 200 , 206 , 208 are received at collector 106 . Biomechanical data may include data relating to onset, stride length, cadence, symmetry, assistive devices, or other such collection of patient characteristics stored and generated by analysis system 108 . Exemplary biomechanical data parameters are listed in Tables 1, 2, and 3 above. A basic state is determined from one or more data sources. First, patient gait is detected without music being played. Sensor data and feature data such as patient onset, stride length, cadence, symmetry, and assistive device data constitute the patient's basic biomechanical data in a treatment session. Second, sensor data from previous sessions of the same patient and higher level categorized data from the analysis system 108 constitute the patient's historical data. Third, sensor data and higher-level classified data for other similarly situated patients constitute population data. Thus, the baseline state includes one or more of (a) the patient's baseline biomechanical data at the treatment session, (b) the patient's previous session data, and (c) the population data. may include data from A base beat tempo is then selected from the base state. For example, the underlying beat tempo can be selected to match the patient's current cadence prior to the music playing. Alternatively, the underlying beat tempo can be selected as a fraction or multiple of the patient's current gait. Alternatively, the underlying tempo can be selected to match the underlying beat tempo used in previous sessions for the same patient. As yet another option, the underlying beat tempo can be selected based on underlying beat tempos used in other patients with similar physical conditions. Finally, the underlying beat tempo can be selected based on any combination of the above data. A target beat tempo can also be determined from this data. For example, the target beat tempo may be selected as a percentage increase in the underlying beat tempo with reference to improvements shown by other similarly situated patients. Tempo is understood to refer to the frequency of beats in music.

ステップ1806において、携帯型機器220から音楽供給装置230(例えば、イヤホン、ヘッドフォン、またはスピーカー)で患者へ与えられる音楽が基礎となるテンポ、または基礎となるテンポをさらに分割したテンポで開始される。患者に基礎となるテンポで音楽を供給するために、一定の基礎となるテンポを有する音楽がデータベースから選択される、あるいは既存の音楽が一定のテンポのビート信号を提供するために修正される、例えば選択的に加速または減速される。 At step 1806, the music provided from the portable device 220 to the patient via the music delivery device 230 (eg, earphones, headphones, or speakers) begins at the base tempo, or a subdivision of the base tempo. Music having a constant underlying tempo is selected from a database to provide the patient with music at the underlying tempo, or existing music is modified to provide a constant tempo beat signal. For example selectively accelerated or decelerated.

ステップ1808において、患者は音楽のビートを聴くよう指示される。ステップ1810において、患者は、基礎となるビートテンポで歩くよう指示され、任意選択で左足および右足についてのキューを受け取る。患者は、各ステップが音楽のビートに精密に一致するように、例えば、ビートテンポに「合わせて」歩くよう指示される。ステップ1806、1808、および1810は療法士によって開始されてもよい、または携帯型機器220上で音声または視覚的な指示によって開始されてもよい。 At step 1808, the patient is instructed to listen to the beat of the music. At step 1810, the patient is instructed to walk at the underlying beat tempo and optionally receives cues for the left and right feet. The patient is instructed to walk "to" the beat tempo so that each step precisely matches the beat of the music, for example. Steps 1806 , 1808 , and 1810 may be initiated by the therapist or by audio or visual instructions on portable device 220 .

ステップ1812において、患者に取り付けられたセンサ200、206、208が、患者の運動の踵接地圧力、6次元運動、EMG活動、ビデオ記録などの患者データを記録するのに用いられる。すべてのセンサデータにはタイムスタンプが付けられる。本明細書で論じられる「ゲート」分析を含むデータ分析が、タイムスタンプが付けられたセンサデータに対して行われる。例えば、センサデータ、例えば踵接地圧力の分析が、各ステップのオンセット時間を判定するために行われる。受信する更なるデータは、患者へ与えられる音楽の各ビート信号と関連付けられた時刻を含む。 At step 1812, sensors 200, 206, 208 attached to the patient are used to record patient data such as heel pressure, six-dimensional motion, EMG activity, video recordings of the patient's motion. All sensor data are time-stamped. Data analysis, including the "gating" analysis discussed herein, is performed on the time-stamped sensor data. For example, analysis of sensor data, eg, heel pressure, is performed to determine the onset time of each step. Further data received includes the time associated with each beat signal of the music presented to the patient.

ステップ1814において、予測および分類のために同調モデル(例えば、分析システム108のアンサンブル機械学習システム410、または収集器106上でダウンロードされ携帯型機器220上で動作するモデル)への接続が行われる。(そのような接続は以前から存在しうる、またはこの時点で開始されうることが理解される。)そのような接続は、典型的には非常に高速、または即時に起こる。 At step 1814, a connection is made to a tuned model (eg, the ensemble machine learning system 410 of the analysis system 108, or a model downloaded on the collector 106 and running on the portable device 220) for prediction and classification. (It is understood that such connections may preexist or may be initiated at this point.) Such connections typically occur very quickly or immediately.

ステップ1816において、分析システム108で行われる任意選択の同調分析がセンサデータに対して適用される。同調分析は、ビート信号と、患者が踏み出す各ステップのオンセットとの間の遅延の判定を含む。同調分析からの出力として同調の精度が判定され、例えば、同調余地およびEP比に関して上述した、基礎となるテンポと患者のステップとの間の瞬間的な関係の測定が行われる。同調が正確ではない場合、例えば、同調余地が許容範囲内で一定ではない場合、ステップ1818において、例えばビートテンポを加速または減速させる、音量を上げる、感覚入力を増やす、メトロノームまたは他の関連する音を重ね合わせる、などの調整が行われる。同調が正確な場合、例えば、同調余地が許容範囲内で一定である場合、ステップ1820においてテンポに対して漸進的変更が行われる。例えば、携帯型機器で再生される音楽の基礎となるテンポは、目標テンポへ向けて、例えば5%だけ上げられる。 At step 1816, an optional tuning analysis performed by analysis system 108 is applied to the sensor data. Entrainment analysis involves determining the delay between the beat signal and the onset of each step taken by the patient. As an output from the entrainment analysis, entrainment accuracy is determined, eg, a measure of the instantaneous relationship between the underlying tempo and the patient's step, as described above for entrainment margin and EP ratio. If the entrainment is not accurate, e.g., if the entrainment margin is not tolerably constant, then in step 1818, e.g., speed up or slow down the beat tempo, increase volume, increase sensory input, metronome or other relevant sound. are superimposed on each other. If the tuning is correct, eg, if the tuning margin is tolerable and constant, incremental changes to the tempo are made at step 1820 . For example, the underlying tempo of the music played on the portable device may be increased by, for example, 5% towards the target tempo.

ステップ1822において、予測および分類のために同調モデルへの接続が行われる。(そのような接続は以前から存在しうる、またはこの時点で開始されうることが理解される。)ステップ1824において、任意選択の対称性分析がセンサデータに対して適用される。対称性分析の出力として、患者の歩行の対称性、例えば、ストライド長、速度、立脚期、遊脚期などでの患者の左足の動きが患者の右脚の動きとどれだけ精密に一致するか、に関して判定が行われる。ステップが対称的ではない場合、例えば、閾値を下回る場合、ステップ1826において、携帯型機器により患者へ送信される音楽に対して調整が行われる。第1の修正は、患者の両足のうちの一方が動いている間に再生される音楽に対して行うことができて、第2の修正は、患者の両足のうち他方が動いている間に再生される音楽に対して行うことができる。例えば、マイナーコード(または、高められた音量、感覚入力、テンポの変化、もしくは音/メトロノームの重ね合わせ)を一方の側、例えば患側で再生して、メジャーコードを他方の側、例えば患側でない方で再生することができる。機械学習システム410は、例えば非対称性を示す動きを分析することで、対称性問題へと通じる「指紋」に基づいて対称性問題がいつ発生しようとしているかを予め予測する。非対称性は、誰かの通常の歩行パラメータをその背景と比較することで判定することができて、その側が他方の側と比較してどれだけ影響を受けているかを判定することができる。 At step 1822, a connection is made to the tuned model for prediction and classification. (It is understood that such connections may pre-exist or may be initiated at this point.) At step 1824, an optional symmetry analysis is applied to the sensor data. The output of the symmetry analysis is the symmetry of the patient's gait, e.g., how closely the patient's left leg movement matches the patient's right leg movement during stride length, velocity, stance phase, swing phase, etc. , is determined. If the steps are not symmetrical, eg, below a threshold, then at step 1826 adjustments are made to the music sent by the portable device to the patient. A first modification can be made to the music played while one of the patient's legs is moving, and a second modification can be made to the music played while the other of the patient's legs is moving. It can be done to the music that is played. For example, minor chords (or heightened volume, sensory input, tempo changes, or tone/metronome superposition) are played on one side, e.g., the affected side, and major chords are played on the other side, e.g., the non-affected side. can be played with The machine learning system 410 predicts in advance when a symmetry problem is about to occur based on the "fingerprint" leading to the symmetry problem, for example by analyzing movements that indicate asymmetry. Asymmetry can be determined by comparing someone's normal walking parameters to their background to determine how much that side is affected compared to the other side.

ステップ1828において、予測および分類のために同調モデルへの接続が行われる。(そのような接続は以前から存在しうる、またはこの時点で開始されうることが理解される。)ステップ1830において、平衡中心、例えば、患者が身を乗り出しているかどうか、の任意選択での分析がセンサデータに対して行われる。分析は、複数の足センサの出力、およびビデオ出力を組み合わせることで行うことができる。平衡中心分析からの出力として、患者が身を乗り出しているかどうかに関して判定が行われる。患者が身を乗り出している場合、ステップ1832において、患者への真っすぐ立つようにとのキューが出され、療法士により、または携帯型機器上での音声または視覚的な指示により提供される。 At step 1828, a connection is made to the tuned model for prediction and classification. (It is understood that such connections may pre-exist or may be initiated at this point.) At step 1830, an optional analysis of the equilibrium center, e.g., whether the patient is leaning over is performed on the sensor data. Analysis can be performed by combining the outputs of multiple foot sensors and video outputs. As an output from the equilibrium center analysis, a determination is made as to whether the patient is leaning over. If the patient is leaning over, at step 1832 a cue is issued to the patient to stand up straight, provided by the therapist or by audio or visual instructions on the handheld device.

ステップ1834において、予測および分類のために同調モデルへの接続が行われる。(そのような接続は以前から存在しうる、またはこの時点で開始されうることが理解される。)ステップ1836において開始分析がセンサデータへ適用され、例えば、患者が歩行を開始するのにためらいを示す、または困難であることを示す。開始分析からの出力として、患者が開始することに問題を示しているどうかに関して判定が行われる。患者が開始することに問題を示している場合、例えば閾値を下回る場合、触覚フィードバックを患者へ与えることができて、この触覚フィードバックにはビートテンポでのカウントダウン、またはステップ1838での曲の開始よりも前でのカウントダウンが含まれうる。 At step 1834, a connection is made to the tuned model for prediction and classification. (It is understood that such connections may pre-exist or may be initiated at this point.) At step 1836 initiation analysis is applied to the sensor data, e.g. Show or show that it is difficult. As an output from the initiation analysis, a determination is made as to whether the patient exhibits problems with initiation. If the patient is exhibiting problems starting, e.g., below a threshold, tactile feedback can be given to the patient, which may include a countdown in beat tempo, or the beginning of the song at step 1838. may also include a countdown in front.

ステップ1840において、患者が補助器具、例えば、杖、松葉づえ、歩行器などを使っているかどうかが任意選択で判定される。一部の実施形態では、携帯型機器220は、患者または療法士が補助器具の使用に関する情報を入力するためのユーザインタフェースを提供する。杖が存在する場合、分析は3つの拍子、例えば、杖、右足、左足へと変更され、ステップ1842において「左足」、「右足」、および「杖」によりキュー付けが行われて、療法士により、または携帯型機器上での音声または視覚的な指示により提供される。 At step 1840, it is optionally determined whether the patient is using an assistive device such as a cane, crutches, walker, or the like. In some embodiments, portable device 220 provides a user interface for the patient or therapist to enter information regarding the use of assistive devices. If a cane is present, the analysis changes to a three-time signature, e.g., cane, right foot, left foot, and is cued by "left foot", "right foot", and "cane" in step 1842 to be read by the therapist. , or provided by audio or visual instructions on a handheld device.

ステップ1844において、予測および分類のために同調モデルへの接続が行われる。(そのような接続は以前から存在しうる、またはこの時点で開始されうることが理解される。)任意選択での同調分析1846が、おおむねステップ1816で上述したようにセンサデータへ適用されるが、以下に記載される差異がある。例えば、同調は、そのセッションのより前の時点の以前の同調データ、患者との以前のセッションの以前の同調データ、または他の患者の同調に関連するデータと比較することができる。同調分析からの出力として、同調の精度、例えば、患者の歩行が基礎となるテンポとどれだけ精密に一致するかが判定される。同調が正確ではない場合、ステップ1848において、おおむねステップ1818で上述したように調整が行われる。 At step 1844, a connection is made to the tuned model for prediction and classification. (It is understood that such connections may pre-exist or may be initiated at this point.) Although optional tuning analysis 1846 is applied to the sensor data generally as described above in step 1816, , with the differences described below. For example, the entrainment can be compared to previous entrainment data from an earlier point in the session, previous entrainment data from a previous session with the patient, or data related to entrainment of other patients. As an output from the entrainment analysis, the entrainment accuracy is determined, eg, how closely the patient's gait matches the underlying tempo. If the tuning is not correct, adjustments are made at step 1848 generally as described above at step 1818 .

同調が正確な場合、ステップ1850において、患者が目標テンポで歩いているかどうかが判定される。目標テンポに到達しない場合、方法は(上述した)ステップ1820へ進み、漸進的変更がテンポに対して行われる。例えば、携帯型機器で再生される音楽の基礎となるテンポは、目標テンポへ向けて、例えば5%だけ上げられる、または下げられる。目標テンポに到達した場合、患者はセッションの残りの時間にわたって治療を続けることができる(ステップ1852)。ステップ1854において、治療セッションではない場合に用いられる所望のテンポの音楽をキュレーションして図2の装置220に残すことができる。この音楽コンテンツは、専用の治療セッションの合間に患者により課題/練習として使用される。ステップ827において、プログラムは終了する。 If the synchronization is correct, at step 1850 it is determined whether the patient is walking at the target tempo. If the target tempo is not reached, the method proceeds to step 1820 (discussed above) where incremental changes are made to the tempo. For example, the underlying tempo of the music played on the portable device may be increased or decreased by, for example, 5% towards the target tempo. If the target tempo has been reached, the patient can continue therapy for the remainder of the session (step 1852). At step 1854, music of the desired tempo to be used during non-therapy sessions can be curated and left on the device 220 of FIG. This musical content is used as a challenge/practice by the patient between dedicated therapy sessions. At step 827, the program ends.

上述した、図18に示されるステップは、開示されたものとは異なる順序で行ってもよいことが理解される。例えば、ステップ1816、1824、1830、1836、1840、1846、および1850における評価は、同時に行われてもよい。さらに、分析システム108への複数の接続(例えば、ステップ1814、1822、1828、1834、および1844)は、説明された治療セッションを通じて一度だけ行われてもよい。 It is understood that the steps described above and illustrated in FIG. 18 may be performed in a different order than that disclosed. For example, the evaluations in steps 1816, 1824, 1830, 1836, 1840, 1846, and 1850 may occur simultaneously. Further, multiple connections to analysis system 108 (eg, steps 1814, 1822, 1828, 1834, and 1844) may be made only once throughout the described treatment session.

図19は、無視訓練で有益な手法を示す。無視訓練では、本明細書に記載されるシステムおよび方法は、患者が目標を正確に叩いた場合に触覚/振動フィードバックを与えるために、接続されるハードウェアを使用する。接続されるハードウェアには、装置、ビデオモーションキャプチャシステム、または接続されるベルが含まれる。これらの装置のすべてが記載されるシステムの中へ接続され、タップされると振動して、聴覚的フィードバックを再生するスピーカーを有する。例えば、接続されるベルは、センサ200と同じ方法でデータ、例えば、患者がベルを叩くことに関するデータをシステムへ提供する。ビデオモーションキャプチャシステムは、ビデオカメラ206と同じ方法でビデオデータをシステムへ提供する。無視訓練で重要な入力は、特定の場所への動きの追跡に関する情報である。プログラムは接続されたハードウェアを用いて、患者が目標を正確に叩いた場合に触覚/振動フィードバックを与える。無視訓練に適切な母集団には、空間的無視または片側だけの視覚的無視状態を伴う患者が含まれる。 FIG. 19 shows a technique useful in ignoring training. For neglect training, the systems and methods described herein use connected hardware to provide tactile/vibrational feedback when the patient hits the target correctly. Connected hardware includes devices, video motion capture systems, or connected bells. All of these devices are connected into the system described and have speakers that vibrate when tapped and reproduce auditory feedback. For example, a connected bell provides data to the system in the same manner as sensor 200, eg, data regarding patient tapping of the bell. A video motion capture system provides video data to the system in the same manner as video camera 206 . An important input in neglect training is information about tracking movements to specific locations. The program uses connected hardware to give tactile/vibration feedback when the patient hits the target correctly. Suitable populations for neglect training include patients with spatial neglect or unilateral visual neglect.

図19に示される無視訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。例えば、基本試験により、患者の状態、および/または以前の試験からの改善が規定される。一部の実施形態では、基本試験には、画面上、例えば、携帯型機器220のディスプレイ222に左から右へ等間隔に並んだ4つの物体を示すことが含まれる。患者は、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、背景音楽のビートに合わせて物体を叩くよう指示される。歩行訓練と同様に、患者は、背景音楽のビートに合わせてベルを叩くよう指示される。正確に叩くごとにフィードバックが与えられる。基本的情報が収集されたら、左から右へ等間隔に並んだ多数の物体が画面上に表示される。上述したように、患者は背景音楽のビートに合わせて左から右の順番に物体を叩くよう指示される。正確に叩くごとにフィードバックが与えられる。歩行訓練と同様に、分析システム108は患者の反応を評価し、反応を分類して、物体を増やす、もしくは減らすように、または、目標テンポに到達するよう音楽のテンポを上げる、もしくは下げるように指示を与える。 The ignoring training flow diagram shown in FIG. 19 is substantially identical to the walking training flow shown in FIG. 18, with the differences noted below. For example, baseline tests define patient status and/or improvement from previous tests. In some embodiments, the basic test includes showing four evenly spaced objects on a screen, eg, display 222 of portable device 220 from left to right. The patient is instructed, either by cues displayed on the display 222 or verbally by the therapist, to hit an object to the beat of the background music. Similar to gait training, patients are instructed to ring a bell to the beat of background music. Feedback is given for each accurate hit. Once the basic information is collected, a number of equally spaced objects appear on the screen from left to right. As described above, the patient is instructed to strike objects in left-to-right order to the beat of background music. Feedback is given for each accurate hit. Similar to gait training, the analysis system 108 evaluates the patient's response and classifies the response to increase or decrease objects or increase or decrease the tempo of the music to reach a target tempo. give instructions.

図20は、抑揚訓練で有益な手法を示す。抑揚訓練では、本明細書に記載されるシステムおよび方法は、音声処理アルゴリズムを頼りにする。典型的に選ばれるフレーズは、両唇音、喉音、母音のカテゴリの一般的な単語である。ハードウェアは、患者の一方の手に1分あたりのビート数で触覚フィードバックを与えるために、患者に接続される。抑揚訓練で重要な入力は、声の音色、話された単語、および発話のリズムである。抑揚訓練に適切な母集団には、ブローカ失語、表出性失語、非流暢性失語、失行、自閉症スペクトラム障害、およびダウン症を患う患者が含まれる。 FIG. 20 shows a technique useful in intonation training. For intonation training, the systems and methods described herein rely on speech processing algorithms. Phrases typically chosen are common words in the bilabial, guttural and vowel categories. Hardware is connected to the patient to provide tactile feedback in beats per minute to one of the patient's hands. Key inputs in intonation training are the timbre of the voice, the words spoken, and the rhythm of speech. Populations suitable for intonation training include patients with Broca's aphasia, expressive aphasia, non-fluent aphasia, apraxia, autism spectrum disorders, and Down's syndrome.

図20に示される抑揚訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。例えば、タップを促すために、触覚フィードバックが患者の一方の手に与えられる。そして、患者は、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、再生されている音楽を聴くよう指示される。学習する必要がある話されたフレーズが2つの部分に分離されて再生され、2つの部分のうち最初の方は高音に、2つの部分のうち2番目の方は低音とされる。そして、患者は、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、再生されている2つの音の高さを使って装置を用いてそのフレーズを歌うよう指示される。歩行訓練と同様に、分析システム108は患者の反応を評価し、音の高さの正確さ、話された単語、患者またはアシスタント/療法士による順位付けの観点から反応を分類して、代替のフレーズを提供するように指示を与えて、反応を目標とする発話パラメータと比較する。 The intonation training flow diagram shown in FIG. 20 is substantially identical to the gait training flow shown in FIG. 18, with the differences noted below. For example, tactile feedback is provided to one hand of the patient to prompt tapping. The patient is then instructed, either by cues displayed on the display 222 or verbally by the therapist, to listen to the music being played. The spoken phrase that needs to be learned is played back in two separate parts, the first of the two parts being high pitched and the second of the two parts being low pitched. The patient is then instructed, either by cues displayed on the display 222 or verbally by the therapist, to sing the phrase using the device using the two pitches being played. Similar to gait training, the analysis system 108 evaluates the patient's response and classifies the response in terms of pitch accuracy, words spoken, and ranking by the patient or assistant/therapist to provide alternatives. Instructions are given to provide phrases and responses are compared to target speech parameters.

図21は、音楽的刺激訓練で有益な手法を示す。音楽的刺激訓練では、本明細書に記載されるシステムおよび方法は、音声処理アルゴリズムを頼りにする。聞き覚えのある曲は、予期される部分を分離する(期待違反と呼ばれる)アルゴリズムと共に使用される。ハードウェアは患者による歌唱を受け取って処理するスピーカーを備え、一部の実施形態では、療法士が歌唱の正確さに関する入力を手動で与えることができる。重要な入力は、声の音色、話された単語、発話のリズム、および音楽の嗜好に関連する情報である。適切な母集団には、ブローカ失語、非流暢性失語、TBI、脳卒中、および原発性進行性失語を患う患者が含まれる。 FIG. 21 shows an approach useful in musical stimulus training. For musical stimulus training, the systems and methods described herein rely on speech processing algorithms. Familiar songs are used with an algorithm that isolates expected parts (called expectation violation). The hardware includes speakers that receive and process singing by the patient, and in some embodiments, the therapist can manually provide input regarding the accuracy of the singing. Important inputs are information related to timbre of voice, words spoken, rhythm of speech, and musical preferences. Suitable populations include patients with Broca's aphasia, non-fluent aphasia, TBI, stroke, and primary progressive aphasia.

図21に示される音楽的刺激訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。例えば、曲は患者のために再生され、患者は、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、その曲を聴くよう指示される。音楽的キューが曲へ加えられる。その後、予期される場所で単語または音が除外されて、欠落している単語または音を歌うように患者に促すために身振りによる音楽的キューが再生される。歩行訓練と同様に、分析システム108は患者の反応を評価し、音の高さの正確さ、話された単語、患者またはアシスタント/療法士による順位付けの観点から反応を分類して、発話を目標とする発話パラメータまで改善するために、曲の更なる部分を再生するように指示を与える。 The musical stimulus training flow diagram shown in FIG. 21 is substantially identical to the walking training flow shown in FIG. 18, with the differences noted below. For example, a song is played for the patient and the patient is instructed to listen to the song by cues displayed on the display 222 or verbally by the therapist. Musical cues are added to the song. The word or sound is then excluded at the expected location and a gestural musical cue is played to prompt the patient to sing the missing word or sound. Similar to gait training, the analysis system 108 evaluates the patient's response and classifies the response in terms of pitch accuracy, words spoken, ranking by the patient or assistant/therapist, and categorizes the utterances. Instructions are given to play further portions of the song in order to improve to the target speech parameters.

図22は、粗大運動訓練で有益な手法を示す。粗大運動訓練では、本明細書に記載されるシステムおよび方法は、運動失調、運動の範囲、または開始を助けることを対象としている。運動のより困難な部分は、例えば、旋律の美しいキュー、調和的なキュー、リズミカルなキュー、および/または強さのキューを用いて音楽的に「強勢が付けられて」(asccented)いる。重要な入力は、接続されたハードウェアまたはビデオカメラシステムを用いたX、Y、Z方向のキャプチャにおける動きに関連する情報である。適切な母集団には、神経系の、および整形外科的な強度、持久力、バランス、姿勢、運動範囲、TBI、SCI、脳卒中、および脳性麻痺を患う患者が含まれる。 FIG. 22 shows an approach useful in gross motor training. In gross motor training, the systems and methods described herein are aimed at helping ataxia, range of motion, or initiation. The more difficult portions of the exercise are musically "ascented" using, for example, melodic cues, harmonic cues, rhythmic cues, and/or intensity cues. An important input is information related to motion in the X, Y, Z direction capture using a connected hardware or video camera system. Suitable populations include patients with neurological and orthopedic strength, endurance, balance, posture, range of motion, TBI, SCI, stroke, and cerebral palsy.

図22に示される粗大運動訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。歩行訓練と同様に、患者は、音楽的選択の基礎となるビートに合わせて動くようにキューが与えられる。分析システム108は患者の反応を評価し、上述したように動きの正確さおよび同調の観点から反応を分類して、再生される音楽のテンポを上げる、または下げるように指示を与える。 The flow diagram for gross motor training shown in FIG. 22 is substantially identical to the flow for gait training shown in FIG. 18, with the differences noted below. Similar to gait training, the patient is cued to move to the beat on which the musical selection is based. The analysis system 108 evaluates the patient's response, classifies the response in terms of movement accuracy and coordination as described above, and gives instructions to increase or decrease the tempo of the music being played.

図23は、握力訓練で有益な手法を示す。握力訓練では、本明細書に記載されるシステムおよび方法は、把持装置と関連付けられたセンサを頼りにする。ハードウェアは、携帯型機器220に関連付けられた、圧力センサを有する把持装置と接続されるスピーカーとを備える。重要な入力は、センサ200により測定される踵接地圧力と同様の方法で、患者により把持装置へ与えられる圧力である。適切な母集団には、神経系の、および整形外科的な強度、持久力、バランス、姿勢、運動範囲、TBI、SCI、脳卒中、および脳性麻痺を患う患者が含まれる。 FIG. 23 shows a technique useful in grip strength training. For grip strength training, the systems and methods described herein rely on sensors associated with the gripping device. The hardware comprises a gripping device with a pressure sensor associated with the portable device 220 and a speaker connected. A key input is the pressure exerted by the patient on the grasper in a manner similar to the heel contact pressure measured by sensor 200 . Suitable populations include patients with neurological and orthopedic strength, endurance, balance, posture, range of motion, TBI, SCI, stroke, and cerebral palsy.

図23に示される握力訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。歩行訓練と同様に、患者は、音楽的選択の基礎となるビートに合わせて把持装置へ力を加えるようにキューが与えられる。分析システム108は患者の反応を評価し、上述したように動きの正確さおよび同調の観点から反応を分類して、再生される音楽のテンポを上げる、または下げるように指示を与える。 The flow diagram for grip strength training shown in FIG. 23 is substantially identical to the flow for walking training shown in FIG. 18, with the differences noted below. Similar to gait training, the patient is cued to apply force to the grasper in time with the beat on which the musical selection is based. The analysis system 108 evaluates the patient's response, classifies the response in terms of movement accuracy and coordination as described above, and gives instructions to increase or decrease the tempo of the music being played.

図24は、発話キュー訓練で有益な手法を示す。発話キュー訓練では、本明細書に記載されるシステムおよび方法は、音声処理アルゴリズムを頼りにする。ハードウェアは患者による歌唱を受け取って処理するスピーカーを備えることがあり、一部の実施形態では、療法士が発話の正確さに関する入力を手動で提供することができる。重要な入力は、声の音色、話された単語、発話のリズム、および音楽の嗜好である。適切な母集団には、ロボット、単語の発見、発話の吃音に問題を抱える患者が含まれる。 FIG. 24 shows a technique useful in speech cue training. For speech cue training, the systems and methods described herein rely on speech processing algorithms. The hardware may include speakers that receive and process singing by the patient, and in some embodiments, the therapist may manually provide input regarding accuracy of speech. Important inputs are the timbre of voice, the words spoken, the rhythm of speech, and musical preferences. Appropriate populations include patients with problems with robots, word finding, and speech stuttering.

図24に示される発話キュー訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。歩行訓練と同様に、患者は、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、音楽的選択の基礎となるビートに合わせて一音節を発して文を発話するようにキューが与えられる。分析システム108は患者の発話を評価し、上述したように発話の正確さおよび同調の観点から反応を分類して、再生される音楽のテンポを上げる、または下げるように指示を与える。 The flow diagram for speech cue training shown in FIG. 24 is substantially identical to the flow for gait training shown in FIG. 18, with the differences noted below. Similar to gait training, the patient is cued, either by cues displayed on the display 222 or verbally by the therapist, to say sentences in single syllables to the beat on which musical choices are based. is given. The analysis system 108 evaluates the patient's speech, classifies the response in terms of speech accuracy and entrainment as described above, and gives instructions to increase or decrease the tempo of the music being played.

図25は、ごくわずかに意識のある患者の訓練で有益な手法を示す。本明細書に記載されるシステムおよび方法は、患者の両眼が開いている場合は患者が見ている方向、および結果としての患者の脈拍または心拍数を測定するために、3Dカメラなどの撮像システムを頼りにする。プログラムは、心拍数、刺激、呼吸数、閉眼、姿勢、および落ち着きのなさについて探索し、これらを最適化する。適切な母集団には、昏睡状態の患者、および意識障害のある患者が含まれる。 FIG. 25 shows an approach useful in training minimally conscious patients. The systems and methods described herein use an imaging device such as a 3D camera to determine the direction the patient is looking if the patient's eyes are open and the resulting pulse or heart rate of the patient. rely on the system. The program explores and optimizes heart rate, stimulation, respiration rate, eye closure, posture, and restlessness. Suitable populations include comatose patients and patients with impaired consciousness.

図25に示されるごくわずかに意識のある患者の訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。歩行訓練と同様に、患者は、患者の呼吸数(PBR)で増加していく刺激を与えられる。例えば、患者はまず、PBRで音楽のコードの刺激を与えられ、患者の両眼が開いているかどうかが観察される。患者の両眼が開いていない場合、PBRで単純なメロディをハミングすることからPBRで「アーッ」と歌うまで、またPBRで患者の名前を歌う(または、そのような音を録音したものを再生する)まで、刺激が連続的に増やされて、入力毎に患者の両眼が開いているかが確認される。分析システム108は患者の眼の追跡を評価し、意識レベルの観点から反応を分類し、刺激を変化させるように指示を与える。 The minimally conscious patient training flow diagram shown in FIG. 25 is nearly identical to the gait training flow shown in FIG. 18, with the differences noted below. Similar to gait training, the patient is given an increasing stimulus at the patient's respiratory rate (PBR). For example, the patient is first stimulated with a musical chord on the PBR and observed whether the patient's eyes are open. If the patient's eyes are not open, the PBR may range from humming a simple melody to singing an "ahh" on the PBR and singing the patient's name on the PBR (or playing a recording of such a sound). The stimulus is continuously increased until the patient's eyes are open at each input. Analysis system 108 evaluates the patient's eye tracking, classifies responses in terms of level of consciousness, and provides instructions to change stimuli.

図26~図28は、注意力訓練で有益な手法を示す。注意力訓練では、本明細書に記載されるシステムおよび方法は閉ループで動作して、患者が注意を持続させ、分割し、入れ替え、選択するのを助ける。どの動きをなすべきかを示唆する視覚的キューは許されない。適切な母集団には、脳腫瘍、多発性硬化症、パーキンソン病、ならびに、神経疾患および神経損傷を患う患者が含まれる。 Figures 26-28 illustrate techniques useful in attention training. In attention training, the systems and methods described herein operate in a closed loop to help patients sustain, divide, shift, and select attention. No visual cues are allowed to suggest which move to make. Suitable populations include patients with brain tumors, multiple sclerosis, Parkinson's disease, and neurological diseases and injuries.

図26に示される注意力持続訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。歩行訓練と同様に、患者は、楽器(例えば、動作する任意の楽器でよく、ドラムスティック、ドラム、キーボード、またはそれぞれの無線接続されるものなど)を与えられて、ディスプレイ222上に表示されているキューにより、または療法士によって言葉で、図26に示されるレベル1からレベル9で規定される音声キューに沿って進行する、または音声キューに対する作業を行うよう指示される。分析システム108は患者が作業を正確に完了する能力を評価し、反応を分類して、テンポまたは作業の難易度を変化させる。同様に、図27は注意入れ替え訓練のフロー図を示し、この訓練ではディスプレイ222上に表示されているキューにより、または療法士によって言葉で、左耳と右耳とで交互に起きる音声キューに沿って進行する、または音声キューに対する作業を行うように指示が与えられる。図28は分割される注意のためのフロー図を示し、この場合は左耳と右耳の両方で音声信号を用いた音声キューに沿って進行する、または音声キューに対する作業を行うように指示が与えられる。 The attention span training flow diagram shown in FIG. 26 is substantially identical to the gait training flow shown in FIG. 18, with the differences noted below. Similar to gait training, the patient is given an instrument (eg, any instrument that works, such as drumsticks, drums, keyboards, or wirelessly connected ones of each) to be displayed on the display 222. The patient is instructed by the cues present or verbally by the therapist to progress along or work on the audio cues defined in levels 1 through 9 shown in FIG. The analysis system 108 assesses the patient's ability to complete the task correctly and classifies the responses to change the tempo or difficulty of the task. Similarly, FIG. 27 shows a flow diagram for attentional reversal training in which cues displayed on the display 222 or verbally by the therapist accompany audio cues alternating between the left and right ears. or to work on audio cues. FIG. 28 shows a flow diagram for split attention, in this case instructed to follow or work with audio cues using audio signals in both the left and right ears. Given.

図29に示される器用さの訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。器用さの訓練では、患者は、基本的動作および運動情報の範囲を収集するために、ピアノの鍵盤を自分の指で叩くよう指示される。曲が特定の1分あたりのビート数で開始され、患者は基本的な数の指で叩き始める。分析システム108は患者が作業を正確に完了する能力を評価し、反応を分類して、テンポまたは作業の難易度を変化させる。 The dexterity training flow diagram shown in FIG. 29 is substantially identical to the gait training flow shown in FIG. 18, with the differences noted below. In dexterity training, patients are instructed to tap their fingers on a piano keyboard in order to collect basic movement and range of motor information. A song starts at a certain number of beats per minute and the patient begins tapping with a basic number of fingers. The analysis system 108 assesses the patient's ability to complete the task correctly and classifies the responses to change the tempo or difficulty of the task.

図30に示される口腔運動訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。口腔運動訓練では、患者は、2つの音、例えば、「ワーッ」と「アーッ」を交互に出す作業を行うよう指示される。分析システム108は患者が作業を正確に完了する能力を評価し、反応を分類して、例えば異なる目標音を与えることで、テンポまたは作業の難易度を変化させる。 The flow diagram for oral movement training shown in FIG. 30 is substantially the same as the flow for gait training shown in FIG. 18, with the differences described below. In oral motor training, the patient is instructed to perform a task that alternates between two sounds, eg, "wow" and "ahh". The analysis system 108 assesses the patient's ability to correctly complete the task and classifies the responses to vary the tempo or difficulty of the task, for example, by giving different target sounds.

図31に示される呼吸訓練のフロー図は、図18に示される歩行訓練のフローと略同一であるが、以下に記載される差異がある。呼吸訓練では、基本的呼吸数および呼吸の浅さが判定される。音楽が患者の呼吸数で基礎となるテンポで与えられ、患者は、図31に記載されるレベルの呼吸作業を行うよう指示される。分析システム108は患者が作業を正確に完了する能力を評価し、反応を分類して、例えば異なる呼吸パターンを与えることで、テンポまたは作業の難易度を変化させる。 The breathing exercise flow diagram shown in FIG. 31 is substantially identical to the walking exercise flow shown in FIG. 18, with the differences noted below. Breathing exercises determine the basal respiratory rate and shallowness of breathing. Music is presented at a tempo based on the patient's breathing rate, and the patient is instructed to perform the level of breathing work described in FIG. The analysis system 108 assesses the patient's ability to correctly complete the task and classifies the responses to vary the tempo or difficulty of the task, for example, by providing different breathing patterns.

本明細書にはさらに、拡張現実(AR)および拡張された音声(AA)を用いて運動機能を改善または維持するための次世代の医療用治療システムを支援するための方法、システム、および装置が記載される。本明細書で開示される、拡張された神経学的リハビリテーション、回復、または維持(ANR)用のシステムおよび方法の例示の実施形態は、更なるセンサストリームを利用して治療効果を判定し、閉ループの治療アルゴリズムに知らせることで、同調手法に基づき構築される。ANRシステムおよび方法の実施形態を実現するのに利用することができる、神経学的リハビリテーションのための例示のシステムおよび方法が上で示され、説明されているが、「神経学的リハビリテーションのためのシステムおよび方法」と題され2016年4月14日に出願された米国仮特許出願第62/322,504号明細書に基づき、その優先権を主張する、「神経学的リハビリテーションのためのシステムおよび方法」と題され2019年10月22日に発行された米国特許第10,448,888号明細書の継続出願である、McCarthyなどに対する、同時係属中で同一出願人による米国特許出願第16/569,388号明細書、「神経学的リハビリテーションのためのシステムおよび方法」にも示され、記載されており、これらの特許出願および特許の明細書はそれぞれ、参照によりその全体が本明細書に記載されているかのように本明細書に援用される。 Further described herein are methods, systems, and apparatus for assisting next-generation medical therapeutic systems for improving or maintaining motor function using Augmented Reality (AR) and Augmented Audio (AA). is described. Exemplary embodiments of the systems and methods for augmented neurological rehabilitation, recovery, or maintenance (ANR) disclosed herein utilize additional sensor streams to determine therapeutic efficacy, closed-loop It builds on the tuning approach by informing the treatment algorithm of Exemplary systems and methods for neurological rehabilitation that can be utilized to implement embodiments of ANR systems and methods are shown and described above, No. 62/322,504, filed Apr. 14, 2016, entitled "Systems and Methods for Neurological Rehabilitation and Co-Pending and Commonly Assigned U.S. Patent Application Serial No. 16/16 to McCarthy et al. 569,388, "Systems and Methods for Neurological Rehabilitation," each of these patent applications and patent specifications is incorporated herein by reference in its entirety. incorporated herein as if written.

1つまたは複数の実施形態によれば、ANRシステムおよび方法は、特定の人々または物体のAR 3D動的モデルを提供する方法を含むことができて、この方法には、クラウド上およびローカルのデータベースにクエリを行うことで人々の画像およびビデオ、または画像を得ることが含まれる。また、ANRシステムおよび方法は、動的モデル、患者または人間、音声コンテンツ、および環境に関するコンテキストを融合する、および/または同期された状態へと同期するよう構成することができて、音楽の能力の神経科学、および視覚的画像がどのように回復に影響を与えるかの神経科学(例えば、ミラーニューロンの使用)を活用して、運動機能を向上させることができる。 According to one or more embodiments, ANR systems and methods can include methods for providing AR 3D dynamic models of specific people or objects, including cloud-based and local database It involves getting images and videos of people, or images by querying the . In addition, the ANR system and method can be configured to fuse and/or synchronize context regarding dynamic models, patients or humans, audio content, and the environment, and/or synchronize into a synchronized state, allowing for a greater understanding of the capabilities of music. Neuroscience and how visual images affect recovery (eg, using mirror neurons) can be leveraged to improve motor function.

1つまたは複数の実施形態によれば、ANRシステムおよび方法は、反復的運動行為に対してAA手法を組み合わせる方法を含む。拡張された音声(AA)は、現実世界の音を、追加のコンピュータで生成された、感覚入力を強化する音声「層」と組み合わせる。その中心にリズムがある神経科学は、歩行などの反復的運動行為に運動系を関与させるために刺激を使用する。AAを治療プロトコルへ加えることで治療効果が高められ、治療プロトコルへの支持が高くなり、患者に対する状況認識が高められるという形でより高い安全性が提供される。AAを加えるよう構成されている開示される実施形態は、外部環境音入力、録音済みコンテンツ、リズミカルなコンテンツ、音声ガイダンスを含む多くの音声信号をミックスして同期された状態とし、音楽の神経科学を活用することができる。さらに、それは、運動障害または身体障害を抱える患者のために、アルゴリズムで生成された音楽を[0184]で詳述される、内在するリズミカルなキューと組み合わせる能力を備えうる。これは、この生成リズムを患者のリアルタイム生体データからの入力と融合して対話式のフィードバック状態とすることで行うことができる。神経学的リハビリテーションに関連して使用するためにアルゴリズムで聴覚刺激を生成する例示のシステムおよび方法は、米国特許法第119条(e)の下で2017年7月24日に出願された米国仮特許出願第62/536,264号明細書の優先権の恩恵を主張する、「反復動作運動用の音楽の改良」と題され2018年7月24日に出願された米国特許出願第16/044,240号明細書(現在では、2020年2月11日に発行された米国特許第10,556,087号)の継続出願である、McCarthyなどに対する、同時係属中で同一出願人による、「反復動作運動用の音楽の改良」と題され2020年1月15日に出願された米国特許出願第16/743,946号明細書に示され、記載されており、これらの特許出願および特許の明細書はそれぞれ、参照によりその全体が本明細書に記載されているかのように本明細書に援用される。 According to one or more embodiments, ANR systems and methods include methods of combining AA techniques for repetitive motor actions. Augmented Audio (AA) combines real-world sounds with additional computer-generated audio “layers” that enhance sensory input. Neuroscience, with rhythm at its core, uses stimuli to engage the motor system in repetitive motor actions such as walking. Incorporating AA into a treatment protocol provides increased therapeutic efficacy, increased adherence to the treatment protocol, and increased safety in the form of increased situational awareness for the patient. Disclosed embodiments configured to add AA mix many audio signals into a synchronized state, including external ambient sound input, pre-recorded content, rhythmic content, voice guidance, and the neuroscience of music. can be utilized. In addition, it may have the ability to combine algorithmically generated music with underlying rhythmic cues detailed in [0184] for patients with motor or physical disabilities. This can be done by fusing this generated rhythm with input from the patient's real-time biometric data into an interactive feedback state. Exemplary systems and methods for algorithmically generating auditory stimuli for use in connection with neurological rehabilitation are described in U.S. Provisional Patent Application, filed July 24, 2017 under 35 U.S.C. U.S. patent application Ser. No. 16/044, filed Jul. 24, 2018, entitled "Improving Music for Repetitive Motion Exercises," which claims the benefit of priority of patent application Ser. No. 62/536,264; , 240 (now U.S. Pat. No. 10,556,087, issued Feb. 11, 2020), to McCarthy et al. No. 16/743,946, filed Jan. 15, 2020, entitled "Improving Music for Motion Exercise," and the specification of these patent applications and patents. each of which is incorporated herein by reference as if set forth herein in its entirety.

ミラーニューロンの神経可塑性、同調、および科学は、開示される実施形態を裏付ける、基礎的な科学的構成要素である。同調は、外部のリズミカルな刺激に応答して脳の運動中枢が活性化することに対する用語である。音声-運動神経路が、運動に関与する脳の一部である網様体脊髄路内に存在することが研究で示されている。これらの経路を介した運動のプライミングおよびタイミングにより、運動パターンを引き起こすために聴覚系と結合する運動系の能力が示されている(RossignolとMelville、1976年)。同調プロセスは、歩行速度を効果的に上げること(Cha、2014年)、歩行の変動を減少させること(Wright、2016年)、および転倒危険性を下げること(Trombetti、2011年)が示されている。神経可塑性は、以前から存在する神経系の接続を強化することで、時間と共に個人が新しい技能を獲得するのを可能とする、脳の能力を指す。音楽は脳の特定の運動領において変化を手助けすることが研究で立証されており、これは、音楽は神経可塑性を促進させられることを示している(Mooreなど、2017年)。ミラーニューロンは、あなたが動作を行った場合、および別の人が動作を行っているのをあなたが観察した場合の両方で発火する。したがって、別の人が動作を行っているのをあなたが見た場合、あなたの脳は、その活動を行っているのがあなたであるかのように反応する。これにより、私たちは模倣することで振る舞いを学習することができる。これは開示される実施形態の文脈において重要である。なぜなら、患者が拡張現実での人間のシミュレーションを観察している際に、患者はミラーニューロンを用いてそれらの動作を模倣することができるからである。 The neural plasticity, entrainment, and science of mirror neurons are the fundamental scientific building blocks behind the disclosed embodiments. Entrainment is a term for the activation of motor centers in the brain in response to external rhythmic stimuli. Studies have shown that the voice-motor nerve tract lies within the reticular spinal tract, the part of the brain involved in movement. The priming and timing of movement through these pathways has demonstrated the ability of the motor system to couple with the auditory system to induce movement patterns (Rossignol and Melville, 1976). Entrainment processes have been shown to effectively increase walking speed (Cha, 2014), reduce gait variability (Wright, 2016), and reduce fall risk (Trombetti, 2011). there is Neuroplasticity refers to the brain's ability to strengthen pre-existing nervous system connections, allowing individuals to acquire new skills over time. Studies have demonstrated that music facilitates changes in specific motor areas of the brain, indicating that music can promote neuroplasticity (Moore et al., 2017). Mirror neurons fire both when you perform an action and when you observe another person performing an action. So when you see another person performing an action, your brain reacts as if you were the one performing the activity. This allows us to learn behavior by imitation. This is important in the context of the disclosed embodiments. This is because the patient can use mirror neurons to imitate those movements while observing a human simulation in augmented reality.

1つまたは複数の実施形態によれば、ANRシステムおよび方法は、ANRシステムへの入力として受信した患者または療法士の例外条件に応答して、指定されたサイズより小さい、もしくは大きい人々もしくは物体を画像/ビデオから除去、および/または、画像/ビデオへ追加するように画像/ビデオを処理するよう構成される。そのような例外は、シーンのコンプレクシティを低減するための指示や、シーンのコンプレクシティを増やす人々/物体でありうる遮蔽を取り込む療法士の指示などの患者の反応でありうる。実施形態は、セッションデータそのものに加えて、患者または療法士のすべての例外条件のすべてのデータの記録に対応することができる。 According to one or more embodiments, the ANR system and method responds to patient or therapist exception conditions received as input to the ANR system to detect people or objects that are smaller or larger than a specified size. It is configured to process the images/videos to remove from and/or add to the images/videos. Such exceptions may be patient reactions such as instructions to reduce scene complexity or therapist instructions to incorporate occlusions which may be people/objects to increase scene complexity. Embodiments can accommodate recording of all data for all exceptional conditions of a patient or therapist in addition to the session data itself.

1つまたは複数の実施形態によれば、ANRシステムおよび方法は、このシステムを用いて療法士を離れた場所にいる患者につなぐことを可能とするテレプレゼンス方式を含む。テレプレゼンス方式は、患者と療法士が同じ場所にいる場合に体験するすべての局所的機能に完全に対応することに加えて、人々/物体のAR 3D動的モデルに対する患者の生体力学的動作の追跡を含む。 According to one or more embodiments, the ANR system and method includes a telepresence scheme that allows the therapist to connect with the patient at a remote location using the system. In addition to fully accommodating all local functions experienced by patients and therapists when they are co-located, the telepresence approach provides a close-up of the patient's biomechanical movements to AR 3D dynamic models of people/objects. Including tracking.

AR 3D動的モデルは、ミラーニューロンの神経可塑性、同調、および科学の基本プリンシパルに基づいてアニメ化されたAR/VRの視覚的シーンの患者への提示を生成して、臨床目標または訓練目標に向けた成果を容易にするための、ANRシステムおよび方法のソフトウェアベースのアルゴリズムプロセスである。テレプレゼンス方式は、本発明を用いて、療法士と離れた場所にいる患者の間の対話式のビデオリンクを作動させる能力を提供するよう構成される。テレプレゼンス方式は、本発明を用いて、離れた場所にいる患者からの画像/ビデオを投影して、AR 3D動的モデルで患者の相対的な位置を示すことに対応する。また、テレプレゼンス方式は、療法士がARモデルをリアルタイムで調整して(空間的位置、またはどの項目が利用可能であるか)、セッションへの修正を可能とする能力も提供することができる。テレプレゼンス方式は、療法士が患者をモデルと比べて診ることも可能とする。 AR 3D dynamic models generate patient presentations of animated AR/VR visual scenes based on mirror neuron neuroplasticity, entrainment, and the fundamental principles of science to meet clinical or training goals. Software-based algorithmic processes of ANR systems and methods to facilitate targeted outcomes. A telepresence system is configured using the present invention to provide the ability to activate an interactive video link between a therapist and a patient at a remote location. Telepresence corresponds to using the present invention to project images/videos from a patient at a distance to show the patient's relative position in the AR 3D dynamic model. The telepresence method can also provide the ability for the therapist to adjust the AR model in real time (spatial location or which items are available) to allow modifications to the session. Telepresence also allows the therapist to see the patient in comparison to a model.

図32は、閉ループフィードバックを使用して人を測定、分析し、人に対して作用して、臨床目標または訓練目標に向けた成果を容易にする例示のANRシステム3200の主な構成要素の概念的概要を描写している。ANRシステム3200は、上述したシステム100の様々なハードウェア構成要素および/またはソフトウェア構成要素を用いて実現可能であることを理解されたい。示されるように、ANRシステムは、歩行パラメータ、環境、コンテキスト/ユーザの意図(過去の実行を含む)、生理学的パラメータ、および結果に対するリアルタイムフィードバック(例えば、閉ループでのリアルタイムの意思決定)に関連する入力を測定または受信する。これらの入力のうちの1つ、または組み合わせを、これらの情報の分析、およびこれらの情報への作用を制御する臨床的思考アルゴリズムモジュール(CTA)3208へと送ることができる。一部の実施形態では、リアルタイムフィードバックの例は、ユーザの歩行の尺度の測定された品質(例えば、対称性、安定性、歩行サイクル時間の分散)がモデル化された安全性閾値を超えたとCTA3208が判定することで、これにより新しいキューが付けられた応答がもたらされる。そのようなキューが付けられた応答は、視覚的かつ音声的で、例えば、メトロノーム音声層を追加することで音楽のビートの突出を増幅して、モデル化するARシーンを修正する、またはユーザをより安全な歩行速度および運動の挙動へと向かわせる。 FIG. 32 is a conceptual illustration of the main components of an exemplary ANR system 3200 that uses closed-loop feedback to measure, analyze, and act on people to facilitate outcomes toward clinical or training goals. It depicts a general overview. It should be appreciated that ANR system 3200 can be implemented using various hardware and/or software components of system 100 described above. As shown, the ANR system relates to real-time feedback on gait parameters, environment, context/user intent (including past performance), physiological parameters, and outcomes (e.g., closed-loop, real-time decision making). Measure or receive input. One or a combination of these inputs can be sent to a clinical thinking algorithm module (CTA) 3208 that controls the analysis of and actions on this information. In some embodiments, an example of real-time feedback is that a measured quality of a user's gait measure (e.g., symmetry, stability, gait cycle time variance) exceeded a modeled safety threshold. determines that this results in a new queued response. Such cued responses can be both visual and audio, e.g., by adding a metronome audio layer to amplify the prominence of musical beats, modify the AR scene it models, or Toward safer gait speeds and motor behaviors.

CTAモジュール3208において、ANRシステムにより行われる動作は、入力の分析に基づいて規定される。動作は、音楽(または他の構成要素)、リズム、音の可聴化、話された単語、拡張現実、仮想現実、拡張された音声、または触覚フィードバックを含む、各種の刺激の形態で患者へ出力することができる。図32に示されるように、様々な入力や結果などに関連して批判的思考アルゴリズムによりなされる決定は、患者への出力を動的に生成/修正するようプログラムされたAR/AA出力モデル化モジュール3210へ提供される。出力は、視覚的出力装置および/もしくは音声出力装置、ならびに/または触覚フィードバック装置などの1つまたは複数の出力装置3220を介して患者へ与えられる。例えば、AR視覚コンテンツは、患者が装着しているARグラス3222へ出力することができる。拡張された音声コンテンツは、音声スピーカーまたはヘッドフォン3225を介して患者へ与えることができる。理解されるように、他の適切な視覚的表示装置または音声表示装置を、開示される実施形態の範囲を逸脱することなく使用することができる。さらに、システムの様々な要素が図32に別々に示されているが、システムの様々な態様の特徴および機能は組み合わせられることを理解されたい。 In the CTA module 3208, actions taken by the ANR system are defined based on analysis of the input. Movements are output to the patient in the form of various stimuli, including music (or other components), rhythm, sonification of sounds, spoken words, augmented reality, virtual reality, augmented speech, or tactile feedback. can do. As shown in FIG. 32, decisions made by the critical thinking algorithm in relation to various inputs, outcomes, etc., are programmed AR/AA output modeling to dynamically generate/modify outputs to the patient. Provided to module 3210 . Output is provided to the patient via one or more output devices 3220 such as visual and/or audio output devices and/or tactile feedback devices. For example, AR visual content can be output to AR glasses 3222 worn by the patient. Enhanced audio content can be provided to the patient via audio speakers or headphones 3225 . As will be appreciated, other suitable visual or audio displays may be used without departing from the scope of the disclosed embodiments. Additionally, although various elements of the system are shown separately in FIG. 32, it should be understood that the features and functions of various aspects of the system may be combined.

この医療/治療システムにおける臨床的思考アルゴリズムモジュール3208は、上肢、下肢、動揺、姿勢安定性、下垂足、動的安定性、呼吸、口の動き、呼吸、持久力、心拍数訓練、呼吸頻度、オプティカル・フロー、境界支持訓練、戦略訓練(くるぶし、膝、臀部)、アトラクター結合、筋発火、訓練最適化、および歩行を含むがこれらに限定されない、運動機能の回復、維持、または強化を重視する批判的思考アルゴリズムを実行するよう構成することができる。また、これらのCTAのうちの1つまたは複数は、類似した目標を共有する他の介入と同期させて、または組み合わせて実装することもできる。例として、機能的電気刺激、脳深部刺激、経皮的電気神経刺激(TENS)、ガンマ周波数音声同調(20Hz~50Hz)、または他の電気的刺激システムと併用してCTAを実装することも含まれる。さらに、投薬およびCTAの操作を痙縮抑制薬と組み合わせることもできる、または投薬を神経毒の注入と併用することもできる。例えば、CTAは、こうした介入がその効果が最大となることが示されている時間帯に適用する、もしくは開始することができる、または、運動系のプライミングの方法としてこうした介入の効果が最大となる時点に到達する前に使用することもできる。 The clinical thinking algorithm module 3208 in this medical/treatment system includes: arm, leg, sway, postural stability, foot drop, dynamic stability, respiration, mouth movement, respiration, endurance, heart rate training, respiration frequency, Emphasis on recovery, maintenance, or enhancement of motor function including, but not limited to, optical flow, boundary support training, strategic training (ankles, knees, hips), attractor coupling, muscle firing, training optimization, and gait It can be configured to run a critical thinking algorithm that Also, one or more of these CTAs may be implemented synchronously or in combination with other interventions that share similar goals. Examples include implementing CTA in conjunction with functional electrical stimulation, deep brain stimulation, transcutaneous electrical nerve stimulation (TENS), gamma frequency voice entrainment (20 Hz-50 Hz), or other electrical stimulation systems. be Additionally, medication and manipulation of CTA can be combined with antispasticity drugs, or medication can be combined with infusion of neurotoxins. For example, CTA can be applied or initiated during times when such interventions have been shown to be most effective, or as a method of priming the motor system, where such interventions are most effective. It can also be used before the time is reached.

AANRシステム入力
ANRシステム3200への入力は、システムが測定、分析を行い、連続ループで作動して、臨床目標または訓練目標に向けた成果を容易にできるようにする上で重要である。
AANR System Inputs Inputs to the ANR system 3200 are important to allow the system to measure, analyze and operate in a continuous loop to facilitate outcomes towards clinical or training goals.

システムで入力を受信することには、センサを用いて人の運動を測定して運動の生体力学的パラメータを判定する(例えば、時間的、空間的、および左右の比較)ことを含みうる。こうしたモーションセンサは、体のどこにでも設置することができて、一つのセンサまたは多くのセンサとすることもできる。他の入力パラメータを測定するのに、他の種類のセンサを使うこともできて、これには呼吸数、心拍数、酸素レベル、体温、脳の自発的な電気的活動を記録する脳波図(EEG)、心臓の電気的活動を測定する心電図(ECGまたはEKG)、骨格筋により生み出される電気的活動を評価および記録する筋電図(EMG)、多くの場合で皮膚の光吸収の変化を測定するパルスオキシメータを用いて組織の微小血管床における血液量の変化を検出する光電式指尖容積脈波(PPG)、光学的慣性計測装置、ビデオカメラ、マイク、加速度計、ジャイロスコープ、赤外線、超音波、レーダー、RF動き検出、GPS、気圧計、RFID、レーダー、湿度、または生理学的パラメータもしくは生体力学的パラメータを検出する他のセンサを含みうる。例えば、図32に示される例示のANRシステム3200では、歩行パラメータは1つまたは複数のセンサ3252、例えば、IMU、足蹠センサ、スマートフォンセンサ(例えば加速度計)、環境センサなどを用いて測定することができる。さらに、生理学的パラメータは、1つまたは複数のセンサ3254、例えば、PPG、EMG/EKG、呼吸数センサなどを用いて測定することができる。 Receiving input with the system can include using sensors to measure movement of a person to determine biomechanical parameters of movement (eg, temporal, spatial, and side-to-side comparisons). These motion sensors can be placed anywhere on the body and can be one sensor or many. Other types of sensors can also be used to measure other input parameters, including respiratory rate, heart rate, oxygen levels, body temperature, and an electroencephalogram (EEG), which records spontaneous electrical activity in the brain. EEG), electrocardiogram (ECG or EKG), which measures the electrical activity of the heart, electromyography (EMG), which assesses and records the electrical activity produced by skeletal muscle, often measures changes in light absorption in the skin Photoplethysmography (PPG), optical inertial measurement devices, video cameras, microphones, accelerometers, gyroscopes, infrared, It may include ultrasound, radar, RF motion detection, GPS, barometer, RFID, radar, humidity, or other sensors that detect physiological or biomechanical parameters. For example, in the exemplary ANR system 3200 shown in FIG. 32, gait parameters may be measured using one or more sensors 3252, such as IMUs, footpad sensors, smartphone sensors (e.g., accelerometers), environmental sensors, etc. can be done. Additionally, physiological parameters can be measured using one or more sensors 3254, such as PPG, EMG/EKG, respiration rate sensors, and the like.

さらに、所望する結果、使用環境、過去のセッションのデータ、他の技術、および他の環境条件に関するコンテキスト情報をCTAモジュールへの入力として受信してCTAの応答を調整することができる。例えば、図32に示されるように、コンテキスト情報3258および環境入力3256情報は、CTA3208の操作をさらに知らせる入力として受信することができる。コンテキスト情報を用いる例は、ユーザの歩行パターンについての過去からの情報を人工知能(AI)または機械学習(ML)システムと併用して、患者により個人に合わせた臨床目標および動作を与えることができることである。これらの目標は、1分あたりのステップ数、歩行速度、心拍数の変動、酸素消費量(VO2 max)、呼吸数、セッションの長さ、非対称性、変動性、歩いた距離、または所望の心拍数に対する制限等の目標パラメータを修正することもできる。 Additionally, contextual information regarding desired results, usage environment, past session data, other techniques, and other environmental conditions can be received as inputs to the CTA module to tailor the CTA's response. For example, as shown in FIG. 32, contextual information 3258 and environmental input 3256 information may be received as inputs that further inform the operation of CTA 3208. An example of using contextual information is that historical information about a user's walking patterns can be used in conjunction with artificial intelligence (AI) or machine learning (ML) systems to give patients more personalized clinical goals and behaviors. is. These goals may be steps per minute, walking speed, heart rate variability, oxygen consumption (VO2 max), respiratory rate, session length, asymmetry, variability, distance walked, or desired heart rate. Target parameters, such as limits on numbers, can also be modified.

さらに、Bluetooth Low Energy (BLE)ビーコン、または、無線三角測量や到来角などの他の無線近接技術を用いて環境情報を検出し、AR 3D動的モデルに対する患者の視野の中で、検出された場所に応じて人々/物体が出現する、および/または消えることを無線式ロケーショントリガーで容易にすることができる。一部の実施形態では、ANRシステムにより出力されるAR 3D動的モデルは、療法士および/またはビーコントリガーにより制御して、患者に対する誘導要件を変える、または維持することができる。これらのトリガーは、無線式ビーコントリガーに加えて追加のトリガーを提供するために、上述した歩行または生理学的データと共に使用することもできる。例えば、IMU製品からの歩行データフィードバックにより、AR 3D動的モデルのソフトウェアプロセスにおいて変化を生じさせる能力をANRシステム3200に提供する歩行フィードバックループが可能となる。 In addition, Bluetooth Low Energy (BLE) beacons or other wireless proximity technologies such as wireless triangulation and angle of arrival are used to detect environmental information, and in the patient's field of view to the AR 3D dynamic model, detected Wireless location triggers can facilitate the appearance and/or disappearance of people/objects depending on location. In some embodiments, the AR 3D dynamic model output by the ANR system can be controlled by the therapist and/or beacon triggers to change or maintain guidance requirements for the patient. These triggers can also be used in conjunction with the ambulation or physiological data described above to provide additional triggers in addition to the wireless beacon triggers. For example, gait data feedback from an IMU product enables a gait feedback loop that provides the ANR system 3200 with the ability to make changes in the software process of the AR 3D dynamic model.

A臨床的思考アルゴリズム
1つまたは複数の実施形態によれば、CTAモジュール3208は、適用される治療を制御して臨床目標または訓練目標に向けた成果を容易にするよう構成されている、臨床的思考アルゴリズムを実行する。臨床目標には図18から図31に関連して記載されたものなどの項目が含まれうるが、更なる例として、アルツハイマー病、認知症、双極性障害、および統合失調症における動揺への介入、ならびに訓練目標/身体活動目標が挙げられる。本章では、CTAにより決定された適切なリハビリテーション応答を伝えるのに使用できる様々な非限定の例示の手法、例えば、リズミカルなテンポや同期されたAR視覚的シーンを調節すること、が論じられる。こうした手法のそれぞれは、CTA単体を用いて、または互いに組み合わせて実装することもできる。1つまたは複数の実施形態では、システム3200は反復的運動行為に対してはCTAを同調原理と組み合わせるよう構成することができて、他の場合は、他の目標へ向けてこうした手法を互いに組み合わせることができる。
A Clinical Thinking Algorithm According to one or more embodiments, the CTA module 3208 is a clinical thinking algorithm configured to control the applied therapy to facilitate outcomes towards clinical or training goals. Execute thought algorithms. Clinical goals can include items such as those described in connection with FIGS. 18-31, but further examples include interventions for agitation in Alzheimer's disease, dementia, bipolar disorder, and schizophrenia. , as well as training goals/physical activity goals. In this section, various non-limiting example techniques that can be used to convey appropriate rehabilitation responses determined by CTA, such as adjusting rhythmic tempo and synchronized AR visual scenes, are discussed. Each of these approaches can also be implemented using CTA alone or in combination with each other. In one or more embodiments, the system 3200 can be configured to combine CTA with entrainment principles for repetitive motor activity, and otherwise combine these techniques with each other toward other goals. be able to.

例として、制限しないが、ANRシステム3200のCTAモジュール3208は、生体力学データ、生理学的データ、およびコンテキストの組み合わせを利用して、AR/AA出力インタフェースを介して出力された仮想トレッドミルを作成するよう構成することができる。トレッドミルが誰かのために物理的ベルトの動きと同じペースを保っている間、仮想トレッドミルは同調原理に従いCTAを用いて動的に調整されて、他の運動介入と同様に人の歩行または運動のペースを独立して調節する。しかしながら、個人を前述した生体力学的目標へ向かわせるために、リズミカルな刺激を使用するのに加えて、または代えて、仮想トレッドミルを患者の同調に基づいて生成し、上で目標パラメータとしてリストに記載されたものなどの目標パラメータへ向けて動的に制御することができる。 By way of example, and not limitation, the CTA module 3208 of the ANR system 3200 utilizes a combination of biomechanical data, physiological data, and context to create a virtual treadmill that is output via the AR/AA output interface. can be configured as follows: While the treadmill keeps the same pace as the movement of a physical belt for someone, the virtual treadmill can be dynamically adjusted using CTA according to the entrainment principle to allow a person to walk or walk as well as other exercise interventions. Independently regulate the pace of exercise. However, in addition to or instead of using rhythmic stimuli to direct the individual towards the aforementioned biomechanical goals, a virtual treadmill can be generated based on the patient's entrainment, listed above as a goal parameter. can be dynamically controlled toward target parameters such as those described in .

目標パラメータは、臨床医、ユーザ、履歴データ、もしくは基本的状態からの入力に基づいて、または臨床的に意味のある度合いに向けて、設定することもできる。更なる目標パラメータは、心疾患、喘息、COPD、転倒防止、筋骨格疾患、変形性関節症、一般的な老化などの特定の状態に特有の、運動の長さ、期間、および強度に対する勧告により規定することができる、または勧告に従うことができる。 Target parameters can also be set based on input from the clinician, user, historical data, or baseline conditions, or to a degree that is clinically meaningful. Additional target parameters are recommendations for length, duration, and intensity of exercise specific to particular conditions such as cardiovascular disease, asthma, COPD, fall prevention, musculoskeletal disease, osteoarthritis, and general aging. can be prescribed or can be recommended.

本明細書にはさらに、ANRシステム3200の例示の実施形態が記載され、この実施形態では、CTAモジュール3208は、生体力学データ、生理学的データ、およびコンテキストを利用して、仮想トレッドミルとAR/AA出力インタフェース3220を介して出力されたリズミカルな聴覚刺激の形態で、歩行訓練治療を提供するよう構成される。 Further described herein is an exemplary embodiment of the ANR system 3200, in which the CTA module 3208 utilizes biomechanical data, physiological data, and context to provide virtual treadmill and AR/ It is configured to provide gait training therapy in the form of rhythmic auditory stimuli output via AA output interface 3220 .

図37は、ANRシステム3200を用いて患者へ歩行訓練治療を提供する例示のルーチン3750を示すプロセスフロー図である。図38は、開示される主題の例示の実施形態に係る、歩行訓練ルーチン3750を実行するANRシステム3200の態様を概念的に示す、システムおよびプロセスを混合した図である。示されるように、センサ3252、具体的には足に取り付けられたIMUは、CTAモジュール3208へ提供される歩行パラメータに関連するセンサデータをキャプチャする。さらに、音声エンジンを備えるAA/ARモデル化要素3210はCTAからの入力を受信し、リズミカルなキューが付けられた音楽コンテンツ、対話式の音声ガイダンス、空間的な音声効果処理のうちの1つまたは複数を含む、キューが付けられた音声アンサンブルを生成するよう構成される。同様に、AR/VRモデル化エンジン(AR 3D動的モデルとも呼ばれる)を備えるAA/ARモデル化要素3210が、CTAからの入力を受信するのが示されており、仮想のAR登場人物および物体(例えば、仮想の歩いている人)、背景運動アニメーション(例えば、仮想のトレッドミル、ステップ/足跡、およびアニメーション)、ならびに、シーンの照明および陰影のうちの1つまたは複数を含む、キューが付けられた視覚的アンサンブルを生成するよう構成される。 FIG. 37 is a process flow diagram illustrating an exemplary routine 3750 for using the ANR system 3200 to provide gait training therapy to a patient. FIG. 38 is a mixed system and process diagram conceptually illustrating aspects of an ANR system 3200 performing a gait training routine 3750, in accordance with an exemplary embodiment of the disclosed subject matter. As shown, sensors 3252 , specifically foot-mounted IMUs, capture sensor data related to walking parameters that are provided to CTA module 3208 . In addition, an AA/AR modeling element 3210 comprising a voice engine receives input from the CTA and one of rhythmically cued musical content, interactive voice guidance, spatial voice effects processing, or configured to generate a cueed audio ensemble comprising a plurality; Similarly, an AA/AR modeling element 3210 comprising an AR/VR modeling engine (also referred to as an AR 3D dynamic model) is shown receiving input from the CTA to create virtual AR characters and objects. (e.g., virtual walking person), background motion animations (e.g., virtual treadmill, step/footprint, and animation), and one or more of scene lighting and shading. configured to generate a visual ensemble with

図39は、ANRシステム3200の例示の音声出力装置3225および拡張音声生成要素をより詳細に概念的に示す、システムおよびプロセスを混合した図である。一実施形態では、図39に示されるように、AA装置は、例えばステレオマイクを用いて環境音をキャプチャすることができる。また、AA装置はステレオトランスデューサを用いて音声出力を生成することもできる。また、AA装置は頭部装着式IMUも備えうる。また、理解されるように、AA装置はAA/ARモジュール3210から受信した拡張された音声コンテンツを単独で、または環境音などの他のコンテンツと共に受信、処理、および出力する音声信号処理用のハードウェア構成要素およびソフトウェア構成要素も備えうる。示されるように、CTAモジュール3208は足に取り付けられたIMUおよび頭部装着式IMUを含むセンサから受信したものを含む歩行パラメータを受信する。さらに、一実施形態では、CTAはPPGセンサなどの他のセンサ装置からの生理学的パラメータに関連するデータを受信する。 FIG. 39 is a mixed system and process diagram conceptually illustrating in more detail an exemplary audio output device 3225 and enhanced audio generation elements of the ANR system 3200 . In one embodiment, as shown in FIG. 39, the AA device can capture ambient sounds using, for example, stereo microphones. AA devices can also use stereo transducers to produce audio output. The AA device may also include a head-mounted IMU. It will also be appreciated that the AA device may also include hardware for audio signal processing that receives, processes, and outputs the enhanced audio content received from the AA/AR module 3210 alone or in conjunction with other content such as environmental sounds. Ware components and software components may also be provided. As shown, the CTA module 3208 receives gait parameters, including those received from sensors including foot-mounted IMUs and head-mounted IMUs. Additionally, in one embodiment, the CTA receives data related to physiological parameters from other sensor devices, such as PPG sensors.

図37に戻ると、ステップ3700において、ANRシステム3200が校正を行って、ストライド長、速度、歩行サイクル時間、対称性などの予備的歩行データを収集する際に、AR/AA出力装置3220およびIMUセンサ3252を装着した患者が歩き始める。ステップ3701において、CTAモジュール3208は音楽再生および表示される仮想ARシーンの両方で基礎となるリズミカルなテンポを決定する。例えば、基礎となるリズミカルなテンポは、図18に関連して説明されたように、CTAにより決定することができる。 Returning to FIG. 37, in step 3700, the AR/AA output device 3220 and IMU are controlled as the ANR system 3200 calibrate to collect preliminary gait data such as stride length, velocity, gait cycle time, symmetry, etc. A patient wearing sensor 3252 begins to walk. At step 3701, the CTA module 3208 determines the underlying rhythmic tempo for both music playback and the displayed virtual AR scene. For example, the underlying rhythmic tempo can be determined by CTA, as described in connection with FIG.

ユーザの歩行サイクル時間を入力として、ステップ3702において、音声エンジン(すなわち、AR/AAモデル化モジュール3210の音声モデル化要素)が、ビートの突出を増幅するために、メトロノーム音などの補助的なリズミカルなキューと共にテンポが調整された対応する音楽を生成する。 With the user's walk cycle time as input, in step 3702 the speech engine (i.e., the speech modeling element of the AR/AA modeling module 3210) uses an auxiliary rhythmic sound, such as a metronome sound, to amplify the spurs of the beat. Generate corresponding music with adjusted tempo along with appropriate cues.

ステップ3703において、視覚的ARエンジン(すなわち、AR/AAモデル化モジュール3210の視覚的モデル化要素)が、ビデオゲーム業界で理解されるもののような、動く仮想シーンを生成する。より詳細には、一実施形態では、仮想シーンは、視覚的シーンの要素を音楽およびリズムテンポと同期するために、CTAの制御下で提示されて音声エンジンと共通の基準タイミングを共有する視覚的要素を含む。本明細書に記載されるARシーンは仮想トレッドミルまたは仮想の人や足跡を含むが、ARシーンは、仮想トレッドミル、仮想の歩いている人、仮想の群衆や動的な仮想シーンなどの、本明細書で記載される様々な例のうちの任意の1つまたは複数とすることもできる。 At step 3703, a visual AR engine (ie, the visual modeling elements of AR/AA modeling module 3210) generates a moving virtual scene, such as that understood in the video game industry. More specifically, in one embodiment, a virtual scene is presented under the control of the CTA to share a common reference timing with the audio engine in order to synchronize the elements of the visual scene with the music and rhythmic tempo. contains elements. Although the AR scenes described herein include virtual treadmills or virtual people and footprints, AR scenes include virtual treadmills, virtual walking people, virtual crowds, dynamic virtual scenes, etc. It can also be any one or more of the various examples described herein.

ステップ3704および3705において、音楽/リズムおよび視覚コンテンツがイヤフォン3225を備える軽量ヘッドアップディスプレイ(例えば、ARゴーグル3222)などのAR/AA装置3220を用いて患者へ供給される。CTAの制御下で、患者はステップ3706および3707において、音声エンジンにより生成された、画面に映らない音声キューにより、治療に関する指示を受ける。これには、患者が視覚的シーンおよび音声体験に慣れて練習を行うようになるための歩行前訓練の予告を含みうる。 At steps 3704 and 3705, music/rhythm and visual content is delivered to the patient using an AR/AA device 3220 such as a lightweight head-up display with earphones 3225 (eg AR goggles 3222). Under the control of the CTA, the patient is instructed regarding treatment in steps 3706 and 3707 via off-screen audio cues generated by the audio engine. This may include a pre-ambulatory exercise preview to familiarize the patient with the visual scene and audio experience and practice.

図40は、患者が同調を行う、提示される例示のAR仮想シーン4010を示す。示されるように、シーンは、患者の「前方を」歩き、そのステップおよび歩行運動が音楽テンポに同期される別の人の動く3D画像を含みうる。より詳細には、一実施形態では、AR登場人物はCTAおよび音声エンジンにより生成された音声コンテンツの基礎となるビートテンポと同じテンポに合わせて歩く。この例では、患者の目標は、その歩みが音声とリズミカルに、かつ登場人物と視覚的に一致することでありうる。さらに、図40に示されるように、ARシーンは左足、右足を示すLおよびRなどの更なるキューを有する複数の足跡を含みうる。 FIG. 40 shows a presented exemplary AR virtual scene 4010 to which the patient tunes. As shown, the scene may include a moving 3D image of another person walking "in front" of the patient, whose steps and walking movements are synchronized to the musical tempo. More specifically, in one embodiment, the AR characters walk to the same tempo as the underlying beat tempo of the audio content generated by the CTA and speech engine. In this example, the patient's goal may be for their steps to match rhythmically with the audio and visually with the characters. Additionally, as shown in FIG. 40, an AR scene may contain multiple footprints with additional cues such as L and R indicating left foot, right foot.

足跡を含むシーンは、規定された速度で患者へ向かって仮想的に動いていることがあり、一方で、仮想の登場人物は患者から離れる方向へ患者の前方を歩いている。一実施形態では、シーンは、歩行サイクル時間に基づいて動いていることがあり、GCT(右足)/2*60=CTAにより決定された音楽テンポ、である。さらに、ARシーンに関連して生成される更なるキューには、視覚的キューを補強するリズミカルな音声キューを含みうる。例えば、一つの効果的な補強方法には、AAシステム3210がリズムと同期した仮想登場人物の足音の音を生成すること、共通のビートに合わせた集団行進をシミュレーションすることを含みうる。リズミカルな音声刺激を伴う視覚的要素の動作の時間を調整することに加えて、視覚刺激に基づいて生成されるリズミカルな音声要素を患者に与えることで、システムはさらに、同調およびミラーニューロンの基本的治療構想の中での好循環を強固にする。 A scene containing footprints may be virtually moving toward the patient at a prescribed speed, while a virtual character is walking in front of the patient away from the patient. In one embodiment, the scene may be moving based on the gait cycle time, GCT(right foot)/2*60=musical tempo determined by CTA. Additionally, additional cues generated in conjunction with the AR scene may include rhythmic audio cues that reinforce the visual cues. For example, one effective method of reinforcement may involve the AA system 3210 generating rhythmically synchronized footstep sounds of virtual characters, simulating a mass march to a common beat. In addition to timing the actions of the visual elements with rhythmic audio stimuli, by giving the patient rhythmic audio elements generated based on the visual stimuli, the system further enhances the fundamentals of entrainment and mirror neurons. consolidate a virtuous circle within the therapeutic concept.

更なる例として、図41は、患者が同調を行う、提示される例示のAR仮想シーン4110を示す。図41に示されるように、仮想トレッドミルを生成して、目標パラメータとして上でリストに記載されたものなどの目標パラメータに対する患者の同調に基づいて、動的に制御することができる。この例では、生成されたARトレッドミルはトレッドミル表面4115の運動をアニメ化しており、聴覚刺激のためにCTAにより規定されるものと同じテンポで仮想のステップを生成する。さらに、仮想トレッドミルの3Dアニメーションは、CTAの制御下で生成されたリズムへ同調しながら、同時に患者が視覚的目標として使用することのできる視覚的に強調表示されたステップまたはタイルを含みうる。したがって、この例では、患者の目標は、その歩みが音声とリズミカルに、かつアニメ化された目標ステップと視覚的に一致することでありうる。図41にさらに示されるように、アニメ化された足跡4120は、患者が後ろ向き歩行訓練運動を行っている場合には逆方向になりうる方向矢印により示される患者へ向かう方向へ動いている仮想トレッドミル4115の表面に示すことができる。さらに、目標ステップ4125L(左足のステップ)、および/または4125R(右足のステップ)を強調表示するアニメーションはそれぞれ、ユーザに対応する足(例えば、左または右)で歩くよう促すために、CTAのリズムと同期して強調表示される。さらに、本明細書にさらに記載されるように、図40~図41で示されるものなどの仮想シーンは、患者の同調余地(EP)および音声刺激への対応する変更に基づいて動的に調整することができる。仮想シーンに対する他の調整には、異なる歩行シナリオ、天気、表面、照明、および傾斜をシミュレーションするために仮想背景環境を変更することを含みうる。 As a further example, FIG. 41 shows a presented exemplary AR virtual scene 4110 to which the patient tunes. As shown in FIG. 41, a virtual treadmill can be created and dynamically controlled based on patient entrainment to target parameters such as those listed above as target parameters. In this example, the generated AR treadmill is animating the movement of the treadmill surface 4115, producing virtual steps at the same tempo as defined by the CTA for auditory stimulation. Additionally, the 3D animation of the virtual treadmill can include visually highlighted steps or tiles that the patient can use as a visual target while entraining to the rhythm generated under the control of the CTA. Thus, in this example, the patient's goal may be for their steps to match visually with the animated target steps, both rhythmically with the audio. As further shown in FIG. 41, the animated footprint 4120 is a virtual track moving in a direction toward the patient indicated by the directional arrow, which may be in the opposite direction if the patient is performing a backward walking training exercise. It can be shown on the surface of the red mill 4115. In addition, the animations highlighting the target step 4125L (left foot step) and/or 4125R (right foot step), respectively, are used to encourage the user to walk on the corresponding foot (e.g., left or right), to the rhythm of the CTA. is highlighted in sync with Moreover, as further described herein, virtual scenes such as those shown in FIGS. 40-41 dynamically adjust based on the patient's entrainment margin (EP) and corresponding changes to the audio stimuli. can do. Other adjustments to the virtual scene may include changing the virtual background environment to simulate different walking scenarios, weather, surfaces, lighting, and slopes.

ここで図37に戻ると、患者が歩き始めたら、ステップ3708において、患者の同調レベルを評価する際に用いるリアルタイムデータを生体力学センサ(例えば、センサ3252)が測定する。ステップ3709において、(例えば、図18で説明された)同調余地がCTAモジュール3208により決定され、どのように訓練セッションの目標が達成されるべきかを決定するために使用される。本開示のこれまでの実施形態で記載されたように、同調余地は、リズミカルな音声刺激および視覚的シーンを修正する基礎とすることができて、この修正はステップ3710において行われる。例えば、CTAは、患者の歩行サイクル時間の入力されるデータの履歴を、音声装置により患者へ供給されるビートのリズムの間隔と比較して分析する。同調余地に基づいて音声刺激を修正する例示の手法は、同様に上述された。一例では、ある期間にわたる患者のステップに対して算出されたEP値が規定されたEP値の許容範囲内にない場合、および/または充分に一貫していない場合、CTAモジュールはAA/ARモデル化モジュールにRASのテンポを調整して(例えば、下げて)、それに応じてARシーンの動作速度をRASと同期するように調整するよう指示することができる。更なる例では、充分なステップ時間がビート時間と同調している場合、患者はCTAにより同調していると考えられる。 Returning now to FIG. 37, once the patient begins to walk, at step 3708, a biomechanical sensor (eg, sensor 3252) measures real-time data for use in assessing the patient's level of entrainment. At step 3709, entrainment margins (eg, described in FIG. 18) are determined by the CTA module 3208 and used to determine how the goals of the training session should be achieved. As described in previous embodiments of the present disclosure, entrainment room can be the basis for modifying rhythmic audio stimuli and visual scenes, which is done in step 3710 . For example, the CTA analyzes the incoming data history of the patient's gait cycle time compared to the rhythmic intervals of the beats supplied to the patient by the audio device. Exemplary techniques for modifying audio stimuli based on entrainment margins were also described above. In one example, if the calculated EP values for the patient's steps over time are not within the specified EP value tolerances and/or are not sufficiently consistent, the CTA module performs AA/AR modeling. The module can be instructed to adjust (eg, slow down) the tempo of the RAS and adjust the motion speed of the AR scene accordingly to synchronize with the RAS. In a further example, the patient is considered to be in sync with the CTA if enough step times are in sync with the beat time.

同調したら、ステップ3711において、CTAは患者が目標へ到達したかどうかを評価する。目標に到達していない場合は、1つまたは複数の目標パラメータをステップ3712において調整することができる。例えば、一例では、CTAはRASテンポおよび関連するARシーン速度を目標テンポパラメータ(例えば、訓練目標/治療目標)と比較し、リズミカルなテンポおよび/またはシーン動作速度がこの比較を考慮して変更される。CTAモジュール3208が同調余地に基づいてリズミカルな聴覚刺激を調整することができる例示の方法が、例えば図18に関連して示され、上述されている。 Once entrained, in step 3711 the CTA evaluates whether the patient has reached the goal. If the goal has not been reached, one or more goal parameters may be adjusted at step 3712 . For example, in one example, the CTA compares the RAS tempo and associated AR scene speed to target tempo parameters (e.g., training/treatment goals) and the rhythmic tempo and/or scene motion speed is altered to account for this comparison. be. Exemplary ways in which the CTA module 3208 can adjust rhythmic auditory stimuli based on entrainment margins are shown, for example, in connection with FIG. 18 and described above.

例えば、患者が自分の訓練速度目標に到達していない場合、目標パラメータを修正することは、ステップ3712において音楽テンポを上げる、または下げることを含みうる。こうすることで、RASの作用機序を用いて、患者により速く、またはより遅く歩くよう促す。あるいは、別の訓練目標は、患者のストライド長を延ばすことでありえて、これは画像の動作速度パラメータを遅くすることで実現することができる。視覚的シーンを修正することで、患者は、ミラーリングの作用機序を用いて提示された視覚的な例をモデル化するよう促される。 For example, if the patient is not reaching his training speed goal, modifying the goal parameters may include increasing or decreasing the music tempo at step 3712 . In doing so, the mechanism of action of the RAS is used to encourage the patient to walk faster or slower. Alternatively, another training goal can be to lengthen the patient's stride length, which can be achieved by slowing the image motion speed parameter. Modifying the visual scene prompts the patient to model the visual example presented with the mechanism of action of mirroring.

音声出力および視覚的出力は互いに刺激を補強することを理解するのは重要であり、視覚的シーンはリズミカルな刺激に同期するように一緒に重ねられる。選択されたプログラム(例えば、CTA)に応じて、CTAモジュール3208は、治療目標を達成するように、視覚的シーンおよびリズミカルなテンポを動的に調整する。 It is important to understand that the audio and visual outputs reinforce each other's stimuli, and the visual scenes are layered together synchronously with the rhythmic stimulus. Depending on the program (eg, CTA) selected, the CTA module 3208 dynamically adjusts visual scenes and rhythmic tempo to achieve therapeutic goals.

前述の例は、ANRシステム3200がCTAモジュール3208を用いて、歩行訓練を促進するために、音楽テンポとARシーンの同期を生体力学的センサ入力に基づいてどのように制御できるかを示している。この実施形態の原理は、多くの病気の兆候およびリハビリテーションのシナリオへ適用可能であることを理解されたい。 The preceding example illustrates how the ANR system 3200 can use the CTA module 3208 to control the synchronization of music tempo and AR scenes based on biomechanical sensor input to facilitate gait training. . It should be appreciated that the principles of this embodiment are applicable to many disease indications and rehabilitation scenarios.

例示の構成では、仮想トレッドミルをANRシステム3200により生成して、酸素消費量の目標パラメータへ向けて患者の歩行を調節することができる。この例では、仮想トレッドミルが生成されて、同調を用いて酸素消費量または効率目標パラメータへ向けて歩行速度を調節するように制御される。図33は、V02 maxを目標パラメータとして、テンポ変更を暫定目標として用い、v02 maxに関連する生理学的変化を促すのに同調を用いて、ANRシステム3200を使用して行われるリアルタイムセッションを図により可視化したものである。図33は、このプロセスがリアルタイムでどのように動作するのかの例を示す。より詳細には、図33は、セッション中にANRシステムによりリアルタイムで測定、算出、および/または調整される、様々な顕著なデータ点およびパラメータ値を示す、グラフィカルユーザインタフェースである。示されるように、インタフェースの一番上は、セッションを通してリアルタイムで各ステップに対して算出される同調余地の値のグラフを示す。具体的には、一番上の棒状のものは、ステップごとに算出された個々のEPを示し、この例では、これはステップ時間間隔とビート時間間隔の間の位相相関である。EP=1の周囲の中央のゾ-ンは、ビートに合わせて充分に同調されたステップ、つまり、規定された範囲内のEP値を有するステップを表す。下にある次のウインドウは、パラメータが安全な範囲内にあるかどうかを示す、ステータスバーを提供する。下にある次のウインドウは、とりわけ、測定されたパラメータ、同調、他の前述した入力、およびCTAへのフィードバックに基づいて、CTAにより駆動されるリアルタイム応答を示す。具体的には、円形アイコンはアルゴリズム応答を表し、これにはテンポ変更とリズミカルな刺激のレベル(例えば音量)の変更の両方が含まれる。その下の棒状のものはテンポのみを示し、テンポはひとりでに変わる。下にある次のウインドウは、CTA応答に従って経時的に患者へ与えられるリズミカルな刺激のリアルタイムのテンポを示す。一番下のウインドウは、経時的に測定される酸素消費量と目標パラメータとを示す。図33には示されていないが、リズミカルな刺激に同期するように動かされてリズミカルな刺激のリアルタイムテンポに対する調整と同期するように動的に調整される視覚的要素を有する拡張現実シーン(例えば、仮想トレッドミル)が患者に提示されうることが理解される。AA/VRモジュール3210が視覚的アニメーションの速度および音声と同期するようにどのように構成することができるかの例には、表示される反復運動の速度と音声キューのテンポの間の関係を規定することが含まれうる。例えば、ビートテンポに基づいてトレッドミルの速度とステップの間隔を算出することで、音声要素と視覚的要素の間の関係が規定される。さらに、トレッドミルの基準位置、足跡のタイミング、およびビートと同期されたアニメーションが、ビートテンポを含むビートの出力時間に対して同期される。アニメーション業界で知られている時間スケール変更手法およびビデオフレーム補間手法を用いて、広範囲の同期された仮想シーンを、音声要素と視覚的要素の間の規定された関係に基づいてAA/VRモジュール3210によりプログラムでオンデマンドで生成することができる。 In an exemplary configuration, a virtual treadmill can be generated by the ANR system 3200 to adjust the patient's gait toward a target parameter of oxygen consumption. In this example, a virtual treadmill is generated and controlled using entrainment to adjust walking speed toward an oxygen consumption or efficiency target parameter. FIG. 33 graphically illustrates a real-time session conducted using the ANR system 3200 using V02 max as the target parameter, tempo change as the interim target, and entrainment to drive physiological changes associated with v02 max. It is a visualization. Figure 33 shows an example of how this process works in real time. More specifically, FIG. 33 is a graphical user interface showing various salient data points and parameter values that are measured, calculated and/or adjusted in real time by the ANR system during a session. As shown, the top of the interface shows a graph of entrainment margin values calculated for each step in real time throughout the session. Specifically, the top bar shows the individual EP calculated for each step, which in this example is the phase correlation between the step time interval and the beat time interval. The central zone around EP=1 represents steps that are well tuned to the beat, ie steps with EP values within the specified range. The next window below provides a status bar that indicates whether the parameters are within safe limits. The next window below shows the real-time response driven by the CTA based, among other things, on the measured parameters, tuning, other previously mentioned inputs, and feedback to the CTA. Specifically, circular icons represent algorithmic responses, which include both tempo changes and changes in the level of the rhythmic stimulus (eg, volume). The bar below it shows only the tempo, and the tempo changes by itself. The next window below shows the real-time tempo of the rhythmic stimulation given to the patient over time according to the CTA response. The bottom window shows oxygen consumption and target parameters measured over time. Although not shown in FIG. 33, an augmented reality scene (e.g., , virtual treadmill) may be presented to the patient. Examples of how the AA/VR module 3210 can be configured to synchronize with the speed of visual animation and audio include defining the relationship between the speed of displayed repetitive movements and the tempo of audio cues. can include doing For example, calculating treadmill speed and step spacing based on beat tempo defines the relationship between audio and visual elements. In addition, the treadmill reference position, footstep timing, and beat-synchronized animation are synchronized to the beat output time, including the beat tempo. AA/VR module 3210 generates a wide range of synchronized virtual scenes based on defined relationships between audio and visual elements using time-scaling and video frame interpolation techniques known in the animation industry. can be generated on demand programmatically by

図34は、7人の患者に対する第1訓練セッション中の代謝変化(破線で接続された2つのドットの組でそれぞれ表される)を表現しているグラフである。図34は、意図的に同調することで個人の酸素消費量を向上させられることを裏付けるデータを示す。この場合、グラフは、ANRシステムを用いた、リズムに合わせた訓練前とリズムに合わせた訓練後の人の酸素消費量(酸素量 ml/kg/meter)を示す。この図は平均で10%削減されることを示している。この結果は、同調プロセスにより持久力を向上させて、歩行している間のエネルギー消費を低減させるのが可能であることを示している。 FIG. 34 is a graph depicting metabolic changes (each represented by a set of two dots connected by a dashed line) during the first training session for seven patients. FIG. 34 shows data supporting that intentional tuning can improve an individual's oxygen consumption. In this case the graph shows a person's oxygen consumption (oxygen ml/kg/meter) before and after rhythmic training using the ANR system. This figure shows an average reduction of 10%. This result indicates that it is possible to improve endurance and reduce energy expenditure during walking through the entrainment process.

この上記のプロセスは、上述した様々な取りうる目標パラメータのそれぞれに対して同様に実行することができて(例えば、酸素消費量は心拍数などの別の目標と交換可能である)、図18から図31に関連して論じられた歩行または他の介入に対して行うことができる。 This above process can be similarly performed for each of the various possible target parameters described above (eg, oxygen consumption can be exchanged for another target such as heart rate) and FIG. to ambulation or other interventions discussed in connection with FIG.

1つまたは複数の実施形態によれば、ANRシステム3200は、人の運動に関するリアルタイムで測定される情報を、治療セッション中に患者へ出力されるAR画像および/または音楽コンテンツの構成要素(例えば、瞬間的なテンポ、リズム、ハーモニー、メロディなど)と比較するよう構成することができる。このことをシステムで利用して、同調パラメータの算出、位相同調の決定、または基本的な持ち越された特徴を規定することができる。例えば、AR画像は目標パラメータと同じ速度または歩調で動くこともできる。あるいは、画像のARに関連する動きを、人がどのように動くべきかと同期するように、リズミカルな刺激に同調させることもできる。 According to one or more embodiments, the ANR system 3200 converts real-time measured information about a person's motion into components of AR images and/or music content output to the patient during a treatment session (e.g., momentary tempo, rhythm, harmony, melody, etc.). This can be exploited by the system to calculate tuning parameters, determine phase tuning, or define basic carryover features. For example, the AR image can move at the same speed or pace as the target parameters. Alternatively, AR-related motion of images can be entrained to rhythmic stimuli to synchronize how a person should move.

AR 3D動的モデルの出力の例には、治療を行う人(本当の療法士)により開始される、患者の視野を歩く療法士(仮想の登場人物)または人(仮想の登場人物)を投影することが含まれうる。例えば、図35は、例えば当技術分野で既知のARグラスを用いて、ARを用いて患者またはトレーナーの前に投影される療法士またはコーチの図を示す。このAR 3D動的モデルは、一つまたは様々なCTAを用いて制御される。複数のCTAを組み合わせた場合、仮想療法士は図22に関連して示され説明された手法を用いて始めて、その後に図18に関連して示され説明されたような歩行訓練療法で進めることができる。あるいは、これらを二重タスクで同時に行うこともできる。これらの事例の間、仮想の登場人物は患者の健側と同様に円滑な動きで後方または前方へ歩いている、または動いているように、システムにより制御可能に表示することができる。これによりミラーニューロンを活性化させることができて、患側のニューロンは健側のニューロンの動作を反映するよう促される。このプロセスは、音声刺激を与えて仮想的な人および/または物理的な人をこの刺激に同期させることも含みうる。 Examples of AR 3D dynamic model output include projection of a therapist (virtual character) or person (virtual character) walking through the patient's field of view, initiated by the person giving the treatment (real therapist). can include doing For example, FIG. 35 shows a view of a therapist or coach projected in front of a patient or trainer using AR, eg using AR glasses known in the art. This AR 3D dynamic model is controlled using one or various CTAs. When combining multiple CTAs, the virtual therapist may begin with the technique shown and described in connection with FIG. 22, and then proceed with a gait training regimen as shown and described in connection with FIG. can be done. Alternatively, they can be dual-tasked at the same time. During these instances, the virtual character can be controllably displayed by the system as walking or moving backwards or forwards in a smooth motion similar to the patient's unaffected side. This can activate mirror neurons, prompting neurons on the affected side to mirror the behavior of neurons on the unaffected side. This process may also include providing an audio stimulus to synchronize the virtual and/or physical person with this stimulus.

別の例では、AR 3D動的モデルは、患者の前方、および/または脇にいる人々および/または人々と物体の一団の中、または周りを患者が歩いているシナリオをシミュレーションするよう構成することができる。例えば、図36AはARを用いて患者の前方に投影された人々の一団の図を示す。システムは、その人の基準値より速く、または遅く移動する人々の一団または人を投影して、患者に現実世界の環境で同様の速度で動く、または停止/開始するように促すよう構成することができる。人々の一団または人は、リズミカルな聴覚刺激のビート、または別の所望の目標に同調させることもできる。誘導する際の様々な難易度レベルをAR 3D動的モデルにより開始することができる。理解されるべきであるように、療法士、群衆、人、障害物、および同種のもののAR光景は、CTAの出力に応じてAR 3D動的モデルを用いて動的に調整することができる。 In another example, the AR 3D dynamic model is configured to simulate a scenario in which the patient walks in or around a group of people and/or people and objects in front of and/or to the side of the patient. can be done. For example, FIG. 36A shows a view of a group of people projected in front of a patient using AR. The system should be configured to project a group of people or individuals moving faster or slower than the person's baseline, prompting the patient to move or stop/start at a similar speed in a real-world environment. can be done. A group of people or individuals can also be tuned to the beat of a rhythmic auditory stimulus, or another desired target. Various difficulty levels in navigating can be initiated by the AR 3D dynamic model. As should be appreciated, the AR scene of therapists, crowds, people, obstacles, and the like can be dynamically adjusted using the AR 3D dynamic model according to the output of the CTA.

別の例では、AR 3D動的モデルは、患者が進むべき仮想障害物コースを実現する、コーンの配列の中、または周りを患者が歩いているシナリオをシミュレーションするよう構成することができる。コーンは治療環境における通常の障害物であるが、これの他の実施形態は、通常の日常生活の活動(例えば、食料品の買い出し)をシミュレーションするよう構成することができる。これらのコーンは、仮想障害物と共に、前方への歩行での方向変更のみよりも、それぞれの側へ横へステップしながらの歩行と後方への歩行による方向変更を促すことができる。ここでも、出現する、および/または消えるコーンをANRシステムに提示させるのに、無線式ビーコントリガーを使用することができる。ビーコンは、コーンに関連する人の場所が検出されるのに基づいて作動される。加えて、誘導時間および長さで様々な難易度レベルを開始することができる。この例での目標パラメータは、歩行速度または歩行の品質の尺度とすることができる。成功した誘導とは、仮想的にコーンにぶつかることなくコーンの周りを誘導することであろう。システムは、人が障害物をうまく回避して、歩行の品質が劣化(変動性の上昇または悪化した非対称性で測定される)しない限り、より難しくなるレベル(例えば、より多くの障害物とより速い速度)を提示するよう構成することができる。 In another example, the AR 3D dynamic model can be configured to simulate a scenario in which the patient walks in or around an array of cones that provide a virtual obstacle course for the patient to follow. While cones are common obstacles in treatment environments, other embodiments of this can be configured to simulate normal daily life activities (eg, grocery shopping). These cones, along with virtual obstacles, can encourage direction changes by stepping sideways to each side and walking backwards rather than only by walking forwards. Again, wireless beacon triggers can be used to cause the ANR system to present appearing and/or disappearing cones. A beacon is activated based on the detected location of a person associated with the cone. Additionally, various difficulty levels can be initiated with induction times and lengths. The target parameter in this example can be a measure of walking speed or quality of walking. Successful navigation would virtually navigate around the cone without hitting it. As long as the person successfully avoids obstacles and the quality of gait deteriorates (measured by increased variability or worsened asymmetry), the system can be applied to levels of increasing difficulty (e.g., more obstacles and more fast speed).

別の例では、AR 3D動的モデルは、現実的な効果のために障害物を含みうる洞窟および/または崖の中、または周りを患者が歩いているシナリオをシミュレーションするよう構成することができる。現実感により、誘導で必要とされる細部が以前提示されたユースケースよりも向上する。非対称の歩行パターンを有する人での別の例では、患側でより長いステップを踏み出すことを人に要求する、曲がりくねった道を提示することができる。また、この曲がりくねった道は、人が転落しないように谷を跨ぐ必要がある、別々の崖でありうる。無線式ビーコントリガーは、ANRシステムに洞窟および/または崖の障害物を出現させる、および/または消えさせるのに使用することができて、その結果、誘導時間および経路長で難易度レベルが変動する。センサデータは、システムが運動を曲がりくねった道に同期させるのに使用することができる。患者による誘導要件は、基本的な規定されたコースにおける変更を方向づける、生体力学的反応でありうる。システムは、無線式空間・時間ビーコントリガーがAR 3D動的モデルでの変更に影響を与えるように構成される。こうした無線式トリガーの時間的態様は、そうしたトリガーをオン/オフする能力である。これにより、患者が治療セッションの一部として取る必要があるコースに対する誘導路を計画する際の柔軟性を最大としうる。この瞬間の目標パラメータは、歩行速度または歩行の品質の尺度とすることができる。成功した誘導とは、経路から外れたり崖から転落することなく経路を進むことであろう。システムは、人が経路にうまく留まって、歩行の品質が劣化(変動性の上昇または悪化した非対称性で測定される)しない限り、より難しくなるであろうレベル(例えば、より多くの障害物とより速い速度)を提示するよう構成することができる。 In another example, the AR 3D dynamic model can be configured to simulate a scenario where the patient is walking in or around caves and/or cliffs that may contain obstacles for realistic effect. . Reality improves the detail required in the guidance over previously presented use cases. In another example in a person with an asymmetrical gait pattern, a tortuous path can be presented that requires the person to take longer steps on the affected side. Also, this winding road can be a separate cliff that must be crossed over a valley to prevent a person from falling. Wireless beacon triggers can be used to cause cave and/or cliff obstacles to appear and/or disappear in the ANR system, resulting in varying difficulty levels with induction time and path length. . Sensor data can be used by the system to synchronize motion to the winding road. A patient-induced requirement can be a biomechanical response that directs a change in the underlying prescribed course. The system is configured so that wireless space-time beacon triggers affect changes in the AR 3D dynamic model. A temporal aspect of such wireless triggers is the ability to turn them on and off. This allows for maximum flexibility in planning the guidepath for the course the patient needs to take as part of the treatment session. This instantaneous target parameter can be a measure of walking speed or quality of walking. Successful navigation would follow the path without straying from the path or falling off a cliff. The system predicts levels that would become more difficult (e.g., more obstacles and can be configured to present a higher speed).

別の例では、AR 3D動的モデルは、患者が静止して立っている、または座っていて、仮想的な物体が提示されてそれぞれの足に近づいて来た際に前進するよう依頼されるシナリオをシミュレーションするよう構成することができる。例えば、図36BはARを用いて患者の前方に投影された足跡の図を示す。ANRシステムは、患者に横へのステップを促すために物体が患者の左または右へ近づきうる仮想的シーンを生成することができる。物体は、予め規定されたテンポまたはビートで患者へ近づいているように提示され、図22に記載される決定木を辿る。また、過去の治療からの療法士または患者による正しい運動の視覚も投影されうる。 In another example, the AR 3D dynamic model is asked to move forward when the patient is standing or sitting still and a virtual object is presented and approaches each leg. It can be configured to simulate scenarios. For example, FIG. 36B shows a view of a footprint projected in front of a patient using AR. An ANR system can generate a virtual scene in which an object can approach the patient's left or right to encourage the patient to step sideways. Objects are presented as they approach the patient at a predefined tempo or beat and follow the decision tree described in FIG. Also, a vision of correct movement by the therapist or patient from previous treatments may be projected.

別の例示のAR 3D動的モデルの実装では、ANRシステムは、触覚フィードバックを治療へ取り入れるよう構成することができる。触覚フィードバックは、例えば、ユーザが投影されたAR環境内で物体または人々に近づきすぎた場合にシステムが信号として用いることができる。また、リズミカルな触覚フィードバックを聴覚的キューと同期させて、感覚入力を増幅することもできる。また、例えばパーキンソン病を患う誰かの歩行の凍結エピソードの中で、ARは適応的に、かつ個別に運動の開始にキューを付けることもできる。 In another exemplary AR 3D dynamic model implementation, the ANR system can be configured to incorporate haptic feedback into therapy. Haptic feedback, for example, can be used by the system as a signal when the user gets too close to an object or people in the projected AR environment. Rhythmic tactile feedback can also be synchronized with auditory cues to amplify sensory input. The AR can also adaptively and individually cue the onset of movement, for example, during a frozen episode of walking in someone with Parkinson's disease.

別の例示のAR 3D動的モデルの実装では、ANRシステムはさらに、光学的な頭部追跡を取り入れるよう構成することができる。この追跡は、彼らの眼または頭が向いている場所に応答して聴覚的入力を作動させるよう構成されているANRシステムへのフィードバックとして取り入れることができる。例えば、自分の環境の右側だけとやり取りを行っている左側無視を患う人では、眼および頭部の追跡はその人の左半球の環境のどれだけ多くが関与しているかに対する入力を提供することができて、システムに聴覚的キューを生成させてより多くの注意を左半球へ向けさせる。また、臨床的改善は各半球における認識の度合いで測定可能であるので、このデータは経時的に進捗を追跡するのに使用することもできる。この別の例は眼球運動障害を患う人々で、左から右への視覚的スキャンが外部聴覚的リズムに合わせて行われることで改善されることがある。 In another example AR 3D dynamic model implementation, the ANR system can be further configured to incorporate optical head tracking. This tracking can be taken as feedback to an ANR system configured to activate auditory input in response to where their eyes or head are pointing. For example, in a person with left-sided neglect who only interacts with the right side of their environment, eye and head tracking may provide input on how much of the person's left hemisphere environment is involved. , causing the system to generate auditory cues to direct more attention to the left hemisphere. This data can also be used to track progress over time, as clinical improvement is measurable by the degree of cognition in each hemisphere. Another example of this is people with oculomotor disorders, which may be ameliorated by left-to-right visual scanning aligned to an external auditory rhythm.

別の例示のAR 3D動的モデルの実装では、ANRシステムは、過去のセッションのデジタル的な存在を提供してユーザの改善を表示するよう構成することができる。これらのモデルはセッション後に再生することができて、セッションごとの比較、または生涯にわたる治療の比較を行うことができる。過去のセッション(または拡張されたセッション)のデジタル的な存在は、そのセッションの音声入力と組み合わせた場合、歩行セッションの間に練習するための精神的画像作業として使用して、疲労を抑えることもできる。モデルは、歩行速度、歩調、ストライド長、および対称性の差を表示して、経時的なユーザの変化と、治療がユーザの歩行をどのように改善しうるかを示すのを助ける。また、この存在は、セッションの前に療法士が使用して、以降のセッションに対する訓練計画または手法を準備するのを助けることができる。モデル化された存在は研究者や臨床医により使用されて、患者の進捗の進化をよりうまく視覚化して3D画像内で再びアニメ化することもできる。 In another example AR 3D dynamic model implementation, the ANR system can be configured to provide a digital presence of past sessions to display user improvement. These models can be replayed after a session to allow session-to-session comparisons or lifetime treatment comparisons. The digital presence of a past session (or an extended session), when combined with audio input of that session, can also be used as a mental imaging task to practice during walking sessions to reduce fatigue. can. The model displays differences in walking speed, cadence, stride length, and symmetry to help show how the user changes over time and how treatments can improve the user's gait. This presence can also be used by a therapist prior to a session to help prepare a training plan or procedure for subsequent sessions. The modeled entity can also be used by researchers and clinicians to better visualize the evolution of a patient's progress and reanimate it within a 3D image.

別の例示のAR 3D動的モデルの実装では、音楽コンテンツと同期されたAR/VR環境は、卵形の道、螺旋形の道、蛇行した道、および他の道と交差する道、ならびにデュアルタスクの歩行を含めるために様々な歩行またはダンスのパターンを作り出すことができる。タンゴなどのダンスリズムは、人間の体全体へ適用することができる神経学的音楽療法(NMT)およびRASに由来する利点を有することが示されている。 In another example AR 3D dynamic model implementation, the AR/VR environment synchronized with the music content includes an oval road, a spiral road, a meandering road, and a road that crosses other roads, as well as a dual road. Various walking or dancing patterns can be created to include the walking of the task. Dance rhythms such as tango have been shown to have benefits from neurological music therapy (NMT) and RAS that can be applied to the entire human body.

1つまたは複数の実施形態によれば、ANRシステムは、AA手法を利用して同調プロセスを強化し、環境コンテキストを人に提供して、AR体験を支援するよう構成することができる。回復プロセスを強化するため、システムは、環境、センサデータ、AR環境、同調、および他の方法から得た入力に基づいて本明細書でさらに説明される例示のAA体験を生成するよう構成することができる。 According to one or more embodiments, ANR systems can be configured to utilize AA techniques to enhance the entrainment process and provide environmental context to humans to aid in AR experiences. To enhance the recovery process, the system is configured to generate the exemplary AA experiences described further herein based on inputs obtained from the environment, sensor data, AR environment, entrainment, and other methods. can be done.

治療/医学的ユースケースのAAの例は、安全性への懸念に対処し、運動療法を行う患者への危険性を軽減することである。ANRシステムは、音声の最小の大きさのしきい値を瞬間的に超える外部音を治療のリズミカルで音声キューが付けられたコンテンツに混合することで、ヘッドフォンで音楽を聴きながら状況認識を改善するよう構成することができる。外部音の例は車のクラクションの音や緊急車両のサイレンであり、これらが自動的に同期されて通常の聴覚刺激を遮って、危険の可能性についての認識を人に与える。この機能および他の機能を実行するため、聴音装置は追加のマイクと、この作業を行うための専用のデジタル信号処理を有することができる。 An AA example of a therapeutic/medical use case is addressing safety concerns and mitigating risks to patients undergoing exercise therapy. ANR systems improve situational awareness while listening to music on headphones by mixing external sounds that momentarily exceed the minimum loudness threshold of speech into therapeutic rhythmic, audio-cued content. can be configured as follows: Examples of external sounds are car horn sounds and emergency vehicle sirens, which are automatically synchronized to block normal auditory stimuli and give a person an awareness of potential danger. To perform this and other functions, hearing devices may have additional microphones and dedicated digital signal processing to perform this task.

更なる実施形態では、AAを実装するANRシステムは、患者が歩行治療セッションを行っている間にリズミカルな聴覚的キューを患者の「患側」に並べることで、AAの複数の態様と、空間的認識の操作を組み合わせるよう構成することができる。例えば、患者の右側がより大きな度合いの治療を必要とする場合、音声キューが付けられたコンテンツを強調するために空間的に右側に並べることができる。特定の側へのリズミカルな聴覚刺激のための手法を用いる神経学的リハビリテーションのための例示のシステムおよび方法が、同時係属中で同一出願人による、「神経学的リハビリテーションのためのシステムおよび方法」と題され2019年11月12日に出願された米国特許出願第62/934,457号明細書で開示されており、参照によりその全体が本明細書に記載されているかのように本明細書に援用される。 In a further embodiment, an ANR system implementing AA provides multiple aspects of AA and spatial It can be configured to combine recognition operations. For example, if the patient's right side requires a greater degree of treatment, the content with audio cues can be spatially aligned to the right to emphasize. Exemplary systems and methods for neurological rehabilitation using techniques for rhythmic auditory stimulation to a specific side are described in co-pending and commonly owned, "Systems and Methods for Neurological Rehabilitation." No. 62/934,457, filed November 12, 2019, entitled Incorporated into

更なる実施形態では、AAを実装するANRシステムは、固有の聴覚的キューを提供して歩行訓練を行っている間の頭部位置の空間認識を改善するよう構成することができて、これによりユーザに同調プロセスまたは他のCTA体験をしている間も頭を上げて中心線に置き、眼は前向きに保つように促して、バランスと空間認識を改善することができる。 In a further embodiment, an ANR system implementing AA can be configured to provide unique auditory cues to improve spatial awareness of head position during gait training, thereby The user can be encouraged to keep their head up and centered and their eyes forward during the entrainment process or other CTA experience to improve balance and spatial awareness.

更なる実施形態では、AAを実装するANRシステムは、両耳用のビート音を提供して、このビート音を人間の生理機能(例えば、呼吸数、電気的脳活動(EEG)、心拍数)と結び付けることで認知を改善して記憶を強化するよう構成することができる。ANRシステムは、RAS信号入力を補完する両耳用のビート音声信号入力を提供するよう構成することができる。システムにより行われている歩行測定のリアルタイムの同調と品質は、同様に生理学的測定により補完される。例えば、両耳用のビート音声のために構成されたシステムは、左耳および右耳に出力される差動周波数信号を使用し、その差異は40Hz、つまり神経振動の「ガンマ」周波数である。これらの周波数は、アルツハイマー病の患者におけるアミロイドの蓄積を減少させることができて、認知の柔軟性を助けることができる。ユーザがRAS歩行訓練を行っている間にそのような音声信号をAA装置を介してユーザへ供給することで、第2種類の神経同調を生体力学的RAS同調と同時に実現することができる。脳活性化についてのネットワーク仮説は、歩行と認知の両方が影響を受けることを示唆している。それゆえ、そのような聴覚的感覚刺激は脳内の神経振動を同調させて、リズミカルな聴覚刺激は運動系を同調させる。 In a further embodiment, an ANR system that implements AA provides a binaural beat sound that is adapted to human physiology (e.g., respiratory rate, electrical brain activity (EEG), heart rate). can be configured to improve cognition and enhance memory by associating with The ANR system can be configured to provide a binaural beat audio signal input complementary to the RAS signal input. The real-time synchronization and quality of gait measurements being made by the system are complemented by physiological measurements as well. For example, a system configured for binaural beat audio uses differential frequency signals output to the left and right ears, the difference being 40 Hz, the "gamma" frequency of neural oscillations. These frequencies can reduce amyloid accumulation in patients with Alzheimer's disease and can aid cognitive flexibility. A second type of neural entrainment can be achieved simultaneously with biomechanical RAS entrainment by providing such audio signals to the user through the AA device while the user is performing RAS walking training. The network hypothesis for brain activation suggests that both locomotion and cognition are affected. Therefore, such auditory sensory stimulation entrains neural oscillations in the brain, and rhythmic auditory stimulation entrains the motor system.

更なる実施形態では、AAを実装するANRシステムは、患者が頭を回転させた場合、または姿勢を変えた場合に位相がそろった音場(例えば、空間的視点で正しい音声)を提供するよう構成することができる。音場は、ステレオのスピーカーまたはヘッドフォンにより作り出される、仮想的な3D画像である。音場により、聴取者は音源の場所を正確に聞くことができる。治療セッションで音場を操作する例は、患者の頭が横を向いている間であっても、仮想コーチの声音を患者の「前方」に保つことである。この機能は失見当を回避するのを助けることができて、その結果、治療を行いながらより安定した、予測可能で安全な音声体験を作成することができる。この機能は、図34で人の前にいるAR仮想コーチ/療法士と組み合わせることもできる。また、この機能は、人が現実世界で取るべき進路または方向の知識と組み合わせることもできる。 In a further embodiment, an ANR system implementing AA is designed to provide a coherent sound field (e.g., spatially correct sound) when the patient turns his or her head or changes posture. Can be configured. A sound field is a virtual 3D image created by stereo speakers or headphones. The sound field allows the listener to hear the exact location of the sound source. An example of manipulating the sound field in a therapy session is to keep the virtual coach's voice "in front" of the patient, even while the patient's head is turned to the side. This feature can help avoid disorientation and, as a result, can create a more stable, predictable and safe audio experience while delivering therapy. This feature can also be combined with an AR virtual coach/therapist in front of a person in FIG. This functionality can also be combined with knowledge of the course or direction a person should take in the real world.

更なる実施形態では、ANRシステムは、患者が仮想の群衆と同期した際に仮想の音響効果(例えば、励ましや群衆の足音)が患者の視覚的注視に対して位相がそろった音場を作り出すように、AAを拡張現実(AR)と組み合わせるよう構成することができる。また、この音声は、物体からの距離、または近さの認識を作り出すこともできる。また、そのような方法で空間的位置または音の大きさを変更することは、ARおよび3D画像を併用して標的とする目標として使用することもできる。 In a further embodiment, the ANR system creates a sound field in which virtual sound effects (e.g., encouragement and crowd footsteps) are in phase with the patient's visual gaze when the patient is synchronized with the virtual crowd. As such, AA can be configured to combine with Augmented Reality (AR). This sound can also create a perception of distance or proximity to an object. Altering spatial location or loudness in such a way can also be used as a targeted target in conjunction with AR and 3D images.

更なる実施形態では、ANRシステムは、仮想楽器療法を作成するように、AAを拡張現実(AR)と組み合わせるよう構成することができる。ベル、ドラム、ピアノ、ギターなどの楽器は、患者にとって一般的な訓練の道具となりうる。こうした楽器のデジタルモデルを作成して、インタラクション時にAAフィードバックを与えることで、患者に没入体験と自分が物理的に楽器を演奏しているという認識を与えることができる。患者の経時的な進歩を助けて改善を見せるために、この難易度を変更することもできる。変更例には、ピアノで更なる鍵盤を追加すること、ギターで更なる弦を追加することを含みうる。仮想楽器に加え、患者が仮想の楽器または本物の楽器のいずれかの楽器を演奏している際に仮想の楽譜や記譜法をリアルタイムで表示することもできる。他の例では図19に関連して論じた概念と組み合わせることもありえて、接続されたハードウェアをARで置き換えることもできる。同様のロジックを他の文書化された介入に使用することもできる。 In a further embodiment, the ANR system can be configured to combine AA with Augmented Reality (AR) to create virtual musical instrument therapy. Musical instruments such as bells, drums, pianos, and guitars can be common training tools for patients. Creating a digital model of such an instrument and providing AA feedback upon interaction can give the patient an immersive experience and the perception that they are physically playing the instrument. This difficulty can also be changed to help the patient progress and show improvement over time. Modifications may include adding more keys on a piano and more strings on a guitar. In addition to virtual musical instruments, virtual musical scores and musical notation can also be displayed in real-time as the patient plays the instrument, either virtual or real. Other examples could combine the concepts discussed in connection with FIG. 19 and replace the connected hardware with the AR. Similar logic can be used for other documented interventions.

更なる実施形態では、ANRシステムは、AAをテレプレゼンスと組み合わせて実行して、療法士に空間的に正確な音声体験を提供するよう構成することができる。また、この音声は、物体からの距離、または近さの認識を作り出すように生成することもできる。AAの空間的位置または音の大きさを変更して、ARモデルを活用することで、システムを、患者が仮想装置の再生と関連付けられた目標を達成しているかをより効果的に判定して、患者により正確で特別な体験を提供するのに使用することができる。 In a further embodiment, the ANR system can be configured to perform AA in combination with telepresence to provide the therapist with a spatially accurate audio experience. This sound can also be generated to create a perception of distance or proximity to an object. By changing the spatial position or loudness of the AA and leveraging the AR model, the system can more effectively determine if the patient is achieving the goals associated with playing the virtual device. , can be used to provide patients with a more accurate and special experience.

1つまたは複数の実施形態によれば、ANRシステムは、ある種類のAA、すなわちリズミカルな刺激エンジン(RSE)を実装することができる。リズミカルな刺激エンジンはカスタムメイドのリズミカルな聴覚刺激であり、独創的でカスタムされた、リズミカルな聴覚的コンテンツを患者のために生成しながら同調原理を具体化して治療効果を促進する。パーキンソン病などの病態では、患者の環境に一定のリズムの「サウンドトラック」を有することも有益になりうる。RSEは、予め録音された音楽へアクセスする必要なしに、この連続したリズミカルなバックグラウンドの神経刺激を行うよう構成することもできる。一例では、ANRシステムは、AAをリズミカルな刺激エンジン(RSE)およびARと組み合わせて実行して、入力される生体データと治療環境からの外部音声入力の間で、生成されるリズミカルなコンテンツであるAR/AA出力に対して完全に同期されたフィードバック状態を作り出すように構成することができる。別の例では、システムは、RSEにより生成されたリズミカルな音声コンテンツのテンポを患者の歩行の歩調によってインタラクティブに調節するよう構成することができる。別の例では、RSEにより生成されたリズミカルな音声コンテンツのテンポおよび拍子記号は、杖や補助器具を使用している患者などの患者ユーザの同調の精度とビート係数によりインタラクティブに調節することもできる。別の例では、RSEは、強化スーツ、強化外骨格、および/またはFES装置などの支援技術と組み合わせて歩行治療の有効性を高める神経刺激を提供することもできる。別の例では、RSEは、伝統的なダンスリズムのテンプレートの記憶されたライブラリから、患者の上半身および手足へ治療を施しうるリズミカルな音声コンテンツを生成することもできる。これは、踊っている群衆や仮想のダンスフロアなどの上述したAR手法を組み合わせて拡張することもできる。別の例では、自己学習AIおよび/または規則ベースのシステムなどの機械学習手法は、歩調と、対称性や歩行サイクル時間の変動などの歩行パラメータの品質とを報告する慣性計測装置(IMU)入力により管理されたリズムをリアルタイムで生成することもできる。教師なしMLクラスタリングまたは決定木モデルを用いることで、様々な歩行パターンは生成音楽システムへの入力として機能することができる。 According to one or more embodiments, an ANR system can implement a kind of AA, a Rhythmic Stimulus Engine (RSE). The Rhythmic Stimulation Engine is a custom-made rhythmic auditory stimulus that embodies entrainment principles to facilitate therapeutic effects while generating original, custom, rhythmic auditory content for the patient. In conditions such as Parkinson's disease, it can also be beneficial to have a constant rhythmic "soundtrack" in the patient's environment. The RSE can also be configured to provide this continuous rhythmic background neural stimulation without the need to access pre-recorded music. In one example, an ANR system runs AA in combination with a rhythmic stimulation engine (RSE) and AR to generate rhythmic content between incoming biometric data and external audio input from the treatment environment. It can be configured to create fully synchronized feedback conditions for the AR/AA outputs. In another example, the system can be configured to interactively adjust the tempo of rhythmic audio content generated by the RSE according to the patient's walking cadence. In another example, the tempo and time signature of rhythmic audio content generated by RSE can also be adjusted interactively by the tuning accuracy and beat factor of patient-users, such as patients using canes or assistive devices. . In another example, the RSE can also provide neural stimulation that enhances the effectiveness of locomotion therapy in combination with assistive technologies such as reinforced suits, reinforced exoskeletons, and/or FES devices. In another example, the RSE can generate from a stored library of templates of traditional dance rhythms rhythmic audio content that can be therapeutic to the patient's upper body and limbs. This can also be extended by combining the above-mentioned AR techniques such as dancing crowds and virtual dance floors. In another example, machine learning techniques such as self-learning AI and/or rule-based systems use an inertial measurement unit (IMU) input that reports cadence and quality of gait parameters such as symmetry and gait cycle time variability. It can also generate real-time rhythms managed by Using unsupervised ML clustering or decision tree models, different walking patterns can serve as inputs to generative music systems.

1つまたは複数の実施形態によれば、ANRシステムは、ある種類のAA、すなわち可聴化(Sonification)を実行することができて、これは患者が標的とする目標にどれだけ近いか、または遠いかに応じて様々な量の信号歪みを音楽コンテンツに適用することを意味する。可聴化の度合いおよび種類は、患者を矯正状態へと動かすのを助ける。可聴化と同調という目新しい組み合わせにより、同調を用いた聴覚的運動の同期性に対してフィードフォワード機構を提供しながら、個人が調整することのできる何らかの他の生体力学的または生理学的パラメータの音楽コンテンツの歪みを用いたフィードバック機構を同時に提供することもできる。例えば、リズミカルなキューの音量を上げながら音楽信号に信号歪みを加えるのを組み合わせることで、どちらかの方法単独よりも大きな効果がある。 According to one or more embodiments, the ANR system can perform a type of AA, or Sonification, which measures how close or far the patient is to the target target. Depending on how it means applying varying amounts of signal distortion to the music content. The degree and type of sonification help move the patient into correction. The novel combination of sonification and entrainment provides the musical content of some other biomechanical or physiological parameter that the individual can tune while providing a feedforward mechanism for auditory movement synchrony using entrainment. It is also possible to simultaneously provide a feedback mechanism using the distortion of . For example, the combination of increasing the volume of rhythmic cues and adding signal distortion to a musical signal has a greater effect than either method alone.

1つまたは複数の実施形態によれば、ANRシステムは、神経毒の注入と組み合わせてCTAを以下のように実行することができる。CTAは、同調原理を適用して、歩行などの運動機能の改善に向けて機能させることもできる。また、神経毒の注入は筋肉の痙縮を標的とすることで歩行の改善を標的とするのに使用することもできる。これらの注入の効果が出るまでは2~4日間かかり、最大で90日間効果が継続する(例えば、有効期間)。同調原理のためのCTAの投与(例えば、CTAの1つまたは複数のパラメータの設定)は、神経毒の注入の有効性曲線を目標とすることもできて、注入の効果が出るまでの期間は訓練はあまり激しくなく、有効期間中は訓練は強化される。 According to one or more embodiments, the ANR system can perform CTA in combination with neurotoxin injection as follows. CTA can also apply entrainment principles to work towards improving motor functions such as walking. Injection of neurotoxins can also be used to target improvement in gait by targeting muscle spasticity. These infusions take 2-4 days to take effect and last up to 90 days (eg, shelf life). Administration of CTA for entrainment principles (e.g., setting one or more parameters of CTA) can also target the efficacy curve of a neurotoxin infusion, and the duration of the infusion's effect is The training is not very intense and the training is intensified during the effective period.

1つまたは複数の実施形態によれば、ANRシステムは、生体力学的運動パラメータの代わりに心拍または呼吸数を音楽コンテンツに同期させて同調パラメータ算出するよう構成することができる。ユースケースの例は、認知症、アルツハイマー病、双極性障害、統合失調症などの様々な形態による動揺がある人々のためのものである。このユースケースでは、基本的パラメータは心拍数または呼吸数により決定することができる。同調または段階的な同調は、音楽コンテンツを心拍数または呼吸数と比較することで決定することができる。さらに、動揺の程度を下げてこうした人々の生活の質を増進するよう目標を設定することもできる。 According to one or more embodiments, the ANR system can be configured to synchronize heart rate or respiration rate to music content to calculate entrainment parameters instead of biomechanical motion parameters. Example use cases are for people with various forms of agitation such as dementia, Alzheimer's disease, bipolar disorder, schizophrenia. In this use case, the basic parameter can be determined by heart rate or respiration rate. Entrainment or stepwise entrainment can be determined by comparing musical content to heart rate or respiration rate. In addition, goals can be set to reduce disturbance levels and improve the quality of life for these people.

前述の説明から理解できるように、1つまたは複数の実施形態に係る、患者の拡張された神経学的リハビリテーションのためのシステムは、以下の項目のうち1つまたは複数を含みうる。 As can be appreciated from the foregoing description, a system for extended neurological rehabilitation of a patient, according to one or more embodiments, can include one or more of the following items.

1つまたは複数の物理プロセッサを有するコンピュータシステムは、機械可読命令を含むソフトウェアモジュールにより構成される。ソフトウェアモジュールは、プロセッサにより実行された場合に、治療セッション中に拡張現実視覚コンテンツおよび音声コンテンツを生成して患者へ提示するようプロセッサを構成する3D ARモデル化モジュールを含みうる。コンテンツは、規定された空間的および時間的な順番で動く視覚的要素とビートテンポで出力されるリズミカルな音声要素を含む。 A computer system having one or more physical processors is configured with software modules containing machine-readable instructions. The software modules may include a 3D AR modeling module that, when executed by the processor, configures the processor to generate and present augmented reality visual and audio content to the patient during the treatment session. The content includes visual elements that move in a defined spatial and temporal order and rhythmic audio elements that are output in beat tempo.

また、コンピュータシステムは、プロセッサと通信を行い、AR視覚コンテンツおよび音声コンテンツに関連して患者が行う運動に関連する患者のタイムスタンプが付けられた生体力学データと、患者と関連付けられた1つまたは複数のセンサを用いて測定される生理学的パラメータとを含む入力を受信する入力インタフェースを備える。 The computer system is also in communication with the processor and includes time-stamped biomechanical data of the patient related to movements performed by the patient in relation to the AR visual and audio content and one or more an input interface for receiving input including a physiological parameter measured using a plurality of sensors;

また、ソフトウェアモジュールはタイムスタンプが付けられた生体力学データを分析して、視覚的要素および音声要素に対する患者の運動の空間的関係および時間的関係を判定し、目標の生理学的パラメータに対する患者の同調レベルを決定するようプロセッサを構成する、批判的思考アルゴリズムも含む。さらに、3D ARモデル化モジュールが、目標パラメータに対する決定された同調レベルに基づいて、患者へ出力される拡張現実視覚・音声コンテンツを動的に調整するようプロセッサをさらに構成する。 The software module also analyzes the time-stamped biomechanical data to determine the spatial and temporal relationships of the patient's movements to visual and audio components, and to determine patient entrainment to target physiological parameters. It also includes a critical thinking algorithm that configures the processor to determine the level. Additionally, the 3D AR modeling module further configures the processor to dynamically adjust the augmented reality visual and audio content output to the patient based on the determined level of entrainment to the target parameters.

上記のシステム、装置、方法、プロセス、および同種のものは、ハードウェア、ソフトウェア、または適用に適したこれらの組み合わせを用いて実現することができる。ハードウェアは、汎用コンピュータおよび/または専用のコンピュータ装置を含みうる。これには、内部および/または外部メモリを伴う、1つまたは複数のマイクロプロセッサ、マイクロコントローラ、組み込み型マイクロコントローラ、プログラム可能デジタル信号プロセッサ、または他のプログラム可能なデバイスもしくは処理回路での実現を含む。また、あるいは代わりに、これには1つまたは複数の特定用途向け集積回路、プログラマブルゲートアレイ、プログラマブルアレイロジック部品、または電子信号を処理するよう構成可能な1つまたは複数の任意の他のデバイスを含みうる。上述したプロセスまたは装置の実現には、上述の装置のうちの一つ、およびプロセッサ、プロセッサアーキテクチャ、または様々なハードウェアとソフトウェアの組み合わせの異種の組み合わせの上で記憶、およびコンパイル、または解釈されうる、Cなどの構造化プログラミング言語、C++などのオブジェクト指向プログラミング言語、または任意の他の高水準もしくは低水準プログラミング言語(アセンブリ言語、ハードウェア記述言語、データベースプログラミング用言語および技術を含む)を用いて作成されたコンピュータ実行可能コードを含みうることがさらに理解されるであろう。別の態様では、方法はそのステップを実行するシステムにおいて具現化することができて、いくつかの方法で複数の装置に分散可能である。加えて、上述した様々なシステムなどの複数の装置に処理を分散可能であり、あるいは、すべての機能を専用のスタンドアロンの装置、または他のハードウェアへ統合することができる。別の態様では、上述したプロセスと関連付けられたステップを実行する手段には、上述したハードウェアおよび/またはソフトウェアのいずれかを含みうる。そのような配列および組み合わせはすべて本開示の範囲内であることが意図されている。 The systems, devices, methods, processes, and the like described above can be implemented using hardware, software, or a combination thereof as appropriate to the application. The hardware may include general purpose computers and/or special purpose computing devices. This includes implementation in one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors, or other programmable devices or processing circuits, with internal and/or external memory. . It also or alternatively includes one or more application specific integrated circuits, programmable gate arrays, programmable array logic components, or any other device or devices configurable to process electronic signals. can contain Implementation of the processes or apparatus described above may be stored and compiled or interpreted on one of the apparatus described above and heterogeneous combinations of processors, processor architectures, or various hardware and software combinations. , C or other structured programming language, object-oriented programming language such as C++, or any other high-level or low-level programming language, including assembly language, hardware description languages, languages and techniques for database programming It will further be appreciated that it may include written computer-executable code. In another aspect, the method may be embodied in a system that performs its steps, and in some manner may be distributed across multiple devices. Additionally, processing can be distributed across multiple devices, such as the various systems described above, or all functionality can be integrated into dedicated stand-alone devices or other hardware. In another aspect, means for performing the steps associated with the processes described above may include any of the hardware and/or software described above. All such sequences and combinations are intended to be within the scope of this disclosure.

本明細書で開示される実施形態は、1つまたは複数のコンピュータ装置上で実行された場合にそのステップのいずれか、および/またはすべてを実行する、コンピュータ実行可能コードまたはコンピュータで使用可能なコードを含むコンピュータプログラム製品を含みうる。コードはコンピュータメモリに非一時的に記憶可能であり、このメモリはその中でプログラムが実行されるメモリ(プロセッサと関連付けられたランダムアクセスメモリなど)、またはディスクドライブ、フラッシュメモリ、もしくは任意の他の光学的装置、電磁気的装置、磁気的装置、赤外線装置、もしくは他の装置、もしくはこれらの装置の組み合わせとすることができる。別の態様では、上述したシステムおよび方法のいずれかは、コンピュータ実行可能コード、および/またはコンピュータ実行可能コードからの任意の入力もしくは出力を運ぶ/搬送する任意の適切な伝送媒体または伝搬媒質において具現化することができる。 Embodiments disclosed herein comprise computer-executable or computer-usable code that performs any and/or all of the steps when executed on one or more computing devices. may include a computer program product comprising The code may be stored non-transitory in computer memory, which may be the memory in which the program executes (such as random access memory associated with a processor), or a disk drive, flash memory, or any other memory. It can be an optical device, an electromagnetic device, a magnetic device, an infrared device, or other device, or a combination of these devices. In another aspect, any of the systems and methods described above are embodied in any suitable transmission or propagation medium that carries/carries computer-executable code and/or any input or output from computer-executable code. can be

上述した装置、システム、および方法は、限定ではなく、例として説明されていることが理解される。そうではないと明示されていない限り、開示されたステップは、本開示の範囲を逸脱することなく修正、補完、省略、および/または並べ替えを行うことができる。数多くの変形、追加、省略、および他の修正が当業者には明らかであろう。加えて、上述した説明および図面における方法ステップの順序または提示は、ある順序が明示的に要求されている、あるいはそうでなければある順序が文脈から明らかである場合を除き、列挙されたステップをこの順序で行うのを要求することを意図していない。 It is understood that the apparatus, systems, and methods described above are described by way of example, and not by way of limitation. Unless explicitly stated otherwise, the disclosed steps may be modified, supplemented, omitted, and/or rearranged without departing from the scope of the disclosure. Numerous variations, additions, omissions and other modifications will be apparent to those skilled in the art. In addition, the order or presentation of method steps in the foregoing description and drawings should not be confused with the listed steps, unless an order is explicitly required or otherwise apparent from the context. It is not intended to require you to do this in that order.

本明細書に記載された実装の方法ステップは、異なる意味が明示的に与えられている、あるいはそうでなければ異なる意味であることが文脈から明らかである場合を除き、添付の請求の範囲の特許性と整合する、そのような方法ステップを実行するのに適した任意の方法を含むことが意図されている。それゆえ、例えばステップXを実行することには、リモートユーザ、リモート処理資源(例えば、サーバやクラウドコンピュータ)、機械などの別の関係者にステップXを実行させるのに適した任意の方法が含まれる。同様に、ステップX、YおよびZを実行することには、そのようなステップの恩恵を得るために、そのような他の個人や資源の任意の組み合わせへ指示、または制御してステップX、Y、およびZを実行させる任意の方法が含まれうる。したがって、本明細書に記載された実装の方法ステップは、異なる意味が明示的に与えられている、あるいはそうでなければ異なる意味であることが文脈から明らかである場合を除き、添付の請求の範囲の特許性と整合する、1つまたは複数の他の関係者もしくはエンティティにそれらのステップを実行させるのに適した任意の方法を含むことが意図されている。そのような関係者またはエンティティは、いかなる他の関係者またはエンティティの指示または管理を受ける必要はなく、特定の管轄内に配置される必要もない。 The method steps of the implementations described herein are defined in the terms of the appended claims, except where a different meaning is expressly provided or otherwise clear from the context. It is intended to include any method suitable for performing such method steps consistent with patentability. Thus, for example, performing step X includes any method suitable for causing another party, such as a remote user, remote processing resource (e.g., server or cloud computer), machine, etc., to perform step X. be Similarly, performing steps X, Y and Z involves directing or controlling any combination of such other individuals or resources to obtain the benefit of such steps. , and Z can be included. Accordingly, the method steps of the implementations described herein are subject to the terms of the appended claims, except where a different meaning is expressly provided or otherwise clear from the context. It is intended to include any method suitable for causing one or more other parties or entities to perform those steps consistent with the patentability of the scope. Such parties or entities need not be under the direction or control of any other party or entity and need not be located within any particular jurisdiction.

さらに、上述された方法は例として提供されていることを理解されたい。そうではないと明示されていない限り、開示されたステップは、本開示の範囲を逸脱することなく修正、補完、省略、および/または並べ替えを行うことができる。 Furthermore, it should be appreciated that the methods described above are provided as examples. Unless explicitly stated otherwise, the disclosed steps may be modified, supplemented, omitted, and/or rearranged without departing from the scope of the disclosure.

上述した方法およびシステムは、限定ではなく、例として説明されていることが理解される。数多くの変形、追加、省略、および他の修正が当業者には明らかであろう。加えて、上述した説明および図面における方法ステップの順序または提示は、特定の順序が明示的に要求されている、あるいはそうでなければ特定の順序が文脈から明らかである場合を除き、列挙されたステップをこの順序で行うのを要求することを意図していない。したがって、特定の実施形態が示され説明されているが、本開示の趣旨および範囲から逸脱することなく、形式および詳細において、それらの実施形態で様々な変更および修正を行うことが可能なことは当業者には明らかであろう。 It is understood that the methods and systems described above are described by way of example, and not by way of limitation. Numerous variations, additions, omissions and other modifications will be apparent to those skilled in the art. In addition, the order or presentation of method steps in the foregoing description and drawings is recited unless a specific order is explicitly required or otherwise apparent from the context. It is not intended to require the steps to be performed in this order. Thus, while specific embodiments have been illustrated and described, it is understood that various changes and modifications can be made therein in form and detail without departing from the spirit and scope of the disclosure. It will be clear to those skilled in the art.

Claims (19)

非一時的記憶媒体に記憶される機械可読命令を含むソフトウェアモジュールにより構成されるプロセッサを有するコンピュータシステムを備える患者の拡張された神経学的なリハビリテーションのためのシステムであって、
前記ソフトウェアモジュールは、
前記プロセッサにより実行された場合に、治療セッション中に患者へ出力するために拡張現実(AR)視覚コンテンツおよびリズミカルな聴覚刺激(RAS)を生成するようプロセッサを構成するAA/ARモデル化モジュールであって、前記RASはビートテンポで出力されるビート信号を含み、前記AR視覚コンテンツは前記ビートテンポに基づいて規定された空間的および時間的な順番で動く視覚的要素を含む、AA/ARモデル化モジュールと
前記プロセッサと通信を行い、前記患者が前記AR視覚コンテンツおよび前記RASに合わせて行う反復運動に関連する前記患者のタイムスタンプが付けられた生体力学データを含む患者データをリアルタイムで受信する入力インタフェースであって、前記生体力学データは前記患者と関連付けられたセンサを用いて測定される、入力インタフェースと、
を含み、
前記ソフトウェアモジュールはさらに、
前記タイムスタンプが付けられた生体力学データを分析して、前記視覚的要素および前記ビートテンポで出力される前記ビート信号に対する前記患者の前記反復運動の時間的関係を判定し、目標パラメータに対する同調レベルを決定するよう前記プロセッサを構成する、批判的思考アルゴリズム(CTA)モジュール、
を含み、
前記AA/ARモデル化モジュールはさらに、前記患者へ出力される前記AR視覚および前記RASを同期するように、かつ前記決定された同調レベルに基づいて動的に調整するように前記プロセッサを構成する、
システム。
1. A system for augmented neurological rehabilitation of a patient comprising a computer system having a processor configured by software modules containing machine-readable instructions stored on a non-transitory storage medium, the system comprising:
The software module is
an AA/AR modeling module that, when executed by said processor, configures the processor to generate augmented reality (AR) visual content and rhythmic auditory stimuli (RAS) for output to a patient during a treatment session; AA/AR modeling, wherein the RAS includes a beat signal output at a beat tempo, and the AR visual content includes visual elements that move in a defined spatial and temporal sequence based on the beat tempo. an input in communication with the processor to receive real-time patient data including time-stamped biomechanical data of the patient associated with repetitive movements performed by the patient in time with the AR visual content and the RAS; an input interface, wherein the biomechanical data is measured using sensors associated with the patient;
including
The software module further:
analyzing the time-stamped biomechanical data to determine the temporal relationship of the repetitive motion of the patient to the beat signal output at the visual element and the beat tempo, and entrainment level to a target parameter; a critical thinking algorithm (CTA) module, which configures the processor to determine
including
The AA/AR modeling module further configures the processor to synchronize the AR vision and the RAS output to the patient and dynamically adjust based on the determined entrainment level. ,
system.
前記プロセッサは、前記AR視覚コンテンツおよび前記RASを前記決定された同調レベルに基づいて、前記同調レベルを考慮して前記RASの前記ビートテンポを調整することで動的に調整し、前記視覚的要素の前記規定された空間的および時間的な順番を前記調整されたビートテンポと同期するよう調整する、請求項1に記載のシステム。 said processor dynamically adjusting said AR visual content and said RAS based on said determined entrainment level by adjusting said beat tempo of said RAS in view of said entrainment level; 2. The system of claim 1, adjusting the defined spatial and temporal order of . 前記ビート信号はそれぞれ、それぞれの出力時間で出力され、
前記同調レベルは、前記ビート信号の前記それぞれの出力時間に対する前記反復運動のタイミングに基づいて決定される、
請求項2に記載のシステム。
each of the beat signals is output at a respective output time;
the tuning level is determined based on the timing of the repetitive motion relative to the respective output times of the beat signal;
3. The system of claim 2.
前記CTAモジュールは、
前記タイムスタンプが付けられた生体力学データを分析して、前記反復運動のそれぞれの時間を特定し、
前記反復運動の1つまたは複数の前記それぞれの時間と、関連する前記ビート信号の1つまたは複数のそれぞれの時間との間の時間的関係を測定し、
前記反復運動の1つまたは複数に対して前記測定された時間的関係に基づいて、同調余地を求める、
ことで前記同調レベルを決定するように前記プロセッサを構成し、
前記プロセッサは、前記同調余地に基づいて、前記AR視覚および前記RASのうちの1つまたは複数を動的に調整するよう構成される、
請求項3に記載のシステム。
The CTA module includes:
analyzing the time-stamped biomechanical data to determine the time of each of the repetitive motions;
measuring a temporal relationship between one or more respective times of the repetitive motion and one or more respective times of the associated beat signal;
determining entrainment margin based on the measured temporal relationships for one or more of the repetitive movements;
configure the processor to determine the tuning level by
the processor is configured to dynamically adjust one or more of the AR vision and the RAS based on the tuning margin;
4. The system of claim 3.
前記CTAモジュールはさらに、前記患者に対して測定された前記生体力学データまたは生理学的データが訓練目標パラメータを満足するかどうかを判定するように前記プロセッサを構成し、
前記AA/ARモデル化モジュールはさらに、前記患者へ出力される前記AR視覚コンテンツおよび前記RASを未達成である前記訓練目標パラメータに応答して動的に調整するように前記プロセッサを構成する、
請求項2に記載のシステム。
the CTA module further configures the processor to determine whether the biomechanical or physiological data measured for the patient satisfies training goal parameters;
The AA/AR modeling module further configures the processor to dynamically adjust the AR visual content and the RAS output to the patient in response to the training goal parameters being underachieved.
3. The system of claim 2.
前記目標パラメータは前記ビートテンポであり、前記訓練目標パラメータはリハビリテーションの結果である、請求項5に記載のシステム。 6. The system of claim 5, wherein the target parameter is the beat tempo and the training target parameter is rehabilitation outcome. 前記AR視覚コンテンツを前記患者へ提示するよう構成されているARビデオ出力装置と、
前記RASを前記患者へ出力するよう構成されている音声出力装置と、
前記患者と関連付けられ、前記患者の前記タイムスタンプが付けられた生体力学データを測定するよう構成されている前記センサであって、慣性計測装置(IMU)を備える、前記センサと、
をさらに備える、請求項1に記載のシステム。
an AR video output device configured to present the AR visual content to the patient;
an audio output device configured to output the RAS to the patient;
the sensor associated with the patient and configured to measure the time-stamped biomechanical data of the patient, the sensor comprising an inertial measurement unit (IMU);
2. The system of claim 1, further comprising:
前記患者と関連付けられ、前記患者の生理学的データを測定するよう構成されているセンサであって、前記訓練目標パラメータは生理学的パラメータであるセンサ、
をさらに備え、
前記生理学的パラメータは、心拍数、血液酸素化、呼吸数、VO2、電気的脳活動(EEG)のうちの1つまたは複数である、
請求項5に記載のシステム。
a sensor associated with the patient and configured to measure physiological data of the patient, wherein the training goal parameter is a physiological parameter;
further comprising
said physiological parameter is one or more of heart rate, blood oxygenation, respiratory rate, VO2, electrical brain activity (EEG);
6. The system of claim 5.
前記AR視覚コンテンツは、
仮想トレッドミルであって、前記仮想トレッドミルの上面が前記ビートテンポに対応する速度で前記患者に近づいているように見えるようアニメ化された仮想トレッドミルと、
前記仮想トレッドミルの前記上面に重畳される複数の足跡であって、前記足跡は空間的に配列されて、前記ビートテンポに対応する速度で前記患者に近づくように見える、複数の足跡と、
前記反復運動を前記ビートテンポに対応する速度で行う、アニメ化された人と、
のうちの1つまたは複数を含む視覚的シーンを含む、
請求項1に記載のシステム。
The AR visual content is
a virtual treadmill animated such that a top surface of the virtual treadmill appears to approach the patient at a speed corresponding to the beat tempo;
a plurality of footprints superimposed on the top surface of the virtual treadmill, wherein the footprints are spatially arranged and appear to approach the patient at a speed corresponding to the beat tempo;
an animated person performing said repetitive motion at a speed corresponding to said beat tempo;
including a visual scene that includes one or more of
The system of claim 1.
前記AR視覚コンテンツを修正することは、前記ビートテンポの変化を考慮して前記足跡の間隔を変更することと、前記アニメ化された人が前記反復運動を行う前記速度を変更することと、前記トレッドミルの前記仮想上面が前記患者へ近づくように見える前記速度を変更することと、仮想障害物または仮想シーンの摂動が前記患者の前に現れる速度を変更すること、のうちの1つまたは複数を含む、請求項1に記載のシステム。 Modifying the AR visual content includes changing the spacing of the footprints to account for changes in the beat tempo; changing the speed at which the animated person performs the repetitive motion; one or more of changing the speed at which the virtual top surface of the treadmill appears to approach the patient; and changing the speed at which virtual obstacles or virtual scene perturbations appear in front of the patient. 2. The system of claim 1, comprising: 身体障害を有する患者の拡張された神経学的リハビリテーションのための方法であって、前記方法は、実行された場合に前記方法を実行する機械可読命令により構成される物理プロセッサを有するコンピュータシステム上で実現され、
治療セッション中に音声出力装置を介して患者へ出力されるリズミカルな聴覚刺激(RAS)を提供することであって、前記RASはビートテンポで出力されるビート信号を含む、提供することと、
拡張現実(AR)表示装置を介して患者へ出力するためAR視覚コンテンツを生成することであって、前記AR視覚コンテンツは前記ビートテンポに基づいて規定された空間的および時間的な順番で動き、前記RASと同期して出力される視覚的要素を含む、生成することと、
前記RASの前記ビート信号および前記AR視覚コンテンツの前記視覚的要素の対応する動きに合わせて反復運動を行うよう前記患者に指示することと、
前記患者が前記AR視覚コンテンツおよび前記RASに合わせて行う前記反復運動に関連する前記患者のタイムスタンプが付けられた生体力学データを含む患者データをリアルタイムで受信することであって、前記生体力学データは前記患者と関連付けられたセンサを用いて測定される、受信することと、
前記タイムスタンプが付けられた生体力学データを分析して、前記視覚的要素および前記ビート信号に応じて出力される前記ビート信号に対する前記患者の前記反復運動の時間的関係を判定して、同調余地を決定することと、
前記患者へ出力される前記AR視覚コンテンツおよび前記RASを同期するように、かつ既定された同調余地を満たさない前記決定された同調余地に基づいて動的に調整することと、
調整された前記AR視覚コンテンツおよび前記RASを用いて前記治療セッションを継続することと、
を含む、方法。
1. A method for augmented neurological rehabilitation of patients with physical disabilities, said method being performed on a computer system having a physical processor configured with machine-readable instructions which, when executed, perform said method. realized,
providing rhythmic auditory stimulation (RAS) output to the patient via an audio output device during a therapy session, the RAS comprising a beat signal output at a beat tempo;
generating AR visual content for output to a patient via an augmented reality (AR) display device, said AR visual content moving in a defined spatial and temporal sequence based on said beat tempo; generating, including visual elements that are output in synchronization with the RAS;
instructing the patient to perform repetitive movements in time with the beat signal of the RAS and the corresponding movement of the visual element of the AR visual content;
Receiving patient data in real-time, including time-stamped biomechanical data of the patient associated with the repetitive movements performed by the patient in concert with the AR visual content and the RAS, wherein the biomechanical data is measured using a sensor associated with the patient;
analyzing the time-stamped biomechanical data to determine the temporal relationship of the repetitive motion of the patient to the beat signal output in response to the visual element and the beat signal to provide entrainment room; and
synchronizing the AR visual content and the RAS output to the patient and dynamically adjusting based on the determined entrainment margin that does not meet a predetermined entrainment margin;
continuing the treatment session with the adjusted AR visual content and the RAS;
A method, including
前記患者から前記生体力学データを測定することであって、前記患者と関連付けられたセンサを準備することと、前記患者の運動と関連付けられた運動、加速度、および圧力のうちの1つまたは複数を測定することと、を含む、測定することをさらに含む、請求項11に記載の方法。 measuring the biomechanical data from the patient, comprising providing a sensor associated with the patient; and measuring one or more of motion, acceleration, and pressure associated with movement of the patient. 12. The method of claim 11, comprising measuring, further comprising measuring. 前記AR視覚コンテンツおよび前記RASを前記決定された同調余地に基づいて動的に調整することは、前記RASの前記ビートテンポを前記同調余地に基づいて調整することと、前記視覚的要素の前記規定された空間的および時間的な順番を前記調整されたビートテンポと同期するよう調整することを含む、請求項11に記載の方法。 Dynamically adjusting the AR visual content and the RAS based on the determined tuning margin comprises: adjusting the beat tempo of the RAS based on the tuning margin; 12. The method of claim 11, comprising adjusting the adjusted spatial and temporal order to synchronize with the adjusted beat tempo. 前記ビートテンポを目標ビートテンポを含む訓練目標パラメータと比較することと、
前記RASおよび前記AR視覚コンテンツを、前記比較と前記ビートテンポに関して決定された前記同調余地の関数として動的に調整することと、
をさらに含む、請求項13に記載の方法。
comparing the beat tempo to training target parameters including a target beat tempo;
dynamically adjusting the RAS and the AR visual content as a function of the tuning margin determined with respect to the comparison and the beat tempo;
14. The method of claim 13, further comprising:
前記同調余地が規定されたレベルを満足し、前記ビートテンポが前記目標ビートテンポを下回る場合に、前記RASの前記ビートテンポを前記目標ビートテンポへ向けて上げて、前記視覚的要素の前記規定された空間的および時間的な順番を前記調整されたビートテンポと同期するよう調整することをさらに含む、請求項14に記載の方法。 If the tuning margin satisfies a specified level and the beat tempo is below the target beat tempo, increasing the beat tempo of the RAS toward the target beat tempo to increase the specified level of the visual element. 15. The method of claim 14, further comprising adjusting the spatial and temporal order to synchronize with the adjusted beat tempo. 前記ビート信号はそれぞれ、前記ビートテンポに基づいてそれぞれの出力時間で出力され、前記同調余地を測定することは、複数の前記反復運動のそれぞれのオンセット時間を、関連する前記ビート信号のそれぞれの出力時間とリアルタイムに比較することを含み、所与の反復運動に対する前記オンセット時間は規定された特定可能な事象が前記所与の反復運動の間に発生する時間である、請求項11に記載の方法。 Each of the beat signals is output at a respective output time based on the beat tempo, and measuring the entrainment margin includes determining the onset time of each of the plurality of repetitions of each of the associated beat signals. 12. The method of claim 11 comprising real-time comparison with output time, wherein the onset time for a given repetitive motion is the time at which a defined identifiable event occurs during the given repetitive motion. the method of. 前記患者に対して測定された前記生体力学データまたは生理学的データを含む患者データが訓練目標パラメータを満足するかどうかを判定すること、
をさらに含み、
前記AA/ARモデル化モジュールがさらに、前記患者へ出力される前記AR視覚コンテンツおよび前記RASを未達成である前記訓練目標パラメータに応答して動的に調整するように前記プロセッサを構成する、
請求項11に記載の方法。
determining whether patient data, including the biomechanical or physiological data measured for the patient, satisfies training goal parameters;
further comprising
The AA/AR modeling module further configures the processor to dynamically adjust the AR visual content and the RAS output to the patient in response to the training goal parameters being underachieved.
12. The method of claim 11.
前記患者と関連付けられ、生理学的パラメータを測定するよう構成されているセンサを準備することを含む、前記患者から前記生理学的データを測定することをさらに含み、前記生理学的パラメータは、心拍数、呼吸数、およびVO2 maxから成るグループから選択される、請求項17に記載の方法。 further comprising measuring the physiological data from the patient comprising providing a sensor associated with the patient and configured to measure a physiological parameter, wherein the physiological parameter is heart rate, respiration and VO2 max. 前記AR視覚コンテンツは、
仮想トレッドミルであって、前記仮想トレッドミルの上面が前記ビートテンポに対応する速度で前記患者に近づいているように見えるようアニメ化された仮想トレッドミルと、
前記仮想トレッドミルの前記上面に重畳される複数の足跡であって、前記足跡は空間的に配列されて、前記ビートテンポに対応する速度で前記患者に近づくように見える、複数の足跡と、
前記反復運動を前記ビートテンポに対応する速度で行う、アニメ化された人と、
のうちの1つまたは複数を含む視覚的シーンを含む、
請求項11に記載の方法。
The AR visual content is
a virtual treadmill animated such that a top surface of the virtual treadmill appears to approach the patient at a speed corresponding to the beat tempo;
a plurality of footprints superimposed on the top surface of the virtual treadmill, wherein the footprints are spatially arranged and appear to approach the patient at a speed corresponding to the beat tempo;
an animated person performing said repetitive motion at a speed corresponding to said beat tempo;
including a visual scene that includes one or more of
12. The method of claim 11.
JP2023504242A 2020-07-21 2021-07-21 Systems and methods for extended neurological rehabilitation Pending JP2023537681A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063054599P 2020-07-21 2020-07-21
US63/054,599 2020-07-21
PCT/US2021/042606 WO2022020493A1 (en) 2020-07-21 2021-07-21 Systems and methods for augmented neurologic rehabilitation

Publications (1)

Publication Number Publication Date
JP2023537681A true JP2023537681A (en) 2023-09-05

Family

ID=79728942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023504242A Pending JP2023537681A (en) 2020-07-21 2021-07-21 Systems and methods for extended neurological rehabilitation

Country Status (6)

Country Link
EP (1) EP4185192A1 (en)
JP (1) JP2023537681A (en)
KR (1) KR20230042066A (en)
CN (1) CN116096289A (en)
CA (1) CA3186120A1 (en)
WO (1) WO2022020493A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449463B1 (en) 2023-11-06 2024-03-14 株式会社Tree Oceans Walking assistance wearable device, control method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117594245B (en) * 2024-01-18 2024-03-22 凝动万生医疗科技(武汉)有限公司 Orthopedic patient rehabilitation process tracking method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9675776B2 (en) * 2013-01-20 2017-06-13 The Block System, Inc. Multi-sensory therapeutic system
WO2017181093A1 (en) * 2016-04-14 2017-10-19 MedRhythms, Inc. Systems and methods for neurologic rehabilitation
JP7385993B2 (en) * 2016-06-20 2023-11-24 マジック リープ, インコーポレイテッド Augmented reality display system for evaluation and correction of neurological disorders, including disorders of visual processing and perception

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449463B1 (en) 2023-11-06 2024-03-14 株式会社Tree Oceans Walking assistance wearable device, control method, and program

Also Published As

Publication number Publication date
CN116096289A (en) 2023-05-09
EP4185192A1 (en) 2023-05-31
KR20230042066A (en) 2023-03-27
CA3186120A1 (en) 2022-01-27
WO2022020493A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
KR102487044B1 (en) Systems and methods for neurologic rehabilitation
US20210345947A1 (en) Systems and methods for augmented neurologic rehabilitation
US20230072368A1 (en) System and method for using an artificial intelligence engine to optimize a treatment plan
US11690530B2 (en) Entrainment sonification techniques
WO2021236542A1 (en) System and method to enable remote adjustment of a device during a telemedicine session
US20210086024A1 (en) Systems and methods for neurologic rehabilitation
US11786147B2 (en) Distributed sensor-actuator system for synchronized movement
JP2023537681A (en) Systems and methods for extended neurological rehabilitation
US20220019284A1 (en) Feedback from neuromuscular activation within various types of virtual and/or augmented reality environments
US20210106290A1 (en) Systems and methods for the determination of arousal states, calibrated communication signals and monitoring arousal states
Davanzo et al. Hands-free accessible digital musical instruments: conceptual framework, challenges, and perspectives
JP2022548358A (en) Systems and methods for neurological rehabilitation
US20230364469A1 (en) Distributed sensor-actuator system for synchronized motion
Sunela Real-time musical sonification in rehabilitation technology