JP2017533790A - 運動タスク解析のシステムおよび方法 - Google Patents

運動タスク解析のシステムおよび方法 Download PDF

Info

Publication number
JP2017533790A
JP2017533790A JP2017532225A JP2017532225A JP2017533790A JP 2017533790 A JP2017533790 A JP 2017533790A JP 2017532225 A JP2017532225 A JP 2017532225A JP 2017532225 A JP2017532225 A JP 2017532225A JP 2017533790 A JP2017533790 A JP 2017533790A
Authority
JP
Japan
Prior art keywords
video
task
motion
disease
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017532225A
Other languages
English (en)
Inventor
コンツシーダー,ピーター
ジキック,ダーコ
クリミンシ,アントニオ
ドーン,ジョナス
カート ダルク,フランク
カート ダルク,フランク
Original Assignee
ノバルティス アーゲー
ノバルティス アーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノバルティス アーゲー, ノバルティス アーゲー filed Critical ノバルティス アーゲー
Publication of JP2017533790A publication Critical patent/JP2017533790A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9566URL specific, e.g. using aliases, detecting broken or misspelled links
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Library & Information Science (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

運動タスク解析のためのビデオ処理を説明する。様々な例では、人差し指を鼻に置くなどの運動タスクを実行する人のビデオが、トレーニングされた機械学習システムに入力されて、複数のクラスのうちの1つにこの運動タスクを分類する。一例では、ビデオのフレームの各ペアから、オプティカルフローなどの運動記述子が計算され、この運動記述子が機械学習システムに入力される。運動タスク解析を使用して、多発性硬化症および/またはパーキンソン病などの神経学的症状を査定または評価してもよい。

Description

共同研究契約の表明
本明細書において特許請求される本発明は、Microsoft Research LimitedとNovartis Pharma AGとの間の共同研究契約の下での共同研究から生まれたものである。
関連出願の相互参照
本出願は、「Video Processing For Motor Task Analysis」と題する、2014年9月9日出願の米国特許仮出願第62/048,132号明細書の優先権を主張し、あらゆる目的のために、この開示全体を参考として本明細書に援用する。
腕を持ち上げたり、直立したり、足を上げたりなど、運動タスクの能力は、通常、個人間で大きな差がある。たとえば、身体構造、体重、個人の専門知識および技能、経験、体力、身体能力など他の要因に依存する。運動タスク能力を解析する既存の方法は、通常は手動観測を伴い、したがって、解析する際の観察者の技量に依存して主観的なものであり、ばらつきやすいものである。
以下に述べる実施形態には、それだけには限らないが、既知の運動タスク解析システムの既に述べた欠点を解決する実装形態が含まれる。
本発明の実施形態は、動きおよび/もしくは運動協調性情報、ならびに/または対応する活動レベルを患者から取り込んで解析するためのシステム、装置、および方法を含み、ときとして患者は人および/または被験者とも呼ばれる。本発明の実施形態はさらに、動きおよび運動、ならびに/または、対応する患者もしくは被験者の活動レベルを含む協調情報を取り込んで解析するためのシステム、装置、および方法を含む。本発明の実施形態はさらに、動きおよび運動、ならびに/または、対応する患者もしくは被験者の活動レベルを含む協調情報を取り込んで解析するためのシステム、装置、および方法を含み、この活動レベルは、バイオマーカ、センサ、および/もしくは患者、または、データの取込み、記憶、交換、もしくは解析のうちの少なくとも1つを容易にするように動作する独立型装置によって、またはそれらとともにその状況が説明される。
このシステムの実施形態は、1つまたは複数の物理的側面を取り込んでスコア付けする、自動化されたインテリジェントなコンピュータシステムを備え、この物理的側面には、患者または被験者の運動、神経の協調性、歩行および運動の協調性、動き、手足の屈曲、手足の位置、刺激への反応、体位、および外見、たとえば神経学的評価の主要構成要素を含むが、それだけに限定されない。
システムの一実施形態が、被験者または患者用の、採点または評価のツールとして使用される。
本発明の実施形態は、運動に関連する神経機能について、感度の高い観察者に左右されない査定を実現する。
本発明の実施形態は、運動機能不全および/または正常機能について、自動化され、身体に触れなくてもよい信頼性の高い査定を実現する。
実施形態によっては、ビデオ処理が運動タスク解析に使用される。様々な例では、人差し指を鼻に置くなどの運動タスクを実行する人または動物の少なくとも一部分のビデオが、トレーニングされた機械学習システムに入力されて、複数のクラスのうちの1つにこの運動タスクを分類する。一例では、ビデオのフレームの各ペアから、オプティカルフローなどの運動記述子が計算され、この運動記述子が機械学習システムに入力される。たとえば、トレーニング中、機械学習システムは、時間依存および/または位置依存の加速度または速度の特徴を識別し、これらの特徴が、運動タスクのクラス間での違いを区別する。例において、トレーニングされた機械学習システムは、良好な判別子として学習した位置依存の加速度または速度の特徴を、運動記述子から計算する。様々な例では、ビデオの単一のサブボリュームを使用して、またはビデオの2つのサブボリュームを比較することによって特徴が計算される。
本発明の各実施形態は、動きを画像処理し、それによって患者の動きおよび/または身体活動への疾患もしくは症状の影響を取り込むことによって、その疾患もしくは症状を査定、評価、および/または診断するための、装置、システム、および方法を実現する。神経学的影響を示すことが知られており、または患者の運動もしくは動きの何らかの側面に影響を及ぼし、もしくはインパクトを与える疾患もしくは症状が数多く存在する。このような疾患または症状は、たとえばパーキンソン病、ハンチントン病、一般には「ルーゲーリック病」と呼ばれる筋萎縮性側索硬化症(ALS)、および脳性麻痺がよく知られた例である。関節リウマチ、筋消耗、または慢性閉塞性肺疾患(COPD)など、動きおよび/または活動を弱めることのある他の疾患および症状が知られている。たとえば、自閉症、統合失調症、アルツハイマー病など、さらに他の疾患および症状が、動きおよび活動に何らかの影響を示すことがある。さらなる例として、患者が活動的でなくなることによって、患者の活動レベルまたは活動範囲に疾患が影響を及ぼすことがある。たとえば、特定の身体活動または身体活動全般によって患者の感じる痛みが増す場合、慢性痛によって、患者はこのような活動を避けるようになることがある。患者の活動に影響を及ぼすことがある他の疾患には、振戦、パーキンソン病、多発性硬化症、痙縮などの運動障害が含まれ、これらの結果として、不規則な動きもしくは活動、他の神経障害、または活動レベルの全般的な低下が生じる場合がある。運動障害をもつ患者が経験する歩行または他の動きの困難によって、こうした患者は、可能な範囲内で動こうとしなくなることがある。さらに、認知症、うつ病、躁病、双極性障害、強迫性障害など他の精神神経疾患、またはうっ血性心不全、不整脈、胃腸障害、失禁などの症状は、一般的に患者が活動的でなくなる原因となることがある障害の他の例である。患者は、活動的でなくなると、横臥する可能性、すなわち横になったり座ったりする可能性がさらに高くなり、姿勢を変える頻度が低下することがある。
本発明の実施形態によって、患者の神経学的挙動、歩行、ならびに運動協調性および活動のレベルのうち1つまたは複数を査定することによって、運動疾患および/または神経学的症状向けに指示された適切な治療薬もしくは他の治療形態の、選択および/または運用が可能になる。さらに、これらのメトリクスは、長期の機能回復の重要な特定値である。本発明の実施形態によって、新規の治療法、たとえば新薬の安全性および有効性を判定するための臨床試験の過程において、患者および/または被験者の試験グループに対して、自動化された正確で再現性のある運動機能評価が可能になる。
本発明の実施形態は、運動活性および/または機能不全を正確に判定でき、運動機能の変化を確実に検出できるようにするための、システム、装置、および方法を実現する。本発明の実施形態は、特別な、または専用のセンサまたはコンピュータ機器を必要とせず、患者が、自分の家またはオフィスで使用でき、若い患者も年老いた患者も分け隔てなく容易に使用可能な、こうしたシステム、装置、および方法を実現する。本発明の一実施形態は、機械学習システムを用意するステップと、この機械学習システムをトレーニングして、運動タスクの複数のクラス間で違いを区別するビデオの位置依存の局所運動特徴を見つけるステップと、運動タスクを実行する人または動物の少なくとも一部分を示すビデオを受信するステップと、このビデオを、トレーニングされた機械学習システムに入力するステップと、複数のクラスのいずれに運動タスクが属していると予測されるのかについてのデータを、トレーニングされた機械学習システムから受信するステップと、運動タスクを実行する人または動物の、神経の疾患または症状を評価するステップとを含む、コンピュータ実施方法(computer-implemented method)を含む。
本発明の実施形態は、
複数のフレームを含むビデオデータを受信するステップであって、少なくとも2つのフレームが運動タスクを実行する人間のデジタル表現を含むステップと、ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点を、ビデオデータの少なくとも2つのフレーム内での人間のデジタル表現にマッピングするステップと、ビデオデータの少なくとも2つのフレームについて複数の運動記述子を計算するステップであって、各運動記述子が、基準点のうちの1つに対応するステップと、各運動記述子の少なくとも1つに基づいて、疾患状況および疾患重症度のうちの1つまたは複数を査定するステップとを含む、方法を含む。実施形態によっては、この方法はさらに、運動失調、体幹運動失調、歩行運動失調、四肢運動失調、痙縮、振戦、脱力、測定障害、上肢運動機能障害、器用さ、可動性、下肢機能、およびそれらの組合せから選択される、1つまたは複数の症状を示す疾患重症度のサブスコアを特徴とする。
このシステムの一実施形態を使用して、神経学的症状、たとえば多発性硬化症もしくはパーキンソン病であると診断されたか、またはそう疑われている患者を評価もしくは査定する。
本発明の実施形態は、スマートフォン、または他のパーソナル/ポータブル/モバイルコンピューティング装置で採用されるシステムなど、患者が遠隔で使用できる、こうしたシステム、装置、および方法を実現する。
付随的な特徴の多くは、添付図面とともに考察する以下の発明を実施するための形態を参照することによってさらによく理解されるにつれて、より容易に理解されよう。本明細書では、「運動タスク」は、運動成分または筋肉成分を含め、人間または動物の解剖学的構造の何らかの要素の、選択または定義された動きであることに留意されたい。
この説明は、添付図面に照らして以下の発明を実施するための形態を読めば、さらによく理解されよう。
運動タスクを実行する人のビデオキャプチャの概略図、およびビデオを処理して運動タスクを解析する様子を示す図である。 運動タスクの例の概略図である。 図1の状況で使用してもよいキャプチャ装置の概略図である。 図1のビデオのフレーム、およびフレームを前処理した結果、ならびに前処理装置の概略図である。 機械学習システムをトレーニングして、運動タスクのビデオを解析するためのシステムの概略図である。 ランダム決定フォレスト(random decision forest)をトレーニングして、運動タスクのビデオを分類する方法の流れ図である。 ランダム決定フォレストの概略図である。 トレーニングされたランダム決定フォレストを使用して、運動タスクのビデオを分類する方法の流れ図である。 ビデオ処理システムの各実施形態を実装することができる、例示的なコンピュータベースの装置を示す図である。 一実施形態による方法の流れ図を示す図である。 一実施形態による識別能力のある時空領域学習を示す、加速度のグラフである。 一実施形態による識別能力のある時空領域学習を示す、加速度のグラフである。 運動タスクの追加例の概略図である。
同じ参照番号は、添付図面での同じ部品を指すのに使用される。
添付図面とともに以下に示す詳細な説明は、これらの例を説明するものであって、この例を構成または利用することのできる唯一の形態を表すものではない。この説明は、この例の機能、およびこの例を構成し動作させるためのステップのシーケンスを説明する。しかし、これらの同じまたは同等の機能およびシーケンスは、様々な例で実現してもよい。「患者」、「被験者」、および「人」という用語は、文脈から別のものであると明らかでない限り、区別なく使用されることに留意されたい。
図1は、(腕の位置114で示すように)腕を水平に差し出した位置から開始した後、(腕の位置112で示すように)人差し指を鼻に置くなどの運動タスクを実行する人101の概略図である。これは、運動タスクのほんの一例であり、図2および図12を参照して、以下でさらに多くの例を示す。
運動タスクの解析は、以前より手動で(たとえば目視観測によって)実現してきたが、これには、観察者の先入観、観察者の経験レベル、観察者の環境などのばらつきが生じやすい。以下に述べる様々な例では、運動タスクのビデオを処理して、運動タスクを解析する。たとえば、良、中、弱など(たとえば運動タスクの成果レベルを示すため)2つ以上のクラスに運動タスクを分類するためである。本明細書に記載の自動化されたビデオ処理システムを使用することによって、高速かつ実用的な方式で、先入観のない正確な格付け/分類を手に入れることが可能である。
例によっては、提案するシステムは次のような利点を示す。臨床医、技能者、看護師、または患者自身によって査定を実行することができる。あらゆる査定が同じアルゴリズムによって実行されるので、この査定には意図的に一貫性がある。このシステムは、人間の知覚によって制限されないので、さらに感度よく状態を査定することができる。最後に、このシステムは、患者が自宅または遠隔でも使用することができ、医療センタまで移動したり、訪問するスケジュールを立てたりする必要もなく、頻繁に査定することが可能になる。
ビデオキャプチャ装置100は、ある環境で運動タスクを実行する人101のビデオを取り込む。図1の例での環境は、壁にかかった絵106、長椅子110、および壁にかかった衣服108がある部屋である。しかし、これはほんの一例であり、他の環境を使用してもよい。ビデオキャプチャ装置100は、壁に取り付けてユーザの方へ向けてもよく、コンピューティング装置、テーブル、または他の構造体など別の方式で支持してもよい。図2を参照しながら、ビデオキャプチャ装置100についてさらに詳しく説明する。この装置は、毎秒30フレーム以上などのフレームレートで取り込まれた複数のフレームを含む画像ストリーム116を取り込む。運動タスクおよびビデオキャプチャ機器のタイプに応じて、他のフレームレートを使用することができる。適切な同意の下で取り込まれた人のビデオ、およびビデオ素材は、安全かつ非公開の方式で記憶されることが好ましい。
取り込まれたフレームは、コンピューティング装置104に入力してもよく、この装置は、ビデオキャプチャ装置100と一体化してもよく、または無線通信、有線接続、または他の方式でビデオキャプチャ装置に接続してもよい。コンピューティング装置104は、クラウド内にあって、クラウドサービスとして提供してもよい。図1の例では、単一のコンピューティング装置104が示してある。しかし、協力して機能を実現する複数の分散コンピューティング装置を使用することも可能である。
図1のコンピューティング装置104は、ビデオを前処理して、前処理済み画像120を生成する、前処理構成要素118を備える。したがって、実施形態によっては、前処理を使用して、たとえば空間内の同様の位置が同様の意味をもつようにビデオを標準化し、かつ/または査定される実際の運動機能もしくは機能不全とはほとんど関係ない情報を取り除く。コンピューティング装置104はまた、ランダム決定フォレスト、一群のサポートベクタマシン、または運動タスク分類データ124を出力する他のトレーニングされた機械学習システムなど、トレーニングされた機械学習システム122を備える。
機械学習システムをトレーニングして、運動タスクのクラスの良好な判別子である位置依存の局所運動特徴を学習する。たとえば、ランダムに選択された局所運動特徴をトレーニング中に査定することができ、良好な判別を実行する特徴が選択される。位置依存の特徴は、ビデオの1つまたは複数のサブボリュームの特性である。ビデオを形成するフレームのシーケンスは、相対的に大きいボリュームの隣接領域でのボリュームおよびサブボリュームを形成するものと考えることができる。サブボリュームは、ビデオの時間および空間における特定の位置にあるので、サブボリュームの特性は位置に依存する。局所運動特徴は、サブボリュームのフレーム内の画像要素が、画像フレーム間で位置をどのように変化させるのかに関係する、1つまたは複数のサブボリュームの特性である。たとえば、局所運動特徴は、画像要素の速度または加速度に関係することがある。加速度という用語は、ここでは、速度の大きさもしくは速度の方向の変化率、または速度の大きさと速度の方向の両方の変化率を指すために使用される。この文書でさらに詳細に説明するように、位置依存の局所運動特徴は、運動タスクのクラス用の有効な判別子を提供できることが分かってきた。
図2は、解析することのできる運動タスクの例示的なタイプの概略図である。第1の運動タスクは、指から鼻へのタスク200であり、このタスクは、人が、身体から離れるように延びた水平位置まで腕を上げ、人差し指で指すことを含み、次いでこの人は、ひじを曲げることによって腕を動かして、水平位置から腕の位置を変えることなく人差し指を鼻に置く。通常、この試験は、それぞれの腕で実行され、それぞれ3回繰り返される。この試験は、被験者の目を開けて、目を閉じて、またはその両方で(すなわち、それぞれ少なくとも1回)実行してもよい。
指から指へのタスク204は、身体から離れるように延びた肩の高さの水平位置まで両腕を上げ、人差し指が身体から離れるように指すことを含む。次いでこの人は、両腕が水平のまま、身体の前の人差し指が互いに触れ合うように両腕を動かす。この運動が3回繰り返される。この試験は、被験者の目を開けて、目を閉じて、またはその両方で(すなわち、それぞれ少なくとも1回)実行してもよい。
正方形を描くタスク202と呼ばれている別の運動タスクでは、人は、仮想のサイズが等しい2つの正方形を、身体の前の目の高さで、それぞれの人差し指で1つずつ空中に描く。正方形は、目の高さから胸まで下方に延び、身体の両側に向けて外方へ延び、目の高さまで上方に戻り、次いで身体に向けて戻る。これらの正方形は、両手で同時に描かれる。この試験は、被験者の目を開けて、目を閉じて、またはその両方で(すなわち、それぞれ少なくとも1回)実行してもよい。
体幹運動失調タスク206では、人が、着座位置で開始し、両腕を水平外方に、身体の両側へ、かつ身体から離れるように、手の平を下側にして延ばすことを含む。同時に、この人は、両足を、身体の前方で、かつ身体から離れるように延ばし、少なくとも5秒間その位置を保持し、次いで開始位置まで戻る。この試験は、被験者の目を開けて、目を閉じて、またはその両方で(すなわち、それぞれ少なくとも1回)実行してもよい。
図12を参照して、運動タスクのさらに多くの例を説明する。
カップから飲む運動タスク1200は、座っている人がカップを片手で掴んで、これを持ち上げ、そこから一口飲み、次いでカップを取り替え、もう一方の手を使用してこの運動を繰り返す動作を含む。
通常の歩行運動タスク1202では、画像/ビデオキャプチャ装置に至るまで、画像/ビデオキャプチャ装置に向けて、人が通常通りに歩くことを含む。
片足で軽く跳ぶタスク1204では、人が、起立し、地面から片足を上げ(場合によっては、静止した物体または別の人に手を置くことによってバランスをとり)、画像/ビデオキャプチャ装置に最も近いもう一方の足で、元気よく10回軽く跳ぶことを含む。
ロンベルクタスク1206では、身体の両側で両腕を保持し、身体の前方でこの腕と手を肩の高さまで水平位置で上げ、手の平を上に向けることを含む。5秒間この位置を保持し、次いで目を閉じ、さらに5秒間その位置を保持した後に、両腕を身体の両側に戻すことを含む。
その場で回転するタスク1208では、人が、腕を身体の側部に置いて起立し、可能な限り側方に踏み出すことなく360°回転することを含む。
ページをめくるタスク1210では、人が、左手を使用して読み進める方向に(右から左へ)本を3ページめくり、次いで右手を使用して逆向きに3ページめくる。
真っすぐ歩くタスク1212では、人が、かかととつま先を揃えるように一方の足をもう一方の足の前に出して、画像/ビデオキャプチャ装置に至るまで、画像/ビデオキャプチャ装置に向けて直線に沿って歩くことを含む。
図2および図12に示した運動タスクの例は、考えられる運動タスクの例の網羅的なリストではなく、技術を例示するために示すものである。さらに、繰返しの数およびタスクの持続時間は例示的なものにすぎず、当業者には明らかなように、これに修正を加えてもよい。
実施形態によっては、評価するために信頼性の高い画像結果を提示するとともに、神経学的症状と良好な相互関係をもつように、特定の運動タスクが選択される。これらの目的に適したいくつかの運動タスクが図2および図12に示してあり、これらのタスクのみで使用するか、または他の運動タスクとともに使用して、自動化された査定を実行するのに役立ててもよい。
次に、図3を参照する。図3には、図1のカメラベースのシステムで使用できる例示的なビデオキャプチャ装置100の概略図が示してある。図3の例では、ビデオキャプチャ装置100は、デプスビデオ(デプスカメラ302を使用して)ならびにカラービデオ(RGBカメラ306を使用して)を取り込むように構成される。本発明の実施形態は、カラービデオのみ、またはデプスビデオのみを取り込むように構成してもよい。デプスカメラ302を使用する場合、このカメラは、たとえば飛行時間型、構造光、ステレオ、または適切な組合せなど、任意の適切なタイプとすることができる。デプスカメラは、例によってはスペックル非相関を使用してもよい。カラービデオカメラを使用する場合、人を識別できる顔の特徴または他の視覚的特徴を、カラービデオから作成することができる。実施形態によっては、カラービデオをデプスビデオとともに使用してもよく、画像を連結してもよい。
ビデオキャプチャ装置100は、少なくとも1つの画像センサ300を備える。図3に示した例では、画像センサ300は、シーンのデプス画像を取り込むように構成されたデプスカメラ302を備える。取り込まれたデプス画像は、取り込まれたシーンの2次元(2D)領域を含むことができ、ここで2D領域でのそれぞれの画像要素は、デプスカメラ302から取り込まれたシーン内の対象物の長さまたは距離などの深度値を表す。
キャプチャ装置は、深度情報をデプスカメラ302によって確認できるような方式でシーンを照明するように構成された発光体304を備えることもできる。たとえば、デプスカメラ302が赤外(IR)飛行時間型カメラである実施形態では、発光体304は、赤外(IR)光をシーン上に放射し、デプスカメラ302は、シーン内の1つまたは複数のターゲットおよび対象物の表面からの後方散乱光を検出するように構成される。例によっては、出力光パルスと対応する入力光パルスとの間の時間を、デプスカメラによって検出し、これを測定および使用して、ビデオキャプチャ装置100から、シーン内のターゲットまたは対象物上の位置までの物理距離を決定できるように、発光体304からパルス状の赤外光を放射することができる。さらに、例によっては、発光体304からの出力光波の位相を、デプスカメラ302での入力光波の位相と比較して、位相シフトを決定することができる。次いで、位相シフトを使用して、キャプチャ装置100からターゲットまたは対象物上の位置までの物理距離を決定することができる。さらなる例では、たとえばシャッタ光パルスイメージングを含む様々な技法を用いて、ある時間にわたって光の反射ビームの強度を解析することにより、飛行時間型解析を使用して、キャプチャ装置100からターゲットまたは対象物上の位置までの物理距離を間接的に決定することができる。
他の実施形態では、キャプチャ装置100は、構造光を使用して深度情報を取り込むことができる。このような技法では、発光体304を使用して、パターン光(たとえば、グリッドパターンまたは縞模様など既知のパターンとして表示される光)をシーンに投射することができる。シーン内の1つもしくは複数のターゲットまたは対象物の表面にぶつかると、このパターンが変形する。パターンのこのような変形をデプスカメラ302によって取り込み、次いでこれを解析して、キャプチャ装置100からシーン内のターゲットまたは対象物上の位置までの物理距離を決定することができる。
実施形態によっては、デプスカメラ302は、深度情報を生成するために分解できる視覚的なステレオデータが得られるように、シーンを様々な角度から見る2つ以上の物理的に分離されたカメラの形態とすることができる。この場合、発光体304を使用してシーンを照明することができ、またはこの発光体304を省くことができる。
実施形態によっては、デプスカメラ302に加えて、またはそれに代えて、キャプチャ装置100がRGBカメラ306を備えることができる。RGBカメラ306は、可視光周波数においてシーンの画像のシーケンスを取り込むように構成され、したがって、デプス画像を増やし、かつ/または置き換えるために使用できる画像を提供することができる。例によっては、デプスカメラ306を必要とせず、RGB画像から深度を計算してもよい。
たとえば、デプスカメラを使用せずにRGB画像を取り込んでもよく、たとえば、画像再構成技法によってRGB画像から深度を計算して、デプス画像と同様にして使用できるデータを提供してもよい。
図3に示すキャプチャ装置306はさらに、少なくとも1つのプロセッサ308を備え、このプロセッサは、画像センサ300(すなわち、図3の例ではデプスカメラ302およびRGBカメラ306)ならびに発光体304と通信する。プロセッサ308は、汎用のマイクロプロセッサ、または専用の信号/画像プロセッサとすることができる。プロセッサ308は、画像センサ300および発光体304を制御して、デプスビデオおよび/またはRGBビデオを取り込むための命令を実行するように構成される。本発明の実施形態によっては、プロセッサ308は、場合によっては、これらのビデオに処理を実行するように構成することができる。
図3に示すキャプチャ装置306はさらに、プロセッサ308が実行するための命令、ビデオもしくはデプスカメラ302もしくはRGBカメラ306によって取り込まれたビデオのフレーム、または他の任意の適切な情報、画像などを記憶するように構成されたメモリ310を備えることができる。実施形態によっては、メモリ310は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、キャッシュ、フラッシュメモリ、ハードディスク、または他の任意の適切な記憶構成要素を備えることができる。メモリ310は、プロセッサ308と通信する別個の構成部品とすることができ、またはプロセッサ308に統合することができる。
キャプチャ装置100はまた、プロセッサ308と通信する出力インターフェース312を備え、通信リンクを介してコンピューティング装置104にデータを提供するように構成される。この通信リンクは、たとえば、有線接続(USB、ファイアワイヤ、イーサネット(登録商標)、もしくは同様のもの)、および/または無線接続(WiFi、Bluetooth(登録商標)、もしくは同様のもの)とすることができる。他の例では、出力インターフェース312は、1つまたは複数の通信ネットワーク(インターネットなど)とインターフェースし、これらのネットワークを介してコンピューティング装置104にデータを提供することができる。
図4は、図1のビデオのフレーム400およびこのフレームを前処理した結果410、ならびに前処理装置118の概略図である。ビデオのフレーム400は、人が、この例では中心からわずかに外れていて、キャプチャ装置から任意の深度にある状態を示す。前処理装置118は、場合によっては、修復ステップ402を実行し、前景抽出404、センタリング406を実行し、深度情報が利用可能な場合、前景を標準的な深度にマッピングする。このようにして、前処理済みのビデオの各フレーム間の比較は、前処理しなかった場合よりも簡単に実行することができる。たとえば雑音によって値が欠落するか値に誤りのある画像要素を前景が含む場合、修復ステップ402を使用してもよい。デプスビデオカメラを使用する場合に、これが特に有用である。修復するステップは、欠落している画像要素に最も近い近接部に基づいて計算された値で、または他のよく知られた方式で、欠落している画像要素値を埋めるステップを含んでもよい。
深度データを使用して(深度データが利用可能な場合)、たとえば、深度のガウスモデルと、それに続く測地線改善段階を使用して、前景抽出404を実行してもよい。深度のガウスモデルは、フレーム内で観察される深度のヒストグラムに適合した、ガウス混合モデルを含んでもよい。一例では、第1のガウスモードは、前景に対応していると解釈される。しかし、他のモードまたはモードの組合せを使用してもよい。測地線改善段階は、シード領域として最も頻繁に生じる深度範囲になる深度値を有する画像要素を使用するステップと、シード領域からの他の各画像要素の測地線距離を計算するステップとを含んでもよい。次いで、閾値を使用して前景領域を改善するために、測地線距離を使用してもよい。
カラービデオを使用する実施形態では、カラーデータを使用することによって、画像内のエッジを識別することによって、または他の方式で、前景抽出404を実現してもよい。
センタリングプロセス406は、テンプレートマッチングを使用して、フレーム内に示した人の頭または他の指定された身体部位を検出するステップを含んでもよい。いったん検出されると、この身体部位は、前処理済みの画像410内でセンタリングされ、また(デプスフレームが関係する場合は)スケーリングされ、または標準的な深度にマッピングされてもよい(408)。他の例では、センタリングプロセスは、前景領域の質量中心を計算するステップと、この質量中心を前処理済みの画像の中心に位置合せするステップとを含む。カラービデオを使用する場合、身体部位は、標準的な深度にマッピングするのではなく、指定されたサイズにスケーリングされる。
機械学習システムを備える本発明の実施形態では、この機械学習システムをトレーニングして、運動タスクのクラスの良好な判別子である位置依存の局所運動特徴を見つけることができる。運動タスクのラベル付きビデオ500を使用して、機械学習システムをトレーニングしてもよい(図5参照)。このラベルは、図示した運動タスクがいずれのクラスに該当するのかを示す。ラベルは、たとえば人間の判断によって割り当ててもよい。ラベル付きビデオは、様々な長さでもよい。ラベル付きビデオは、前述の前処理装置118を使用して前処理されて、トレーニングデータ502を生成する。運動記述子が、トレーニングデータビデオから計算され(504)、この運動記述子をトレーナ506が使用して、トレーニングされた機械学習システム508を生成する。たとえば、トレーニングされた機械学習システムは、ランダム決定フォレスト、一群のランダム化されたサポートベクタマシン、ニューラルネットワーク、またはブースティングシステムを含む。
運動記述子を計算するプロセス504の実施形態は、ビデオのうちの1つから(トレーニングデータ502から)ビデオフレーム510のペアを選択するステップと、他には「ペアワイズ」解析としても知られている、ビデオフレームの各ペアの間での画像要素の動きの大きさおよび/または方向(またはこれらの量の変化)を示す運動記述子を計算するステップとを含んでもよい。1対のフレームは、2つの連続したフレームでもよい。たとえば、運動記述子を、トレーニングビデオ内の連続したフレームの各ペアについて計算し、トレーナに入力してもよい。実施形態によっては、運動記述子504は、オプティカルフロー値を含む。オプティカルフロー値は、1対のビデオフレーム内での同じシーン要素を示す画像要素の、垂直変位および水平変位の値である。運動記述子としてオプティカルフロー値を使用することが、ロバストで正確な結果をもたらすことが分かってきた。本発明の実施形態では、確度は、少なくとも80%、または85%、または90%以上である。別の例では、運動記述子504は、ビデオフレームのペア間での、身体の関節位置の変位を含む。別の例では、運動記述子504は、ビデオフレームのペア間での、身体部位の重心の変位を含む。別の例では、運動記述子は、あるフレームの前景領域と別のフレームの前景領域との間でのオーバラップしていない領域を含む。
図5の例では、トレーナへの入力に先立って、運動記述子が計算される。これはまた、試験時間に実行してもよい。ビデオが長く、画像サイズが大きい場合、計算すべき運動記述子の数は潜在的に非常に大きく(たとえば、連続したフレームの全てのペアについて)、したがって運動記述子を事前計算することが有益になる場合がある。しかし、トレーニングおよび/または試験段階の一部として、運動記述子を計算することも可能である。この試験段階は、これまで見えなかったビデオ(すなわち、機械学習システムにまだ提示されていないビデオ)において、トレーニングされた機械学習システムが使用されるときである。
実施形態によっては、機械学習システムはランダム決定フォレストを含む。ランダム決定フォレストは、1つまたは複数の決定木(decision trees)を含み、それぞれが、根ノード(root node)、複数の分岐ノード(split nodes)、および複数の葉ノード(leaf nodes)を有する。各分岐ノードで決定が実行されるプロセスにおいて、ビデオは、ランダム決定フォレストのいくつかの木を通って、根ノードから葉ノードへと送られる。以下でより詳細に説明されているように、位置依存の局所運動特徴に従って、この決定がなされる。分岐ノードにおいて、ビデオは、決定の結果に従って選択される分岐を下って、木の次のレベルへと進む。ランダム決定フォレストは、以下でより詳細に述べるように、回帰または分類を使用してもよい。トレーニング中、分岐ノードで使用するためのパラメータ値(位置依存の局所運動特徴を指定する)が学習され、データ(ラベル付きビデオ)が葉ノードで蓄積される。葉ノードで蓄積されるビデオのラベルは、ヒストグラムとして、または平均値、中央値、もしくは最頻値を使用することなど集合形式で、またはヒストグラムに確率分布を当てはめ、確率分布を記述する統計量を記憶することによって記憶してもよい。
システムの試験において、これまで見えなかったビデオを、このシステムに入力して、1つまたは複数の運動タスクのクラスを予測する。これが、図8を参照して説明してある。
図6を参照すると、決定木をトレーニングするために、前述のトレーニングセットがまず受信される(600)。ランダム決定フォレストで使用される決定木の数が選択される(602)。ランダム決定フォレストは、決定論的な決定木の集合である。決定木は、分類または回帰のアルゴリズムで使用することができるが、過剰適合、すなわち正確さに欠ける一般化に陥る可能性がある。しかし、ランダムにトレーニングされた数多くの決定木(ランダムなフォレスト)の集団によって、改善された一般化が実現する。トレーニングプロセス中、木の数は固定されている。
例示的なランダム決定フォレストが、図7に図示してある。図7の例示的な決定フォレストは、3つの決定木、すなわち第1の木700、第2の木702、および第3の木704を含む。それぞれの決定木は、根ノード(たとえば第1の決定木700の根ノード706)、分岐ノード(たとえば第1の決定木700の分岐ノード708)と呼ばれる複数の内接点、および複数の葉ノード(たとえば第1の決定木700の葉ノード710)を含む。
決定フォレストからの決定木が選択され(604)(たとえば、第1の決定木600)、根ノードが選択される(606)。次いで、候補特徴として根ノードにおいて実行されるバイナリテストが使用するための、試験パラメータのランダムなセットが生成される(610)。本明細書に記載の例では、位置依存の局所運動特徴が使用される。フレーム内の2Dおよび/またはフレームのシーケンス内の時間におけるビデオ内の位置が、ランダムに選択される。複数の様々なタイプの特徴から、特徴がランダムに生成される。たとえば、ビデオのサブボリュームに関連する以下の4つのタイプの特徴が使用される。ビデオのサブボリュームは、ビデオ内の時空窓を選択する直方体でもよい。サブボリュームは、シンボルBで表してもよく、第1のフレーム内の2Dの水平および垂直の画像座標、ならびに第2のフレーム内の2Dの水平および垂直の画像座標によって指定してもよく、ここで、第1のフレームと第2のフレームの間のフレームの数が指定される。たとえば、B=(x1,y1,x2,y2,T1’,T2’)である。しかし、直方体形状のサブボリュームを使用することは不可欠ではない。他の3D形状のサブボリュームも使用してよい。
第1のタイプの特徴は、単一のサブボリュームの関数である。第1のタイプの特徴の一例が、f(d,B)で示され、これはパラメータdの関数として文字で表現してもよく、このパラメータは、サブボリュームB内で計算するための局所運動特徴のタイプを示す。使用してもよい例示的な関数fについてのさらなる詳細を以下に述べる。
第2のタイプの特徴は、2つのサブボリュームの関数である。第2のタイプの特徴の一例が、f(d,B)+f(d,B)で示され、これは、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数と、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数との合計として、文字で表現してもよい。
第3のタイプの特徴は、2つのサブボリュームの関数である。第3のタイプの特徴の一例が、f(d,B)−f(d,B)で示され、これは、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数と、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数との差として、文字で表現してもよい。
第4のタイプの特徴は、2つのサブボリュームの関数である。第4のタイプの特徴の一例が、|f(d,B)−f(d,B)|で示され、これは、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数と、サブボリュームB内で計算するための局所運動特徴のタイプを示すパラメータdの関数との絶対差として、文字で表現してもよい。
加速度特徴または速度特徴など、局所運動特徴を合計することによって、関数fを計算してもよい。加速度特徴が計算される一例を次に示す。
ここで、T(B)はサブボリュームのフレームの数であり、シンボル

は推定された加速度特徴(局所運動特徴の一例)であり、以下に説明するように、サブボリューム内のそれぞれの画像要素位置(または、これらの位置のサブセット)について、この特徴を計算してもよい。前述の関数は、所与の局所運動特徴のタイプの関数fとして文字で表してもよく、所与のサブボリュームが、サブボリュームのフレーム当たりの加速度特徴の平均値として計算される。
オプティカルフローベクトルの変化率が方向を変える回数を数えるが、オプティカルフローベクトルの大きさが非常に小さい場合には方向の変化を無視することによって(ヘビサイドの階段関数もしくは閾値を使用することによって、または他の方式で)、推定された加速度特徴

を計算してもよい。
別の例では、上記の推定された加速度特徴の代わりに、推定された速度特徴を使用してもよい。たとえば、オプティカルフローベクトルの変化率を考慮に入れることによってではなく、オプティカルフローベクトルが方向を変える回数を数えることによってである。
図6のステップ601において、候補特徴として分岐ノードにおいて実行されるバイナリテストが使用するための、試験パラメータのランダムなセットが生成される(610)。一例では、これらのパラメータは、(1つまたは複数の)サブボリュームのパラメータ(すなわち、使用されるサブボリュームの位置および持続時間を指定する)と、閾値パラメータ(バイナリテストにおいて特徴を比較するための)と、計算すべき局所運動特徴のタイプを示すパラメータd(たとえば、x方向での速度、y方向での速度、x方向での加速度、y方向での加速度)と、上記4つの特徴のうち1つ(またはそのうちの他の数)を選択する変数kを含んでもよい。
次いで、試験パラメータのあらゆる組合せを、現ノードに到達したそれぞれのビデオに適用してもよい(612)。それぞれの組合せについて、判定基準(目標とも呼ばれる)が計算される(614)。一例では、計算された判定基準は、情報利得(別名相対エントロピー)を含む。情報利得を最大化することなど、判定基準を最適化するパラメータの組合せが選択され(614)、将来使用するため現ノードに記憶される。情報利得の代わりとして、ジニエントロピーまたは「two−ing」判定基準もしくは他の基準など、他の判定基準を使用することができる。
次いで、計算された判定基準での値が、閾値よりも小さい(または大きい)かどうか判定される(616)。計算された判定基準での値が閾値よりも小さい場合、これは、木をさらに拡張してもメリットが得られないことを示す。これにより、さらなるノードが有益でないときに必然的に成長を止める、非対称な木が生じる。こうした場合には、現ノードが葉ノードとして設定される(618)。同様に、木の現在の深さが決定される(すなわち、根ノードと現ノードの間にノードのレベルがいくつあるのか)。これが、既定の最大値よりも大きい場合、現ノードが葉ノードとして設定される(618)。それぞれの葉ノードは、以下に述べるようにトレーニングプロセス中に各葉ノードで蓄積する、ラベル付きビデオを有する。
代わりとして、または既に述べたものと組み合わせて、別の停止判定基準、たとえばノードに到達するビデオの数の査定を使用することも可能である。(たとえば閾値と比較して)例が少なすぎる場合、プロセスは、停止して過剰適合を回避するように構成してもよい。しかし、この停止判定基準を使用することは不可欠ではない。
計算された判定基準での値が閾値以上であり、木の深さが最大値よりも小さい場合、現ノードが分岐ノードとして設定される(620)。現ノードが分岐ノードである場合、この現ノードは子ノードを有し、次いで、プロセスは、これらの子ノードをトレーニングするステップに移る。それぞれの子ノードは、トレーニングビデオのサブセットを使用して、現ノードにおいてトレーニングされる。判定基準を最適化したパラメータを使用して、子ノードに送られるビデオのサブセットが決定される。これらのパラメータがバイナリテストで使用され、このバイナリテストが、現ノードにおいて全てのビデオに対して実行される(622)。バイナリテストを通るビデオが、第1の子ノードに送られる第1のサブセットを形成し、バイナリテストに通らない画像要素が、第2の子ノードに送られる第2のサブセットを形成する。
子ノードのそれぞれにおいて、それぞれの子ノードに向けられるビデオのサブセットについて、図6のブロック610〜622で概要を述べたプロセスが再帰的に実行される(624)。すなわち、それぞれの子ノードについて、新規のランダムな試験パラメータが生成され(610)、ビデオのそれぞれのサブセットに適用され(612)、判定基準を最適化するパラメータが選択され(614)、ノードのタイプ(分岐または葉)が決定される(616)。このタイプが葉ノードである場合、再帰の現分岐が停止する。このタイプが分岐ノードである場合、バイナリテストが実行されて(622)、ビデオのさらなるサブセットを決定し、再帰の別の分岐が開始する。したがって、このプロセスは、木を通って再帰的に移動し、各分岐において葉ノードに達するまで、各ノードをトレーニングする。葉ノードに達すると、このプロセスは、全ての分岐でのノードがトレーニングされるまで待つ(626)。他の例では、再帰に代わる技法を使用して、同じ機能を実現できることに留意されたい。
それぞれの分岐ノードにおいて判定基準を最適化するバイナリテスト用のパラメータを決定するよう、木における全てのノードが訓練され、それぞれの分岐を終了するよう葉ノードが選択されると、木の葉ノードにおいてビデオラベルを蓄積してもよい(628)。蓄積されたビデオラベルの表示は、様々な異なる方法を使用して記憶してもよい(630)。
蓄積されたビデオラベルが記憶されると、決定フォレスト内に木がさらに存在するかどうか判定される(632)。存在する場合、決定フォレスト内の次の木が選択され、このプロセスが繰り返される。フォレスト内の全ての木がトレーニングされ、他に残っていない場合、トレーニングプロセスが完了し、このプロセスが終了する(634)。
したがって、トレーニングプロセスの結果として、実験的なトレーニングビデオを使用して、1つまたは複数の決定木がトレーニングされる。それぞれの木は、最適化された試験パラメータを記憶する複数の分岐ノード、および関連するラベル付きビデオまたは集合ビデオラベルの表示を記憶する葉ノードを含む。各ノードで使用される制限サブセットからパラメータがランダムに生成されるので、フォレストの木は互いに別個のものである(すなわち異なっている)。
トレーニングされた予測システムを使用して、ビデオ内での運動タスクのクラスを識別するのに先立って、トレーニングプロセスを実行してもよい。しばらく経って運動タスクのクラスを識別するのに使用するために、決定フォレストおよび最適化された試験パラメータを記憶装置に記憶してもよい。
図8には、前述の通りトレーニングされてきた決定フォレストを使用して、これまで見えなかったビデオ内の運動タスクのクラスを予測するためのプロセスの流れ図が示してある。まず、見えなかったビデオが受信される(800)。運動タスクのクラスが指定されたトレーニングビデオと区別するため、ビデオは「見えなかった」と呼ばれる。図4を参照して先に述べた通り、見えなかったビデオは、ある程度は前処理することができることを留意されたい。
オプティカルフローまたは他の運動記述子が計算される(802)。決定フォレストからトレーニングされた決定木も選択される(804)。選択されたビデオは、(図6および図7を参照して先に述べたのと同様にして)選択された決定木を通って送られ(806)、その結果、トレーニングされたパラメータに対してノードにおいて試験され、次いで、試験の結果に基づいて適切な子に送られ、ビデオが葉ノードに到達するまでプロセスが繰り返される。ビデオが葉ノードに到達すると、この葉ノードに関連する蓄積されたラベルが、このビデオについて記憶される(808)。
フォレスト内に決定木がさらに存在すると判定されると(810)、新規の決定木が選択され(804)、この木を通ってビデオが送られ(806)、蓄積されたラベルが記憶される(808)フォレスト内の全ての決定木について実行されるまで、これが繰り返される。決定フォレスト内の複数の木を通ってビデオを送るためのプロセスは、図8に示すような順序通りではなく、並列に実行できることに留意されたい。
平均化することによって、または他の方式で、インデックス付き葉ノードからのデータが統合される(814)。たとえば、クラスラベルのヒストグラムが葉ノードにおいて記憶される場合、インデックス付き葉ノードからのヒストグラムが結合され、これを使用して、ビデオに関連する1つまたは複数の運動タスクを識別する。このプロセスは、結果として少なくとも1つの運動タスクのクラスを出力し(816)、この運動タスクのクラスの信頼度の重み付けを出力することができる。これにより、提案がよいかどうか、任意の後続アルゴリズムが査定する役に立つ。たとえば不確実性が存在する場合には、2つ以上の運動クラスを出力してもよい。
実施形態によっては、機械学習システムは、一群のサポートベクタマシンを含む。サポートベクタマシンは、特徴空間内の超平面を使用して分類を実現する、非確率論的バイナリ分類子である。
一例では、サポートベクタマシンは、たとえば図6〜8を参照して先に述べたようなランダム決定フォレストの分岐ノードに関連する(または、それを置き換える)。サポートベクタマシンは、それぞれの分岐ノードに到達したトレーニングビデオを、入力として取り入れる。これら入力されたトレーニングビデオは、その特徴空間を形成し、1つまたは複数の超平面を計算して、特徴空間のバイナリ分類を生成する。このようにして、サポートベクタマシンを使用して、ランダムな決定木において先に述べたように情報利得または他の判定基準を査定するのではなく二者択一を実行する。このようにして、ランダム決定フォレストをトレーニングするための図6のプロセスは、それぞれの分岐ノードにおいてサポートベクタマシンを使用することによって、一群のサポートベクタマシンをトレーニングするように適合することができる。分岐ノードのタイプ(ランダム決定分岐ノードまたはサポートベクタマシン分岐ノード)を混合したものを使用することも可能である。その結果得られる一群のサポートベクタマシン、またはサポートベクタマシン/ランダム決定ノードを混同したものを、図8のプロセスを修正することによって試験時間において使用してもよい。このようにして、実際的に、極めて高くかつ可変数の次元を含むタスクにおいて、サポートベクトルマシン技術を使用することが可能である。それぞれのサポートベクタマシンは、2進木構造を通って到達するトレーニングビデオのみを受信するので、実際的なタイムスケールでトレーニングが実現される。
一群のランダム化されたサポートベクタマシンが使用される別の例を、次に示す。一群のランダム化されたサポートベクタマシンをトレーニングするために、それぞれのラベル付きトレーニングビデオから固定長特徴ベクトルが計算される。固定長の特徴ベクトルは、ビデオの複数の位置依存の局所運動の特徴を含む。たとえば、ランダム決定フォレストについての説明で先に述べた4つの特徴のうち、1つまたは複数を任意に組み合わせたものを使用してもよい(ただし、他の特徴を使用してもよい)。ベクトルまたはリストなど、固定サイズの特徴記述子を作成することにより、結果として得られるシステムは、ビデオの長さに関係なく動作可能である。時間正規化技法とは対照的に、ビデオ内の動き特性を失うことなく、これが実現される。
それぞれの特徴記述子での特徴がランダムに選択される。特徴記述子は、サポートベクタマシンが学習を実行する特徴空間を定義する。一例では、一群のうちの個々のサポートベクタマシンがトレーニングされて、様々なクラスでラベル付けされたトレーニングビデオのサンプル間でのマージンを最大化する超平面を見つける。サポートベクタマシンのそれぞれが、このようにしてトレーニングされる。その結果得られる一群のランダム化されたサポートベクタマシンを、図8のプロセスを修正することによって試験時間において使用してもよい。
前述の実施形態および例では、機械学習システムが、運動タスクのビデオをクラスまたは評点に分類する。しかし、別法として、またはさらに、本発明の実施形態では、機械学習システムは、個別のクラスラベルとは対照的に、トレーニングされた機械学習システムから連続値出力が得られるように、分類ではなく回帰を使用してもよい。たとえば、これらの連続値出力は、運動タスクの査定尺度上の数値でもよい。
図9には、例示的なコンピューティングベースの装置104の様々な構成部品が示してあり、この装置は、どんな形式のコンピューティング装置および/または電子装置として実装してもよく、この装置では、運動タスク分類システムの実施形態を実装してもよい。
コンピューティングベースの装置104は、1つまたは複数のプロセッサ900を備え、このプロセッサは、コンピューティング実行可能な命令を処理して、ビデオ内での運動タスクのクラスを予測するために装置の動作を制御するための、マイクロプロセッサ、コントローラ、グラフィック処理装置、並列処理装置、または他の任意の適切なタイプのプロセッサでもよい。システムオンチップのアーキテクチャが使用されるチームなどいくつかの例では、プロセッサ900は、(ソフトウェアまたはファームウェアではなく)ハードウェアで運動タスク分類の方法の一部を実施する、1つまたは複数の固定機能ブロック(アクセラレータとも呼ばれる)を備えてもよい。
コンピューティングベースの装置104は、ユーザ入力装置(たとえば、キャプチャ装置100、キーボード906および/またはマウス908)など、1つまたは複数の装置からの入力を受信および処理するように構成された、1つまたは複数の入力インターフェース902を備える。このユーザ入力を使用して、コンピューティング装置104で実行されるソフトウェアアプリケーションを制御してもよい。
コンピューティングベースの装置104はまた、表示装置924に表示情報を出力するように構成された出力インターフェース910を備える。この表示装置は、コンピューティング装置104から分離することもでき、またはそれと一体化することもできる。たとえば、重畳された運動タスク分類データとともにビデオを表示するためである。表示情報は、グラフィカルユーザインターフェースを提示してもよい。一例では、表示装置924はまた、タッチセンシティブ表示装置である場合、ユーザ入力装置の役割を果たしてもよい。出力インターフェースはまた、たとえばローカル接続された印刷装置など、表示装置ではない装置にデータを出力してもよい。
コンピューティングベースの装置104からアクセス可能な、任意のコンピュータ読取り可能な媒体を使用して、コンピュータ実行可能命令を提供してもよい。コンピュータ読取り可能な媒体は、たとえば、メモリや通信媒体などのコンピュータ記憶媒体を含んでもよい。メモリ912などのコンピュータ記憶媒体には、コンピュータ読取り可能な命令、データ構造、プログラムモジュール、または他のデータなど、情報を記憶するための任意の方法または技術で実装された、揮発性および不揮発性、取外し可能および取外し不可能な媒体が含まれる。コンピュータ記憶媒体には、それだけには限定されないが、RAM、ROM、EPROM、EEPROM、フラッシュメモリ、もしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置、もしくは他の磁気記憶装置、または、コンピューティング装置がアクセスする情報を記憶するのに使用できる他の任意の非伝送媒体が含まれる。対照的に、通信媒体は、搬送波、または他の搬送メカニズムなど変調されたデータ信号内に、コンピュータ読取り可能な命令、データ構造、プログラムモジュール、または他のデータを含んでもよい。本明細書において規定するように、コンピュータ記憶媒体には、通信媒体は含まれない。したがって、コンピュータ記憶媒体は、本質的に伝搬信号とみなすべきではない。伝搬信号は、コンピュータ記憶媒体内に存在していてもよいが、本質的に、伝搬信号はコンピュータ記憶媒体の例ではない。コンピュータ記憶媒体(メモリ912)の一例が、コンピューティングベースの装置104内に示してあるが、記憶装置は、分散してもよく、または遠隔に配置してもよく、ネットワークまたは他の通信リンクを介して(たとえば、通信インターフェース913を使用して)アクセスしてもよいことが理解されよう。
オペレーティングシステム914または他の任意の適切なプラットフォームソフトウェアを含むプラットフォームソフトウェアは、コンピューティング装置104に設けられて、アプリケーションソフトウェア916が装置上で実行できるようにする。コンピューティング装置104上で実行できる他のソフトウェアには、トレーニングロジック918(たとえば、図6〜図7および上記説明参照)、予測ロジック920(たとえば、図8および上記説明参照)が含まれる。これまでに受信したビデオ、中間機能結果、木トレーニングパラメータ、確率分布、分類ラベル、回帰目標、分類目標、他のデータなど、データを記憶するためのデータ記憶装置922が設けられる。
入力インターフェース902、出力インターフェース910、表示装置924、およびユーザ入力装置906、908は、マウス、キーボード、遠隔制御装置などの入力装置によって強いられる人工的な束縛がなく、ユーザがコンピューティングベースの装置と自然なやり方で対話できるようにする、NUI(ナチュラルユーザインターフェース)技術を含んでもよい。実現できるNUI技術の例には、それだけには限らないが、音声認識および/または発話認識、タッチ認識および/またはスタイラス認識(タッチセンシティブ表示装置)、画面上と画面に隣接しての両方でのジェスチャ認識、エアジェスチャ、頭部追跡および視標追跡、音声および発話、視覚、触覚、ジェスチャ、ならびに機械知能に頼る技術が含まれる。使用してもよいNUI技術の他の例には、目的/目標理解システム、デプスカメラ(ステレオカメラシステム、赤外カメラシステム、RBGカメラシステム、およびこれらの組合せなど)を使用する運動ジェスチャ検出システム、加速度計/ジャイロスコープを使用する運動ジェスチャ検出、顔認識、3D表示装置、頭、目、および注視の追跡、没入型の拡張現実感およびバーチャルリアリティのシステム、ならびに電界検知電極を使用して脳活動を検知するための技術(EEGおよび関連する方法)が含まれる。
次に図10を参照すると、一実施形態による、疾患、状態、もしくは症状、または疾患、状態、もしくは症状がないことを査定または評価するための方法1000が示してある。方法1000は、様々な実施形態の中でとりわけ図1〜図9に示した環境のいずれにおいても、本発明に従って実行してもよい。もちろん、この説明を読めば当業者には理解されるように、方法1000には、図10で具体的に説明する動作よりも多いまたは少ない動作が含まれてもよい。本明細書では、「疾患」または「症状」は、動き、運動協調性、活動状態、神経性の挙動もしくは状態など、生理機能の任意の外的発現に影響を及ぼすことがあり、または影響を及ぼす状態を指すものである。文脈から別のものであると明らかでない限り、「疾患」および「症状」が区別なく使用される。
方法1000のステップのそれぞれは、動作環境の任意の適切な構成要素によって実行してもよい。たとえば、一実施形態では、方法1000は、制御装置、プロセッサ、パーソナルコンピュータシステム、ラップトップコンピュータ、XBOX Kinectシステムなどによって、部分的または完全に実行してもよい。
動作1002では、ビデオ/画像キャプチャ装置などから、複数のフレームを含むビデオデータが受信される。少なくとも2つのフレームが、人間のデジタル表現を含む。本明細書に記載のビデオ/画像キャプチャ装置、または本明細書には具体的に記載されていないが当技術分野で知られている他の装置のいずれかを使用して、人間のデジタル表現を取り込んでもよく、この装置は、人間の動きを記録するように人間が位置する場所に配置される。人間のデジタル表現には、ビデオ、一連の絵もしくはフレーム、深度データ、または当技術分野で知られている他の任意のタイプのデジタル表現が含まれ得る。
動作1004では、ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点が、ビデオデータの少なくとも2つのフレーム内の人間のデジタル表現にマッピングされる。本明細書に記載の様々な解析法、または本明細書には具体的に記載されていない他の解析法のいずれかを使用して、このマッピングを実行してもよい。
一実施形態では、マッピングは、オプティカルフロー解析を含んでもよく、ここで、それぞれの画素の近傍のフレーム間変位を利用して人間の動きへの洞察を得る。オプティカルフローにより、身体部位を明確に識別する必要もなく、動きを特徴付けることが可能になる。
動作1006では、ビデオデータの少なくとも2つのフレームについて、複数の運動記述子が計算される。それぞれの運動記述子は基準点のうちの1つに対応し、その結果、それぞれの運動記述子の基になる基準の点が存在する。
動作1008では、疾患または症状の状況、および疾患または症状の重症度のうちの1つまたは複数が、運動記述子のうちの少なくとも1つに基づいて査定される。本明細書では、疾患または症状の状況は、疾患のタイプ、人間における疾患の存在、人間における疾患の非存在、疾患の症状、進行具合、段階など、または、疾患もしくは疾患タイプに関連する、当技術分野で知られている他の任意の状況指標を指す。
疾患の状況は、人間に疾患があるかないかの簡略な2値査定を含んでもよく、またはそれより包括的でもよく、また疾患の微妙な差異、疾患の進行具合などを説明してもよい。
したがって、疾患状況は、人間が所定の症状に該当するかどうかの定性的判定、すなわち、疾患または段階の診断、査定、評価でもよい。
疾患重症度は、疾患に苦しめられた人が罹ったと分かった具体的な症状の定量的測定値である。
しかし、これら2つの考え方について、互いに矛盾することはない。疾患重症度スコアを定量化してもよく、次いで、定量的なスコアに基づいて、人間が特定の判定基準/症状を満たすかどうか定性的に判定して、疾患および人間の動き/可動性の質を、より完全に査定してもよい。
マッピングは、動きのシグネチャを提供してもよく、この動きのシグネチャから、各画素の局所的な近傍内での動きの方向が逆転する数を数える「加速度特徴」を計算してもよい。近傍の位置(2D+t)およびサイズは、本明細書においてより詳細に記述されているようにアルゴリズムによって学習してもよい。シグネチャ抽出ステップでは、重要な動き特性がビデオから抽出されて、後続のマッピングステップにおいてコンピュータにとって管理しやすい1組の数まで、ビデオデータを削減する。実施形態によっては、ビデオが運ぶ関連情報は動きパターンを含む。シグネチャ抽出により、動きのそれぞれのタイプについてシグネチャを導出することによって、動きシグネチャの情報量を最大化することができる。実施形態によっては、動きのシグネチャは、相補的な(直交する)側面のみを含んでおり、動きの詳細の最大適用範囲をもたらす。
一実施形態では、ビデオデータには、各画素の近傍のフレーム間変位など、当技術分野で知られているタイプのオプティカルフロー情報が含まれ得る。
本明細書に記載の実施形態によれば、ビデオデータの少なくとも2つのフレームが、互いに時間的にシフトされる。さらなる一実施形態では、人間のデジタル表現の少なくとも一部が、ビデオデータの少なくとも2つのフレーム間で空間的にシフトされてもよい。空間的および時間的にシフトされることによって、ビデオデータ内の人の動きが、ある期間にわたって取り込まれることが意図される。これによって、ビデオ内での人の動きが認識および解析できるようになり、その結果、ビデオデータの少なくとも2つのフレームにわたって複数の運動記述子を計算することができる。
別の実施形態によれば、ビデオデータは、被写界深度、デプススキャナからの深度情報など、非接触アクティブ3次元(3D)スキャン情報を含んでもよい。
他の実施形態では、ビデオデータは、2Dビデオカメラから生成される一連の静止フレームを含んでもよい。さらなる一実施形態では、ビデオデータのフレームのそれぞれは、16ビットのグレースケール画像でもよく、それぞれの画素が、0〜65,536で表される範囲内の輝度値によって特徴付けられる。別の実施形態によれば、ビデオデータのフレームは、16ビット、32ビット、64ビット、128ビットなどのカラー画像でもよく、それぞれの画素が、0〜65,536で表される範囲、または当技術分野で知られている輝度を示す何らかの他の範囲内の輝度値によって特徴付けられる。
方法1000はまた、運動記述子のうちの少なくとも1つに基づいて、疾患重症度スコアを計算するステップを含む。この疾患重症度スコアに少なくとも部分的に基づいて、疾患重症度を査定してもよい。一実施形態では、疾患重症度スコアは、約0.0〜約12.0の範囲の値を含んでもよく、これは、神経状態スコア、身体障害状況スケール、および/または拡張身体障害状況スケールを示す。実施形態によっては、疾患重症度スコアは、0〜100の間、0〜10の間、1〜10の間など、任意の所望の範囲の値を有するようにスケーリングしてもよい。
疾患重症度スコアは、複数の疾患重症度サブスコアのうちの1つまたは複数に、少なくとも部分的に基づいてもよい。疾患重症度サブスコアのそれぞれは、運動タスクに対応する。用語「タスク」の使用は、本明細書において指定された人間の動きに限定されず、事実上、被験者(人間または動物)にその能力があり、定義し反復してもよい任意の動きでもよいことに留意されたい。
本明細書には具体的に記載されていない他の運動タスクとともに、本明細書に記載の運動タスクのいずれかを選択してもよい。たとえば、体幹運動失調タスク、指鼻タスク(finger-to-nose task)、指指タスク(finger-to-finger task)、ロンベルクタスク(Romberg task)、真っすぐ歩くタスク、通常の歩行タスク、その場で回転するタスク、片足で軽く跳ぶタスク、指で正方形を描くタスク、カップから飲むタスク、およびページをめくるタスクのうちのいずれかから、運動タスクを選択してもよい。
疾患重症度スコアは、複数の疾患重症度サブスコアに対応してもよく、それぞれの疾患重症度サブスコアは、1つまたは複数の症候を示してもよい。疾患重症度サブスコアは、本明細書に記載の症候のうちのいずれか、および/または本明細書には具体的に記載されていない他の症候を示してもよい。たとえば、それぞれの疾患重症度サブスコアは、運動失調、体幹運動失調、歩行運動失調、四肢運動失調、痙縮、振戦の有無、振戦の増減、弱点の有無、弱点の増減、測定障害、上肢運動機能障害、器用さの増減、可動性の増減、下肢機能の増減、筋消耗、筋力低下などから選択された1つまたは複数の症候を示してもよい。
別の実施形態では、方法1000は、運動記述子のうちの少なくとも2つに基づいて、人間のデジタル表現の少なくとも一部分において振戦を検出するステップを含んでもよい。デジタル表現での人間の加速度および/または速度を検出することによって、これを実現してもよい。
検出、査定、評価、解析、定量化、または記録できる疾患は、多発性硬化症、ハンチントン病、パーキンソン病、ルーゲーリック病(ALS)および他の疾患、ならびに/または、動きおよび/もしくは可動性に影響を及ぼす症状から選択してもよい。
疾患状況および疾患重症度のうちの1つまたは複数の査定は、ビデオデータ内でデジタルに表現された人間に対応する、これまでに判定された疾患状況、および/または、ビデオデータ内でデジタルに表現された人間に対応する、これまでに判定された疾患重症度のうちの1つまたは複数に少なくとも部分的に基づいてもよい。
これまでに判定された疾患状況および/または疾患重症度を使用して、これまでのところ査定された疾患状況および/または疾患重症度と比較して、疾患または症状に直面している人の改善または後退を判定してもよい。
ビデオデータは、疾患状況および/または疾患重症度を示す物理的な動きを人間が実行するのを示す。物理的な動きには、本明細書に記載の1つまたは複数の運動タスク、または当技術分野で知られている何らかの他の運動タスクが含まれる。さらなる一実施形態では、ビデオデータは、人間の動きおよび/または可動性のうち2つ以上の側面を査定するために、人間が運動タスクのうち少なくとも2つを実行するところを示してもよい。
手法によっては、運動記述子のそれぞれが、物理的な動きに対応する加速度、および/または物理的な動きに対応する速度を表す。ビデオデータ内でデジタルに表現された人間によって、物理的な動きが実行される。
一実施形態では、速度は、物理的な動きの大きさを統計的に示してもよい。一実施形態では、加速度、すなわち運動ベクトルの方向および/または大きさの時間変化は、物理的な動きの微小振動を示してもよい。加速度は方向変化を指してもよく、この変化は、物理学の意味での加速度(ある時間における速度記述子の変化、たとえば円に沿って速度の大きさが一定の動きは、内向きの加速度が一定の動きである)であるが、一般的な意味(ある時間における速度の大きさの変化)での加速度ではない。したがって、様々な実施形態では、加速度は、物理学の意味での加速度の定義、および一般的な意味での加速度の定義のいずれを指してもよい。
運動記述子のそれぞれは、基準点のうちの1つに対応する動きの大きさを表してもよい。大きさには、当技術分野で知られているタイプのスカラ運動記述子が含まれ得る。別の実施形態では、運動記述子のそれぞれがさらに、動きの方向を表してもよい。方向には、当技術分野で知られているタイプのベクトル運動記述子が含まれ得る。
好ましい手法では、現在開示されている疾患の状況および/または重症度の(1つまたは複数の)査定は、1つまたは複数の判別可能な時空的(DST)領域を示す画像データに、少なくとも部分的に基づいてもよい。本明細書において述べる通り、DST領域は、特定の症候または症状を示していない患者から、その特定の症候または症状を示す患者を区別する目的にとって特に有益な、画像データの部分である。たとえば、やはり多発性硬化症(MS)に関しては、比較的重症または進行した形のMSに罹っている患者は、たとえば、自分の口吻/下顎の物理的な近傍にまで自分の指骨を移動させようとするとき、ターゲットになる動きに対して「企図振戦」を示すことが知られているが、MSに罹っていない患者は、そうした振戦を示さない。その結果、MSの状況および/または重症度を査定するには、図2に示したような指鼻試験によれば、患者の顔を実質的に囲む領域をDST領域とみなしてもよい。
したがって、この説明を読んでいる当業者には、DST領域がいくつかの要因に関して定義されることが理解されよう。一般に、DST領域は、特定の疾患の状況または重症度に関して判別可能である(たとえば、全員が共通の疾患の状況または重症度を示す、様々な患者の識別情報に関して判別可能であるのとは対照的に、共通の疾患の状況または重症度を生み出す症状を獲得するやり方に関して判別可能である、など)。
第1に、DST領域は、特定の疾患または症候に対して本質的に意味がある。ある疾患(疾患状況、疾患重症度スコアなど)に関して個々人のカテゴリ間で区別するのに特に有益なビデオの領域が、他の疾患に関して個々人のカテゴリ間で区別するのに、必ずしも有益でないこともある。たとえば、トレッドミルを歩こうとしている患者のビデオを解析することによって、火傷を負った患者への神経損傷の程度を査定するときには、MSおよび指鼻タスクに関して先に述べた、顔を定義するDST領域は有益ではない(または、さらに悪く、誤認させる)。
第2に、また同様に、DST領域は、疾患の状況および/または重症度を査定するために実行される特定のタスクに対して最も意味がある。やはり、指鼻試験を用いてMSの状況/重症度を査定するため、DST領域が患者の顔を含む前述の例では、互いに異なるタスク(たとえば、本明細書において全般的に論じ、図2に示した、ページをめくること、正方形を描くことなど)を患者が実行するのを示すビデオについて、その領域は判別可能にならないはずである。
第3に、本明細書に記載のDST領域は、さらに時間に関しては意味があり、すなわち、ビデオフィードの時間部分が、疾患の状況および/または重症度の区別において有益で/意味のある情報を示すことが当業者には理解されよう。やはり、上記の指鼻試験を考慮すると、DSTは、患者の顔および周辺領域を包含するように定義されるだけでなく、たとえば振戦などの有益な動きを示すビデオフィードの(1つまたは複数の)フレームと一致するように定義されるはずである。DST領域定義の時間成分は、任意の適切な方式で定義してもよく(たとえば、特定のフレームを識別すること、ビデオのタイムスタンプまたは持続時間を識別することなど)、また検討中の疾患の状況/重症度に関して、ビデオデータの最も判別可能な時間領域を実質的に示してもよい。
この説明を読めば当業者には理解されるように、DST領域を任意の適切な方式でこのように定義して、少なくとも2つの疾患状況の状態(たとえば、苦しい/苦しくない、慢性/急性、タイプI/タイプII、伝染性/非伝染性など)、および/または疾患重症度の状態(たとえば、軽度/中程度/重度/極度、末期、数値スコアで示される疾患の進行状態など)の間での、特有の区別できる特性を示す情報を包含してもよい。
現在開示されている発明性のある考え方はまた、機械学習技法、具体的にはサポートベクタマシン(SVM)技法、さらに具体的には、線形SVM技法およびカーネルSVM技法のうちの1つまたは複数を使用することを包含する。特に、この発明性のある考え方は、これまで知られていなかった用途、たとえば、ビデオデータ内のDST領域を見つけること、およびこれらDST領域を後続のSVM解析で利用して患者集団の間で違いを区別することに適用される、よく知られたSVM技法を使用することを含む。
SVMの原理の現在開示されている使用により、従来は不可能だった忠実度および解像度を実現できる疾患査定が可能になる。例示的な技法は、様々な疾患状況/重症度を示すことが知られている患者の1つまたは複数の特性の特徴を利用して、「トレーニングセット」を定義してもよく、続いてサポートベクタマシンがこのセットを利用して、対応する特徴空間内で超平面を定義する。(1つまたは複数の)トレーニングセットを生成するときに実行される疾患査定と同様に疾患状況を査定することを目的に、後続のデータセットが評価されるとき、超平面は、ある疾患状態を示す患者をその他の患者から正確かつ一貫して区別する。
たとえば、一手法では、振戦、震え、または微小振動などの動きを利用して、疾患状況/重症度が査定される。物理的な動きを実行している間に患者がビデオ記録され、その結果得られるビデオデータが解析されて、動きの方向反転の頻度が求められる。動きの方向反転は任意の適切な方式で示してもよいが、好ましい実施形態では、動きの方向反転は、加速度運動記述子によって、特に好ましくは、少なくとも2つの加速度運動記述子によって示され、その一方が動きのY成分に対応し、もう一方が動きのX成分に対応する。反転の頻度に関して、時間の関数(すなわち、ビデオデータ内の時間位置)として、それぞれの加速度運動記述子を解析してもよく、図11A〜11Bにほぼ示すように、この関数をプロットしてもよい。
前述のまたは同様の解析を2つの患者集団に実行してもよく、一方の集団は、特定の疾患状況/重症度特性を示し、他方の集団は、こうした疾患状況/重症度特性を示さない。それぞれの集団からのデータを統合して、患者集団のうちの1つに一義的に関連する1つまたは複数の特徴を全体として定義する「トレーニングセット」を形成する(たとえば、指鼻タスクを実行するMS患者は、先に述べた顔のDST領域内で振戦を特徴的に示すが、MSに罹っていない個々人は、そうした振戦を示さない)。SVMは、この際立って特徴的な特性(特定の定量的な加速度運動記述子データの形式で、はるかに高い解像度で表される)を利用して、疾患状況/重症度特性を示す患者と、疾患状況/重症度特性を示さない患者とを区別する。
このようにして、この解析は、本質的に定量的であり、それらタスクのうちの1つを用いて患者を評価する医師または神経内科医が通常考えるよりも数の多い個々の特徴を解析するので、患者には、自分の疾患の特定の状況/重症度へのはるかに高い解像度の洞察を提示してもよい。同様にして、医師および神経内科医は、治療成績、患者満足度、または疾患状況/重症度の状態のより高い解像度について任意の治療関連情報を追跡してもよく、既存の治療プロトコルを評価し、ならびに系統的なアプローチを使用して大量のデータセットを処理することによってのみ実現可能な高解像度データを活用する新規の治療プロトコルを開発してもよい。
臨床的には、Kurtzke総合障害度評価尺度(EDSS)が、多発性硬化症などの神経学的症状における運動機能を査定および定量化する方法である。EDSSは、手動の(人間が査定および採点する)システムである。いくつかの欠点が、EDSSに固有である。第1に、熟練した神経内科医が査定しなければならないことである。そのうちに、評価者の判断および神経学的診察に差がでると、不正確さの生じる可能性がある。分類の限界および人間の知覚によっても、症状の進行追跡が困難になる場合がある。患者の能力の日々の変動によって、たった一度の訪問査定が不正確になることがある。
人間が定性的に分類できる能力には限界があるので、臨床判断に基づく測定の感度は制限されたものである。したがって、これらの測定について感度がさらに高い手法を開発するとき、妥当性検査には元の測定を使用することができない。
本発明者は、本明細書において現実の用途に全般的に提示される発明性のある考え方を開発する過程を通して、現在開示されている発明性のある考え方を利用する運動タスク(疾患状況および/または疾患重症度を示すことができる)の対比較によって、評価者内および評価者間の信頼性が頑強になることが全般的に明らかである。
したがって、本発明の実施形態は、被験者の運動のペアになったビデオを提示することによって査定の信頼性を高めることのできる、方法またはプロセスを実現する。一例では、2人の患者が、「評価者」の委員会に対して同一の運動タスクを実行した。この場合、この評価者は、多発性硬化症診断、予後徴候、および治療において経験を積んだ臨床医であった。この臨床医は、ペアになった患者が等しく実行したかどうか、または等しくなかった場合、このペアの間で患者のいずれの実行が劣っていたのか(すなわち、より重度な症候を示したのか)を識別して、疾患状況/重症度を相対的に判断するよう求められた。
これら相対的な臨床医査定が、本明細書に記載の画像解析および機械学習ベースの技法を使用して実行された、疾患状況および/または疾患重症度の査定と比較された。全ての結果が、「評価者」識別情報について解析されて、評価者間および評価者内の信頼性を調査した。その結果、評価者の識別情報がばらついていても、この技法の忠実度が高いことを示している。すなわち、この方法を使用して求められた定量値は、臨床専門家の委員会によってその患者に与えられた評点と比較されるときでもほぼ一貫していた。具体的には、指鼻試験(FNT)およびカップから飲む試験(CUP)の身体障害比較等級付けは、対応する総合障害度評価尺度(EDSS)のサブスコアと著しく相関関係があった。
特定のいかなる理論にも束縛されるつもりはなく、本発明者は、これら有利な結果を以下のように説明できることを理論的に述べる。MS患者のビデオキャプチャされて定義された動きの、ペアになった比較によって、運動機能障害の神経学上の判断を確実に取り込めるように思われる。利点として、より細かい(解像度がさらに高い)区別を実現することが可能であり、その結果、ペアになった比較に基づいたこのような細かい等級付けが、感度のより高い(たとえば自動化された)成績測定法の開発において、改善された外部妥当性検査の役割を果たすことができる。
方法1000は、たとえばマイクロプロセッサ、CPU、ASIC、FPGAなどの、当技術分野で知られているタイプの1つまたは複数のプロセッサなど、当技術分野で知られているシステム、装置、または他の何らかの適切な装置もしくは構成要素によって実行してもよい。このような実施形態の1つでは、装置は、1つまたは複数のプロセッサ、および、1つまたは複数のプロセッサと一体化され、かつ/またはそれによって実行される論理回路を備えてもよい。この論理回路は、少なくとも2つのフレームが人間のデジタル表現を含む複数のフレームを受信し、ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点を、ビデオデータの少なくとも2つのフレーム内での人間のデジタル表現にマッピングし、ビデオデータの少なくとも2つのフレームについて、各運動記述子が基準点のうちの1つに対応する複数の運動記述子を計算し、運動記述子の少なくとも1つに基づいて、疾患状況および疾患重症度のうちの1つまたは複数を査定するように構成されてもよい。
別の実施形態では、コンピュータプログラム製品は、当技術分野で知られているタイプのコンピュータ読取り可能な記憶媒体を含んでもよい。コンピュータ読取り可能な記憶媒体は、プロセッサが、コンピュータ読取り可能なプログラムコードを実行しかつ/または読み取ると、少なくとも2つのフレームが人間のデジタル表現を含む複数のフレームを受信し、ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点を、ビデオデータの少なくとも2つのフレーム内での人間のデジタル表現にマッピングし、ビデオデータの少なくとも2つのフレームについて、各運動記述子が基準点のうちの1つに対応する複数の運動記述子を計算し、運動記述子の少なくとも1つに基づいて、疾患状況および疾患重症度のうちの1つまたは複数を査定するように構成されたコンピュータ読取り可能なプログラムコードを含んでもよい。
一実施形態では、本発明の方法1000は、スマートフォン、タブレット、腕時計もしくは装着式装置、または十分なビデオキャプチャ機能およびコンピューティング機能を有する他の装置など、パーソナルポータブル装置を用いて実装してもよい。
この説明を読めば当業者には理解されるように、方法1000に関して説明する様々な他の実施形態のいずれも、この装置および/またはコンピュータプログラム製品において実装してもよい。
この例1では、深度検知カメラの容易な位置決めを可能にする物理装置と、査定の各ステップにおいて医療従事者に促すインターフェースと、動きを実行する際に患者を導く教育用システムと、データの質を管理する際に医療従事者をサポートするためのツールのセットとを備える査定ツールを定義する。したがって、記録ツールは、神経査定の動きにおいて患者を指導するのに使用される、患者に向けられた画面を備える。要求された動きをどのように正確に実行するかにおいて、患者ならびに医療従事者を指導するための教育用ビデオが提供される。これらは、文字および/または口頭での説明が付いている簡略な線画アニメーションを含む。位置決め画面は、デプス画像ストリームの表示に、患者を精密に位置決めするためのセンタークロスバーを設け、患者がカメラから適切な距離にいるかどうかを示す。一貫してゼロの値を示す、画像内の任意の領域を強調表示する初期散漫画面がある。このような領域は、通常、デプスカメラの赤外線信号を歪ませる、反射率の高い表面である。記録ツールは、医療従事者と患者の両方に許容できることが分かった。患者は、この記録ツールの使い方を理解し、医療従事者は、使用するのが容易であることが分かった。
この例2では、本明細書での1つまたは複数の実施形態において説明する、運動タスク解析システムが利用された。上肢および下肢ならびに胴体を含む、標準化された神経学的査定からの既定の動き、ならびに日常生活動作(ADL)に典型的な動きが、72人のMS患者および102人の健康なボランティア被験者(HV)で記録された。患者全員について、標準化されたEDSS査定が実行され、完全に文書化された。
記録済みビデオを区分けした後で、分類するために使用される情報が、赤外線デプスセンサの記録から直接抽出され、これを使用して、本発明の実施形態による自動化された画像解析アルゴリズムをトレーニングした。したがって、このシステムは。小脳機能システム(Kapposら)からの、指鼻試験の神経状態サブスコア、0、1および≧2に従って、患者を正しく分類することができる。集団ベースの機械学習アルゴリズムを使用して、このシステムをトレーニングした。
機械学習アルゴリズムによって、動きが2つのクラスに分類された。すなわち(1)症候なし(MS患者とHVの両方を含む)、および(2)小脳機能システムの標準化されたEDSS査定サブスコアに基づく上肢の振戦/測定障害に関して症候あり、である。
以下の表1に結果を示す。

ここで、感度=TP/(TP+FN)であり、特殊性=FP/(FP+FN)である。TP=真陽性、TN=真陰性、FN=偽陰性、およびFP=偽陽性である。FTN=指鼻、FTF=指指、DS=正方形を描く、およびTA=体幹運動失調である。
正しい分類の割合が、機械学習アルゴリズムによって、症候なしまたは症候ありとして正しく予測された記録の比率を表す。本来の分類は、標準化されたEDSS査定に基づく。
この結果によれば、本発明のシステムおよび方法によって、有用な感度および特殊性で、MS患者における運動機能障害の自動化された定量的査定が可能になることが分かった。この例では、本発明のシステムおよび方法によって、運動機能障害の程度の信頼性の高い分類が可能になること、および本明細書において利用されるアルゴリズムによって、被験者の動きのどの成分が、それぞれの機能不全の臨床的分類に関連する可能性があるのかについての情報を提示することが示してある。
したがって、本発明の実施形態では、少なくとも85%、または90%、または95%以上の分類確度が実現する。本発明の実施形態では、少なくとも75%、または80%、または85%、または90%以上の感度が実現する。本発明の実施形態では、少なくとも85%、または90%、または95%以上の特殊性が実現する。
例3では、以下のステップを含むコンピュータ実施方法が提供される。
運動タスクを実行する人または動物の少なくとも一部を示すビデオを受信するステップ。
このビデオを、トレーニングされた機械学習システムに入力するステップであって、この機械学習システムが、運動タスクの複数のクラス間で違いを区別するビデオの位置依存の局所運動特徴を見つけるようにトレーニングされたステップ、および複数のクラスのいずれに運動タスクが属していると予測されるのかについてのデータを、トレーニングされた機械学習システムから受信するステップ。
このようにして、自動化され客観的な、正確で再現性のある方式で、人によって実行される運動タスクを解析および査定することができる。
多くの例で、局所運動特徴は、速度または加速度の特徴を含む。これらのタイプの特徴は、正確かつ効率的に計算することができ、機械学習のトレーニングおよび試験段階に先立って計算することができる。これにより、機械学習システムから得られる運動タスクデータの質、およびそのデータを得る速度が改善する。
多くの例では、前述の方法は、ビデオのフレームのペアについて運動記述子を計算するステップを含み、トレーニングされた機械学習システムにビデオを入力するステップが、運動記述子を入力するステップを含む。
たとえば、運動記述子は、オプティカルフロー値である。オプティカルフロー値が使用される場合、その結果として、システムは、ビデオ内の雑音またはエラーに対して非常に頑強になることが分かる。
例によっては、前述の方法は、機械学習システムにおいて、複数の運動記述子を使用して局所運動特徴を計算するステップを含む。たとえば、ビデオの少なくとも1つのサブスコア内の運動記述子を考慮に入れることによってである。たとえば、ビデオの2つのサブボリューム内の運動記述子を考慮に入れることによって、局所運動特徴を計算することである。たとえば、ビデオのサブボリューム内の運動記述子間の差を考慮に入れることによって、局所運動特徴を計算することである。このようにしてビデオのサブボリュームを使用することは、運動タスクのクラス間で区別する際、特に有効であることが分かっている。
例によっては、ビデオのサブボリュームのオプティカルフロー値の変化率の方向の変化の頻度を考慮に入れることによって、加速度特徴を計算するステップを含むものもある。方向性加速度特徴を使用することは、運動タスクのクラス間で区別する際、非常に有効であることが分かっている。
例によっては、オプティカルフロー値の変化率の方向の変化を無視するステップを含むものもあり、ここでオプティカルフローの大きさは閾値を下回る。これが、雑音に起因する運動と人の実際の運動の間で区別する助けとなる。
例によっては、スケーリングし、センタリングし、前景抽出を実行することによって、トレーニングされた機械学習システムにビデオを入力する前に、ビデオを前処理するステップを含むものもある。これにより、トレーニングされた機械学習システムの試験時間での使用が簡単になり、試験時間の処理持続時間が短縮される。
例によっては、ビデオの長さは任意であり、ビデオの長さを考慮に入れるようにして局所運動の特徴が計算される。運動タスクが、それぞれの間で持続時間に大きなばらつきを示す場合、これは非常に有用である。
いくつかの例では、運動タスクを実行する人のビデオを使用して機械学習システムをトレーニングするステップを含み、ここで、このビデオは、考えられる複数のクラスのいずれにこの運動タスクが属するのかを示すラベルでラベル付けされており、またビデオの長さが様々に異なっている。
多くの例では、ランダム決定フォレスト(random decision forest)、複雑な有向非巡回グラフ(jungle of directed acyclic graphs)、線形SVM、カーネルSVMなど一群のサポートベクタマシンのうちのいずれかを含む、トレーニングされた機械学習システムにビデオを入力するステップを含んでもよく、これは、この説明を読めば当業者には理解されるはずである。
例によっては、一群のサポートベクタマシンを含むトレーニングされた機械学習システムにビデオを入力するステップであって、それぞれのサポートベクタマシンが2分決定木の分岐ノードであるステップを含むものもある。これにより、ビデオデータの次元数が高くて可変であるにもかかわらず、サポートベクタマシンを使用する実用的な方式が得られる。
例によっては、一群のサポートベクタマシンを含むトレーニングされた機械学習システムにビデオを入力するステップであって、サポートベクタマシンのそれぞれが、ラベル付きトレーニングビデオから計算された、ランダム化された位置依存の局所運動特徴を含む、固定長の特徴記述子を使用してトレーニングされたステップを含むものもある。その結果得られる一群のサポートベクタマシンは、ランダム化された一群のサポートベクタマシンと呼んでもよい。
例4は、運動タスクを実行する人または動物の少なくとも一部を示すビデオを記憶するメモリと、運動タスクの複数のクラス間で区別するビデオの位置依存の局所運動特徴を見つけるようにトレーニングされてきた、トレーニングされた機械学習システムと、ビデオからの運動記述子を計算し、この運動記述子をトレーニングされた機械学習システムに加え、それに応じて、複数のクラスのいずれに運動タスクが属していると予測されるのかについてのデータを受信するように構成されたプロセッサとを含む、運動タスク分類器を実現する。
例5は、複数のフレームを含むビデオデータを受信するステップであって、少なくとも2つのフレームが人間のデジタル表現を含むステップと、ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点を、ビデオデータの少なくとも2つのフレーム内での人間のデジタル表現にマッピングするステップと、ビデオデータの少なくとも2つのフレームについて複数の運動記述子を計算するステップであって、各運動記述子が、基準点のうちの1つに対応するステップと、運動記述子の少なくとも1つに基づいて、疾患状況および疾患重症度のうちの1つまたは複数を査定するステップとを含む。
たとえば、ビデオデータは、オプティカルフロー情報を含む。
一例では、ビデオデータの少なくとも2つのフレームが互いに時間的にシフトされ、人間のデジタル表現の少なくとも一部が、ビデオデータの少なくとも2つのフレーム間で空間的にシフトされる。
たとえば、ビデオデータは、非接触アクティブ3次元(3D)スキャン情報を含む。
たとえば、ビデオデータの少なくとも2つのフレームのそれぞれは、16ビットのグレースケール画像であり、それぞれの画素が、0〜65,536で表される範囲内の輝度値によって特徴付けられる。
たとえば、この方法はさらに、運動記述子のうちの少なくとも1つに基づいて疾患重症度スコアを計算するステップを含み、この疾患重症度が、疾患重症度スコアに少なくとも部分的に基づいて査定される。
たとえば、疾患重症度スコアは、約0.0〜約12.0の範囲の値を有する。
一例では、疾患重症度スコアは、複数の疾患重症度サブスコアに少なくとも部分的に基づいており、この疾患重症度サブスコアのそれぞれが、以下から選択される運動タスクに対応する。
体幹運動失調タスク
指鼻タスク
指指タスク
ロンベルクタスク
真っすぐ歩くタスク
通常の歩行タスク
その場で回転するタスク
片足で軽く跳ぶタスク
指で正方形を描くタスク
カップから飲むタスク
ページをめくるタスク
一例では、疾患重症度スコアは複数の疾患重症度サブスコアに対応し、ここでそれぞれの疾患重症度サブスコアが、以下の症候から選択された1つまたは複数の症候を示す。
運動失調
体幹運動失調
歩行運動失調
四肢運動失調
痙縮
振戦
弱点
測定障害
上肢運動機能障害
器用さ
可動性
下肢機能
一例はさらに、運動記述子のうちの少なくとも2つに基づいて、人間のデジタル表現の少なくとも一部分において振戦を検出するステップを含む。
一例では、疾患は、多発性硬化症、ハンチントン病、およびパーキンソン病から選択される。
様々な例では、査定はさらに、ビデオデータ内でデジタルに表現された人間に対応する、これまでに判定された疾患状況、および、ビデオデータ内でデジタルに表現された人間に対応する、これまでに判定された疾患重症度のうちの1つまたは複数に少なくとも部分的に基づく。
一例では、ビデオデータは、疾患状況および疾患重症度のうちの少なくとも1つを示す物理的な動きを人間が実行するのを示す。
一例では、物理的な動きは、以下の運動タスクから選択された1つまたは複数の運動タスクを含む。
体幹運動失調タスク
指鼻タスク
指指タスク
ロンベルクタスク
真っすぐ歩くタスク
通常の歩行タスク
その場で回転するタスク
片足で軽く跳ぶタスク
指で正方形を描くタスク
カップから飲むタスク
ページをめくるタスク
前述の例では、ビデオデータは、運動タスクのうち少なくとも2つを人間が実行するのを示してもよい。
一例では、運動記述子のそれぞれは、物理的な動きに対応する加速度、およびこの物理的な動きに対応する速度のうちの1つまたは複数を表し、この物理的な動きは、ビデオデータ内でデジタルに表現された人間によって実行される。
一例では、速度は、物理的な動きの大きさを統計的に示す。
一例では、加速度は、物理的な動きでの微小振動を示す。
一例では、運動記述子のそれぞれは、基準点のうちの1つに対応する動きの大きさを表す。
一例では、運動記述子のそれぞれはさらに、動きの方向を表す。
本発明の実施形態では、運動タスク解析システムおよび/またはその構成要素は、疾患、状態または症状向けの治療とともに使用される。したがって、疾患、状態または症状の評価または進捗監視は、運動タスク解析システムおよび/またはその構成要素によって支援することができる。たとえば、本発明の実施形態を使用して、神経疾患、もしくは多発性硬化症、パーキンソン病などの症状を有する、またはそうした症状を有すると疑われた患者または被験者を評価する。したがって、運動タスク解析システムを使用して、治療過程の前に、その間に、またその後に、患者の物理的な動きを周期的に監視、査定、および評価する、本発明の実施形態が企図される。
この治療は、インターフェロンベータ1bなどの免疫調節薬、またはフィンゴリモド、シポニモドなどのS1P受容体アゴニスト、または2−アミノ−2−[2−[4−[3−(ベンジルオキシ)フェニルスルファニル]−2−クロロフェニル]エチル]プロパン−1,3−ジオールハイドロクロライドの投与を含んでもよい。パーキンソン病の治療は、レボドパ、カルビドパ、およびエンタカポンのグループから選択される薬剤の投与を含んでもよい。好ましくは、前記パーキンソン病の治療は、レボドパ、カルビドパ、およびエンタカポンの組合せを含む。
数多くの薬剤が、運動疾患の治療に利用可能であり、免疫調節薬およびS1P受容体アゴニストのクラスから選択してもよい。本明細書において述べたように、筋消耗および筋力低下など他の疾患は、以下のクラスの薬剤、すなわち、ミオスタチンアンタゴニスト、抗ActRII受容体抗体など、ビマグルマブなどによって治療してもよい。
したがって、本発明の実施形態は、フィンゴリモドなど治療用の適切な薬剤とともに、病院または臨床医のコンピューティングシステムにインストールしてもよいソフトウェア内で実施される、運動タスク解析システムを含むキットを備える。ソフトウェアおよび薬剤療法を備えるこのキットはさらに、Microsoft Kinectシステムなど、適切なビデオキャプチャシステムを備えてもよい。
運動タスク解析システムの実施形態は、使用説明書とともに、アプリストアなどを介して、個人のスマートフォンまたは携帯用コンピューティング装置にインストールしてもよいソフトウェアを含んでもよい。
本発明の実施形態は、本明細書に記載の運動タスク解析システムを使用して、薬剤開発の研究者が、患者の運動機能または運動機能の変化に何らかの徴候を生じる要因となる疾患および症状に向けて開発中の薬剤(既存の薬剤、および新規徴候向けに評価される薬剤を含む)を、よりよく査定、改善、監視、定量化、または評価できるようにする方法を含む。
運動タスクの複数のクラス間で違いを区別するビデオの位置依存の局所運動特徴を見つけるようにトレーニングされてきた、トレーニングされた機械学習システムがさらに提供され、このビデオが、疾患または症状に関連する運動タスクを実行する人または動物の少なくとも一部を示し、前記ビデオが、前記トレーニングされた機械学習システムに入力され、前記トレーニングされた機械学習システムが、複数のクラスのいずれに運動タスクが属していると予測されるのかについてのデータを送達する。
多発性硬化症の治療に使用するためのフィンゴリモドがさらに提供され、前記治療が、請求項1〜17のいずれかによるコンピュータ実施方法を含む。
多発性硬化症の治療に使用するためのシポニモドがさらに提供され、前記治療が、請求項1〜17のいずれかによるコンピュータ実施方法を含む。
多発性硬化症の治療に使用するためのレボドパがさらに提供され、前記治療が、請求項1〜17のいずれかによるコンピュータ実施方法を含む。
多発性硬化症の治療に使用するためのビマグルマブがさらに提供され、前記治療が、請求項1〜17のいずれかによるコンピュータ実施方法を含む。
多発性硬化症の治療に使用するための2−アミノ−2−[2−[4−[3−(ベンジルオキシ)フェニルスルファニル]−2−クロロフェニル]エチル]プロパン−1,3−ジオールハイドロクロライドがさらに提供され、前記治療が、請求項1〜17のいずれかによるコンピュータ実施方法を含む。
用語「コンピュータ」または「コンピューティングベースの装置」は、本明細書においては、命令を実行することのできるような処理能力を有する、任意の装置を指すものとして使用されている。このような処理能力が多くの様々な装置に組み込まれ、したがって、用語「コンピュータ」および「コンピューティングベースの装置」それぞれには、PC、サーバー、携帯電話(スマートフォンを含む)、タブレットコンピュータ、セットトップボックス、メディアプレーヤ、ゲーム機、携帯型情報端末、および多くの他の装置が含まれることが、当業者には理解されよう。
本明細書に記載の方法は、有形の記憶媒体上の機械読取り可能な形式、たとえば、プログラムがコンピュータ上で実行されるとき、またコンピュータプログラムをコンピュータ読取り可能な媒体上で実施してもよい場合に、本明細書に記載の方法のうち任意の方法の全てのステップを実行するように構成されたコンピュータプログラムコード手段を含むコンピュータプログラムの形式でのソフトウェアによって実行してもよい。有形の記憶媒体の例には、ディスク、サムドライブ、メモリなどコンピュータ読取り可能な媒体を含むコンピュータ記憶装置が含まれ、伝搬信号は含まれない。伝搬信号は、有形の記憶媒体内に存在していてもよいが、本質的に、伝搬信号は有形の記憶媒体の例ではない。ソフトウェアは、この方法ステップが、任意の適切な順序で、または同時に実行できるように、パラレルプロセッサまたはシリアルプロセッサ上で実行するのに適切なものとすることができる。
ソフトウェアは、貴重な、別々に売り物になる商品とすることができることが、これで分かる。「ダムハードウェア」または標準ハードウェア上で走り、またはそれを制御して、所望の機能を実行するソフトウェアを含むものである。シリコンチップを設計して、または汎用プログラム可能チップを構成して、所望の機能を実行するために使用される、HDL(ハードウェア記述言語)ソフトウェアなど、ハードウェアの構成を「記述」または定義するソフトウェアをも含むものである。
プログラム命令を格納するのに利用される記憶装置は、ネットワークを介して分散できることが、当業者には理解されよう。たとえば、遠隔コンピュータは、ソフトウェアとして記述したプロセスの例を格納することができる。ローカルコンピュータまたは端末コンピュータは、遠隔コンピュータにアクセスし、プログラムを走らせるソフトウェアの一部または全部をダウンロードすることができる。あるいは、ローカルコンピュータは、必要に応じてソフトウェアの各部分をダウンロードすることができ、または、場合によってはローカル端末において、場合によっては遠隔コンピュータ(もしくはコンピュータネットワーク)において、ソフトウェア命令を実行することができる。当業者に知られている従来の技法を利用することにより、DSP、プログラマブルロジックアレイなどの専用回路により、ソフトウェア命令の全てまたは一部分を実行することができることも当業者には理解されよう。
当業者には明らかになるように、本明細書において与えられたいかなる範囲または装置の値も、求める効果を失うことなく、拡張または変更することができる。
構造上の特徴および/または方法論的な行為に特有の用語で主題について述べてきたが、添付の特許請求の範囲で定義される主題は、必ずしも前述の具体的な特徴または行為に限定されるものではないことを理解されたい。むしろ、前述の具体的な特徴および行為は、特許請求の範囲を実施する例示的な形態として開示されている。
前述の利益および利点は、1つの実施形態に関する場合もあり、またはいくつかの実施形態に関する場合もあることが理解されよう。実施形態は、述べてきた問題のうちの任意もしくは全ての問題を解決する実施形態、または述べてきた利益および利点のうちの任意もしくは全てを有する実施形態に限定されない。「an」が付くアイテムは、それらアイテムのうちの1つまたは複数を指すことがさらに理解されよう。
本明細書に記載の方法のステップは、任意の適切な順序で、または必要に応じて同時に実行することができる。さらに、個々のブロックは、本明細書に記載の主題の趣旨および範囲から逸脱することなく、方法のうちの任意のものから削除してもよい。前述の例のうちのいずれかの態様を、説明した他の例のうちいずれかの態様と組み合わせて、求める効果を失うことなく、さらなる例を形成してもよい。
用語「含む(comprising)」は、本明細書においては、識別された方法ブロックまたは要素を含むことを意味するが、このようなブロックまたは要素は排他的なリストを含まないことを意味し、方法または装置は、さらなるブロックまたは要素を含んでもよいことを意味するように使用されている。
用語「サブセット」は、本明細書においては、セットのサブセットが、そのセットの全ての要素を含むわけではないように(すなわち、セットの要素のうち少なくとも1つがサブセットから欠けている)、適切なサブセットを指すように使用されている。
上記説明は、ほんの一例として示すものであり、当業者によって様々な修正を加えてもよいことが理解されよう。前述の仕様、例、およびデータは、例示的な実施形態の構造および使用法を完全に説明する。ある程度の具体性とともに、または1つもしくは複数の個々の実施形態を参照しながら、これまで様々な実施形態を説明してきたが、当業者であれば、本明細書の趣旨または範囲から逸脱することなく、開示した実施形態に数多くの改変を加えることもできる。
100 ビデオキャプチャ装置
101 人
104 コンピューティング装置
106 絵
108 衣服
110 長椅子
112 腕の位置
114 腕の位置
116 画像ストリーム
118 前処理構成要素
120 前処理済み画像
122 機械学習システム
124 運動タスク分類データ
200 指から鼻へのタスク
202 正方形を描くタスク
204 指から指へのタスク
206 体幹運動失調タスク
300 画像センサ
302 デプスカメラ
304 発光体
306 RGBカメラ
308 プロセッサ
310 メモリ
312 出力インターフェース
400 フレーム
402 修復ステップ
404 前景抽出
406 センタリング
408 標準的な深度にマッピングされる
410 前処理済みの画像、前処理した結果
500 運動タスクのラベル付きビデオ
502 トレーニングデータ
504 計算する
506 トレーナ
508 訓練された機械学習システム
510 ビデオフレーム
600 トレーニングセットが受信される
602 ランダム決定フォレストで使用される決定木の数が選択される
604 決定フォレストから決定木が選択される
606 根ノードが選択される
610 試験パラメータのランダムなセットが生成される
612 試験パラメータのあらゆる組合せを現ノードに到達したそれぞれのビデオに適用する
614 判定基準が計算される
616 計算された判定基準での値が閾値よりも小さいか大きいか判定される
618 現ノードが葉ノードとして設定される
620 現ノードが分岐ノードとして設定される
622 バイナリテストが現ノードにおいて全てのビデオに対して実行される
624 それぞれの子ノードに向けられるビデオのサブセットについてブロック610〜622で概要を述べたプロセスが再帰的に実行される
626 全ての分岐でのノードがトレーニングされるまで待つ
628 木の葉ノードにおいてビデオラベルを蓄積してもよい
630 蓄積されたビデオラベルの表示は様々な異なる方法を使用して記憶してもよい
632 決定フォレスト内に木がさらに存在するかどうか判定される
634 プロセスが終了する
700 第1の決定木
702 第2の決定木
704 第3の決定木
706 根ノード
708 分岐ノード
710 葉ノード
800 見えなかったビデオが受信される
802 オプティカルフローまたは他の運動記述子が計算される
804 決定フォレストからトレーニングされた決定木も選択される
806 選択されたビデオは選択された決定木を通って送られる
808 葉ノードに関連する蓄積されたラベルがビデオについて記憶される
810 フォレスト内に決定木がさらに存在すると判定される
814 インデックス付き葉ノードからのデータが統合される
816 少なくとも1つの運動タスクのクラスを出力する
900 プロセッサ
902 入力インターフェース
906 キーボード
908 マウス
910 出力インターフェース
912 メモリ
913 通信インターフェース
914 オペレーティングシステム
916 アプリケーションソフトウェア
918 トレーニングロジック
920 予測ロジック
922 データ記憶装置
924 表示装置
1000 方法
1002 動作
1004 動作
1006 動作
1008 動作
1200 カップから飲む運動タスク
1202 通常の歩行運動タスク
1204 片足で軽く跳ぶタスク
1206 ロンベルクタスク
1208 その場で回転するタスク
1210 ページをめくるタスク
1212 真っすぐ歩くタスク

Claims (38)

  1. 機械学習システムを用意するステップと、
    前記機械学習システムをトレーニングして、運動タスクの複数のクラス間で違いを区別するビデオの位置依存の局所運動特徴を見つけるステップと、
    運動タスクを実行する人または動物の少なくとも一部分を示すビデオを受信するステップと、
    前記ビデオを、前記トレーニングされた機械学習システムに入力するステップと、
    前記複数のクラスのいずれに前記運動タスクが属していると予測されるのかについてのデータを、前記トレーニングされた機械学習システムから受信するステップと、
    前記運動タスクを実行する前記人または動物の、神経の疾患または症状を評価するステップと
    を含む、コンピュータ実施方法。
  2. 前記局所運動特徴が、速度または加速度の特徴を含む、請求項1に記載の方法。
  3. 前記ビデオのサブボリュームのオプティカルフロー値の変化率の方向の変化の頻度を考慮に入れることによって、前記加速度特徴を計算するステップを含む、請求項2に記載の方法。
  4. 前記オプティカルフロー値の前記変化率の方向の変化を無視するステップを含み、前記オプティカルフローの大きさが閾値を下回る、請求項3に記載の方法。
  5. 前記運動記述子が、オプティカルフロー値である、請求項3に記載の方法。
  6. 前記機械学習システムにおいて、複数の運動記述子を使用して前記局所運動特徴を計算するステップを含む、請求項3に記載の方法。
  7. 前記ビデオの少なくとも1つのサブボリューム内の運動記述子を考慮に入れることによって、前記局所運動特徴を計算するステップを含む、請求項3に記載の方法。
  8. 前記ビデオの2つのサブボリューム内の運動記述子を考慮に入れることによって、前記局所運動特徴を計算するステップを含む、請求項3に記載の方法。
  9. 前記ビデオの前記サブボリューム内の運動記述子間での差を考慮に入れることによって、前記局所運動特徴を計算するステップを含む、請求項8に記載の方法。
  10. 前記ビデオのフレームのペアについて運動記述子を計算するステップを含み、前記トレーニングされた機械学習システムに前記ビデオを入力するステップが、前記運動記述子を入力するステップを含む、請求項1に記載の方法。
  11. スケーリングし、センタリングし、前景抽出を実行することによって、前記トレーニングされた機械学習システムに前記ビデオを入力する前に、前記ビデオを前処理するステップを含む、請求項1に記載の方法。
  12. 前記ビデオの長さが任意であり、前記ビデオの前記長さを考慮に入れるようにして前記局所運動特徴が計算される、請求項1に記載の方法。
  13. 運動タスクを実行する人のビデオを使用して前記機械学習システムをトレーニングするステップを含み、前記ビデオが、考えられる複数のクラスのいずれに前記運動タスクが属するのかを示すラベルでラベル付けされており、前記ビデオが、長さの異なるものである、請求項1に記載の方法。
  14. ランダム決定フォレスト、複雑な有向非巡回グラフ、一群のサポートベクタマシンのうちのいずれかを含むトレーニングされた機械学習システムに、前記ビデオを入力するステップを含む、請求項1に記載の方法。
  15. 一群のサポートベクタマシンを含むトレーニングされた機械学習システムに前記ビデオを入力するステップを含み、それぞれのサポートベクタマシンが、2分決定木の分岐ノードである、請求項1に記載の方法。
  16. 一群のサポートベクタマシンを含むトレーニングされた機械学習システムに前記ビデオを入力するステップを含み、前記サポートベクタマシンのそれぞれが、ラベル付きトレーニングビデオから計算された、ランダム化された位置依存の局所運動特徴を含む、固定長の特徴記述子を使用してトレーニングされた、請求項1に記載の方法。
  17. 複数のフレームを含むビデオデータを受信するステップであって、少なくとも2つのフレームが人間のデジタル表現を含むステップと、
    前記ビデオデータの少なくとも2つのフレームのそれぞれについての複数の基準点を、前記ビデオデータの前記少なくとも2つのフレーム内での前記人間の前記デジタル表現にマッピングするステップと、
    前記ビデオデータの前記少なくとも2つのフレームについて複数の運動記述子を計算するステップであって、各運動記述子が、前記基準点のうちの1つに対応するステップと、
    前記運動記述子の少なくとも1つに基づいて、疾患状況および疾患重症度のうちの1つまたは複数を査定するステップと
    を含む、方法。
  18. 前記ビデオデータが、オプティカルフロー情報を含む、請求項17に記載の方法。
  19. 前記ビデオデータの前記少なくとも2つのフレームが互いに時間的にシフトされ、前記人間の前記デジタル表現の少なくとも一部が、前記ビデオデータの少なくとも2つのフレーム間で空間的にシフトされる、請求項17に記載の方法。
  20. 前記ビデオデータが、非接触アクティブ3次元(3D)スキャン情報を含む、請求項17に記載の方法。
  21. 前記ビデオデータの前記少なくとも2つのフレームのそれぞれが、16ビットのグレースケール画像であり、それぞれの画素が、0〜65,536で表される範囲内の輝度値によって特徴付けられる、請求項17に記載の方法。
  22. 前記運動記述子のうちの少なくとも1つに基づいて疾患重症度スコアを計算するステップをさらに含み、前記疾患重症度が、前記疾患重症度スコアに少なくとも部分的に基づいて査定される、請求項17に記載の方法。
  23. 前記疾患重症度スコアが、約0.0〜約12.0の範囲の値を有する、請求項22に記載の方法。
  24. 前記疾患重症度スコアが、複数の疾患重症度サブスコアの少なくとも一部に基づいており、前記疾患重症度サブスコアのそれぞれが、
    a.体幹運動失調タスク
    b.指鼻タスク
    c.指指タスク
    d.ロンベルクタスク
    e.真っすぐ歩くタスク
    f.通常の歩行タスク
    g.その場で回転するタスク
    h.片足で軽く跳ぶタスク
    i.指で正方形を描くタスク
    j.カップから飲むタスク
    k.ページをめくるタスク、
    から選択される運動タスクに対応する、請求項23に記載の方法。
  25. 前記疾患重症度スコアが、複数の疾患重症度サブスコアに対応し、それぞれの疾患重症度サブスコアが、
    l.運動失調
    m.体幹運動失調
    n.歩行運動失調
    o.四肢運動失調
    p.痙縮
    q.振戦
    r.弱点
    s.測定障害
    t.上肢運動機能障害
    u.器用さ
    v.可動性
    w.下肢機能、
    から選択される1つまたは複数の症候を示す、請求項23に記載の方法。
  26. 前記運動記述子のうちの少なくとも2つに基づいて、前記人間の前記デジタル表現の少なくとも一部分において振戦を検出するステップをさらに含む、請求項17に記載の方法。
  27. 前記疾患が、多発性硬化症、ハンチントン病、およびパーキンソン病から選択される、請求項26に記載の方法。
  28. 前記患者に治療を施すステップをさらに含む、請求項27に記載の方法。
  29. 前記治療がフィンゴリモドを含む、請求項28に記載の方法。
  30. 前記査定するステップがさらに、
    前記ビデオデータ内でデジタルに表現された前記人間に対応する、これまでに判定された疾患状況、および、
    前記ビデオデータ内でデジタルに表現された前記人間に対応する、これまでに判定された疾患重症度
    のうちの1つまたは複数に少なくとも部分的に基づく、請求項17に記載の方法。
  31. 前記ビデオデータが、前記疾患状況および前記疾患重症度のうちの少なくとも1つを示す物理的な動きを前記人間が実行するのを示す、請求項17に記載の方法。
  32. 前記物理的な動きが、
    x.体幹運動失調タスク
    y.指鼻タスク
    z.指指タスク
    aa.ロンベルクタスク
    bb.真っすぐ歩くタスク
    cc.通常の歩行タスク
    dd.その場で回転するタスク
    ee.片足で軽く跳ぶタスク
    ff.指で正方形を描くタスク
    gg.カップから飲むタスク
    hh.ページをめくるタスク、
    から選択される1つまたは複数運動タスクを含む、請求項31に記載の方法。
  33. 前記ビデオデータが、前記運動タスクのうちの少なくとも2つを前記人間が実行するのを示す、請求項32に記載の方法。
  34. 前記運動記述子のそれぞれが、
    物理的な動きに対応する加速度、および
    前記物理的な動きに対応する速度
    のうちの1つまたは複数を表し、
    前記物理的な動きが、前記ビデオデータ内でデジタルに表現された前記人間によって実行される、請求項17に記載の方法。
  35. 前記速度が、前記物理的な動きの大きさを統計的に示す、請求項34に記載の方法。
  36. 前記加速度が、前記物理的な動きでの微小振動を示す、請求項35に記載の方法。
  37. 前記運動記述子のそれぞれが、前記基準点のうちの1つに対応する動きの大きさを表す、請求項17に記載の方法。
  38. 前記運動記述子のそれぞれがさらに、前記動きの方向を表す、請求項37に記載の方法。
JP2017532225A 2014-09-09 2015-09-03 運動タスク解析のシステムおよび方法 Pending JP2017533790A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462048132P 2014-09-09 2014-09-09
US62/048,132 2014-09-09
PCT/IB2015/056719 WO2016038516A2 (en) 2014-09-09 2015-09-03 Motor task analysis system and method

Publications (1)

Publication Number Publication Date
JP2017533790A true JP2017533790A (ja) 2017-11-16

Family

ID=54145968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017532225A Pending JP2017533790A (ja) 2014-09-09 2015-09-03 運動タスク解析のシステムおよび方法

Country Status (10)

Country Link
US (2) US10083233B2 (ja)
EP (3) EP3191986A2 (ja)
JP (1) JP2017533790A (ja)
KR (1) KR20170052628A (ja)
CN (1) CN106663126A (ja)
AU (2) AU2015313891A1 (ja)
BR (1) BR112017004663A2 (ja)
CA (1) CA2960584A1 (ja)
IL (1) IL250855A0 (ja)
WO (2) WO2016038516A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511261A (ja) * 2016-02-12 2019-04-25 エイエルエス・セラピー・デベロップメント・インスティテュートALS Therapy Development Institute 運動データに基づいたalsの進行の測定
JP2020077388A (ja) * 2018-09-28 2020-05-21 医療法人社団皓有会 運動解析装置
WO2022071427A1 (ja) * 2020-09-29 2022-04-07 田辺三菱製薬株式会社 神経筋疾患評価システム

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160371363A1 (en) * 2014-03-26 2016-12-22 Hitachi, Ltd. Time series data management method and time series data management system
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
US11013451B2 (en) * 2014-09-19 2021-05-25 Brigham Young University Marker-less monitoring of movement disorders
CN108602191B (zh) * 2016-03-14 2021-11-30 欧姆龙株式会社 动作信息生成装置、动作信息生成方法以及记录介质
JP6975952B2 (ja) * 2016-07-08 2021-12-01 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
US10019651B1 (en) * 2016-12-25 2018-07-10 Facebook, Inc. Robust shape prediction for face alignment
US11450433B2 (en) 2017-02-02 2022-09-20 Becare Link, Llc System and method for remote diagnosis of disease progression
CN108229284B (zh) * 2017-05-26 2021-04-09 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
US11253173B1 (en) * 2017-05-30 2022-02-22 Verily Life Sciences Llc Digital characterization of movement to detect and monitor disorders
US10554957B2 (en) * 2017-06-04 2020-02-04 Google Llc Learning-based matching for active stereo systems
FR3067496B1 (fr) * 2017-06-12 2021-04-30 Inst Mines Telecom Procede d'apprentissage de descripteurs pour la detection et la localisation d'objets dans une video
US11771958B2 (en) * 2017-07-07 2023-10-03 Rika TAKAGI Instructing process management system for treatment and/or exercise, and program, computer apparatus and method for managing instructing process for treatment and/or exercise
US10489654B1 (en) * 2017-08-04 2019-11-26 Amazon Technologies, Inc. Video analysis method and system
DE102017216000A1 (de) * 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
US11263230B2 (en) * 2017-09-29 2022-03-01 Koninklijke Philips N.V. Method and system of intelligent numeric categorization of noisy data
WO2019097784A1 (ja) * 2017-11-16 2019-05-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10521704B2 (en) * 2017-11-28 2019-12-31 Motorola Solutions, Inc. Method and apparatus for distributed edge learning
CN107862387B (zh) * 2017-12-05 2022-07-08 深圳地平线机器人科技有限公司 训练有监督机器学习的模型的方法和装置
EP3786882A4 (en) * 2018-04-26 2022-01-19 Nippon Telegraph And Telephone Corporation MOTION STATE RECOGNITION LEARNING DEVICE, MOTION STATE RECOGNITION DEVICE, METHOD AND PROGRAM
EP3909504A3 (en) 2018-05-28 2022-03-09 Kaia Health Software GmbH Monitoring the performance of physical exercises
CN109902547B (zh) * 2018-05-29 2020-04-28 华为技术有限公司 动作识别方法和装置
JP6939998B2 (ja) * 2018-06-04 2021-09-22 日本電信電話株式会社 移動状況解析装置、移動状況解析方法及びプログラム
US20200098339A1 (en) * 2018-09-20 2020-03-26 Ca, Inc. Panning displayed information to compensate for parkinson's disease induced motion of electronic devices
KR102242333B1 (ko) 2018-11-06 2021-04-19 부산가톨릭대학교 산학협력단 스마트폰에 설치된 6분보행검사앱을 통한 건강관리시스템
US10991122B2 (en) 2018-11-13 2021-04-27 Google Llc Processing images to localize novel objects
US11093886B2 (en) * 2018-11-27 2021-08-17 Fujifilm Business Innovation Corp. Methods for real-time skill assessment of multi-step tasks performed by hand movements using a video camera
US11423564B2 (en) * 2018-11-30 2022-08-23 Healthreel, Inc. Body modeling using mobile device
US11426114B2 (en) * 2018-12-21 2022-08-30 Metal Industries Research & Development Centre Method and system for measuring spasticity
US20220117514A1 (en) * 2019-03-29 2022-04-21 University Of Southern California System and method for determining quantitative health-related performance status of a patient
CN110176023B (zh) * 2019-04-29 2023-06-02 同济大学 一种基于金字塔结构的光流估计方法
TWI721533B (zh) * 2019-08-19 2021-03-11 國立中央大學 抖動辨識方法及其系統
US11798272B2 (en) * 2019-09-17 2023-10-24 Battelle Memorial Institute Activity assistance system
WO2021055536A1 (en) * 2019-09-17 2021-03-25 Battelle Memorial Institute Activity assistance system
US11335063B2 (en) * 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
CN111695404B (zh) * 2020-04-22 2023-08-18 北京迈格威科技有限公司 行人跌倒检测方法、装置、电子设备及存储介质
US12070362B2 (en) 2020-05-29 2024-08-27 Medtronic, Inc. Intelligent assistance (IA) ecosystem
CN111753795A (zh) * 2020-06-30 2020-10-09 北京爱奇艺科技有限公司 一种动作识别方法、装置、电子设备及存储介质
CN116057519A (zh) 2020-09-08 2023-05-02 美敦力公司 用于增强临床图像管理的成像发现实用程序
US11351861B2 (en) * 2020-09-10 2022-06-07 Automotive Research & Testing Center Driver status monitor test method and test system
KR102428325B1 (ko) * 2020-10-20 2022-08-02 (주) 로완 인공지능 기반의 그림 테스트를 이용한 인지장애 판별 방법 및 장치
WO2022183017A1 (en) * 2021-02-25 2022-09-01 The Regents Of The University Of California Pose-based identification of weakness
WO2023023622A1 (en) 2021-08-18 2023-02-23 Advanced Neuromodulation Systems, Inc. Systems and methods for providing digital health services
US20230114376A1 (en) * 2021-10-08 2023-04-13 Sanctuary Cognitive Systems Corporation Systems, robots, and methods for selecting classifiers based on context
WO2023195995A1 (en) * 2022-04-08 2023-10-12 Magic Leap, Inc. Systems and methods for performing a motor skills neurological test using augmented or virtual reality
US11482048B1 (en) 2022-05-10 2022-10-25 INSEER Inc. Methods and apparatus for human pose estimation from images using dynamic multi-headed convolutional attention
CN115937895B (zh) * 2022-11-11 2023-09-19 南通大学 一种基于深度相机的速度与力量反馈系统

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6618672B2 (en) * 1998-10-21 2003-09-09 Yazaki Corporation Vehicle-applied rear-and-side monitoring system
EP1305767B1 (en) * 2000-05-18 2014-03-19 Commwell, Inc. Method for remote medical monitoring incorporating video processing
US7643655B2 (en) * 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7330566B2 (en) 2003-05-15 2008-02-12 Microsoft Corporation Video-based gait recognition
US20060018516A1 (en) * 2004-07-22 2006-01-26 Masoud Osama T Monitoring activity using video information
US8724891B2 (en) * 2004-08-31 2014-05-13 Ramot At Tel-Aviv University Ltd. Apparatus and methods for the detection of abnormal motion in a video stream
US7583819B2 (en) * 2004-11-05 2009-09-01 Kyprianos Papademetriou Digital signal processing methods, systems and computer program products that identify threshold positions and values
US8213678B2 (en) * 2005-08-19 2012-07-03 Koninklijke Philips Electronics N.V. System and method of analyzing the movement of a user
GB0518480D0 (en) * 2005-09-09 2005-10-19 Ntnu Technology Transfer As Categorising movement data
US7881537B2 (en) * 2006-01-31 2011-02-01 Honeywell International Inc. Automated activity detection using supervised learning
CN101489481A (zh) * 2006-07-12 2009-07-22 皇家飞利浦电子股份有限公司 健康管理设备
US20110044501A1 (en) * 2006-07-14 2011-02-24 Ailive, Inc. Systems and methods for personalized motion control
US20120164613A1 (en) 2007-11-07 2012-06-28 Jung Edward K Y Determining a demographic characteristic based on computational user-health testing of a user interaction with advertiser-specified content
US20090024050A1 (en) 2007-03-30 2009-01-22 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
DE102007056620A1 (de) 2007-07-24 2009-01-29 Alexander Brandt Verfahren zur Situationsadaptiven Dokumentation strukturierter Daten
US9301679B2 (en) * 2007-11-01 2016-04-05 Dignity Health Method of detecting neurological disease
US8189866B1 (en) * 2008-08-26 2012-05-29 Adobe Systems Incorporated Human-action recognition in images and videos
US20100208063A1 (en) 2009-02-19 2010-08-19 Panasonic Corporation System and methods for improving accuracy and robustness of abnormal behavior detection
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8345984B2 (en) * 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
WO2011133799A1 (en) 2010-04-21 2011-10-27 Northwestern University Medical evaluation system and method using sensors in mobile devices
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US9323337B2 (en) * 2010-12-29 2016-04-26 Thomson Licensing System and method for gesture recognition
US8761437B2 (en) * 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
US10146329B2 (en) * 2011-02-25 2018-12-04 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different motion gestures and motion properties
US9189068B2 (en) * 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
US9486161B2 (en) * 2011-06-07 2016-11-08 Hitachi, Ltd. Information processing system and method
EP2737436A4 (en) * 2011-07-28 2015-06-17 Arb Labs Inc SYSTEMS AND METHODS FOR DETECTING BODY MOVEMENTS BY USING MULTI-DIMENSIONAL GESTURE DATA GENERATED GLOBALLY
CN102368297A (zh) * 2011-09-14 2012-03-07 北京英福生科技有限公司 一种用于识别被检测对象动作的设备、系统及方法
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US9078598B2 (en) * 2012-04-19 2015-07-14 Barry J. French Cognitive function evaluation and rehabilitation methods and systems
US20140024971A1 (en) 2012-07-17 2014-01-23 Frank E. Bunn Assessment and cure of brain concussion and medical conditions by determining mobility
KR101450586B1 (ko) * 2012-11-28 2014-10-15 (주) 미디어인터랙티브 동작 인식 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
BR112015017042B1 (pt) 2013-01-21 2022-03-03 Cala Health, Inc Dispositivo para tratar tremor
WO2014127065A2 (en) * 2013-02-12 2014-08-21 Emotient Facial expression measurement for assessment, monitoring, and treatment evaluation of affective and neurological disorders
EP2973215B1 (en) * 2013-03-15 2023-05-17 NIKE Innovate C.V. Feedback signals from image data of athletic performance
WO2014200437A1 (en) * 2013-06-12 2014-12-18 Agency For Science, Technology And Research Method and system for human motion recognition
US20150157202A1 (en) 2013-12-09 2015-06-11 Alexander Ulrich Brandt Method and System for Optic Nerve Head Shape Quantification
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511261A (ja) * 2016-02-12 2019-04-25 エイエルエス・セラピー・デベロップメント・インスティテュートALS Therapy Development Institute 運動データに基づいたalsの進行の測定
JP2020077388A (ja) * 2018-09-28 2020-05-21 医療法人社団皓有会 運動解析装置
WO2022071427A1 (ja) * 2020-09-29 2022-04-07 田辺三菱製薬株式会社 神経筋疾患評価システム

Also Published As

Publication number Publication date
CN106663126A (zh) 2017-05-10
WO2016040207A1 (en) 2016-03-17
WO2016038516A3 (en) 2016-06-23
AU2015313891A1 (en) 2017-03-23
EP4002385A3 (en) 2022-08-03
WO2016038516A2 (en) 2016-03-17
AU2018250385A1 (en) 2018-11-08
US20170293805A1 (en) 2017-10-12
BR112017003220A8 (pt) 2023-03-07
US20160071284A1 (en) 2016-03-10
US10083233B2 (en) 2018-09-25
BR112017003220A2 (pt) 2017-11-28
AU2018250385B2 (en) 2020-10-15
US10776423B2 (en) 2020-09-15
EP3191989B1 (en) 2021-12-29
BR112017004663A2 (pt) 2017-12-05
IL250855A0 (en) 2017-04-30
EP3191986A2 (en) 2017-07-19
CA2960584A1 (en) 2016-03-17
EP4002385A2 (en) 2022-05-25
KR20170052628A (ko) 2017-05-12
EP3191989A1 (en) 2017-07-19

Similar Documents

Publication Publication Date Title
AU2018250385B2 (en) Motor task analysis system and method
JP7083809B2 (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US20210049353A1 (en) Ai-based physical function assessment system
CN110213980A (zh) 用于依从性监测的口腔卫生系统及远程-牙科系统
Leightley et al. Benchmarking human motion analysis using kinect one: An open source dataset
Micó-Amigo et al. Assessing real-world gait with digital technology? Validation, insights and recommendations from the Mobilise-D consortium
JP7473355B2 (ja) 転倒リスク評価方法、転倒リスク評価装置及び転倒リスク評価プログラム
WO2019079489A1 (en) MEASUREMENT OF BODY MOVEMENT IN A DISEASE OF MOVEMENT DISORDERS
US20170156585A1 (en) Eye condition determination system
WO2016083826A1 (en) Facial exercise system
Tao et al. A comparative home activity monitoring study using visual and inertial sensors
Rahman et al. Auto-gait: Automatic ataxia risk assessment with computer vision from gait task videos
US11779260B2 (en) Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded
US20230367398A1 (en) Leveraging machine learning and fractal analysis for classifying motion
JP7473354B2 (ja) サルコペニア評価方法、サルコペニア評価装置及びサルコペニア評価プログラム
Liu et al. Deep Neural Network-Based Video Processing to Obtain Dual-Task Upper-Extremity Motor Performance Toward Assessment of Cognitive and Motor Function
da Rocha Sistema para Análise Automatizada de Movimento Durante a Marcha Usando uma Câmara RGB-D
Cheng et al. Your Turn: Real-World Turning Angle Estimation for Parkinson's Disease Severity Assessment
Nerino et al. Steps toward Automatic Assessment of Parkinson’s Disease at Home
Jeyasingh-Jacob et al. Markerless Motion Capture to Quantify Functional Performance in Neurodegeneration: Systematic Review
Liu et al. Depression risk recognition based on gait: A benchmark
Doppelbauer Mobility analysis for frailty syndrome assessment
JP2024024307A (ja) 画像処理装置、画像処理方法およびプログラム
CN117393104A (zh) 一种康复训练方案匹配的方法、装置、设备及介质
TW396032B (en) Method for applying an eye vision test and evaluating an eyeball exercise