JP2009504298A - ユーザの動きを分析するシステム及び方法 - Google Patents

ユーザの動きを分析するシステム及び方法 Download PDF

Info

Publication number
JP2009504298A
JP2009504298A JP2008526586A JP2008526586A JP2009504298A JP 2009504298 A JP2009504298 A JP 2009504298A JP 2008526586 A JP2008526586 A JP 2008526586A JP 2008526586 A JP2008526586 A JP 2008526586A JP 2009504298 A JP2009504298 A JP 2009504298A
Authority
JP
Japan
Prior art keywords
user
synchronicity
degree
computer
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008526586A
Other languages
English (en)
Other versions
JP5118038B2 (ja
Inventor
ヴィルマン,リヒャルト
ランフェルマン,ゲルト
ブラウアーズ,アンドレーアス
ブラスペニング,ラルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009504298A publication Critical patent/JP2009504298A/ja
Application granted granted Critical
Publication of JP5118038B2 publication Critical patent/JP5118038B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Abstract

本発明は、ユーザ4の動きを分析するシステム及び方法に関する。より詳細には、本発明は、ユーザの運動機能を評価する新たな技術に関する。本発明の目的は、監視のない家庭環境で使用することができる、ユーザの動きを分析するシンプル、ロバスト及び低コストの技術を提供することにある。この目的は、ユーザの動きを分析する方法により本発明に従って達成される。本方法は、指示に従って調整された動きをユーザに実行させるステップ、ユーザをビデオ記録することで、画像系列の形式でビデオ画像データを生成するステップ、コンピュータビジョン技術を有するコンピュータシステム11を使用して、画像系列において、左半身14及び右半身15のオプティカルフローの共時性の程度を判定するステップ、及び、共時性の程度に基づいてユーザの運動機能を評価するステップを含む。

Description

本発明は、ユーザの動きを分析するシステム及び方法に関する。より詳細には、本発明は、たとえば卒中といった神経の損傷後のユーザの運動機能を評価する新たな技術に関する。
不全片麻痺(hemiparesis)、すなわち肢の片側衰弱(a single-sided weakness of the limbs)は、卒中(stroke)に続く最も一般的な機能障害である。US700.000では、新たなケースの発作が毎年生じている。致命的に、そのケースの20%において、発作は、被害者の60%における障害を引き起こしている。リハビリの措置及び労働力の損失は、毎年米国社会に$50Bドルのコストを与えている。
コストを最適化しつつリハビリの努力を最大にするため、リハビリのエクササイズは、管理する専門家を利用可能にすることなしに、家庭で患者により継続されることが望ましい。適切なフィードバックがリハビリの成功を強化することが知られている。このため、エクササイズの自動的な評価が必要である。
従来技術から、たとえば書き取りのエクササイズのコンピュータ化された評価、耐久力測定、又は入力装置でのエクササイズによるといった、異なる運動障害の評価が知られている。これら公知のシステム及び方法は、家庭での使用ではなく、専門的な環境での使用が意図されている。
他の公知の技術は、ユーザの運動能力を評価するためにユーザのビデオ画像データを使用した、ビデオアプローチに基づいている。US6816603B2は、ビデオ処理を組み込んだリモートメディカルモニタリングの方法及び装置を示し、複数のシルエットが生成及び結合され、動きのポートレートが供給され、この動きのポートレートから、最終的な動き特性が計算される。前記患者で指摘されている複雑なビデオ処理手順は、実質的な前処理及び後処理を含む。これにより、ボディセグメンテーションの非常に複雑なタスクが実行される。
本発明の目的は、監視されない家庭での環境で使用することができる、ユーザの動きを分析するためのシンプル、ロバストかつ低コストの技術を提供することにある。
上記目的は、ユーザの動きを分析する方法により、本発明に従って達成され、本方法は、指示に従って調整された動きをユーザに実行させるステップ、ユーザをビデオ記録することで、画像系列の形式でビデオ画像データを生成するステップ、画像系列において、コンピュータビジョン技術を有するコンピュータシステムを使用して、左半身及び右半身でのオプティカルフロー(optical flow)の共時性(synchronicity)の程度を判定するステップ、及び、共時性の程度に基づいてユーザの運動の機能を評価するステップを含む。さらに、適切なフィードバックは、訂正及び/又は評価の形式でユーザに与えることができる。
また、本発明の目的は、ユーザの動きを分析するシステムにより達成され、本システムは、指示に従って調整された動きをユーザに実行させるために適合されるディスプレイユニット及び/又はオーディオインタフェース、ユーザをビデオ記録することで画像系列の形式でビデオ画像データを生成するために適合されるビデオカメラ、コンピュータビジョン技術を含むコンピュータシステムを有する。前記コンピュータシステムは、左半身と右半身でのオプティカルフローの共時性の程度をビデオ画像データに基づいて判定するために適合される。本システムは、共時性の程度に基づいてユーザの運動の機能を評価するために適合される分析ユニットをさらに含む。
また、本発明の目的は、ユーザの動きを分析するコンピュータプログラムにより達成され、本プログラムは、ユーザの左半身及び右半身でのオプティカルフローの共時性の程度を画像系列において判定するコンピュータ命令を含む。画像系列の形式での前記ビデオ画像データは、ユーザをビデオ記録することで生成される。本プログラムは、コンピュータプログラムがコンピュータで実行されたとき、共時性の程度に基づいてユーザの運動の機能を評価するためにコンピュータ命令を含む。本発明に従う必要な技術的な効果は、本発明に係るコンピュータプログラムの命令に基づいて実現することができる。係るコンピュータプログラムは、CD−ROMのようなキャリアに記録することができるか、インターネット又は別のコンピュータネットワークを通して利用可能となる。実行の前に、コンピュータプログラムは、たとえばCD−ROMプレーヤにより、又はインターネットから、キャリアからコンピュータプログラムを読取り、それをコンピュータのメモリに記憶することでコンピュータにロードされる。コンピュータは、とりわけ、中央処理装置(CPU)、バスシステム、たとえばRAM又はROM等といったメモリ手段、たとえばフロプティカルディスク又はハードディスクユニット等のようなストレージ手段、及び入力/出力ユニットを含む。代替的に、本発明の方法は、たとえば1以上の集積回路を使用するといった、ハードウェアで実現される。
本発明のコアとなる考えは、ユーザの身体のうちの左半身及び右半身の共時性の程度に基づいてユーザの運動機能を評価することである。測定値として、ユーザの身体の左半身と右半身でのオプティカルフローの共時性が使用される。言い換えれば、画像系列におけるモーションフロー(motion flow)は、ユーザの動きの共時性が決定的な基準として使用されるように評価される。本発明によれば、コンピュータがユーザの手又は肘等としてビデオ画像の所定の部分を識別することは、ユーザの運動機能を評価するために関連しない。コンピュータシステムは、オプティカルフローに関してビデオデータのみを分析する。セグメント化、又は他の複雑で時間のかかる高価なタスクは必要とされない。したがって、システムは、家庭環境でのロバストな動作のための要件を達成する。
用語「共時性」が使用される場合はどこであっても、用語「非共時性」がこれに応じて使用される場合があることが指摘される必要がある。言い換えれば、本発明に係る方法を実行しつつ、共時性の程度又は非共時性の程度が判定されるかは、本発明にとって重要ではない。狙いは、たとえばユーザの上肢の動きが同期的(すなわち同時)であること、及び/又はどの程度まで同期的ではないことを判定することである。本発明によれば、たとえば上肢及び下肢の動き又はユーザの顔の動きといった、異なる種類の動きを評価することができる。
本発明に係る新たな方法及びシステムは、以下の点で特徴づけされる。ユーザは反射型のマーカ等を運ぶ必要がない。照明条件は、既知である必要がない。ユーザの衣服は既知である必要はない。ユーザは、カメラの動作エリア内で自由に自身を位置させる場合がある。これにより、従来技術の主要な問題が解決される。さらに、これらの利点は、監視されない家庭用の環境で使用可能なシンプル、ロバスト、及び低コストの技術により達成することができる。
本発明のこれらの態様及び他の態様は、従属の請求項で定義される以下の実施の形態に基づいてさらに説明される。
本発明の好適な実子の形態によれば、ユーザは、ディスプレイユニット及び/又はオーディオインタフェースにより指示される。したがって、ユーザは、たとえば上肢の調整された動きといった、所定のフィジカルなタスクを実行するための命令を受ける。好ましくは、要求されるタスクは、ディスプレイユニットでユーザに表示され、及び/又は、たとえば音声シンセサイザにより話されて、オーディオインタフェースを介してユーザに送信される。さらに、ディスプレイユニットは、エクササイズの終わりで又はエクササイズの途中でビジュアルなフィードバックを供給するために適合されることが好ましく、オーディオインタフェースは、ユーザにオーディオフィードバックを供給するために適合されることが好ましい。言い換えれば、ディスプレイユニット及び/又はオーディオインタフェースは、ユーザへの評価の結果を供給するために適合される。
本発明によれば、共時性の程度は、ユーザの身体の左半身及び右半身でのオプティカルフローに基づいて決定される。左半身と右半身との間で区別するため、ユーザの身体のセンターラインは、本発明の別の好適な実子の形態に従って、ユーザの顔をトラッキングすることで決定される。このため、(パン及びチルトの動きを可能にするためにサーボモータが設けられる)可動式のビデオカメラとの組み合わせで、トラッキングソフトウェアが使用される。これにより、ユーザは、運動機能のテストの間にビデオカメラの動作レンジ内で自由に移動することが可能になる。言い換えれば、モニタユニットとの組み合わせにおけるコンピュータビジョン技術は、ユーザの身体の垂直方向の中心線が画像の中心線と一致するように、ユーザをトラッキングし、カメラを配置するために利用され、この場合、垂直方向の身体の中心線を判定することは、顔及び他の身体の部分のような特徴のためのトラッキングソフトウェアにより達成される。代替的に、垂直方向の身体の中心線を判定するタスクは、身体に取り付けられたフィジカルマーカをトラッキングすることで達成することができる。
共時性の程度を判定するため、コンピュータビジョン技術によりセンターラインの左に割り当てられるビデオ画像データは、ユーザの左半身に割り当てられ、コンピュータビジョン技術によりセンターラインの右に割り当てられるビデオ画像データは、ユーザの右半身に割り当てられる。
本発明の別の好適な実施の形態によれば、記録されたビデオ画像は、静的な動き領域にセグメント化される。共時性の程度を判定するため、ユーザの身体の左半身と右半身におけるフローコンポーネントが計算され、互いに比較される。フローコンポーネントを計算するため、好ましくは3フレームの3D再帰型のサーチの動き予測アルゴリズムが使用される。この類のアルゴリズムは、変位ベクトルによりユーザの動きを記述し、ユーザの動きに関する容易かつ直接的な分析を可能にする。
共時性の程度が計算された後、ユーザの運動機能の評価が実行される。このため、共時性の程度は、本発明の別の好適な実施の形態に従って閾値と比較される。これにより、閾値は、たとえばユーザの上肢の深刻な麻痺の判定を可能にする静的な値である。代替的に、閾値は、動的に適合され、たとえば日又は月の期間で、ユーザの運動のリハビリテーションの進展を判定することができる。
最後に、本発明の更に別の好適な実施の形態によれば、評価の結果は、好ましくはユーザにビジュアルなフィードバックを提供するために適合されるディスプレイユニット及び/又はユーザにオーディオのフィードバックを提供するオーディオインタフェースを使用して、ユーザに発せられる。
本発明のこれらの態様及び他の態様は、以下の実施の形態及び添付図面を参照して、例示を通して、以下に詳細に説明される。
システム1は、指示に従って調整された動きをユーザ4に実行させる(ステップ100)ために適合させるディスプレイユニット2及びオーディオインタフェース3を有する。言い換えれば、システム1は、エクササイズを実行する事に関してユーザ4に指示する手段を有する。ユーザ4は、たとえば腕を同時に上げ下げするといった、所定の動きを実行することが要求される。命令は、ディスプレイ2により短いビデオクリップ又はアニメーションの形式で、及び/又は話者5を介して話された命令としてユーザ4に与えられる。ディスプレイ2及びオーディオインタフェース3は、好ましくは結合され、インタフェースユニット6を形成することが好ましい。インタフェースユニット6として、たとえば、コンピュータモニタ、TVセット、ハンドヘルドデバイス等が使用される。インタフェースユニット6、特にディスプレイ2は、エクササイズの間及び/又はテストの終わりでユーザ4に視覚的なフィードバックを供給するために適合される。エクササイズの間に与えられるフィードバックは、エクササイズがユーザにより良好に実行されているかに関する情報を含む。テストの終わりでユーザ4に与えられるフィードバックは、テストの結果に関する情報を含む。
システム1は、ユーザ4をビデオ記録することで(ステップ110)画像系列の形式でビデオ画像データを生成するために適合されるビデオカメラ7を更に有する。本発明のため、1つのビデオカメラ7で充分である。しかし、2以上のビデオカメラ7を使用することができ、ビデオ画像処理は更に複雑になる。ビデオカメラ7として、たとえばPhilipsTouCamといった非常にシンプルな標準的なカメラを使用することができる。かかるビデオカメラ7により、本発明の目的にとって充分である、低解像度又は中解像度でのビデオ画像の記録が可能になる。ビデオカメラ7には、カメラレンズのパン及びチルトの動きを可能にするサーボモータを有するモニタユニット8が設けられている。ビデオカメラ7及びモータユニット8は結合され、カメラユニット10を形成する。かかるビデオカメラ7は、たとえばPhilips Home Dialog Systemから知られている。
本発明の非常にシンプルな実施の形態では、TVセットは、インタフェースユニットとしての役割を果たすために使用され、たとえばユーザにより話される指示といった音声入力のため、ビデオカメラ7のビルトインマイクロフォン9が使用される。別の実施の形態では(図示せず)、ディスプレイ2、オーディオインタフェース3及びビデオカメラ7,8が結合され、単一の装置を形成する。これにより、システムが高価な配線なしに機能するので、特に高齢者にとってシステムの容易な動作が可能となる。
システム1は、とりわけコンピュータビジョン技術を実現するコンピュータシステム11を更に有する。たとえば標準的なパーソナルコンピュータであるコンピュータシステム11は、本発明のシステム1の制御を実行するために適合される。この目的のため、コンピュータシステム11は、カメラユニット10及びインタフェースユニット6と接続される。ビデオカメラ7から、画像系列は、コンピュータシステム11の処理ユニット12に転送される。
さらに、コンピュータシステム11は、ビデオ画像データの計算、結果を判定及び評価する全てのタスクを実行するために適合される。これは、ソフトウェアがコンピュータシステム11で実行されるとき、本発明の方法のステップを実行するために適合されるコンピュータ命令を含むコンピュータソフトウェアにより本発明に従って達成される。
コンピュータシステム11は、ハードウェア、ソフトウェア又は両者の組み合わせの形式で実現される機能モジュール又はユニットを有する。
ソフトウェアユニットとして実現されるのが好ましいコンピュータシステムの第一のユニット11は、テストを開始するためにユーザコマンドに従ってビデオ記録を開始するために適合される。言い換えれば、ユーザ4が予め定義されたSTART命令を話し、この命令がマイクロフォン9により記録された場合、実行されるユーザの動きは、ビデオカメラ7により記録される。記録の間、要求される動きを表示するアニメーションは、ディスプレイ2に表示される。
ソフトウェアユニットとして好ましくは実現されるコンピュータシステム11の第二のユニットは、ビデオカメラ7がユーザインタフェース13に従うように、モータユニット8を制御するために適合される。これにより、モータユニット8は、ユーザの身体のセンターラインが画像のセンターラインと一致するように、ユーザの顔13をトラックし、ビデオカメラ7を位置するために利用される。
カメラ画像が捕捉される間、画像は、フェーストラッキングソフトウェア及びビデオカメラ7のパン/チルト機能のため、ユーザの顔の中心線(垂直方向の中心線17)にセンタリングされる。したがって、画像の左半分と右半分は、ユーザの身体の左半分14と右半分15に対応する。パン/チルト機能は、エクササイズの記録の開始の前に、ユーザ4を追跡するために使用される。ビデオ記録の間、この機能はスイッチオフにされ、ユーザ4は、彼の場所で立っていることが想定される。
画像系列が記録された後、コンピュータシステム11の処理ユニット12内で画像は処理される(ステップ120)。この処理ユニット12は、ソフトウェアユニットとして実現されることが好ましいが、勿論、ハードウェアユニットの形式で実現することもできる。処理ユニット12は、記録された画像系列におけるオプティカルフローを計算するために適合され、すなわち、ユニットは、ビデオ画像データに基づいて、左半身14と右半身15でのオプティカルフローの共時性の程度を判定するために適合される。図3を参照されたい。この目的のため、記録された画像系列におけるフローを計算するために特定のアルゴリズムが使用される。
画像を処理するアルゴリズムは、Gerard de Haan等による“True motion estimation with 3D-recursive search block matching” in IEEE transactions on circuits and systems of video technology, volume 3, number 5, October 1993, page 368 et seqq.,に記載される3次元の再帰型サーチのブロックマッチングアルゴリズムであり、本出願はこの引例を明示的に引用し、引用により本明細書に盛り込まれる。このアルゴリズムは、他の公知のブロックマッチングアルゴリズムに対する比較において極端に効率的であり、原理的に、リアルタイムでの記録画像の処理を可能にする。
さらに、“3-frame block matching”として知られるアルゴリズムのバリエーションが利用される。この名称は、現在のカメラ画像が前の画像と後の画像に比較され、対応する画素ブロックが処理ユニット12により前方及び後方の時間方向でサーチされることを示している。これは、閉塞(occlusion)問題を回避し、以前に構築されたバックグランドのモデルなしで、動いているフォアグランド19と静止しているバックグランド18における画像のセグメント化を可能にする。この事実は、ビデオカメラ7のパン/チルト機能のために、バックグランドに関する情報がエクササイズの記録の開始の前に収集することができないケースにおいて重要である。
処理ユニット12により上述されたアルゴリズムを適用することから得られる結果は、捕捉された画像に対応するフローフィールドである。これは、画像における画素のそれぞれのブロックについて、前の画像に関する変位は、2次元ベクトルf(x,y,t)16として処理ユニット12により記憶されることを意味し、x及びyは画素の座標であり、tはカメラ画像が捕捉される時間であり、t=0は記録される系列の開始であり、t=Tは終了時間である。言い換えれば、このアルゴリズムは、変位ベクトル16によりユーザの動きを記述する。かかる変位ベクトルの例は図3に示されている。アルゴリズムは、多数のビデオ画像内の画素ブロックを比較する。この目的のため、アルゴリズムは、前の画像からアルゴリズムにとって既に公知である特定の画素ブロック(たとえば3×3画素)を画像において検出する。変位ベクトル16は、この画素ブロックの変位を定義し、オプティカルフローを定義する。しかし、アルゴリズムは、画素のブロックがユーザ4の腕を示しているのか、肘を示しているのかを知らない。
フローフィールドf(x,y,t)が与えられると、画像の左半分と右半分における全体のフローFL(t)とFR(t)は、画像の左半分と右半分における全ての画素f(x,y,t)を合計することで処理ユニット12により計算される。FL(t)とFR(t)は、エントリとしてそれぞれのサイドで全体のオプティカルフローのx及びy成分を有する2次元ベクトルである。
完全な動き系列FLtot及びFRtotを通して画像の左半分と右半分における動きの合計は、処理ユニット12により計算される。これら2つの値の何れかの絶対値が予め定義された閾値よりも低い場合、それぞれの側で動きが行われないことを処理ユニット12により判断される。これは、全体的にエクササイズを繰り返すこと、又は患者が一方の側で動きを行うことができないという結論のいずれかに導く。
tを0とTの間であるとして、時間系列FL(t)及びFR(t)が与えられると、動きの共時性が評価される。このため、時間系列FL(t)及びFR(t)のx及びy成分の相関係数は、処理ユニット12により計算され、これらの量はCx及びCyと呼ばれる。相関係数Cx及びCyの定義により、−1と1との間の値を有する。ここで、値1は、共時性であることを意味し、−1は非共時性であることを意味する。Cx及びCyが0である場合、動きは同期されていない。
AとしてA(t)の標準偏差が与えられ、SBとしてB(t)の標準偏差が与えられる、2つのスカラー量A(t)及びB(t)の相関係数CABは、
AB=(<AB>−<A><B>)/(SAB
である。ここで括弧は、時間系列にわたる平均値を示す。
2つの身体の側での同期した動きについて、動き、従ってx方向におけるオプティカルフローは非同期であることが期待され、すなわち、相関係数Cx=−1であることが期待される。y方向における動きについて、同期した動きが期待され、すなわちCy=1である。したがって、C=|−1−Cx|+|1−Cy|は、同期した動きからの導出のためのスカラーの測定値である。ここで||は絶対値を示す。
予め定義された閾値又はパーソナライズされた閾値の何れかのため、動きから得られる値C(相関係数)は、期待に従っている動きを記述するものとして判断されるか、判断されない。
図3に例示されるユーザ4に従う対称な腕の動きを説明する図は、図4に示される。この図は、左側のフローベクトル20のY成分及び右側のフローベクトル21のY成分のビデオフレームの数にわたる、全ての動きベクトルの合計を示す。この例では相関係数Cyは0.82であり、ユーザ4の対称的な(同期した)腕の動きを示している。相関係数は、共時性の速度としての役割を果たす。
図6は、図5に例示されるユーザ4に係る非対称な腕の動きを説明する図を示しており、相関係数Cyは0.21であり、ユーザ4の非対称な(非同期の)腕の動きを示している。明らかに見ることができるように、ユーザの右の腕は、要求されたエクササイズを非常に良好にではなく実行している。実行されるユーザの右の腕は、殆ど動きがない。結果として、右半身15は、左半身16とは異なる運動の振る舞いを示し、計算された相関係数16は、図4に例示される例とは異なる。
相関ファクタはオプティカルフローにのみ基づいて計算されるので、この方法は、様々な照明条件、バックグランド及び患者の衣服に関してロバストである。本システムは、マーカを身につけるか装置を保持することをユーザ4に要求することなしに、動きの等時性を検出する。異なる身体の部分へのユーザの身体のセグメント化が不要である。また、ユーザの身体の部分の位置は無関係である。
共時性の程度が計算された後、ユーザの運動機能の評価が実行される(ステップ130)。この目的のため、ソフトウェアユニットとして実現されるのが好ましい、コンピュータシステム11の分析ユニット2は、要求されたエクササイズを評価又は格付けをする、すなわち共時性の程度に基づいてユーザの運動機能を評価するために適合される。共時性の程度、すなわち相関ファクタは、コンピュータシステム11に記憶されている閾値と比較される。
卒中の被害者のグループ及び健康制御のグループからのデータを有して、運動予測の分析の結果を評価するための静的な閾値が定義される。代替的に、それぞれのテストの共時性の程度が記憶され、閾値は、動的に適合される。このケースでは、共時性の程度は、リハビリテーションの進展の指標としての役割を果たす。この実施の形態では、分析ユニットは、個々のユーザの性能を格付けするために特にトレーニングされる。分析ユニットは、記録された履歴データを使用して、前のパフォーマンスとの比較において現在のパフォーマンスを評価する。このパーソナライズされたアルゴリズムにより、リハビリテーションの成功の格付け及び卒中のイベントの再発の信頼できる検出が可能となる。評価の結果は、好ましくはディスプレイ2及び/又はオーディオインタフェース3を使用してユーザ4に発せられる(ステップ140)。
たとえばシステムがユーザの顔13のトラッキングを実行するために使用することができないために、ビデオ画像データの分析が無効な結果となった場合、又は可能な結果が判定されない場合、たとえば最後のエクササイズを繰り返すようにユーザに要求するといった、インタフェースユニット6を介してコンピュータシステム11からユーザ4に新たな命令が与えられる。しかし、利用されるアルゴリズムのロバスト性のため、たとえばユーザの僅かな回転等といったビデオ画像の記録の間のユーザ4の動きは、全体の結果に影響を及ぼすものではなく、したがって大部分のケースで無視することができる。
本発明は、家庭での卒中の検査の応用の一部として使用することができる。かかる応用は、遠隔医療及びe−healthプラットフォームの一部となるように適合されることが好ましい。従来技術のシステムとは対照的に、本発明は、ビデオカメラ7を除いて更なるセンサ又は入力装置をなしに不全片麻痺のためのエクササイズを評価するシステムの実現を提供する。さらに、本発明は、患者に視覚的なフィードバックを提供する。要求されるエクササイズは、ユーザ4により自由に実行され、カメラ7により記録される。画像を処理した後、評価及びフィードバックが与えられる。そのロバスト性及び低コストの標準的なコンピュータ機器の使用のため、監視のない家庭環境での使用のために特に適している。
本発明が上述された例示的な実施の形態の詳細に制限されないこと、本発明は、本発明の精神又は本質的な属性から逸脱することなしに他の特定の形式で実施される場合があることは、当業者にとって明らかである。したがって、本実施の形態は、全ての観点で例示的なものであって、限定的なものではないと考えられ、本発明の範囲は、上述された説明によってではなく、特許請求の範囲により示され、請求項の等価な概念の意味及び範囲内での全ての変形は、本発明に包含されることが意図される。さらに、単語「有する“comprising”」は、他のエレメント又はステップを排除するものではなく、コンピュータシステム又は別のユニットのような単一のエレメントは請求項で引用される幾つかの手段の機能を達成する場合があることは明らかである。
本発明に係るシステムの概念的なブロック図である。 本発明に係る方法の簡略化されたフローチャートである。 同期して移動する腕をもつユーザの概念的な図である。 同期した腕の動きを説明する図である。 同期して移動する腕をもつユーザの概念的な図である。 非同期の腕の動きを説明する図である。
符号の説明
1 :システム
2 :ディスプレイ
3 :オーディオインタフェース
4 :ユーザ
5 :スピーカ
6 :インタフェースユニット
7 :ビデオカメラ
8 :モータユニット
9 :マイクロフォン
10:カメラユニット
11:コンピュータユニット
12:処理ユニット
13:ユーザの顔
14:左半身
15:右半身
16:変位ベクトル
17:センターライン
18:静的なエリア
19:移動エリア
20:左サイドのフローベクトル
21:右サイドのフローベクトル
22:分析ユニット

Claims (15)

  1. ユーザの動きを分析する方法であって、
    指示に従って調整された動きをユーザに実行させるステップと、
    ユーザをビデオ記録することで、画像系列の形式でビデオ画像データを生成するステップと、
    コンピュータビジョン技術を有するコンピュータシステムを使用して、前記画像系列において、左半身及び右半身のオプティカルフローの共時性の程度を判定するステップと、
    前記共時性の程度に基づいてユーザの運動機能を評価するステップと、
    を含むことを特徴とする方法。
  2. 調整された動きをユーザに実行させる前記ステップは、ディスプレイ及び/又はオーディオインタフェースを使用してユーザに指示するステップを含む、
    ことを特徴とする請求項1記載の方法。
  3. 調整された動きをユーザに実行させる前記ステップは、上肢の調整された動きを実行するようにユーザに指示するステップを含む、
    ことを特徴とする請求項1記載の方法。
  4. 左半身及び右半身のオプティカルフローの共時性の程度を判定する前記ステップは、静的なエリアと移動エリアに画像をセグメント化するステップを含む、
    ことを特徴とする請求項1記載の方法。
  5. 左半身及び右半身のオプティカルフローの共時性の程度を判定する前記ステップは、ユーザの身体の左半身におけるフローの成分と右半身におけるフローの成分を比較するステップを含む、
    ことを特徴とする請求項1記載の方法。
  6. 左半身及び右半身のオプティカルフローの共時性の程度を判定する前記ステップは、左半身と右半身を定義するためにユーザの身体のセンターラインをビデオ画像データに基づいて決定するステップを含む、
    ことを特徴とする請求項1記載の方法。
  7. 左半身及び右半身のオプティカルフローの共時性の程度を判定する前記ステップは、ユーザの顔をトラッキングするステップを含む、
    ことを特徴とする請求項1記載の方法。
  8. 前記フロー成分は、3フレームの3次元再帰型サーチの動き予測アルゴリズムを使用して計算される、
    ことを特徴とする請求項1記載の方法。
  9. ユーザの運動機能を評価する前記ステップは、前記共時性の程度と閾値とを比較するステップを含む、
    ことを特徴とする請求項1記載の方法。
  10. ユーザの運動機能を評価する前記ステップは、ユーザの肢及び/又は顔、特にユーザの上肢の麻痺の深刻さを判定するステップを含む、
    ことを特徴とする請求項1記載の方法。
  11. ユーザの運動機能を評価する前記ステップは、ユーザの運動のリハビリテーションの進展を判定するステップを含む、
    ことを特徴とする請求項1記載の方法。
  12. ユーザに視覚に基づくフィードバックを提供するために適合されるディスプレイ、及び/又はユーザに聴覚に基づくフィードバックを提供するために適合されるオーディオインタフェースを使用して、ユーザの前記評価の結果を知らせるステップを更に含む、
    請求項1記載の方法。
  13. ユーザの動きを分析するシステムであって、
    指示に従って調整された動きをユーザに実行させるために適合されるディスプレイ及び/又はオーディオインタフェースと、
    ユーザをビデオ記録することで、画像系列の形式でビデオ画像データを生成するために適合されるビデオカメラと、
    コンピュータビジョン技術を有するコンピュータシステムであって、前記ビデオ画像データに基づいて、左半身及び右半身のオプティカルフローの共時性の程度を判定するために適合されるコンピュータシステムと、
    前記共時性の程度に基づいてユーザの運動機能を評価するために適合される分析ユニットと、
    を含むことを特徴とするシステム。
  14. ユーザに音声情報を提供し、ユーザに視覚に基づく情報を提供するために適合されるディスプレイ、及び/又は聴覚に基づく情報を提供するために適合されるオーディオインタフェースを更に含む、
    ことを特徴とする請求項13記載のシステム。
  15. ユーザの動きを分析するコンピュータプログラムであって、
    当該コンピュータプログラムがコンピュータで実行されたとき、
    ユーザの左半身及び右半身のオプティカルフローの共時性の程度を、ユーザをビデオ記録することで生成される画像系列の形式でのビデオ画像データにおいて判定するコンピュータ命令と、
    前記共時性の程度に基づいてユーザの運動機能を評価するコンピュータ命令と、
    を含むことを特徴とするプログラム。
JP2008526586A 2005-08-19 2006-08-09 ユーザの動きを分析するシステム及び方法 Expired - Fee Related JP5118038B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP05107622 2005-08-19
EP05107622.2 2005-08-19
PCT/IB2006/052750 WO2007020568A2 (en) 2005-08-19 2006-08-09 System and method of analyzing the movement of a user

Publications (2)

Publication Number Publication Date
JP2009504298A true JP2009504298A (ja) 2009-02-05
JP5118038B2 JP5118038B2 (ja) 2013-01-16

Family

ID=37441726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008526586A Expired - Fee Related JP5118038B2 (ja) 2005-08-19 2006-08-09 ユーザの動きを分析するシステム及び方法

Country Status (5)

Country Link
US (1) US8213678B2 (ja)
EP (1) EP1922696B1 (ja)
JP (1) JP5118038B2 (ja)
CN (1) CN101243471B (ja)
WO (1) WO2007020568A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042304A1 (ja) * 2011-09-22 2013-03-28 テルモ株式会社 活動量監視システム、情報処理装置及び活動量監視装置
WO2014104357A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理システム、動作情報処理装置及び医用画像診断装置
JP7461952B2 (ja) 2018-12-20 2024-04-04 ウマン センス アーベー 患者における脳卒中を検出する装置及び方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009542397A (ja) * 2006-07-12 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 健康管理装置
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8698888B2 (en) * 2009-10-30 2014-04-15 Medical Motion, Llc Systems and methods for comprehensive human movement analysis
WO2011102912A2 (en) * 2010-02-22 2011-08-25 Progyr Inc. Human-motion-training system
CN102959616B (zh) 2010-07-20 2015-06-10 苹果公司 自然交互的交互真实性增强
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US20120058824A1 (en) * 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US9025824B2 (en) * 2010-12-07 2015-05-05 Movement Training Systems Llc Systems and methods for evaluating physical performance
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
CN103347437B (zh) 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
ES2415579B1 (es) * 2011-09-28 2014-11-17 Instituto Tecnológico De Castilla Y León Procedimiento y dispositivo electrónico multiagente con control difuso para la detección del ictus cerebral lateral.
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
CN103908293B (zh) * 2012-12-28 2018-03-27 通用电气公司 用于测量医学图像的医学成像系统和方法
KR20150107783A (ko) 2013-01-11 2015-09-23 코닌클리케 필립스 엔.브이. 피실험자의 움직임의 범위를 평가하기 위한 시스템 및 방법
EP3119280A4 (en) * 2014-03-21 2018-01-03 Kinetisense Inc. Motion capture and analysis system for assessing mammalian kinetics
US10083233B2 (en) * 2014-09-09 2018-09-25 Microsoft Technology Licensing, Llc Video processing for motor task analysis
US9412169B2 (en) * 2014-11-21 2016-08-09 iProov Real-time visual feedback for user positioning with respect to a camera and a display
US10007339B2 (en) * 2015-11-05 2018-06-26 Oculus Vr, Llc Controllers with asymmetric tracking patterns
WO2019008771A1 (ja) * 2017-07-07 2019-01-10 りか 高木 治療及び/又は運動の指導プロセス管理システム、治療及び/又は運動の指導プロセス管理のためのプログラム、コンピュータ装置、並びに方法
US10523961B2 (en) 2017-08-03 2019-12-31 Samsung Electronics Co., Ltd. Motion estimation method and apparatus for plurality of frames
CN107961013A (zh) * 2017-12-13 2018-04-27 东南大学 便携式上肢运动协调性检测系统
CN108195306B (zh) * 2017-12-25 2020-01-31 珠海市万瑙特健康科技有限公司 获取人体安全包络线的方法
CN108830783B (zh) * 2018-05-31 2021-07-02 北京市商汤科技开发有限公司 一种图像处理方法、装置和计算机存储介质
CA3089403A1 (en) * 2019-08-08 2021-02-08 Curv Labs Inc. System and method for performing biomechanical assessments

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1199140A (ja) * 1997-09-26 1999-04-13 Toshiba Corp 就寝状態異常検知装置
US6231527B1 (en) * 1995-09-29 2001-05-15 Nicholas Sol Method and apparatus for biomechanical correction of gait and posture
WO2002095714A2 (de) * 2001-05-18 2002-11-28 Loeschinger Juergen Verfahren und vorrichtung zur haltungs- oder bewgungskontrolle einer person
US20030228033A1 (en) * 2000-05-18 2003-12-11 David Daniel Method and apparatus for remote medical monitoring incorporating video processing and system of motor tasks
JP2004135824A (ja) * 2002-10-17 2004-05-13 Communication Research Laboratory 高次脳機能障害診断装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US700000A (en) 1901-11-26 1902-05-13 Palmetto Fibre Company Work-holding device for boring-machines.
AU2001236234A1 (en) 2000-02-02 2001-08-14 Lorand Csiszar Patient monitoring devices and methods
DE60322848D1 (de) * 2002-02-22 2008-09-25 Mclean Hospital Corp System für kontinuierliche leistungstests
US20050163349A1 (en) 2003-06-06 2005-07-28 Daniela Brunner System and method for assessing motor and locomotor deficits and recovery therefrom

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6231527B1 (en) * 1995-09-29 2001-05-15 Nicholas Sol Method and apparatus for biomechanical correction of gait and posture
JPH1199140A (ja) * 1997-09-26 1999-04-13 Toshiba Corp 就寝状態異常検知装置
US20030228033A1 (en) * 2000-05-18 2003-12-11 David Daniel Method and apparatus for remote medical monitoring incorporating video processing and system of motor tasks
WO2002095714A2 (de) * 2001-05-18 2002-11-28 Loeschinger Juergen Verfahren und vorrichtung zur haltungs- oder bewgungskontrolle einer person
JP2004135824A (ja) * 2002-10-17 2004-05-13 Communication Research Laboratory 高次脳機能障害診断装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013042304A1 (ja) * 2011-09-22 2013-03-28 テルモ株式会社 活動量監視システム、情報処理装置及び活動量監視装置
WO2014104357A1 (ja) * 2012-12-28 2014-07-03 株式会社東芝 動作情報処理システム、動作情報処理装置及び医用画像診断装置
JP7461952B2 (ja) 2018-12-20 2024-04-04 ウマン センス アーベー 患者における脳卒中を検出する装置及び方法

Also Published As

Publication number Publication date
WO2007020568A2 (en) 2007-02-22
WO2007020568A3 (en) 2007-05-31
JP5118038B2 (ja) 2013-01-16
US20100177933A1 (en) 2010-07-15
US8213678B2 (en) 2012-07-03
CN101243471A (zh) 2008-08-13
EP1922696A2 (en) 2008-05-21
CN101243471B (zh) 2013-03-06
EP1922696B1 (en) 2013-05-15

Similar Documents

Publication Publication Date Title
JP5118038B2 (ja) ユーザの動きを分析するシステム及び方法
US11482048B1 (en) Methods and apparatus for human pose estimation from images using dynamic multi-headed convolutional attention
US11069144B2 (en) Systems and methods for augmented reality body movement guidance and measurement
Chaudhuri et al. Joint face detection and facial motion retargeting for multiple faces
WO2021098616A1 (zh) 运动姿态识别方法、运动姿态识别装置、终端设备及介质
CN112434679B (zh) 康复运动的评估方法及装置、设备、存储介质
JP7185805B2 (ja) 転倒リスク評価システム
JP5604249B2 (ja) 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
JP2012141881A (ja) 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
KR102539215B1 (ko) 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN106909904B (zh) 一种基于可学习形变场的人脸正面化方法
CN115546491B (zh) 一种跌倒报警方法、系统、电子设备及存储介质
KR20230093191A (ko) 오차 종류별 관절 인식 방법, 서버
Zahan et al. Learning sparse temporal video mapping for action quality assessment in floor gymnastics
CN114612526A (zh) 一种关节点追踪方法、帕金森辅助诊断方法及装置
IL303733A (en) Training and use of a learning algorithm using transcription of audio data to identify a medical device visible in image data
CN116634936A (zh) 用于康复训练的基于视觉的运动捕获系统
JP2023527627A (ja) 逆運動学に基づいた関節の回転の推測
KR20150047937A (ko) 비디오 영상에서 사람과 배경을 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR102491700B1 (ko) 안면 마비의 진단 및 재활을 위한 어플리케이션을 실행하는 전자 장치의 동작 방법
JP7124746B2 (ja) 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置
Li et al. A prediction of human body key-points based on Kalman filter in transient visual masking
US20210042922A1 (en) System and Method For Performing Biomechanical Assessments
CN116958859A (zh) 基于视频的高尔夫挥杆评测方法及系统
KR20240043488A (ko) 멀티모달 딥 러닝 모델을 이용한 녹내장 환자의 미래 시야 예측 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120227

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5118038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees