JP7490072B2 - マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム - Google Patents

マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム Download PDF

Info

Publication number
JP7490072B2
JP7490072B2 JP2022554553A JP2022554553A JP7490072B2 JP 7490072 B2 JP7490072 B2 JP 7490072B2 JP 2022554553 A JP2022554553 A JP 2022554553A JP 2022554553 A JP2022554553 A JP 2022554553A JP 7490072 B2 JP7490072 B2 JP 7490072B2
Authority
JP
Japan
Prior art keywords
human
viewpoint
video
camera
videos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022554553A
Other languages
English (en)
Other versions
JP2023517964A (ja
Inventor
リン,シン-ヤオ
タン,フイ
ホアン,チャオ
ハン,リアンイ
フオ,ジミン
ファン,ウェイ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2023517964A publication Critical patent/JP2023517964A/ja
Application granted granted Critical
Publication of JP7490072B2 publication Critical patent/JP7490072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Rheumatology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physiology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)

Description

関連出願の相互参照
本出願は、米国特許出願第17/096,256号(2020年11月12日出願)に基づく優先権を主張し、その全体が参照により本明細書に組み込まれる。
[技術分野]
本開示の実施形態は、リハビリシステム、より詳細には、マーカなしのモーションキャプチャシステムを対象とする。
従来のリハビリシステムでは、患者は身体に特定のセンサを装着する必要がある。しかしながら、このようなセンサに基づくシステムは患者に不便をもたらす。最近の研究のいくつかは、手回復訓練のために奥行きセンサで手の姿勢を推定している。しかしながら、システムでの特別なセンサの使用は、一般化を制限する。さらにまた、従来のデバイスは通常高価である。
本発明の概要
本開示の実施形態は、上記の問題及び/又は他の問題を解決し得る。
本開示の実施形態は、視覚に基づく技術を用いたマーカなしのモーションキャプチャシステムを提供することができ、これは、低コストの市販のカメラ(例えば、3台のカメラ)によって捕捉されたマルチビュー画像に基づいて3次元(3D)人体姿勢を推定することができる。
本開示の実施形態は、例えば、運動障害のリハビリ訓練のためのマルチビュー3D人間姿勢推定を提供し得る。低コストのカメラによって捕捉されたマルチビュー画像に基づいて、本開示の実施形態のディープラーニングモデルは、正確な3D人間姿勢を計算することができる。
本開示の実施形態は、3D身体関節(3D body joints)を得ることができるだけでなく、患者の運動の評価結果及びリハビリ示唆を提供することもできる。したがって、リハビリ訓練の評価及びガイダンスは、その過程で医師の助けを借りることなく実施することができる。
本開示の実施形態は、患者の動き及び姿勢を監視又はモニタリングし、その訓練を改善するために、患者にアニメーションを表示するためのモジュールを含み得る。さらに、本開示の実施形態は、評価指標を含むことができ、患者のリハビリを改善するのに役立つ示唆を提供することができる。実施形態によれば、3D人間姿勢推定技術は、関連技術によって達成されていないリハビリ訓練に活用できる。
本開示の実施形態は、リハビリ訓練のための視覚に基づくの、マーカなしの、モーションキャプチャシステムを提供することができ、これは、従来のモーションキャプチャシステムの制限を回避し、かつ、関連技術によって達成されていない。
本開示の実施形態は、非接触リハビリ訓練評価及びガイダンスの一部として、ビデオ及び音声ガイダンスの組み合わせを含むことができる。
本開示の実施形態は、様々な観点におけるマルチビュー画像又は多視点画像を用いたディープラーニング技術に基づいて3D人間姿勢を推定することができる。マルチビュー画像の情報は、3D人間姿勢を正確に推定するためにディープラーニング技術を支援する。
1つ以上の実施形態によれば、少なくとも1つのプロセッサによって実行される方法が提供される。方法は、人間の身体の複数のビデオを取得するステップであって、複数のビデオは、ある期間の間に第1カメラによって捕捉される第1視点からの人間の第1ビデオと、前記期間の間に第2カメラによって捕捉される、第1視点と異なる第2視点からの人間の第2ビデオと、を含む、ステップと、人間上の(on the person)マーカに依存することなく複数のビデオに基づいて人間の3次元(3D)ポーズを推定するステップであって、推定するステップは3D身体関節集合を取得するステップを含む、ステップと、前記期間の間に人間の動きに対応する3D身体関節集合の動きのアニメーションを取得するステップと、3D身体関節の集合の動きの分析を実行させるステップと、ディスプレイ又はスピーカを介して、分析に基づいて、分析のリハビリ評価結果又はリハビリ訓練示唆を示すステップと、を含む。
一実施形態によれば、分析を実行するステップは、3D身体関節集合の動きに基づいて少なくとも1つのリハビリ評価指標を計算するステップを含む。一実施形態によれば、分析を実行するステップはさらに、ユーザからの入力に基づいて計算されるべき少なくとも1つのリハビリ評価指標を選択するステップを含む。
一実施形態によれば、方法はさらに、3D身体関節の集合の動きのアニメーションを表示するステップ、をさらに含む。
一実施形態によれば、3D身体関節集合の動きのアニメーションは、前記期間の間に人間の動きに関してリアルタイムで表示される。
一実施形態によれば、アニメーションは、3D身体関節の集合と組み合わされた人間の身体の画像を含む。
一実施形態によれば、取得される複数のビデオはさらに、前記期間の間に第3カメラによって捕捉される、第1視点及び第2視点と異なる第3視点からの人間の第3ビデオを含む。
一実施形態によれば、第1視点は、人間の左側視点であり、第2視点は、人間の正面視点であり、第3視点は、人間の右側視点である。
一実施形態によれば、第2カメラは、第1カメラが第1ビデオを捕捉する高さ及び第3カメラが第3ビデオを捕捉する高さより高い高さにおいて第2ビデオを捕捉する。
一実施形態によれば、第1カメラが第1ビデオを捕捉する高さ及び第3カメラが第3ビデオを捕捉する高さは同じである。
1つ以上の実施形態によれば、システムが提供される。システムは、複数のカメラを備え、複数のカメラは、各々が人間の身体の複数のビデオのうちのそれぞれのビデオを取得するように構成されている。複数のカメラは、ある期間の間に第1視点から人間の、複数のビデオのうちの第1ビデオを取得するように構成された第1カメラと、前記期間の間に第1視点と異なる第2視点から人間の、複数のビデオのうちの第2ビデオを取得するように構成された第2カメラと、を有する。システムは、さらに、ディスプレイ又はスピーカと、少なくとも1つのプロセッサと、コンピュータコードを含むメモリと、を含む。コンピュータプログラムコードは、少なくとも1つのプロセッサに、人間のマーカに依存することなく複数のビデオに基づいて、3D身体関節集合を取得することによって人間の3次元(3D)ポーズを推定させるように構成された第1コードと、少なくとも1つのプロセッサに、前記期間の間に人間の動きに対応する3D身体関節集合の動きのアニメーションを取得させるように構成された第2コードと、少なくとも1つのプロセッサに、3D身体関節集合の動きの分析を実行させるように構成された第3コードと、少なくとも1つのプロセッサに、ディスプレイ又はスピーカを介して、分析に基づいて、分析のリハビリ評価結果又はリハビリ訓練示唆を示させるように構成された第4コードと、を含む。
一実施形態によれば、3D身体関節集合の動きに基づいて少なくとも1つのリハビリ評価指標を計算することによって前記分析を実行させるように構成されている。
一実施形態によれば、第3コードは、前記少なくとも1つのプロセッサに、ユーザからの入力に基づいて計算されるべき少なくとも1つのリハビリ評価指標を選択させるように構成されている。
一実施形態によれば、システムはディスプレイを備え、第2コードはさらに、少なくとも1つのプロセッサが、3D身体関節集合の動きのアニメーションをディスプレイに表示させるように、構成されている。
一実施形態によれば、第2コードは、少なくとも1つのプロセッサが、前記期間の間の人間の動きに関するアニメーションをリアルタイムでディスプレイに表示させるように、構成されている。
一実施形態によれば、アニメーションは、3D身体関節集合と組み合わされた人間の身体の画像を含む。
一実施形態によれば、第3カメラは、前記期間の間に、第1視点及び第2視点と異なる第3視点からの人間の第3ビデオを取得するように構成されている。
一実施形態によれば、第1視点は、人間の左側視点であり、第2視点は、人間の正面視点であり、第3視点は、人間の右側視点である。
一実施形態によれば、第2カメラは第1カメラ及び前第3カメラより高い高さにある。
1つ以上の実施形態によれば、コンピュータ命令を格納する非一時的コンピュータ可読媒体が提供される。コンピュータコードは、少なくとも1つのプロセッサで実行される場合に、少なくとも1つのプロセッサに、人間の三次元(3D)姿勢を、人間上のマーカに依存することなく、人間の身体の複数のビデオに基づいて3D身体関節の集合を取得することによって、推定させ、ある期間の間に人間の動きに対応する前記3D身体関節集合の動きのアニメーションを取得させ、3D身体関節集合の動きの分析を実行させ、ディスプレイ又はスピーカを介して、分析に基づく、分析のリハビリ評価結果又はリハビリ訓練示唆を示させる、ように構成させている。複数のビデオは、前記期間の間に第1カメラによって捕捉される第1視点からの人間の第1ビデオと、前記期間の間に第2カメラによって捕捉される、第1視点と異なる第2視点からの人間の第2ビデオと、を含む。
開示された主題のさらなる特徴、性質、及び様々な利点は、以下の詳細な説明及び添付の図面からより明らかになるであろう。
図1は、実施形態によるリハビリ訓練システムの概略図である。 図2は、本開示の実施形態によるプロセスのブロック図である。 図3は、本開示の実施形態によるコンピュータコードの概略図である。 図4は、本開示の実施形態によるカメラ構成の斜視図である。 図5は、本開示の実施形態による、3D身体関節によって表される患者の姿勢の一例である。 図6は、本開示の実施形態によるプロセスのブロック図である。 図7Aは、本開示の実施形態による、表示されたアニメーションの一部の例示的な説明図である。 図7Bは、本開示の実施形態による、表示されたアニメーションの一部の例示的な説明図である。 図8は、本開示の一実施例によるデコーダの概略図である。
実施形態によれば、図1を参照すると、リハビリ訓練システム100が提供される。リハビリ訓練システム100は、例えば、カメラ110、コンピュータシステム120、及びディスプレイ130を含むことができる。カメラ110は、任意の数のカメラを含むことができる。例えば、実施形態によれば、カメラ110は、2つ又は3つのカメラを含んでもよい。カメラ110は、ビデオデータを取得し、有線又は無線接続を介してコンピュータシステム120にビデオデータを送信するように構成することができる。コンピュータシステム120は、少なくとも1つのプロセッサ122と、コンピュータコードを記憶するメモリとを含むことができる。コンピュータコードは、少なくとも1つのプロセッサ122によって実行されると、少なくとも1つのプロセッサ122に、図2に関して以下に説明するようなコンピュータシステム120のプロセスを実行させるように構成することができる。コンピュータコードの例示図を図3に示す。コンピュータシステム120はまた、ディスプレイ130を含むことができ、又はディスプレイ130に接続されることができ、さらに、ディスプレイ130にコンピュータシステム120のプロセスの結果を表示させるように構成されることができる。コンピュータシステム120は、有線又は無線接続を介してディスプレイ130に接続することができる。
図2乃至3を参照すると、コンピュータシステム120によって実行されるプロセスを以下に説明する。図2を参照すると、コンピュータシステム120は、マルチビュー3D人間姿勢推定220、人間動き可視化230、人間の動きの分析240、及び、評価結果及び示唆の提供250、のプロセスを実行することができる。図3を参照すると、このようなプロセスは、それぞれ、メモリ124に含まれる、姿勢推定コード320、動き可視化コード330、動き分析コード340、及び評価コード350によって、コンピュータシステム120の少なくとも1つのプロセッサ122によって実行され得る。
コンピュータシステム120は、マルチビュー3D人間姿勢推定220への入力として、カメラ110からビデオデータを受信することができる。例えば、各カメラ110は、各々がそれぞれの視点からの患者の画像を含むシングルビュービデオ(例えば、シングルビュービデオ210-1、210-2、...、210-N)をコンピュータシステム120に提供することができる。換言すれば、カメラ110の各々は、患者の姿勢及び動きを、それぞれのシングルビュービデオ(例えば、シングルビュービデオ210-1、210-2、...、210-N)内のそれぞれの方向から補足することができ、これらは、カメラ110からコンピュータシステム120によって取得される。
一例として、図4を参照すると、リハビリ訓練システム100のカメラ110は、構成400内に第1カメラ411、第2カメラ412、及び第3カメラ413を含むことができる。構成400において、第1カメラ411、第2カメラ412、及び第3カメラ413は、位置(x0、y0、z0)を原点とする(starts)患者のそれぞれの視点を捕捉するために、それぞれの位置に設けられることができる。図4を参照すると、x方向は、図4に関して左右方向に延在するx軸に沿うことができ(+x方向は図4の右側に向かう)、y方向は、図4に入る方向又は図4から出る方向に延在するy軸に沿うことができ(+y方向は図4に入る方向に向かう)、z方向は、図4に対して上下方向に延在するz軸に沿うことができる(+z方向が図4の上側に向かう)。第2カメラ412は、患者が原点とする位置(x0、y0、z0)と同一又は類似のx位置にあることができ、また、+z方向において、(x0、y0、z0)より上(例えば、地面より上)の高さh1にあることができる。第1カメラ411は、位置(x0、y0、z0)及び/又は第2カメラ412に関して距離d1で-x方向にあることができ、第3のカメラ413は、位置(x0、y0、z0)及び/又は第2カメラ412に関して距離d1で+x方向にあることができる。第1カメラ411及び第3カメラ413は、+z方向の位置(x0、y0、z0)より上(例えば、地面の高さより上)で同じ高さh2であってもよい。第1カメラ411、第2カメラ412、及び第3カメラ413は、各々、同じy位置(例えば+y位置)にあってもよい。第1カメラ411、第2カメラ412、及び第3カメラ413はそれぞれ、位置(x0、y0、z0)に向かう少なくとも1つの軸に関して角度付けられたそれぞれの視野角a1(view angle a1)を有することができる。例えば、図4に示すように、第3カメラ413の視野角a1は、-x方向において少なくともy軸から角度をつけることができる。さらに、第1カメラ411の視野角は、+x方向において少なくともy軸から角度をつけることができ、第2カメラ412の視野角は、-z方向において少なくともy軸から角度をつけることができる。構成400によれば、第1カメラ411は、患者の体の左側の斜視図を捕捉するように構成されることができ、第2カメラ412は、患者の体の上側/前側の斜視図を捕捉するように構成されることができ、第3カメラ413は、患者の体の右側の斜視図を捕捉するように構成されることができる。
図4は、構成400を示しているが、本開示の実施形態においては、異なる数のカメラ110、カメラ位置、及び/又はカメラ視野角を有する他のカメラ構成を実施し得る。
上述のように、カメラ110は、患者の様々な斜視又は視点(perspectives)を捕捉するために、様々な位置に、様々な視野角で設けられることができ、カメラ110からのビデオデータは、マルチビュー3D人間姿勢推定220を実行するためにコンピュータシステム120に入力されることができる。マルチビュー3D人間姿勢推定220は、コンピュータシステム120がカメラ110からのビデオデータを使用して患者の(1つ以上の)姿勢を推定し、(1つ以上の)姿勢を3D関節位置集合として表現するプロセスであることができる。3D身体関節によって表される患者の姿勢の一例を図5に示す。図5に示すように、姿勢500は、例えば、右足関節501、左足関節502、右膝関節503、左膝関節504、右股関節505、左股関節506、右手関節507、左手関節508、右肘関節509、左肘関節510、右肩関節512、左肩関節513、及び頭関節514を含む種々の身体関節で表すことができる。
実施形態によれば、図6を参照すると、マルチビュー3D人間姿勢推定220は、プロセス600を使用してコンピュータシステム120によって実行されることができる。プロセス600は、エンドツーエンドのディープニューラルネットワーク(DNN)モデルによって実現されることができる。
プロセス600は、身体関節の2D座標が各シングルカメラビュー内で推定され、三角回帰及び線形回帰が、3D人間姿勢を推論するためにマルチビュー情報を考慮に入れるために使用される2段階アプローチであることができる。
例えば、図6を参照すると、プロセス600は、各カメラ110から、それぞれのシングルビュービデオ(例えば、シングルビュービデオ610-1、...、610-N)を取得することを含み得る。各シングルビュービデオ610-1、...、610-Nに基づいて、それぞれの2Dバックボーン620-1、...、620-Nが取得され得る。各2Dバックボーン620-1、...、620-Nに基づいて、それぞれの2D関節ヒートマップ630-1、...、630-Nの集合を取得することができる。2D関節ヒートマップ630-1、...、630-Nの各集合をそれぞれのソフトargmax関数640-1、...、640-Nに入力して、それぞれの2D関節キーポイント650-1、...、650-Nの集合を取得することができる。続いて、代数的三角法(algebraic triangulation)660は、2D関節キーポイント650-1、...、650-Nのすべての集合を使用し、各2Dバックボーン620-1、...、620-Nに基づいて取得された関節信頼度を使用して、3Dで推定された身体関節の集合である3D身体関節位置集合670を取得するために実行され得る。
図7A乃至7Bを参照すると、コンピュータシステム120は、患者に対して推定された3D人間動きが、3Dで推定された身体関節の集合(例えば、3D身体関節位置670の集合)に基づいて表される、人間動き視覚化230プロセスを実行するように構成され得る。人間動き可視化230プロセスは、不全姿勢推定(failure pose estimation)に起因するノイズを除去すること、及び、リアルタイムアニメーションを生成することを含み得る。
例えば、図7Aに示されるように、コンピュータシステム120は、患者のビデオ画像を、3Dで推定された患者の身体関節の集合(例えば、3D身体関節位置670の集合)と組合せ、その組合せをアニメーション710として表示するように構成することができる。実施形態によれば、アニメーション710は、3Dで推定された身体関節集合と組み合わされた患者の複数の斜視ビデオ画像を同時に含むことができる。一例として、アニメーション710は、患者の右斜視ビデオ712と、患者の正面斜視ビデオ714と共に示される。しかしながら、ビデオの数及び視点のタイプは、アニメーション710において変化し得る。
また、図7Bに示すように、コンピュータシステム120は、アニメーション710と同様のアニメーション720を生成するように構成されることができ、3Dで推定された身体関節集合は、複数の斜視で同時表示され、患者のビデオ画像は示されない。
実施形態によれば、アニメーション710とアニメーション720は同時に表示され得る。実施形態によれば、アニメーション710及びアニメーション720は、リアルタイムアニメーションであり得る。実施形態によれば、3D推定身体関節集合と組み合わされた患者の複数の斜視ビデオ画像は、2つ以上のシングルビュービデオ210-1,...210-N(図2を参照)から得ることができる。実施形態によれば、コンピュータシステム120は、アニメーション710及び/又はアニメーション720をディスプレイ130に表示させることができる(図1を参照)。
本開示の実施形態にしたがってアニメーションを表示することにより、患者は、彼らの動き及び姿勢をよりよくモニタリングすることができ、それは、彼らがリハビリ訓練でどのように実行するかを理解するのを助けることができる。
また、コンピュータシステム120は、人間の動作分析240プロセスを実行するように構成することができ、このプロセスにおいて、ユーザは、リハビリ訓練タイプにしたがって異なる評価インジケータを設定することができる。その後、コンピュータシステム120は、マルチビュー3D人間姿勢推定220プロセス及び人間動き可視化230プロセスから得られた推定3D人間動きに基づいてインジケータを計算することができる。推定された3Dの人間の動きは、3D推定身体関節集合(例えば、3D推定身体関節位置集合670)のアニメーション化された動きを参照することができる(図6~7Bを参照)。リハビリ訓練タイプの例としては、歩行運動のリハビリ訓練がある。歩行運動のリハビリ訓練の指標には、患者の歩行速度、患者の脚の高さ、歩行安定性、及び患者の腕振りの振幅及び周波数が含まれる。実施形態によれば、コンピュータシステム120は、コンピュータシステム120に接続された入力デバイス(例えば、マウス、キーボード、タッチスクリーン、マイクロホンなど)を用いて、ユーザがリハビリ訓練タイプを選択することに基づいて計算されるインジケータを自動的に決定することができる。実施形態によれば、ユーザは、入力デバイスを使用して計算されるインジケータを手動で選択することができ、計算システム120は、選択に基づいて計算を実行するように構成することができる。
人間の動作分析240プロセスに続いて、コンピュータシステム120は、評価結果及び提案250プロセスを実行するように構成されることができる。すなわち、例えば、評価結果は、人間の動き分析240プロセスの結果に基づいて計算システム120によって決定され得、訓練提案(評価結果の有無を問わず)は、評価結果に基づいて患者に提供され得る(例えば、ディスプレイ130に表示され得るか、又はスピーカによって出力され得る)。一例として、評価結果が、腕の振幅が小さすぎるために、患者の歩行運動を遅すぎると判断する場合、コンピュータシステム120は、患者が腕の振りを強化すべきであることを示すトレーニングを提供することができる。実施形態によれば、コンピュータシステム120によって実行される結果及び示唆250プロセスは、人間の動作分析240プロセスの結果に基づいて、患者に最終評価スコアを計算及び提供(例えば、ディスプレイ130上に表示する、又はスピーカによって出力する)することを含み得る。
上記の技術は、コンピュータ可読命令を用いたコンピュータソフトウェアとして行うことができて、物理的に1つ以上のコンピュータ可読媒体に格納されることができる。例えば、図8は、開示された主題のコンピュータシステム120を実施するのに適しているコンピュータシステム900を示す。
コンピュータソフトウェアは、アセンブリ、コンパイル、リンク、又は同様のメカニズムの対象となり得る任意の適切な機械コード又はコンピュータ言語を使用してコーディングされ得、コンピュータ中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)などによって、直接又は解釈、マイクロコード実行などを介して、実行され得る命令を含むコードを生成し得る。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、物品のインターネット等を含む種々のタイプのコンピュータ又はその構成要素上で実行されることができる。
コンピュータシステム900のための図8に示されるコンポーネントは、例示的な性質のものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用範囲又は機能性に関する制限を示唆することを意図するものではない。また、コンポーネントの構成は、コンピュータシステム900の例示的な実施形態に示されるコンポーネントのいずれか1つ又は組み合わせに関連する依存性又は要件を有すると解釈されるべきではない。
コンピュータシステム900は、特定のヒューマンインタフェース入力デバイスを含み得る。このようなヒューマンインタフェース入力デバイスは、例えば、触覚入力(例えば、キーストローク、スイッピング、データグローブの動き)、音声入力(例えば、音声、拍手)、視覚入力(例えば、ジェスチャ)、嗅覚入力(図示せず)を介して、一人又は複数の人間ユーザによる入力に応答し得る。また、ヒューマンインタフェースデバイスは、オーディオ(例えば、音声、音楽、周囲の音声)、画像(例えば、走査画像、静止画像カメラから得られる写真画像)、ビデオ(例えば、2次元ビデオ、立体画像を含む3次元ビデオ)等の、人間による意識的入力に必ずしも直接関係しない特定の媒体を捕捉するために用いられ得る。
入力ヒューマンインタフェースデバイスには、次のものが1つ以上含まれ得る(それぞれ1つのみ表されている):キーボード901、マウス902、トラックパッド903、タッチスクリーン910、データグローブ、ジョイスティック905、マイクロホン906、スキャナ907、及びカメラ908。
コンピュータシステム900はまた、特定のヒューマンインタフェース出力デバイスを含み得る。かかるヒューマンインタフェース出力デバイスは、例えば、触覚出力、音、光、及び嗅覚/味覚を通して、1人又は複数の人間ユーザの感覚を刺激し得る。かかるヒューマンインタフェースデバイス出力デバイスには、触覚出力デバイスが含むことができ(たとえば、タッチスクリーン910、データグローブ、またはジョイスティック905による触覚フィードバックであるが、入力デバイスとして機能しない触覚フィードバックデバイスであることもできる)。例えば、かかるデバイスは、オーディオ出力デバイス(例えば、スピーカ909、ヘッドホン(図示せず))、視覚出力デバイス(例えば、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン910など、それぞれタッチスクリーン入力機能を備えるか又は備えない、それぞれ触覚フィードバック機能を備えるか又は備えない、ーそのうちのいくつかは、ステレオグラフィック出力などの手段を介して、2次元の視覚的出力又は3次元以上の出力を出力できる場合がある:バーチャルリアリティグラス(図示せず)、ホログラフィックディスプレイ、及びスモークタンク(図示せず))、プリンタ(図示せず)などであり得る。
コンピュータシステム900はまた、人間がアクセス可能な記憶デバイスと、それらのアクセス可能な媒体とを含むことができ、媒体は、例えば、CD/DVD等の媒体921によるCD/DVD ROM/RWを含む光学媒体ドライブ(620)、USBメモリ922、着脱可能ヘッドドライブ又はソリッドステートドライブ923、テープ、フロッピーディスク(図示せず)等の従来の磁気媒体、セキュリティドングル等の特殊化されたROM/ASIC/PLDベースデバイス等である。
当業者はまた、現在開示されている主題に関連して使用される「コンピュータ可読媒体」という用語は、伝送媒体、搬送波、又は他の一時的な信号を包含しないことを理解されたい。
コンピュータシステム900はまた、1つ以上の通信ネットワークへのインタフェースを含むことができる。ネットワークは、例えば、無線、有線、光であり得る。ネットワークは、さらに、ローカル、広域、大都市、車両及び工業、リアルタイム、遅延耐性等であり得る。ネットワークの例としては、イーサネット、無線LAN、GSM、3G、4G、5G、LTE等を含むセルラーネットワーク、ケーブルTV、衛星TV、及び地上放送TV、CANBusを含む産業用及び車両用を含む。特定のネットワークは、一般に、特定の汎用データポート又は周辺バス949に接続される外部ネットワークインタフェースアダプタ(例えば、コンピュータシステム900のUSBポート)を必要とし、他のネットワークは、一般に、以下に説明するシステムバスに接続されることにより、コンピュータシステム900のコアに統合される(、例えば、PCコンピュータシステムへのイーサネットインタフェース又はスマートフォンコンピュータシステムへのセルラーネットワークインタフェースである)。これらのネットワークのいずれかを使用して、コンピュータシステム900は、他のエンティティと通信することができる。かかる通信は、単指向性通信、受信のみ(例えば、放送テレビ)通信、単指向性送信専用(例えば、特定のCANバスデバイスへのCANバス)通信、又は、例えばローカル又は広域デジタルネットワークを使用する他のコンピュータシステムへの、双方向通信であることができる。この種の通信は、クラウドコンピューティング環境955との通信を含むことができる。特定のプロトコル及びプロトコルスタックは、上述のように、それらのネットワーク及びネットワークインタフェースの各々で使用されることができる。
前述のヒューマンインタフェースデバイス、人間がアクセス可能な記憶デバイス、及びネットワークインタフェース954は、コンピュータシステム900のコア940に接続されることができる。
コア940は、1つ以上の中央処理デバイス(CPU)941、グラフィックス処理デバイス(GPU)942、フィールドプログラマブルゲートエリア(FPGA)943の形態の特殊なプログラマブル処理デバイス、特定のタスクのためのハードウェアアクセラレータ844等を含むことができる。これらのデバイスは、読出し専用メモリ(ROM)945、ランダムアクセスメモリ946、内部大容量記憶デバイス、例えば内部非ユーザアクセス可能ハードドライブ、SSD等と共に、システムバス948を介して接続され得る。いくつかのコンピュータシステムでは、システムバス948は、追加のCPU、GPU等による拡張を可能にするために、1つ又は複数の物理プラグの形態でアクセス可能である。周辺デバイスは、コアのシステムバス948に直接接続するか、又は周辺バス949を介して接続することができる。周辺バスのアーキテクチャは、PCI、USB等を含む。グラフィックアダプタ950は、コア940に含まれることができる。
CPU941、GPU942、FPGA943、及びアクセラレータ944は、組み合わされて、上述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードは、ROM945又はRAM946に格納されることができる。移行データは、RAM946に格納されることもできるが、永久データは例えば内部大容量記憶デバイス947に格納されことができる。1つ以上のCPU941、GPU942、大容量記憶デバイス947、ROM945、RAM946等と密接に関連付けることができるキャッシュメモリを使用することによって、メモリデバイスのいずれかへの高速記憶及び検索を可能にすることができる。
コンピュータ可読媒体は、各種のコンピュータ実施動作(computer-implemented operations)を実行するためにその上のコンピュータコードを有することができる。メディア及びコンピュータコードは特別に設計されたそれらであることができて、本開示のために作成されることができる、又は、それらはよく公知で、コンピュータソフトウェア技術の技術を有するそれらが利用できる種類でありえる。
一例として、限定するものではなく、アーキテクチャ、具体的にはコア940を有するコンピュータシステム900は、有形のコンピュータ可読媒体に具現化されたソフトウェアを実行する1つ以上のプロセッサ(CPU、GPU、FPGA、アクセラレータ等を含む)の結果として機能性を提供することができる。かかるコンピュータ可読媒体は、コア-内部大容量記憶デバイス947又はROM945等の一時的でない性質のコア940の特定の記憶デバイスと同様に、上述のようにユーザがアクセス可能な大容量記憶デバイスに関連する媒体であってもよい。本開示の様々な実施形態を実装するソフトウェアは、かかるデバイスに記憶され、コア940によって実行され得る。コンピュータ読取可能媒体は、特定のニーズに応じて、1つ以上のメモリデバイス又はチップを含むことができる。ソフトウェアは、コア940及びその中の具体的にプロセッサ(CPU、GPU、FPGA等を含む)に、RAM946に記憶されたデータ構造を定義し、ソフトウェアによって定義されたプロセスにしたがって、かかるデータ構造を変更することを含む、本明細書に記載された特定のプロセス又は特定の部分を実行させることができる。付加的に又は代替的に、コンピュータシステムは、回路(例えば、アクセラレータ944)内に配線された、又は他の方法で具現化されたロジックの結果として、機能性を提供することができ、これは、本明細書に記載される特定のプロセス又は特定のプロセスの特定の部分を実行するために、ソフトウェアの代わりに、又はソフトウェアと共に動作することができる。ソフトウェアへの言及は、論理を含み、また、必要に応じて、その逆も可能である。コンピュータ読取り可能媒体への参照は、実行のためのソフトウェアを記憶する(集積回路(IC)等の)回路、実行のためのロジックを具体化する回路、又は適切な場合にはその両方を含むことができる。本開示は、ハードウェア及びソフトウェアの任意の適切な組み合わせを包含する。
この開示は、いくつかの非限定的な例示的な実施形態を説明しているが、本開示の範囲内にある変更、順列、および様々な代替の同等物が存在する。したがって、当業者は、本明細書に明示的に示されていないか又は記載されていないが、本発明の原理を実施し、したがってその概念及び範囲内にある多数のシステム及び方法を創造することができることが理解されよう。

Claims (9)

  1. 少なくとも1つのプロセッサによって実行される方法であって、
    人間の身体の複数のビデオを取得するステップであって、前記複数のビデオは、ある期間の間に第1カメラによって捕捉される第1視点からの前記人間の第1ビデオと、前記期間の間に第2カメラによって捕捉される、前記第1視点と異なる第2視点からの前記人間の第2ビデオと、を含む、ステップと、
    前記人間上のマーカに依存することなく前記複数のビデオに基づいて前記人間の3次元(3D)姿勢を推定するステップであって、前記推定するステップは3D身体関節集合を取得するステップを含む、ステップと、
    前記期間の間に前記人間の動きに対応する前記3D身体関節集合の動きのアニメーションを取得するステップと、
    前記3D身体関節集合の前記動きの分析を実行するステップと、
    ディスプレイ又はスピーカを介して、前記分析に基づいて、前記分析のリハビリ評価結果又はリハビリ訓練示唆を示すステップと、
    前記3D身体関節集合の前記動きの前記アニメーションを表示するステップであって、複数の前記アニメーションが同時に表示される、ステップと、
    を含み、
    前記3D身体関節集合の前記動きの前記アニメーションは、前記期間の間に前記人間の前記動きに関してリアルタイムで表示され、
    前記アニメーションは、前記3D身体関節集合と組み合わされた前記人間の前記身体の画像を含む、
    方法。
  2. 前記分析を実行するステップは、前記3D身体関節集合の前記動きに基づいて少なくとも1つのリハビリ評価指標を計算するステップを含む、
    請求項1記載の方法。
  3. 前記分析を実行するステップはさらに、ユーザからの入力に基づいて計算されるべき前記少なくとも1つのリハビリ評価指標を選択するステップを含む、
    請求項2記載の方法。
  4. 取得される前記複数のビデオはさらに、前記期間の間に第3カメラによって捕捉される、前記第1視点及び前記第2視点と異なる第3視点からの前記人間の第3ビデオを含む、
    請求項1記載の方法。
  5. 前記第1視点は、前記人間の左側視点であり、前記第2視点は、前記人間の正面視点であり、前記第3視点は、前記人間の右側視点である、
    請求項記載の方法。
  6. 前記第2カメラは、前記第1カメラが前記第1ビデオを捕捉する高さ及び前記第3カメラが前記第3ビデオを捕捉する高さより高い高さにおいて前記第2ビデオを捕捉する、
    請求項記載の方法。
  7. 前記第1カメラが前記第1ビデオを捕捉する高さ及び前記第3カメラが前記第3ビデオを捕捉する高さは同じである、
    請求項記載の方法。
  8. 複数のカメラであって、前記複数のカメラは、各々が人間の身体の複数のビデオのうちのそれぞれのビデオを取得するように構成されており、前記複数のカメラは、ある期間の間に第1視点から前記人間の、前記複数のビデオのうちの第1ビデオを取得するように構成された第1カメラと、前記期間の間に第1視点と異なる第2視点から前記人間の、前記複数のビデオのうちの第2ビデオを取得するように構成された第2カメラと、を有する、複数のカメラと、
    ディスプレイ又はスピーカと、
    少なくとも1つのプロセッサと、
    コンピュータコードを有するメモリと、を備えるシステムであって、
    前記コンピュータコードは、前記少なくとも1つのプロセッサに、請求項1乃至いずれか1項記載の方法を実行させるように構成されている、
    システム。
  9. コンピュータコードを有するコンピュータプログラムであって、前記コンピュータコードは、少なくとも1つのプロセッサで実行される場合に、前記少なくとも1つのプロセッサに、請求項1乃至いずれか1項記載の方法を実行させるように構成されている、プログラム。

JP2022554553A 2020-11-12 2021-06-25 マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム Active JP7490072B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/096,256 2020-11-12
US17/096,256 US20220148453A1 (en) 2020-11-12 2020-11-12 Vision-based rehabilitation training system based on 3d human pose estimation using multi-view images
PCT/US2021/039034 WO2022103441A1 (en) 2020-11-12 2021-06-25 Vision-based rehabilitation training system based on 3d human pose estimation using multi-view images

Publications (2)

Publication Number Publication Date
JP2023517964A JP2023517964A (ja) 2023-04-27
JP7490072B2 true JP7490072B2 (ja) 2024-05-24

Family

ID=81453535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022554553A Active JP7490072B2 (ja) 2020-11-12 2021-06-25 マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム

Country Status (5)

Country Link
US (1) US20220148453A1 (ja)
EP (1) EP4120912A4 (ja)
JP (1) JP7490072B2 (ja)
CN (1) CN115515487A (ja)
WO (1) WO2022103441A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230196817A1 (en) * 2021-12-16 2023-06-22 Adobe Inc. Generating segmentation masks for objects in digital videos using pose tracking data
CN115337607B (zh) * 2022-10-14 2023-01-17 佛山科学技术学院 一种基于计算机视觉的上肢运动康复训练方法
CN115909413B (zh) * 2022-12-22 2023-10-27 北京百度网讯科技有限公司 用于控制虚拟形象的方法、装置、设备及介质
CN116403288B (zh) * 2023-04-28 2024-07-16 中南大学 运动姿态的识别方法、识别装置及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401340A (zh) 2020-06-02 2020-07-10 腾讯科技(深圳)有限公司 目标对象的运动检测方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US20110054870A1 (en) * 2009-09-02 2011-03-03 Honda Motor Co., Ltd. Vision Based Human Activity Recognition and Monitoring System for Guided Virtual Rehabilitation
WO2017147403A1 (en) * 2016-02-24 2017-08-31 Preaction Technology Corporation, dba/4c Sports Corporation Method and system for determining physiological status of users based on marker-less motion capture
DK3656302T3 (da) * 2018-11-26 2020-10-19 Lindera Gmbh System og fremgangsmåde til analyse af menneskelig gang
US11989977B2 (en) * 2020-06-30 2024-05-21 Purdue Research Foundation System and method for authoring human-involved context-aware applications

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401340A (zh) 2020-06-02 2020-07-10 腾讯科技(深圳)有限公司 目标对象的运动检测方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EICHLER Nadav et al.,3D motion capture system for assessing patient motion during Fugl-Meyer stroke rehabilitation testing,IET Computer Vision,英国,The Institution of Engineering and Technology,2018年10月01日,vol.12 no.7,p963-975,DOI: 10.1049/IET-CVI.2018.5274

Also Published As

Publication number Publication date
JP2023517964A (ja) 2023-04-27
US20220148453A1 (en) 2022-05-12
EP4120912A1 (en) 2023-01-25
WO2022103441A1 (en) 2022-05-19
EP4120912A4 (en) 2023-09-13
CN115515487A (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
JP7490072B2 (ja) マルチビュー画像を使用した3d人間ポーズ推定に基づく視覚ベースのリハビリ訓練システム
TWI659335B (zh) 圖形處理方法和裝置、虛擬實境系統和計算機儲存介質
US11948376B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
TW201814438A (zh) 基於虛擬實境場景的輸入方法及裝置
AU2016210884A1 (en) Method and system for providing virtual display of a physical environment
Plantard et al. Filtered pose graph for efficient kinect pose reconstruction
US11507203B1 (en) Body pose estimation using self-tracked controllers
KR20150130483A (ko) 평면의 자연스러운 특성 타겟들의 인시츄 생성
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
US11436790B2 (en) Passthrough visualization
JP2022537817A (ja) 動的オクルージョンのための高速の手のメッシュ化
Khattak et al. A real-time reconstructed 3D environment augmented with virtual objects rendered with correct occlusion
JP2023532285A (ja) アモーダル中心予測のためのオブジェクト認識ニューラルネットワーク
WO2022147227A1 (en) Systems and methods for generating stabilized images of a real environment in artificial reality
KR20190074911A (ko) 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버
Deldjoo et al. A low-cost infrared-optical head tracking solution for virtual 3d audio environment using the nintendo wii-remote
Hernoux et al. A seamless solution for 3D real-time interaction: design and evaluation
WO2023277043A1 (ja) 情報処理装置
US20190377935A1 (en) Method and apparatus for tracking features
JP7473012B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Wischgoll Visualizing vascular structures in virtual environments
Rasool Tangible images
BR102013008631B1 (pt) Sistema e método para controlar magneticamente interfaces digitais tridimensionais esteroscópicas

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240514

R150 Certificate of patent or registration of utility model

Ref document number: 7490072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150