JP2023008347A - Attachment device and body motion supporting system - Google Patents

Attachment device and body motion supporting system Download PDF

Info

Publication number
JP2023008347A
JP2023008347A JP2021111852A JP2021111852A JP2023008347A JP 2023008347 A JP2023008347 A JP 2023008347A JP 2021111852 A JP2021111852 A JP 2021111852A JP 2021111852 A JP2021111852 A JP 2021111852A JP 2023008347 A JP2023008347 A JP 2023008347A
Authority
JP
Japan
Prior art keywords
accuracy
motion
user
unit
feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021111852A
Other languages
Japanese (ja)
Inventor
ジェン ラグベンドーラー
Lagpendora Jain
大介 長山
Daisuke Nagayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optimays Co Ltd
Original Assignee
Optimays Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optimays Co Ltd filed Critical Optimays Co Ltd
Priority to JP2021111852A priority Critical patent/JP2023008347A/en
Publication of JP2023008347A publication Critical patent/JP2023008347A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To make it possible to accurately grasp motion of a user's body.SOLUTION: An attachment device attached to a user's body comprises: a sensor for detecting a movement; a feedback device; a storage device for storing a classifier for calculating accuracy of motion of a part at which the attachment device is attached by taking, as input, a type of motion performed by the user and a detection value of the sensor; and a microcontroller. The microcontroller acquires the type of motion performed by the user from an information processor, acquires the detection value from the sensor, calculates the accuracy by giving the motion and the detection value to the classifier, and actuates the feedback device depending on the accuracy.SELECTED DRAWING: Figure 1

Description

本発明は、装着デバイス及び身体動作支援システムに関する。 The present invention relates to a wearable device and a body movement assistance system.

運動姿勢を計測して指導を行うことが行われている(特許文献1参照)。 Guidance is provided by measuring exercise postures (see Patent Document 1).

特開2021-037168号公報Japanese Patent Application Laid-Open No. 2021-037168

しかしながら、特許文献1に記載のシステムでは、ユーザの姿勢を正確に把握することが難しい。 However, in the system described in Patent Document 1, it is difficult to accurately grasp the posture of the user.

本発明はこのような背景を鑑みてなされたものであり、ユーザの身体の動きを正確に把握することができる技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of accurately grasping the movement of a user's body.

上記課題を解決するための本発明の主たる発明は、ユーザの身体に装着される装着デバイスであって、運動を検出するセンサと、フィードバックデバイスと、前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、マイクロコントローラと、を備え、前記マイクロコントローラが、前記ユーザが行う前記動作種別を情報処理装置から取得し、前記センサから前記検出値を取得し、前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、前記正確度に応じて前記フィードバックデバイスを動作させること、を特徴とする。 The main invention of the present invention for solving the above problems is a wearable device worn on a user's body, comprising a sensor for detecting exercise, a feedback device, a motion type performed by the user, and a detection value of the sensor. and a microcontroller, wherein the microcontroller determines the type of action performed by the user. obtaining from an information processing device, obtaining the detected value from the sensor, providing the operation and the detected value to the classifier to obtain the accuracy, and operating the feedback device according to the accuracy; characterized by

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed by the present application and solutions thereof will be clarified by the section of the embodiment of the invention and the drawings.

本発明によれば、ユーザの身体の動きを正確に把握することができる。 ADVANTAGE OF THE INVENTION According to this invention, a motion of a user's body can be grasped|ascertained correctly.

本実施形態の身体動作支援システムの全体構成例を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the whole structural example of the body movement assistance system of this embodiment. 装着デバイス30のハードウェア構成例を示す図である。3 is a diagram showing a hardware configuration example of the mounting device 30. FIG. 装着デバイス30のソフトウェア構成例を示す図である。3 is a diagram showing a software configuration example of the wearing device 30. FIG. ユーザ端末10のハードウェア構成例を示す図である。2 is a diagram illustrating an example hardware configuration of a user terminal 10; FIG. ユーザ端末10のソフトウェア構成例を示す図である。2 is a diagram showing a software configuration example of the user terminal 10; FIG. 本実施形態の身体動作支援システムの動作を説明する図である。It is a figure explaining operation|movement of the body movement assistance system of this embodiment.

<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
ユーザの身体に装着される装着デバイスであって、
運動を検出するセンサと、
フィードバックデバイスと、
前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、
マイクロコントローラと、を備え、
前記マイクロコントローラが、
前記ユーザが行う前記動作種別を情報処理装置から取得し、
前記センサから前記検出値を取得し、
前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、
前記正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする装着デバイス。
[項目2]
ユーザの身体動作を支援するシステムであって、
前記ユーザの身体に装着される装着デバイスと、前記装着デバイスと通信可能に接続される情報処理装置とを含んで構成され、
前記装着デバイスは、
運動を検出するセンサと、
フィードバックデバイスと、
を備え、
前記情報処理装置は、
前記身体のキーポイントの正解位置を記憶する記憶部と、
前記ユーザを撮影した撮影画像を取得する撮影部と、
前記撮影画像から前記キーポイントの第1の位置候補を検出する検出部と、
前記センサにより検出された前記運動を取得する運動取得部と、
前記運動から前記キーポイントの第2の位置候補を推定する推定部と、
前記第1及び第2の位置候補に基づいて、前記キーポイントの位置を決定する位置決定部と、
前記位置及び前記正解位置を比較して前記位置の正確度を求める正確度決定部と、
前記正確度に応じて前記触覚フォードバックデバイスを動作させるように前記装着デバイスを制御する制御部と、
を備えること、
を特徴とする身体動作支援システム。
[項目3]
項目2に記載の身体動作支援システムであって、
前記センサは、9自由度の3次元慣性運動を検出する慣性計測装置であり、
前記記憶部は、前記身体の動作種別及び前記センサによる検出値を入力として、前記位置の第1の前記正確度とは異なる、前記キーポイントの動作の第2の正確度を求める分類器をさらに記憶し、
前記情報処理装置は、前記ユーザに対して特定の前記動作種別を行うように指示を出す指示部をさらに備え、
前記正確度決定部は、指示を出した前記動作種別及び前記センサによる前記検出値を前記分類器に与えて前記第2の正確度を求め、
前記制御部は、前記第2の正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする身体動作支援システム。
[項目4]
項目3に記載の身体動作支援システムであって、
前記情報処理装置は、
前記第1及び第2の正確度の範囲に対応付けて、前記ユーザに対するテキスト、動画又は音声によるフィードバックを記憶するフィードバック記憶部と、
前記第1及び第2の正確度に対応する前記フィードバックを読み出して出力するフィードバック出力部と、
をさらに備えることを特徴とする身体動作支援システム。
<Overview of the invention>
The contents of the embodiments of the present invention are listed and explained. The present invention has, for example, the following configurations.
[Item 1]
A wearable device worn on a user's body, comprising:
a sensor that detects motion;
a feedback device;
a storage device that stores a classifier for determining the accuracy of movement of the part to which the wearable device is worn based on input of the type of motion performed by the user and the detection value of the sensor;
a microcontroller, and
The microcontroller
acquiring the action type performed by the user from an information processing device;
obtaining the detected value from the sensor;
applying the motion and the detected value to the classifier to determine the accuracy;
operating the feedback device according to the accuracy;
A wearable device characterized by:
[Item 2]
A system for supporting a user's body movement,
comprising a wearable device worn on the user's body and an information processing device communicably connected to the wearable device,
The wearable device comprises:
a sensor that detects motion;
a feedback device;
with
The information processing device is
a storage unit that stores the correct positions of the key points of the body;
a photographing unit that acquires a photographed image of the user;
a detection unit that detects a first position candidate of the key point from the captured image;
a motion acquisition unit that acquires the motion detected by the sensor;
an estimator for estimating a second candidate location of the keypoint from the motion;
a position determination unit that determines a position of the keypoint based on the first and second position candidates;
an accuracy determining unit that compares the position and the correct position to determine the accuracy of the position;
a controller for controlling the wearable device to operate the haptic feedback device according to the accuracy;
to provide
A body movement support system characterized by:
[Item 3]
The body movement support system according to item 2,
The sensor is an inertial measurement device that detects three-dimensional inertial motion with nine degrees of freedom,
The storage unit further includes a classifier that obtains a second accuracy of the motion of the keypoint, which is different from the first accuracy of the position, by inputting the type of motion of the body and the value detected by the sensor. remember,
The information processing device further includes an instruction unit that instructs the user to perform the specific action type,
The accuracy determination unit obtains the second accuracy by providing the type of motion that has issued the instruction and the detection value by the sensor to the classifier,
the control unit operating the feedback device according to the second accuracy;
A body movement support system characterized by:
[Item 4]
The body movement support system according to item 3,
The information processing device is
a feedback storage unit that stores text, video, or audio feedback for the user in association with the first and second accuracy ranges;
a feedback output unit that reads and outputs the feedback corresponding to the first and second accuracies;
A body movement support system, further comprising:

<システムの概要>
以下、本発明の一実施形態に係る身体動作支援システムについて説明する。本実施形態の身体動作支援システムは、ユーザに正しい身体の動きを指導しようとするものである。例えば、正しいヨガのポーズを指導することができる。本実施形態の身体動作支援システムでは、ユーザには手首や足首、太腿などの各部位にデバイス(以下、装着デバイスという。)を装着させ、装着デバイスが各部位の動きや姿勢を検出してユーザの姿勢や動きの妥当性を検証する。また、本実施形態の身体動作支援システムでは、スマートフォンなどのカメラを備えたユーザ端末を用いてユーザの姿勢を撮影し、ユーザの部位の位置を検出し、装着デバイスからの測定値と画像から検出した部位の位置に基づいてユーザの姿勢や動きの妥当性を検証することもできる。さらに、本実施形態の身体動作支援システムでは、装着デバイスには触覚フィードバック装置が搭載されており、修正の必要な部位の装着デバイスから触覚フィードバック装置によるフィードバックを行うことで、部位の姿勢が正しくないことを通知することができる。
<Overview of the system>
A body movement support system according to an embodiment of the present invention will be described below. The body movement support system of this embodiment is intended to guide the user in correct body movement. For example, it can teach correct yoga poses. In the body movement support system of this embodiment, the user wears a device (hereinafter referred to as a wearable device) on each part such as a wrist, ankle, and thigh, and the wearable device detects the movement and posture of each part. Validate user posture and movement. In addition, in the body movement support system of the present embodiment, a user terminal equipped with a camera such as a smartphone is used to photograph the user's posture, detect the position of the user's body part, and detect it from the measurement value and the image from the wearable device. It is also possible to verify the validity of the user's posture and movement based on the position of the body part. Furthermore, in the body movement support system of this embodiment, the wearable device is equipped with a tactile feedback device. can be notified.

図1は、本実施形態の身体動作支援システムの全体構成例を示す図である。本実施形態の身体動作支援システムは、ユーザ端末10及び装着デバイス30を含んで構成される。 FIG. 1 is a diagram showing an example of the overall configuration of the body movement support system of this embodiment. The body movement support system of this embodiment includes a user terminal 10 and a wearing device 30 .

ユーザ端末10は、例えば、スマートフォンやスマートウォッチ、タブレットコンピュータ、パーソナルコンピュータなどのコンピュータである。ユーザ端末10からユーザに対して身体の動作(例えば、取るべきヨガのポーズ)の指示が出される。ユーザ端末10は撮影機能を備えており、ユーザを撮影し、撮影画像からユーザの特定部位(以下、キーポイントという。)を検出して、ユーザの姿勢を評価することができる。 The user terminal 10 is, for example, a computer such as a smart phone, smart watch, tablet computer, or personal computer. The user terminal 10 issues instructions to the user about body movements (for example, yoga poses to be taken). The user terminal 10 has a photographing function, and can photograph the user, detect specific parts of the user (hereinafter referred to as key points) from the photographed image, and evaluate the posture of the user.

装着デバイス30は、ユーザの身体に装着されるデバイスである。装着デバイス30は、手首や足首、太腿などの部位に装着される。装着デバイス30は装着された部位の動きや姿勢を検出するセンサと、ユーザに対してフィードバック(本実施形態では触覚フィードバックを想定するが、音声や光などのフィードバックであってもよい。)を与える触覚フィードバック装置(バイブレータなど)と、ユーザの部位の位置や動きが正しいかどうかを検証するマイクロコントローラとを備える。 The wearing device 30 is a device worn on the user's body. The wearing device 30 is worn on a part such as a wrist, an ankle, or a thigh. The wearable device 30 provides a sensor that detects the movement and posture of the worn part and feedback to the user (in this embodiment, tactile feedback is assumed, but feedback such as sound and light may be used). It has a tactile feedback device (such as a vibrator) and a microcontroller that verifies whether the user's body part position and movement are correct.

<装着デバイス>
図2は、装着デバイス30のハードウェア構成例を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。装着デバイス30は、IMU311、通信部312、触覚フィードバック装置313、マイクロコントローラ314を備える。
<Wearing device>
FIG. 2 is a diagram showing a hardware configuration example of the mounting device 30. As shown in FIG. Note that the illustrated configuration is an example, and other configurations may be employed. The wearable device 30 comprises an IMU 311 , a communication unit 312 , a haptic feedback device 313 and a microcontroller 314 .

IMU311は、運動を検出するセンサである。本実施形態では、IMU311は、三次元の慣性運動を検出する慣性計測装置(Inertial Measurement Unit)である。本実施形態では、IMU311は、三次元の加速度センサ、三次元のジャイロセンサ、三次元の磁気センサを含み、9自由度の測定を行うことができることを想定している。 The IMU 311 is a sensor that detects motion. In this embodiment, the IMU 311 is an inertial measurement unit that detects three-dimensional inertial motion. In this embodiment, the IMU 311 includes a three-dimensional acceleration sensor, a three-dimensional gyro sensor, and a three-dimensional magnetic sensor, and is assumed to be capable of measuring nine degrees of freedom.

通信部312は、ユーザ端末10との通信を行う。通信部312は、例えば、BlueTooth(登録商標)などによる近距離通信を行うようにしてもよいし、WiFiなどの通信を行うようにしてもよい。 The communication unit 312 communicates with the user terminal 10 . The communication unit 312 may perform short-range communication using, for example, BlueTooth (registered trademark), or may perform communication such as WiFi.

触覚フィードバック装置313は、ユーザに対して力、振動、動きなどを与えることにより皮膚感覚のフィードバックを得ることを可能とする装置である。 The tactile feedback device 313 is a device that makes it possible to obtain tactile feedback by applying force, vibration, movement, or the like to the user.

マイクロコントローラ314は、装着デバイス30を制御する装置である。マイクロコントローラ314は、メモリ315に記憶されているプログラムを実行することにより各種の機能を実現することが可能である。メモリ315は、例えば、各種のデータやプログラムを記憶する、例えばフラッシュメモリなどである。 Microcontroller 314 is the device that controls wearable device 30 . The microcontroller 314 can implement various functions by executing programs stored in the memory 315 . The memory 315 is, for example, a flash memory that stores various data and programs.

図3は、装着デバイス30のソフトウェア構成例を示す図である。装着デバイス30は、動作種別取得部321、検出値取得部322、正確度推定部323、フィードバック部324、検出値送信部325、コマンド受信部326、分類器記憶部331を備える。 FIG. 3 is a diagram showing a software configuration example of the wearable device 30. As shown in FIG. The wearable device 30 includes a motion type acquisition unit 321 , a detection value acquisition unit 322 , an accuracy estimation unit 323 , a feedback unit 324 , a detection value transmission unit 325 , a command reception unit 326 and a classifier storage unit 331 .

動作種別取得部321は、ユーザが行う動作種別を外部装置から取得する。動作種別は例えばヨガのポーズなどである。動作種別取得部321は、例えば、ユーザ端末10から動作種別を取得することができる。 The action type acquisition unit 321 acquires the action type performed by the user from an external device. The motion type is, for example, a yoga pose. The motion type acquisition unit 321 can acquire the motion type from the user terminal 10, for example.

検出値取得部322は、IMU311が検出した6自由度の値(検出値)を取得する。 The detected value acquiring unit 322 acquires values (detected values) of the six degrees of freedom detected by the IMU 311 .

検出値送信部325は、検出値を外部に送信する。本実施形態では、検出値送信部325は、ユーザ端末10に検出値を送信する。 The detected value transmission unit 325 transmits the detected value to the outside. In this embodiment, the detected value transmission unit 325 transmits the detected value to the user terminal 10 .

分類器記憶部331は、機械学習による学習済みの学習モデルである分類器を記憶する。分類器記憶部331が記憶する分類器は、ユーザが行う動作種別と、IMU311の検出値とを入力として、装着デバイス30が装着される部位の動きの正確度を推論するための学習モデルである。なお、分類器記憶部331は、動作種別に対応付けて分類器を記憶するようにしてもよい。この場合、動作種別ごとの分類器には、動作種別は入力せず、IMU311の検出値を入力する。分類器は、身体の部位別に学習済みの学習モデルとすることができ、装着デバイス30が装着される部位ごとの分類器が予め分類器記憶部331に登録されているものとする。 The classifier storage unit 331 stores a classifier that is a learning model that has been learned by machine learning. The classifier stored in the classifier storage unit 331 is a learning model for inferring the accuracy of the movement of the part to which the wearable device 30 is worn based on input of the type of action performed by the user and the detection value of the IMU 311. . Note that the classifier storage unit 331 may store a classifier in association with an action type. In this case, the detection value of the IMU 311 is input to the classifier for each motion type without inputting the motion type. The classifier can be a learning model that has already been learned for each part of the body, and the classifier for each part on which the wearable device 30 is worn is preliminarily registered in the classifier storage unit 331 .

正確度推定部323は、ユーザの身体の動きの正確度を推定する。本実施形態では、正確度推定部323は、装着デバイス30が装着されている部位の位置や姿勢、動きの正確度を推定する。正確度推定部323は、動作種別と、検出値取得部322が取得した検出値とを分類器に与えて正確度を推論することができる。 The accuracy estimation unit 323 estimates the accuracy of the motion of the user's body. In this embodiment, the accuracy estimation unit 323 estimates the accuracy of the position, posture, and movement of the part to which the wearable device 30 is worn. The accuracy estimator 323 can infer the accuracy by providing the classifier with the motion type and the detection value acquired by the detection value acquisition unit 322 .

フィードバック部324は、正確度に応じて触覚フィードバック装置313を動作させる。フィードバック部324は、例えば、正確度が低くなるほど感触が強くなるように(例えば振動が大きく、強く、速くなるように)触覚フィードバック装置313を制御(例えば動作パラメータを設定)することができる。 A feedback unit 324 operates the haptic feedback device 313 according to the accuracy. The feedback unit 324 can, for example, control the haptic feedback device 313 (eg, set operation parameters) so that the lower the accuracy, the stronger the feel (eg, the larger, stronger, faster vibration).

コマンド受信部326は、外部から触覚フィードバック装置313を動作させるためのコマンドを受信する。フィードバック部324は、コマンドに応じて触覚フィードバック装置313を動作させることもできる。 The command receiving unit 326 receives commands for operating the haptic feedback device 313 from the outside. Feedback unit 324 can also operate haptic feedback device 313 in response to a command.

<ユーザ端末10>
図4は、ユーザ端末10のハードウェア構成例を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。ユーザ端末は、CPU101、メモリ102、記憶装置103、通信インタフェース104、カメラ105、タッチパネルディスプレイ106を備える。記憶装置103は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース104は、通信ネットワークに接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。タッチパネルディスプレイ106は、データを入出力するデバイスである。なお、後述するユーザ端末10の各機能部は、記憶装置103に記憶されているプログラムをメモリ102に読み出して実行することにより実現され、ユーザ端末10の各記憶部は、メモリ102及び記憶装置103が提供する記憶領域の一部として実現される。
<User terminal 10>
FIG. 4 is a diagram showing a hardware configuration example of the user terminal 10. As shown in FIG. Note that the illustrated configuration is an example, and other configurations may be employed. A user terminal includes a CPU 101 , a memory 102 , a storage device 103 , a communication interface 104 , a camera 105 and a touch panel display 106 . The storage device 103 is, for example, a hard disk drive, solid state drive, flash memory, etc., which stores various data and programs. The communication interface 104 is an interface for connecting to a communication network. Examples include a USB (Universal Serial Bus) connector and an RS232C connector for serial communication. The touch panel display 106 is a device for inputting/outputting data. Each functional unit of the user terminal 10, which will be described later, is implemented by reading a program stored in the storage device 103 into the memory 102 and executing it. is implemented as part of the storage provided by

図5は、ユーザ端末10のソフトウェア構成例を示す図である。ユーザ端末10は、インストラクション出力部111、撮影部112、位置検出部113、検出値取得部114、位置推定部115、位置決定部116、正確度決定部117、制御部118、フィードバック出力部119、インストラクション記憶部131、正解位置記憶部132、分類器記憶部133、フィードバック記憶部134を備える。 FIG. 5 is a diagram showing a software configuration example of the user terminal 10. As shown in FIG. The user terminal 10 includes an instruction output unit 111, an imaging unit 112, a position detection unit 113, a detection value acquisition unit 114, a position estimation unit 115, a position determination unit 116, an accuracy determination unit 117, a control unit 118, a feedback output unit 119, An instruction storage unit 131, a correct position storage unit 132, a classifier storage unit 133, and a feedback storage unit 134 are provided.

インストラクション記憶部131は、ユーザに対する身体の動きの指示(インストラクション)を含む情報(以下、インストラクション情報という。)記憶する。インストラクション情報には、タイミング、インストラクション、及び動作種別を含めることができる。インストラクションは、例えば、文字情報、音声、静止画像、もしくは動画像、またはこれらの組み合わせとすることができる。インストラクションは、例えば、ヨガにおいて次にとるべきポーズとすることができる。タイミングは、インストラクションを出力するタイミングである。タイミングは、例えば時刻情報とすることができ、例えば、運動開始からの経過時間として表現することができる。動作種別は、インストラクションで指示される身体の動きの種類である。なお、身体の動き以外の指示(例えば説明など)については動作種別を設定せず、あるいは特別な種別を示す情報を設定することができる。 The instruction storage unit 131 stores information (hereinafter referred to as instruction information) including a body movement instruction (instruction) for the user. Instruction information can include timing, instructions, and action types. Instructions can be, for example, textual information, audio, still or moving images, or a combination thereof. The instructions can be, for example, the next pose to do in yoga. Timing is timing for outputting an instruction. The timing can be, for example, time information, and can be expressed, for example, as elapsed time from the start of exercise. The motion type is the type of body motion instructed by the instruction. For instructions other than body movement (for example, explanation), the action type may not be set, or information indicating a special type may be set.

正解位置記憶部132は、ユーザの身体の姿勢を特定するためのキーとなる部位(以下、キーポイントという。)の正解位置を含む情報(以下、正解情報という。)を記憶する。正解情報には、部位を特定する情報に対応付けて、当該部位の正解位置を含むことができる。正解位置は、例えば、身体の標準位置からの相対位置として表現することができ、例えば、標準位置(例えば床の特定地点など)を原点とした3次元座標の座標値とすることができる。また、正解情報には、位置のみならず姿勢(正解姿勢)を含めることができる。正解位置及び正解姿勢に代えて又は加えて、装着デバイス30のIMU311が計測可能な9自由度のベクトルで表現した正解データを含めるようにしてもよい。 The correct position storage unit 132 stores information (hereinafter referred to as correct information) including correct positions of key parts (hereinafter referred to as key points) for specifying the posture of the user's body. The correct information can include the correct position of the part in association with the information specifying the part. The correct position can be represented, for example, as a relative position from the standard position of the body, and can be, for example, a coordinate value of three-dimensional coordinates with the standard position (for example, a specific point on the floor) as the origin. Further, the correct information can include not only the position but also the posture (correct posture). Instead of or in addition to the correct position and correct posture, correct data expressed by a vector with nine degrees of freedom that can be measured by the IMU 311 of the wearing device 30 may be included.

分類器記憶部133は、機械学習により作成された学習モデルとしての分類器を記憶する。分類器記憶部133が記憶する分類器は、身体の動作種別及びIMU311による検出値を入力として、身体のキーポイントの動きに関する正確度を推論するためのモデルである。 The classifier storage unit 133 stores a classifier as a learning model created by machine learning. The classifier stored in the classifier storage unit 133 is a model for inferring the accuracy of movement of key points of the body based on input of the type of body motion and the detected value by the IMU 311 .

なお、分類器記憶部133は、動作種別に対応付けて分類器を記憶するようにしてもよく、この場合の分類器は、動作種別を入力せず、検出値を入力として部位の動きに係る正確度を推論することができる。 Note that the classifier storage unit 133 may store a classifier in association with a motion type. Accuracy can be inferred.

フィードバック記憶部134は、ユーザに対するテキスト、動画又は音声によるフィードバックを行うための情報(以下、フィードバック情報という。)を記憶する。フィードバック情報には、正確度の範囲に対応付けて、例えば、「もう少し上」、「もっと上」、「もう少し前」、「もっと前」、「もう少し早く」、「もっと早く」などの、ユーザによる動作の改善に係るアドバイスを含めることができる。正確度の範囲は、位置の正確度、姿勢の正確度、及び/又は動きの正確度の範囲とすることができる。 The feedback storage unit 134 stores information (hereinafter referred to as feedback information) for giving text, video, or audio feedback to the user. The feedback information includes user-defined values associated with accuracy ranges, such as "a little more", "more", "a little earlier", "more earlier", "a little sooner", and "faster". Advice on improving performance can be included. The accuracy range may be a position accuracy range, a pose accuracy range, and/or a motion accuracy range.

インストラクション出力部111は、ユーザに対して特定の動作種別を行うように指示(インストラクション)を出す。本実施形態では、インストラクション出力部111は、インストラクション記憶部131に記憶されているインストラクションを、タイミングに合わせて読み出して出力することができる。なお、インストラクション出力部111は、テキストデータを読み上げた音声データを出力するようにしてもよい。 The instruction output unit 111 issues an instruction (instruction) to the user to perform a specific action type. In this embodiment, the instruction output unit 111 can read and output instructions stored in the instruction storage unit 131 in accordance with timing. Note that the instruction output unit 111 may output voice data obtained by reading the text data.

撮影部112は、ユーザを撮影した撮影画像を取得する。撮影部112は、カメラ105を制御して撮影画像を取得することができる。 The photographing unit 112 acquires a photographed image of the user. The imaging unit 112 can acquire a captured image by controlling the camera 105 .

位置検出部113は、撮影画像からキーポイントの第1の位置候補を検出する。位置検出部113は、公知のCV(Computer Vision)の手法を用いて画像解析により撮影画像からキーポイントを検出するとともに、標準位置(例えば床の特定地点など)を検出し、標準位置からの相対位置を計算することができる。 The position detection unit 113 detects the first position candidate of the keypoint from the captured image. The position detection unit 113 detects a key point from the captured image by image analysis using a known CV (Computer Vision) technique, detects a standard position (for example, a specific point on the floor), and detects a relative position from the standard position. Position can be calculated.

検出値取得部114は、装着デバイス30のIMU311により検出された運動(検出値)を取得する。検出値取得部114は、装着デバイス30のそれぞれと通信を行い、検出値を取得することができる。 The detected value acquisition unit 114 acquires motion (detected value) detected by the IMU 311 of the wearable device 30 . The detection value acquisition unit 114 can communicate with each of the wearable devices 30 and acquire detection values.

位置推定部115は、検出値からキーポイントの第2の位置候補を推定する。IMU311の検出値からキーポイントの位置を推定する処理については公知の手法を用いることができる。 A position estimation unit 115 estimates a second position candidate of the keypoint from the detected value. A known technique can be used for the process of estimating the keypoint position from the detection value of the IMU 311 .

位置決定部116は、第1及び第2の位置候補に基づいて、キーポイントの位置を決定する。位置決定部116は、撮影画像から第1の位置候補を検出できた場合には、第1の位置候補をキーポイントの位置として決定するようにしてもよい。位置決定部116は、撮影画像から第1の位置候補を検出できなかった場合(例えば、キーポイントが死角に入りカメラ105から視認不能になっていた場合)には、第2の位置候補をキーポイントの位置として決定するようにしてもよい。また、撮影画像から検出した第1の位置候補を、IMU311からの検出値に基づいて補正するようにしてもよい。また、位置決定部116は、検出値からキーポイントの姿勢及び単位時間における動き(スピード等)を求めるようにすることもできる。 A position determination unit 116 determines the position of the keypoint based on the first and second position candidates. If the first position candidate can be detected from the captured image, the position determination unit 116 may determine the first position candidate as the position of the keypoint. When the position determination unit 116 cannot detect the first position candidate from the captured image (for example, when the key point is in a blind spot and is invisible from the camera 105), the position determination unit 116 selects the second position candidate as a key point. You may make it determine as a position of a point. Also, the first position candidate detected from the captured image may be corrected based on the detection value from the IMU 311 . Also, the position determination unit 116 can obtain the attitude of the key point and the motion (speed etc.) per unit time from the detected values.

正確度決定部117は、決定した位置と、正解位置記憶部132に記憶されている正解位置とを比較して、キーポイントの位置の正確度(第1の正確度)を決定する。正確度決定部117は、位置のみでなく、姿勢についても正解位置記憶部132に記憶されている正解姿勢と比較して正確度(第2の正確度)を評価し、位置に係る第1の正確度と、姿勢に係る第2の正確度とに応じて最終的な正確度を決定することもできる。正確度決定部117は、部位ごとに第1の正確度、第2の正確度、及び/又は最終的な正確度を決定することができる。 The accuracy determination unit 117 compares the determined positions with the correct positions stored in the correct position storage unit 132 to determine the accuracy (first accuracy) of the keypoint positions. The accuracy determination unit 117 compares not only the position but also the posture with the correct posture stored in the correct position storage unit 132 to evaluate the accuracy (second accuracy), and evaluates the first accuracy related to the position. The final accuracy can also be determined according to the accuracy and the second accuracy related to the attitude. The accuracy determination unit 117 can determine the first accuracy, the second accuracy, and/or the final accuracy for each part.

また、正確度決定部117は、部位の動きに係る正確度(第3の正確度)を決定することもできる。第3の正確度は、分類器記憶部133に記憶されている分類器に、動作種別とIMU311からの検出値とを与えることにより推論することができる。正確度決定部117は、第1ないし第3の正確度に応じて最終的な正確度を決定するようにしてもよい。 The accuracy determination unit 117 can also determine the accuracy (third accuracy) related to the movement of the part. The third degree of accuracy can be inferred by providing the classifier stored in the classifier storage unit 133 with the type of motion and the detected value from the IMU 311 . The accuracy determination unit 117 may determine the final accuracy according to the first to third accuracy.

制御部118は、第1の正確度、第2の正確度及び/又は最終的な正確度に応じて装着デバイス30の触覚フォードバック装置313を動作させるように装着デバイス30を制御する。制御部118は、例えば、正確度が低いほど大きく動作するように触覚フィードバック装置313を動作させるようにすることができる。制御部118は、部位に対応する装着デバイス30に対してコマンドを送信することで触覚フィードバック装置313を動作させることができる。 The controller 118 controls the mounting device 30 to operate the tactile feedback device 313 of the mounting device 30 according to the first degree of accuracy, the second degree of accuracy and/or the final degree of accuracy. For example, the control unit 118 can operate the haptic feedback device 313 such that the lower the accuracy, the larger the movement. The control unit 118 can operate the haptic feedback device 313 by transmitting a command to the wearing device 30 corresponding to the part.

また、制御部118は、第2の正確度に応じて触覚フィードバックデバイスを動作させることもできる。 Controller 118 can also operate the haptic feedback device according to the second degree of accuracy.

フィードバック出力部119は、正確度に対応するフィードバックをフィードバック記憶部134から読み出して出力することができる。 The feedback output unit 119 can read feedback corresponding to accuracy from the feedback storage unit 134 and output it.

<動作>
図6は、本実施形態の身体動作支援システムの動作を説明する図である。
<Action>
FIG. 6 is a diagram for explaining the operation of the body movement support system of this embodiment.

ユーザ端末10は、インストラクションを出力する(S401)。例えば、ヨガの場合、次にとるべきポーズを指示することができる。上述したように、ユーザ端末10は、インストラクション記憶部131に記憶されているインストラクションを、タイミングに合わせて出力することができる。 The user terminal 10 outputs an instruction (S401). For example, in yoga, it can tell you what pose to do next. As described above, the user terminal 10 can output instructions stored in the instruction storage unit 131 in time.

ユーザ端末10は、装着デバイス30に動作種別を送信する(S402)。ユーザ端末10は、インストラクションに対応する動作種別をインストラクション記憶部131から取得することができる。 The user terminal 10 transmits the action type to the wearable device 30 (S402). The user terminal 10 can acquire the action type corresponding to the instruction from the instruction storage unit 131 .

装着デバイス30では、IMU311の検出値を取得し(S421)、ユーザ端末10から受信した動作種別に対応する分類器に、IMU311からの検出値を与えて正確度を推論する(S422)。なお、分類器が特徴量として動作種別を受け付ける場合には、動作種別と検出値とを分類器に与えるようにしてもよい。装着デバイス30は、求めた正確度に応じて触覚フィードバック装置313を動作させる(S423)。例えば、正確度が低いほど大きい感触が伝わるように触覚フィードバック装置313の動作を制御することができる。 The wearable device 30 acquires the detection value of the IMU 311 (S421), gives the detection value from the IMU 311 to the classifier corresponding to the action type received from the user terminal 10, and infers the accuracy (S422). When the classifier receives the motion type as the feature amount, the motion type and the detection value may be given to the classifier. The wearing device 30 operates the haptic feedback device 313 according to the obtained accuracy (S423). For example, the operation of the haptic feedback device 313 can be controlled such that the lower the accuracy, the greater the feel.

また、装着デバイス30は、IMU311からの検出値をユーザ端末10に送信する(S424)。 Also, the mounting device 30 transmits the detection value from the IMU 311 to the user terminal 10 (S424).

ユーザ端末10では、カメラ105を起動してユーザを撮影し(S403)、撮影画像からキーポイントの第1位置を検出する(S404)。また、ユーザ端末10は、装着デバイス30から受信した検出値に基づいて、キーポイントの第2位置を推定する(S405)。ユーザ端末10は、第1位置及び第2位置に基づいてキーポイントの位置を決定し(S406)、決定した位置と、正解位置とを比較して正確度を決定する(S407)。ユーザ端末10は、正確度に応じたパラメータを設定したフィードバックのコマンドを装着デバイス30に送信し(S408)、装着デバイス30は、コマンドに応じて触覚フィードバック装置313を動作させる(S425)。例えば、正確度が低いほど大きな感触となるようなパラメータを設定することができる。 The user terminal 10 activates the camera 105 to photograph the user (S403), and detects the first position of the key point from the photographed image (S404). Also, the user terminal 10 estimates the second position of the key point based on the detection value received from the wearable device 30 (S405). The user terminal 10 determines the position of the key point based on the first position and the second position (S406), and compares the determined position with the correct position to determine accuracy (S407). The user terminal 10 transmits a feedback command in which parameters corresponding to the accuracy are set to the wearing device 30 (S408), and the wearing device 30 operates the haptic feedback device 313 according to the command (S425). For example, a parameter can be set such that the lower the accuracy, the greater the feel.

ユーザ端末10はまた、正確度に応じたフィードバックをフィードバック記憶部134から読み出し、読み出したフィードバックを出力する(S409)。 The user terminal 10 also reads the feedback according to the accuracy from the feedback storage unit 134 and outputs the read feedback (S409).

以上のようにして、本実施形態の身体動作支援システムによれば、ユーザの身体に装着した装着デバイス30が自律的に装着部位の動作の正誤を判断し、触覚フィードバック装置313を用いてユーザの身体に直接フィードバックを与えることができる。これによりユーザは部位の位置や動きを修正して正しい姿勢に修正をすることができる。 As described above, according to the body movement support system of the present embodiment, the wearable device 30 worn on the user's body autonomously determines whether the motion of the wearable part is correct or wrong, and uses the tactile feedback device 313 to determine whether the user's motion is correct or not. It can give direct feedback to the body. As a result, the user can correct the positions and movements of the body parts to achieve a correct posture.

また、本実施形態の身体動作支援システムによれば、スマートフォン等のユーザ端末10を用いて撮影画像からユーザの身体の姿勢の正確度を判定することができ、正確度に応じたアドバイスを返すことができる。また、身体のキーポイントがカメラに映らないような場合であっても、装着デバイス30からのIMU検出値を用いてキーポイントの位置を推定して姿勢の正確度を判定することができる。 In addition, according to the body movement support system of the present embodiment, the user terminal 10 such as a smartphone can be used to determine the accuracy of the user's body posture from the captured image, and the advice corresponding to the accuracy can be returned. can be done. Also, even if the body keypoints are not captured by the camera, the IMU detection values from the wearable device 30 can be used to estimate the positions of the keypoints and determine the accuracy of the posture.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above-described embodiment is intended to facilitate understanding of the present invention, and is not intended to limit and interpret the present invention. The present invention can be modified and improved without departing from its spirit, and the present invention also includes equivalents thereof.

例えば、本実施形態では、正確度に応じたフィードバック(アドバイス)は予め正確度の範囲に対応付けて用意されているものとしたが、アドバイスを生成する生成器を用いるようにしてもよい。この場合、キーポイントの位置や姿勢とアドバイスとを機械学習により生成器を作成し、キーポイントの位置を生成器に与えてアドバイスを生成させるようにすることができる。 For example, in the present embodiment, the feedback (advice) according to accuracy is prepared in advance in association with the range of accuracy, but a generator that generates advice may be used. In this case, it is possible to create a generator based on the positions and postures of the keypoints and the advice by machine learning, and give the positions of the keypoints to the generator to generate the advice.

また、本実施形態では、装着デバイス30に予め分類器を記憶するものとしたが、ユーザ端末10から分類器を装着デバイス30に送信してインストールするようにしてもよい。また、ユーザ端末10はサーバ装置(不図示)から、装着デバイス30にインストールする部位毎の分類器と、分類器記憶部133に記憶する分類器とを取得するようにしてもよい。 Further, in the present embodiment, the classifier is stored in the wearable device 30 in advance, but the classifier may be transmitted from the user terminal 10 to the wearable device 30 and installed. Also, the user terminal 10 may acquire a classifier for each part to be installed in the wearable device 30 and a classifier to be stored in the classifier storage unit 133 from a server device (not shown).

また、本実施形態では、ユーザ端末10においてはキーポイント(部位)の位置や姿勢と正解位置や正解姿勢とを比較して正確度を求めるものとしたが、学習モデル(分類器)に位置及び姿勢を与えて第1及び第2の正確度を推論するようにしてもよい。この場合の学習モデルは、位置を入力データとし、第1の正解度を教師データとして学習した、第1の正確度を求めるための学習モデルと、姿勢(又はIMU311の9自由度の検出値)を入力データとし、第2の正解度を教師データとして学習した、第2の正確度を求めるための学習モデルとを含むことができる。 In the present embodiment, the user terminal 10 compares the positions and orientations of key points (parts) with the correct positions and correct orientations to obtain accuracy. A pose may be given to infer the first and second degrees of accuracy. The learning model in this case includes a learning model for obtaining the first degree of accuracy, which is learned using the position as input data and the first degree of accuracy as teacher data, and the posture (or the detection values of the 9 degrees of freedom of the IMU 311). and a learning model for obtaining a second degree of accuracy, which is learned using the input data and the second degree of correctness as teacher data.

111 インストラクション出力部
112 撮影部
113 位置検出部
114 検出値取得部
115 位置推定部
116 位置決定部
117 正確度決定部
118 制御部
119 フィードバック出力部
131 インストラクション記憶部
132 正解位置記憶部
133 分類器記憶部
134 フィードバック記憶部
311 IMU
312 通信部
313 触覚フィードバック装置
314 マイクロコントローラ
321 動作種別取得部
322 検出値取得部
323 正確度推定部
324 フィードバック部
325 検出値送信部
326 コマンド受信部
331 分類器記憶部
111 instruction output unit 112 imaging unit 113 position detection unit 114 detection value acquisition unit 115 position estimation unit 116 position determination unit 117 accuracy determination unit 118 control unit 119 feedback output unit 131 instruction storage unit 132 correct position storage unit 133 classifier storage unit 134 feedback storage unit 311 IMU
312 communication unit 313 tactile feedback device 314 microcontroller 321 motion type acquisition unit 322 detection value acquisition unit 323 accuracy estimation unit 324 feedback unit 325 detection value transmission unit 326 command reception unit 331 classifier storage unit

Claims (4)

ユーザの身体に装着される装着デバイスであって、
運動を検出するセンサと、
フィードバックデバイスと、
前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、
マイクロコントローラと、を備え、
前記マイクロコントローラが、
前記ユーザが行う前記動作種別を情報処理装置から取得し、
前記センサから前記検出値を取得し、
前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、
前記正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする装着デバイス。
A wearable device worn on a user's body, comprising:
a sensor that detects motion;
a feedback device;
a storage device that stores a classifier for determining the accuracy of movement of the part to which the wearable device is worn based on input of the type of motion performed by the user and the detection value of the sensor;
a microcontroller, and
The microcontroller
acquiring the action type performed by the user from an information processing device;
obtaining the detected value from the sensor;
applying the motion and the detected value to the classifier to determine the accuracy;
operating the feedback device according to the accuracy;
A wearable device characterized by:
ユーザの身体動作を支援するシステムであって、
前記ユーザの身体に装着される装着デバイスと、前記装着デバイスと通信可能に接続される情報処理装置とを含んで構成され、
前記装着デバイスは、
運動を検出するセンサと、
フィードバックデバイスと、
を備え、
前記情報処理装置は、
前記身体のキーポイントの正解位置を記憶する記憶部と、
前記ユーザを撮影した撮影画像を取得する撮影部と、
前記撮影画像から前記キーポイントの第1の位置候補を検出する検出部と、
前記センサにより検出された前記運動を取得する運動取得部と、
前記運動から前記キーポイントの第2の位置候補を推定する推定部と、
前記第1及び第2の位置候補に基づいて、前記キーポイントの位置を決定する位置決定部と、
前記位置及び前記正解位置を比較して前記位置の正確度を求める正確度決定部と、
前記正確度に応じて前記触覚フォードバックデバイスを動作させるように前記装着デバイスを制御する制御部と、
を備えること、
を特徴とする身体動作支援システム。
A system for supporting a user's body movement,
comprising a wearable device worn on the user's body and an information processing device communicably connected to the wearable device,
The wearable device comprises:
a sensor that detects motion;
a feedback device;
with
The information processing device is
a storage unit that stores the correct positions of the key points of the body;
a photographing unit that acquires a photographed image of the user;
a detection unit that detects a first position candidate of the key point from the captured image;
a motion acquisition unit that acquires the motion detected by the sensor;
an estimator for estimating a second candidate location of the keypoint from the motion;
a position determination unit that determines a position of the keypoint based on the first and second position candidates;
an accuracy determining unit that compares the position and the correct position to determine the accuracy of the position;
a controller for controlling the wearable device to operate the haptic feedback device according to the accuracy;
to provide
A body movement support system characterized by:
請求項2に記載の身体動作支援システムであって、
前記センサは、9自由度の3次元慣性運動を検出する慣性計測装置であり、
前記記憶部は、前記身体の動作種別及び前記センサによる検出値を入力として、前記位置の第1の前記正確度とは異なる、前記キーポイントの動作の第2の正確度を求める分類器をさらに記憶し、
前記情報処理装置は、前記ユーザに対して特定の前記動作種別を行うように指示を出す指示部をさらに備え、
前記正確度決定部は、指示を出した前記動作種別及び前記センサによる前記検出値を前記分類器に与えて前記第2の正確度を求め、
前記制御部は、前記第2の正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする身体動作支援システム。
The body movement support system according to claim 2,
The sensor is an inertial measurement device that detects three-dimensional inertial motion with nine degrees of freedom,
The storage unit further includes a classifier that obtains a second accuracy of the motion of the keypoint, which is different from the first accuracy of the position, by inputting the type of motion of the body and the value detected by the sensor. remember,
The information processing device further includes an instruction unit that instructs the user to perform the specific action type,
The accuracy determination unit obtains the second accuracy by providing the type of motion that has issued the instruction and the detection value by the sensor to the classifier,
the control unit operating the feedback device according to the second accuracy;
A body movement support system characterized by:
請求項3に記載の身体動作支援システムであって、
前記情報処理装置は、
前記第1及び第2の正確度の範囲に対応付けて、前記ユーザに対するテキスト、動画又は音声によるフィードバックを記憶するフィードバック記憶部と、
前記第1及び第2の正確度に対応する前記フィードバックを読み出して出力するフィードバック出力部と、
をさらに備えることを特徴とする身体動作支援システム。
The body movement support system according to claim 3,
The information processing device is
a feedback storage unit that stores text, video, or audio feedback for the user in association with the first and second accuracy ranges;
a feedback output unit that reads and outputs the feedback corresponding to the first and second accuracies;
A body movement support system, further comprising:
JP2021111852A 2021-07-05 2021-07-05 Attachment device and body motion supporting system Pending JP2023008347A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021111852A JP2023008347A (en) 2021-07-05 2021-07-05 Attachment device and body motion supporting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021111852A JP2023008347A (en) 2021-07-05 2021-07-05 Attachment device and body motion supporting system

Publications (1)

Publication Number Publication Date
JP2023008347A true JP2023008347A (en) 2023-01-19

Family

ID=85111774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021111852A Pending JP2023008347A (en) 2021-07-05 2021-07-05 Attachment device and body motion supporting system

Country Status (1)

Country Link
JP (1) JP2023008347A (en)

Similar Documents

Publication Publication Date Title
US10635166B2 (en) Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11009941B2 (en) Calibration of measurement units in alignment with a skeleton model to control a computer system
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
JP5987247B2 (en) Motion capture pointer by data fusion
US10353482B2 (en) Systems and methods for tracking motion and gesture of heads and eyes
US11083950B2 (en) Information processing apparatus and information processing method
US11481029B2 (en) Method for tracking hand pose and electronic device thereof
TW201911133A (en) Controller tracking for multiple degrees of freedom
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
US11079860B2 (en) Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network
US11009964B2 (en) Length calibration for computer models of users to generate inputs for computer systems
EP2947549A1 (en) Apparartus and method for navigating through volume image
US20190272034A1 (en) Motion detection system, motion detection method and computer-readable recording medium thereof
WO2021178138A1 (en) Ring device for control a computing device based on user motion
WO2020009715A2 (en) Tracking user movements to control a skeleton model in a computer system
CN114706489B (en) Virtual method, device, equipment and storage medium of input equipment
CN110209270B (en) Data glove, data glove system, correction method and storage medium
JP2023008347A (en) Attachment device and body motion supporting system
WO2022176928A1 (en) Teaching device
CN111475019A (en) Virtual reality gesture interaction system and method
JP7394046B2 (en) System, imaging device, information processing device, information processing method, and information processing program
CN114791284B (en) Calibration method and device of electronic compass in robot and robot
US20240175893A1 (en) Information processing apparatus, information processing method, and program
CN117519473A (en) Handle tracking method, head display device, display system and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231027

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231027

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240516