JP2023008347A - Attachment device and body motion supporting system - Google Patents
Attachment device and body motion supporting system Download PDFInfo
- Publication number
- JP2023008347A JP2023008347A JP2021111852A JP2021111852A JP2023008347A JP 2023008347 A JP2023008347 A JP 2023008347A JP 2021111852 A JP2021111852 A JP 2021111852A JP 2021111852 A JP2021111852 A JP 2021111852A JP 2023008347 A JP2023008347 A JP 2023008347A
- Authority
- JP
- Japan
- Prior art keywords
- accuracy
- motion
- user
- unit
- feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 99
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 230000009471 action Effects 0.000 claims description 16
- 230000010365 information processing Effects 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、装着デバイス及び身体動作支援システムに関する。 The present invention relates to a wearable device and a body movement assistance system.
運動姿勢を計測して指導を行うことが行われている(特許文献1参照)。 Guidance is provided by measuring exercise postures (see Patent Document 1).
しかしながら、特許文献1に記載のシステムでは、ユーザの姿勢を正確に把握することが難しい。 However, in the system described in Patent Document 1, it is difficult to accurately grasp the posture of the user.
本発明はこのような背景を鑑みてなされたものであり、ユーザの身体の動きを正確に把握することができる技術を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of accurately grasping the movement of a user's body.
上記課題を解決するための本発明の主たる発明は、ユーザの身体に装着される装着デバイスであって、運動を検出するセンサと、フィードバックデバイスと、前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、マイクロコントローラと、を備え、前記マイクロコントローラが、前記ユーザが行う前記動作種別を情報処理装置から取得し、前記センサから前記検出値を取得し、前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、前記正確度に応じて前記フィードバックデバイスを動作させること、を特徴とする。 The main invention of the present invention for solving the above problems is a wearable device worn on a user's body, comprising a sensor for detecting exercise, a feedback device, a motion type performed by the user, and a detection value of the sensor. and a microcontroller, wherein the microcontroller determines the type of action performed by the user. obtaining from an information processing device, obtaining the detected value from the sensor, providing the operation and the detected value to the classifier to obtain the accuracy, and operating the feedback device according to the accuracy; characterized by
その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed by the present application and solutions thereof will be clarified by the section of the embodiment of the invention and the drawings.
本発明によれば、ユーザの身体の動きを正確に把握することができる。 ADVANTAGE OF THE INVENTION According to this invention, a motion of a user's body can be grasped|ascertained correctly.
<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
ユーザの身体に装着される装着デバイスであって、
運動を検出するセンサと、
フィードバックデバイスと、
前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、
マイクロコントローラと、を備え、
前記マイクロコントローラが、
前記ユーザが行う前記動作種別を情報処理装置から取得し、
前記センサから前記検出値を取得し、
前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、
前記正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする装着デバイス。
[項目2]
ユーザの身体動作を支援するシステムであって、
前記ユーザの身体に装着される装着デバイスと、前記装着デバイスと通信可能に接続される情報処理装置とを含んで構成され、
前記装着デバイスは、
運動を検出するセンサと、
フィードバックデバイスと、
を備え、
前記情報処理装置は、
前記身体のキーポイントの正解位置を記憶する記憶部と、
前記ユーザを撮影した撮影画像を取得する撮影部と、
前記撮影画像から前記キーポイントの第1の位置候補を検出する検出部と、
前記センサにより検出された前記運動を取得する運動取得部と、
前記運動から前記キーポイントの第2の位置候補を推定する推定部と、
前記第1及び第2の位置候補に基づいて、前記キーポイントの位置を決定する位置決定部と、
前記位置及び前記正解位置を比較して前記位置の正確度を求める正確度決定部と、
前記正確度に応じて前記触覚フォードバックデバイスを動作させるように前記装着デバイスを制御する制御部と、
を備えること、
を特徴とする身体動作支援システム。
[項目3]
項目2に記載の身体動作支援システムであって、
前記センサは、9自由度の3次元慣性運動を検出する慣性計測装置であり、
前記記憶部は、前記身体の動作種別及び前記センサによる検出値を入力として、前記位置の第1の前記正確度とは異なる、前記キーポイントの動作の第2の正確度を求める分類器をさらに記憶し、
前記情報処理装置は、前記ユーザに対して特定の前記動作種別を行うように指示を出す指示部をさらに備え、
前記正確度決定部は、指示を出した前記動作種別及び前記センサによる前記検出値を前記分類器に与えて前記第2の正確度を求め、
前記制御部は、前記第2の正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする身体動作支援システム。
[項目4]
項目3に記載の身体動作支援システムであって、
前記情報処理装置は、
前記第1及び第2の正確度の範囲に対応付けて、前記ユーザに対するテキスト、動画又は音声によるフィードバックを記憶するフィードバック記憶部と、
前記第1及び第2の正確度に対応する前記フィードバックを読み出して出力するフィードバック出力部と、
をさらに備えることを特徴とする身体動作支援システム。
<Overview of the invention>
The contents of the embodiments of the present invention are listed and explained. The present invention has, for example, the following configurations.
[Item 1]
A wearable device worn on a user's body, comprising:
a sensor that detects motion;
a feedback device;
a storage device that stores a classifier for determining the accuracy of movement of the part to which the wearable device is worn based on input of the type of motion performed by the user and the detection value of the sensor;
a microcontroller, and
The microcontroller
acquiring the action type performed by the user from an information processing device;
obtaining the detected value from the sensor;
applying the motion and the detected value to the classifier to determine the accuracy;
operating the feedback device according to the accuracy;
A wearable device characterized by:
[Item 2]
A system for supporting a user's body movement,
comprising a wearable device worn on the user's body and an information processing device communicably connected to the wearable device,
The wearable device comprises:
a sensor that detects motion;
a feedback device;
with
The information processing device is
a storage unit that stores the correct positions of the key points of the body;
a photographing unit that acquires a photographed image of the user;
a detection unit that detects a first position candidate of the key point from the captured image;
a motion acquisition unit that acquires the motion detected by the sensor;
an estimator for estimating a second candidate location of the keypoint from the motion;
a position determination unit that determines a position of the keypoint based on the first and second position candidates;
an accuracy determining unit that compares the position and the correct position to determine the accuracy of the position;
a controller for controlling the wearable device to operate the haptic feedback device according to the accuracy;
to provide
A body movement support system characterized by:
[Item 3]
The body movement support system according to item 2,
The sensor is an inertial measurement device that detects three-dimensional inertial motion with nine degrees of freedom,
The storage unit further includes a classifier that obtains a second accuracy of the motion of the keypoint, which is different from the first accuracy of the position, by inputting the type of motion of the body and the value detected by the sensor. remember,
The information processing device further includes an instruction unit that instructs the user to perform the specific action type,
The accuracy determination unit obtains the second accuracy by providing the type of motion that has issued the instruction and the detection value by the sensor to the classifier,
the control unit operating the feedback device according to the second accuracy;
A body movement support system characterized by:
[Item 4]
The body movement support system according to item 3,
The information processing device is
a feedback storage unit that stores text, video, or audio feedback for the user in association with the first and second accuracy ranges;
a feedback output unit that reads and outputs the feedback corresponding to the first and second accuracies;
A body movement support system, further comprising:
<システムの概要>
以下、本発明の一実施形態に係る身体動作支援システムについて説明する。本実施形態の身体動作支援システムは、ユーザに正しい身体の動きを指導しようとするものである。例えば、正しいヨガのポーズを指導することができる。本実施形態の身体動作支援システムでは、ユーザには手首や足首、太腿などの各部位にデバイス(以下、装着デバイスという。)を装着させ、装着デバイスが各部位の動きや姿勢を検出してユーザの姿勢や動きの妥当性を検証する。また、本実施形態の身体動作支援システムでは、スマートフォンなどのカメラを備えたユーザ端末を用いてユーザの姿勢を撮影し、ユーザの部位の位置を検出し、装着デバイスからの測定値と画像から検出した部位の位置に基づいてユーザの姿勢や動きの妥当性を検証することもできる。さらに、本実施形態の身体動作支援システムでは、装着デバイスには触覚フィードバック装置が搭載されており、修正の必要な部位の装着デバイスから触覚フィードバック装置によるフィードバックを行うことで、部位の姿勢が正しくないことを通知することができる。
<Overview of the system>
A body movement support system according to an embodiment of the present invention will be described below. The body movement support system of this embodiment is intended to guide the user in correct body movement. For example, it can teach correct yoga poses. In the body movement support system of this embodiment, the user wears a device (hereinafter referred to as a wearable device) on each part such as a wrist, ankle, and thigh, and the wearable device detects the movement and posture of each part. Validate user posture and movement. In addition, in the body movement support system of the present embodiment, a user terminal equipped with a camera such as a smartphone is used to photograph the user's posture, detect the position of the user's body part, and detect it from the measurement value and the image from the wearable device. It is also possible to verify the validity of the user's posture and movement based on the position of the body part. Furthermore, in the body movement support system of this embodiment, the wearable device is equipped with a tactile feedback device. can be notified.
図1は、本実施形態の身体動作支援システムの全体構成例を示す図である。本実施形態の身体動作支援システムは、ユーザ端末10及び装着デバイス30を含んで構成される。
FIG. 1 is a diagram showing an example of the overall configuration of the body movement support system of this embodiment. The body movement support system of this embodiment includes a user terminal 10 and a wearing
ユーザ端末10は、例えば、スマートフォンやスマートウォッチ、タブレットコンピュータ、パーソナルコンピュータなどのコンピュータである。ユーザ端末10からユーザに対して身体の動作(例えば、取るべきヨガのポーズ)の指示が出される。ユーザ端末10は撮影機能を備えており、ユーザを撮影し、撮影画像からユーザの特定部位(以下、キーポイントという。)を検出して、ユーザの姿勢を評価することができる。 The user terminal 10 is, for example, a computer such as a smart phone, smart watch, tablet computer, or personal computer. The user terminal 10 issues instructions to the user about body movements (for example, yoga poses to be taken). The user terminal 10 has a photographing function, and can photograph the user, detect specific parts of the user (hereinafter referred to as key points) from the photographed image, and evaluate the posture of the user.
装着デバイス30は、ユーザの身体に装着されるデバイスである。装着デバイス30は、手首や足首、太腿などの部位に装着される。装着デバイス30は装着された部位の動きや姿勢を検出するセンサと、ユーザに対してフィードバック(本実施形態では触覚フィードバックを想定するが、音声や光などのフィードバックであってもよい。)を与える触覚フィードバック装置(バイブレータなど)と、ユーザの部位の位置や動きが正しいかどうかを検証するマイクロコントローラとを備える。
The wearing
<装着デバイス>
図2は、装着デバイス30のハードウェア構成例を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。装着デバイス30は、IMU311、通信部312、触覚フィードバック装置313、マイクロコントローラ314を備える。
<Wearing device>
FIG. 2 is a diagram showing a hardware configuration example of the mounting
IMU311は、運動を検出するセンサである。本実施形態では、IMU311は、三次元の慣性運動を検出する慣性計測装置(Inertial Measurement Unit)である。本実施形態では、IMU311は、三次元の加速度センサ、三次元のジャイロセンサ、三次元の磁気センサを含み、9自由度の測定を行うことができることを想定している。
The
通信部312は、ユーザ端末10との通信を行う。通信部312は、例えば、BlueTooth(登録商標)などによる近距離通信を行うようにしてもよいし、WiFiなどの通信を行うようにしてもよい。 The communication unit 312 communicates with the user terminal 10 . The communication unit 312 may perform short-range communication using, for example, BlueTooth (registered trademark), or may perform communication such as WiFi.
触覚フィードバック装置313は、ユーザに対して力、振動、動きなどを与えることにより皮膚感覚のフィードバックを得ることを可能とする装置である。 The tactile feedback device 313 is a device that makes it possible to obtain tactile feedback by applying force, vibration, movement, or the like to the user.
マイクロコントローラ314は、装着デバイス30を制御する装置である。マイクロコントローラ314は、メモリ315に記憶されているプログラムを実行することにより各種の機能を実現することが可能である。メモリ315は、例えば、各種のデータやプログラムを記憶する、例えばフラッシュメモリなどである。
Microcontroller 314 is the device that controls
図3は、装着デバイス30のソフトウェア構成例を示す図である。装着デバイス30は、動作種別取得部321、検出値取得部322、正確度推定部323、フィードバック部324、検出値送信部325、コマンド受信部326、分類器記憶部331を備える。
FIG. 3 is a diagram showing a software configuration example of the
動作種別取得部321は、ユーザが行う動作種別を外部装置から取得する。動作種別は例えばヨガのポーズなどである。動作種別取得部321は、例えば、ユーザ端末10から動作種別を取得することができる。 The action type acquisition unit 321 acquires the action type performed by the user from an external device. The motion type is, for example, a yoga pose. The motion type acquisition unit 321 can acquire the motion type from the user terminal 10, for example.
検出値取得部322は、IMU311が検出した6自由度の値(検出値)を取得する。
The detected
検出値送信部325は、検出値を外部に送信する。本実施形態では、検出値送信部325は、ユーザ端末10に検出値を送信する。 The detected value transmission unit 325 transmits the detected value to the outside. In this embodiment, the detected value transmission unit 325 transmits the detected value to the user terminal 10 .
分類器記憶部331は、機械学習による学習済みの学習モデルである分類器を記憶する。分類器記憶部331が記憶する分類器は、ユーザが行う動作種別と、IMU311の検出値とを入力として、装着デバイス30が装着される部位の動きの正確度を推論するための学習モデルである。なお、分類器記憶部331は、動作種別に対応付けて分類器を記憶するようにしてもよい。この場合、動作種別ごとの分類器には、動作種別は入力せず、IMU311の検出値を入力する。分類器は、身体の部位別に学習済みの学習モデルとすることができ、装着デバイス30が装着される部位ごとの分類器が予め分類器記憶部331に登録されているものとする。
The classifier storage unit 331 stores a classifier that is a learning model that has been learned by machine learning. The classifier stored in the classifier storage unit 331 is a learning model for inferring the accuracy of the movement of the part to which the
正確度推定部323は、ユーザの身体の動きの正確度を推定する。本実施形態では、正確度推定部323は、装着デバイス30が装着されている部位の位置や姿勢、動きの正確度を推定する。正確度推定部323は、動作種別と、検出値取得部322が取得した検出値とを分類器に与えて正確度を推論することができる。
The accuracy estimation unit 323 estimates the accuracy of the motion of the user's body. In this embodiment, the accuracy estimation unit 323 estimates the accuracy of the position, posture, and movement of the part to which the
フィードバック部324は、正確度に応じて触覚フィードバック装置313を動作させる。フィードバック部324は、例えば、正確度が低くなるほど感触が強くなるように(例えば振動が大きく、強く、速くなるように)触覚フィードバック装置313を制御(例えば動作パラメータを設定)することができる。 A feedback unit 324 operates the haptic feedback device 313 according to the accuracy. The feedback unit 324 can, for example, control the haptic feedback device 313 (eg, set operation parameters) so that the lower the accuracy, the stronger the feel (eg, the larger, stronger, faster vibration).
コマンド受信部326は、外部から触覚フィードバック装置313を動作させるためのコマンドを受信する。フィードバック部324は、コマンドに応じて触覚フィードバック装置313を動作させることもできる。
The
<ユーザ端末10>
図4は、ユーザ端末10のハードウェア構成例を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。ユーザ端末は、CPU101、メモリ102、記憶装置103、通信インタフェース104、カメラ105、タッチパネルディスプレイ106を備える。記憶装置103は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース104は、通信ネットワークに接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。タッチパネルディスプレイ106は、データを入出力するデバイスである。なお、後述するユーザ端末10の各機能部は、記憶装置103に記憶されているプログラムをメモリ102に読み出して実行することにより実現され、ユーザ端末10の各記憶部は、メモリ102及び記憶装置103が提供する記憶領域の一部として実現される。
<User terminal 10>
FIG. 4 is a diagram showing a hardware configuration example of the user terminal 10. As shown in FIG. Note that the illustrated configuration is an example, and other configurations may be employed. A user terminal includes a
図5は、ユーザ端末10のソフトウェア構成例を示す図である。ユーザ端末10は、インストラクション出力部111、撮影部112、位置検出部113、検出値取得部114、位置推定部115、位置決定部116、正確度決定部117、制御部118、フィードバック出力部119、インストラクション記憶部131、正解位置記憶部132、分類器記憶部133、フィードバック記憶部134を備える。
FIG. 5 is a diagram showing a software configuration example of the user terminal 10. As shown in FIG. The user terminal 10 includes an
インストラクション記憶部131は、ユーザに対する身体の動きの指示(インストラクション)を含む情報(以下、インストラクション情報という。)記憶する。インストラクション情報には、タイミング、インストラクション、及び動作種別を含めることができる。インストラクションは、例えば、文字情報、音声、静止画像、もしくは動画像、またはこれらの組み合わせとすることができる。インストラクションは、例えば、ヨガにおいて次にとるべきポーズとすることができる。タイミングは、インストラクションを出力するタイミングである。タイミングは、例えば時刻情報とすることができ、例えば、運動開始からの経過時間として表現することができる。動作種別は、インストラクションで指示される身体の動きの種類である。なお、身体の動き以外の指示(例えば説明など)については動作種別を設定せず、あるいは特別な種別を示す情報を設定することができる。 The instruction storage unit 131 stores information (hereinafter referred to as instruction information) including a body movement instruction (instruction) for the user. Instruction information can include timing, instructions, and action types. Instructions can be, for example, textual information, audio, still or moving images, or a combination thereof. The instructions can be, for example, the next pose to do in yoga. Timing is timing for outputting an instruction. The timing can be, for example, time information, and can be expressed, for example, as elapsed time from the start of exercise. The motion type is the type of body motion instructed by the instruction. For instructions other than body movement (for example, explanation), the action type may not be set, or information indicating a special type may be set.
正解位置記憶部132は、ユーザの身体の姿勢を特定するためのキーとなる部位(以下、キーポイントという。)の正解位置を含む情報(以下、正解情報という。)を記憶する。正解情報には、部位を特定する情報に対応付けて、当該部位の正解位置を含むことができる。正解位置は、例えば、身体の標準位置からの相対位置として表現することができ、例えば、標準位置(例えば床の特定地点など)を原点とした3次元座標の座標値とすることができる。また、正解情報には、位置のみならず姿勢(正解姿勢)を含めることができる。正解位置及び正解姿勢に代えて又は加えて、装着デバイス30のIMU311が計測可能な9自由度のベクトルで表現した正解データを含めるようにしてもよい。
The correct position storage unit 132 stores information (hereinafter referred to as correct information) including correct positions of key parts (hereinafter referred to as key points) for specifying the posture of the user's body. The correct information can include the correct position of the part in association with the information specifying the part. The correct position can be represented, for example, as a relative position from the standard position of the body, and can be, for example, a coordinate value of three-dimensional coordinates with the standard position (for example, a specific point on the floor) as the origin. Further, the correct information can include not only the position but also the posture (correct posture). Instead of or in addition to the correct position and correct posture, correct data expressed by a vector with nine degrees of freedom that can be measured by the
分類器記憶部133は、機械学習により作成された学習モデルとしての分類器を記憶する。分類器記憶部133が記憶する分類器は、身体の動作種別及びIMU311による検出値を入力として、身体のキーポイントの動きに関する正確度を推論するためのモデルである。
The
なお、分類器記憶部133は、動作種別に対応付けて分類器を記憶するようにしてもよく、この場合の分類器は、動作種別を入力せず、検出値を入力として部位の動きに係る正確度を推論することができる。
Note that the
フィードバック記憶部134は、ユーザに対するテキスト、動画又は音声によるフィードバックを行うための情報(以下、フィードバック情報という。)を記憶する。フィードバック情報には、正確度の範囲に対応付けて、例えば、「もう少し上」、「もっと上」、「もう少し前」、「もっと前」、「もう少し早く」、「もっと早く」などの、ユーザによる動作の改善に係るアドバイスを含めることができる。正確度の範囲は、位置の正確度、姿勢の正確度、及び/又は動きの正確度の範囲とすることができる。 The feedback storage unit 134 stores information (hereinafter referred to as feedback information) for giving text, video, or audio feedback to the user. The feedback information includes user-defined values associated with accuracy ranges, such as "a little more", "more", "a little earlier", "more earlier", "a little sooner", and "faster". Advice on improving performance can be included. The accuracy range may be a position accuracy range, a pose accuracy range, and/or a motion accuracy range.
インストラクション出力部111は、ユーザに対して特定の動作種別を行うように指示(インストラクション)を出す。本実施形態では、インストラクション出力部111は、インストラクション記憶部131に記憶されているインストラクションを、タイミングに合わせて読み出して出力することができる。なお、インストラクション出力部111は、テキストデータを読み上げた音声データを出力するようにしてもよい。
The
撮影部112は、ユーザを撮影した撮影画像を取得する。撮影部112は、カメラ105を制御して撮影画像を取得することができる。 The photographing unit 112 acquires a photographed image of the user. The imaging unit 112 can acquire a captured image by controlling the camera 105 .
位置検出部113は、撮影画像からキーポイントの第1の位置候補を検出する。位置検出部113は、公知のCV(Computer Vision)の手法を用いて画像解析により撮影画像からキーポイントを検出するとともに、標準位置(例えば床の特定地点など)を検出し、標準位置からの相対位置を計算することができる。
The
検出値取得部114は、装着デバイス30のIMU311により検出された運動(検出値)を取得する。検出値取得部114は、装着デバイス30のそれぞれと通信を行い、検出値を取得することができる。
The detected value acquisition unit 114 acquires motion (detected value) detected by the
位置推定部115は、検出値からキーポイントの第2の位置候補を推定する。IMU311の検出値からキーポイントの位置を推定する処理については公知の手法を用いることができる。
A position estimation unit 115 estimates a second position candidate of the keypoint from the detected value. A known technique can be used for the process of estimating the keypoint position from the detection value of the
位置決定部116は、第1及び第2の位置候補に基づいて、キーポイントの位置を決定する。位置決定部116は、撮影画像から第1の位置候補を検出できた場合には、第1の位置候補をキーポイントの位置として決定するようにしてもよい。位置決定部116は、撮影画像から第1の位置候補を検出できなかった場合(例えば、キーポイントが死角に入りカメラ105から視認不能になっていた場合)には、第2の位置候補をキーポイントの位置として決定するようにしてもよい。また、撮影画像から検出した第1の位置候補を、IMU311からの検出値に基づいて補正するようにしてもよい。また、位置決定部116は、検出値からキーポイントの姿勢及び単位時間における動き(スピード等)を求めるようにすることもできる。
A position determination unit 116 determines the position of the keypoint based on the first and second position candidates. If the first position candidate can be detected from the captured image, the position determination unit 116 may determine the first position candidate as the position of the keypoint. When the position determination unit 116 cannot detect the first position candidate from the captured image (for example, when the key point is in a blind spot and is invisible from the camera 105), the position determination unit 116 selects the second position candidate as a key point. You may make it determine as a position of a point. Also, the first position candidate detected from the captured image may be corrected based on the detection value from the
正確度決定部117は、決定した位置と、正解位置記憶部132に記憶されている正解位置とを比較して、キーポイントの位置の正確度(第1の正確度)を決定する。正確度決定部117は、位置のみでなく、姿勢についても正解位置記憶部132に記憶されている正解姿勢と比較して正確度(第2の正確度)を評価し、位置に係る第1の正確度と、姿勢に係る第2の正確度とに応じて最終的な正確度を決定することもできる。正確度決定部117は、部位ごとに第1の正確度、第2の正確度、及び/又は最終的な正確度を決定することができる。
The
また、正確度決定部117は、部位の動きに係る正確度(第3の正確度)を決定することもできる。第3の正確度は、分類器記憶部133に記憶されている分類器に、動作種別とIMU311からの検出値とを与えることにより推論することができる。正確度決定部117は、第1ないし第3の正確度に応じて最終的な正確度を決定するようにしてもよい。
The
制御部118は、第1の正確度、第2の正確度及び/又は最終的な正確度に応じて装着デバイス30の触覚フォードバック装置313を動作させるように装着デバイス30を制御する。制御部118は、例えば、正確度が低いほど大きく動作するように触覚フィードバック装置313を動作させるようにすることができる。制御部118は、部位に対応する装着デバイス30に対してコマンドを送信することで触覚フィードバック装置313を動作させることができる。
The controller 118 controls the mounting
また、制御部118は、第2の正確度に応じて触覚フィードバックデバイスを動作させることもできる。 Controller 118 can also operate the haptic feedback device according to the second degree of accuracy.
フィードバック出力部119は、正確度に対応するフィードバックをフィードバック記憶部134から読み出して出力することができる。 The feedback output unit 119 can read feedback corresponding to accuracy from the feedback storage unit 134 and output it.
<動作>
図6は、本実施形態の身体動作支援システムの動作を説明する図である。
<Action>
FIG. 6 is a diagram for explaining the operation of the body movement support system of this embodiment.
ユーザ端末10は、インストラクションを出力する(S401)。例えば、ヨガの場合、次にとるべきポーズを指示することができる。上述したように、ユーザ端末10は、インストラクション記憶部131に記憶されているインストラクションを、タイミングに合わせて出力することができる。 The user terminal 10 outputs an instruction (S401). For example, in yoga, it can tell you what pose to do next. As described above, the user terminal 10 can output instructions stored in the instruction storage unit 131 in time.
ユーザ端末10は、装着デバイス30に動作種別を送信する(S402)。ユーザ端末10は、インストラクションに対応する動作種別をインストラクション記憶部131から取得することができる。 The user terminal 10 transmits the action type to the wearable device 30 (S402). The user terminal 10 can acquire the action type corresponding to the instruction from the instruction storage unit 131 .
装着デバイス30では、IMU311の検出値を取得し(S421)、ユーザ端末10から受信した動作種別に対応する分類器に、IMU311からの検出値を与えて正確度を推論する(S422)。なお、分類器が特徴量として動作種別を受け付ける場合には、動作種別と検出値とを分類器に与えるようにしてもよい。装着デバイス30は、求めた正確度に応じて触覚フィードバック装置313を動作させる(S423)。例えば、正確度が低いほど大きい感触が伝わるように触覚フィードバック装置313の動作を制御することができる。
The
また、装着デバイス30は、IMU311からの検出値をユーザ端末10に送信する(S424)。
Also, the mounting
ユーザ端末10では、カメラ105を起動してユーザを撮影し(S403)、撮影画像からキーポイントの第1位置を検出する(S404)。また、ユーザ端末10は、装着デバイス30から受信した検出値に基づいて、キーポイントの第2位置を推定する(S405)。ユーザ端末10は、第1位置及び第2位置に基づいてキーポイントの位置を決定し(S406)、決定した位置と、正解位置とを比較して正確度を決定する(S407)。ユーザ端末10は、正確度に応じたパラメータを設定したフィードバックのコマンドを装着デバイス30に送信し(S408)、装着デバイス30は、コマンドに応じて触覚フィードバック装置313を動作させる(S425)。例えば、正確度が低いほど大きな感触となるようなパラメータを設定することができる。
The user terminal 10 activates the camera 105 to photograph the user (S403), and detects the first position of the key point from the photographed image (S404). Also, the user terminal 10 estimates the second position of the key point based on the detection value received from the wearable device 30 (S405). The user terminal 10 determines the position of the key point based on the first position and the second position (S406), and compares the determined position with the correct position to determine accuracy (S407). The user terminal 10 transmits a feedback command in which parameters corresponding to the accuracy are set to the wearing device 30 (S408), and the wearing
ユーザ端末10はまた、正確度に応じたフィードバックをフィードバック記憶部134から読み出し、読み出したフィードバックを出力する(S409)。 The user terminal 10 also reads the feedback according to the accuracy from the feedback storage unit 134 and outputs the read feedback (S409).
以上のようにして、本実施形態の身体動作支援システムによれば、ユーザの身体に装着した装着デバイス30が自律的に装着部位の動作の正誤を判断し、触覚フィードバック装置313を用いてユーザの身体に直接フィードバックを与えることができる。これによりユーザは部位の位置や動きを修正して正しい姿勢に修正をすることができる。
As described above, according to the body movement support system of the present embodiment, the
また、本実施形態の身体動作支援システムによれば、スマートフォン等のユーザ端末10を用いて撮影画像からユーザの身体の姿勢の正確度を判定することができ、正確度に応じたアドバイスを返すことができる。また、身体のキーポイントがカメラに映らないような場合であっても、装着デバイス30からのIMU検出値を用いてキーポイントの位置を推定して姿勢の正確度を判定することができる。
In addition, according to the body movement support system of the present embodiment, the user terminal 10 such as a smartphone can be used to determine the accuracy of the user's body posture from the captured image, and the advice corresponding to the accuracy can be returned. can be done. Also, even if the body keypoints are not captured by the camera, the IMU detection values from the
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above-described embodiment is intended to facilitate understanding of the present invention, and is not intended to limit and interpret the present invention. The present invention can be modified and improved without departing from its spirit, and the present invention also includes equivalents thereof.
例えば、本実施形態では、正確度に応じたフィードバック(アドバイス)は予め正確度の範囲に対応付けて用意されているものとしたが、アドバイスを生成する生成器を用いるようにしてもよい。この場合、キーポイントの位置や姿勢とアドバイスとを機械学習により生成器を作成し、キーポイントの位置を生成器に与えてアドバイスを生成させるようにすることができる。 For example, in the present embodiment, the feedback (advice) according to accuracy is prepared in advance in association with the range of accuracy, but a generator that generates advice may be used. In this case, it is possible to create a generator based on the positions and postures of the keypoints and the advice by machine learning, and give the positions of the keypoints to the generator to generate the advice.
また、本実施形態では、装着デバイス30に予め分類器を記憶するものとしたが、ユーザ端末10から分類器を装着デバイス30に送信してインストールするようにしてもよい。また、ユーザ端末10はサーバ装置(不図示)から、装着デバイス30にインストールする部位毎の分類器と、分類器記憶部133に記憶する分類器とを取得するようにしてもよい。
Further, in the present embodiment, the classifier is stored in the
また、本実施形態では、ユーザ端末10においてはキーポイント(部位)の位置や姿勢と正解位置や正解姿勢とを比較して正確度を求めるものとしたが、学習モデル(分類器)に位置及び姿勢を与えて第1及び第2の正確度を推論するようにしてもよい。この場合の学習モデルは、位置を入力データとし、第1の正解度を教師データとして学習した、第1の正確度を求めるための学習モデルと、姿勢(又はIMU311の9自由度の検出値)を入力データとし、第2の正解度を教師データとして学習した、第2の正確度を求めるための学習モデルとを含むことができる。 In the present embodiment, the user terminal 10 compares the positions and orientations of key points (parts) with the correct positions and correct orientations to obtain accuracy. A pose may be given to infer the first and second degrees of accuracy. The learning model in this case includes a learning model for obtaining the first degree of accuracy, which is learned using the position as input data and the first degree of accuracy as teacher data, and the posture (or the detection values of the 9 degrees of freedom of the IMU 311). and a learning model for obtaining a second degree of accuracy, which is learned using the input data and the second degree of correctness as teacher data.
111 インストラクション出力部
112 撮影部
113 位置検出部
114 検出値取得部
115 位置推定部
116 位置決定部
117 正確度決定部
118 制御部
119 フィードバック出力部
131 インストラクション記憶部
132 正解位置記憶部
133 分類器記憶部
134 フィードバック記憶部
311 IMU
312 通信部
313 触覚フィードバック装置
314 マイクロコントローラ
321 動作種別取得部
322 検出値取得部
323 正確度推定部
324 フィードバック部
325 検出値送信部
326 コマンド受信部
331 分類器記憶部
111 instruction output unit 112
312 communication unit 313 tactile feedback device 314 microcontroller 321 motion
Claims (4)
運動を検出するセンサと、
フィードバックデバイスと、
前記ユーザが行う動作種別及び前記センサの検出値を入力として、前記装着デバイスが装着される部位の動きの正確度を求めるための分類器を記憶する記憶装置と、
マイクロコントローラと、を備え、
前記マイクロコントローラが、
前記ユーザが行う前記動作種別を情報処理装置から取得し、
前記センサから前記検出値を取得し、
前記動作及び前記検出値を前記分類器に与えて前記正確度を求め、
前記正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする装着デバイス。 A wearable device worn on a user's body, comprising:
a sensor that detects motion;
a feedback device;
a storage device that stores a classifier for determining the accuracy of movement of the part to which the wearable device is worn based on input of the type of motion performed by the user and the detection value of the sensor;
a microcontroller, and
The microcontroller
acquiring the action type performed by the user from an information processing device;
obtaining the detected value from the sensor;
applying the motion and the detected value to the classifier to determine the accuracy;
operating the feedback device according to the accuracy;
A wearable device characterized by:
前記ユーザの身体に装着される装着デバイスと、前記装着デバイスと通信可能に接続される情報処理装置とを含んで構成され、
前記装着デバイスは、
運動を検出するセンサと、
フィードバックデバイスと、
を備え、
前記情報処理装置は、
前記身体のキーポイントの正解位置を記憶する記憶部と、
前記ユーザを撮影した撮影画像を取得する撮影部と、
前記撮影画像から前記キーポイントの第1の位置候補を検出する検出部と、
前記センサにより検出された前記運動を取得する運動取得部と、
前記運動から前記キーポイントの第2の位置候補を推定する推定部と、
前記第1及び第2の位置候補に基づいて、前記キーポイントの位置を決定する位置決定部と、
前記位置及び前記正解位置を比較して前記位置の正確度を求める正確度決定部と、
前記正確度に応じて前記触覚フォードバックデバイスを動作させるように前記装着デバイスを制御する制御部と、
を備えること、
を特徴とする身体動作支援システム。 A system for supporting a user's body movement,
comprising a wearable device worn on the user's body and an information processing device communicably connected to the wearable device,
The wearable device comprises:
a sensor that detects motion;
a feedback device;
with
The information processing device is
a storage unit that stores the correct positions of the key points of the body;
a photographing unit that acquires a photographed image of the user;
a detection unit that detects a first position candidate of the key point from the captured image;
a motion acquisition unit that acquires the motion detected by the sensor;
an estimator for estimating a second candidate location of the keypoint from the motion;
a position determination unit that determines a position of the keypoint based on the first and second position candidates;
an accuracy determining unit that compares the position and the correct position to determine the accuracy of the position;
a controller for controlling the wearable device to operate the haptic feedback device according to the accuracy;
to provide
A body movement support system characterized by:
前記センサは、9自由度の3次元慣性運動を検出する慣性計測装置であり、
前記記憶部は、前記身体の動作種別及び前記センサによる検出値を入力として、前記位置の第1の前記正確度とは異なる、前記キーポイントの動作の第2の正確度を求める分類器をさらに記憶し、
前記情報処理装置は、前記ユーザに対して特定の前記動作種別を行うように指示を出す指示部をさらに備え、
前記正確度決定部は、指示を出した前記動作種別及び前記センサによる前記検出値を前記分類器に与えて前記第2の正確度を求め、
前記制御部は、前記第2の正確度に応じて前記フィードバックデバイスを動作させること、
を特徴とする身体動作支援システム。 The body movement support system according to claim 2,
The sensor is an inertial measurement device that detects three-dimensional inertial motion with nine degrees of freedom,
The storage unit further includes a classifier that obtains a second accuracy of the motion of the keypoint, which is different from the first accuracy of the position, by inputting the type of motion of the body and the value detected by the sensor. remember,
The information processing device further includes an instruction unit that instructs the user to perform the specific action type,
The accuracy determination unit obtains the second accuracy by providing the type of motion that has issued the instruction and the detection value by the sensor to the classifier,
the control unit operating the feedback device according to the second accuracy;
A body movement support system characterized by:
前記情報処理装置は、
前記第1及び第2の正確度の範囲に対応付けて、前記ユーザに対するテキスト、動画又は音声によるフィードバックを記憶するフィードバック記憶部と、
前記第1及び第2の正確度に対応する前記フィードバックを読み出して出力するフィードバック出力部と、
をさらに備えることを特徴とする身体動作支援システム。 The body movement support system according to claim 3,
The information processing device is
a feedback storage unit that stores text, video, or audio feedback for the user in association with the first and second accuracy ranges;
a feedback output unit that reads and outputs the feedback corresponding to the first and second accuracies;
A body movement support system, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021111852A JP2023008347A (en) | 2021-07-05 | 2021-07-05 | Attachment device and body motion supporting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021111852A JP2023008347A (en) | 2021-07-05 | 2021-07-05 | Attachment device and body motion supporting system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023008347A true JP2023008347A (en) | 2023-01-19 |
Family
ID=85111774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021111852A Pending JP2023008347A (en) | 2021-07-05 | 2021-07-05 | Attachment device and body motion supporting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023008347A (en) |
-
2021
- 2021-07-05 JP JP2021111852A patent/JP2023008347A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10635166B2 (en) | Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system | |
US11009941B2 (en) | Calibration of measurement units in alignment with a skeleton model to control a computer system | |
US11474593B2 (en) | Tracking user movements to control a skeleton model in a computer system | |
JP5987247B2 (en) | Motion capture pointer by data fusion | |
US10353482B2 (en) | Systems and methods for tracking motion and gesture of heads and eyes | |
US11083950B2 (en) | Information processing apparatus and information processing method | |
US11481029B2 (en) | Method for tracking hand pose and electronic device thereof | |
TW201911133A (en) | Controller tracking for multiple degrees of freedom | |
US10976863B1 (en) | Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
US11079860B2 (en) | Kinematic chain motion predictions using results from multiple approaches combined via an artificial neural network | |
US11009964B2 (en) | Length calibration for computer models of users to generate inputs for computer systems | |
EP2947549A1 (en) | Apparartus and method for navigating through volume image | |
US20190272034A1 (en) | Motion detection system, motion detection method and computer-readable recording medium thereof | |
WO2021178138A1 (en) | Ring device for control a computing device based on user motion | |
WO2020009715A2 (en) | Tracking user movements to control a skeleton model in a computer system | |
CN114706489B (en) | Virtual method, device, equipment and storage medium of input equipment | |
CN110209270B (en) | Data glove, data glove system, correction method and storage medium | |
JP2023008347A (en) | Attachment device and body motion supporting system | |
WO2022176928A1 (en) | Teaching device | |
CN111475019A (en) | Virtual reality gesture interaction system and method | |
JP7394046B2 (en) | System, imaging device, information processing device, information processing method, and information processing program | |
CN114791284B (en) | Calibration method and device of electronic compass in robot and robot | |
US20240175893A1 (en) | Information processing apparatus, information processing method, and program | |
CN117519473A (en) | Handle tracking method, head display device, display system and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231027 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231027 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240516 |