JP2022158701A - Program, method, and information processor - Google Patents
Program, method, and information processor Download PDFInfo
- Publication number
- JP2022158701A JP2022158701A JP2021063771A JP2021063771A JP2022158701A JP 2022158701 A JP2022158701 A JP 2022158701A JP 2021063771 A JP2021063771 A JP 2021063771A JP 2021063771 A JP2021063771 A JP 2021063771A JP 2022158701 A JP2022158701 A JP 2022158701A
- Authority
- JP
- Japan
- Prior art keywords
- user
- terminal device
- measurement
- information
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012549 training Methods 0.000 claims abstract description 295
- 230000010365 information processing Effects 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 abstract description 460
- 238000005259 measurement Methods 0.000 description 501
- 238000011156 evaluation Methods 0.000 description 175
- 210000002683 foot Anatomy 0.000 description 111
- 230000036544 posture Effects 0.000 description 58
- 238000012545 processing Methods 0.000 description 55
- 210000002832 shoulder Anatomy 0.000 description 54
- 210000003127 knee Anatomy 0.000 description 46
- 210000001624 hip Anatomy 0.000 description 43
- 210000003205 muscle Anatomy 0.000 description 40
- 238000010586 diagram Methods 0.000 description 34
- 230000001429 stepping effect Effects 0.000 description 31
- 238000004891 communication Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 25
- 210000001503 joint Anatomy 0.000 description 20
- 230000004044 response Effects 0.000 description 19
- 210000002414 leg Anatomy 0.000 description 17
- 210000004394 hip joint Anatomy 0.000 description 16
- 238000001514 detection method Methods 0.000 description 14
- 210000001364 upper extremity Anatomy 0.000 description 13
- 210000003423 ankle Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 210000004197 pelvis Anatomy 0.000 description 10
- 238000005452 bending Methods 0.000 description 9
- 210000000988 bone and bone Anatomy 0.000 description 9
- 206010052904 Musculoskeletal stiffness Diseases 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 8
- 210000004247 hand Anatomy 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 230000008450 motivation Effects 0.000 description 6
- 208000026843 stiff neck Diseases 0.000 description 6
- 210000001015 abdomen Anatomy 0.000 description 5
- 230000002349 favourable effect Effects 0.000 description 4
- 208000008035 Back Pain Diseases 0.000 description 3
- 210000000577 adipose tissue Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 210000000038 chest Anatomy 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 208000035475 disorder Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 210000003141 lower extremity Anatomy 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 238000007665 sagging Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000003371 toe Anatomy 0.000 description 3
- 208000006820 Arthralgia Diseases 0.000 description 2
- 208000008930 Low Back Pain Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 208000024765 knee pain Diseases 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011548 physical evaluation Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 210000000115 thoracic cavity Anatomy 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 208000017667 Chronic Disease Diseases 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000008933 bodily movement Effects 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000004744 fore-foot Anatomy 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000036571 hydration Effects 0.000 description 1
- 238000006703 hydration reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 208000010729 leg swelling Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000001991 scapula Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
Description
本開示は、プログラム、方法、情報処理装置に関する。 The present disclosure relates to programs, methods, and information processing apparatuses.
ユーザの動きをカメラなどで撮影し、撮影した動画像に基づいて、ユーザの動きを評価する技術が知られている。 2. Description of the Related Art A technique is known in which a user's movement is captured by a camera or the like, and the user's movement is evaluated based on the captured moving image.
特開2016-81504号公報には、深度カメラを用いて人体の骨格に基づく競技の型を認識し、これを用いて自動的にユーザの動きを評価し、昇段有無を判定する装置に関する技術が記載されている。 Japanese Patent Application Laid-Open No. 2016-81504 discloses a technology related to a device that recognizes the type of competition based on the skeleton of the human body using a depth camera, automatically evaluates the movement of the user using this, and determines the presence or absence of a step increase. Have been described.
上記ユーザの動きをよりいっそう効果的に評価し、ユーザが自身で身体の動きを容易に確認できるようにすることができる技術が必要とされている。 There is a need for a technique that can more effectively evaluate the user's movement and allow the user to easily check the movement of the user's body.
一実施形態によると、第1のユーザがトレーニングを行うための方法であって、第1のユーザの端末が、記憶部に、1または複数のユーザの点群データに基づく情報に基づいた学習済みモデルを記憶させており、方法は、第1のユーザの端末のプロセッサが、第1のユーザの点群データに基づく情報と、学習済みモデルとに基づいて、第1のユーザへの指導内容を特定し、特定した指導内容を、第1のユーザに提示するステップを実行する、方法が提供される。 According to one embodiment, a method for training a first user, wherein a terminal of the first user stores in a memory a pre-trained training program based on information based on point cloud data of one or more users. The model is stored, and the method is such that the processor of the terminal of the first user, based on the information based on the point cloud data of the first user and the learned model, instructs the first user. A method is provided for performing the steps of identifying and presenting the identified instructional content to a first user.
本開示によれば、ユーザ自身で身体の動きを容易に確認することができる。 According to the present disclosure, the user himself/herself can easily check the movement of the body.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
<概要>
以下の実施形態では、ユーザの身体のバランス、ユーザの身体の動きを測定することにより、ユーザの身体のしなやかさを評価して、美しい姿勢(例えば、美しい歩行姿勢)を体得できるようエクササイズメニューを提供するための測定システム1について説明する。
<First embodiment>
<Overview>
In the following embodiments, by measuring the balance and movement of the user's body, the suppleness of the user's body is evaluated, and an exercise menu is provided so that the user can acquire a beautiful posture (for example, a beautiful walking posture). A
ユーザの歩行姿勢が整っていない場合、歩行動作には必ずしも必要ではない動作をすることとなるため、ユーザの力が不要に消費されてしまうことになり、疲労が蓄積しやすくなる。ユーザの歩行姿勢を美しくすることで、ユーザが身体を機能的に動かすことができ、結果として、疲労の少ない歩き方となり得る。そこで、測定システム1では、(1)ユーザの歩行時の動作を測定して、歩行姿勢を評価する(美しく、バランスよく歩くことができているかを評価する)ことと、(2)ユーザの各関節のしなやかさを測定して、関節可動域を評価するROMチェックをすること(ROM:Range of motion)と、(3)ユーザの筋力の状態を評価してトレーニングメニューを提供することとを行う。 If the walking posture of the user is not in order, the user will perform a motion that is not necessarily required for walking, so the user's strength will be unnecessarily consumed, and fatigue will easily accumulate. By improving the user's walking posture, the user can move the body functionally, and as a result, the user can walk with less fatigue. Therefore, the measurement system 1 (1) measures the motion of the user during walking to evaluate the walking posture (evaluates whether the user can walk beautifully and with good balance); (3) Evaluating the user's muscle strength and providing a training menu. .
ユーザがバランスよく歩けている場合(身体の左右の動かし方で偏りがない、歩行動作時の筋肉の動きが理想的である等)、身体の動かし方が機能的となる。ここで、機能的な動かし方とは、ユーザが不要な力を消費することなく、歩くために筋肉を動かせていることをいう。つまり、ユーザが筋肉を動かして歩行のための推進力を得ることとなるが、筋肉の動きが高い効率で推進力につながることをいう。その結果、ユーザが美しく歩いている印象を与えることができる。このようなバランスのよい歩き方をユーザが体得できるようにするにあたり、関節可動域を評価することが有効であり、測定システム1では、関節可動域の評価とともに、これら関節可動域の評価結果を前提としつつ歩行姿勢を美しく見せるために必要な筋肉のトレーニングをもユーザに提供する。 When the user is able to walk in a well-balanced manner (the way the body moves left and right is not biased, the movement of the muscles during walking is ideal, etc.), the way the user moves the body becomes functional. Here, the functional way of moving means that the user can move the muscles for walking without consuming unnecessary power. In other words, the user moves the muscles to obtain the driving force for walking, and the movement of the muscles leads to the driving force with high efficiency. As a result, it is possible to give the impression that the user is walking beautifully. It is effective to evaluate the joint range of motion in order to allow the user to learn such a well-balanced walking style. To provide a user with muscle training necessary for making a walking posture look beautiful on the premise.
以上のように、測定システム1は、ユーザの身体の動きの測定(チェック)と、ユーザの身体を動かすためのエクササイズとを提供する。
As described above, the
測定システム1は、例えば、事業会社の事業所、商業施設の施設内、店舗スペース、スタジオ、個人の家庭内等に設置され得る。例えば、事業会社が、従業員の健康管理をよりいっそう促すため、測定システム1を導入することがあり得る。また、商業施設の店舗において、測定システム1を展開することにより、健康管理サービスを消費者に向けて提供することがあり得る。
The
<1 システム全体の構成図>
図1は、測定システム1の全体の構成を示す図である。
<1 Configuration diagram of the entire system>
FIG. 1 is a diagram showing the overall configuration of a
図1に示すように、測定システム1は、ユーザの身体の動きを測定する各種センサにより構成される複数の測定ユニット(図示する例では、測定ユニット30A、30B、30Cを示している。以降、それぞれの測定ユニットを「測定ユニット30」と記載することもある)と、測定ユニットの動作を制御する端末装置10(図示する例では、端末装置10を示している。以降、複数のユーザの端末装置を記載する場合は、「端末装置10A」、「端末装置10B」などと記載することもある。また、端末装置を構成する各要素(プロセッサなど)も、同様に記載することもある。)と、ユーザの身体の動きの測定結果を蓄積するサーバ20とにより構成されている。
As shown in FIG. 1, the
測定ユニット30は、端末装置10と、有線または無線により接続される。図示するように、1つの端末装置10に対し、複数の測定ユニット30を接続することとしてもよいし、測定ユニット30それぞれに対し端末装置10を接続する(つまり、1つの測定ユニット30に対し1つの端末装置10を用意してユーザの測定を行う)こととしてもよい。
The measurement unit 30 is connected to the
測定ユニット30は、測定装置(図示する例では、測定装置31A、31B、31Cを示している。これらを総称して「測定装置31」と記載することもある)と、マット(図示する例では、マット32A、32B、32Cを示している。これらを総称して「マット32」と記載することもある)と、立体物であるポール(図示する例では、ポール33A、33B、33Cを示している。これらを総称して「ポール33」と記載することもある)とを含む。
The measurement unit 30 includes a measurement device (in the illustrated example,
測定装置31は、ユーザの身体の動きを測定するためのものであり、例えば、RGB-Dカメラ(深度センサ)により、測定対象物までの距離と方向とを検出する。測定装置31は、この他に、マイクロフォンアレイなどを備え、ユーザの音声、当該音声が到来する方向などを検出することとしてもよい。例えば、測定装置31は、Kinect(登録商標)のように、ユーザのジェスチャー、音声認識による操作を受け付けることが可能なデバイスであるとしてもよい。測定装置31は、ユーザの身体を検出することにより、ユーザの位置、ユーザの身体の各関節の位置を検出する。これにより、測定装置31は、ユーザを構成する各関節を仮想的に接続した仮想的な骨(ボーン)を設定して、ユーザの身体の動きを計測する。また、測定装置31は、Kinect(登録商標)の他に、スマートフォン等の端末であるとしてもよい。例えば、スマートフォンに深度カメラが設けられている場合、当該スマートフォンにより、ユーザの身体を、点群データ(ポイントクラウドデータ)として取得することができる。 The measuring device 31 is for measuring the movement of the user's body, and detects the distance and direction to the measuring object by, for example, an RGB-D camera (depth sensor). The measurement device 31 may also include a microphone array or the like to detect the user's voice, the direction from which the voice arrives, and the like. For example, the measurement device 31 may be a device such as Kinect (registered trademark) that can accept user gestures and voice recognition operations. By detecting the user's body, the measuring device 31 detects the position of the user and the positions of the joints of the user's body. Thereby, the measuring device 31 sets a virtual bone (bone) that virtually connects each joint that constitutes the user, and measures the movement of the user's body. In addition, the measuring device 31 may be a terminal such as a smart phone in addition to the Kinect (registered trademark). For example, when a smartphone is provided with a depth camera, the smartphone can acquire the user's body as point cloud data (point cloud data).
また、測定装置31は、距離を測定する機能がなくとも、撮影画像に基づき被写体を特定すること、および、当該被写体とカメラとの距離とを推定する学習済みモデルを利用することにより、撮影画像に基づき被写体までの距離(例えば、被写体の各関節までの距離)を取得することとしてもよい。また、測定装置31が距離を測定できない場合(RGBカメラなど)においても、撮影画像に基づき被写体の各部位を特定し、骨格(ボーン)を推定することとしてもよい。また、測定装置31として、複数台のカメラを設け、視差のある撮影画像を得ることにより、被写体までの距離を推定することとしてもよい。 In addition, even if the measuring device 31 does not have a function to measure the distance, the measurement device 31 can identify the subject based on the captured image and use a learned model for estimating the distance between the subject and the camera. The distance to the subject (for example, the distance to each joint of the subject) may be obtained based on the above. Also, even if the measuring device 31 cannot measure the distance (such as with an RGB camera), each part of the subject may be specified based on the captured image to estimate the skeleton (bone). Alternatively, a plurality of cameras may be provided as the measuring device 31 to obtain captured images with parallax, thereby estimating the distance to the subject.
マット32は、ユーザの身体の動きを測定するために、ユーザの立ち位置の目安を表示するためのものである。マット32は、測定装置31に対し所定の位置関係となる位置に配置する。つまり、マット32は、測定装置31がユーザの身体の動きを測定可能な範囲内に配置される。マット32には、後述するように、ユーザの立ち位置を誘導するための複数の模様が含まれる。ユーザは、当該模様を視認しつつ、足の位置を調整したり、足を踏み出す動作をしたりする。
The
ポール33は、ユーザの身体の動き、例えば、ユーザが身体をねじる動きを測定するために、マット32とともに用いられる。ポール33は、マット32において、ユーザの足を置く立ち位置の目安の模様と関連付けた位置に配置する。ユーザは、マット32に両足をつけたまま(つまり、両足の立ち位置を動かさず)、身体をねじってマット32の両サイドに置かれる一対のポールに手で触れるよう動作する。よって、マット32は、ユーザが身体をねじる動作をするために、腕を移動させる目標点として利用される。マット32は、ユーザが身体をねじった際に手で把持できるよう、ユーザの身長に応じた高さに設定することとしてもよい。
The poles 33 are used with the
以上のように、測定ユニット30を構成する測定装置31、マット32、ポール33の組み合わせについて説明した。以下の説明では、1のユーザが、1の測定ユニット30を使用するものとして説明する。ただし、1つの測定装置31により、複数のユーザの身体の動きを測定することとしてもよい。つまり、1つの測定装置31の測定範囲において、複数のユーザが身体を動かすこととしてもよい。
As described above, the combination of the measuring device 31, the
端末装置10とサーバ20とは、ネットワーク80を介して通信接続する。また、本実施形態において、各装置(端末装置、サーバ等)を情報処理装置として把握することもできる。すなわち、各装置の集合体を1つの「情報処理装置」として把握することができ、測定システム1を複数の装置の集合体として形成してもよい。1つ又は複数のハードウェアに対して本実施形態に係る測定システム1を実現することに要する複数の機能の配分の仕方は、各ハードウェアの処理能力及び/又は測定システム1に求められる仕様等に鑑みて適宜決定することができる。
The
端末装置10は、各ユーザが操作する装置である。端末装置10は、例えば据え置き型のPC(Personal Computer)、ラップトップPCであるとしてもよい。この他に、端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末などにより実現される。図1に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
The
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、5G、LTE(Long Term Evolution)などの通信規格、また、IEEE(Institute of Electrical and Electronics Engineers)802.11などの無線LAN(Local Area Network)規格に対応しており、通信機器と通信することによりネットワーク80に接続される。
The
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
The communication IF 12 is an interface for inputting and outputting signals so that the
図示するように、端末装置10は、測定ユニット30と有線又は無線により接続する。測定ユニット30がユーザの身体の動きを測定することにより、ユーザの身体のしなやかさ、関節可動域の程度を評価することができる。
As illustrated, the
サーバ20は、各ユーザの情報を管理する。サーバ20は、ユーザの情報として、各ユーザの身体の動きを測定する際に参照されるパラメータ(例えば、身長)等を管理している。
The
サーバ20は、ユーザ間の交流を促すための処理として、具体的には、複数のユーザが健康管理のために身体を動かすこと、身体の動きを測定することを支援するため、ユーザのマッチング等を行う。また、サーバ20は、ユーザ間のメッセージの送受信等を行う。
Specifically, the
サーバ20は、各ユーザが保有する仮想的なポイントを管理することとしてもよい。例えば、事業会社内において、各従業員が仮想的な通貨のように使用可能な、社内のポイント制度があるとする。当該ポイントは、仮想的な通貨のように、社内の購買処理に使用したり(社内の自動販売機等で決済に使用できる等)、他の社員に付与したりすることができる。例えば、ユーザが測定システム1で測定を行うことにより、サーバ20が、当該ポイントをユーザに付与することとしてもよいし、ユーザが他のユーザとともに測定システム1で測定をすることにより(例えば、同じ場所で測定をする、同じ場所で同時に測定をする等)、当該ポイントをユーザに付与することとしてもよいし、関節可動域の評価結果が所定値を超えることで当該ポイントを付与する等してもよい。
The
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、および、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、および、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
The communication IF 22 is an interface for inputting and outputting signals for the
<1.1 端末装置10の構成>
図2は、実施の形態1の測定システム1を構成する端末装置10のブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131を含む。この他に、マウス、タッチパッドなどの各種ポインティングデバイスを含むこととしてもよいし、キーボード、ジェスチャ検出装置を含むこととしてもよい)と、ディスプレイ132と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部180と、制御部190と、を含む。端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリ、バッテリから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
<1.1 Configuration of
FIG. 2 is a block diagram of the
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
The
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
The
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
The first
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、ポインティングデバイスとして、タッチ・センシティブ・デバイス131等を含む。タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部190へ出力する。なお、端末装置10は、測定装置31と通信し、測定装置31の測定結果を受け付けることにより、ユーザの入力操作を受け付けることとしてもよい。例えば、測定装置31が点群データを取得する場合に、点群データに基づいてユーザの身体、ユーザの身体を構成する各関節を検出し、当該検出結果に基づいて、ユーザのジェスチャを入力として受け付ける。ユーザが入力可能なジェスチャとしては、ユーザの手の動き、頭部の動きなどの身体の動きがある。例えば、操作受付部130は、ユーザが所定のポーズをとること(両手を水平に上げて「T」字型のポーズをとる)を検出することとしてもよいし、ユーザが手を所定の形状にすることを検出することとしてもよい。
The
ディスプレイ132は、制御部190の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。端末装置10と、出力装置(ディスプレイ132、スピーカ142)とは別のデバイスとして実現してもよい。
The
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
The
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。例えば、測定システム1において、ユーザが測定を行った場所を記録する場合に、位置情報センサ150の検出結果(緯度経度の情報、緯度経度と地図情報により特定される施設の情報、当該施設に関連付けられる事業所の情報など)を、測定結果と関連付けてサーバ20で保持することとしてもよい。つまり、ユーザが測定を行った場所を、ユーザが当該場所を入力する操作によらずとも位置情報センサ150の検出結果に基づき端末装置10が判別することとしてもよい。
The
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。本実施形態において、測定装置31を、端末装置10のカメラ160により実現することとしてもよい。つまり、端末装置10と測定装置31とを別個の装置として実現することの他に、端末装置10が測定装置31の機能を搭載していることとしてもよい。
The
記憶部180は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータおよびプログラムを記憶する。ある局面において、記憶部180は、ユーザ情報181と、測定項目情報182と、測定履歴情報183と、フレンドリスト184と、トレーニング項目情報185とを記憶する。これらの詳細は後述するが、概要は以下のとおりである。端末装置10は、後述するサーバ20の各種データベースから、これらの情報を取得することとしてもよい。
The
ユーザ情報181は、測定システム1におけるユーザの情報である。ユーザの情報としては、ユーザを識別する情報、ユーザの名称、ユーザの所属、ユーザの身体の情報(身長、体重、年齢など)等が含まれる。
The
測定項目情報182は、ROMチェックを行う場合の各測定項目の情報である。測定項目情報182としては、各測定項目においてユーザに対して出力する音声ガイドの情報などを含む。
The
測定履歴情報183は、ユーザの身体の動きを測定した測定結果の履歴を示す。
The
フレンドリスト184は、ユーザ同士がフレンドとして登録している各ユーザの情報を示す。フレンドとして登録しているユーザ間でメッセージの送受信を可能とすることとしてもよい。
The
トレーニング項目情報185は、ユーザに対し筋肉トレーニングメニューを提供する場合の、各トレーニング項目の情報を含む。例えば、トレーニングの名称と、ユーザが身体を動かすためのガイドとなる映像および音声の情報とを含む。端末装置10は、ガイドとなる映像および音声によりユーザが身体を動かしていることを測定装置31により測定し、ディスプレイ132に、逐次、測定結果を表示する。端末装置10は、ディスプレイ132において、理想的な身体の動かし方と、ユーザが身体を動かしている際の測定結果(各関節の動き)とを対比させて、理想的な体の動かし方となるようユーザを促すこととしてもよい。
The
制御部190は、記憶部180に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部190は、例えばアプリケーションプロセッサである。制御部190は、プログラムに従って動作することにより、入力操作受付部191と、送受信部192と、データ処理部193と、報知制御部194としての機能を発揮する。
The
入力操作受付部191は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部191は、タッチ・センシティブ・デバイス131に対してユーザが指などを接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。
The input
送受信部192は、端末装置10が、サーバ20、測定ユニット30等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
The transmitting/receiving
データ処理部193は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
The
報知制御部194は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理等を行う。例えば、報知制御部194は、ROMチェック時に、音声によるガイドを出力する処理、エクササイズのためのトレーニングメニューを提供する際に、音声によるガイドと、模範となる身体の動きを示す映像とをユーザに提示する。
The
<1.2 サーバ20の機能的な構成>
図3は、サーバ20の機能的な構成を示す図である。図3に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional Configuration of
FIG. 3 is a diagram showing a functional configuration of the
通信部201は、サーバ20が、端末装置10等の外部の装置と通信するための処理を行う。
The
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザ情報データベース281と、測定項目情報282と、測定履歴データベース283と、フレンドリスト284等を記憶する。
The
ユーザ情報データベース281は、測定システム1により測定を行う各ユーザの情報を示す。詳細は後述する。
The
測定項目情報282は、複数の測定項目それぞれの情報を示す。詳細は後述する。
The
測定履歴データベース283は、各ユーザが測定を行った履歴を示す。詳細は後述する。
The
フレンドリスト284は、各ユーザがフレンド登録しているユーザの情報を保持するためのデータベースである。
The
トレーニング項目情報285は、ユーザに対しエクササイズ用のトレーニングメニューを提供する場合の、各トレーニング項目の情報を含む。トレーニングメニューは、ユーザの身体にかかる負荷、トレーニング対象の身体の部位などに応じて、複数のトレーニング項目の情報を含む。
The
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして示す機能を発揮する。
The
操作内容取得モジュール2041は、ユーザの操作内容を取得する。操作内容取得モジュール2041は、例えば、ユーザが過去の測定ユニット30による測定結果およびユーザの身体の動きの評価結果を取得する操作、他のユーザとメッセージを送受信するための操作、測定ユニット30による測定が行われる機会がある場合に測定に参加することを申し込むための操作等を受け付ける。
The operation
受信制御モジュール2042は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
The
送信制御モジュール2043は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
The
マッチングモジュール2044は、ユーザ同士をマッチングさせる。マッチングモジュール2044は、例えば、複数のユーザが同一の測定会場で測定システム1により測定を行ったことを検知して、当該複数のユーザをマッチングさせ、フレンドとして登録するよう促すこととしてもよい。また、マッチングモジュール2044は、測定システム1により測定を行う履歴が同程度のユーザを抽出してマッチングさせることとしてもよいし、測定ユニット30によるROMチェックの結果が同程度のユーザを抽出してマッチングさせることとしてもよい。このように複数のユーザをマッチングさせ、フレンドとして登録することを促すことで、複数のユーザがともに美しい姿勢を目指してトレーニングを行うよう促すことができ得るため、測定システム1により測定を継続することを支援することができる。
測定進行モジュール2045は、測定ユニット30によりユーザの身体の動きを測定する処理を進行させる。測定進行モジュール2045は、測定項目情報282に示される各測定項目を読み出すことにより、ユーザに対し、順次、測定項目に従った測定のための音声によるガイド等を出力する。例えば、サーバ20は、端末装置10に対し、各測定項目を送信するとともに、各測定項目に従って、順次、ユーザの身体の動きを測定させることとしてもよい。
The
トレーニング進行モジュール2046は、ユーザに対し、映像および音声によりトレーニングメニューを提供する処理を進行させる。トレーニング進行モジュール2046は、トレーニング項目情報285に示される各トレーニング項目を読み出すことにより、ユーザに対し、順次、トレーニング項目に従ったトレーニングのための音声によるガイド、映像によるガイド等を出力する。
The
<2 データ構造>
図4は、サーバ20が記憶するユーザ情報データベース281、測定項目情報282、測定履歴データベース283、フレンドリスト284のデータ構造を示す図である。
<2 Data structure>
FIG. 4 shows the data structures of the
図4に示すように、ユーザ情報データベース281のレコードのそれぞれは、項目「ユーザ識別情報(ユーザID)」と、項目「ユーザ名」と、項目「性別」と、項目「身長」と、項目「体重」と、項目「所属」と、項目「評価値」と、項目「社内ポイント」等を含む。
As shown in FIG. 4, each record of the
項目「ユーザ識別情報(ユーザID)」は、ユーザそれぞれを識別する情報である。 The item “user identification information (user ID)” is information for identifying each user.
項目「ユーザ名」は、ユーザが設定した名称である。 The item "user name" is the name set by the user.
項目「性別」は、ユーザの性別を示す。例えば、ユーザが測定システム1の利用を開始しようとしてユーザの情報を登録する際に、性別を設定することとしてもよい。
The item "gender" indicates the gender of the user. For example, the user may set the gender when registering user information to start using the
項目「身長」は、ユーザの身体の動きを測定するうえで参照する情報として、ユーザの身長を示す。 The item "height" indicates the user's height as information to be referred to when measuring the user's body movement.
項目「体重」は、ユーザの体重の情報を示す。ユーザの身体の動きを測定するうえで体重の情報を参照しない場合などにおいて、当該項目「体重」についてデータを保持しないこととしてもよい。 The item "weight" indicates information on the weight of the user. In cases such as when weight information is not referred to when measuring the user's body movement, data for the item "weight" may not be retained.
項目「所属」は、ユーザが組織に所属している場合など、ユーザの所属先の情報を示す。例えば、項目「所属」において、会社名、組織名、事業所名等の情報を含む。当該項目「所属」は、ユーザが仕事をするオフィスの所在の情報を含むこととしてもよい。 The item "affiliation" indicates information on the user's affiliation, such as when the user belongs to an organization. For example, the item "Affiliation" includes information such as company name, organization name, and office name. The item “affiliation” may include information on the location of the office where the user works.
項目「評価値」は、ユーザが測定システム1においてROMチェックを行った測定結果に基づき評価される評価値、ユーザの歩行時の姿勢を測定した測定結果に基づく評価値の情報を含む。当該評価値は、例えば、端末装置10が、測定ユニット30による測定結果に基づいて、ユーザのROMチェックの結果を分類する場合の分類結果の情報を含む。
The item "evaluation value" includes information on an evaluation value evaluated based on the measurement results of the ROM check performed by the user in the
項目「社内ポイント」は、ユーザが所属する事業会社において使用される仮想的なポイントがある場合に、当該ポイントについてユーザが保有している量を示す。 The item "in-house points" indicates the amount of points held by the user when there are virtual points used in the operating company to which the user belongs.
測定項目情報282のレコードのそれぞれは、項目「測定項目番号(測定項目No.)」と、項目「測定部位」と、項目「ガイド音声」と、項目「マットにおける足の位置」と、項目「測定対象の身体の部位」とを含む。
Each record of the
項目「測定項目番号(測定項目No.)」は、測定項目それぞれを識別するための情報である。 The item "measurement item number (measurement item No.)" is information for identifying each measurement item.
項目「測定部位」は、測定対象となる身体の部位を示す。例えば、関節可動域を評価する対象として、以下の部位がある。 The item "measurement site" indicates the site of the body to be measured. For example, there are the following parts as targets for evaluating joint range of motion.
(i)上肢の測定
・ 肩甲骨:運動方向として、屈曲、伸展、拳上、引き下げがある。
・ 肩:運動方向として、屈曲、伸展、外転、内転、外旋、内旋がある。
・ 肘:運動方向として、屈曲、伸展がある。
・ 前腕:運動方向として、回内、回外がある。
・ 手:運動方向として、屈曲、伸展、撓屈、尺屈がある。
(i) Measurement of Upper Limb Scapula: Directions of movement include flexion, extension, fist raising, and pulling down.
・Shoulder: Movement directions include flexion, extension, abduction, adduction, external rotation, and internal rotation.
・ Elbow: There are flexion and extension as motion directions.
・ Forearm: There are pronation and supination as directions of movement.
・ Hands: Movement directions include flexion, extension, flexion, and ulnar flexion.
(ii)手指の測定
・ 母指:運動方向として、撓側外転、尺側内転、掌側外転、掌側内転、屈曲、伸展がある。
・ 指:運動方向として、屈曲、伸展、外転、内転がある。
(ii) Measurement of fingers - Thumb: Movement directions include flexor side abduction, ulnar side adduction, volar side abduction, volar side adduction, flexion, and extension.
・ Fingers: Movement directions include flexion, extension, abduction, and adduction.
(iii)下肢の測定
・ 股:運動方向として、屈曲、伸展、外転、内転、外旋、内旋がある。
・ 膝:運動方向として、屈曲、伸展がある。
・ 足:運動方向として、屈曲、伸展がある。
・ 足部:運動方向として、外がえし、内がえし、外転、内転がある。
・ 母指:運動方向として、屈曲、伸展がある。
・ 足指:運動方向として、屈曲、伸展がある。
(iii) Measurement of Lower Limbs · Crotch: Movement directions include flexion, extension, abduction, adduction, external rotation, and internal rotation.
・ Knee: Movement directions include flexion and extension.
・ Legs: Movement directions include flexion and extension.
・Foot: Movement directions include rolling, rolling, abduction, and adduction.
・ Thumb: Movement directions include flexion and extension.
・ Toes: Movement directions include flexion and extension.
(iv)体幹の測定
・ 頸部:運動方向として、屈曲、伸展、回旋(左回旋、右回旋)、側屈(左側屈、右側屈)がある。
・ 胸腰部:運動方向として、屈曲、伸展、回旋(左回旋、右回旋)、側屈(左側屈、右側屈)がある。
(iv) Measurement of Trunk Neck: Movement directions include flexion, extension, rotation (left rotation, right rotation), and lateral bending (left bending, right bending).
・ Thoracic and lumbar region: Movement directions include flexion, extension, rotation (left rotation, right rotation), and lateral bending (left bending, right bending).
項目「ガイド音声」は、測定項目に示される測定を行う際に、ユーザに対して通知する音声の内容を示す。音声ガイドとしては、マット32においてユーザが規定の位置に足を置いていない場合の音声(例えば、「マットの規定の位置に両足を置いてください」等)と、ユーザが測定のためにマット32において規定の位置に足を置いたことを端末装置10が検知してユーザに身体を動かすことを促す音声(例えば、「マットの規定の位置に両足を置いたまま身体をねじってください」等)と、測定装置31の測定結果に基づきユーザの身体の動きの測定データが得られた場合の音声(例えば、「正常に測定されました」等)を含む。
The item "guidance voice" indicates the content of the voice to be notified to the user when performing the measurement indicated in the measurement item. As a voice guide, there is a voice when the user does not put his/her feet on the prescribed positions on the mat 32 (for example, "Please place both feet on the prescribed positions on the mat." , the
項目「マットにおける足の位置」は、測定を行う際に、マット32のいずれの位置にユーザの両足を置くか(マット32においてユーザが足を置く位置)の情報を含む。端末装置10は、例えば、項目「マットにおける足の位置」の情報に基づいて、ユーザの両足がマットの規定の位置に置かれているか否かを検出する。当該検出により、端末装置10は、ユーザに対し、測定をするための身体の動作の内容を示す音声を出力する。
The item “position of feet on mat” includes information on where the user's feet are placed on the mat 32 (positions where the user places their feet on the mat 32) when performing the measurement. For example, the
項目「測定対象の身体の部位」は、測定項目において測定の対象となる、ユーザの身体の部位を示す。 The item “body part to be measured” indicates the part of the user's body that is to be measured in the measurement item.
測定履歴データベース283のレコードそれぞれは、項目「測定番号(測定No.)」と、項目「日時」と、項目「ユーザ識別情報(ID)」と、項目「測定場所」と、項目「測定データ」と、項目「評価結果」とを含む。サーバ20は、端末装置10から、ユーザの身体の動きを測定した測定結果を受信する。サーバ20は、端末装置10から受信した情報に基づき測定履歴データベース283のレコードを更新する。
Each record in the
項目「測定番号(測定No.)」は、ユーザが測定ユニット30により身体の動きを測定した際の、測定結果それぞれを示す。 The item “measurement number (measurement No.)” indicates each measurement result when the user measures the movement of the body with the measurement unit 30 .
項目「日時」は、ユーザが測定ユニット30により測定を行ったタイミングを示す。。 The item “date and time” indicates the timing at which the measurement was performed by the measurement unit 30 by the user. .
項目「ユーザ識別情報(ID)」は、測定ユニット30により身体の動きを測定したユーザを識別する情報を示す。 The item “user identification information (ID)” indicates information identifying the user whose body movement was measured by the measurement unit 30 .
項目「測定場所」は、ユーザが測定ユニット30により測定を行った場所を示す。サーバ20は、端末装置10から測定結果を受信した場合に、当該測定結果に対応付けられるユーザの情報を参照し、当該ユーザに関連付けられる情報(ユーザ情報データベース281)に基づき、ユーザが測定を行った場所を特定してもよい。例えば、ユーザ情報データベース281に示されるユーザの所属の情報に基づいて、当該所属先が位置する場所の情報を、測定ユニット30により測定を行った場所としてもよい。また、端末装置10が位置情報を位置情報センサ150により取得する等により、端末装置10の位置を、測定ユニット30により測定を行った場所とすることとしてもよい。
The item “measurement place” indicates the place where the user performed the measurement with the measurement unit 30 . When the
項目「測定データ」は、測定ユニット30により測定される、ユーザの身体の動きの測定結果を示す。例えば、ユーザの身体の動きを、時系列の点群データとして測定する場合に、当該時系列の点群データを、項目「測定データ」における測定結果であるとしてもよい。また、測定装置31により測定されるユーザの身体について、端末装置10が測定結果に基づいてユーザの関節の位置を特定し、関節それぞれの動きを、ユーザの身体の動きの測定結果としてサーバ20において保持することとしてもよい。例えば、端末装置10は、ユーザの身体の撮影画像に基づいて、肩、肘など身体の特定の部位を検出することにより、ユーザの関節の時系列の動きを測定することができる。
The item “measurement data” indicates the measurement result of the user's body movement measured by the measurement unit 30 . For example, when the user's body movements are measured as time-series point cloud data, the time-series point cloud data may be the measurement results in the item "measurement data." In addition, with respect to the user's body measured by the measuring device 31, the
項目「評価結果」は、項目「測定データ」に示される測定結果に基づいて、ユーザの身体の動きがどの程度の水準であるかを評価した評価結果を示す。端末装置10は、例えば、項目「測定データ」においてユーザの関節の動きの時系列データを保持する場合に、参照先となる身体の動きのデータと比較することで、ユーザの身体の動きを評価する。例えば、端末装置10が、参照先のデータとして、ユーザの身体の動きが良好な程度に応じて複数段階のデータを保持することにより、ユーザの身体の動きの測定結果に対し最も類似する動きの参照先のデータを特定することができる。
The item "evaluation result" indicates the evaluation result of evaluating the level of the user's body movement based on the measurement result indicated in the item "measurement data". For example, when the
フレンドリスト284のレコードのそれぞれは、項目「ユーザ1」と、項目「ユーザ2」と、項目「フレンド登録日」と、項目「同タイミングでの測定履歴」と、項目「メッセージ送受信履歴」等を含む。
Each of the records in the
項目「ユーザ1」は、互いにフレンドとして登録しているユーザのうちの一方のユーザを示す。
The item "
項目「ユーザ2」は、互いにフレンドとして登録しているユーザのうちの他方のユーザを示す。
The item "
項目「フレンド登録日」は、ユーザ同士がフレンドとして登録された日時を示す。 The item "friend registration date" indicates the date and time when the users were registered as friends.
項目「同タイミングでの測定履歴」は、フレンドとして登録されている各ユーザが、同一の場所、または、同一のタイミングの少なくともいずれかを満たしつつ測定を行った履歴を示す。例えば、事業所のオフィススペース等で測定ユニット30を配置する場合に、複数のユーザが一定の時間帯のうちに測定を行うことにより、これら複数のユーザが同タイミングで測定を行ったとしてもよい。項目「同タイミングでの測定履歴」において、複数のユーザが測定を行った場所の情報を含むこととしてもよい。例えば、サーバ20がフレンドリスト284を参照することにより、複数のユーザがともに測定ユニット30による身体の動きの測定とトレーニングメニューによるトレーニングを実施している頻度を特定することができる。
The item “history of measurements at the same timing” indicates histories of measurements performed by each user registered as a friend while satisfying at least one of the same location or the same timing. For example, when the measurement unit 30 is arranged in an office space of a business establishment, a plurality of users may perform measurements during a certain period of time, and the plurality of users may perform measurements at the same timing. . The item “history of measurements at the same timing” may include information on locations where measurements were taken by a plurality of users. For example, by referring to the
項目「メッセージ送受信履歴」は、フレンドとして登録しているユーザ同士が送受信したメッセージの履歴を示す。 The item "message transmission/reception history" indicates the history of messages transmitted and received between users registered as friends.
<3 測定ユニット30の構成>
図5は、測定システム1により、ユーザが身体の動きを測定する局面を示す。図5では、測定ユニット30を複数設置して、複数のユーザが測定を行う例を示している。また、1つの端末装置10が、複数の測定ユニット30と接続する例を示している。
<3 Configuration of measurement unit 30>
FIG. 5 shows a phase in which a user measures body movements with the
測定装置31Aは、センシング可能な検出範囲38Aにおいて第1のユーザUser_Aの身体の動きを測定する。検出範囲38Aにおいて、測定装置31Aと所定の位置関係となる位置に、マット32Aを設置している。ここで、マット32Aの位置は、例えば、測定装置31Aの正面から一定距離(例えば、数メートル程度)の位置であるとしてもよい。マット32Aに第1のユーザUser_Aが乗った場合に、測定装置31Aがユーザの全身の動きを測定可能となるように、測定装置31Aに対してマット32Aを設置するとよい。マット32Aの右側面および左側面において、それぞれ、ポール33Aが設置される。例えば、マット32Aにおいて、ユーザが両足を置くための既定の位置(ホームポジションと称してもよい)を示す模様がある場合に、当該模様を基準として、マット32Aの外側に一組のポール33Aを配置することとしてもよい。当該ポール33Aは、ユーザが両足を規定の位置に置いたままマット32A上において上肢をひねる動作をした場合に、ユーザがつかもうとする目安として設置する。これにより、ユーザが上肢をひねる動作をした場合にポール33Aにめがけて手を移動させようと促されるため、測定の機会を増やした場合においても上肢の動きのフォームをある程度安定させることができる。つまり、ユーザの身体の動きを測定する場合の時系列の測定結果のばらつきを抑えることができ得る。
The measuring
測定装置31Bは、センシング可能な検出範囲38Bにおいて第2のユーザUser_Bの身体の動きを測定する。検出範囲38Bにおいて、測定装置31Bと所定の位置関係となる位置に、マット32Bを設置している。ここで、マット32Bの位置は、例えば、測定装置31Bの正面から一定距離(数メートル程度)の位置であるとしてもよい。マット32Bに第2のユーザUser_Bが乗った場合に、測定装置31Bがユーザの全身の動きを測定可能となるように、測定装置31Bに対してマット32Bを設置するとよい。マット32Bの右側面および左側面において、それぞれ、ポール33Bが設置される。
The measuring
第1のユーザUser_Aは、ディスプレイ132Aに表示される映像、音声を視認しつつ、マット32Aの模様を目安に足の位置を確認して、身体を動かす。同様に、第2のユーザUser_Bは、ディスプレイ132Bに表示される映像、音声によるガイドに従って、身体を動かす。これにより、第1のユーザUser_A、第2のユーザUser_Bの身体の動きを、それぞれ、測定装置31A、31Bにより測定することができる。
The first user User_A checks the position of the foot based on the pattern of the
図示する例では、第1のユーザUser_Aは、ディスプレイ132Aからの出力に基づき、マット32Aにおいてホームポジションに両足を置いたうえで、屈伸運動を始めようとしている。第2のユーザUser_Bは、ディスプレイ132Bからの出力に従って、右足を踏み出す動作をしている。
In the illustrated example, based on the output from the
図6は、マット32の詳細を示す図である。図示するように、ユーザの右足および左足を置く目安となる模様が複数個所にわたって配置されている。
FIG. 6 is a diagram showing the details of the
例えば、複数の測定項目にわたってユーザの両足を置く目安となる位置に、右足用として、第1のホームポジション41R、第2のホームポジション42R、第3のホームポジション43Rのように、右足を置く位置が複数示されている。
For example, for the right foot, there are a
左足用として、第1のホームポジション41L、第2のホームポジション42L、第3のホームポジション43Lのように、左足を置く位置が複数示されている。
For the left foot, a plurality of positions for placing the left foot are shown, such as a
なお、以降の説明において、ホームポジション41Rおよび41Lを総称してホームポジション41等と記載することがある。同様に、ホームポジション42Rおよび42Lを総称してホームポジション42と記載し、ホームポジション43Rおよび43Lを総称してホームポジション43と記載することもある。
In the following description, the
測定項目それぞれ(測定項目情報282)について、ユーザが右足と左足とを拡げる間隔を規定したうえで、端末装置10がユーザに対し所定の身体の動きを行うようガイドする。例えば、測定項目の測定に伴う音声ガイドにおいて、使用するホームポジションの位置の情報が案内されることとしてもよい。
For each measurement item (measurement item information 282), the user defines the distance between the right and left legs, and then the
端末装置10は、測定項目の測定にあたり、ユーザが、所定のホームポジションを使用しているか否かを、測定装置31の測定結果に基づき判別する。例えば、測定装置31のセンシング結果に基づいて、端末装置10が、マット32に示されるホームポジションの模様それぞれを識別する場合に、ユーザの足首等の検出結果に基づいて、ユーザの両足が乗っている模様を特定することができ得る。ユーザが、測定項目の測定を行う際に、想定されるホームポジションとは異なる位置に足を乗せている場合、ユーザに対し、音声ガイド、映像ガイド等により、適切な位置に足を置くよう促す通知をすることとしてもよい。
When measuring the measurement items, the
また、端末装置10は、測定項目として、ユーザが足を踏み出す動作をする場合の各関節の動きを端末装置10が測定ユニット30により測定することを含む。端末装置10は、当該測定項目により、ユーザの身体の動かし方として足を踏み出す動作をする場合のバランスのよさ等を評価することができる。
In addition, the
マット32は、測定項目として足を踏み出す動作がある場合に、右足を踏み出す目標となる模様群45Rを含む。同様に、左足を踏み出す目標となる模様群45Lを含む。
The
これら模様群45R、45Lを総称して「模様群45」と記載することもある。
These
模様群45は、ユーザの身長に応じて、複数の踏み出し位置の目安となる模様を配している。図示する例では、ユーザの身長の幅として、「140cm」~「200cm」までの範囲で、10cm刻みで模様を配している。当該模様としては、足のつま先部分を模した形状とすることで、ユーザに対し、足を踏み出す目標となる位置であることを容易に認識させることができる。ユーザは、例えば、ホームポジション41Rおよび41L、または、模様44Rおよび44L(これらを総称して「模様44」と記載することもある)の位置を初期位置として両足を置き、片足ずつ、身長に応じた目安の模様の位置まで足を踏み出す動作を行う。端末装置10は、測定ユニット30により、当該踏み出し動作をする場合のユーザの身体の動き(関節の動き)を測定する。端末装置10は、ユーザが足を踏み出す動作を測定する際に、ユーザに踏み出してほしい距離に応じて、足の初期位置として、ホームポジション41~43、または、模様44を指定して、ユーザにガイドすることとしてもよい。
The
図示する例では、ポール33の位置についても示している。例えば、ホームポジション41、42、43に対して直線状で並ぶようにポール33(右側および左側)を配することとしてもよい。ユーザは、例えば、ホームポジション41、42、43のいずれかに両足を置いたまま、上肢をひねる動作をして、ポール33をつかもうとする。 The illustrated example also shows the position of the pole 33 . For example, the poles 33 (right side and left side) may be arranged so as to line up with the home positions 41 , 42 , 43 in a straight line. For example, the user tries to grasp the pole 33 by twisting the upper limb while placing both feet on one of the home positions 41 , 42 and 43 .
なお、図示するように、模様群45R、45Lにおいて、矢印の模様を配することとしてもよい。図示する例では、矢印の模様を、模様群45R、45Lの各身長に応じた模様と重ねて配することとしている。これにより、ユーザが足を前に踏み出す動作をすることをユーザに意識づけることができ、マット32をユーザが見た時に、測定時の身体の動かし方で迷う可能性を減らすことができ得る。
As shown in the figure, patterns of arrows may be arranged in the
また、図示するように、模様の大きさについて、当該模様がユーザが足を置く目安となるものであるため、図示する例で縦方向(足を踏み出す方向)の長さを一般的な足の大きさと同程度(長さが22cm~28cm程度)としてもよい。模様の形状は、ユーザから見て、模様に足を置くものと容易に理解できるよう、足あと、または、足あとに類似する形状であるとしてもよい。 Also, as shown in the figure, regarding the size of the pattern, since the pattern serves as a guideline for the user to place the foot, the length in the vertical direction (the direction in which the foot is stepped) in the example shown in the figure is the size of a typical foot. It may be about the same as the size (about 22 cm to 28 cm in length). The shape of the pattern may be a footprint or a shape similar to a footprint so that the user can easily understand that a foot is placed on the pattern.
<4 動作>
以下、端末装置10がユーザの身体の動きを測定する測定処理を説明する。
<4 Operation>
A measurement process in which the
図7は、端末装置10がROMチェックを行って測定履歴を更新する処理を示すフローチャートである。
FIG. 7 is a flow chart showing a process in which the
ステップS700において、端末装置10の制御部190は、ディスプレイ132に、測定をするユーザがログインするための画面を表示して、ユーザからログインのための操作を受け付ける。端末装置10は、例えば、ユーザそれぞれが所持するICカードなどの記録媒体から情報を読み取る、ユーザが所持する通信端末に表示される二次元コードを読み取る等により、ユーザの認証を行い、当該ユーザの情報を取得する。例えば、端末装置10は、サーバ20と通信することにより、当該ユーザの情報として、ユーザの身長などの情報(ユーザ情報データベース281)、過去の測定履歴(測定履歴データベース283)、ユーザとフレンドとして登録している他のユーザの情報(フレンドリスト284)を取得する。また、端末装置10は、サーバ20から、測定項目の情報(測定項目情報282)を取得して測定項目情報182として記憶している。
In step S700, the
ステップS701において、端末装置10は、測定装置31の測定結果に基づき、測定装置31の測定範囲においてマット32とポール33とが設置されていることを検出する。例えば、端末装置10は、測定装置31の測定結果を二次元画像として画像認識を行う等により、マット32と、ポール33とを検出する。端末装置10は、測定装置31に対しマット32、ポール33が所定の位置にあることを検出する。つまり、端末装置10は、マット32とポール33とが測定に適した位置にあり、ユーザがガイドの音声および映像を確認しやすい位置にあることを検出する。
In step S<b>701 , the
ステップS703において、端末装置10は、測定項目情報182を参照し、各測定項目について順次測定をする処理を行う。端末装置10は、第1の測定項目を読み出して、音声、映像により、測定のためのガイドとなる情報(マット32においてユーザが足を置く位置など)を出力する。端末装置10は、測定装置31の測定結果に基づきユーザの関節を検出し、ユーザの両足がマットの所定位置(測定項目により規定される位置)に置かれていることを検出する。
In step S703, the
ステップS705において、端末装置10は、ユーザに対し、身体に所定の動作をさせるよう促す音声を出力する。端末装置10は、測定装置31により、ユーザの身体の動きを検出することで、ユーザの身体の動きを測定する。
In step S705, the
ステップS707において、端末装置10は、順次、測定項目を測定項目情報182から読み出して、音声によるガイドを出力し、ユーザの足がマット32の規定位置にあることを検出し、ユーザの身体の動きを測定する。
In step S707, the
ステップS709において、端末装置10は、各測定項目についての測定が完了すると、ユーザの身体の動きの測定結果に基づいて、ユーザの関節の可動域を評価する。具体的には、端末装置10は、測定装置31の計測結果に基づきユーザの各関節の位置を特定し、関節の位置の時系列データ(時系列で変化する関節の位置の動き)により、測定対象となる身体の部位の可動域を評価する。端末装置10は、関節の可動域の評価結果をディスプレイ132等により出力し、サーバ20へ送信する。
In step S709, when the measurement for each measurement item is completed, the
ステップS753において、サーバ20は、ユーザのROMチェックの結果を端末装置10から受信して、ユーザの測定結果に基づきデータベース(測定履歴データベース283、ユーザ情報データベース281)を更新する。
In step S753, the
次に、測定項目として、ユーザが足を踏み出す動作を測定する際の各装置の処理について説明する。 Next, processing of each device when measuring a user's stepping action as a measurement item will be described.
図8は、端末装置10が、ユーザが足を踏み出す動作を測定することで関節可動域を評価する処理を示すフローチャートである。
FIG. 8 is a flow chart showing a process in which the
ステップS801において、端末装置10は、測定装置31の測定結果に基づき、マット32の規定の位置(測定項目情報282の項目「マットにおける足の位置」)に、ユーザの両足が置かれていることを検出する。端末装置10は、規定の位置にユーザの両足が置かれていない場合に、ユーザに対し、規定の位置に足を置くようガイドすることとしてもよい。
In step S801, the
ステップS803において、端末装置10は、ユーザに対し、ユーザの右足を、規定の位置から、ユーザの身長に応じた踏み出し位置へと踏み出すようガイドする音声、映像を出力する。
In step S803, the
ステップS805において、端末装置10は、測定装置31による測定結果に基づき、ユーザの右足が、マットにおいて規定の位置から別の位置へと踏み出されたことを検出し、ユーザが右足を踏み出す動作の測定結果を記録する。端末装置10は、ユーザの右足が、踏み出すべき目標となる位置とは異なる位置に踏み出された場合に、測定をし直すため、ユーザに対し、再度、右足を目標となる位置に踏み出すようガイドすることとしてもよい。
In step S805, the
ステップS807において、端末装置10は、ユーザの左足を、規定の位置から、ユーザの身長(歩幅)に応じた踏み出し位置へと踏み出すようガイドする音声を出力する。
In step S807, the
ステップS809において、端末装置10は、測定装置31の測定結果に基づき、ユーザの左足が、マットにおいて規定の位置から別の位置へと踏み出されたことを検出し、ユーザが左足を踏み出す動作の測定結果を記録する。
In step S809, the
ステップS811において、端末装置10は、ユーザがマット32において足を踏み出す動作の測定結果に基づき、下肢の関節の可動域を評価し、評価結果をディスプレイ132等に出力し、サーバ20へ送信する。
In step S<b>811 , the
次に、ユーザが上体をひねる動作を測定する際の各装置の処理について説明する。 Next, the processing of each device when measuring the user's upper body twisting motion will be described.
図9は、端末装置10が、ユーザが上体をひねる動作を測定することで関節可動域を評価する処理を示すフローチャートである。
FIG. 9 is a flow chart showing a process in which the
ステップS901において、端末装置10は、測定装置31の測定結果に基づき、マットの規定の位置に、ユーザの両足が置かれていることを検出する。
In step S<b>901 , the
ステップS903において、端末装置10は、ユーザの身長の情報に基づいて、ポール33の高さが適切か判定する。例えば、端末装置10が、ユーザの身長に応じて適切となるポール33の高さの情報を対応付けて記憶することにより、測定装置31の測定結果により検出されるポール33の高さが適切であるか否かを判定する。例えば、ユーザが直立した際のユーザの手の位置により、適切なポール33の高さを規定することとしてもよい。ここで、ユーザが直立した際の手の位置は、ユーザの身長によっても変動し得る。つまり、身長が高いほど、直立時の手の位置も高くなると想定される。また、端末装置10が、測定装置31の測定結果に基づいて、直立姿勢の際のユーザの手の位置(地面からの高さ)を検出することにより、ポール33の適切な高さを、当該手の位置に基づき決定することとしてもよい。つまり、測定装置31によるユーザの身体の測定結果に応じて、ポール33の高さを調整することとしてもよい。
In step S903, the
なお、ポール33の高さは、例えば、測定装置31の測定結果に基づいて、ポール33が地面と接する第1の位置と、ポール33の頭頂部となる第2の位置とを特定し、測定装置31の位置から、これらポール33の第1の位置、第2の位置までの距離の情報に基づいて判定することとしてもよい。この他に、ポール33を引き延ばすことが可能な構造である場合に、ポール33の模様として、ポール33の高さを示すものが含まれることとし、端末装置10が当該ポール33の高さを示す模様を検出することとしてもよい。
The height of the pole 33 is measured by specifying a first position where the pole 33 is in contact with the ground and a second position which is the top of the pole 33 based on the measurement result of the measuring device 31, for example. The determination may be made based on information on the distance from the position of the device 31 to the first and second positions of the poles 33 . In addition, when the pole 33 has a structure that can be extended, the pattern of the pole 33 includes a pattern indicating the height of the pole 33, and the
端末装置10は、ポール33を設置する位置が適切であるか否かを判定することとしてもよい。例えば、端末装置10は、ポール33においてホームポジション等を示す模様を検出し、当該模様の位置と、ポール33が地面に接している位置との位置関係に基づいて、ポール33の位置が適切であるか否かを判定することとしてもよい。
The
ステップS905において、端末装置10は、ユーザの両足をマットの規定の位置につけたまま身体を右側にひねり、左手で右ポール(右側に配置されるポール33)、右手で左ポール(左側に配置されるポール33)をつかむようガイドする音声、映像を出力する。
In step S905, the
ステップS907において、端末装置10は、測定装置31の測定結果に基づき、ユーザが身体を右側にひねる動作の測定結果を記録する。
In step S<b>907 , the
ステップS909において、端末装置10は、ユーザの両足をマットの規定の位置につけたまま身体を左側にひねり、右手で左ポール、左手で右ポールをつかむようガイドする音声を出力する。
In step S909, the
ステップS911において、端末装置10は、測定結果に基づき、ユーザが身体を左側にひねる動作の測定結果を記録する。
In step S911, the
ステップS913において、端末装置10は、ユーザが身体をひねる動作の測定結果に基づき、身体の各関節の可動域を評価し、評価結果を出力する。関節の可動域の評価としては、ユーザが上体をひねることにより、ポール33をつかむことができたか否かも、評価の項目として使用することとしてもよい。
In step S913, the
以上のように、ポール33の高さを、ユーザが直立した際の手の高さと同程度とすることにより、ユーザが上体をひねる動作をした際、ユーザが背後を振り返りつつ、視認できるポール33を目標として、手、腕部を動かそうとする。これにより、ユーザが上体をひねる動作のブレ幅を小さくすることができ、端末装置10が測定結果を蓄積させた際に、測定結果の時系列のデータを比較することが容易になる。
As described above, by setting the height of the pole 33 to be approximately the same as the height of the user's hand when the user stands upright, the user can visually recognize the pole while looking back when the user twists the upper body. With 33 as the target, try to move the hands and arms. As a result, it is possible to reduce the fluctuation width of the user's motion of twisting the upper body, and when the
<5 画面例>
図10は、ユーザの身体の動きを測定する局面における、端末装置10の通知内容の例を示す図である。
<5 Screen example>
FIG. 10 is a diagram showing an example of notification contents of the
図10(A)の画面例は、端末装置10において、ユーザから、測定を行うためにログインする操作を受け付ける局面を示す。図7のステップS700の処理に対応する。例えば、事業会社の事業所、店舗スペース等に測定ユニット30が設置されており、複数のユーザが利用する際に、まずユーザの認証を行う。
The screen example of FIG. 10A shows a situation in which the
図10(A)に示すように、端末装置10は、ディスプレイ132に、通知部132Lを表示する。端末装置10は、通知部132Lにおいて、ユーザがログインするための操作内容を表示する。図示する例では、事業所に測定ユニット30が設置されるものとして、ユーザの社員証を読み込ませることでログインが可能であることが通知部132Lに示されている。端末装置10は、通知部132Cにおいて、別のユーザが同じタイミングで測定を行おうとしていることを表示する。図5の例のように、複数の測定ユニット30が設置されており、複数のユーザがともに測定を行う場合に、端末装置10は、測定を行う別のユーザの経過を通知部132Cに表示する。図10(A)の例では、端末装置10は、通知部132Cにおいて、同じタイミングで測定を行う別のユーザが、既にログインの処理を終えていることを表示している。
As shown in FIG. 10A, the
図10(B)の画面例は、端末装置10において、ユーザが足を踏み出す動作を測定する局面を示す。図8のステップS801~S811の処理に対応する。
The screen example of FIG. 10B shows a situation in which the
図10(B)に示すように、端末装置10は、ディスプレイ132に、通知部132Dと、通知部132Eと、ガイド出力部132Fと、検出結果表示部132Gとを表示する。
As shown in FIG. 10B, the
端末装置10は、通知部132Dにおいて、ログインしているユーザ(つまり、測定をしているユーザ)の情報を表示する。これにより、ユーザは、誤って別のユーザとして測定を行っていないかどうかを容易に確認することができる。
The
端末装置10は、通知部132Eにおいて、ユーザが測定を行った履歴を表示する。図示する例では、これまでに測定ユニット30を利用してユーザが測定を行った回数を表示しているが、この他に、過去の測定における評価結果等を表示してもよい。これにより、ユーザは、継続して測定を行っていることを容易に確認することができ、測定を継続していくよう動機づけられうる。
The
端末装置10は、ガイド出力部132Fにおいて、ユーザに対し、ユーザの身長に応じて、足を踏み出す目標となる模様の情報を、映像および音声により通知する。これにより、ユーザは、目標となる模様に向けて足を踏み出すイメージを容易に描くことができ、測定のための動作を容易に行うことができる。
In the
端末装置10は、検出結果表示部132Gにおいて、測定装置31による検出結果を表示する。例えば、端末装置10は、検出結果表示部132Gにおいて、ユーザの両足が、測定を行うための規定の位置にある(ホームポジションに両足が置かれている)等の情報を表示する。これにより、ユーザは、正確に手順に沿って測定を行っていることを容易に認識することができ、測定エラーにならないであろうという安心感を感じつつ測定を行うことができる。
The
図10(C)の画面例は、端末装置10において、ユーザが上体をひねる動作を測定する局面を示す。
The screen example of FIG. 10C shows a situation in which the
図10(C)の画面例では、端末装置10は、ポール33の高さが適切ではないことを検出しており、ユーザに対し、ガイド出力部132Fにおいて、ポール33を所定の高さまで伸ばすよう促す表示をしている。図9のステップS903の処理に対応する。
In the screen example of FIG. 10C, the
図10(D)の画面例は、端末装置10において、測定が完了したことと、測定結果に基づく評価結果と、他のユーザとのフレンド登録を促すこととをユーザに通知する局面を示す。
The screen example of FIG. 10D shows a situation in which the
図10(D)の画面例において、端末装置10は、ガイド出力部132Fにおいて、複数の測定項目のすべてについて測定が完了したこと、測定項目についてユーザの身体の動きを評価した結果を表示する。端末装置10は、過去のユーザの測定履歴を参照して、過去の測定結果との比較結果(前回よりも関節可動域が変化した等)をガイド出力部132Fにおいて表示する。
In the screen example of FIG. 10(D), the
端末装置10は、通知部132Mにおいて、他のユーザとフレンドとして登録するよう促す表示と、当該他のユーザをフレンドの候補として提案する経緯(同じ場所で測定を行った等)とを表示する。
The
<小括>
(1)以上のように、本実施形態によると、ROMチェックをするにあたり、特段、角度計などの物理的な測定器具をユーザの身体に当てる必要もないため、端末装置10のガイドにより、ユーザ自身で容易に測定をすることができる。また、測定項目に従って測定を進行させることにより、ユーザの下半身、および、上半身の各関節の可動域を評価することができる。
<Summary>
(1) As described above, according to the present embodiment, it is not necessary to apply a physical measuring instrument such as a goniometer to the body of the user when performing the ROM check. You can easily measure yourself. Further, by progressing the measurement according to the measurement items, it is possible to evaluate the range of motion of each joint of the user's lower body and upper body.
(2)ユーザの身体の動きを測定するにあたり、マット32、ポール33を用いて、ユーザが身体を動かす目標点をユーザに認識させることができる。これにより、ユーザが身体を動かすフォームが安定するため、測定結果を蓄積して比較し、身体の動きの変化をユーザが確認することが容易となる。例えば、マット32を用いることにより、(i)ユーザが踏み出す動作をする場合の歩幅、動作の範囲といったストライドのさせ方を規定することができ、ユーザに対し、測定において規定された動作をするよう促すことができる。継続してユーザの身体の動作を測定する場合に、ユーザが測定の際に行う動作を規定することで、時間の経過に応じた測定結果の比較をしやすくすることができる。つまり、ユーザの身体の動作が規定されることにより、ユーザの身体の動作がどのように変化していったかの評価をよりいっそう容易にすることができる。また、マット32を用いることにより、(ii)測定装置31に対するユーザの立ち位置を規定することができる。端末装置10は、測定装置31の測定結果に基づいて、マット32が、測定装置31に対して所定の位置に配置されているかを判定することができる。よって、マット32によりユーザの身体の動作を測定する際、マット32の各模様によりユーザの立ち位置が規定される。これにより、ユーザの身体の動作が、測定装置31の測定範囲に収まりやすくすることができる。例えば、ユーザが腕を真上又は真横に突き出す動作をしたとしても、予め、測定装置31に対して所定の位置にマット32を配置しておくことにより、ユーザの身体の動きが測定装置31の測定範囲から外れてしまうことを抑止することができる。また、マット32を用いることにより、(iii)ユーザに特定の動作をさせる際、ユーザに適切な体勢をとらせたうえで、測定をすることができる。例えば、ホームポジションにより、ユーザの立ち位置を規定することができ、ユーザに所定の動作をさせる際(しゃがむ動作、片足を上げる動作など)、測定に適した体勢(所定の足幅であるなど)で測定を開始することができる。
(2) When measuring the movement of the user's body, the
これらにより、ユーザの全身の各関節のしなやかさを容易に評価することができる。 These make it possible to easily evaluate the suppleness of each joint of the user's whole body.
(3)さらに、第1の実施の形態において、ユーザの身体の動作の測定結果(ROMチェックの結果など)に応じて、端末装置10が、ユーザに適したエクササイズの提案をすることとしてもよい。例えば、端末装置10において、ROMチェックの評価結果(測定履歴情報183、測定履歴データベース283)の分類結果に対応付けて、エクササイズメニュー(トレーニング項目情報185、285)を保持しているとする。すなわち、ユーザの身体の動作の測定結果、評価結果と対応付けて、予め、提案するトレーニングメニューの情報を保持しているとする。端末装置10は、測定履歴データベース283を参照し、ROMチェックなどユーザの身体の動作の測定結果、評価結果に基づいて、ユーザに提案するエクササイズメニューを特定し、特定したエクササイズメニューを、ディスプレイ132等に表示する等によりユーザに提示することとしてもよい。例えば、ROMチェックの結果、ユーザの各関節の可動域を評価することができる。サーバ20は、トレーニング項目情報285において、ユーザがエクササイズを実行するのに必要な、関節の可動域の広さが予め定められていることとしてもよい。例えば、ROMチェックの結果、ユーザの股関節の可動域が一定程度よりも小さい場合(股関節が硬い場合)、所定のトレーニング項目についてはエクササイズとしてユーザに提供しない(端末装置10において、当該トレーニング項目に基づく映像を表示する等の処理を実行できない)ようにしてもよい。また、ROMチェックの結果に基づいて、ユーザの身体の各関節の評価結果に応じたエクササイズメニューをユーザに提供することとしてもよい。
(3) Furthermore, in the first embodiment, the
また、端末装置10は、ユーザがトレーニング項目に示されるトレーニングを実行している際の身体の動きを測定し、トレーニングに規定されているようにユーザが身体を動作させることができているか否かを判定する。ユーザがエクササイズを続けた結果、徐々に、歩行姿勢を美しくするための身体の各部位の筋力が向上していき、エクササイズとして求められる動きができるようになることが期待される。これにより、端末装置10は、ユーザがエクササイズメニューを達成したと判定し、別のエクササイズメニューをユーザに提示することとしてもよい。
In addition, the
また、ユーザの身体の動作の測定結果の評価結果と同程度の他のユーザが実行したエクササイズメニューの履歴に基づいて、ユーザに対し、エクササイズメニューを提案することとしてもよい。 Alternatively, an exercise menu may be proposed to the user based on the history of exercise menus executed by other users that are similar to the evaluation results of the user's physical motion measurement results.
(4)以上の第1の実施の形態の説明では、現実世界に、測定装置31、マット32、ポール33を設置することで、ユーザの身体の動きを測定し、評価する例について説明した。
(4) In the description of the first embodiment above, an example of measuring and evaluating the movement of the user's body by installing the measuring device 31, the
この他に、仮想空間において、これらマット32に対応するオブジェクト、ポール33に対応するオブジェクトを配置し、ユーザの身体の動きを測定することとしてもよい。例えば、ユーザは、ディスプレイ132を視認する、または、ヘッドマウントディスプレイ(HMD)を装着するとする。端末装置10は、当該ディスプレイ132またはHMDにおいて、仮想空間における仮想カメラの設定に応じた視界画像を表示する。ユーザの身体の各部位(頭部、肩、肘、手、腰、膝、足など)にモーションセンサを装着することにより、端末装置10が、ユーザの身体の動きをトラッキングする。ユーザは、仮想空間に設置される各オブジェクトを視認しつつ、ユーザの身体を動作させる。これにより、現実世界においてマット32、ポール33を設置せずとも、ユーザの身体の動きを測定し、評価することができる。
Alternatively, an object corresponding to the
また、現実世界にマット32、ポール33を設置することの他に、マット32に対応する画像を床面などに照射することとしてもよく、ポール33に対応する画像(立体画像など)を現実世界において表示することとしてもよい。例えば、現実世界において、レーザー、プロジェクタなどから光を照射して、仮想的なマット32、ポール33を、ユーザが視認可能に表示してもよい。
In addition to setting the
<第2の実施の形態>
第2の実施の形態における測定システム1について説明する。第2の実施の形態では、ユーザの歩行時の動作を測定して、歩行姿勢を評価することと、これによりユーザが美しく、身体の機能を発揮しやすい歩き方を獲得することを支援することについて説明する。
<Second Embodiment>
A
図11は、第2の実施の形態における測定システム1により、ユーザが歩行する動作を測定する局面を示す。
FIG. 11 shows a situation in which the user's walking motion is measured by the
<1 概要>
測定装置31Aは、検出範囲38Aにおいて、第1のユーザUser_Aが、所定の位置から測定装置31Aへと歩行する動作を測定する。端末装置10Aは、ディスプレイ132Aにおいて、第1のユーザUser_Aに対し、歩行の状態を計測することと、歩行をする際の身体の動かし方とを通知する。図示するように、端末装置10Aは、ユーザに対し、歩行動作時に、前足に体重を乗せるように歩くよう促す通知をする。
<1 Overview>
The measuring
図11の例において、座標軸を以下のように規定する。すなわち、第1のユーザUser_Aの位置を基準として、歩行する方向を「前方」、歩行する方向に対向する方向を「後方」とし、歩行する方向により定まる軸を「前後軸」とする。一方、第1のユーザUser_Aの位置を基準として、歩行する足を接地する面において、歩行する方向と直交する方向を「左右軸」とし、ユーザの右半身の方向を「右方向」、ユーザの左半身の方向を「左方向」とする。第1のユーザUser_Aの足から頭頂部に至る、胴体方向の軸を「鉛直軸」とする。 In the example of FIG. 11, coordinate axes are defined as follows. That is, with the position of the first user User_A as a reference, the walking direction is defined as "forward", the direction opposite to the walking direction is defined as "backward", and the axis determined by the walking direction is defined as the "front-rear axis". On the other hand, with the position of the first user User_A as a reference, the direction perpendicular to the walking direction on the surface where the walking foot touches the ground is defined as the "left-right axis", the direction of the user's right half of the body is defined as the "right direction", and the user's The direction of the left half of the body is defined as "left direction". Let the axis in the body direction from the feet to the top of the head of the first user User_A be the “vertical axis”.
端末装置10Aは、ディスプレイ132Aにより、第1のユーザUser_Aに対し、測定装置31Aの位置から所定距離離れた位置を起点として、測定装置31Aに向かって歩くよう通知する。ここで、第1のユーザUser_Aが歩行動作を始める当該起点は、例えば、測定装置31Aから数メートル程度離れた位置とし、第1のユーザUser_Aの歩行のサイクル(右足を踏み出す動作および左足を踏み出す動作を1サイクルとする)を複数回繰り返すことが可能な位置に起点を設定することとしてもよい。測定装置31Aは、第1のユーザUser_Aの歩行のサイクルを複数回測定することができる。端末装置10Aは、ユーザの歩行動作を測定装置31Aにより測定する際、当該起点に第1のユーザUser_Aが位置していない場合は、第1のユーザUser_Aに対し、当該起点に移動するよう促す通知をディスプレイ132A等によりしてもよい。端末装置10Aは、当該起点に第1のユーザUser_Aがいることに応答して、第1のユーザに対し、歩行動作の測定を開始する通知(または、歩行動作を始めることを促す通知)をしてもよい。
On the
図12は、測定装置31の測定結果に基づいて、端末装置10が特定するユーザの身体の各部位を示す。端末装置10は、ユーザの身体の特徴となる各点として、四肢の関節と、頭部、肩、体幹、骨盤、足、かかと、足のつま先、肋骨、上前腸骨棘、などを特定する。端末装置10は、胸椎(体幹の中央)、骨盤の中央などを特定する。例えば、端末装置10は、ユーザに対し、所定のポーズ(T字型となるよう両腕を横に突き出すポーズ、両腕を胴体につけるポーズなど)をとるよう促し、これら所定のポーズにおける測定装置31の測定結果に基づいて、測定装置31の測定結果におけるユーザの各関節の位置を特定することとしてもよい。
FIG. 12 shows each part of the user's body identified by the
<2 データ構造>
図13は、第2の実施の形態におけるサーバ20が記憶する測定結果データベース287、評価結果データベース288のデータ構造を示す図である。
<2 Data structure>
FIG. 13 is a diagram showing data structures of the
測定結果データベース287は、測定装置31により測定される各ユーザの身体の動作(例えば、歩行動作、体幹のバランスをとる動作等)の測定結果を保持するデータベースである。
The
測定結果データベース287のレコードのそれぞれは、項目「測定データID」、項目「日時」、項目「ユーザID」、項目「測定開始からの経過時間」、項目「測定データ」、を含む。
Each record of the
項目「測定データID」は、測定装置31により測定される測定データそれぞれを識別する情報を示す。第2の実施の形態において、端末装置10は、ユーザの身体の動作の測定(例えば、歩行サイクルの測定)を開始して終了することにより、測定データそれぞれを識別する情報を、測定データと対応付けてサーバ20に保存させる。
The item “measurement data ID” indicates information for identifying each piece of measurement data measured by the measuring device 31 . In the second embodiment, the
項目「日時」は、測定装置31によりユーザの身体の動作を測定した日時を示す。 The item “date and time” indicates the date and time when the measurement device 31 measured the motion of the user's body.
項目「ユーザID」は、測定装置31により身体の動作が測定されるユーザそれぞれを識別する情報である。 The item “user ID” is information for identifying each user whose body motion is measured by the measuring device 31 .
項目「測定開始からの経過時間」は、測定装置31により、ユーザの身体の動作の測定を開始してからの経過時間を示す。 The item “elapsed time from start of measurement” indicates the elapsed time from the start of measurement of the user's body motion by the measuring device 31 .
項目「測定データ」は、図12で説明したようなユーザの身体の各部位(頭部、肩、・・・)について、項目「測定開始からの経過時間」に示されるタイミングにおける位置を示す。例えば、項目「測定データ」において、測定装置31の位置を基準とした座標系において、測定装置31の位置からユーザの身体の各部位までの距離を測定した測定結果を保持させることとしてもよい。 The item "measurement data" indicates the position at the timing shown in the item "elapsed time from start of measurement" for each part of the user's body (head, shoulders, . . . ) as described with reference to FIG. For example, in the item "measurement data", in a coordinate system based on the position of the measuring device 31, the measurement result of measuring the distance from the position of the measuring device 31 to each part of the user's body may be stored.
評価結果データベース288は、測定装置31の測定結果(測定結果データベース287)に基づき、ユーザの身体の動作(例えば、歩行動作)を評価した評価結果を保持するデータベースである。
The
評価結果データベース288のレコードのそれぞれは、項目「評価結果ID」、項目「測定データID」、項目「測定対象」、項目「評価結果」、を含む。
Each record of the
項目「評価結果ID」は、測定装置31によるユーザの身体の動作の測定結果を評価した評価結果それぞれを識別する情報である。 The item “evaluation result ID” is information for identifying each evaluation result obtained by evaluating the measurement result of the user's body motion by the measuring device 31 .
項目「測定データID」は、評価の対象となる測定装置31の測定結果(測定結果データベース287)それぞれを識別する情報である。 The item "measurement data ID" is information for identifying each measurement result (measurement result database 287) of the measurement device 31 to be evaluated.
項目「測定対象」は、ユーザの身体の動作として、測定の対象となる内容を示す。測定の対象としては、例えば、ユーザの歩行動作時の姿勢、ユーザの体幹のバランス等がある。 The item "measuring object" indicates the content to be measured as the user's body motion. Objects to be measured include, for example, the posture of the user during walking, the balance of the user's trunk, and the like.
項目「評価結果」は、測定装置31の測定結果に基づき、ユーザの身体の動きを評価した評価結果を示す。例えば、ユーザの歩行動作時の姿勢について評価する場合、評価の対象としては、「ユーザの足の踏み出し」、「踏み出した前足への体重移動ができているか」、「前足へ体重を乗り切ることができているか」などがある。詳細は後述する。また、ユーザの体幹のバランスについて評価する場合、評価の対象としては、「肩、腰、足の位置がずれているか」などがある。詳細は後述する。 The item “evaluation result” indicates the evaluation result of evaluating the user's body movement based on the measurement result of the measuring device 31 . For example, when evaluating the user's posture during walking, the objects to be evaluated are "the user's stepping forward", "whether the user's weight can be transferred to the stepped front leg", and "whether the user's weight can be transferred to the front leg". Are you ready?” Details will be described later. Also, when evaluating the balance of the user's trunk, the subject of evaluation includes "whether the positions of the shoulders, hips, and feet are out of alignment". Details will be described later.
<3 動作>
以下、第2の実施の形態2において端末装置10がユーザの身体の動きを測定し、測定結果に基づき評価する処理を説明する。
<3 Operation>
Hereinafter, a process in which the
図14は、第2の実施の形態において端末装置10がユーザの歩行動作を測定し、評価する処理を示すフローチャートである。
FIG. 14 is a flow chart showing processing for measuring and evaluating the user's walking motion by the
ステップS1403において、端末装置10は、測定装置31の測定結果に基づき、ユーザが測定装置31の測定範囲内の所定の位置にいることを検出する。
In step S<b>1403 , the
ステップS1405において、端末装置10は、ユーザに対し、歩行動作をするようガイド(音声、映像)を出力する。端末装置10は、測定装置31の測定結果に基づきユーザの各関節を検出し、ユーザの歩行動作時の各関節の位置を記録する。
In step S1405, the
ステップS1407において、端末装置10は、測定装置31の測定結果に基づき、ユーザの歩行動作のサイクルを複数の局面に分類する。端末装置10は、ユーザの歩行動作の各局面の評価項目に従って、歩行動作を評価した評価値を決定する。
In step S<b>1407 , the
ステップS1409において、端末装置10は、歩行姿勢の理想となるモデルとあわせて、測定装置31の測定結果と、歩行動作を評価した評価結果とをディスプレイ132等に出力する。端末装置10は、測定結果と評価結果とをサーバ20へ送信する。
In step S1409, the
ステップS1453において、サーバ20は、ユーザの歩行動作の測定結果および評価結果に基づき測定結果データベース287、評価結果データベース288を更新する。
In step S1453, the
<4 測定結果、評価結果の出力例>
図15は、第2の実施の形態において端末装置10がユーザの歩行動作を測定する測定結果、および、測定結果に基づきユーザの歩行動作を評価した評価結果を出力する場合の出力例を示す図である。図示する例では、端末装置10は、ディスプレイ132に、これら測定結果、評価結果を表示する例を示しているが、端末装置10がプリンタ等により紙媒体などに印刷することで、測定結果、評価結果を出力することとしてもよい。
<4 Output example of measurement results and evaluation results>
FIG. 15 is a diagram showing an output example when the
図15(A)は、端末装置10がユーザの歩行動作を測定するために、測定装置31に対して一定の歩数(例えば、数メートル程度)を歩くよう促す局面を示す。図14のステップS1403、S1405の処理に対応する。
FIG. 15A shows a situation in which the
端末装置10は、ディスプレイ132において、表示部132P1により、ユーザに対し、歩行動作をする際に、「踏み出す前足に体重を乗せるように歩くことを促す通知」を表示する。端末装置10は、表示部132P2、132P3において、測定装置31の測定結果として、ユーザの身体の各部位を特定した位置(図12で例示した、身体の各部位)を示す画像を表示する。端末装置10は、ユーザの身体の各部位を線状に接続することで、ユーザの身体の測定結果をユーザにとって視認しやすく表示する。図15の例では、ユーザの身体の右半身の各部位を点線で接続し、左半身の各部位を実線で接続している例を示す。これにより、ユーザは、測定装置31の測定結果について、ユーザの身体の右半身の動きか、左半身の動きかを容易に認識することができる。
In the
端末装置10は、表示部132P2により、測定装置31の測定結果に基づき、随時、ユーザの正面(図11に示す前後軸)から見た場合のユーザの各部位の位置を特定した結果を表示する。
The
端末装置10は、表示部132P3により、測定装置31の測定結果に基づき、随時、ユーザの側面(図11に示す左右軸)から見た場合のユーザの各部位の位置を特定した結果を表示する。つまり、端末装置10は、測定装置31による測定結果を、リアルタイムに表示部132P2、132P3に表示する。これにより、ユーザは、ユーザ自身の身体の動作の測定結果のフィードバックをリアルタイムに得ることができる。
The
端末装置10は、ユーザに対し、測定装置31に対して接近していくように歩行動作を行うよう促す通知をする。ここで、端末装置10は、表示部132P2、132P3においては、ユーザの身体から一定距離の位置においてユーザの身体の動きを測定したように測定結果を表示してもよい。例えば、端末装置10は、3次元仮想区間を生成し、測定装置31の測定結果(つまり、測定装置31の位置から、第1のユーザUser_Aの各部位の位置までの距離)に基づき、3次元仮想空間に、ユーザの身体の各部位の位置に対応するオブジェクトを配置する。例えば、端末装置10は、3次元仮想空間において、測定装置31に対応する座標を特定し、当該測定装置31に対応する座標に対し、測定装置31の測定結果に基づいて、各部位の位置に対応する座標に、各部位に対応するオブジェクトを配置する。端末装置10は、測定装置31による測定に伴う経過時間と関連付けて、3次元仮想空間において、各部位に対応するオブジェクトの位置の情報を保持する。つまり、3次元仮想空間において、ユーザの各部位の位置に対応するオブジェクトの移動の軌跡を再現することにより、ユーザの歩行動作を各部位の位置の軌跡として再現できるようにする。端末装置10は、これらユーザの各部位の位置に対応するオブジェクト群に対し、一定の位置関係となる座標(例えば、「肩中央」に対し、前後軸において一定距離をあけた位置、または、胸腰に対し左右軸において一定距離をあけた位置)に仮想カメラを設定し、各部位の位置に対応するオブジェクトの移動に連動して仮想カメラを移動させることとしてもよい。
The
端末装置10は、表示部132P4において、測定装置31による測定を適切に行うための情報を通知する。図14のステップS1403に対応する。例えば、端末装置10は、測定装置31によりユーザの歩行動作を測定する際、ユーザが歩行を開始する位置が所定の位置にあるか否かを判定し、所定の位置から歩行を開始するよう促す通知をする。図示するように、端末装置10は、ユーザが歩行を開始する位置が測定装置31に対して近すぎる場合、さらに後方から歩行動作を始めるよう促す通知をする。
The
図15(B)は、端末装置10がユーザの歩行動作の複数の局面のうちのある局面についての測定結果および評価結果を出力する局面を示す。図14のステップS1409の処理に対応する。
FIG. 15(B) shows a phase in which the
図15(B)、図15(C)では、ユーザの身体の測定結果について、鉛直軸を基準として表示する。これにより、ユーザの身体が、鉛直軸を基準にどのように回転できているかをユーザに提示することができる。 In FIGS. 15B and 15C, the measurement results of the user's body are displayed with the vertical axis as the reference. Accordingly, it is possible to present to the user how the user's body is rotated with respect to the vertical axis.
端末装置10は、ディスプレイ132において、ユーザの歩行姿勢の美しさの評価結果として、歩行動作時の肩の回転のバランス、腰の回転のバランスの評価結果を出力する。端末装置10は、歩行動作を複数の局面に分けて、それぞれの局面において、肩の回転のバランス、腰の回転のバランスなどの評価結果を出力する。このように、歩行動作の複数の局面について、測定結果と評価結果とをユーザに提示することにより、ユーザの歩行動作を美しくするための示唆を提供することができる。
The
端末装置10は、表示部132P5により、歩行動作時のサイクル(右足を踏み出して、左足を踏み出す動作を1サイクルとする)において、左回転、右回転のそれぞれにおける肩の回転の傾きを表示する。
The
端末装置10は、表示部132P6において、右肩および左肩の位置により定まる「両肩を結ぶ線」、両股関節の位置により定まる「両股関節を結ぶ線」、右肩および左肩の位置の中心となる「肩の中心位置」、股関節の位置(例えば、右骨盤と左骨盤の位置)により定まる「腰の中心位置」を表示する。端末装置10は、歩行動作の1サイクルにおいて、ユーザが左足を踏み出した際の左肩(または両肩)の位置と、股関節の位置とに基づき、鉛直軸を基準とした肩の左回転の程度(どこまで肩が回転しているか)を評価する。例えば、端末装置10は、腰の位置を基準として、1サイクルにおいて左回転により肩が回転する量に基づき、「両肩を結ぶ線」を描画する。端末装置10は、表示部132P6において、評価結果としてのスコア(点数「4.8点」)を表示している。
The
端末装置10は、表示部132P7において、「両肩を結ぶ線」、「両股関節を結ぶ線」、「肩の中心位置」、「腰の中心位置」を表示する。端末装置10は、歩行動作の1サイクルにおいて、ユーザが右足を踏み出した際の右肩(または両肩)の位置と、股関節の位置とに基づき、鉛直軸を基準とした肩の左回転の程度を評価する。端末装置10は、腰の位置を基準として、1サイクルにおいて右回転により肩が回転する量に基づき、「両肩を結ぶ線」を描画する。端末装置10は、表示部132P7において、評価結果としてのスコア(点数「4.5点」)を表示しており、左回転と比較して低い点数となっている。
The
端末装置10は、表示部132P6、132P7において、歩行動作の1サイクルにおける左足を踏み出す動作、右足を踏み出す動作における「肩の中心位置」、「腰の中心位置」を表示する。これにより、歩行動作時に、腰の位置に対して上体がどのように傾いているかをユーザに認識させることができる。例えば、ユーザの歩行動作時に、上体が左右軸において動いている程度、前後軸において動いている程度をユーザに認識させることができる。図示する例では、表示部132P6において、左回転時の「肩の中心位置」と「腰の中心位置」との重なりの程度が大きく、上体がぶれていないのに対し、表示部132P7において、右回転時に、「肩の中心位置」と「腰の中心位置」との重なりが相対的に小さく、上体が左回転時よりも横方向にぶれている。そのため、評価結果となるスコアが、左回転時よりも右回転時のほうが低くなっている。
The
図15(C)は、端末装置10がユーザの歩行動作の局面として、歩行動作時の前足を地面につけたときの測定結果および評価結果を出力する局面を示す。図14のステップS1409に対応する。
FIG. 15(C) shows, as a phase of the user's walking motion, the
端末装置10は、表示部132P8において、ユーザが歩行動作時に前足を地面につけた時の腰の回転の傾きの測定結果と評価結果とを表示する。
The
端末装置10は、表示部132P9において、左足を前足として地面につけた時の「両股関節を結ぶ線」等を表示する。図示するように、「両股関節を結ぶ線」が傾いているため、ユーザが、左足を地面につけた時に腰が回転できていることが示されている。
The
端末装置10は、表示部132P10において、右足を前足として地面につけた時の「両股関節を結ぶ線」等を表示する。図示するように、「両股関節を結ぶ線」が傾いているため、ユーザが、右足を地面につけた時に腰が回転できていることを示す。
The
図16は、第2の実施の形態において端末装置10がユーザの歩行動作を測定する測定結果、および、測定結果に基づきユーザの歩行動作を評価した評価結果を出力する場合の出力例を示す図である。図14に示すステップS1407、S1409の処理に対応する。
FIG. 16 is a diagram showing an output example when the
図16の例では、端末装置10は、ユーザの歩行動作の1サイクルの測定結果および評価結果について、歩行姿勢を美しく見せるための参考事例(モデル事例、お手本)と比較可能な態様で表示する。図16に示す出力例についても、端末装置10は、プリンタ等により紙媒体に印刷することで出力することとしてもよい。
In the example of FIG. 16 , the
端末装置10は、ディスプレイ132において、歩行動作の1サイクルを複数のステップにわけて、各ステップにおいて、歩行姿勢を美しく見せるためのお手本と、ユーザの歩行動作の測定結果と、測定結果に対する評価結果とを表示する。
On the
図16の例では、歩行動作の1サイクルを、第1のステップ「足を前に踏み出す」、第2のステップ「踏み出した前足に体重を乗せようとする(前足に乗ろうとする)」、第3のステップ「踏み出した前足に体重を乗せ切る(前足に乗り切る)」に分けている。 In the example of FIG. 16, one cycle of the walking motion consists of the first step "stepping forward", the second step "trying to put the weight on the stepped front foot (trying to get on the front foot)", and the second step It is divided into 3 steps, "Put your weight on the stepped front leg (get over the front leg)".
ここで、第1のステップ、第2のステップ、第3のステップにおいて、端末装置10が評価する項目としては、これら各ステップにおいて共通する項目と、各ステップにおいて共通しない項目とが含まれる。
(1)第1のステップの評価項目
・ 歩行動作中における上半身の傾き: 上半身の部位(頭部、肩など)が腰の位置に対して前傾しているか後傾しているか。例えば、骨盤の位置、胸腰の位置、肩中央の位置とにより定まる線が、鉛直軸に対して傾斜する角度が一定以内であるか。
・ 足を前に踏み出そうとする際の足の前後の開き: 両足の前後の開きの程度。例えば、踏み出した前足の足首と、後足の足首との距離が、一定距離以上であるか。
・ 足を前に踏み出そうとする際の腰の位置: 足を踏み出そうとする際に、腰が後方に残されていないか。例えば、骨盤の位置が、肩、胸腰に対して前方であるか後方であるか。
(2)第2のステップの評価項目
・ 前足を地につけたタイミングにおける上半身の傾き: 上半身の部位(頭部、肩など)が腰の位置に対して前傾しているか後傾しているか
・ 前足を地につけたタイミングにおけるひざの曲がり: 前足の各部位(足首、膝、骨盤)が大きく曲がっていないか、大きく曲がっているか。例えば、足首と膝とを接続する線と、膝と骨盤とを接続する線とにより形成される角度が、一定の角度に収まっているか
(3)第3のステップの評価項目
・ 前足に体重を乗せ切るタイミングにおける上半身の傾き: 上半身の部位(頭部、肩など)が腰の位置に対して前傾しているか後傾しているか
・ 前足に体重を乗せ切るタイミングにおける軸足の伸び: 踏み出して着地した前足を軸足として、軸足に体重を乗せる際に、軸足の各部位(足首、膝、骨盤)が伸びているか、曲がっているか。例えば、足首と膝とを接続する線と、膝と骨盤とを接続する線とにより形成される角度が、一定の角度に収まっているか
具体的には、端末装置10は、表示部132P11において、第1のステップにおけるお手本を表示する。端末装置10は、表示部132P21において、第1のステップにおけるユーザの身体の測定結果を表示する。端末装置10は、表示部132P31において、第1のステップにおけるユーザの身体の動きの評価結果を表示する。
Here, in the first step, the second step, and the third step, the items evaluated by the
(1) Evaluation items for the first step • Inclination of the upper body during walking: Whether the parts of the upper body (head, shoulders, etc.) are inclined forward or backward with respect to the position of the waist. For example, is the angle at which the line determined by the position of the pelvis, the position of the chest and the waist, and the position of the center of the shoulder tilt with respect to the vertical axis within a certain range?
・ Fore-and-aft spread of the feet when trying to step forward: The degree of the fore-and-aft spread of both feet. For example, is the distance between the ankle of the front leg and the ankle of the back leg that has stepped forward a certain distance or more?
・ Hip position when trying to step forward: Is the hip left behind when trying to step forward? For example, is the position of the pelvis forward or backward with respect to the shoulders, chest and waist?
(2) Evaluation items for the 2nd step ・Inclination of the upper body at the timing when the front foot is on the ground: Whether the parts of the upper body (head, shoulders, etc.) are tilted forward or backward with respect to the position of the waist ・Bending of the knee when the front foot touches the ground: Whether each part of the front foot (ankle, knee, pelvis) is bent or bent greatly. For example, is the angle formed by the line connecting the ankle and knee and the line connecting the knee and pelvis within a certain angle? Inclination of the upper body at the timing of putting the weight on: Whether the parts of the upper body (head, shoulders, etc.) are tilted forward or backward with respect to the position of the waist. With the front foot that landed on the ground as the pivot foot, each part of the pivot foot (ankle, knee, pelvis) is stretched or bent when putting weight on the pivot foot. For example, does the angle formed by the line connecting the ankle and the knee and the line connecting the knee and the pelvis fall within a certain angle? Display the exemplar in the first step. The
端末装置10は、表示部132P11、132P12、132P13において、これらの各評価項目が、美しい歩行姿勢にとって良好である場合の身体の各部位(関節)の位置を表示している。例えば、表示部132P11において、上半身が傾いておらず、前足と後ろ足とが一定程度に開いており(歩幅が小さすぎず)、腰の位置も適切である(後ろ寄りになっていない)場合の身体の各部位の位置が示されている。
The display units 132P11, 132P12, and 132P13 of the
図示する例では、表示部132P31において、評価結果として、評価項目「上半身の傾き」について、右足を踏み出した際の右足の評価結果RF_icと、左足を踏み出した際の左足の評価結果LF_icとを、所定のバーに重ねて表示している。当該所定のバーは、評価結果として取り得る範囲に応じて描画されている。端末装置10は、当該所定のバーにおいて、評価結果が良好である領域と、良好ではない領域とを区別して表示しており、図示する例では、評価結果が良好である領域を強調して表示している。端末装置10は、評価項目「上半身の傾き」において、評価結果が、前傾もしすぎず後傾もしすぎていないとして、良好である範囲に、右足の評価結果RF_icと、左足の評価結果LF_icとを関連付けて表示している。
In the illustrated example, the display unit 132P31 displays, as the evaluation results, the evaluation result RF_ic for the right foot when the right foot is stepped and the evaluation result LF_ic for the left foot when the left foot is stepped for the evaluation item "inclination of upper body". It is displayed superimposed on a predetermined bar. The predetermined bar is drawn according to the range that can be taken as the evaluation result. In the predetermined bar, the
端末装置10は、表示部132P31において、評価結果として、評価項目「足の前後の開き」、評価項目「腰の位置」についても、右足の評価結果と左足の評価結果とを所定のバーに関連付けて表示している。
In the display unit 132P31, the
端末装置10は、表示部132P12において、第2のステップにおけるお手本を表示する。端末装置10は、表示部132P22において、第2のステップにおけるユーザの身体の測定結果を表示する。端末装置10は、表示部132P32において、第2のステップにおけるユーザの身体の動きの評価結果を表示する。
The
端末装置10は、表示部132P13において、第3のステップにおけるお手本を表示する。端末装置10は、表示部132P23において、第3のステップにおけるユーザの身体の測定結果を表示する。端末装置10は、表示部132P33において、第3のステップにおけるユーザの身体の動きの評価結果を表示する。
The
図17は、端末装置10が、ユーザの歩行動作におけるひざの負担の評価結果を出力する例を示す図である。図14のステップS1409に対応する。
FIG. 17 is a diagram showing an example in which the
図17(A)は、ユーザの歩行動作において、股関節の内転および外転について測定した測定結果と、評価結果とを出力する例を示す。端末装置10は、ディスプレイ132に、ユーザの歩行動作の測定結果を、前後軸に基づいて(ユーザを正面から見たものとして)表示し、歩行動作時の膝の曲がりをユーザが容易に確認できるようにする。
FIG. 17A shows an example of outputting measurement results and evaluation results of hip joint adduction and abduction in a user's walking motion. The
端末装置10は、表示部132P41において、歩行動作時の測定結果を表示している。端末装置10は、表示部132P42において、右足を軸足として歩行する際の測定結果を表示する。端末装置10は、表示部132P43において、左足を軸足として歩行する際の測定結果を表示する。
The
端末装置10は、表示部132P44において、ユーザの参考となるよう、好ましい測定結果のパターン(「軸足も遊脚もまっすぐ」)と、膝を痛める可能性のある測定結果のパターン(「ひざの外側を痛める可能性あり」、「ひざの内側を痛める可能性」)とについて表示する。つまり、歩行動作時に、股関節が内転しすぎていても、外転しすぎていても、歩行動作に伴い膝を痛めるおそれがある。
On the display unit 132P44, the
以上により、ユーザは、端末装置10の出力結果を参照することにより、ひざを痛めないよう歩行するよう促され得る。
As described above, by referring to the output result of the
図17(B)は、ユーザの歩行動作において、膝が足首よりも先行しすぎていないかの評価結果を出力する例を示す図である。端末装置10は、ディスプレイ132に、ユーザの歩行動作の測定結果を、左右軸に基づいて(ユーザを側面から見たものとして)表示し、歩行動作時に、ひざを先行して動かし過ぎていないかをユーザが容易に確認できるようにする。
FIG. 17B is a diagram showing an example of outputting an evaluation result as to whether the knee is too far ahead of the ankle in the user's walking motion. The
端末装置10は、表示部132P51において、歩行動作時の測定結果を表示している。端末装置10は、表示部132P52において、右足を軸足として歩行する際の測定結果を表示する。端末装置10は、表示部132P53において、右足を軸足として歩行する際の測定結果を表示する。端末装置10は、表示部132P51において、ユーザの歩行姿勢の評価結果として「ひざの前方負担が小さい」旨を表示している。
The
端末装置10は、表示部132P54において、ユーザの参考となるよう、好ましい測定結果のパターン(「良好」)と、膝を痛める可能性のある測定結果のパターン(「ひざが前に出過ぎている」)とについて表示する。つまり、ユーザが前足を踏み出そうとする際に、足首よりも膝が先行しすぎていると、膝を痛める可能性がある。端末装置10は、足首の位置と膝の位置とを結ぶ線、および、膝の位置と骨盤の位置とを結ぶ線が交差する角度が所定角度以上あるか否か(膝から足首までが前に出ているか)に基づいて、ユーザが前足を踏み出そうとする際に、膝が先行し過ぎているかを評価する。
On the display unit 132P54, the
以上のように、ユーザの歩行のサイクルについて、軸足を踏み出そうとする、軸足を着地させる、軸足に体重を乗せようとする、といった複数の局面について、歩行動作を評価する。これにより、ユーザは、各局面の評価結果を参照することで、歩行動作をより美しくするよう促される。また、お手本となる身体の動きとユーザの身体の動作の測定結果とを対比してユーザが参照できるようにすることで、ユーザが美しい歩行姿勢に近づけるよう促される。 As described above, the walking motion is evaluated for a plurality of phases of the walking cycle of the user, such as trying to step forward with the pivot leg, landing the pivot leg, and trying to put the weight on the pivot leg. Thereby, the user is prompted to make the walking motion more beautiful by referring to the evaluation result of each aspect. In addition, by allowing the user to refer to the measurement result of the user's body movement by comparing the model body movement with the user's body movement, the user is urged to approach a beautiful walking posture.
<第3の実施の形態>
第3の実施の形態における測定システム1について説明する。第3の実施の形態では、ユーザの体幹のバランスの測定結果を表示するとともに、体幹のバランスがとれた状態をユーザが獲得できるようにするための処理を説明する。
<Third Embodiment>
A
<動作>
以下、第3の実施の形態において、端末装置10がユーザの身体の動きを測定し、測定結果に基づき評価する処理を説明する。
<Action>
Hereinafter, in the third embodiment, a process in which the
図18は、第3の実施の形態において端末装置10がユーザの体幹のバランスを測定し、評価する処理を示すフローチャートである。
FIG. 18 is a flow chart showing processing for measuring and evaluating the user's trunk balance by the
ステップS1803において、端末装置10は、測定装置31の測定結果に基づき、ユーザの体幹のバランス(肩、腰、足)を測定するようガイド(音声、映像)を出力する。端末装置10は、ユーザの肩、腰、足の位置について、鉛直軸に基づいて、それぞれ円で表示して測定結果を表示する。端末装置10は、ユーザの肩、腰、足の位置の重なり具合に応じて、体幹のバランスをとるよう促すガイドを出力する。
In step S<b>1803 , the
ステップS1805において、端末装置10は、測定装置31の測定結果に基づき、ユーザの体幹のバランスを評価して評価値を出力する。端末装置10は、測定装置31の測定結果と、評価結果とをサーバ20へ送信する。
In step S1805, the
ステップS1853において、サーバ20は、ユーザの体幹のバランスの測定結果および評価結果に基づき測定結果データベース287、評価結果データベース288を更新する。
In step S1853, the
<出力例>
図19は、第3の実施の形態において端末装置10がユーザの体幹のバランスを測定する測定結果、および、体幹のバランスの評価結果を出力する例を示す図である。
<Example of output>
FIG. 19 is a diagram showing an example in which the
図19(A)は、端末装置10がユーザの体幹のバランスを測定装置31により測定するために、測定結果をリアルタイムに出力する局面の画面例を示す。図18のステップS1803の処理に対応する。図19(A)の例では、表示部132P61において、ユーザの身体の肩、腰、足のそれぞれに対応した円形の図形(正円、楕円など)を表示する。
FIG. 19A shows a screen example of a phase in which the
端末装置10は、表示部132P62において、ユーザの身体の各部位の測定結果を、前後軸に基づき表示する。
The
端末装置10は、表示部132P63において、測定装置31の測定結果に基づいて、ユーザの身体の肩、腰、足の各部位の位置を、鉛直軸に基づき表示する。端末装置10は、測定装置31の測定結果を、随時、表示部132P63に表示する。よって、ユーザの身体がぶれると、肩、腰、足の各部位に対応する各円形の図形が重ならず、ずれを生じさせることになる。図19(A)の画面例では、ユーザの身体の各部位が、鉛直軸に沿って整っておらず、ずれていることを示している。ユーザは、ディスプレイ132の表示部132P63の表示を見つつ、体幹のバランスをとるよう身体を動かすことを促される。
The
端末装置10は、表示部132P64において、ユーザが体幹のバランスが取れた状態になるよう促す通知をする。端末装置10は、測定装置31の測定結果に基づいて、ユーザの身体の各部位のバランスを整えるために必要なユーザの身体の動きを特定する。図示する例では、ユーザの腰の部位の位置に対し、頭部と足の位置が後ろ側となっている。つまり、ユーザの腰の位置が前方に突き出した状態となっている。端末装置10は、表示部132P64において、前後方向において身体の傾きを整えるよう促す表示をする。これにより、ユーザは、体幹のバランスが取れた状態になるために必要な身体の動きを容易に認識することができる。
The
図19(B)は、ユーザの体幹のバランスが整った状態における測定結果の表示例を示す。表示部132P63において、ユーザの肩、腰、足の各部位が、鉛直軸に沿って並んでおり、体幹のバランスがとれている。端末装置10は、表示部132P64において、体幹のバランスが取れた状態であることをユーザに通知している。
FIG. 19B shows a display example of measurement results when the trunk of the user is well-balanced. In the display section 132P63, the user's shoulders, waist, and feet are aligned along the vertical axis, and the trunk is well balanced. The
図19(C)は、体幹のバランスの測定を終了し、評価結果を出力する場合の表示例を示す。図18のステップS1805の処理に対応する。 FIG. 19(C) shows a display example when the trunk balance measurement is finished and the evaluation result is output. This corresponds to the processing of step S1805 in FIG.
端末装置10は、表示部132P65において、体幹のバランスの測定が終了した旨を表示し、測定結果に基づく評価結果を出力する。
The
端末装置10は、体幹のバランスの評価結果に基づいて、ユーザに提案するトレーニングメニューとして、体幹のバランスを整えるためのトレーニングメニューを決定する。図示する例では、端末装置10は、表示部132P65において、ユーザの体幹のバランスの評価結果と、評価結果に応じてユーザに提案するトレーニングメニューの候補とを表示する。端末装置10は、表示部132P66において、ユーザに提案するトレーニングメニューを開始するための操作を受け付ける。端末装置10は、表示部132P66へのユーザの入力操作に応答して、対応するトレーニングメニューを読み出す。
The
端末装置10は、表示部132P67において、ユーザから、トレーニングメニューの指定を受け付ける。つまり、表示部132P67では、端末装置10が体幹のバランスの評価結果に基づきユーザに提案するトレーニングメニューにかかわらず、その他のトレーニングを開始するための入力操作を受け付ける。
The
以上の各実施形態で説明した事項を、それぞれ組み合わせるとしてもよい。 The items described in each of the above embodiments may be combined.
<第4の実施の形態>
第4の実施の形態の説明では、ユーザの身体の動きの測定結果として、ROMチェック(第1の実施の形態)、歩行姿勢のチェック(第2の実施の形態)、体幹のバランスの測定(第3の実施の形態)等に応じて、ユーザに適したトレーニングメニューを提案する技術について説明する。端末装置10は、上記のようにユーザの身体の動きを測定し、評価することにより、ユーザの身体の各部位のうち、トレーニングすべきものを特定することができ、当該特定された結果に応じて、適したトレーニングメニューを提案する。
<Fourth Embodiment>
In the description of the fourth embodiment, the measurement results of the user's body movements are ROM check (first embodiment), walking posture check (second embodiment), trunk balance measurement. A technique for proposing a training menu suitable for the user according to (third embodiment) and the like will be described. By measuring and evaluating the movement of the user's body as described above, the
このように構成すると、トレーニングメニューのコンテンツを新たに追加する際に、当該トレーニングメニューのコンテンツに、身体のどの部位に適したものか、また、ユーザの身体に生じうる悩みのいずれに応じたものかを関連付けることにより、ユーザの身体の動きの測定結果に応じたコンテンツをユーザに提供することができ、コンテンツの追加がよりいっそう容易になる。 With this configuration, when new training menu content is added, the content of the training menu can be customized according to which part of the body the training menu is suitable for, or whether the content is suitable for the user's body. By associating whether or not, it is possible to provide the user with content corresponding to the measurement result of the user's body movement, making it easier to add content.
(1)端末装置10は、以上のように、ユーザの歩行サイクルの各ステップにおける測定結果、評価結果に基づいて、ユーザに対し、エクササイズメニューを提案することとしてもよい。例えば、端末装置10は、お手本となる身体の動きと、ユーザの身体の動きとを比較して(図16の例)、ユーザが改善することが望ましい筋肉の部位を特定する。例えば、サーバ20は、ユーザの歩行動作として、第1ステップ(足を前に踏み出す動作)の評価結果において、足の前後の開きが小さい場合、足を大きく踏み出せることが期待されるエクササイズメニューを、トレーニング項目情報285を参照することで特定する。すなわち、サーバ20は、歩行動作の各ステップの評価項目、体幹のバランスの評価項目の評価結果に応じて、予め、提案するエクササイズメニューを関連付けて保持することとしてもよい。
(1) As described above, the
(2)ユーザの身体の動作の左右差を解消できるよう、端末装置10が、ユーザに対しトレーニングメニューを提案することとしてもよい。端末装置10は、以上のように、ROMチェック、歩行姿勢のチェックを行うことにより、ユーザの身体の動作の左右のバランスを評価する。端末装置10は、例えば、ユーザの歩行動作時の肩の回転、腰の回転の評価結果に基づき、鉛直軸を基準とした回転動作の左右のバランスを評価する。端末装置10は、ユーザの身体の動作が左右対称となっていない要因となっている筋肉の部位を特定する。例えば、端末装置10は、肩の回転量の左右差の要因となる筋肉の部位の情報を予め保持している。以上のように、端末装置10が、歩行動作時の評価の対象と、左右差の要因となる筋肉の部位の情報とを予め対応付けて保持して多くことにより、左右のバランス差を解消するためにトレーニングすべき筋肉の部位を特定することができる。
(2) The
(3)ユーザの身体の動作の評価結果に基づいて、端末装置10が、ユーザの身体において将来起こり得る状態を予測するとともに、当該予測結果に基づいて、ユーザに対しトレーニングメニューを提案することとしてもよい。
(3) The
例えば、端末装置10は、(i)ユーザの身体に起こり得る悩みとして、「首・肩こり」、「二の腕のたるみ」、「内巻肩、頭が前に出た姿勢」、「腰痛」、「足のむくみ」、「腕のはり」などの各項目と、(ii)ユーザの身体の部位の情報とを対応付けて所定の情報として記憶している。また、端末装置10は、上記のユーザの身体に起こり得る悩みの各項目と対応付けて、トレーニングとして提案するトレーニングメニューの情報を記憶している。
For example, the
端末装置10は、ROMチェック、歩行動作のチェックを行うことにより、これらの測定結果、評価結果に基づいて、改善をすることが望ましい筋肉の部位を特定する。例えば、ROMチェックにおいて、身体のねじれが良好でない場合に、どの筋肉の部位が関連付けられているかが端末装置10において予め保持されている。例えば、端末装置10は、ROMチェックにおいて、肩、腰などの可動域の評価項目と対応付けて、筋肉の情報を保持している。
The
端末装置10は、動きが硬い筋肉の部位を特定する等により、当該所定の情報を参照することにより、将来起こり得る悩みを特定する。端末装置10は、この特定結果に応じて、ユーザの身体に将来生じうる悩みに対応できるよう、ユーザに提案するトレーニングメニューを決定する。
The
以上のように、歩行動作時のバランス、身体のねじれの評価項目と対応付けて筋肉の各部位の情報が関連付けられるとともに、筋肉の各部位の情報と、ユーザの身体に起こり得る悩みの各項目の情報とが関連付けられている。これにより、端末装置10は、ユーザの身体の動作の評価結果に基づいて、ユーザそれぞれにカスタマイズされたトレーニングメニューを当該ユーザに提案することができる。
As described above, the information of each part of the muscle is associated with the evaluation items of the balance during walking motion and the torsion of the body, and the information of each part of the muscle and each item of trouble that may occur in the user's body are associated. associated with the information of Thereby, the
<第4の実施の形態におけるデータ構造>
図20は、第4の実施の形態におけるサーバ20が記憶する各種データのデータ構造を示す図である。
<Data structure in the fourth embodiment>
FIG. 20 is a diagram showing the data structure of various data stored by the
サーバ20は、測定項目情報282において、測定項目それぞれについて、項目「起こり得る将来の悩み」と、項目「関連する筋肉の部位」とを保持する。
In the
項目「起こり得る将来の悩み」は、測定項目それぞれについて、測定結果について評価した評価結果によっては将来ユーザの身体に起こり得る悩みを特定する情報(例えば、「肩こり」、「首こり」などのタグ)である。 The item "probable future troubles" is information that identifies possible troubles that may occur in the user's body in the future, depending on the results of evaluating the measurement results for each measurement item (for example, tags such as "stiff shoulders" and "stiff neck"). ).
項目「関連する筋肉の部位」は、測定項目それぞれについて、測定結果について評価した評価結果によってはトレーニングすることが望ましい身体の部位(筋肉の部位)の情報である。項目「関連する筋肉の部位」において、評価結果の程度に応じて、身体の部位の情報を段階的に保持してもよい。 The item "related muscle part" is information on a body part (muscle part) that is desired to be trained for each measurement item, depending on the evaluation results of the measurement results. In the item "relevant muscle part", the information of the body part may be stored step by step according to the degree of the evaluation result.
サーバ20は、トレーニング項目情報285において、トレーニング項目それぞれについて、項目「コンテンツ」と、項目「対応する悩み」と、項目「関連する筋肉の部位」とを保持する。
In the
項目「コンテンツ」は、トレーニングを実施する際にユーザに提示されるコンテンツ(動画、ユーザの身体の動きの参考となるモーションデータ、音声データなど)を示す。 The item "content" indicates content (video, motion data that serves as a reference for the user's body movement, audio data, etc.) presented to the user when training is performed.
項目「対応する悩み」は、トレーニング項目それぞれについて、評価結果によっては将来ユーザの身体に起こり得る悩みを特定する情報(例えば、「肩こり」、「首こり」などのタグ)である。 The item "corresponding trouble" is information (for example, tags such as "stiff shoulder" and "stiff neck") specifying a trouble that may occur in the user's body in the future depending on the evaluation result for each training item.
項目「関連する筋肉の部位」は、トレーニング項目それぞれについて、評価結果によってはトレーニングすることが望ましい身体の部位(筋肉の部位)の情報である。項目「関連する筋肉の部位」において、評価結果の程度に応じて、身体の部位の情報を段階的に保持してもよい。 The item "related muscle part" is information on a body part (muscle part) that is desired to be trained for each training item depending on the evaluation result. In the item "relevant muscle part", the information of the body part may be stored step by step according to the degree of the evaluation result.
サーバ20は、評価結果データベース288において、項目「起こり得る将来の悩み」を保持する。項目「起こり得る将来の悩み」は、評価結果それぞれについて、評価結果によっては将来ユーザの身体に起こり得る悩みを特定する情報(例えば、「肩こり」、「首こり」などのタグ)である。
The
以上のように、サーバ20は、ユーザの身体の動きの評価結果に応じて評価結果データベース288を更新する。例えば、ROMチェックの測定結果に応じて(測定項目情報282)、ユーザの身体において将来起こり得る悩みの情報を特定し得る。サーバ20は、評価結果データベース288を参照することにより、ユーザについて、起こり得る将来の悩みの情報を特定し、トレーニング項目情報285を参照することにより、ユーザに提案するトレーニング項目を抽出する。サーバ20は、ユーザに提案するトレーニング項目を複数抽出する場合、所定の規則に基づいて優先度を設定する。例えば、サーバ20は、ユーザの身体の動きの評価結果が良好でない程度に応じて、良好でないものに対応する悩みを解消し得るトレーニング項目を優先することとしてもよい。
As described above, the
<第4の実施の形態における画面例>
図21は、端末装置10が、ユーザの身体の動作の測定結果および評価結果に基づいて、ユーザの身体に起こり得る悩みを提示し、当該悩みに対応するエクササイズメニューを提案する局面の画面例である。
<Screen example in the fourth embodiment>
FIG. 21 is a screen example of a phase in which the
図21(A)は、端末装置10が、ユーザの身体の動作の測定結果、評価結果に基づいて、ユーザの身体に起こり得る悩みを特定した結果を表示している。
FIG. 21(A) displays the result of the
端末装置10は、表示部132P71において、ユーザに、毎日、端末装置10を介して測定することを促す表示をしつつ、表示部132P72において、ユーザの身体に将来起こり得る状態を表示する。図示する例では、操作受付部132P73において、「首・肩こり」の悩みが起こり得ることを表示しつつ、当該操作受付部132P73へのユーザの入力操作に応答して、「首・肩こり」の悩みに対応したトレーニングメニューを表示する。また、端末装置10は、操作受付部132P74において、「二の腕のたるみ」の悩みが起こり得ることを表示しつつ、当該操作受付部132P74へのユーザの入力操作に応答して、「二の腕のたるみ」の悩みに対応したトレーニングメニューを表示する。また、端末装置10は、操作受付部132P75において、「内巻肩、頭が前に出た姿勢」の悩みが起こり得ることを表示しつつ、当該操作受付部132P75へのユーザの入力操作に応答して、「内巻肩、頭が前に出た姿勢」の悩みに対応したトレーニングメニューを表示する。
The
端末装置10は、表示部132P76において、時間がないユーザに向けて、ユーザに対し提案するトレーニングメニューの候補のうち、表示部132P76に表示されるものよりも少ない数のトレーニングメニューを開始するための操作受付部132P77を表示する。端末装置10は、所定の規則に基づき、ユーザに提案するトレーニングメニューの候補に優先度等を設定して、表示部132P76に表示する。
On the display unit 132P76 of the
端末装置10は、表示部132P78において、ユーザから、「お気に入り」など、実行したいトレーニングメニューを編集する操作を受け付ける。
The
端末装置10は、操作受付部132P91への入力操作を受け付けることにより、ユーザに対してアンケートを提示し、当該アンケートへの回答を受け付ける。端末装置10は、当該アンケートの入力結果に基づいて、ユーザの悩みを特定し、当該特定された悩みに対応するトレーニングメニューを提案することとしてもよい。
The
図21(B)は、ユーザに対し、おすすめのトレーニングメニューを提案する局面を示す。端末装置10は、表示部132P81において、ユーザに対し、測定結果、評価結果に基づき特定される悩みについて、身体の部位に関する情報(「首、肩こりに悩まされていませんか」等)を表示する。端末装置10は、表示部132P81において、測定結果、評価結果に基づき、ユーザの身体に関する悩みの原因(「肩の位置が前方に出やすくなっている」等)を表示する。端末装置10は、表示部132P81において、測定結果、評価結果に基づき、ユーザの身体の悩みを解消するための指針(「上半身の血流をよくすることが期待される」、「モモ裏を伸ばす」等)と、当該指針に対応するエクササイズを提案することとを表示する。
FIG. 21B shows a phase of proposing a recommended training menu to the user. The
例えば、端末装置10は、操作受付部132P73への入力操作に応答して、表示部132P82に示されるように、おすすめのトレーニングメニューによるトレーニングを開始するための操作受付部132P83~132P87を表示する。端末装置10は、これら操作受付部132P83~132P87への入力操作に応答して、トレーニングを開始するための動画の再生等をすることとしてもよい。
For example, in response to an input operation to the operation reception unit 132P73, the
端末装置10は、操作受付部132P77への入力操作に応答して、表示部132P88に示されるように、時間がないユーザに向けて、提案するトレーニングメニューの数を絞り込んだ状態で、操作受付部132P83~132P85を表示する。
In response to the input operation to the operation reception unit 132P77, the
これにより、ユーザの時々の状態に応じて、ユーザが継続してトレーニングをするよう促すことができる。 Thereby, it is possible to encourage the user to continue training according to the user's condition at the time.
<動作例>
以上の第4の実施の形態における各装置の動作について説明する。
<Operation example>
The operation of each device in the above fourth embodiment will be described.
図22は、第4の実施の形態における各装置の処理の流れを示す。 FIG. 22 shows the processing flow of each device in the fourth embodiment.
ステップS2203において、端末装置10は、ユーザの身体の動きの測定結果に基づいて、ユーザの関節可動域、歩行姿勢、体幹のバランスの少なくともいずれかを評価し、評価結果を出力する。端末装置10は、測定結果と評価結果とをサーバ20へ送信する。
In step S2203, the
ステップS2253において、サーバ20は、端末装置10から受信した測定結果、評価結果などユーザの各種測定結果に基づきデータベース(評価結果データベース288など)を更新する。
In step S2253, the
ステップS2255において、サーバ20は、評価結果データベース288等に基づいて、ユーザに将来起こりうる身体の悩みを特定する。サーバ20は、トレーニング項目情報285に基づいて、複数あるトレーニングメニューのうち、特定した悩みに対応する身体の部位に関するトレーニングメニューを選択し、選択したトレーニングメニューをユーザの端末装置10へ応答する。
In step S2255, the
ステップS2205において、端末装置10は、ユーザに将来起こりうる身体の悩みに対応したトレーニングメニューを表示する。
In step S2205, the
<変形例>
第4の実施の形態において、ユーザに対し質問を提示して、ユーザから入力を受け付けた回答結果(アンケート結果)に応じて、ユーザに提案するトレーニングメニューの優先度を設定することとしてもよい。
<Modification>
In the fourth embodiment, a question may be presented to the user, and the priority of the training menu to be proposed to the user may be set according to the answer (questionnaire result) received from the user.
これにより、ユーザの身体の測定結果に基づきトレーニングメニューを提案するのみならず、ユーザに対し、身体に関する質問を提示して、当該ユーザから質問の回答を受けつけた結果に基づいてトレーニングメニューを提案することができる。すなわち、サーバ20は、質問の回答の結果に基づいて、ユーザに提案するトレーニングメニューの優先度を更新する。サーバ20は、身体の評価結果だけでなく、質問に対するユーザからの回答結果にも基づいて、ユーザにとって優先度の高いトレーニングメニューを当該ユーザに提示する。これにより、サーバ20は、よりユーザの身体の状態に適したトレーニングメニューを提案することができる。
This not only proposes a training menu based on the measurement results of the user's body, but also presents questions about the user's body and proposes a training menu based on the results of receiving answers to the questions from the user. be able to. That is, the
例えば、端末装置10は、ユーザからの身体に関するアンケートを受け付けることにより、ユーザの身体のうち、測定システム1における測定ユニット30ではまだ測定していない(測定結果に基づく評価が行われていない)筋肉の部位の情報をユーザから受け付けることができる。端末装置10は、ユーザによって入力されたアンケート結果によって、未だ測定システム1において評価が行われていない筋肉の部位に関しての将来起こり得る悩みについても特定することができる。端末装置10は、身体の動きの測定結果に基づき特定される悩み、および、ユーザからのアンケートの回答結果に基づいて、ユーザの身体に将来生じうる悩みに適切に対応できるよう、ユーザに提案するトレーニングメニューを決定する。
For example, the
<変形例におけるデータ構造>
図23は、第4の実施の形態の変形例におけるサーバ20が記憶する各種データのデータ構造を示す図である。
<Data structure in modified example>
FIG. 23 is a diagram showing the data structure of various data stored by the
サーバ20は、ユーザアンケート情報289において、アンケート結果それぞれについて、項目「回答選択肢」と、項目「現在の悩み」と、項目「起こりうる将来の悩み」と、項目「関連する筋肉の部位」とを保持する。
In the
項目「回答選択肢」は、端末装置10のユーザに提示する質問内容(アンケート)に対しユーザが回答するための選択肢の情報を含む。例えば、ユーザが身体の不調を感じる質問内容である場合に、不調になりうる部位の選択肢をユーザに提示する。この場合、各選択肢についてユーザが指定した結果に応じて、身体の部位についてのユーザの悩みを特定することができる。
The item “answer options” includes information on options for the user to answer questions (questionnaire) presented to the user of the
項目「現在の悩み」は、アンケート結果それぞれについて、アンケート回答内容について評価した評価結果によってはユーザが現在抱えているであろう身体の悩みを特定する情報(例えば、「腰の痛み」、「膝の痛み」などのタグ)である。 The item "current troubles" is information specifying the physical troubles that the user is likely to have (for example, "back pain", "knee pain”).
項目「起こりうる将来の悩み」は、アンケート結果それぞれについて、アンケート回答内容について評価した評価結果によっては将来ユーザの身体に起こり得る悩みを特定する情報(例えば、「肩こり」、「首こり」などのタグ)である。 The item "probable future troubles" is information that identifies possible troubles that may occur to the user's body in the future (for example, "stiff shoulder", "stiff neck", etc.) depending on the evaluation results of evaluating the contents of the questionnaire responses for each questionnaire result. tag).
項目「関連する筋肉の部位」は、アンケート結果それぞれについて、アンケート回答内容について評価した評価結果によってはトレーニングすることが望ましい身体の部位(筋肉の部位)の情報である。項目「関連する筋肉の部位」において、回答内容の程度に応じて、身体の部位の情報を段階的に保持してもよい。 The item "related muscle part" is information on a body part (muscle part) that is desirable to be trained for each questionnaire result, depending on the evaluation result of evaluating the contents of the questionnaire answers. In the item "related muscle part", the information of the body part may be stored step by step according to the degree of the content of the answer.
サーバ20は、評価結果データベース288において、項目「現在の悩み」を保持する。項目「現在の悩み」は、評価結果それぞれについて、アンケート回答内容について評価した評価結果によってはユーザが現在抱えているであろう身体の悩みを特定する情報(例えば、「腰の痛み」、「膝の痛み」などのタグ)である。
The
<変形例における動作>
以上のように、サーバ20は、ユーザの身体の動きの評価結果およびユーザアンケート情報289に応じて評価結果データベース288を更新する。例えば、ROMチェックの測定結果に応じて(測定項目情報282)、ユーザの身体において将来起こり得る悩みの情報を特定し得る。例えば、ユーザからの身体に関するアンケート結果に応じて(ユーザアンケート情報289)、ユーザが現在抱えている、または近い将来抱えうる身体の悩みを特定し得る。サーバ20は、評価結果データベース290を参照することにより、ユーザについて、起こり得る将来の悩みの情報を特定し、トレーニング項目情報285を参照することにより、ユーザに提案するトレーニング項目を抽出する。
<Operation in modified example>
As described above, the
サーバ20は、ユーザに提案するトレーニング項目を複数抽出する場合、ユーザの身体の動きの評価結果が良好でない程度に応じて、所定の規則に基づいて優先度を設定する。例えば、サーバ20は、ユーザの身体の動きの評価結果が良好でない程度に応じて、良好でないものに対応する悩みを解消し得るトレーニング項目を優先することとしてもよい。サーバ20は、アンケート結果に基づいてユーザに提案するトレーニング項目の優先度を修正し設定する。例えば、サーバ20は、アンケート回答の内容に関連する身体の評価結果の方がROMチェックの評価結果よりも良好でない程度に応じて、アンケート結果から特定したユーザの身体の悩みを解消し得るトレーニング項目を優先することとしてもよい。
When extracting a plurality of training items to be proposed to the user, the
図24は、第4の実施の形態の変形例における動作の流れを示す図である。 FIG. 24 is a diagram showing the flow of operations in the modification of the fourth embodiment.
図24に示すように、端末装置10は、ステップS2202またはステップS2204など、任意のタイミングで、端末装置10のユーザに対し質問(アンケート)を提示する。
As shown in FIG. 24, the
ステップS2202の処理について説明する。端末装置10は、例えば、ステップS700によりユーザが測定システム1にログインする処理を完了させたことに応答して、質問をディスプレイ132に表示する。端末装置10は、ユーザから、質問に対する回答の入力を受け付ける。端末装置10は、入力を受け付けた回答結果をサーバ20へ送信する。
The processing of step S2202 will be described. The
ステップS2252において、サーバ20は、端末装置10から受信した情報に基づいて、ユーザアンケート情報289を更新する。
In step S<b>2252 , the
ステップS2253において、サーバ20は、ステップS2203における測定ユニット30等による測定結果と、当該測定結果に基づく評価結果とを端末装置10から受信したことに応答して、測定結果データベース287等の各種データベースを更新する。
In step S2253, the
ステップS2204の処理について説明する。端末装置10は、例えば、ステップS2203においてユーザの身体の動きの測定を完了させたことに応答して、ユーザに対し、質問を提示する(ディスプレイ132に表示する等)。端末装置10は、入力を受け付けた回答結果をサーバ20へ送信する。
The processing of step S2204 will be described. For example, the
ステップS2254において、サーバ20は、端末装置10から受信した情報に基づいて、ユーザアンケート情報289を更新する。
In step S<b>2254 , the
ステップS2256において、サーバ20は、ユーザアンケート情報289、評価結果データベース288等に基づいて、ユーザの現在の悩み、ユーザに将来起こりうる身体の悩みを特定する。サーバ20は、トレーニング項目情報285に基づいて、複数あるトレーニングメニューのうち、特定した悩みに対応するトレーニングメニューを選択し、選択したトレーニングメニューをユーザの端末装置へ応答する。例えば、ユーザが質問文に対して回答した結果に基づきユーザの悩みを特定し(ユーザアンケート情報289)、特定した悩みに応じて、当該ユーザに提案するトレーニングメニューを特定する(トレーニング項目情報285)。また、サーバ20は、上記のように評価結果データベース288に基づき、ユーザに提案するトレーニングメニューを特定する。サーバ20は、このようにして特定される1または複数のトレーニングメニューについて端末装置10へ応答する。このとき、サーバ20は、特定される複数のトレーニングメニューについて、所定の規則に基づき優先度を設定し、優先度に応じてトレーニングメニューを端末装置10へ応答することとしてもよい。
In step S2256, the
<第4の実施の形態における画面例1>
図25は、端末装置10が、ユーザの身体の動作の測定結果および評価結果に基づいて、ユーザの身体に起こり得る悩みを提示し、当該悩みに対応するエクササイズメニューを提案する局面において、ユーザがアンケートに回答する局面の画面例である。例えば、端末装置10は、サーバ20にアクセスする等により図21(A)に示す画面(表示部132P71)を表示させる。
<Screen example 1 in the fourth embodiment>
FIG. 25 shows a situation in which the
端末装置10は、当該画面を表示させたタイミング(サーバ20から画面を表示させるための情報を受信してブラウザ等で表示させたタイミング)、または、当該画面を表示させて所定の時間が経過したタイミング、ユーザが当該画面で所定の操作を行ったこと等の所定の条件を満たすことに応答して、図25(A)に示す表示部132PA2を表示してアンケートへの回答をユーザに促す。
The
図25(A)は、端末装置10が、ユーザの身体の動作の測定結果、評価結果に基づいて、ユーザの身体に起こり得る悩みを特定した結果を表示している画面(図21(A)で説明した表示部132P71)に、オーバーレイさせるように、ユーザがアンケートに回答するための表示部132PA2を表示している。
FIG. 25(A) shows a screen (FIG. 21(A)) on which the
端末装置10は、表示部132PA2において、ユーザに対する質問文(「身体にどんな悩みがありますか?」)を、表示部132PA3に表示する。
サーバ20は、表示部132PA3において、ユーザに対して提示する質問文の内容を決定する。例えば、サーバ20において、予め複数の質問文を保持しており、各質問文に関連付けて、ユーザの身体の部位についての情報と、質問文に対する回答の候補の情報とを保持している。サーバ20は、測定結果データベース287、評価結果データベース288を参照し、ユーザが実施してきた測定の履歴に基づいて、ユーザに提示する質問文を決定し、決定した質問文を端末装置10に表示させることとしてもよい。例えば、サーバ20は、ユーザが測定システム1により測定をしている履歴(測定をしている時間間隔など)に基づいて、ユーザが前回測定してから一定期間が経っている場合に、身体の各部位に不調があることを自覚しているか否かについての質問文(「身体にどんな悩みがありますか?」等)をユーザに提示することとしてもよい。
The
また、例えば、サーバ20は、ユーザの身体の部位の測定結果に基づいて、ユーザに提示する質問文に含める身体の部位を決定してもよい。例えば、ユーザの身体の部位のうち、測定を少なくとも一定期間にわたって行っていない部位がある場合に(例えば、腰についての測定をした履歴がない、または、測定をしてから一定期間が経過している)、当該身体の部位を質問文に含める(「腰の調子はどうですか?」等)こととしてもよい。
Further, for example, the
図25(A)の例では、端末装置10は、表示部132PA4において、質問文に対する回答の候補を表示して、ユーザから選択を受け付けている。図示する例では、表示部132PA4において、質問文に対する回答の候補として、腰に関する不調を指定するための「腰の悩み」、膝に関する不調を指定するための「膝の悩み」、その他の身体の部位についての回答の候補を表示させるための「***」を表示している。端末装置10は、ユーザから、「腰の悩み」の指定を受け付けており、当該候補を強調表示することにより、ユーザが指定していることをユーザが容易に認識できるようにしている。
In the example of FIG. 25(A), the
端末装置10は、表示部132PA5において、悩みの程度(身体の部位の不調の程度)に関する質問文を表示する。
The
端末装置10は、表示部132PA6において、表示部132PA5に表示される質問文に対する回答の候補を表示して、ユーザから選択を受け付けている。図示する例では、端末装置10は、表示部132PA6において、悩みの程度が軽い「軽度」、悩みの程度が中程度である「中程度」、悩みの程度が重い「重い」を選択肢として表示している。端末装置10は、ユーザから、選択肢「中程度」の指定を受け付けて、指定された選択肢を強調表示している。
The
端末装置10は、表示部132PA1において、質問文への回答が完了したことを示す操作をユーザから受け付ける。これにより、端末装置10は、ユーザの回答結果をサーバ20へ送信する。サーバ20は、ユーザの回答結果を受信することにより、ユーザアンケート情報289を更新する。例えば、ユーザが、回答結果として、「腰の悩み」など身体の部位に関する情報を指定した場合に、サーバ20は、ユーザの悩み「腰の悩み」に基づいて、ユーザアンケート情報289を更新する。
The
図25(B)は、質問文に対する回答をユーザから受け付けた結果と、ユーザの身体の各部位の測定結果、評価結果とに基づいて、ユーザに対しトレーニングメニューを提案する局面の画面例である。 FIG. 25B is a screen example of a situation in which a training menu is proposed to the user based on the result of receiving the user's answer to the question, the measurement result of each part of the user's body, and the evaluation result. .
サーバ20は、質問文に対してユーザから受け付けた回答の結果(ユーザアンケート情報289)に基づき、ユーザの身体の部位の悩みに関する情報(「膝への負担が中程度あるようですね」など、身体の部位と、悩みの程度とを含む情報等)を表示部132P81に表示する。端末装置10は、表示部132P81において、ユーザの身体に関する悩みの原因(「無理な姿勢を長時間続けていませんか」等)を表示する。端末装置10は、表示部132P81において、ユーザの身体の悩みを解消するための指針(「腰回りの筋肉をほぐす」等)と、当該指針に対応するエクササイズを提案することを表示する。
Based on the results of the user's response to the question (user questionnaire information 289), the
<その他の変形例>
(1)ユーザに対し、運動経験の質問を実施
以上の実施形態の説明において、サーバ20が、ユーザに対し質問文を提示して、質問への回答の結果に基づいてトレーニングメニューを提案する例を説明した。サーバ20は、ユーザに対し提示する質問内容として、ユーザの運動の経験について質問することとしてもよい。
<Other Modifications>
(1) Asking User Questions about Exercise Experiences In the above description of the embodiments, an example in which the
例えば、サーバ20は、ユーザに対し、過去にスポーツをやっていた経験、運動をする習慣についての質問文を提示することとしてもよい。サーバ20は、ユーザから、当該質問に対する回答(過去にユーザが取り組んでいたスポーツ、運動をしていた習慣の有無など)を受け付ける。サーバ20は、ユーザの回答結果に基づき、ユーザがもともと運動経験が比較的少ない場合(スポーツをしていた期間が一定期間以下である、運動をする習慣が所定頻度以下である等)、ユーザに対し、トレーニング項目情報285に含まれる各トレーニング項目のうち、身体への負荷が比較的小さいもの、または、トレーニングの難易度が比較的低いものを提案することとしてもよい。例えば、トレーニング項目情報285の各トレーニング項目について、予め、難易度(運動に慣れていない人が問題なく実施できるトレーニングほど、難易度が低い等)、身体の負荷(例えば、特定の部位(上腕など)を対象としたトレーニング方法それぞれについて身体への負荷が異なる)の程度の情報を保持する。これにより、ユーザの運動経験に基づき、トレーニングメニューを提示することができる。
For example, the
以上の例によると、運動に慣れていないユーザには、達成することが比較的容易なトレーニングメニューを提案することにより、トレーニングメニューをこなすことによる達成感を感じてもらいやすくなる。これにより、ユーザが継続してトレーニングを続ける動機づけを提供することができる。 According to the above example, by proposing a training menu that is relatively easy to achieve, a user who is not accustomed to exercise can easily feel a sense of accomplishment by completing the training menu. This can motivate the user to continue training.
(2)ユーザの身体の動きの測定結果により、ユーザが運動に慣れているか評価
この他に、サーバ20が、測定ユニット30によるユーザの身体の動きの測定結果に基づいて、ユーザの運動の経験を評価し、評価結果に基づいて、ユーザに提示するトレーニングメニューを決定してもよい。
(2) Evaluate whether the user is accustomed to exercise based on the measurement results of the user's body movement. may be evaluated, and a training menu to be presented to the user may be determined based on the evaluation results.
例えば、関節可動域、歩行姿勢、体幹のバランス等のユーザの身体の動きの測定結果と関連付けて、サーバ20が、運動に慣れていない場合の測定結果のパターンと、運動に慣れている場合の測定結果のパターンとを予め保持する。サーバ20は、ユーザの身体の動きの測定結果に基づき、ユーザが運動に慣れている程度を評価する。例えば、サーバ20が、上記のパターンと、ユーザの身体の動きの測定結果とを比較して一致する度合いを評価することにより、ユーザが運動に慣れているか否かの評価値を出力する。例えば、サーバ20は、ユーザに対し、モデルとなる身体の動きを提示しつつ、当該身体の動きと同程度にユーザが身体を動かせていることにより、ユーザが運動に慣れていると評価する。このとき、モデルとなる身体の動きとユーザの身体の動きの測定結果とにずれがある場合、当該ずれを修正するようにユーザに対し音声出力をしてもよい。例えば、手の位置がモデルとなる動きを異なる場合に、当該手の位置をモデルとなる動きに追随させることを促す(「手の位置を所定の方向に移動させる」等)音声出力をしてもよい。また、ユーザの身体の動きと、モデルとなる動きとが整合している場合(つまり、ユーザが、モデルとなる動きと同等の動きができている場合)、ユーザの身体の動きが適切であることを音声等で出力する。
For example, the
例えば、サーバ20は、ユーザの身体の動きを測定する際、ユーザに提示する映像または音声のガイドに沿って身体を動かせているか否かにより、ユーザが運動に慣れているか否かの評価値を出力することとしてもよい。例えば、サーバ20は、音声出力にあわせてユーザが身体を動かせている場合に、運動に慣れている等と評価することとしてもよい。
For example, when measuring the movement of the user's body, the
サーバ20は、当該評価値に基づき、ユーザに提案するトレーニングメニューを決定する。
The
以上のように、サーバ20は、測定ユニット30による測定結果の履歴を測定履歴データベース283に保持しており、ユーザに対し、ユーザが運動に慣れているか否かを評価した時期および評価結果と、ユーザに提案したトレーニングメニューとの履歴を表示することとしてもよい。これにより、ユーザは、徐々に運動に慣れつつあること、トレーニングメニューが変化していることを確認することができ、自己効力感を実感しうる。
As described above, the
(3)ユーザに対し、トレーニングを継続することについての質問を実施
この他に、サーバ20が、ユーザに対し、トレーニングを継続することに関する質問を提示することとしてもよい。例えば、ユーザの性格として、トレーニングを継続することを過去に達成できたかどうか、トレーニングをやめてしまうまでの期間などについて、質問を提示することとしてもよい。
(3) Asking User a Question About Continuing Training In addition, the
サーバ20は、質問に対する回答の結果に基づいて、ユーザに提示するトレーニングメニューを決定する。例えば、上記の実施の形態4等で説明したように、ユーザの身体に起こりうる課題を特定し、当該課題に関連付けられる身体の部位に関するトレーニングメニューをユーザに提示したとする。当該ユーザが、トレーニングを継続できるかどうかについて否定的な回答をした場合(トレーニングを続けられない傾向にある、等)、サーバ20は、当該課題に応じて、ユーザに提案するトレーニングメニューを変更することとしてもよい。例えば、当該課題に関連付けられる身体の部位に関するトレーニングメニューが複数ある場合に、別のトレーニングメニューをユーザに提案する。これにより、ユーザがトレーニングに飽きずに取り組むことがしやすくなると期待され、トレーニングを継続しうる。
The
サーバ20は、測定履歴データベース283等に基づいて、ユーザがトレーニングを実施したタイミングの間隔を特定する。すなわち、ユーザがトレーニングを行う頻度を特定する。サーバ20は、当該間隔の長さに基づいて、ユーザに対し、トレーニングを継続することに関する質問を提示してもよい。例えば、トレーニングを行う頻度が減りつつある場合に、ユーザに対し、トレーニングを継続することに関する質問を受け付けることで、ユーザが飽きずに取り組めるよう別のトレーニングメニューを提案しうる。また、サーバ20は、当該間隔の長さに基づいて、ユーザに提案するトレーニングメニューを変更することとしてもよい。これにより、ユーザが飽きずにトレーニングを実施しうるようになり、ユーザが継続してトレーニングに取り組みうる。
Based on the
<第5の実施の形態>
<概要>
第5の実施の形態では、ユーザが身体を動かして、理想的な動きができているかどうかをよりいっそう容易に確認できる技術について説明する。
<Fifth Embodiment>
<Overview>
In the fifth embodiment, a technique will be described in which the user can more easily check whether or not the user is making ideal movements by moving his/her body.
(1)ユーザが身体を動かした際の身体の動きの情報量を視覚的に落とすことで、身体の動きを容易に確認できるようにする。
具体的には、ユーザが特定の運動(例えば、側方挙上など体幹筋の動きや関節可動域を評価するための運動、または、筋力トレーニングのための運動など)をする際、ユーザの身体の動きを点群データとしてセンシングし、点群データに基づいて、ユーザに対応するアバターと、ユーザの身体の動きに応じた補助線とを描画してユーザに提示する。これにより、ユーザは、身体の各部位が、意図したとおりに動かせているかをよりいっそう容易に確認することができる。
(1) By visually reducing the amount of information about the body movement when the user moves the body, the body movement can be easily confirmed.
Specifically, when the user performs a specific exercise (for example, exercise for evaluating trunk muscle movement and joint range of motion such as side elevation, or exercise for strength training), the user's The motion of the body is sensed as point cloud data, and based on the point cloud data, an avatar corresponding to the user and auxiliary lines corresponding to the motion of the user's body are drawn and presented to the user. Thereby, the user can more easily check whether each part of the body can be moved as intended.
(2)ビデオ会議ツール等を用いて、オンラインでトレーナーがトレーニーを指導することをよりいっそう容易にする。
第5の実施の形態では、上記の技術をもとに、身体の動かし方の指導を受けるトレーニー(第1ユーザ)と、トレーニーの身体の動かし方を指導するトレーナー(第2ユーザ)とが、オンラインで指導をする局面について説明する。
(2) Make it easier for trainers to guide trainees online using video conferencing tools and the like.
In the fifth embodiment, based on the above technology, a trainee (first user) who receives instruction on how to move the body and a trainer (second user) who instructs the trainee on how to move the body, Describe the aspects of teaching online.
具体的には、トレーニーの身体の動きを点群データとして表現したアバターを、トレーナー側の端末でトレーナーが確認できるようにすることで、トレーナー側が、トレーニーの身体を撮影した画像のみならず、当該画像よりも視覚的な情報量を削減したアバターの動きを確認できるようにする。これにより、トレーナーが、トレーニーに、身体の動かし方のアドバイスをオンラインですることをよりいっそう容易にすることができる。 Specifically, by enabling the trainer to check the avatar that expresses the trainee's body movement as point cloud data on the trainer's terminal, the trainer can view not only the image of the trainee's body, but also the image of the trainee's body. To make it possible to check the movement of an avatar with less visual information than images. This makes it easier for trainers to give trainees online advice on how to move their bodies.
つまり、第5の実施の形態では、(1)トレーニー(第1ユーザ)の端末の第1プロセッサが、測定ユニット30等によりトレーニー(第1ユーザ)の身体の動きを点群データとしてセンシングすること、(2)第1プロセッサが、トレーニー(第1ユーザ)の点群データに基づく情報(例えば、点群データに基づきトレーニーのアバターを描画した画像、または、点群データそのもの等)をトレーナー(第2ユーザ)の端末に送信すること、等の種々の処理を実行する際の一連の技術について説明する。 That is, in the fifth embodiment, (1) the first processor of the terminal of the trainee (first user) senses the movement of the trainee (first user) as point cloud data using the measurement unit 30 or the like. (2) The first processor transmits information based on the point cloud data of the trainee (first user) (for example, an image of the trainee's avatar drawn based on the point cloud data, or the point cloud data itself, etc.) to the trainer (first user) A series of techniques for performing various processes such as transmitting to terminals of two users) will be described.
ここで、トレーニー(第1ユーザ)の身体の動きを点群データとしてセンシングし、第1プロセッサが、トレーニー(第1ユーザ)の点群データに基づく情報をトレーナー(第2ユーザ)の端末に送信し、種々の処理を実行する装置に関しては、ユーザの所持しているコンピュータ、スマートフォン、タブレット端末などの端末装置が挙げられる。 Here, the body movement of the trainee (first user) is sensed as point cloud data, and the first processor transmits information based on the point cloud data of the trainee (first user) to the terminal of the trainer (second user). However, devices that execute various processes include terminal devices such as computers, smartphones, and tablet devices possessed by users.
<第5の実施の形態におけるデータ構造>
図26は、第5の実施形態において、サーバ20が記憶する、トレーニー情報データベース2601、トレーナー情報データベース2602、トレーニング履歴データベース2603のデータ構造を示す図である。
図示していないが、サーバ20は、これらの他に、ユーザが行う身体の動きの種類(側方挙上など関節可動域等を評価するための動き、プッシュアップなど筋力トレーニングのための動き、ヨガなど予め定められた身体の動き、その他の動きの種類)の情報と、ユーザの身体の動きを点群データの集合体のアバターとして表示する際の補助線の種類の情報と、当該補助線を描画する位置(アバターにより表現されるユーザの身体の部位と関連付けた位置)の情報とを対応付けたデータベースを管理している。
<Data structure in the fifth embodiment>
FIG. 26 is a diagram showing data structures of a
Although not shown, the
トレーニー情報データベース2601は、トレーニーとなるユーザの情報を管理するためのデータベースである。トレーナー情報データベース2602は、トレーナーとなるユーザの情報を管理するためのデータベースである。トレーニング履歴データベース2603は、トレーナーの指導によりトレーニーのトレーニングを実施した履歴を管理するためのデータベースである。
The
図26に示すように、トレーニー情報データベース2601は、項目「トレーニーID」と、項目「氏名」と、項目「年齢」と、項目「性別」と、項目「体重」と、項目「体脂肪率」と、項目「目的」と、項目「理想の姿」と、項目「画面表示」と、項目「体力レベル」と、項目「備考」等を含む。
As shown in FIG. 26, the
項目「トレーニーID」は、トレーニングを受けるユーザそれぞれを識別する情報である。 The item "trainee ID" is information for identifying each user who receives training.
項目「氏名」は、トレーニングを受けるユーザそれぞれの氏名を示す情報である。 The item "name" is information indicating the name of each user who receives training.
項目「年齢」は、トレーニングを受けるユーザそれぞれの年齢を示す情報である。 The item "age" is information indicating the age of each user who receives training.
項目「性別」は、トレーニングを受けるユーザそれぞれの性別を示す情報である。 The item “gender” is information indicating the gender of each user who receives training.
項目「体重」は、トレーニングを受けるユーザそれぞれの体重を示す情報である。 The item “weight” is information indicating the weight of each user who undergoes training.
項目「体脂肪率」は、トレーニングを受けるユーザそれぞれの体脂肪率を示す情報である。 The item "percentage of body fat" is information indicating the percentage of body fat of each user who undergoes training.
項目「目的」は、トレーニングを受けるユーザそれぞれの目的を示す情報である。具体的には、ユーザID「U001」の氏名「森」で識別されるユーザは、「シェイプアップ」をトレーニングの目的としており、ユーザID「U002」の氏名「佐藤」で識別されるユーザは、「ダイエット」をトレーニングの目的としている。ここで、ある局面においては、トレーニングを受けるユーザ(トレーニー)を指導する立場のユーザ(トレーナー)は、当該目的に応じて、当該ユーザ(トレーニー)に対するトレーニングメニューを提示してもよい。またある局面では、端末装置10またはサーバ20が、後述する学習済みモデル等に基づいて、当該ユーザに提示するトレーニングメニューを特定してもよい。
The item "purpose" is information indicating the purpose of each user who receives training. Specifically, the user identified by the name "Mori" with the user ID "U001" has the purpose of training to "shape up", and the user identified by the name "Sato" with the user ID "U002" "Diet" is the purpose of training. Here, in a certain aspect, a user (trainer) who is in a position to instruct a user (trainee) undergoing training may present a training menu to the user (trainee) according to the purpose. In a certain aspect,
項目「理想の姿」は、トレーニングを受けるユーザそれぞれが理想とする姿を示す情報である。具体的には、ユーザID「U001」の氏名「森」で識別されるユーザは、理想の姿を「指定なし」としており、ユーザID「U002」の氏名「佐藤」で識別されるユーザは、理想の姿として「〇〇」を指定している。ここで、この理想の姿は、実在する芸能人などを指定してもよいし、架空の存在(例えば、漫画のキャラクターのような体形を理想とする場合に、そのキャラクターなど)をユーザが指定できることとしてもよい。また、ある局面においては、サーバ20は、当該「理想の姿」と「目的」の内容とに基づいて、トレーニングメニューの特定、提示を行ってもよい。
The item "ideal figure" is information indicating the ideal figure of each user who undergoes training. Specifically, the user identified by the name "Mori" of the user ID "U001" has an ideal figure of "not specified", and the user identified by the name "Sato" of the user ID "U002" "〇〇" is specified as the ideal figure. Here, this ideal figure may be specified by a real entertainer or the like, or a fictional figure (for example, if the body shape of a cartoon character is ideal, the user can specify the character). may be In a certain aspect,
項目「画面表示」は、ユーザをカメラ等で撮影した際の表示態様を示す情報である。表示態様としては、ユーザをRGBカメラ等で撮影した場合に、当該撮影により生成される撮影画像をそのまま表示すること、また、距離を計測可能なセンサ(深度カメラ、LiDAR(light detection and ranging)等)でユーザの身体の動きを点群データとして測定し、点群データに基づきアバターとして表示すること等がある。具体的には、ユーザID「U001」の氏名「森」で識別されるユーザは、画面表示を「アバター」としており、当該ユーザの姿をカメラなどで撮影した動画像を画面表示する際に、ユーザ自身の姿を撮影した動画像そのままではなく、撮影した動画像に基づいた、何らかのアバター(例えば、キャラクターを用いたアバター)として表示することを示す。 The item "screen display" is information indicating a display mode when the user is photographed by a camera or the like. As a display mode, when the user is photographed with an RGB camera or the like, the photographed image generated by the photographing is displayed as it is, and a sensor capable of measuring distance (depth camera, LiDAR (light detection and ranging), etc.) ) measures the movement of the user's body as point cloud data and displays it as an avatar based on the point cloud data. Specifically, the user identified by the name "Mori" of the user ID "U001" is displayed as "avatar" on the screen, and when the moving image of the user captured by a camera or the like is displayed on the screen, It indicates that the user himself/herself is displayed as an avatar (for example, an avatar using a character) based on the captured moving image instead of the captured moving image as it is.
これにより、トレーニングを受けるユーザの要望、例えば、初めてのトレーニングなので、顔、身体の様子を他の人に見られたくない、プライバシーを保護したい、などに対応でき、ユーザは安心してトレーニングを受けることができる。 As a result, it is possible to respond to the requests of the user undergoing training, for example, because it is the first training, the user does not want others to see his/her face and body, and wants to protect privacy, so that the user can receive the training with peace of mind. can be done.
項目「体力レベル」は、トレーニングを受けるユーザそれぞれの身体の運動能力を段階的に評価した体力レベルを示す情報である。具体的には、トレーニングを受けるユーザの身体の動きをセンシングするときに、同時に当該ユーザの身体の動きの情報に基づいて、どの程度の運動まではできそうか、などの判断基準となる体力レベルを特定している。ユーザID「U001」の氏名「森」で識別されるユーザは、体力レベルが「5」であり、ユーザID「U002」の氏名「佐藤」で識別されるユーザは、体力レベルが「2」である。このとき、体力レベルの特定方法としては、端末装置10またはサーバ20が、ユーザの身体の動きをセンシングする時に、学習済みモデルなどに基づいて当該ユーザの体力レベルを特定しても良いし、トレーニングを受けるユーザ(トレーニー)を指導する立場のユーザ(トレーナー)がセンシングの結果に基づいてトレーニーの体力レベルを特定してもよい。
The item “physical fitness level” is information indicating the physical fitness level obtained by evaluating the physical exercise ability of each user who undergoes training in stages. Specifically, when sensing the movement of the user's body undergoing training, at the same time, based on the information on the movement of the user's body, the physical fitness level is used as a criterion for judging how much exercise the user is likely to be able to do. are identified. The user identified by the user ID "U001" and the name "Mori" has a physical strength level of "5", and the user identified by the user ID "U002" and the name "Sato" has a physical strength level of "2". be. At this time, as a method of specifying the physical fitness level, the physical fitness level of the user may be specified based on a learned model or the like when the
これにより、ユーザは自身の体力レベルにあったトレーニングメニューを受けることができるため、無理なくトレーニングを継続することができる。また、集団で受けるトレーニングなどの場合には、サーバ20が同じ体力レベルのユーザ同士を特定し、特定したユーザ同士でトレーニングを実施するようユーザ(トレーナー、トレーニー)をマッチングさせることもできる。例えば、体力レベルに差があるユーザ(トレーニー)同士でトレーニングを実施する場合、トレーナーの指導内容、トレーニーのトレーニング内容等に差が出てしまい、モチベーションが下がってしまうことがあり得るが、上記のように体力レベルを防ぐことができる。
As a result, the user can receive a training menu suitable for his or her physical fitness level, so that the user can continue training without difficulty. In addition, in the case of group training, the
項目「備考」は、トレーニングを受けるユーザそれぞれに対し、特別に考慮しておくべき事情を示す情報である。特別に考慮しておくべき事情としては、トレーニングをする際の安全性(医学的な観点に基づく安全性、トレーニング内容自体の安全性など)に基づき考慮すべき事項等がある。例えば、ユーザが高血圧のため過度なトレーニングが医師から止められている場合などは、備考に当該事項を記載する。サーバ20は、項目「備考」に記載された内容に基づいて、トレーニングを受けるユーザに最適なトレーニングメニューを特定することとしてもよい。また、トレーナーの端末装置10Bにおいて、当該項目「備考」の情報をサーバ20から取得してトレーニーに提示することにより、トレーナーがトレーニーのトレーニングメニューを決定する際の参考となる情報を提供することとしてもよい。
The item "remarks" is information indicating circumstances that should be specially considered for each user who undergoes training. Circumstances that should be taken into special consideration include items that should be considered based on safety during training (safety based on a medical point of view, safety of the training content itself, etc.). For example, if the user has high blood pressure and the doctor has stopped excessive training, the relevant matter is described in the remarks. The
これにより、ユーザが持病などを抱えている場合でも、サーバ20等が当該項目「備考」に基づきユーザに提示するトレーニングメニューを特定したり、トレーナーが当該項目「備考」に基づきトレーニングメニューを選定することにより、ユーザが安心して無理のないトレーニングを続けることができる。
As a result, even if the user has a chronic disease, the
トレーナー情報データベース2602は、項目「トレーナーID」と、項目「氏名」と、項目「性別」と、項目「経験年数」と、項目「得意領域」と、項目「推奨体力レベル」と、項目「指導可能タイプ」と、項目「備考」等を含む。
The
項目「トレーナーID」は、トレーニングを受けるユーザを指導する立場のユーザそれぞれを識別する情報である。 The item “trainer ID” is information for identifying each user who is in a position to instruct the user who is training.
項目「氏名」は、トレーニングを受けるユーザを指導する立場のユーザそれぞれの氏名を示す情報である。 The item "name" is information indicating the name of each user who is in a position to guide the user who is undergoing training.
項目「性別」は、トレーニングを受けるユーザを指導する立場のユーザそれぞれの性別を示す情報である。 The item “gender” is information indicating the gender of each user who is in a position to guide the user who is undergoing training.
項目「経験年数」は、トレーニングを受けるユーザを指導する立場のユーザそれぞれのトレーニング指導の経験年数を示す情報である。具体的には、トレーナーID「T001」の氏名「田中」で識別されるユーザは、「5年」の経験年数を有していることを示しており、トレーナーID「T003」の氏名「加藤」で識別されるユーザは、「10年」の経験年数を有していることを示す。 The item "years of experience" is information indicating the number of years of experience in training guidance of each user who is in a position to guide the user who is to undergo training. Specifically, the user identified by the name “Tanaka” with the trainer ID “T001” has “5 years” of experience, and the user with the trainer ID “T003” with the name “Kato” is shown. indicates that the user identified by has "10 years" of experience.
これにより、例えば、ある局面において、トレーニングを受けるユーザ(トレーニー)が当該指導する立場のユーザ(トレーナー)を指定するときに、当該経験年数を参考に指導する立場のユーザを指定することで、より安心してトレーニングを受けることができる。指導する立場のユーザ(トレーナー)としても、当該情報に基づいて指導する立場のユーザとして指定されることで、自身の知名度などを向上させることができる。 As a result, for example, in a certain situation, when a user (trainee) who receives training designates a user (trainer) who is in a position to give guidance, by designating a user who is in a position to give guidance with reference to the number of years of experience, You can train with confidence. As a user (trainer) who is in a position to give guidance, by being designated as a user who is in a position to give guidance based on the information, it is possible to improve his/her name recognition.
項目「得意領域」は、トレーニングを受けるユーザ(トレーニー)を指導する立場のユーザ(トレーナー)それぞれのトレーニング指導における得意領域を示す情報である。具体的には、トレーナーID「T001」の氏名「田中」で識別されるユーザは、「ヨガ」および「エクササイズ」を得意領域としており、トレーナーID「T002」の氏名「斎藤」で識別されるユーザは、「筋トレ」および「エクササイズ」を得意領域としていることを示す。 The item "area of specialty" is information indicating the area of specialty in training guidance of each user (trainer) who is in a position to instruct a user (trainee) who is to undergo training. Specifically, the user identified by the name “Tanaka” of the trainer ID “T001” is good at “yoga” and “exercise”, and the user identified by the name “Saito” of the trainer ID “T002”. indicates that "muscle training" and "exercise" are areas of expertise.
これにより、トレーニングを受けるユーザにおける、上述のトレーニー情報データベース2601の項目「目的」および項目「理想の姿」などの情報に応じて、サーバ20等が、当該ユーザを指導する立場のユーザ(トレーナー)を特定することとしてもよい。これにより、トレーニーがトレーニングを受ける目的等に合致したトレーナーをマッチングさせ得る。例えば、トレーニーがエクササイズを目的としているのに対し、当該目的に合致するトレーニングを得意とするトレーナーを指導者としてサーバ20等が割り当てることができ得る。
As a result, the
項目「推奨体力レベル」は、トレーニングを受けるユーザ(トレーニー)を指導する立場のユーザ(トレーナー)それぞれに定義される、当該ユーザ(トレーナー)からトレーニングを受ける際に推奨されるトレーニーの体力レベルを示す。具体的には、トレーナーID「T001」の氏名「田中」で識別されるユーザ(トレーナー)からの指導に対しては、推奨体力レベルが「3以上」とされており、前述のユーザID「U001」の氏名「森」で識別されるユーザ(トレーニー)は体力レベルが「5」であることから、当該ユーザからの指導を受ける体力レベルの水準に達していることがわかり、ユーザID「U002」の氏名「佐藤」で識別されるユーザ(トレーニー)は、体力レベルが「2」であるため、当該ユーザからの指導を受ける体力レベルの水準に達していないことがわかる。 The item "recommended physical fitness level" indicates the physical fitness level of the trainee, which is defined for each user (trainer) who is in a position to instruct the user (trainee) who receives training and is recommended when receiving training from the user (trainee). . Specifically, for guidance from a user (trainer) identified by the name "Tanaka" of the trainer ID "T001", the recommended physical strength level is set to "3 or higher", and the user ID "U001" Since the physical strength level of the user (trainee) identified by the name "Mori" is "5", it can be seen that the physical strength level for receiving guidance from the user has been reached. Since the user (trainee) identified by the name "Sato" in the above has a physical fitness level of "2", it can be seen that the physical fitness level has not reached the standard for receiving guidance from the user.
これにより、トレーニングを受けるユーザは、自身の体力レベルにあったトレーニングを受けることができる。また、トレーニングを受けるユーザを指導する立場のユーザも、定められた水準以上のユーザに対しトレーニングを指導できるため、ユーザによるトレーニングメニューのばらつき、上達状況のばらつきなどが生じることを抑えることができるため、トレーニングを受けているユーザのモチベーションの維持も期待できる。サーバ20等は、トレーナーの項目「推奨体力レベル」と、トレーニーの項目「体力レベル」とに基づいて、トレーナーとトレーニーをマッチングさせることとしてもよい。
As a result, the user who undergoes training can receive training suitable for his/her physical fitness level. In addition, since users who are in a position to instruct users who receive training can also instruct training to users who are above a predetermined level, it is possible to suppress the occurrence of variations in training menus and proficiency levels among users. It can also be expected to maintain the motivation of users who are undergoing training. The
項目「指導可能タイプ」は、トレーニングを受けるユーザを指導する立場のユーザ(トレーナー)が指導可能なトレーニングのタイプの種類を示す。具体的には、トレーナーID「T001」の氏名「田中」で識別されるユーザは、指導可能タイプが「個人」および「集団」であり、トレーナーID「T002」の氏名「斎藤」で識別されるユーザは、指導可能タイプが「個人」のみであることを示す。 The item "guidable type" indicates the type of training that can be instructed by a user (trainer) who is in a position to instruct a user undergoing training. Specifically, the user identified by the name “Tanaka” with the trainer ID “T001” has the coachable types “individual” and “group”, and is identified by the name “Saito” with the trainer ID “T002”. The user indicates that the coachable type is "individual" only.
これにより、トレーニングを受けるユーザを指導する立場のユーザ(トレーナー)が個人指導向きなのか、集団指導向きなのかがわかるため、サーバ20等は、当該「指導可能タイプ」に基づいて、トレーナーとトレーニーとのマッチングにおいて、1対1の個人指導でのトレーニングと、1対複数の集団指導でのトレーニングとを振り分けることができる。また、トレーニーの端末装置10において、トレーニーに対してトレーナーの「指導可能タイプ」を提示することとしてもよい。
As a result, it can be seen whether the user (trainer) in the position of instructing the user undergoing training is suitable for individual instruction or for group instruction. In matching with , it is possible to distribute training by one-to-one individual guidance and training by one-to-many group guidance. Also, the
項目「備考」は、トレーニングを受けるユーザを指導する立場のユーザ(トレーナー)それぞれの、その他の特記事項などの情報である。特記事項としては、トレーナーによるトレーニングの実績を客観的に評価した情報が含まれうる。具体的には、トレーナーID「T001」の氏名「田中」で識別されるユーザは、「**グランプリ受賞」であることがわかる。 The item "remarks" is information such as other special notes of each user (trainer) who is in a position to instruct the user who is to undergo training. Remarks may include information that objectively evaluates the performance of training by a trainer. Specifically, it can be seen that the user identified by the name "Tanaka" of the trainer ID "T001" is "** grand prix winner".
これにより、ある局面において、トレーニングを受けるユーザ(トレーニー)がトレーニングを受けるユーザを指導する立場のユーザ(トレーナー)を指定する際に、トレーニーの端末装置10において当該項目「備考」の情報をトレーニーに提示することにより、トレーニーは、当該情報も考慮した上でトレーナーを指定することができる。トレーニングを受けるユーザを指導する立場のユーザ(トレーナー)も、当該情報を記載しておくことで、自身が指導者として指定される機会が増えることが期待できる。
As a result, in a certain situation, when a user (trainee) undergoing training designates a user (trainer) in a position to instruct the user undergoing training, information in the item "remarks" is provided to the trainee on the
トレーニング履歴データベース2603は、項目「トレーニングID」と、項目「日時」と、項目「ミーティングID」と、項目「トレーニーID」と、項目「トレーナーID」と、項目「センシング結果」と、項目「指導内容」と、項目「トレーナー評価」と、項目「マッチングID」等を含む。
The
項目「トレーニングID」は、トレーナーとトレーニーとによるトレーニングそれぞれを識別する情報である。 The item “training ID” is information for identifying training by trainers and trainees.
項目「日時」は、トレーニングが行われた日時を示す。 The item "date and time" indicates the date and time when the training was performed.
項目「ミーティングID」は、トレーナーの端末装置10Bとトレーニーの端末装置10Aとが通信することにより、オンラインでトレーニング指導を行う場合の通信セッションそれぞれを識別する情報である。例えば、通信セッションを識別する情報として、オンラインミーティング用のURL等の情報を含む。 The item "meeting ID" is information for identifying each communication session in the case of online training guidance through communication between the terminal device 10B of the trainer and the terminal device 10A of the trainee. For example, information identifying a communication session includes information such as a URL for an online meeting.
項目「トレーニーID」は、トレーニングを行ったトレーナーを識別する情報である。 The item "trainee ID" is information for identifying the trainer who has performed the training.
項目「トレーナーID」は、トレーナーからトレーニングの指導を受けたトレーニーを識別する情報である。 The item “trainer ID” is information for identifying a trainee who received training guidance from the trainer.
項目「センシング結果」は、トレーニングにおいてトレーナーの身体の動きを端末装置10Aが測定ユニット30により測定した結果(点群データ)、または、当該点群データを仮想空間に配置して仮想カメラの設定に基づきレンダリングした映像(当該映像において、トレーニーの身体の動きを点群データの集合として表現したアバターと、トレーニーの身体の動かし方(側方挙上など、ユーザに提示した身体の動かし方の種類)に応じて描画した補助線とを含む)等である。 The item "sensing result" is the result (point cloud data) of the terminal device 10A measuring the movement of the trainer's body with the measurement unit 30 during training, or the point cloud data is placed in the virtual space and set to the virtual camera. (Avatar expressing the trainee's body movement as a set of point cloud data in the video and how the trainee moves (the type of body movement presented to the user, such as side lifting)) (including auxiliary lines drawn according to ).
項目「指導内容」は、トレーニーの身体の動かし方に対して、トレーナーがトレーニーに対して指示した指導内容を示す。例えば、トレーナーが音声でトレーニーに対して身体の動かし方を指導した場合(身体の動かし方において、ユーザを所望の姿勢へと導くような助言を含む。例えば、所望の姿勢に対して身体の部位(腕、脚など)が曲がっている場合に、所望の姿勢にするよう促すトレーナーのアドバイス)、当該指導内容を含む音声、または、当該音声の解析結果を項目「指導内容」において保持させる。 The item "guidance content" indicates the content of guidance given by the trainer to the trainee regarding how to move the trainee's body. For example, when the trainer instructs the trainee how to move the body by voice (including advice to guide the user to the desired posture in how to move the body. (Trainer's advice to take a desired posture when arms, legs, etc. are bent), the voice including the guidance content, or the analysis result of the voice is stored in the item "guidance content".
項目「トレーナー評価」は、トレーナーがトレーニーから受けた評価を示す。例えば、オンラインでトレーニングを実施した後、トレーニーの端末装置10Aにおいて、トレーナーの評価を入力する画面をトレーニーに提示することにより、トレーニーからトレーナーの評価を受け付ける。 The item "trainer evaluation" indicates the evaluation received by the trainer from the trainee. For example, after conducting online training, the trainer's evaluation is accepted from the trainee by presenting the trainee with a screen for inputting the trainer's evaluation on the trainee's terminal device 10A.
項目「マッチングID」は、サーバ20がトレーナーとトレーニーとをマッチングさせた場合に、当該マッチングそれぞれを特定する情報である。マッチングが成立することによりトレーナーとトレーニーとのトレーニングが始まる場合もあれば、マッチングが成立したにもかかわらずトレーニングが実施されないこともあり得る。
The item “matching ID” is information that identifies each matching when the
<第5の実施の形態における動作例>
以下、第5の実施の形態において、システム1における、第1ユーザ(トレーニー)の端末の第1プロセッサが、第1ユーザの身体の動きを点群データとしてセンシングし、第1プロセッサが、第1ユーザの点群データに基づく情報を第2ユーザ(トレーナー)の端末に送信し、種々の処理を実行する際の一連の処理について説明する。
<Example of operation in the fifth embodiment>
Hereinafter, in the fifth embodiment, the first processor of the terminal of the first user (trainee) in the
(第1ユーザの動きをセンシングし、第2ユーザの端末に送信)
図27は、第1ユーザの身体の動きを点群データとしてセンシングし、センシングで得られた、第1ユーザの点群データに基づく情報を第2ユーザの端末に送信する一連の処理を示すフローチャートである。
(Sensing the first user's movement and sending it to the second user's terminal)
FIG. 27 is a flowchart showing a series of processes for sensing the movement of the first user's body as point cloud data and transmitting information based on the first user's point cloud data obtained by sensing to the second user's terminal. is.
以降の説明において、図1で示した端末装置10について、第1ユーザの端末装置10を「端末装置10A」と記載し、端末装置10Aの構成を「プロセッサ19A」等と記載する。同様に第2ユーザの端末装置10を「端末装置10B」と記載し、端末装置10Bの構成を「プロセッサ19B」等と記載する。
In the following description, regarding the
また、図27の例では、第1ユーザの端末装置10Aと、第2ユーザの端末装置10Bとが通信を確立することにより、各端末のカメラ160で撮影した映像と、マイク141で収音した音声とを互いに送受信することとする。
Further, in the example of FIG. 27 , by establishing communication between the terminal device 10A of the first user and the terminal device 10B of the second user, the video captured by the
例えば、端末装置10Aと、端末装置10Bとが、オンラインでビデオミーティングを行うためのアプリケーションを実行しており、ミーティングに参加するための識別情報(例えば、アプリケーションで発行されるミーティング用のID、URL等)に基づき通信を確立する。 For example, the terminal device 10A and the terminal device 10B are running an application for conducting an online video meeting, and identification information for participating in the meeting (for example, meeting ID issued by the application, URL etc.).
端末装置10Aは、測定ユニット30等により第1ユーザの身体の動きを点群データとして取得する。端末装置10Aは、当該点群データを仮想空間に配置し、仮想空間における仮想カメラを、第1ユーザの身体の正面(図11の説明における前後軸)の位置と、第1ユーザの身体の側面(図11の説明における左右軸)の位置とにそれぞれ配置してレンダリングを行い、レンダリング結果を表示する。当該レンダリング結果には、第1ユーザを正面から見た点群データの集合としてのアバターと、第1ユーザを側面から見た点群データの集合としてのアバターとが含まれる。端末装置10Aは、上記のレンダリング結果(正面から見たアバター、側面から見たアバター)を表示する領域と関連付けて、ユーザの身体の動かし方に対応した補助線を描画する。 The terminal device 10A acquires the movement of the first user's body as point cloud data using the measurement unit 30 or the like. The terminal device 10A arranges the point cloud data in the virtual space, and sets the virtual camera in the virtual space to the position of the front of the first user's body (front-rear axis in the description of FIG. 11) and the side of the first user's body. (the left and right axis in the description of FIG. 11), rendering is performed, and the rendering result is displayed. The rendering result includes an avatar as a set of point cloud data when the first user is viewed from the front and an avatar as a set of point cloud data when the first user is viewed from the side. The terminal device 10A draws an auxiliary line corresponding to how the user moves the body, in association with the display area of the rendering result (the avatar viewed from the front and the avatar viewed from the side).
端末装置10Aは、画面上に上記のアバターおよび補助線を描画した画像を表示しつつ、オンラインでビデオミーティングを行うアプリケーションにより、当該画像を端末装置10Bと画面共有する。これにより、第1ユーザをカメラ160Aで撮影した映像と、マイク141で収音した音声と、アバターおよび補助線を描画した画像とを、端末装置10Aから端末装置10Bへと送信する。端末装置10Bの第2ユーザは、当該カメラ160Aで撮影した映像と、画面共有される当該画像(アバターおよび補助線を描画した画像)とを視認することにより、第1ユーザの身体の動きを確認し、第1ユーザへのアドバイスを音声等で第1ユーザへ通知する。
The terminal device 10A displays an image drawn with the avatar and auxiliary lines on the screen, and screen-shares the image with the terminal device 10B by an application for online video meeting. As a result, the image of the first user captured by camera 160A, the sound picked up by
ステップS2701において、第1ユーザの端末装置10Aのプロセッサ19Aは測定ユニット30などにより、第1ユーザの身体の動きを点群データとしてセンシングする。 In step S2701, the processor 19A of the terminal device 10A of the first user senses the movement of the first user's body as point cloud data using the measurement unit 30 or the like.
具体的には、プロセッサ19Aは、第1ユーザに対し、第1ユーザが行う身体の動きのメニューを表示して、第1ユーザが、身体の動きのセンシングのための特定の動き(例えば、側方挙上などの動き、トレーニングの項目(スクワット等)となる動き等)をするよう促す。第1ユーザの端末装置10Aのプロセッサ19Aは、測定ユニット30などにより、当該特定の動きを撮影することで、第1ユーザの身体の動きを点群データとしてセンシングする。 Specifically, the processor 19A displays to the first user a menu of body movements performed by the first user so that the first user can perform specific movements (e.g., side movements) for body movement sensing. Encourage them to do movements such as side lifts, movements that can be used as training items (squats, etc.). The processor 19A of the terminal device 10A of the first user captures the specific movement using the measurement unit 30 or the like, thereby sensing the body movement of the first user as point cloud data.
ステップS2703において、プロセッサ19Aは、測定ユニット30等によるセンシングで得られた、第1ユーザの点群データに基づく情報として、第1ユーザ(トレーニー)を表すアバターと、第1ユーザが行う身体の動きの種類(第1ユーザに提示する運動メニューの種類)に対応する補助線とを含む映像を生成する。 In step S2703, the processor 19A generates an avatar representing the first user (trainee) and body movements performed by the first user as information based on the first user's point cloud data obtained by sensing by the measurement unit 30 or the like. (type of exercise menu presented to the first user).
ステップS2705において、プロセッサ19Aは、ステップS2703で生成した映像を端末装置10Aのディスプレイ132Aで表示する。プロセッサ19Aは、表示した映像(アバターと補助線を含む映像)と、別途、第1ユーザを撮影するカメラ160Aにより生成される撮影画像(点群データの集合体ではなく、RGBカメラで撮影された撮影画像)とを、第2ユーザの端末装置10Bへ送信する。
In step S2705, the processor 19A displays the image generated in step S2703 on the
ステップS2751において、第2ユーザの端末装置10Bのプロセッサ19Bは、第1ユーザの端末装置10Aから、第1ユーザの点群データに基づく情報として、端末装置10Aで生成された映像(アバターと補助線を含む)を受信する。プロセッサ19Bは、ステップS2705で生成される、第1ユーザの撮影画像(点群データの集合体ではない撮影画像)を受信する。 In step S2751, the processor 19B of the terminal device 10B of the second user receives from the terminal device 10A of the first user the image (avatar and auxiliary line ). The processor 19B receives the captured image of the first user (the captured image that is not the set of point cloud data) generated in step S2705.
ステップS2753において、プロセッサ19Bは、ステップS2751で受信した映像(アバターと補助線を含む)と、撮影画像とに基づいて、点群データの集合として第1ユーザの身体の動きに対応する第1アバターを含む映像を、ディスプレイ132B等に表示する。プロセッサ19Bは、第1ユーザの撮影画像(点群データの集合ではない)をディスプレイ132B等に表示する。これにより、第2ユーザに対し、第1ユーザの身体の動きの情報として、第1アバターと、第1ユーザの撮影画像とを提示する。
In step S2753, the processor 19B generates the first avatar corresponding to the movement of the first user's body as a set of point cloud data based on the video (including the avatar and auxiliary lines) received in step S2751 and the captured image. is displayed on the
ここで、ステップS2703において、プロセッサ19Aは、第1ユーザの運動に対する各種情報(身体のどの部分が動かしやすい、動かしにくい、など)、体力レベルなどを、サーバ20のトレーニー情報データベース2601等に基づき特定することとしてもよい。このとき、プロセッサ19Aは、特定した情報を、第1ユーザの端末装置10Aの記憶部180に記憶させてもよいし、当該情報をサーバ20に送信し、サーバ20の記憶部202のトレーニー情報データベース2601に記憶させてもよい。
Here, in step S2703, the processor 19A identifies various types of information regarding the first user's exercise (which part of the body is easy to move, hard to move, etc.), physical fitness level, etc. based on the
また、プロセッサ19Aは、測定ユニット30等により第1ユーザの身体の動きをセンシングした結果に基づいて、トレーナー情報データベース2602を参照し、当該情報を送信する対象とする第2ユーザ(トレーナー)を特定してもよい。
Further, the processor 19A refers to the
これにより、トレーニーであるユーザは、トレーニング開始時の身体の動きの情報に基づいて、最適な指導者によるトレーニングを受けることができる。 As a result, a user who is a trainee can receive training from an optimal instructor based on the information about the body movement at the start of training.
ここで、ステップS2751において、第1ユーザの端末装置10Aから、測定ユニット30等によりセンシングされたデータを受信し、受信した情報に基づいて、端末装置10Bにおいて、点群データに基づきレンダリングを行うこととしてもよい。すなわち、端末装置10Aではなく端末装置10Bにおいて、端末装置10Aで測定された点群データに基づき第1ユーザの身体の動きを表す第1アバターをレンダリングすることとしてもよい。端末装置10Bは、第1アバターを含む映像を生成し、生成した映像をディスプレイ132B等に表示する。このとき、第1ユーザの身体の動きを複数の視点から描画して、各視点について描画した第1アバターを並べた映像を第2ユーザに提示してもよい。
Here, in step S2751, data sensed by the measurement unit 30 or the like is received from the terminal device 10A of the first user, and rendering is performed in the terminal device 10B based on the point cloud data based on the received information. may be That is, the terminal device 10B, not the terminal device 10A, may render the first avatar representing the body movement of the first user based on the point cloud data measured by the terminal device 10A. The terminal device 10B generates an image including the first avatar, and displays the generated image on the
ある局面においては、端末装置10Bは、第1ユーザが行う身体の動きが理想的か否かを評価する身体の部位に基づく位置に補助線を描画し、補助線が描画された映像を第2ユーザに提示してもよい。例えば、ユーザが行うべき運動において、背筋が伸びているか、膝が地面に対して所定の角度となっているかに基づいて、ユーザの身体の動きが理想的か否かをトレーナーが評価する場合に、端末装置10Bは、当該背筋を伸ばした時の形状に対応する補助線をアバターの背筋の部位の近傍に表示する。端末装置10Bは、膝が地面に対して所定の角度となっているかを評価する場合に、アバターの膝の部位の近傍に(または膝の部位を表示する領域に)、当該所定の角度となっている補助線を、アバターの膝の部位の近傍に表示する。 In one aspect, the terminal device 10B draws an auxiliary line at a position based on the body part for evaluating whether or not the body movement performed by the first user is ideal, and displays the video with the drawn auxiliary line as a second user. may be presented to the user. For example, when the trainer evaluates whether the user's body movement is ideal based on whether the user's back is straight and whether the knee is at a predetermined angle to the ground in the exercise that the user should perform , the terminal device 10B displays an auxiliary line corresponding to the shape of the stretched back muscle near the part of the back muscle of the avatar. When the terminal device 10B evaluates whether the knees are at a predetermined angle with respect to the ground, the terminal device 10B places the knees near the avatar's knees (or in the region where the knees are displayed) at the predetermined angle. display the auxiliary lines near the avatar's knees.
また、第1ユーザが行う身体の動きが理想的か否かを評価する身体の部位に基づいて、関節位置ではない身体の表面位置の表示態様を変更し、身体表面の表示態様が変更された映像を、第2ユーザに提示してもよい。 In addition, the display mode of the body surface position other than the joint positions is changed based on the part of the body that is evaluated as to whether or not the body movement performed by the first user is ideal, and the display mode of the body surface is changed. The video may be presented to the second user.
関節位置ではない身体の表面とは、例えば、身体の外観として認識できる面であり、腹部の表面などをいう。例えば、端末装置10Bにおいて、第1ユーザの身体の動きが、理想的な動きよりも大きすぎる場合と、小さすぎる場合とで、表示する色彩を変更する等してもよい。例えば、理想とする動きよりも腹部が前方に出過ぎている場合には、当該腹部を暖色で表示し、理想とする動きよりも腹部の動きが小さい場合には、当該腹部を寒色で表示するなど、表示する色を変更する。これにより、第1ユーザまたは第2ユーザは、ユーザの身体を理想的な動きとするためにどのような動かし方をすればよいかを容易に確認することができる。また、これにより、ユーザは自分の身体の動きが理想の動きと比較してどの程度乖離しているかを把握しながらトレーニングができる。また、身体表面の表示態様を変更させることで、関節ではない、身体表面の筋肉の動きなども把握することができる。 The surface of the body that is not the joint position is, for example, a surface that can be recognized as the external appearance of the body, such as the surface of the abdomen. For example, in the terminal device 10B, the displayed color may be changed depending on whether the movement of the first user's body is too large or too small compared to the ideal movement. For example, when the abdomen protrudes too far forward than the ideal movement, the abdomen is displayed in a warm color, and when the movement of the abdomen is smaller than the ideal movement, the abdomen is displayed in a cold color. , to change the colors displayed. Accordingly, the first user or the second user can easily confirm how to move the user's body in an ideal manner. In addition, this allows the user to train while grasping how much the movement of his/her body deviates from the ideal movement. In addition, by changing the display mode of the body surface, it is possible to grasp the movements of the muscles on the body surface instead of the joints.
ここで、上記の例では、ディスプレイ132B等に表示する第1ユーザの第1アバターを含む映像に関しては、当該第1アバターを生成する際に撮影した第1ユーザの撮影画像と、第1アバターの映像との両方を第2ユーザに提示するものとして説明した。この他に、トレーナー側の端末装置10Bにおいて、トレーニー情報データベース2601を参照し、項目「画面表示」の指定に沿った画面をディスプレイ132等に表示していてもよい。
Here, in the above example, regarding the video including the first user's first avatar displayed on the
例えば、端末装置10Bにおいて、第1ユーザの身体の動きを、第1アバター(すなわち点群データの集合体)として表示しつつ、第1ユーザの撮影画像(点群データの集合体ではない)については非表示としてもよい。また、トレーナーに対して複数のトレーニーがトレーニングを受ける場合に、トレーニーの撮影画像(点群データの集合体ではないもの)は、トレーナーの端末装置10では表示可能とする一方、トレーナーに対して同時にトレーニングを受講している他のトレーニーの端末装置10では非表示とすることとしてもよい。これにより、トレーニーのセンシング結果は、点群データと撮影画像との両方をトレーナーに開示しつつ、トレーニー間ではアバター(点群データの集合体)を共有するが撮影画像は共有しない等とすることもできる。
For example, in the terminal device 10B, the movement of the body of the first user is displayed as the first avatar (that is, the collection of point cloud data), while the captured image of the first user (not the collection of point cloud data) may be hidden. Further, when a plurality of trainees receive training from a trainer, the photographed images of the trainees (those that are not aggregates of point cloud data) can be displayed on the
これにより、ユーザはプライバシーを保護しながらトレーニングを行うことができる。 This allows users to train while protecting their privacy.
また、ある局面においては、プロセッサ19A、プロセッサ19B、またはサーバ20のプロセッサ29の少なくともいずれかが、仮想空間を定義して、仮想空間において、第1ユーザに関連付けられる第1アバターを含む映像を表示するための第1オブジェクトと、第1ユーザと共にトレーニングを行う第3ユーザに関連付けられる第2アバターを含む映像を表示するための第2オブジェクトとを配置し、プロセッサ19Aまたはプロセッサ19Bが、仮想空間の第1オブジェクトおよび第2オブジェクトを含む映像をディスプレイ132Aまたはディスプレイ132B等に表示させてもよい。
Also, in one aspect, at least one of processor 19A, processor 19B, or
これにより、ユーザは、複数人で行うトレーニングなどにおいて、同じ仮想空間内でのトレーニングを体験することができ、トレーニングの一体感、達成感などを得られため、モチベーションの維持、向上が期待できる。 As a result, the user can experience training in the same virtual space, such as training performed by a plurality of people, and can obtain a sense of unity and a sense of accomplishment in the training, which can be expected to maintain and improve motivation.
次に、図28を参照して、トレーナーがトレーニーに対してオンラインで指導をする際の処理の流れを説明する。 Next, with reference to FIG. 28, the flow of processing when the trainer instructs the trainees online will be described.
以下の説明では、トレーナーが音声でトレーニーに対して指導をしつつ、トレーニーの端末装置10で動作するアプリケーションを、トレーナーの音声で制御することにより、トレーナーにとって指導に適した情報を容易に得られるようにする例を説明する。具体的には、トレーニーの端末で、点群データに基づきアバターを描画すること、補助線を描画すること、トレーニーに課す身体の動きの種類を決定すること等を、トレーナーが音声入力で制御できるようにする。
In the following description, while the trainer instructs the trainee by voice, by controlling the application running on the trainee's
図28は、トレーナーの端末から、トレーナーの音声の入力を受け付けて、トレーニーの端末へ送信する処理の流れを示すフローチャートである。 FIG. 28 is a flow chart showing the flow of processing for receiving an input of the trainer's voice from the trainer's terminal and transmitting it to the trainee's terminal.
ステップS2851において、第2ユーザの端末装置10Bのプロセッサ19Bは、マイク141Bなどにより、第2ユーザによる音声の入力を受け付けて、第2ユーザの音声を第2ユーザの端末装置10Bから第1ユーザの端末装置10Aへ送信する。 In step S2851, the processor 19B of the terminal device 10B of the second user accepts the voice input of the second user through the microphone 141B or the like, and transmits the voice of the second user from the terminal device 10B of the second user to the voice of the first user. It transmits to the terminal device 10A.
ステップS2801において、第1ユーザの端末装置10Aのプロセッサ19Aは、端末装置10Bから受信する第2ユーザの音声を、スピーカ142A等により、第1ユーザに対し出力する。 In step S2801, the processor 19A of the terminal device 10A of the first user outputs the voice of the second user received from the terminal device 10B to the first user through the speaker 142A or the like.
ステップS2803において、プロセッサ19Aは、端末装置10Bから受信した第2ユーザの音声を、音声認識により解析する。プロセッサ19Aは、音声認識の解析の結果に基づき、第2ユーザの音声の内容を特定する。プロセッサ19Aは、特定した第2ユーザの音声の内容に基づき、第1ユーザの点群データに基づきアバターを描画するアプリケーションへの指示内容を特定する。プロセッサ19Aは、特定した当該アプリケーションへの指示内容に基づき、当該アプリケーションを制御する。 In step S2803, the processor 19A analyzes the second user's voice received from the terminal device 10B by voice recognition. The processor 19A identifies the content of the second user's voice based on the result of the voice recognition analysis. The processor 19A identifies the content of the instruction to the application for drawing the avatar based on the point cloud data of the first user, based on the identified content of the voice of the second user. The processor 19A controls the application based on the specified instruction to the application.
具体的には、当該プロセッサ19Aが特定する第2ユーザの音声の内容としては、
(i)第1ユーザの身体の動かし方を理想的なものとするための内容がある。プロセッサ19Aは、例えば、音声認識により、第2ユーザの音声のうち、ユーザの身体の部位(膝、肘、腕、肩など)に関する語を認識する。また、プロセッサ19Aは、第2ユーザの音声のうち、第1ユーザの身体の部位を、理想的な動きとするための動かし方を示す語(例えば、「膝を体に寄せる」、「脚部を水平にする」、「背筋を伸ばす」等)を認識する。
Specifically, the content of the voice of the second user specified by the processor 19A is as follows:
(i) There is content for making the first user's body movement ideal. The processor 19A, for example, through voice recognition, recognizes words related to the user's body parts (knees, elbows, arms, shoulders, etc.) in the voice of the second user. In addition, the processor 19A selects, from the voice of the second user, a word indicating how to move the body part of the first user in an ideal motion (for example, "bring your knees close to your body", "legs level”, “stretch your back”, etc.).
(ii)プロセッサ19Aが特定する音声の内容としては、第1ユーザのトレーニングのため、第1ユーザに取り組んでもらう運動の種類(トレーニングメニューなど)を示す内容がある。 (ii) The content of the voice specified by the processor 19A includes content indicating the type of exercise (training menu, etc.) that the first user should undertake for training of the first user.
プロセッサ19Aは、第2ユーザの音声の内容に、運動の種類が含まれる場合に、第1ユーザに課す運動の種類として、当該第2ユーザが音声で指定した運動にするとともに、第1ユーザに対応するアバターに関連付けて描画する補助線を、当該指定された運動の種類に対応付けられたものにする。これにより、第2ユーザによる第1ユーザの身体の動きの評価がよりいっそう容易になる。 If the second user's voice includes the type of exercise, the processor 19A sets the type of exercise to be imposed on the first user to be the exercise specified by the voice of the second user, and The auxiliary line drawn in association with the corresponding avatar is made to correspond to the designated exercise type. This makes it easier for the second user to evaluate the body movements of the first user.
(iii)プロセッサ19Aが特定する音声の内容としては、端末装置10Aにおいて動作する、第1ユーザのアバターと補助線を描画するアプリケーションへ特定の処理を行わせる内容がある。例えば、当該アプリケーションにおいて、第2ユーザの音声により示されるコマンドとしては、以下を含む。
・ アバターの描画態様(第1ユーザの身体の動きを表す点群データに対し、仮想カメラを配置する位置を含む。すなわち、第1ユーザに対応するアバターを正面から描画するか、側面から描画するか、その他の方向から描画するか等を含む)
・ 補助線の描画方法(補助線として、ユーザが身体を動かす動作に並行するよう補助線を描くこと、ユーザの身体の形状に沿って補助線を描画すること、補助線を描画するか否か等を含む)
・ 理想的な動きと比較して差分がある場合のアバターの描画方法(身体の特定の部位の動きが理想的な身体の動きよりも大きすぎる場合または小さすぎる場合に、それぞれ異なる色で当該特定の部位を描画することを含む)
・ アプリケーションを一時中止させる指示、その他の内容
(iii) The content of the voice specified by the processor 19A includes content that causes an application that draws the first user's avatar and auxiliary lines, which operates on the terminal device 10A, to perform a specific process. For example, in the application, commands indicated by the voice of the second user include the following.
・ Avatar drawing mode (including the position where the virtual camera is arranged with respect to the point cloud data representing the body movement of the first user. In other words, the avatar corresponding to the first user is drawn from the front or from the side) or draw from other directions, etc.)
・ How to draw the auxiliary line (as the auxiliary line, draw the auxiliary line parallel to the user's body movement, draw the auxiliary line along the shape of the user's body, whether to draw the auxiliary line etc.)
・ How to draw the avatar when there is a difference compared to the ideal movement (including drawing the parts of
・ Instructions to suspend the application and other contents
プロセッサ19Aは、音声認識により、発話者がトレーナーであると(例えば、トレーナー情報データベース2602に登録されるトレーナーである場合)話者認識をした場合に、当該発話者の音声に基づき、第1ユーザのアバターを描画するアプリケーションを制御することとしてもよい。これにより、トレーナー以外のユーザにより、意図せずアプリケーションが制御されることを抑止することができる。また、プロセッサ19Aは、端末装置10B等の他の端末装置10と、ウェブ会議ツール等により通信をする場合に、当該ウェブ会議ツール等で特定される話者の情報に基づいて、第1ユーザのアバターを描画するアプリケーションを制御することとしてもよい。例えば、ウェブ会議ツール等において、ミーティングに参加している各ユーザを識別する情報(アイコンなど)が表示されており、発声しているユーザについて当該各ユーザを識別する情報が区別して表示されることがある。プロセッサ19Aは、ウェブ会議ツール等において、トレーナーに対応するアイコン等が他のユーザのアイコン等と区別して表示されている場合に、発話者がトレーナーであるとみなして上記の処理を行うこととしてもよい。
When the processor 19A recognizes that the speaker is a trainer by speech recognition (for example, if the speaker is a trainer registered in the trainer information database 2602), the processor 19A recognizes the first user based on the speech of the speaker. may control an application that draws the avatar of the This can prevent a user other than the trainer from unintentionally controlling the application. In addition, when communicating with another
例えば、複数のトレーニーがトレーナーから指導を受ける場合に、トレーニーの音声によっては、当該アプリケーションにトレーニングに関する処理(トレーニーに行わせる運動の種類を変更する処理、当該変更に伴いアバターとともに描画する補助線を変更する処理等)を行わせず、トレーナーに当該処理を行わせるようにすることができる。これにより、トレーニング中に各ユーザが音声で発話するとしても、トレーナーが意図したようにトレーニングを行うことができる。 For example, when a plurality of trainees receive guidance from a trainer, depending on the trainee's voice, the application may perform processing related to training (processing to change the type of exercise to be performed by the trainee, processing to draw auxiliary lines with the avatar along with the change). change processing, etc.), and the trainer can be made to perform the processing. As a result, even if each user speaks during training, the training can be performed as intended by the trainer.
以上のように、第2ユーザが第1ユーザに対し音声による指導を行った結果、第1アバターを含む映像の表示態様を変更し、当該変更したアバターを含む映像に基づいて第2ユーザが第1ユーザへの指導を進めることができる。 As described above, as a result of the second user giving voice guidance to the first user, the display mode of the video including the first avatar is changed, and based on the video including the changed avatar, the second user can One user can be instructed.
(第1ユーザの動きをセンシングし、学習済みモデルに基づいて指導内容を特定)
図29は、第1ユーザの身体の動きを点群データとしてセンシングし、センシングで得られた、第1ユーザの点群データに基づく情報と、学習済みモデルとに基づいて、第1ユーザへの指導内容を特定する一連の処理を示すフローチャートである。これにより、トレーナーがいなくとも、トレーニーがトレーニー自身の身体の動かし方を当該学習済みモデルにより確認することができる。
(Sensing the movement of the first user and identifying the instruction content based on the learned model)
FIG. 29 is a diagram showing the motion of the body of the first user sensed as point cloud data, and based on the information based on the point cloud data of the first user obtained by sensing and the learned model, the It is a flowchart which shows a series of processes which identify the content of instruction. As a result, even without a trainer, the trainee can check how the trainee moves his/her own body using the learned model.
ステップS2901において、第1ユーザの端末装置10Aのプロセッサ19Aは、測定ユニット30等により、第1ユーザの身体の動きを点群データとしてセンシングする。 In step S2901, the processor 19A of the terminal device 10A of the first user senses the movement of the first user's body as point cloud data using the measurement unit 30 or the like.
ステップS2902において、プロセッサ19Aは、センシングで得られた、第1ユーザの点群データに基づく情報と、学習済みモデルとに基づいて、第1ユーザへの指導内容を特定する。 In step S2902, the processor 19A identifies guidance content for the first user based on the information based on the first user's point cloud data obtained by sensing and the learned model.
ここで、学習済みモデルの作成方法について例示する。
(i)例えば、1または複数のユーザの点群データに関する情報を取得したのち、各種情報(例えば、年齢、体重、目的など)と、トレーニングを受けるユーザを指導する立場のユーザ(トレーナー)の情報と、実際にトレーニーが受けたトレーニングの内容と、各種トレーニーの情報がトレーニングにより変化した履歴などの情報と、に基づいて、1または複数のユーザの点群データの情報とトレーニング内容とを関連付けて学習済みモデルを作成する。
Here, a method for creating a learned model will be illustrated.
(i) For example, after acquiring information on point cloud data of one or more users, various information (eg, age, weight, purpose, etc.) and information of the user (trainer) who is in a position to instruct the user undergoing training Then, based on the content of the training actually received by the trainee and information such as the history of changes in the information of various trainees due to training, the information of the point cloud data of one or more users and the training content are associated. Create a trained model.
つまり、当該学習済みモデルは、トレーニーの情報と、トレーナーによる指導内容とを時系列のデータとして学習することにより、トレーニーにトレーニングをすることでトレーニーがどれだけ変化するかを出力するものといえる。 In other words, the trained model can be said to output how much the trainee changes as the trainee is trained by learning the information of the trainee and the content of instruction by the trainer as time-series data.
また、当該学習済みモデルは、学習済みモデルの学習用データである点群データに基づく情報を取得したユーザの情報(つまり、トレーニーの情報)、または、トレーニーに指導を行ったトレーナーの情報に関連付けられていてもよい。これにより、トレーニーまたはトレーナーが、トレーニーが使用する学習済みモデルを指定する際に、当該学習済みモデルに関連付けられるトレーニーの情報またはトレーナーの情報を参考にすることができる。または、プロセッサ19A等が、学習済みモデルに関連付けられるユーザの情報に基づいて、トレーニーであるユーザに提案する学習済みモデルを特定することとしてもよい。 In addition, the trained model is associated with the information of the user who acquired the information based on the point cloud data, which is the learning data of the trained model (that is, the information of the trainee), or the information of the trainer who instructed the trainee. may have been Accordingly, when a trainee or a trainer designates a trained model to be used by the trainee, the trainee's information or the trainer's information associated with the trained model can be referred to. Alternatively, the processor 19A or the like may specify a trained model to be proposed to the user who is a trainee based on user information associated with the trained model.
(ii)または、当該学習済みモデルは、トレーニーの身体の動かし方を測定した結果(点群データ、トレーニーを撮影した撮影画像)の時系列データに対し、トレーナーがタグをつける(身体の部位を理想的な動かし方にするためのコメント、呼吸をすべきであること、心拍数が上昇しすぎており休憩をすべきであること等)ことにより、当該時系列データを学習用データとして生成することとしてもよい。 (ii) Alternatively, in the trained model, the trainer attaches tags (body parts Generate the time-series data as learning data by commenting on how to move ideally, that you should breathe, that your heart rate is too high and you should take a break, etc.) You can do it.
例えば、ある局面において、トレーニーの身体の動きの測定結果と、学習済みモデルとに基づいて、トレーニーであるユーザの体質に沿ったトレーニングメニューの提示、トレーニング中に呼吸をすべきタイミング、心拍数の上がるタイミング、水分を取るべきタイミング、休憩の必要なタイミングなどを特定し、ユーザに提示することができる。 For example, in one aspect, based on the result of measuring the body movement of the trainee and the learned model, a training menu is presented that matches the physical constitution of the user who is the trainee, the timing at which to breathe during training, and the heart rate. The timing to get up, the timing to drink water, the timing to take a break, etc. can be identified and presented to the user.
例えば、ある局面において、トレーニーがウェアラブルデバイス(腕時計型、眼鏡型、指輪型など)を装着し、トレーニーであるユーザの心拍数、呼吸のタイミング等を測定しつつ、上記の学習済みモデルを用いることにより、トレーニーに指導すべき内容を学習済みモデルが出力することとしてもよい。 For example, in a certain aspect, a trainee wears a wearable device (wristwatch type, eyeglass type, ring type, etc.) and uses the above learned model while measuring the heart rate, breathing timing, etc. of the user who is a trainee. , the learned model may output the content to be instructed to the trainee.
また、他の局面においては、ユーザから取得した点群データに関する情報から、カロリー消費量を含むユーザの運動強度(運動の激しさ)を特定し、ユーザに休憩、水分補給などのアドバイスを提示することができる。
(iii)学習済みモデルを生成する方法として、第1の実施の形態で説明したようにROMチェックの結果として蓄積される測定データ(測定履歴データベース283)を教師データとして学習済みモデルを生成することとしてもよい。例えば、当該測定データと、ユーザが行ったトレーニングメニューと、ユーザが入力したアンケート等の回答結果とに基づいて学習済みモデルを生成することとしてもよい。
これにより、ユーザに提案する運動の種類、ユーザへのアドバイスの内容等を、ROMチェックの測定データに基づき生成された学習済みモデルに出力させることとしてもよい。
In another aspect, the user's exercise intensity (exercise intensity) including calorie consumption is specified from information on point cloud data acquired from the user, and advice such as rest and hydration is presented to the user. be able to.
(iii) As a method for generating a trained model, as described in the first embodiment, the measured data (measurement history database 283) accumulated as a result of the ROM check is used as teacher data to generate a trained model. may be For example, a learned model may be generated based on the measurement data, the training menu performed by the user, and the results of responses to a questionnaire or the like input by the user.
As a result, the type of exercise proposed to the user, the content of advice to the user, and the like may be output to the learned model generated based on the measurement data of the ROM check.
また、学習済みモデルを生成する方法として、第2の実施の形態で説明したように、ユーザの歩行姿勢を評価した結果として蓄積される測定データ(測定結果データベース287)を教師データとして学習済みモデルを生成することとしてもよい。例えば、当該測定データと、ユーザが行ったトレーニングメニューと、ユーザが入力したアンケート等の回答結果とに基づいて学習済みモデルを生成することとしてもよい。
これにより、ユーザに提案する運動の種類、ユーザへのアドバイスの内容等を、歩行姿勢評価のための測定データに基づき生成された学習済みモデルにより出力させることとしてもよい。
As a method for generating a trained model, as described in the second embodiment, measured data accumulated as a result of evaluating the user's walking posture (measurement result database 287) is used as teacher data to generate a trained model. may be generated. For example, a learned model may be generated based on the measurement data, the training menu performed by the user, and the results of responses to a questionnaire or the like input by the user.
As a result, the type of exercise proposed to the user, the content of the advice to the user, and the like may be output by the trained model generated based on the measurement data for walking posture evaluation.
例えば、学習済みモデルを生成する方法として、ユーザの姿勢(関節位置など)を推定した結果として蓄積される測定データに基づいて学習済みモデルを生成することとしてもよい。具体的には、サーバ20等において学習済みモデルを生成する方法として、ユーザの関節位置を推定した結果と、ユーザが行ったトレーニングメニューと、トレーナーからのアドバイスの内容とに基づいて学習済みモデルを生成し、生成した学習済みモデルを記憶することとしてもよい。
For example, as a method of generating a trained model, a trained model may be generated based on measurement data accumulated as a result of estimating a user's posture (joint positions, etc.). Specifically, as a method of generating a learned model in the
以上により、サーバ20は、ユーザの姿勢の推定結果に基づく情報と、学習済みモデルとに基づいて、ユーザへの指導内容を特定し、特定した指導内容をユーザに提示することとしてもよい。
As described above, the
また、サーバ20等は、学習済みモデルを、当該学習済みモデルの学習用データ(ユーザの姿勢を推定した結果)を取得した当該ユーザの情報と関連付けて記憶することとしてもよい。
Further, the
また、サーバ20等は、ユーザの姿勢の推定結果に基づく情報と、学習済みモデルとに基づいて、上記と同様にユーザの運動強度を特定することとしてもよい。サーバ20は、ユーザの運動強度を特定した結果に基づいて、ユーザへの指導内容を特定し、特定した指導内容をユーザに提示することとしてもよい。
Also, the
ステップS2903において、プロセッサ19Aは、学習済みモデルにより特定した前記指導内容を、ディスプレイ132A等に表示するなどして、第1ユーザに提示する。
In step S2903, the processor 19A presents the guidance content specified by the learned model to the first user by displaying it on the
<第5の実施の形態における画面例>
図30~図32は、端末装置10に表示される画面例を示す図である。
<Screen example in the fifth embodiment>
30 to 32 are diagrams showing examples of screens displayed on the
図30は、第1ユーザの端末装置10Aにおいて、第1ユーザの身体の動きを点群データとしてセンシングし、センシングで得られた、第1ユーザの点群データに基づく情報を第2ユーザの端末に送信する際の画面例である。 FIG. 30 shows that the terminal device 10A of the first user senses the movement of the body of the first user as point cloud data, and transmits information obtained by sensing based on the point cloud data of the first user to the terminal device 10A of the second user. It is an example of the screen when sending to.
図30において、測定ユニット30のカメラ2901は、第1ユーザの身体の動きをセンシングするための装置を示す。
In FIG. 30, the
具体的には、カメラ2901は、カメラ2901に備え付けられた撮影部を通じて、第1ユーザの画像を撮影する。このとき、カメラ2901は、距離と方向を測定可能に構成されており、例えばRGB-Dカメラ、LIDAR(Laser Imaging Detection and Ranging)技術により構成されている。
Specifically, the
前回画面2902は、第1ユーザがトレーニングを行うときに、以前に同種のトレーニングを行ったときの第1ユーザのアバター(すなわち、点群データに基づき描画した画像)を含む画像を表示する画面である。端末装置10Aは、例えば、サーバ20のトレーニング履歴データベース2603を参照することにより、第1ユーザが過去にトレーニングを受けた際の第1ユーザの身体の動きを示す点群データを取得する。
The
図示する例では、前回画面2902において、第1ユーザのアバターを、円形等の図形の集合体として示しているが、測定ユニット30により測定される点群データの集合体として表示することとしてもよい。
In the illustrated example, on the
第1ユーザの過去のトレーニング時の点群データに基づくアバターを表示することで、第1ユーザの身体の動きがトレーニングによりどの程度変化したかを第1ユーザ、第2ユーザが容易に確認することができる。例えば、第1ユーザが膝を抱えて身体を丸める動きを行うときに、端末装置10Aにおいて、以前のトレーニング画面である前回画面2902を表示する。第1ユーザまたは第2ユーザは、前回画面2902と、後述する今回画面2903の表示内容とを比較することができる。これにより、第1ユーザは、自身の身体の動きの差を確認することができる。
To allow a first user and a second user to easily confirm how much the body movement of the first user has changed due to training by displaying an avatar based on point cloud data of the first user's past training. can be done. For example, when the first user holds the knees and performs a motion of curling the body, the terminal device 10A displays the
また、端末装置10Aは、当該前回画面2902を、常に表示されていることとしてもよいし、第1ユーザまたは第2ユーザの指示により表示したり表示をオフにしたりしてもよい。このとき、端末装置10Aは、第1ユーザを表すアバターとして、正面、側面、上面など、複数の視点から第1ユーザを描画した画像を表示してもよい。また、第1ユーザが行う身体の動きが理想的か否かを評価する身体の部位に基づく位置に補助線を描画していてもよい。図示する例では、過去画面2902において、第1ユーザのアバターを表示する領域と関連付けて補助線を描画している。
Further, the terminal device 10A may always display the
今回画面2903は、第1ユーザがトレーニングを行っているときの、測定ユニット30のセンシング結果に基づく第1ユーザのアバターの画像を表示する画面である。
The
図示する例では、第1ユーザ2094を示しており、第1ユーザがマットなどの上で、実際にトレーニングを行っている状態を示している。端末装置10Aは、当該第1ユーザの動きを、カメラ2901により撮影し、第1ユーザの点群データの情報を取得する。
In the illustrated example, a first user 2094 is shown, showing a state in which the first user is actually training on a mat or the like. The terminal device 10A captures the movement of the first user with the
第1ユーザ画像2905は、第1ユーザをカメラ160等で撮影した撮影画像を示す。第1ユーザ画像2905において、第1ユーザを点群データの集合体として描画するのではなく、2Dカメラ等で撮影した撮影画像を表示している。すなわち、第1ユーザ画像2905において、人間が肉眼で視認できるものと同等の撮影画像を表示する。
A
これにより、端末装置10Aは、第1ユーザに対し、実際の第1ユーザ自身の画像と、点群データの情報に基づいた画像とを見比べることができるようにしている。また、端末装置10は、第1ユーザの指定に応じて、第1ユーザ画像2905において第1ユーザ自身の撮影画像を表示しないこととしつつ、第1ユーザであることを第2ユーザ等が識別可能なアイコン、文字列等を表示してもよい。
Thereby, the terminal device 10A allows the first user to visually compare the actual image of the first user himself and the image based on the information of the point cloud data. In addition, the
第2ユーザ画像2906は、トレーニングを受けるユーザを指導する立場である第2ユーザの画像を示す。端末装置10Aは、第2ユーザの端末装置10Bから、第2ユーザの撮影画像を受信することにより、第2ユーザ画像2906において第2ユーザの撮影画像を表示する。これにより、第1ユーザと第2ユーザとは、ネットワーク80等を通じた端末間のビデオ通話等により、お互いの画像を見てコミュニケーションをとりながらトレーニングを行うことができる。
A
図31は、第1ユーザの身体の動きを点群データとしてセンシングし、センシングで得られた、第1ユーザの点群データに基づく情報を第2ユーザの端末に送信する際の、全体構成を含む第1ユーザおよび第2ユーザの画面例である。 FIG. 31 shows the overall configuration when sensing the movement of the first user's body as point cloud data and transmitting information based on the first user's point cloud data obtained by sensing to the terminal of the second user. It is an example of the screen of the 1st user and the 2nd user including.
図31において、カメラ3001は、図30におけるカメラ2901と同様に、第1ユーザの身体の動きを点群データとしてセンシングするための装置を示す。
In FIG. 31, a
今回画像3002、3006は、図30における今回画面2903と同様に、第1ユーザがトレーニングを行っているときの、第1ユーザの画像を点群データの集合体として表示する画面である。このとき、今回画像3002は、第1ユーザの端末装置10Aのディスプレイ132A等に表示されており、今回画像3006は、第2ユーザの端末装置10Bのディスプレイ132B等に表示されている。
This
第1ユーザ3003は、図30における第1ユーザ2904と同様に、第1ユーザがマットなどの上で、実際にトレーニングを行っている状態を示した図である。
A
第1ユーザ画像3004、3007は、図30における第1ユーザ画像2905と同様に、第1ユーザをカメラ2901により撮影した際の、アバターを含む映像ではない、実際の撮影画像を示す。このとき、第1ユーザ画像3004は、第1ユーザの端末装置10Aのディスプレイ132A等に表示されており、第1ユーザ画像3007は、第2ユーザの端末装置10Bのディスプレイ132B等に表示されている。
第2ユーザ画像3005、3008は、図30における第2ユーザ画像2906と同様に、トレーニングを受けるユーザを指導する立場である第2ユーザの画像を示す。このとき、第2ユーザ画像3005は、第1ユーザの端末装置10Aのディスプレイ132A等に表示されており、第2ユーザ画像3008は、第2ユーザの端末装置10Bのディスプレイ132B等に表示されている。また、ある局面において、当該画面例のように、第2ユーザからの音声による入力操作により、端末装置10Aのスピーカ142A等を通じて第2ユーザの音声(「もっと腰を落としましょう!」などの音声)を出力してもよい。
第2ユーザ3009は、端末装置10Bがディスプレイ132B等に表示する画面を視認して、第1ユーザの画像に基づいて指導を行っている。このとき、第2ユーザは、音声により第1ユーザに指導を行うことができる。第2ユーザは、第1ユーザを撮影した画像として、点群データに基づく画像と、肉眼で視認する際と同等の画像の両方またはいずれかを確認しつつ、第1ユーザの身体の動きに対してアドバイスをすることができる。点群データの集合体として、実際の撮影画像により示される第1ユーザの画像よりも第2ユーザにとって情報量を落とすことにより、第2ユーザが、よりいっそう第1ユーザの身体の動きを見極めやすくなり、評価およびアドバイスをしやすくすることができる。
The
図32は、複数のユーザの身体の動きを点群データとしてセンシングし、センシングで得られた、各ユーザの点群データに基づく情報を、定義された仮想空間に送信する際の画面例である。 FIG. 32 is an example of a screen when the body movements of a plurality of users are sensed as point cloud data, and information based on the point cloud data of each user obtained by sensing is transmitted to a defined virtual space. .
図32において、仮想空間3101は、1または複数のトレーニングを受けるユーザが、自身に関連付けられるアバターを含む映像を表示するためのオブジェクトを配置するための空間を示す。
In FIG. 32,
トレーナー画像3102は、トレーニングを受けるユーザを指導する立場である第2ユーザの画像を示す。第2ユーザの端末装置10Bが、第2ユーザを撮影し、当該撮影された画像を、随時、仮想空間を管理するコンピュータに送信する。
A
ユーザ画像3103は、1または複数のユーザがトレーニングを行っているときの、それぞれのユーザの画像を表示する画面である。このとき、表示される画像として、自身に関連付けられる点群データの集合体としてのアバターを含む映像のみでもよいし、アバターを含む映像ではない、実際の各ユーザの撮影画像を合わせて表示してもよい。
A
これにより、各ユーザは自身の身体の動きに対応するアバターを含む映像を当該仮想空間に配置することができ、仮想空間に配置された各ユーザのアバターの画像を各ユーザが視認できるようにすることで、あたかも複数のユーザが同じ場所でトレーニングを行っている感覚を得ることができる。これにより、トレーニングにおける一体感、達成感などを得ることができ、トレーニングを継続する動機づけを各ユーザに提供することができる。サーバ20は、トレーナーからトレーニングを受ける各トレーニーをマッチングさせることに応答して、各トレーニーの端末とトレーナーの端末とを通信可能とし、サーバ20または各ユーザの端末のいずれか等において仮想空間を構築することとしてもよい。すなわち、各ユーザが通信をする際のホストとなるコンピュータをサーバ20が指定することとしてもよい。
As a result, each user can place an image including an avatar corresponding to the movement of the user's own body in the virtual space, and each user can visually recognize the image of the avatar of each user placed in the virtual space. By doing so, it is possible to get the feeling that a plurality of users are training at the same place. As a result, a sense of unity and a sense of accomplishment in training can be obtained, and motivation to continue training can be provided to each user. In response to matching each trainee who receives training from the trainer, the
<6 変形例>
本実施形態の変形例について説明する。すなわち、以下のような態様を採用してもよい。
<6 Modifications>
A modification of this embodiment will be described. That is, the following aspects may be adopted.
(1)上記の図31~図32の例では、ユーザが過去にトレーニングを受けた際の当該ユーザのセンシング結果に基づくアバターと、トレーナーからトレーニングを受けている現在のセンシング結果に基づくアバターとを並べて表示する例を説明した。 (1) In the examples of FIGS. 31 and 32 above, an avatar based on the user's sensing results when the user underwent training in the past and an avatar based on the current sensing results of training from a trainer. An example of displaying them side by side was explained.
この他に、トレーナーとのトレーニングにおいて時系列に沿ってセンシングされたトレーニーの点群データの時系列データに基づき、トレーニーに対応するアバターを並べて表示することとしてもよい。 Alternatively, avatars corresponding to trainees may be displayed side by side based on the time-series data of the trainee's point cloud data sensed along the time series during training with the trainer.
すなわち、トレーニングを開始するタイミングまたは開始して一定時間内にセンシングされた点群データに基づくアバターと、トレーナーの指導に基づきリアルタイムにセンシングしている結果またはトレーナーの指導が始まってから一定時間が経過したタイミングでのセンシング結果に基づくアバターとを並べて端末装置10Aで表示することとしてもよい。 In other words, the avatar based on the point cloud data sensed at the timing of starting training or within a certain period of time after the start, and the result of real-time sensing based on the trainer's guidance or a certain amount of time after the trainer's guidance started The terminal device 10A may display the avatars based on the sensing results at the timings set side by side.
また、1回のトレーニングの過程で、トレーニーの体の動かし方のうち、特に理想的な身体の動かし方へと近づいた部位を、その他の部位と比較して強調してアバターに反映させて表示することとしてもよい。例えば、アバターと共に描画される上記の補助線に対して、トレーニーの身体の動かし方がどの程度近づいているのかをプロセッサ19Aが評価して、評価結果に応じて画面を描画することとしてもよい。例えば、膝を特定の方向に伸ばすことが理想的な動きとなる場合に、当該特定の方向に沿って補助線をプロセッサ19Aが描画する。プロセッサ19Aは、トレーニーの身体の動かし方において、膝の動きが補助線に沿った方向に近づくにつれて、アバターの膝の部位、または、膝の部位に関連付けられる補助線の描画態様を変更することとしてもよい。 Also, in the course of one training session, the part of the trainee's body that has moved closer to the ideal one is emphasized compared to other parts and displayed on the avatar. It is also possible to For example, the processor 19A may evaluate how closely the body movements of the trainee are to the auxiliary lines drawn together with the avatar, and draw the screen according to the evaluation result. For example, if the ideal motion is to stretch the knee in a specific direction, the processor 19A draws an auxiliary line along the specific direction. The processor 19A changes the knee part of the avatar or the drawing mode of the auxiliary line associated with the knee part as the movement of the knee approaches the direction along the auxiliary line in the trainee's body movement. good too.
これにより、1回のトレーニングの前後、またはトレーニングの過程で、トレーニーがどれだけ変化したかをトレーニーが容易に確認できるため、トレーニー自身がどれだけ変化したか(目標に近づいているか等)を確認しやすくなる。これにより、トレーニーがトレーニングを続ける動機づけをよりいっそう向上させることができる。 As a result, the trainee can easily check how much the trainee has changed before and after a single training session or during the course of training, so the trainee himself can check how much he has changed (such as whether he is getting closer to his goal). easier to do. This can further improve the trainee's motivation to continue training.
オンラインでトレーニングを行う場合は、オンラインではなく対面でトレーニングを行う場合と比べて視覚的な情報が削減されてしまい(対面だと肉眼で視認可能なのに対してオンラインの場合は2次元のディスプレイの画像として視認する)コミュニケーション時の体験の質が低下してしまう恐れがある。また、オンラインでトレーニングを行う場合は、トレーナーがトレーニーの身体に触れることも非常に困難といえる。よって、上記のようにトレーニーへトレーニング結果のフィードバックを提供することにより、トレーニーがオンラインでトレーニングを継続する動機づけを提供することができる。 When training online, the visual information is reduced compared to training face-to-face instead of online (visible to the naked eye in face-to-face vs. two-dimensional display image for online). (visually recognized as such) may reduce the quality of the communication experience. Moreover, when training is conducted online, it is very difficult for the trainer to touch the body of the trainee. Therefore, by providing training result feedback to the trainee as described above, it is possible to provide the trainee with motivation to continue training online.
以上のように、1回のトレーニングでユーザの身体の動かし方が理想的な動かし方へと変化した場合に、当該センシング結果に基づいて学習済みモデルを生成することとしてもよい。 As described above, a learned model may be generated based on the sensing result when the user's body movement is changed to an ideal one by one training session.
(2)以上の実施形態では、ユーザの身体の動きをセンシングした結果に基づきアバターを表示して、トレーナーとトレーニーとのオンライントレーニングにおいてトレーナーに対応するアバターをトレーニーに表示する例を説明した。 (2) In the above embodiments, the avatar is displayed based on the result of sensing the movement of the user's body, and the avatar corresponding to the trainer is displayed to the trainee in online training between the trainer and the trainee.
この他に、トレーナーとトレーニーとの通信によらず、プロセッサ19Aが、ユーザ自身で自身の身体の動かし方を上記のアバターとして確認しつつトレーニングをすることとしてもよい。例えば、ユーザは、端末装置10Aにおいて、身体の動かし方を設定し、設定された身体の動かし方に応じて、補助線等を描画しつつ、ユーザに体の動かし方の情報を通知して(身体の動かし方を案内して)、ユーザの身体の動かし方を測定ユニット30等によりセンシングすることとしてもよい。 In addition, the processor 19A may perform training while confirming how the user himself or herself moves as the avatar described above, regardless of the communication between the trainer and the trainee. For example, in the terminal device 10A, the user sets how to move the body, draws an auxiliary line or the like according to the set way to move the body, and notifies the user of the information on how to move the body ( The user's body movement may also be sensed by the measurement unit 30 or the like.
(2-1) ユーザの身体の動きのセンシング方法
端末装置10Aは、アバター等として、ユーザの身体の動かし方をセンシングした結果をユーザに提示する。また、端末装置10Aは、実施の形態1、2等で説明したように、ユーザの身体のセンシング結果に基づいて、ユーザの身体の各関節の位置を特定し、骨格(ボーン)を推定することができる(図12)。
(2-1) Method for Sensing Movement of User's Body The terminal device 10A presents the result of sensing the movement of the user's body to the user as an avatar or the like. Further, as described in the first and second embodiments, the terminal device 10A identifies the positions of the joints of the user's body based on the sensing results of the user's body, and estimates the skeleton (bone). (Fig. 12).
端末装置10Aは、以下のようにして、ユーザの各関節の位置、骨格の推定結果に基づき姿勢を推定することとしてもよい。
・ 端末装置10Aが、被写体となるユーザを撮影した撮影結果(二次元の動画像)に基づいて、当該動画像に示されるユーザの姿勢を、点群データによらずとも推定する。
すなわち、端末装置10Aは、LiDAR等のように光学的に被写体との距離を測定する構成を有していないカメラによりユーザを撮影し、当該撮影結果に基づいて、撮影画像におけるユーザの姿勢として、関節の位置、骨格等を推定することとしてもよい。
例えば、撮影画像を入力として、当該撮影画像における被写体となっている人物の関節の位置、骨格等の姿勢を出力する学習済みモデルを用意することにより、端末装置10Aが、ユーザの撮影結果と、学習済みモデルとに基づいて、ユーザの姿勢を推定し得る。
このような学習済みモデルは、予め、撮影画像における被写体となっている人物について、撮影画像における関節の位置、骨格等の情報を関連付けた学習データを用意してコンピュータに学習を行わせることにより生成し得る。
・ 他の実施形態でも説明したように、端末装置10Aが、ユーザの身体の動きを、端末装置10A等に搭載されるカメラまたは測定ユニット30等に基づき点群データとしてセンシングし、センシングした結果に基づいて、関節の位置、骨格等を推定する。
The terminal device 10A may estimate the posture based on the position of each joint of the user and the result of estimating the skeleton in the following manner.
- The terminal device 10A estimates the posture of the user shown in the moving image based on the photographed result (two-dimensional moving image) of the user, who is the subject, without using the point cloud data.
That is, the terminal device 10A shoots the user with a camera that does not have a configuration for optically measuring the distance to the subject, such as LiDAR, and based on the shooting result, the user's posture in the shot image is: It is also possible to estimate joint positions, skeletons, and the like.
For example, by using a captured image as an input and preparing a trained model that outputs the positions of joints and postures such as the skeleton of a person who is the subject in the captured image, the terminal device 10A can obtain the user's captured result, The user's pose can be estimated based on the trained model.
Such a trained model is generated by preparing learning data in which information such as joint positions and bone structure in a photographed image is associated with a person who is a subject in the photographed image, and causing a computer to perform the learning. can.
- As described in other embodiments, the terminal device 10A senses the movement of the user's body as point cloud data based on the camera or the measurement unit 30 mounted on the terminal device 10A or the like, and the sensing result is Based on this, the positions of the joints, the skeleton, etc. are estimated.
(2-2) 関節の位置、骨格の推定結果に基づく補助線の描画
端末装置10Aは、ユーザに対し、身体を動かす際の目安となる補助線を、ユーザの姿勢の推定結果に基づいて描画することとしてもよい。端末装置10Aが、当該補助線を、ユーザの姿勢の推定結果に基づいて描画することとして、以下のようにしてもよい。
・ 端末装置10A等が、ユーザに対し提示する、身体の動かし方の種類(例えば、側方挙上など体幹筋の動きや関節可動域を評価するための運動、または、筋力トレーニングのための運動など)と、間接の位置、骨格の推定結果とに基づいて、補助線を描画する位置を決定する。
例えば、身体の動かし方の種類によっては、ユーザが身体を一定量動かすものが含まれる(例えば、関節可動域を評価するために、前足を踏み出す動作など)。端末装置10Aは、ユーザに対し、アバターを表示しつつ、身体を動かす量の目安としての補助線を、ユーザの特定の関節の位置の推定結果に基づいて描画する。
例えば、端末装置10Aは、ユーザが前足を踏み出す動作をする場合に、まずユーザに所定の姿勢(例えば足を踏み出す前に直立の姿勢をする)をするよう音声または映像等により促す。端末装置10Aは、当該姿勢における関節の位置(例えば、肩関節、股関節、膝関節)に基づいてユーザの歩幅の量を推定し(例えば、ユーザの身長、ユーザの下肢の長さにより、ユーザが踏み出すべき歩幅の量が特定されうる)、推定した歩幅の量に基づいて、関節の位置の推定結果に基づいて補助線を描画すべき位置を決定する。
端末装置10Aは、ユーザが行う身体の動きの種類に応じて、補助線を描画するために参照する関節の位置と、当該関節の位置に対して補助線を描画する位置関係とを予め対応付けて記憶することとしてもよい。
(2-2) Drawing of Auxiliary Lines Based on Joint Position and Skeleton Estimation Result The terminal device 10A draws an auxiliary line for the user as a guideline for moving the body, based on the result of estimating the user's posture. It is also possible to The terminal device 10A may draw the auxiliary line based on the estimation result of the user's posture as follows.
The type of body movement presented to the user by the terminal device 10A or the like (for example, exercise for evaluating movement of trunk muscles and range of motion of joints such as side elevation, or exercise for strength training) motion, etc.), indirect positions, and skeleton estimation results, the positions for drawing auxiliary lines are determined.
For example, some types of body movements include those in which the user moves the body by a certain amount (for example, an action of stepping a front foot to evaluate the joint range of motion). While displaying the avatar to the user, the terminal device 10A draws an auxiliary line as a guideline for the amount of body movement based on the results of estimating the positions of specific joints of the user.
For example, when the user steps forward, the terminal device 10A first prompts the user to take a predetermined posture (for example, to stand upright before stepping forward) by voice or video. The terminal device 10A estimates the amount of stride of the user based on the positions of the joints in the posture (for example, shoulder joint, hip joint, knee joint) (for example, the height of the user, the length of the lower limbs of the user, The amount of stride to be taken can be specified), and based on the estimated amount of stride, determine the position where the auxiliary line should be drawn based on the joint position estimation result.
The terminal device 10A associates in advance the position of the joint referred to for drawing the auxiliary line and the positional relationship for drawing the auxiliary line with respect to the position of the joint, according to the type of body movement performed by the user. It is also possible to store the
図33は、端末装置10Aが、ユーザの姿勢の推定結果に基づいて、補助線を描画する処理の概念を示す図である。 FIG. 33 is a diagram showing a concept of processing in which the terminal device 10A draws auxiliary lines based on the result of estimating the posture of the user.
図33の例(A)では、端末装置10Aは、ユーザの身体の動きを点群データとしてセンシングするものとする。端末装置10Aは、センシング結果に基づいて、ユーザに対応するアバターAVT_Aの3次元オブジェクトデータを記憶する。端末装置10Aは、アバターAVT_Aの3次元オブジェクトデータに基づいて、当該3次元オブジェクトデータのユーザの関節の位置(例えば、図12に示す各関節)を推定する。例(A)では、端末装置10Aは、アバターAVT_Aの3次元オブジェクトデータを仮想空間に配置した場合に、当該アバターにおいてユーザの股関節の位置を推定した結果の座標となる関節位置JNT_01Aを特定する。
図33の例(A)において、端末装置10Aは、ユーザの身体の動かし方の種類に応じて、補助線LN_01Aの3次元オブジェクトデータを、関節位置JNT_01Aから一定距離DIST_01Aの分、離した位置に配置する、と決定する。端末装置10Aは、当該一定距離を、ユーザの体格(ユーザの身体の動きのセンシング結果に基づき、ユーザの身長、座高、肩幅等を測定することにより得られる)に基づいて設定することとしてもよい。ユーザの体格に応じて、ユーザが身体を動かす目安となる量が定まり得る。例(A)では、端末装置10Aは、補助線LN_01Aの3次元オブジェクトデータを、ユーザが身体を動かす際の地面と平行となるように配置している。
In the example (A) of FIG. 33, the terminal device 10A senses the movement of the user's body as point cloud data. The terminal device 10A stores the three-dimensional object data of the avatar AVT_A corresponding to the user based on the sensing result. Based on the 3D object data of the avatar AVT_A, the terminal device 10A estimates the positions of the user's joints (for example, each joint shown in FIG. 12) of the 3D object data. In example (A), when the three-dimensional object data of avatar AVT_A is arranged in the virtual space, terminal device 10A identifies joint position JNT_01A, which is the coordinate resulting from estimating the position of the user's hip joint in the avatar.
In the example (A) of FIG. 33, the terminal device 10A moves the three-dimensional object data of the auxiliary line LN_01A to a position separated by a certain distance DIST_01A from the joint position JNT_01A according to the type of movement of the user's body. Decide to place. The terminal device 10A may set the fixed distance based on the physique of the user (obtained by measuring the user's height, sitting height, shoulder width, etc. based on the result of sensing the movement of the user's body). . Depending on the physique of the user, the amount that the user should move the body can be determined. In example (A), the terminal device 10A arranges the three-dimensional object data of the auxiliary line LN_01A so as to be parallel to the ground when the user moves his or her body.
図33の例(B)において、端末装置10Aは、補助線LN_02Aの3次元オブジェクトデータを、関節位置JNT_01Aに基づいて、当該関節位置JNT_01Aと重なるように、かつ、ユーザが身体を動かす際の地面と垂直となるように配置している。 In the example (B) of FIG. 33 , the terminal device 10A arranges the three-dimensional object data of the auxiliary line LN_02A based on the joint position JNT_01A so that it overlaps with the joint position JNT_01A and is aligned with the ground surface when the user moves the body. are arranged so as to be perpendicular to the
図34は、ユーザに提示する画面例を示す。
図34に示すように、端末装置10Aは、画面3403において、ユーザの身体の動きをセンシングした結果として、ユーザに対応するアバターを、左側面3403A、正面3403B、右側面3403Cのように、複数の視点から描画した結果を同画面に配置する。
FIG. 34 shows an example screen presented to the user.
As shown in FIG. 34, the terminal device 10A, as a result of sensing the movement of the user's body on the
例えば、端末装置10Aは、仮想空間において、ユーザの身体の動きのセンシング結果(例えば点群データ)に対応する3次元オブジェクトデータ(アバターとしてユーザに認識されうるもの)を配置する。端末装置10Aは、当該仮想空間において、当該ユーザのセンシング結果に対応する3次元オブジェクトデータに対し、複数の仮想カメラ(例えば、右側面に対応する仮想カメラ、正面に対応する仮想カメラ、左側面に対応する仮想カメラ)を設定する。これにより、端末装置10Aは、ユーザに対応するアバターを複数の視点から描画した結果をユーザに提示することができる。 For example, the terminal device 10A arranges three-dimensional object data (that can be recognized by the user as an avatar) corresponding to the sensing result of the motion of the user's body (for example, point cloud data) in the virtual space. In the virtual space, the terminal device 10A captures three-dimensional object data corresponding to the sensing result of the user by using a plurality of virtual cameras (for example, a virtual camera corresponding to the right side, a virtual camera corresponding to the front, and a virtual camera corresponding to the left side). corresponding virtual camera). Thereby, the terminal device 10A can present to the user the result of drawing the avatar corresponding to the user from a plurality of viewpoints.
図示するように、端末装置10Aは、ユーザに対し、アバターを提示する一方で、骨格(ボーン)を推定した結果を提示しないこととしてもよい。例えば、ユーザは、自分自身を鏡等で視認することと比べて、骨格(ボーン)の推定結果自体を日常的に肉眼で視認する機会は少ないと想定される。したがって、端末装置10Aが、アバターをユーザに提示しつつ骨格(ボーン)の推定結果を表示しないことにより、ユーザに対し、肉眼で日常的に視認し得る自身の体型と同様のアバターを画面上で認識することとなり、画面に投影されるアバターが、ユーザ自身であるかのように没入することができ得る。 As illustrated, the terminal device 10A may present the avatar to the user, but may not present the result of estimating the skeleton (bone). For example, compared to visually recognizing oneself in a mirror or the like, it is assumed that the user has fewer opportunities to visually perceive the estimation result of the skeleton (bone) itself with the naked eye on a daily basis. Therefore, the terminal device 10A presents the avatar to the user and does not display the skeleton (bone) estimation result, so that the user can see on the screen an avatar similar to his/her own body shape that can be seen on a daily basis with the naked eye. Awareness and avatars projected onto the screen can be immersive as if the user were themselves.
端末装置10Aは、仮想空間において、ユーザに対応する3次元オブジェクトデータと関連付けて、補助線LN_01A、LN_02Aの3次元オブジェクトデータを配置している。よって、端末装置10Aは、仮想カメラの設定に従ってレンダリングをすることにより、ユーザに対応するアバターとともに補助線を表示することができる。 The terminal device 10A arranges the three-dimensional object data of auxiliary lines LN_01A and LN_02A in association with the three-dimensional object data corresponding to the user in the virtual space. Therefore, the terminal device 10A can display the auxiliary line together with the avatar corresponding to the user by performing rendering according to the setting of the virtual camera.
具体的には、端末装置10Aは、左側面3403Aにおいて、アバターAVT_Aと関連付けて、補助線LN_01Aと、補助線LN_02Aを描画して、ユーザに対し表示している。端末装置10Aは、正面3403Bにおいて、アバターAVT_Bと関連付けて、補助線LN_01Bと、補助線LN_02Bとを描画して、ユーザに対し表示している。端末装置10Aは、右側面3403Cにおいて、アバターAVT_Cと関連付けて、補助線LN_01Cと、補助線LN_02Cとを描画して、ユーザに対し表示している。
Specifically, the terminal device 10A draws an auxiliary line LN_01A and an auxiliary line LN_02A in association with the avatar AVT_A on the
(2-3) ユーザの身体の動きを評価する方法
(i)端末装置10Aは、以上のようにユーザに対しては骨格(ボーン)の推定結果を表示せずアバターを表示することで、ユーザ自身が投影されたものであると認識させて、身体を動かすこと、トレーニングをすること等に没入をさせている。一方、端末装置10Aは、ユーザの身体の動きを評価することとして、ユーザの姿勢が望ましいか、ユーザの身体の動きが身体の動かし方の種類に応じて理想的であるかを評価するために、ユーザの骨格(ボーン)の推定結果を用いることとしてもよい。
(2-3) Method of Evaluating User's Body Movement (i) As described above, the terminal device 10A displays the avatar to the user without displaying the skeleton (bone) estimation result. By making them realize that they are a projection of themselves, they are immersed in moving their bodies and training. On the other hand, the terminal device 10A evaluates the movement of the user's body in order to evaluate whether the user's posture is desirable and whether the movement of the user's body is ideal according to the type of body movement. , an estimation result of the user's skeleton (bone) may be used.
例えば、図34の例では、ユーザの膝が垂直になっていることが望ましいとされる場合、端末装置10Aは、ユーザの骨格(ボーン)のうち、膝の推定結果に基づいて(膝が垂直になっているかに応じて)、ユーザの姿勢が望ましいか否かを判定することができる。
(ii)端末装置10Aは、ユーザの身体の動きを評価することとして、ユーザの身体の動きをセンシングした結果であるアバターを構成する3次元オブジェクトデータ(例えば点群データ)と、補助線に対応する3次元オブジェクトデータとに基づくこととしてもよい。
For example, in the example of FIG. 34, when it is desirable that the user's knees are vertical, the terminal device 10A determines (the knees are vertical ), it can be determined whether the user's posture is desirable.
(ii) The terminal device 10A evaluates the movement of the user's body, and corresponds to three-dimensional object data (for example, point cloud data) forming an avatar, which is the result of sensing the movement of the user's body, and auxiliary lines. It may be based on three-dimensional object data to be used.
例えば、端末装置10Aは、ユーザのアバターを構成する3次元オブジェクトデータ(例えば左側面3403AにおけるアバターAVT_A)と、補助線に対応する3次元オブジェクトデータ(例えば左側面3403Aにおける補助線LN_01A)とが衝突したと判定するか、一定距離内に近づいたと判定すること等により、ユーザの身体の動きが理想的か否かを評価することとしてもよい。
For example, in the terminal device 10A, the three-dimensional object data forming the user's avatar (for example, the avatar AVT_A on the
端末装置10Aは、点群データによらずにユーザの身体の動きをセンシングする場合(例えば、2次元の画像としてユーザを撮影する場合)、センシング結果に基づいて(2次元の撮影画像データ)、ユーザの身体に対応する3次元オブジェクトデータを生成することとしてもよい。端末装置10Aは、当該3次元オブジェクトデータと、補助線に対応する3次元オブジェクトデータとが衝突したか、一定距離に近づいたか等に基づいて、ユーザの身体の動きが理想的か否かを評価することとしてもよい。 When the terminal device 10A senses the movement of the user's body without relying on the point cloud data (for example, when capturing the user as a two-dimensional image), based on the sensing result (two-dimensional captured image data), Three-dimensional object data corresponding to the user's body may be generated. The terminal device 10A evaluates whether the movement of the user's body is ideal or not, based on whether the three-dimensional object data and the three-dimensional object data corresponding to the auxiliary line collide or come close to a certain distance. It is also possible to
端末装置10Aは、点群データによらずにユーザの身体の動きをセンシングする場合(2次元の画像としてユーザを撮影する場合)、当該2次元の画像において上記のようにユーザの姿勢(関節の位置、骨格)を推定し(上記のように姿勢を推定する学習済みモデルを用いる)、推定した結果に基づいて、当該二次元の画像において補助線をオブジェクトデータとして描画することとしてもよい。例えば、端末装置10Aは、二次元の画像において推定されるユーザの関節(股関節、肩関節など)の位置から、ユーザが行う運動の種類に対応して、当該二次元の画像において、オブジェクトデータとして補助線を描画する位置を決定する。端末装置10Aは、ユーザに対応する2次元の画像と、オブジェクトデータとして描画される補助線とが衝突したか、一定距離に近づいたか等に基づいて、ユーザの身体の動きが理想的か否かを評価することとしてもよい。 When the terminal device 10A senses the movement of the user's body without relying on the point cloud data (when capturing the user as a two-dimensional image), the user's posture (joint joints) is captured in the two-dimensional image as described above. Position, skeleton) may be estimated (using a trained model for estimating posture as described above), and based on the estimated result, auxiliary lines may be drawn as object data in the two-dimensional image. For example, the terminal device 10A, from the position of the user's joints (hip joint, shoulder joint, etc.) estimated in the two-dimensional image, corresponding to the type of exercise performed by the user, in the two-dimensional image, as object data Determines where to draw extension lines. The terminal device 10A determines whether the user's body movement is ideal based on whether the two-dimensional image corresponding to the user and the auxiliary line drawn as the object data collided or approached a certain distance. may be evaluated.
(2-4) 小括
(小括1)
第1のユーザがトレーニングを行うための方法であって、
前記第1のユーザの端末のプロセッサが、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示する、方法。
(2-4) Summary (summary 1)
A method for a first user to train, comprising:
A processor of the terminal of the first user,
a step of sensing movement of the body of the first user as point cloud data;
presenting, to the first user, an image including a first avatar corresponding to the movement of the body of the first user as a set of point cloud data based on the sensing result. death,
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. A method of presenting to the first user.
(小括2)
前記提示するステップにおいて、前記第2プロセッサが、
前記第1のユーザが行う身体の動きの種類に対応して、前記描画すべき前記補助線の種類を特定し、特定した前記補助線を描画した前記映像を前記第1のユーザに提示する、(小括1)に記載の方法。
(Summary 2)
In the presenting step, the second processor:
Identifying the type of the auxiliary line to be drawn corresponding to the type of body movement performed by the first user, and presenting the image in which the identified auxiliary line is drawn to the first user; The method described in (Summary 1).
(小括3)
前記提示するステップにおいて、前記プロセッサが、
前記第1のユーザの前記点群データに基づいて、前記第1のユーザの身体の動きを複数の視点から描画して、各視点について描画した前記第1のアバターを並べた前記映像を前記第1のユーザに提示する、(小括1)に記載の方法。
(Summary 3)
In the presenting step, the processor:
Based on the point cloud data of the first user, the movement of the body of the first user is drawn from a plurality of viewpoints, and the video in which the first avatars drawn for each viewpoint are arranged is displayed as the first image. The method described in (Summary 1), presenting to 1 users.
(小括4)
前記提示するステップにおいて、前記プロセッサが、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づいて、関節位置ではない前記身体の表面位置の表示態様を変更し、前記身体の表面位置の表示態様が変更された前記映像を、前記第1のユーザに提示する、(小括1)に記載の方法。
(Summary 4)
In the presenting step, the processor:
Along with the first avatar, changing the display mode of the surface position of the body that is not the joint position based on the part of the body for evaluating whether the body movement performed by the first user is ideal, The method according to (Summary 1), wherein the image in which the display mode of the surface position of the body is changed is presented to the first user.
(小括5)
第1のユーザがトレーニングを行うためのコンピュータを動作させるプログラムであって、
前記プログラムは、前記コンピュータのプロセッサに、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示する、プログラム。
(Summary 5)
A program for operating a computer for training by a first user,
The program causes the processor of the computer to:
a step of sensing movement of the body of the first user as point cloud data;
presenting, to the first user, an image including a first avatar corresponding to the movement of the body of the first user as a set of point cloud data based on the sensing result. death,
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. A program presented to the first user.
(小括6)
第1のユーザがトレーニングを行うための情報処理装置であって、
前記情報処理装置の制御部が、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示する、情報処理装置。
(Summary 6)
An information processing device for a first user to train,
The control unit of the information processing device,
a step of sensing movement of the body of the first user as point cloud data;
presenting, to the first user, an image including a first avatar corresponding to the movement of the body of the first user as a set of point cloud data based on the sensing result. death,
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. An information processing device presented to the first user.
(小括7)
第1のユーザがトレーニングを行うための方法であって、
前記第1のユーザの端末のプロセッサが、
前記第1のユーザの身体の動きをセンシングするステップと、
前記センシングされた結果に基づいて、前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示し、
前記第1のアバターにおいて前記第1のユーザの姿勢を推定した結果に基づいて、前記補助線を描画する、方法。
(Summary 7)
A method for a first user to train, comprising:
A processor of the terminal of the first user,
sensing body movements of the first user;
presenting to the first user a video including a first avatar corresponding to the body movement of the first user based on the sensed result;
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. presenting to the first user;
The method of drawing the auxiliary line based on a result of estimating the posture of the first user in the first avatar.
(小括8)
前記第1のユーザの姿勢を推定した結果として、当該第1のユーザの関節の位置の推定結果に基づいて、前記補助線を描画する、(小括7)の方法。
(Summary 8)
The method of (Summary 7), wherein, as a result of estimating the posture of the first user, the auxiliary line is drawn based on an estimation result of joint positions of the first user.
(小括9)
前記第1のユーザに対し、前記関節の位置の推定結果を表示することなく、前記第1のアバターを提示する、(小括8)の方法。
(Summary 9)
The method of (Summary 8), wherein the first avatar is presented to the first user without displaying the joint position estimation result.
(小括10)
前記第1のアバターと、前記補助線とに基づいて、前記第1のユーザの身体の動きを評価する、(小括8)の方法。
(Summary 10)
The method of (Summary 8), wherein the body movement of the first user is evaluated based on the first avatar and the auxiliary lines.
(小括11)
前記第1のアバターと、前記補助線とが衝突または一定距離内に近づいたか否かに応じて、前記第1のユーザの身体の動きを評価する、(小括10)の方法。
(Summary 11)
The method of (Summary 10), wherein the movement of the body of the first user is evaluated according to whether the first avatar and the auxiliary line have collided or come within a certain distance.
(小括12)
第1のユーザがトレーニングを行うためのコンピュータを動作させるプログラムであって、前記プログラムは、
前記コンピュータのプロセッサに、
前記第1のユーザの身体の動きをセンシングするステップと、
前記センシングされた結果に基づいて、前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行させ、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示し、
前記第1のアバターにおいて前記第1のユーザの姿勢を推定した結果に基づいて、前記補助線を描画する、プログラム。
(Summary 12)
A program for operating a computer for training by a first user, the program comprising:
to the processor of said computer;
sensing body movements of the first user;
presenting to the first user a video including a first avatar corresponding to the movement of the body of the first user based on the sensed result;
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. presenting to the first user;
A program for drawing the auxiliary line based on a result of estimating the posture of the first user in the first avatar.
(小括13)
第1のユーザがトレーニングを行うための情報処理装置であって、
前記情報処理装置の制御部が、
前記第1のユーザの身体の動きをセンシングするステップと、
前記センシングされた結果に基づいて、前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザに提示し、
前記第1のアバターにおいて前記第1のユーザの姿勢を推定した結果に基づいて、前記補助線を描画する、情報処理装置。
(Summary 13)
An information processing device for a first user to train,
The control unit of the information processing device,
sensing body movements of the first user;
presenting to the first user a video including a first avatar corresponding to the body movement of the first user based on the sensed result;
In the presenting step,
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. presenting to the first user;
An information processing device that draws the auxiliary line based on a result of estimating the posture of the first user in the first avatar.
(小括14)
第1のユーザがトレーニングを行うための方法であって、
前記第1のユーザの端末のプロセッサが、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザ、または、前記第1のユーザの端末と通信する第2のユーザの端末の当該第2のユーザの少なくともいずれかに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第2のユーザに前記映像を提示する場合、前記センシングされた結果を前記第1のユーザの端末から前記第2のユーザの端末へ送信し当該第2のユーザの端末で受信させることにより、当該第2のユーザに前記映像を提示し、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザまたは前記第2のユーザの少なくともいずれかに提示する、方法。
(Summary 14)
A method for a first user to train, comprising:
A processor of the terminal of the first user,
a step of sensing movement of the body of the first user as point cloud data;
Based on the sensed result, the first user or the first user creates an image including a first avatar corresponding to the movement of the body of the first user as a set of point cloud data. presenting to at least one of a second user's terminal communicating with a terminal of
In the presenting step,
When presenting the image to the second user, by transmitting the sensed result from the terminal of the first user to the terminal of the second user and receiving it at the terminal of the second user, presenting the video to the second user;
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. presenting to at least one of said first user or said second user.
(小括15)
前記提示するステップにおいて、前記第2プロセッサが、
前記第1のユーザが行う身体の動きの種類に対応して、前記描画すべき前記補助線の種類を特定し、特定した前記補助線を描画した前記映像を前記第1のユーザまたは前記第2ユーザの少なくともいずれかに提示する、(小括14)に記載の方法。
(Summary 15)
In the presenting step, the second processor:
The type of the auxiliary line to be drawn is specified in accordance with the type of body movement performed by the first user, and the image on which the specified auxiliary line is drawn is displayed by the first user or the second user. 14. The method of
(小括16)
前記提示するステップにおいて、前記プロセッサが、
前記第1のユーザの前記点群データに基づいて、前記第1のユーザの身体の動きを複数の視点から描画して、各視点について描画した前記第1のアバターを並べた前記映像を前記第1のユーザまたは前記第2ユーザの少なくともいずれかに提示する、(小括14)に記載の方法。
(Summary 16)
In the presenting step, the processor:
Based on the point cloud data of the first user, the movement of the body of the first user is drawn from a plurality of viewpoints, and the video in which the first avatars drawn for each viewpoint are arranged is displayed as the first image. 14. The method of
(小括17)
前記提示するステップにおいて、前記プロセッサが、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づいて、関節位置ではない前記身体の表面位置の表示態様を変更し、前記身体の表面位置の表示態様が変更された前記映像を、前記第1のユーザまたは第2ユーザの少なくともいずれかに提示する、(小括14)に記載の方法。
(Summary 17)
In the presenting step, the processor:
Along with the first avatar, changing the display mode of the surface position of the body that is not the joint position based on the part of the body for evaluating whether the body movement performed by the first user is ideal, The method according to (Summary 14), wherein the image in which the display mode of the surface position of the body is changed is presented to at least one of the first user and the second user.
(小括18)
第1のユーザがトレーニングを行うためのコンピュータを動作させるプログラムであって、
前記プログラムは、前記コンピュータのプロセッサに、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザ、または、前記コンピュータと通信する第2のユーザの端末の当該第2のユーザの少なくともいずれかに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第2のユーザに前記映像を提示する場合、前記センシングされた結果を前記コンピュータから前記第2のユーザの端末へ送信し当該第2のユーザの端末で受信させることにより、当該第2のユーザに前記映像を提示し、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザまたは前記第2のユーザの少なくともいずれかに提示する、プログラム。
(Summary 18)
A program for operating a computer for training by a first user,
The program causes the processor of the computer to:
a step of sensing movement of the body of the first user as point cloud data;
Based on the sensed result, communicating an image including a first avatar corresponding to the body movement of the first user as a set of point cloud data with the first user or the computer. presenting to at least one of said second users of a second user's terminal;
In the presenting step,
When presenting the image to the second user, by transmitting the sensed result from the computer to the terminal of the second user and receiving it at the terminal of the second user, present the video to
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. A program for presentation to at least one of said first user or said second user.
(小括19)
第1のユーザがトレーニングを行うための情報処理装置であって、
前記情報処理装置の制御部が、
前記第1のユーザの身体の動きを点群データとしてセンシングするステップと、
前記センシングされた結果に基づいて、当該点群データの集合として前記第1のユーザの身体の動きに対応する第1のアバターを含む映像を、前記第1のユーザ、または、前記コンピュータと通信する第2のユーザの端末の当該第2のユーザの少なくともいずれかに提示するステップと、を実行し、
前記提示するステップにおいて、
前記第2のユーザに前記映像を提示する場合、前記センシングされた結果を前記コンピュータから前記第2のユーザの端末へ送信し当該第2のユーザの端末で受信させることにより、当該第2のユーザに前記映像を提示し、
前記第1のアバターとともに、前記第1のユーザが行う身体の動きが理想的か否かを評価する前記身体の部位に基づく位置に補助線を描画し、前記補助線が描画された前記映像を前記第1のユーザまたは前記第2のユーザの少なくともいずれかに提示する、情報処理装置。
(Summary 19)
An information processing device for a first user to train,
The control unit of the information processing device,
a step of sensing movement of the body of the first user as point cloud data;
Based on the sensed result, communicating an image including a first avatar corresponding to the body movement of the first user as a set of point cloud data with the first user or the computer. presenting to at least one of said second users of a second user's terminal;
In the presenting step,
When presenting the image to the second user, by transmitting the sensed result from the computer to the terminal of the second user and receiving it at the terminal of the second user, present the video to
Along with the first avatar, an auxiliary line is drawn at a position based on the part of the body for evaluating whether or not the body movement performed by the first user is ideal, and the image on which the auxiliary line is drawn is displayed. An information processing device that is presented to at least one of the first user and the second user.
(3)情報処理装置であって、このシステムを構成するプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。 (3) An information processing device, in which a program that constitutes this system may be installed in advance or may be installed afterward, and such a program may be stored in an external non-temporary storage medium. It may be stored or operated by cloud computing.
(4)ユーザがトレーニングを行うための方法であって、コンピュータを情報処理装置として機能させ、当該情報処理装置に、このシステムを構成するプログラムが予めインストールされていてもよいし、事後的にインストールされてもよいし、このようなプログラムを外部の非一時的な記憶媒体に記憶させてもよいし、クラウドコンピューティングで動作させてもよい。 (4) A method for training a user, in which a computer functions as an information processing device, and a program that constitutes the system may be pre-installed in the information processing device, or may be installed afterward. Alternatively, such a program may be stored in an external non-temporary storage medium, or may be operated by cloud computing.
(5)以上の実施形態の説明において、各端末装置10とサーバ20、または複数の端末装置10間で通信しつつ行う処理について、複数の装置のいずれかが行うこととしてもよい。
(5) In the description of the above embodiments, the processing performed while communicating between each
(6)以上の第5の実施形態の説明において、ユーザの点群データに基づく情報と、学習済みモデルとに基づいて、ユーザに指導すべき内容を学習済みモデルが出力する例について説明した。
第5の実施形態で説明した内容を以下に(小括6-1)~(小括6-5)として記載する。
(6) In the description of the fifth embodiment above, an example has been described in which the learned model outputs the content to be instructed to the user based on the information based on the user's point cloud data and the learned model.
The contents explained in the fifth embodiment are described below as (Summary 6-1) to (Summary 6-5).
(小括6-1)
第1のユーザがトレーニングを行うための方法であって、
前記第1のユーザの端末が、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記方法は、前記第1のユーザの端末のプロセッサが、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行する、方法。
(Summary 6-1)
A method for a first user to train, comprising:
The terminal of the first user stores a learned model based on information based on the point cloud data of one or more users in a storage unit,
The method comprises: a processor of the terminal of the first user;
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
and performing the step of presenting the identified instructional content to the first user.
(小括6-2)
前記学習済みモデルは、前記学習済みモデルの学習用データである前記点群データに基づく情報を取得したユーザの情報に関連付けられており、
前記方法は、前記プロセッサが、
前記第1のユーザに提示するステップにおいて、前記第1のユーザの前記点群データに基づく情報と、前記第1のユーザに関する情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの前記指導内容を特定する、(小括6-1)に記載の方法。
(Summary 6-2)
The trained model is associated with information of a user who obtained information based on the point cloud data, which is learning data for the trained model,
The method comprises: the processor;
In the step of presenting to the first user, based on the information based on the point cloud data of the first user, the information on the first user, and the trained model, to the first user The method according to (Summary 6-1), wherein the instruction content of is specified.
(小括6-3)
前記第1のユーザに提示するステップにおいて、前記プロセッサが、
前記第1のユーザの前記点群データに基づいた情報と、前記学習済みモデルとに基づいて、前記第1のユーザの運動強度を特定するステップと、
前記特定した運動強度に基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップと、を実行する、(小括6-1)に記載の方法。
(Summary 6-3)
In the step of presenting to the first user, the processor:
identifying exercise intensity of the first user based on information based on the point cloud data of the first user and the trained model;
Identifying guidance content for the first user based on the identified exercise intensity,
and presenting the identified guidance content to the first user. The method according to (Summary 6-1).
(小括6-4)
第1のユーザがトレーニングを行うためのコンピュータを動作させるプログラムであって、
前記コンピュータが、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記プログラムは、前記コンピュータのプロセッサに、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行させる、プログラム。
(Summary 6-4)
A program for operating a computer for training by a first user,
The computer causes the storage unit to store a learned model based on information based on the point cloud data of one or more users,
The program causes the processor of the computer to:
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
A program causing execution of a step of presenting the identified guidance content to the first user.
(小括6-5)
第1のユーザがトレーニングを行うための情報処理装置であって、
前記情報処理装置が、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記情報処理装置の制御部が、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行する、情報処理装置。
(Summary 6-5)
An information processing device for a first user to train,
The information processing device causes a storage unit to store a learned model based on information based on the point cloud data of one or more users,
The control unit of the information processing device,
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
An information processing apparatus that executes a step of presenting the identified guidance content to the first user.
(小括6-6)
第1のユーザがトレーニングを行うための方法であって、
前記第1のユーザの端末が、記憶部に、1または複数のユーザの姿勢を推定した結果に基づく情報に基づいた学習済みモデルを記憶させており、
前記方法は、前記第1のユーザの端末のプロセッサが、
前記第1のユーザの姿勢を推定した結果に基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行する、方法。
(Summary 6-6)
A method for a first user to train, comprising:
The terminal of the first user stores, in a storage unit, a learned model based on information based on results of estimating postures of one or more users, and
The method comprises: a processor of the terminal of the first user;
Identifying instruction content for the first user based on information based on the result of estimating the posture of the first user and the learned model;
and performing the step of presenting the identified instructional content to the first user.
<付記>
以上の各実施形態で説明した事項を以下に付記する。
<Appendix>
The items described in the above embodiments will be added below.
(付記1)
ユーザがトレーニングを行うためのシステム1であって、第1ユーザの端末(10A)の第1プロセッサ(19A)が、第1ユーザの身体の動きを点群データとしてセンシングするステップと、第1プロセッサ(19A)が、第1ユーザの点群データに基づく情報を第2ユーザの端末(10B)に送信するステップと、第2のユーザの端末(10B)の第2プロセッサ(19B)が、第1ユーザの端末(10A)から受信した情報に基づいて、当該点群データの集合として第1ユーザの身体の動きに対応する第1アバターを含む映像を第2ユーザに提示するステップと、第2プロセッサ(19B)が、第2ユーザの端末(10B)において第2ユーザによる音声の入力を受け付けて、当該第2ユーザの音声を第2ユーザの端末(10B)から第1ユーザの端末(10A)へ送信するステップと、第1プロセッサ(19A)が、第2ユーザの端末(10B)から受信する第2ユーザの音声を第1ユーザに対し出力するステップと、を実行する、システム。
(Appendix 1)
A
(付記2)
第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1アバターとともに、第1ユーザが行う身体の動きが理想的か否かを評価する身体の部位に基づく位置に補助線を描画し、補助線が描画された映像を第2ユーザに提示する、付記1に記載のシステム。
(Appendix 2)
In the step of presenting to the second user, the second processor (19B), together with the first avatar, draws auxiliary lines at positions based on body parts for evaluating whether the body movements performed by the first user are ideal. and presenting the second user with an image on which the auxiliary lines are drawn.
(付記3)
第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1ユーザが行う身体の動きの種類に対応して、描画すべき補助線の種類を特定し、特定した補助線を描画した映像を第2ユーザに提示する、付記2に記載のシステム。
(Appendix 3)
In the step of presenting to the second user, the second processor (19B) identifies the type of auxiliary line to be drawn corresponding to the type of body movement performed by the first user, and draws the identified auxiliary line. 3. The system of
(付記4)
第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1ユーザの点群データに基づいて、第1ユーザの身体の動きを複数の視点から描画して、各視点について描画した第1アバターを並べた映像を第2ユーザに提示する、付記1から3のいずれかに記載のシステム。
(Appendix 4)
In the step of presenting to the second user, the second processor (19B) draws the body movement of the first user from a plurality of viewpoints based on the point cloud data of the first user, and draws the first user's body movement from each viewpoint. 4. The system according to any one of
(付記5)
システム1は、さらに、第1プロセッサ(19A)が、第1ユーザをカメラ(160A)により撮影した撮影映像を取得するステップを実行し、第1プロセッサ(19A)が送信するステップにおいて、点群データに基づきレンダリングを行うことにより第1アバターを含む映像を生成し、生成した映像と、取得した第1ユーザの撮影画像とを第2ユーザの端末(10B)に送信し、第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1ユーザの端末(10A)から受信した映像と、第1ユーザの撮影画像とを第2ユーザに提示する、付記1から4のいずれかに記載のシステム。
(Appendix 5)
In the
(付記6)
第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1アバターとともに、第1ユーザが行う身体の動きが理想的か否かを評価する身体の部位に基づいて、関節位置ではない身体の表面位置の表示態様を変更し、身体表面の表示態様が変更された映像を、第2ユーザに提示する、付記1から5のいずれかに記載のシステム。
(Appendix 6)
In the step of presenting to the second user, a second processor (19B), together with the first avatar, evaluates whether the body movements performed by the first user are ideal based on body parts, not joint positions. 6. The system according to any one of
(付記7)
第2ユーザの音声を第2ユーザの端末(10B)から第1ユーザの端末(10A)へ送信するステップにおいて、第2プロセッサ(19B)が、受け付けた第2ユーザの音声の内容に応答して、第1アバターを含む映像の表示態様を変更し、表示態様を変更した第1アバターを含む映像を第2ユーザに提示する、付記1から6のいずれかに記載のシステム。
(Appendix 7)
In the step of transmitting the second user's voice from the second user's terminal (10B) to the first user's terminal (10A), the second processor (19B) responds to the content of the received second user's
(付記8)
センシングするステップにおいて、第1プロセッサ(19A)が、第1ユーザの点群データに基づいて、第1ユーザの身体の動きに関する特定の評価値を特定し、特定した評価値に基づいて、第2ユーザの端末(10B)に送信するステップにおいて送信する第2ユーザの候補を特定する、付記1から7のいずれかに記載のシステム。
(Appendix 8)
In the sensing step, the first processor (19A) identifies a specific evaluation value related to the body movement of the first user based on the point cloud data of the first user, and based on the identified evaluation value, the second 8. A system according to any one of
(付記9)
センシングするステップにおいて、第1プロセッサ(19A)が、第1ユーザの点群データに基づいて、第1ユーザの身体の動きに関する特定の評価値を特定し、第1プロセッサ(19A)、第2プロセッサ(19B)、または第1ユーザの端末(10A)と第2ユーザの端末(10B)と通信可能なコンピュータ(20)のプロセッサ(29)の少なくともいずれかが、第1ユーザの評価値に基づいて、第1ユーザと共にトレーニングする第3ユーザを特定し、第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1ユーザの点群データと、第3ユーザの身体の動きをセンシングした点群データに基づく情報を受信することにより、第1アバターと、第3ユーザの身体の動きに対応する第2アバターとを含む映像を第2ユーザに提示する、付記1から7のいずれかに記載のシステム。
(Appendix 9)
In the sensing step, the first processor (19A) identifies a specific evaluation value regarding the body movement of the first user based on the point cloud data of the first user, the first processor (19A), the second processor (19B), or at least one of the processor (29) of the computer (20) capable of communicating with the first user's terminal (10A) and the second user's terminal (10B), based on the evaluation value of the first user , in the step of identifying a third user to train with the first user and presenting it to the second user, a second processor (19B) senses the point cloud data of the first user and the movement of the body of the third user; 8. Any one of
(付記10)
システム1は、さらに、第1プロセッサ(19A)が、第1ユーザから、第1ユーザが理想とする身体に関する情報の入力を受け付け、第1プロセッサ(19A)、第2プロセッサ(19B)、または第1ユーザの端末(10A)と第2ユーザの端末(10B)と通信可能なコンピュータ(20)のプロセッサ(29)の少なくともいずれかが、受け付けた第1ユーザの理想とする身体に関する情報と、第1ユーザの点群データとに基づいて、第1ユーザへの指導内容または第2ユーザの候補の少なくともいずれかを特定し、第1プロセッサ(19A)が、特定される第1ユーザへの指導内容または第2ユーザの候補を第1ユーザへ提示する、付記1から9のいずれかに記載のシステム。
(Appendix 10)
Further, in the
(付記11)
第1プロセッサ(19A)が、第2ユーザに対し提示する第1ユーザの情報の表示態様を指定する入力操作を受け付けるステップを実行し、第2ユーザに提示するステップにおいて、第2プロセッサ(19B)が、第1ユーザの指定に応じて、映像を提示する、付記1から10のいずれかに記載のシステム。
(Appendix 11)
The first processor (19A) performs a step of receiving an input operation specifying a display mode of the first user's information to be presented to the second user, and in the step of presenting to the second user, the second processor (19B) 11. The system of any one of Clauses 1-10, wherein presents the video in response to the first user's designation.
(付記12)
第1プロセッサ(19A)、第2プロセッサ(19B)、または第1ユーザの端末(10A)と第2ユーザの端末(10B)と通信可能なコンピュータ(20)のプロセッサ(29)の少なくともいずれかが、仮想空間を定義して、仮想空間において、第1ユーザに関連付けられる第1アバターを含む映像を表示するための第1オブジェクトと、第3ユーザに関連付けられる第2アバターを含む映像を表示するための第2オブジェクトとを配置し、第1プロセッサ(19A)または第2プロセッサ(19B)が、仮想空間の第1オブジェクトおよび第2オブジェクトを含む映像を表示部(132)に表示させる、付記9に記載のシステム。
(Appendix 12)
At least one of the first processor (19A), the second processor (19B), or the processor (29) of the computer (20) capable of communicating with the first user's terminal (10A) and the second user's terminal (10B) , defining a virtual space for displaying a first object for displaying a video including a first avatar associated with a first user and a video including a second avatar associated with a third user in the virtual space; , and the first processor (19A) or the second processor (19B) causes the display unit (132) to display an image including the first object and the second object in the virtual space, System as described.
(付記13)
第1プロセッサ(19A)は、記憶部(180A)に、1または複数のユーザの点群データに基づく情報に基づいた学習済みモデルを記憶させており、第1プロセッサ(19A)が、第1ユーザの点群データに基づく情報と、学習済みモデルとに基づいて、第1ユーザの点群データに基づく情報を第2ユーザの端末(10B)に送信せずとも、第1ユーザへの指導内容を特定し、特定した前記指導内容を、第1ユーザに提示するステップを実行する、付記1から12のいずれかに記載のシステム。
(Appendix 13)
The first processor (19A) stores a trained model based on information based on point cloud data of one or more users in the storage unit (180A). Based on the information based on the point cloud data and the trained model, the guidance content for the first user is provided without transmitting the information based on the point cloud data of the first user to the second user's terminal (10B) 13. The system of any of Clauses 1-12, performing the steps of identifying and presenting the identified instructional content to a first user.
(付記14)
学習済みモデルは、学習済みモデルの学習用データである点群データに基づく情報を取得したユーザの情報に関連付けられており、第1プロセッサ(19A)が、第1ユーザに提示するステップにおいて、第1ユーザの点群データに基づく情報と、第1ユーザに関する情報と、学習済みモデルとに基づいて、第1ユーザへの指導内容を特定する、付記13に記載のシステム。
(Appendix 14)
The learned model is associated with the information of the user who acquired the information based on the point cloud data which is the learning data of the learned model, and the first processor (19A) presents the first user with the 14. The system according to
(付記15)
第1ユーザに提示するステップにおいて、第1プロセッサ(19A)が、第1ユーザの点群データに基づいた情報と、学習済みモデルとに基づいて、第1ユーザの運動強度を特定するステップと、特定した運動強度に基づいて、第1ユーザへの指導内容を特定し、特定した前記指導内容を、第1ユーザに提示するステップと、を実行する、付記13または14に記載のシステム。
(Appendix 15)
In the step of presenting to the first user, the first processor (19A) identifies the exercise intensity of the first user based on the information based on the point cloud data of the first user and the learned model; 15. The system according to
10 端末装置、20 サーバ、30 測定ユニット、31 測定装置、32 マット、33 ポール、132 ディスプレイ、181 ユーザ情報、182 測定項目情報、183 測定履歴情報、184 フレンドリスト、185 トレーニング項目情報、281 ユーザ情報データベース、282 測定項目情報、283 測定履歴データベース、284 フレンドリスト、285 トレーニング項目情報、287 測定結果データベース、288 評価結果データベース、289 ユーザアンケート情報、290 評価結果データベース、2601 トレーニー情報データベース、2602 トレーナー情報データベース、2603 トレーニング履歴データベース
10 terminal device, 20 server, 30 measurement unit, 31 measurement device, 32 mat, 33 pole, 132 display, 181 user information, 182 measurement item information, 183 measurement history information, 184 friend list, 185 training item information, 281 user information Database, 282 measurement item information, 283 measurement history database, 284 friend list, 285 training item information, 287 measurement result database, 288 evaluation result database, 289 user questionnaire information, 290 evaluation result database, 2601 trainee information database, 2602 trainer information database , 2603 Training History Database
Claims (5)
前記第1のユーザの端末が、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記方法は、前記第1のユーザの端末のプロセッサが、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行する、方法。 A method for a first user to train, comprising:
The terminal of the first user stores a learned model based on information based on the point cloud data of one or more users in a storage unit,
The method comprises: a processor of the terminal of the first user;
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
and performing the step of presenting the identified instructional content to the first user.
前記方法は、前記プロセッサが、
前記第1のユーザに提示するステップにおいて、前記第1のユーザの前記点群データに基づく情報と、前記第1のユーザに関する情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの前記指導内容を特定する、請求項1に記載の方法。 The trained model is associated with information of a user who obtained information based on the point cloud data, which is learning data for the trained model,
The method comprises: the processor;
In the step of presenting to the first user, based on the information based on the point cloud data of the first user, the information on the first user, and the trained model, to the first user 2. The method of claim 1, wherein the instructional content of a.
前記第1のユーザの前記点群データに基づいた情報と、前記学習済みモデルとに基づいて、前記第1のユーザの運動強度を特定するステップと、
前記特定した運動強度に基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップと、を実行する、請求項1に記載の方法。 In the step of presenting to the first user, the processor:
identifying exercise intensity of the first user based on information based on the point cloud data of the first user and the trained model;
Identifying guidance content for the first user based on the identified exercise intensity,
and presenting the identified instructional content to the first user.
前記コンピュータが、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記プログラムは、前記コンピュータのプロセッサに、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行させる、プログラム。 A program for operating a computer for training by a first user,
The computer causes the storage unit to store a learned model based on information based on the point cloud data of one or more users,
The program causes the processor of the computer to:
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
A program causing execution of a step of presenting the identified guidance content to the first user.
前記情報処理装置が、記憶部に、1または複数のユーザの前記点群データに基づく情報に基づいた学習済みモデルを記憶させており、
前記情報処理装置の制御部が、
前記第1のユーザの点群データに基づく情報と、前記学習済みモデルとに基づいて、前記第1のユーザへの指導内容を特定し、
前記特定した前記指導内容を、前記第1のユーザに提示するステップを実行する、情報処理装置。
An information processing device for a first user to train,
The information processing device causes a storage unit to store a learned model based on information based on the point cloud data of one or more users,
The control unit of the information processing device,
Identifying instruction content for the first user based on information based on the point cloud data of the first user and the learned model,
An information processing apparatus that executes a step of presenting the identified guidance content to the first user.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021063771A JP2022158701A (en) | 2021-04-02 | 2021-04-02 | Program, method, and information processor |
PCT/JP2021/026675 WO2022034771A1 (en) | 2020-08-11 | 2021-07-15 | Program, method, and information processing device |
US17/691,285 US20220198835A1 (en) | 2020-08-11 | 2022-03-10 | Information processing apparatus, and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021063771A JP2022158701A (en) | 2021-04-02 | 2021-04-02 | Program, method, and information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022158701A true JP2022158701A (en) | 2022-10-17 |
Family
ID=83638548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021063771A Pending JP2022158701A (en) | 2020-08-11 | 2021-04-02 | Program, method, and information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022158701A (en) |
-
2021
- 2021-04-02 JP JP2021063771A patent/JP2022158701A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7263432B2 (en) | Treatment and/or exercise guidance process management system, program, computer device, and method for treatment and/or exercise guidance process management | |
KR102099316B1 (en) | Augmented reality display apparatus for health care and health care system using the same | |
US9330239B2 (en) | Cloud-based initiation of customized exercise routine | |
CN112464918B (en) | Body-building action correcting method and device, computer equipment and storage medium | |
US20220198835A1 (en) | Information processing apparatus, and method | |
US20230116624A1 (en) | Methods and systems for assisted fitness | |
JP6884306B1 (en) | System, method, information processing device | |
JP2023168557A (en) | Program, method, and information processing device | |
KR102425481B1 (en) | Virtual reality communication system for rehabilitation treatment | |
US20230240594A1 (en) | Posture assessment program, posture assessment apparatus, posture assessment method, and posture assessment system | |
US20210265055A1 (en) | Smart Meditation and Physiological System for the Cloud | |
TWM612249U (en) | Sports training assistance apparatus | |
Yan | Construction and application of virtual reality-based sports rehabilitation training program | |
US20230285806A1 (en) | Systems and methods for intelligent fitness solutions | |
JP6811349B1 (en) | Information processing equipment, methods, programs | |
JP6774582B1 (en) | Measurement system, program | |
JP6741892B1 (en) | Measuring system, method, program | |
JP7150387B1 (en) | Programs, methods and electronics | |
KR102634820B1 (en) | control method for bio-based exercise management applications | |
JP2022158701A (en) | Program, method, and information processor | |
JP2022158694A (en) | Program, method, and information processor | |
Ma et al. | Posture monitoring of basketball training based on intelligent wearable device | |
CN113842622B (en) | Motion teaching method, device, system, electronic equipment and storage medium | |
CN116153510B (en) | Correction mirror control method, device, equipment, storage medium and intelligent correction mirror | |
Peeters | Design guidelines for vibrotactile motion steering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20231201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20231201 |