JP2020174910A - Exercise support system - Google Patents

Exercise support system Download PDF

Info

Publication number
JP2020174910A
JP2020174910A JP2019079333A JP2019079333A JP2020174910A JP 2020174910 A JP2020174910 A JP 2020174910A JP 2019079333 A JP2019079333 A JP 2019079333A JP 2019079333 A JP2019079333 A JP 2019079333A JP 2020174910 A JP2020174910 A JP 2020174910A
Authority
JP
Japan
Prior art keywords
information
training
user
evaluation
exercise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019079333A
Other languages
Japanese (ja)
Inventor
侑也 ▲高▼久
侑也 ▲高▼久
Yuya Takaku
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SportIP Inc
Original Assignee
SportIP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SportIP Inc filed Critical SportIP Inc
Priority to JP2019079333A priority Critical patent/JP2020174910A/en
Publication of JP2020174910A publication Critical patent/JP2020174910A/en
Pending legal-status Critical Current

Links

Abstract

To efficiently support body exercise.SOLUTION: A system for supporting user's exercise includes: a camera 21 for imaging a user in exercise; a display 22 installed in a site where a user exercises; an instruction output part for outputting an instruction about exercise on the display; a position specifying part for specifying a position of a user's body part by analyzing an image captured by the camera; and an output part for outputting the position of the part to the display while superposing the position on the image.SELECTED DRAWING: Figure 1

Description

本発明は、運動支援システムに関する。 The present invention relates to an exercise support system.

従来、身体運動分野における分析技術として、動画像に繰り返し表れる動作パターンを抽出し、抽出した動画像における時間位置が異なる複数位置での動作パターンを所定の観点で比較し、比較結果を動画像や静止画像として出力する技術(特許文献1)、また、スポーツにおいては、例えば、ゴルフにおいて、装置をユーザの身体に装着して、モーションセンサによりゴルフウィングを解析する技術(特許文献2)、また、2台のカメラで投球の各段階(軸足の設置、体幹の水平回転)を撮影し、移行時間を算出する技術(特許文献3)などが開示されている。 Conventionally, as an analysis technique in the field of physical exercise, motion patterns that repeatedly appear in moving images are extracted, motion patterns at multiple positions in the extracted moving images at different time positions are compared from a predetermined viewpoint, and the comparison results are compared with the moving images. A technique for outputting as a still image (Patent Document 1), and in sports, for example, in golf, a technique for attaching a device to a user's body and analyzing a golf wing with a motion sensor (Patent Document 2). A technique (Patent Document 3) for calculating the transition time by photographing each stage of throwing (installation of a shaft foot, horizontal rotation of the trunk) with two cameras is disclosed.

特開2017−229081号公報Japanese Unexamined Patent Publication No. 2017-229081 特開2010−068947号公報JP-A-2010-068947 特開2018−114138号公報Japanese Unexamined Patent Publication No. 2018-114138

しかしながら、特許文献1ないし3のいずれの技術も、複数の動画像、特定の装置、複数台のカメラといった設備やリソースを必要とし、一人のユーザがこれらの装置等を取り入れて、身体運動の分析を行い、分析結果を理解することは困難である。 However, all the techniques of Patent Documents 1 to 3 require equipment and resources such as a plurality of moving images, a specific device, and a plurality of cameras, and one user can incorporate these devices and analyze physical exercise. It is difficult to understand the analysis results.

本発明はこのような背景を鑑みてなされたものであり、効率的に身体運動を支援することのできる技術を提供することを目的とする。 The present invention has been made in view of such a background, and an object of the present invention is to provide a technique capable of efficiently supporting physical exercise.

上記課題を解決するための本発明の主たる発明は、ユーザの運動を支援するシステムであって、前記運動時の前記ユーザを撮影するカメラと、前記運動を行う場所に設置されるディスプレイと、前記運動に関する説明を前記ディスプレイに出力する説明出力部と、前記カメラが撮影した画像を解析して前記ユーザの身体の部位の位置を特定する部位特定部と、前記部位の位置を前記画像に重畳させて前記ディスプレイに出力する出力部と、を備えることとする。 The main invention of the present invention for solving the above problems is a system that supports a user's movement, and includes a camera that captures the user during the movement, a display installed at a place where the movement is performed, and the above. An explanatory output unit that outputs an explanation about exercise to the display, a part identification part that analyzes an image taken by the camera to specify the position of a part of the user's body, and the position of the part are superimposed on the image. An output unit for outputting to the display is provided.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed in the present application and solutions thereof will be clarified in the columns and drawings of the embodiments of the invention.

本発明によれば、効率的に身体運動を支援することができる。 According to the present invention, physical exercise can be efficiently supported.

本実施形態に係る運動支援システムの全体構成例を示す図である。It is a figure which shows the whole structure example of the exercise support system which concerns on this embodiment. サーバ装置20のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the server apparatus 20. サーバ装置20のソフトウェア構成例を示す図である。It is a figure which shows the software configuration example of the server apparatus 20. トレーニング情報記憶部231の構成例を示す図である。It is a figure which shows the structural example of the training information storage part 231. ユーザ情報記憶部232の構成例を示す図である。It is a figure which shows the configuration example of the user information storage unit 232. ユーザ情報を入力する入力画面41の一例を示す図である。。It is a figure which shows an example of the input screen 41 for inputting user information. .. 画像データ記憶部233の構成例を示す図である。It is a figure which shows the structural example of the image data storage part 233. 基準情報記憶部234の構成例を示す図である。It is a figure which shows the structural example of the reference information storage part 234. 評価条件情報記憶部235の構成例を示す図である。It is a figure which shows the structural example of the evaluation condition information storage part 235. トレーニング計画記憶部236の構成例を示す図である。It is a figure which shows the structural example of the training plan storage part 236. トレーニング履歴記憶部237の構成例を示す図である。It is a figure which shows the structural example of the training history storage part 237. 改善条件記憶部238の構成例を示す図である。It is a figure which shows the structural example of the improvement condition storage part 238. トレーニング情報の出力画面42の一例を示す図である。It is a figure which shows an example of the output screen 42 of the training information. 評価部215が作成する評価情報の構成例を示す図である。It is a figure which shows the structural example of the evaluation information created by the evaluation unit 215. 評価情報出力部216が出力する画面42の一例を示す図である。It is a figure which shows an example of the screen 42 which the evaluation information output unit 216 outputs. 評価情報出力部216が出力する画面42の一例を示す図である。It is a figure which shows an example of the screen 42 which the evaluation information output unit 216 outputs. 評価情報出力部216が出力する画面42の一例を示す図である。It is a figure which shows an example of the screen 42 which the evaluation information output unit 216 outputs. ユーザ端末10によるトレーニング履歴の表示例を示す図である。It is a figure which shows the display example of the training history by the user terminal 10. トレーニングボリューム情報の出力画面44の一例を示す図である。It is a figure which shows an example of the output screen 44 of the training volume information. 本実施形態の運動支援システムにおいて実行される処理の流れを示す図である。It is a figure which shows the flow of the process executed in the exercise support system of this embodiment.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による運動支援システムは、以下のような構成を備える。 The contents of the embodiments of the present invention will be described in a list. The exercise support system according to the embodiment of the present invention has the following configurations.

[項目1]
ユーザの運動を支援するシステムであって、
前記運動時の前記ユーザを撮影するカメラと、
前記運動を行う場所に設置されるディスプレイと、
前記運動に関する説明を前記ディスプレイに出力する説明出力部と、
前記カメラが撮影した画像を解析して前記ユーザの身体の部位の位置を特定する部位特定部と、
前記部位の位置を前記画像に重畳させて前記ディスプレイに出力する出力部と、
を備えることを特徴とする運動支援システム。
[項目2]
項目1に記載の運動支援システムであって、
少なくとも1つの前記部位の位置に係る基準値を記憶する基準値記憶部と、
前記画像における前記部位の位置および前記基準値を比較して前記運動の評価値を決定する評価部と、
をさらに備え、
前記出力部はさらに、前記評価値を前記ディスプレイに出力すること、
を特徴とする運動支援システム。
[項目3]
項目2に記載の運動支援システムであって、
前記評価部は、前記基準値から前記位置までの距離に応じて前記評価値を決定すること、
を特徴とする運動支援システム。
[項目4]
項目2に記載の運動支援システムであって、
前記基準値記憶部は、第1および第2の前記部位のそれぞれと第3の前記部位とを結ぶ直線の間の角度についての前記基準値を記憶し、
前記部位特定部は、前記第1ないし第3の部位のそれぞれを前記画像から特定し、
前記評価部は、特定された前記第1ないし第3の部位についての前記角度を算出し、算出した前記角度と前記基準値とを比較して、前記評価値を決定すること、
を特徴とする運動支援システム。
[項目5]
項目1に記載の運動支援システムであって、
前記部位の位置に基づいて、前記運動の回数をカウントする回数カウント部をさらに備え、
前記出力部はさらに、前記運動の回数を前記ディスプレイに出力すること、
を特徴とする運動支援システム。
[項目6]
項木2に記載の運動支援システムであって、
前記出力部はさらに、前記評価値を音声で出力すること、
を特徴とする運動支援システム。
[項目7]
項目1に記載の運動支援システムであって、
前記出力部はさらに、前記特定されたユーザの身体の位置に基づいて改善策情報を音声で出力すること、
を特徴とする運動支援システム。
[Item 1]
A system that supports the movement of users
A camera that captures the user during the exercise and
A display installed at the place where the exercise is performed and
An explanatory output unit that outputs an explanation about the exercise to the display,
A part identification part that analyzes an image taken by the camera to identify the position of a part of the user's body,
An output unit that superimposes the position of the portion on the image and outputs it to the display.
An exercise support system characterized by being equipped with.
[Item 2]
The exercise support system according to item 1.
A reference value storage unit that stores a reference value related to the position of at least one of the parts,
An evaluation unit that determines the evaluation value of the exercise by comparing the position of the portion in the image and the reference value.
With more
The output unit further outputs the evaluation value to the display.
An exercise support system featuring.
[Item 3]
The exercise support system described in item 2,
The evaluation unit determines the evaluation value according to the distance from the reference value to the position.
An exercise support system featuring.
[Item 4]
The exercise support system described in item 2,
The reference value storage unit stores the reference value for the angle between the straight line connecting each of the first and second portions and the third portion.
The site specifying portion identifies each of the first to third sites from the image, and then
The evaluation unit calculates the angle with respect to the specified first to third parts, compares the calculated angle with the reference value, and determines the evaluation value.
An exercise support system featuring.
[Item 5]
The exercise support system according to item 1.
Further, a number counting unit for counting the number of times of the exercise based on the position of the portion is provided.
The output unit further outputs the number of times of the exercise to the display.
An exercise support system featuring.
[Item 6]
The exercise support system described in Item 2
The output unit further outputs the evaluation value by voice.
An exercise support system featuring.
[Item 7]
The exercise support system according to item 1.
The output unit further outputs the improvement measure information by voice based on the position of the body of the specified user.
An exercise support system featuring.

本発明の一実施形態に係る運動支援システムは、トレーニングジムにおいてユーザのトレーニングを支援しようとするものである。本実施形態の運動支援システムは、トレーニング器具を用いてユーザが身体運動をしている様子をカメラで撮影し、撮影した画像(静止画像であっても動画像であってもよいが、本実施形態では動画像であるものとする。)から、トレーニングの回数をカウントするとともに、トレーニング中のユーザの身体の姿勢や動きを評価する。 The exercise support system according to the embodiment of the present invention is intended to support the training of a user in a training gym. In the exercise support system of the present embodiment, a state in which the user is exercising physically using a training device is photographed by a camera, and the photographed image (still image or moving image may be used, but this embodiment). In the form, it is assumed that it is a moving image.) The number of trainings is counted, and the posture and movement of the user's body during training are evaluated.

図1は本実施形態に係る運動支援システムの全体構成例を示す図である。同図に示すように、本実施形態の運動支援システムでは、サーバ装置20とカメラ21およびディスプレイ22とが通信ネットワーク23を介して互いに通信可能に接続されている。通信ネットワーク23は、たとえば、インターネットやLAN(Local Area Network)であり、公衆電話回線網、専用電話回線網、携帯電話回線網、イーサネット(登録商標)、無線通信路などにより構築される。 FIG. 1 is a diagram showing an overall configuration example of the exercise support system according to the present embodiment. As shown in the figure, in the exercise support system of the present embodiment, the server device 20, the camera 21, and the display 22 are connected to each other so as to be able to communicate with each other via the communication network 23. The communication network 23 is, for example, the Internet or a LAN (Local Area Network), and is constructed by a public telephone line network, a dedicated telephone line network, a mobile phone line network, Ethernet (registered trademark), a wireless communication path, or the like.

カメラ21は、トレーニング中のユーザ1を撮影する。カメラ21は、たとえば監視カメラを利用してもよいし、トレーニング機器にカメラ21を取り付けるなど、カメラ21をトレーニング場所に設置したりしてもよい。カメラ21は、TCP/IPやBluetooth(登録商標)などのプロトコルにより、撮影した画像をサーバ装置20に送信することができる。カメラ21は、常時撮影するようにしてもよいし、ユーザ1が近傍に来たことを検出して撮影開始するようにしてもよいし、ユーザ1からの指示に応じて撮影を開始するようにしてもよい。 The camera 21 captures the user 1 during training. As the camera 21, for example, a surveillance camera may be used, or the camera 21 may be installed at a training place, such as by attaching the camera 21 to a training device. The camera 21 can transmit the captured image to the server device 20 by a protocol such as TCP / IP or Bluetooth (registered trademark). The camera 21 may always shoot, may detect that the user 1 has come near and start shooting, or may start shooting in response to an instruction from the user 1. You may.

ディスプレイ22は、トレーニング前およびトレーニング中にユーザ1から視認可能に設置される。ディスプレイ22は、通信ネットワーク23を介してサーバ装置20からの制御により情報を出力するものとする。なお、ディスプレイ22にコンピュータを接続し、当該コンピュータとサーバ装置20とが通信を行うことにより、サーバ20からの指示に応じて情報をディスプレイ22に出力することができる。また、ディスプレイ22とともに、またはディスプレイ22に替えて、ユーザ1にヘッドフォン、イヤフォン、ネックスピーカなどの音声出力装置を装着させて、情報を音声として出力することもできる。 The display 22 is visibly installed by the user 1 before and during training. The display 22 outputs information under the control of the server device 20 via the communication network 23. By connecting a computer to the display 22 and communicating between the computer and the server device 20, information can be output to the display 22 in response to an instruction from the server 20. Further, the information can be output as audio by attaching an audio output device such as headphones, earphones, or a neck speaker to the user 1 together with or in place of the display 22.

ユーザ端末10は、ユーザ1またはその支援者が操作するコンピュータである。ユーザ端末10は、たとえば、スマートフォンやタブレットコンピュータ、パーソナルコンピュータなどである。ユーザ端末10がカメラ等の撮像装置を備え、これにより運動中におけるユーザ1の身体を撮像するようにしてもよい。ディスプレイ22に表示されていた情報は、サーバ装置20からユーザ端末10にも提供される。ユーザ1は後からユーザ端末10を確認することで、トレーニングに関する情報を閲覧することができる。 The user terminal 10 is a computer operated by the user 1 or its supporter. The user terminal 10 is, for example, a smartphone, a tablet computer, a personal computer, or the like. The user terminal 10 may be provided with an image pickup device such as a camera, whereby the body of the user 1 during exercise may be imaged. The information displayed on the display 22 is also provided from the server device 20 to the user terminal 10. The user 1 can browse the information related to the training by checking the user terminal 10 later.

サーバ装置20は、トレーニングを支援するコンピュータである。サーバ装置20は、たとえば、ワークステーションやパーソナルコンピュータ、クラウドコンピューティングにより論理的に実現される仮想コンピュータなどである。サーバ装置20は、ユーザ端末10が撮影した動画像を受信し、受信した動画像を解析して身体運動の評価を行う。また、サーバ装置20は、身体運動の改善策に係る提案も行う。身体運動の評価および改善策の提案の詳細については後述する。 The server device 20 is a computer that supports training. The server device 20 is, for example, a workstation, a personal computer, a virtual computer logically realized by cloud computing, or the like. The server device 20 receives the moving image taken by the user terminal 10 and analyzes the received moving image to evaluate the physical exercise. The server device 20 also makes a proposal regarding measures for improving physical exercise. Details of the evaluation of physical exercise and the proposal of improvement measures will be described later.

管理者端末30は、トレーニングジムの管理者が操作するコンピュータである。管理者端末30は、たとえば、スマートフォンやタブレットコンピュータ、パーソナルコンピュータなどとすることができる。 The administrator terminal 30 is a computer operated by the administrator of the training gym. The administrator terminal 30 can be, for example, a smartphone, a tablet computer, a personal computer, or the like.

図2は、サーバ装置20のハードウェア構成例を示す図である。サーバ装置20は、演算装置201、メモリ202、記憶装置203、通信インタフェース204、入力装置205、出力装置206を備える。演算装置201は、各種の演算処理を行う、たとえば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)である。記憶装置203は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース204は、通信ネットワーク30に接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。入力装置205は、データを入力する、例えばキーボードやマウス、タッチパネル、ボタン、マイクロフォンなどである。出力装置206は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。 FIG. 2 is a diagram showing a hardware configuration example of the server device 20. The server device 20 includes an arithmetic unit 201, a memory 202, a storage device 203, a communication interface 204, an input device 205, and an output device 206. The arithmetic unit 201 is, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) that performs various arithmetic processes. The storage device 203 stores various data and programs, such as a hard disk drive, a solid state drive, and a flash memory. The communication interface 204 is an interface for connecting to the communication network 30, for example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone network, and a wireless communication device for performing wireless communication. , USB (Universal Serial Bus) connector for serial communication, RS232C connector, etc. The input device 205 is, for example, a keyboard, a mouse, a touch panel, a button, a microphone, or the like for inputting data. The output device 206 is, for example, a display, a printer, a speaker, or the like that outputs data.

図3は、サーバ装置20のソフトウェア構成例を示す図である。同図に示すように、サーバ装置20は、ユーザ認証部210、トレーニング情報出力部211、画像取得部212、画像解析部213、回数カウント部214、評価部215、評価情報出力部216、トレーニング履歴送信部217、改善策情報出力部218の各機能部と、トレーニング情報記憶部231、ユーザ情報記憶部232、画像データ記憶部233、基準情報記憶部234、評価条件情報記憶部235、トレーニング計画記憶部236、トレーニング履歴記憶部237、改善条件記憶部238の各記憶部とを備える。 FIG. 3 is a diagram showing a software configuration example of the server device 20. As shown in the figure, the server device 20 includes a user authentication unit 210, a training information output unit 211, an image acquisition unit 212, an image analysis unit 213, a number of times counting unit 214, an evaluation unit 215, an evaluation information output unit 216, and a training history. Each function unit of the transmission unit 217 and the improvement measure information output unit 218, the training information storage unit 231 and the user information storage unit 232, the image data storage unit 233, the reference information storage unit 234, the evaluation condition information storage unit 235, and the training plan storage unit. Each storage unit includes a unit 236, a training history storage unit 237, and an improvement condition storage unit 238.

なお、上記各機能部は、サーバ装置20が備える演算装置201が記憶装置203に記憶されているプログラムをメモリ202に読み出して実行することにより実現され、上記各記憶部は、サーバ装置20が備えるメモリ202および記憶装置203が提供する記憶領域の一部として実現される。 Each of the above functional units is realized by the arithmetic unit 201 included in the server device 20 reading a program stored in the storage device 203 into the memory 202 and executing the program, and each of the above storage units is provided in the server device 20. It is realized as part of the storage area provided by the memory 202 and the storage device 203.

トレーニング情報記憶部231は、トレーニングに関する情報を記憶する。トレーニングに関する情報は、たとえば、トレーニングの説明である。トレーニングの説明には、トレーニング器具の使い方、トレーニング器具を利用した効果的なトレーニングの仕方などを含む。図4は、トレーニング情報記憶部231の構成例を示す図である。同図に示すように、トレーニング情報記憶部231には、トレーニング情報とディスプレイ情報とを記憶している。トレーニング情報は、トレーニングに関する情報である。トレーニング情報には、トレーニングのメニューを特定するための情報(メニューID)およびトレーニングの目的に対応付けて、トレーニングの内容と、回数と、トレーニングのやり方を表す動画データとが含まれる。トレーニングの目的は、たとえば、運動不足の解消や、筋肉量の増加など、トレーニングにより求める結果を示す。トレーニングの内容には、トレーニング機器の使い方、トレーニングに関する注意点など、任意の情報を設定することができる。動画データは、たとえば、トレーニングの仕方をデモンストレーションした人を撮影した動画、トレーニング機械の使い方を示すチュートリアル動画などである。トレーニングの内容および動画データは、トレーニングの目的に紐付いており、当該トレーニング機器を用いて当該目的を達成するためにどのようなトレーニングを何回行うべきかの提案を行うために準備されたものである。ディスプレイ情報は、ディスプレイ22を見ながら行うトレーニングメニューを設定する情報である。ディスプレイ情報には、ディスプレイ22を特定するディスプレイIDに対応付けて、メニューIDが含まれる。 The training information storage unit 231 stores information related to training. Information about training is, for example, a description of training. The training description includes how to use the training equipment and how to effectively train using the training equipment. FIG. 4 is a diagram showing a configuration example of the training information storage unit 231. As shown in the figure, the training information storage unit 231 stores training information and display information. Training information is information about training. The training information includes information for identifying the training menu (menu ID) and video data showing the training content, the number of times, and the training method in association with the purpose of the training. The purpose of the training is to show the results required by the training, such as relieving lack of exercise and increasing muscle mass. Arbitrary information such as how to use the training equipment and precautions regarding training can be set in the content of the training. The video data is, for example, a video of a person demonstrating how to train, a tutorial video showing how to use a training machine, and the like. The content of the training and the video data are linked to the purpose of the training and are prepared to suggest what kind of training should be performed and how many times to achieve the purpose using the training equipment. is there. The display information is information for setting a training menu to be performed while looking at the display 22. The display information includes a menu ID in association with a display ID that identifies the display 22.

ユーザ情報記憶部232は、ユーザ1に関する情報(以下、ユーザ情報という。)を記憶する。図5は、ユーザ情報記憶部232の構成例を示す図である。同図に示すように、ユーザ情報記憶部232が記憶するユーザ情報には、ユーザ1を特定するユーザIDに対応付けて、認証情報、身長、体重、筋肉量、柔軟性などが含まれる。認証情報は、ユーザ1を認証するために使用可能な情報である。認証情報は、たとえば、顔認証に用いるためのユーザ1の顔部分の特徴量であってもよいし、ユーザ端末10の機器IDであってもよいし、ユーザ名とパスワードとの組み合わせであってもよいし、ユーザ1の公開鍵であってもよいが、ユーザ1の認証を行うことが可能な情報であればこれらに限られない。また、ユーザ情報には上記の項目以外にも、測定または評価可能なユーザの身体に関する各種の情報を含めることができる。 The user information storage unit 232 stores information about the user 1 (hereinafter, referred to as user information). FIG. 5 is a diagram showing a configuration example of the user information storage unit 232. As shown in the figure, the user information stored in the user information storage unit 232 includes authentication information, height, weight, muscle mass, flexibility, and the like in association with the user ID that identifies the user 1. The authentication information is information that can be used to authenticate the user 1. The authentication information may be, for example, a feature amount of the face portion of the user 1 for use in face recognition, a device ID of the user terminal 10, or a combination of a user name and a password. It may be the public key of the user 1, but it is not limited to these as long as the information can authenticate the user 1. In addition to the above items, the user information can include various information about the user's body that can be measured or evaluated.

図6は、ユーザ情報を入力するための入力画面41の一例を示す図である。たとえば、ユーザ端末10に同図に示すような入力画面41を表示し、ユーザ1にユーザ情報の各項目411を入力させるようにすることができる。この場合、ユーザ端末10からユーザ情報の各項目がサーバ装置20に送信され、ユーザ情報記憶部232に登録されるようにすることができる。 FIG. 6 is a diagram showing an example of an input screen 41 for inputting user information. For example, an input screen 41 as shown in the figure can be displayed on the user terminal 10 so that the user 1 can input each item 411 of the user information. In this case, each item of user information can be transmitted from the user terminal 10 to the server device 20 and registered in the user information storage unit 232.

画像データ記憶部233は、カメラ21が撮影した画像を記憶する。図7は、画像データ記憶部233の構成例を示す図である。同図に示すように、画像データ記憶部233は画像情報を記憶し、画像情報には、撮影したカメラ21を特定するカメラIDに対応付けて、画像データが含まれる。画像データは、カメラ21が撮影した画像を表示するためのデータである。画像データは、たとえば、MP4、MPEG2、AVI、MOVなど任意の形式のデータとすることができる。 The image data storage unit 233 stores the image taken by the camera 21. FIG. 7 is a diagram showing a configuration example of the image data storage unit 233. As shown in the figure, the image data storage unit 233 stores the image information, and the image information includes the image data in association with the camera ID that identifies the camera 21 that has taken the picture. The image data is data for displaying an image taken by the camera 21. The image data can be, for example, data in any format such as MP4, MPEG2, AVI, and MOV.

基準情報記憶部234は、ユーザ1の身体運動に係る姿勢(部位の位置や角度)の基準値を含む情報(以下、基準情報という。)を記憶する。図8は、基準情報記憶部234の構成例を示す図である。同図に示すように、基準情報記憶部234は、部位の絶対位置または他の部位もしくは他の基準物に対する相対位置に関する基準情報(以下、位置基準情報という。)と、関節部位を含む3つの部位について、2つの部位のそれぞれと関節部位とを結ぶ直線により形成される角度の基準情報(以下、角度基準情報という。)とを記憶する。 The reference information storage unit 234 stores information (hereinafter, referred to as reference information) including a reference value of a posture (position and angle of a portion) related to the physical exercise of the user 1. FIG. 8 is a diagram showing a configuration example of the reference information storage unit 234. As shown in the figure, the reference information storage unit 234 contains three reference information (hereinafter referred to as position reference information) regarding the absolute position of the part or a position relative to another part or another reference object, and three joint parts. For the site, the angle reference information (hereinafter referred to as angle reference information) formed by the straight line connecting each of the two sites and the joint site is stored.

位置基準情報には、モードとチェックポイントIDとに対応付けて、部位と、当該部位の基準となる位置が含まれる。チェックポイントIDは、ユーザの身体の一連の動作の中で、姿勢などをチェックするべきポイント(以下、チェックポイントという。)を示す情報である。部位は複数あってもよい。位置について、鉛直方向の位置は、たとえば、地面からの高さとしてもよいし、いずれかの足先からの距離とすることができる。水平方向の位置は、所定の基準物(たとえば、床上のマークや設置されている器具など)からの距離としてもよいし、肩や胸、足などの基準部位からの距離としてもよい。位置基準情報は、予め登録されているものとする。 The position reference information includes a part and a reference position of the part in association with the mode and the checkpoint ID. The checkpoint ID is information indicating a point (hereinafter referred to as a checkpoint) for checking a posture or the like in a series of movements of the user's body. There may be multiple parts. Regarding the position, the position in the vertical direction may be, for example, the height from the ground or the distance from any of the toes. The horizontal position may be a distance from a predetermined reference object (for example, a mark on the floor or an installed instrument), or a distance from a reference portion such as a shoulder, chest, or foot. It is assumed that the position reference information is registered in advance.

角度基準情報には、モードとチェックポイントIDとに対応付けて、2つの部位(部位1および部位2)と、1つの関節部位と、部位1と関節部位とを結ぶ直線と、部位2と関節部位とを結ぶ直線との間の角度の基準値とが含まれる。 The angle reference information includes two parts (part 1 and part 2), one joint part, a straight line connecting the part 1 and the joint part, and the part 2 and the joint in association with the mode and the checkpoint ID. Includes a reference value for the angle between the straight line connecting the site.

評価条件情報記憶部235は、評価を行うための情報(以下、評価条件情報という。)を記憶する。図9は、評価条件情報記憶部235の構成例を示す図である。評価条件情報には、カテゴリ、条件、評価ランク、コメントが含まれている。カテゴリは、評価のカテゴリである。カテゴリとしては、たとえば、「アームカール」「クリーン」「プレス」などとすることができる。条件は、画像における身体の各部位の位置または動き(時系列における位置の変化)に対する条件である。たとえば、ウェイトリフティングの動作を分析する場合、ウェイトをクリーンするチェックポイントについて、肘の角度や腰の角度などに対する条件を評価条件情報に設定することができる。評価ランクは、上記条件が満たされた場合の評価値である。コメントは、上記条件が満たされた場合における、身体の姿勢や動きについての説明である。 The evaluation condition information storage unit 235 stores information for performing evaluation (hereinafter, referred to as evaluation condition information). FIG. 9 is a diagram showing a configuration example of the evaluation condition information storage unit 235. The evaluation condition information includes categories, conditions, evaluation ranks, and comments. The category is the evaluation category. The category can be, for example, "arm curl", "clean", "press" and the like. The condition is a condition for the position or movement (change in position in time series) of each part of the body in the image. For example, when analyzing the movement of weightlifting, it is possible to set conditions for the elbow angle, the waist angle, and the like for the checkpoint for cleaning the weight in the evaluation condition information. The evaluation rank is an evaluation value when the above conditions are satisfied. The comment is an explanation of the posture and movement of the body when the above conditions are satisfied.

トレーニング計画記憶部236は、ユーザ1またはその支援者が設定したトレーニングの計画を記憶する。図10は、トレーニング計画記憶部236の構成例を示す図である。トレーニング計画記憶部236は、トレーニング計画を記憶しており、各トレーニング計画には、ユーザ1を示すユーザIDと日付に対応づけて、トレーニングメニューを示すメニューID、トレーニング機器等の設定内容(たとえば、ウェイトの重さなど)、トレーニング(たとえば、ウェイトを上げることやスクワットをすることなどの繰り返す行為)の回数が含まれる。トレーニング計画は、事前にユーザ1またはその支援者により設定されているものとする。 The training plan storage unit 236 stores the training plan set by the user 1 or its supporter. FIG. 10 is a diagram showing a configuration example of the training plan storage unit 236. The training plan storage unit 236 stores the training plan, and in each training plan, the setting contents (for example, the menu ID indicating the training menu, the training device, etc.) are associated with the user ID indicating the user 1 and the date. Includes the number of times of training (for example, repeated actions such as raising weights and squatting) (such as weight of weights). The training plan shall be set in advance by User 1 or its supporters.

トレーニング履歴記憶部237は、ユーザ1のトレーニングの履歴を記憶する。図11は、トレーニング履歴記憶部237の構成例を示す図である。同図に示すように、トレーニング履歴記憶部237は、トレーニング履歴を記憶し、各トレーニング履歴には、ユーザ1を示すユーザIDおよびユーザ1がトレーニングを行った日時に対応付けて、ユーザ1が行ったトレーニングメニューを示すメニューID、トレーニング機器等の設定内容を示す設定情報、トレーニングの回数、トレーニングを行った時間などが含まれる。 The training history storage unit 237 stores the training history of the user 1. FIG. 11 is a diagram showing a configuration example of the training history storage unit 237. As shown in the figure, the training history storage unit 237 stores the training history, and each training history is performed by the user 1 in association with the user ID indicating the user 1 and the date and time when the user 1 trained. It includes a menu ID indicating the training menu, setting information indicating the setting contents of the training device, the number of times of training, the time of training, and the like.

改善条件記憶部238は、トレーニングの改善策に係る情報(以下、改善条件情報という。)を記憶する。図12は、改善条件記憶部238の構成例を示す図である。同図に示すように、改善条件記憶部238が記憶する改善条件情報には、メニューID、目的、カテゴリおよび条件に対応付けてアドバイスが含まれる。条件は、身体条件(柔軟性など)に対する条件であってもよいし、身体の部位の位置や動きに対する条件であってもよい。アドバイスは、本実施形態では改善策を表した文字列であることを想定するが、画像や動画などにより改善策を提示するコンテンツであってもよい。 The improvement condition storage unit 238 stores information related to training improvement measures (hereinafter, referred to as improvement condition information). FIG. 12 is a diagram showing a configuration example of the improvement condition storage unit 238. As shown in the figure, the improvement condition information stored in the improvement condition storage unit 238 includes advice in association with the menu ID, purpose, category, and condition. The condition may be a condition for a physical condition (flexibility, etc.) or a condition for the position or movement of a part of the body. In the present embodiment, the advice is assumed to be a character string representing the improvement measure, but may be content that presents the improvement measure by an image, a moving image, or the like.

ユーザ認証部210は、ディスプレイ22を見ているユーザ1を認証する。ユーザ認証部210は、ユーザ情報の認証情報を用いてユーザ1を認証することができる。本実施形態では、ユーザ情報の認証情報はユーザ1の顔部分の特徴量であり、ユーザ認証部210は、カメラ21が撮影した画像からその特徴量を抽出できたことによりユーザ1を認証することを想定する。なお、ユーザ認証部210は、たとえば、ユーザ端末10との間で通信を行い、ユーザ1を認証するようにしてもよいし、ディスプレイ22がユーザ端末10との間で通信を行うことによりユーザ1を認証し、その結果をディスプレイ22からユーザ認証部210に送信するようにしてもよい。 The user authentication unit 210 authenticates the user 1 who is looking at the display 22. The user authentication unit 210 can authenticate the user 1 by using the authentication information of the user information. In the present embodiment, the authentication information of the user information is the feature amount of the face portion of the user 1, and the user authentication unit 210 authenticates the user 1 by being able to extract the feature amount from the image taken by the camera 21. Is assumed. The user authentication unit 210 may, for example, communicate with the user terminal 10 to authenticate the user 1, or the display 22 communicates with the user terminal 10 to authenticate the user 1. Is authenticated, and the result may be transmitted from the display 22 to the user authentication unit 210.

トレーニング情報出力部211は、ディスプレイ22にトレーニング情報を出力する。トレーニング情報出力部211は、ディスプレイ22を示すディスプレイIDに対応するメニューIDをディスプレイ情報から特定し、特定したメニューIDに対応するトレーニング情報の内容および動画データをディスプレイ22に出力する。トレーニング情報出力部211は、ディスプレイ22の近傍にユーザ1が来たこと(たとえば、ディスプレイ22が人感センサーを備え、人感センサーがユーザ1を検知し、あるいはディスプレイ22がユーザ端末10と通信を行う通信機能を備え、ディスプレイ22がユーザ端末10と通信可能となったことを検知することにより、ユーザ1が近傍にいることを検知することができる。)契機として、当該ディスプレイ22に対してトレーニング情報を出力することができる。ユーザ1は、トレーニング前またはトレーニング中に、ディスプレイ22に出力されたトレーニング内容や動画を見てトレーニングの参考とすることができる。 The training information output unit 211 outputs training information to the display 22. The training information output unit 211 identifies the menu ID corresponding to the display ID indicating the display 22 from the display information, and outputs the content of the training information and the moving image data corresponding to the specified menu ID to the display 22. In the training information output unit 211, the user 1 has come near the display 22 (for example, the display 22 is provided with a motion sensor, the motion sensor detects the user 1, or the display 22 communicates with the user terminal 10. It is provided with a communication function to perform, and by detecting that the display 22 can communicate with the user terminal 10, it is possible to detect that the user 1 is in the vicinity.) Training the display 22 as an opportunity. Information can be output. The user 1 can refer to the training by viewing the training content and the video output on the display 22 before or during the training.

図13は、トレーニング情報の出力画面42の一例を示す図である。出力画面42には、トレーニングの目的421と、トレーニング内容422と、動画423とが表示されている。動画データは、トレーンイング情報に複数含まれてよく、複数の動画が出力画面42に表示されてよい。 FIG. 13 is a diagram showing an example of the training information output screen 42. On the output screen 42, the purpose of training 421, the training content 422, and the moving image 423 are displayed. A plurality of moving images may be included in the training information, and a plurality of moving images may be displayed on the output screen 42.

なお、トレーニング情報出力部211は、身体情報に基づいてトレーニング情報の内容を補正するようにしてもよい。たとえば、トレーニング情報出力部211は、身長に応じて、トレーニング機器の椅子の高さを変更したり、身長および体重に応じて、おすすめのウェイトの重さを設定したりすることができる。 The training information output unit 211 may correct the content of the training information based on the physical information. For example, the training information output unit 211 can change the height of the chair of the training device according to the height, and can set the weight of the recommended weight according to the height and the weight.

また、トレーニング情報出力部211は、ユーザ1の過去のトレーニング履歴に応じてトレーニング情報の内容を補正するようにしてもよい。たとえば、トレーニング情報出力部211は、トレーニング履歴記憶部237からユーザ1を示すユーザIDに対応するトレーニング履歴を読み出し、読み出したトレーニング履歴に含まれている設定情報(ウェイトの重さや椅子の高さなど)や回数に応じて、たとえば、前回の設定情報の内容と同様の情報または前回のウェイトよりも所定値だけ重いウェイトもしくは前回の回数よりも所定値だけ多い回数を提案するようにトレーニング情報の内容に含めるようにすることができる。 Further, the training information output unit 211 may correct the content of the training information according to the past training history of the user 1. For example, the training information output unit 211 reads the training history corresponding to the user ID indicating the user 1 from the training history storage unit 237, and the setting information (weight weight, chair height, etc.) included in the read training history. ) And the number of times, for example, the content of the training information to propose the same information as the content of the previous setting information, the weight heavier by a predetermined value than the previous weight, or the number of times more than the previous number by a predetermined value. Can be included in.

画像取得部212は、カメラ21が撮影した画像を取得する。本実施形態では、カメラ21は撮影した画像データを通信によりサーバ装置20に送信し、画像取得部212はカメラ21から送信される画像データを、当該カメラ21を示すカメラIDに対応付けて画像データ記憶部233に登録する。なお、画像取得部212は、ユーザ認証部210がユーザ1の認証に成功したことを契機として、カメラ21に指示を送信し、カメラ21が撮影を開始するようにしてもよい。 The image acquisition unit 212 acquires an image taken by the camera 21. In the present embodiment, the camera 21 transmits the captured image data to the server device 20 by communication, and the image acquisition unit 212 associates the image data transmitted from the camera 21 with the camera ID indicating the camera 21 and image data. Register in the storage unit 233. The image acquisition unit 212 may transmit an instruction to the camera 21 when the user authentication unit 210 succeeds in authenticating the user 1, and the camera 21 may start shooting.

画像解析部213(部位特定部)は、画像データを解析する。画像解析部213は、画像データを解析して身体の各部位の特徴量を抽出し、各部位の画像における位置を特定する。なお、画像解析部213による画像解析の手法については一般的なものを採用するものとして、ここでは詳細な説明を省略する。画像解析部213は、フレームごとまたはキーフレーム毎に画像データを解析するようにしてもよいし、ランダムなタイミングで解析するようにしてもよい。 The image analysis unit 213 (site identification unit) analyzes the image data. The image analysis unit 213 analyzes the image data, extracts the feature amount of each part of the body, and specifies the position of each part in the image. As the image analysis method by the image analysis unit 213, a general method is adopted, and detailed description thereof will be omitted here. The image analysis unit 213 may analyze the image data frame by frame or key frame by key frame, or may analyze the image data at random timings.

画像解析部213はまた、チェックポイントIDごとに、画像データから抽出した各部位の位置と、基準情報記憶部232に記憶されている位置基準情報とを比較し、最も近い時点をチェックポイントの時点として特定する。 The image analysis unit 213 also compares the position of each part extracted from the image data with the position reference information stored in the reference information storage unit 232 for each checkpoint ID, and sets the closest time point as the checkpoint time point. Identify as.

また、画像解析部213は、ユーザ1の身体の動作を認識することもできる。この場合、画像解析部213は、たとえば、機械学習により動画データから身体の動作(たとえば、スクワットやリフトアップなど)を認識可能なモデルを作成しておき、当該モデルを用いて動作を認識することができる。この場合において、画像解析部213は、たとえば、複数のGPUを用いて並列処理を行うことにより実現するようにしてもよい。 The image analysis unit 213 can also recognize the movement of the user 1's body. In this case, the image analysis unit 213 creates, for example, a model capable of recognizing body movements (for example, squats, lift-ups, etc.) from moving image data by machine learning, and recognizes the movements using the model. Can be done. In this case, the image analysis unit 213 may be realized by performing parallel processing using, for example, a plurality of GPUs.

回数カウント部214は、トレーニングの回数をカウントする。回数カウント部214は、画像解析部213が解析した各部位の位置を用いて、ユーザ1が(他の姿勢から)所定の姿勢に変化した回数をカウントすることができる。回数カウント部214は、たとえば、画像解析部213が解析した各部位のそれぞれについて、部位の位置と、位置基準情報に含まれている位置との距離が所定値以内になっている場合にカウントアップすることができる。また、角度基準情報に含まれている関節部位を頂点とした2つの部位の角度が所定値以内である場合にカウントアップするようにしてもよい。また、回数カウント部214は、たとえば、身体の姿勢を教師データとし、各部位の位置(相対的な位置関係)を入力データとした機械学習により作成したモデルを事前に準備しておき、当該モデルを用いてユーザ1の姿勢を特定し、所定の姿勢になったときにカウントアップするようにしてもよい。 The number counting unit 214 counts the number of trainings. The number-of-times counting unit 214 can count the number of times the user 1 has changed to a predetermined posture (from another posture) by using the position of each part analyzed by the image analysis unit 213. The number-of-times counting unit 214 counts up, for example, for each of the parts analyzed by the image analysis unit 213, when the distance between the position of the part and the position included in the position reference information is within a predetermined value. can do. Further, when the angles of the two parts having the joint part as the apex included in the angle reference information are within a predetermined value, the count may be increased. Further, the number-of-times counting unit 214 prepares in advance a model created by machine learning, for example, using the posture of the body as teacher data and the position (relative positional relationship) of each part as input data, and the model. May be used to specify the posture of the user 1 and count up when the posture becomes a predetermined posture.

なお、回数カウント部214は、トレーニングの回数及びトレーニングのセット数をカウントし、これらの数値にウェイトの重さを掛け合わせ、トレーニングボリュームを算出することでユーザ1の仕事量を計算することもできる。このトレーニングボリュームをユーザ1の疲労度を測る一指標として利用することができる。このトレーニングボリュームをトレーニング履歴記憶部237に記憶しておくことで、ユーザ1は、所望のタイミングで、このトレーニングボリューム及びその推移をディスプレイ22等に表示して確認することができる。 The number of times counting unit 214 can also calculate the workload of the user 1 by counting the number of times of training and the number of sets of training, multiplying these numerical values by the weight of the weight, and calculating the training volume. .. This training volume can be used as an index for measuring the degree of fatigue of user 1. By storing this training volume in the training history storage unit 237, the user 1 can display and confirm the training volume and its transition on the display 22 or the like at a desired timing.

評価部215は、画像データに基づいてユーザ1の身体の動きを評価する。本実施形態では、評価部215は、画像データから特定された各部位の位置および部位の動きが満たす条件を含む評価条件情報を評価条件記憶部235から検索し、条件が満たされた評価条件情報があればそれに含まれる評価ランクおよびコメントを取得する。 The evaluation unit 215 evaluates the body movement of the user 1 based on the image data. In the present embodiment, the evaluation unit 215 searches the evaluation condition storage unit 235 for evaluation condition information including the condition that the position of each part and the movement of the part specified from the image data are satisfied, and the evaluation condition information that the condition is satisfied. If there is, get the evaluation rank and comments included in it.

図14は、評価部215が作成する評価情報の構成例を示す図である。評価情報には、メニューID、ユーザID、位置情報、姿勢情報、動き情報およびチェックポイント情報が含まれる。 FIG. 14 is a diagram showing a configuration example of evaluation information created by the evaluation unit 215. The evaluation information includes menu ID, user ID, position information, posture information, movement information, and checkpoint information.

位置情報は、身体の各部位(たとえば、頭、肩、肘、腰、膝、足首など)の画像中の位置を示す。位置情報には、動画の時間軸上の時点に対応付けて、部位と、当該部位の位置とが含まれる。位置情報に基づいて、身体の骨格の状態(ボーン)を表示することができる。すなわち、たとえば、位置情報が示す位置に、部位を示す図形(たとえば円など)を画像に重畳させて表示することができる。なお、1つの時点について複数の部位の位置が含まれ得る。なお、2つの部位の間を結ぶ部位(たとえば、手首と肘を結ぶ前腕や腰と膝を結ぶ大腿など)については、位置情報が含まれていなくてよい。この場合、所定の2つの部位を示すマーク(円など)のペアの間を線で結ぶことにより、これらの2つの部位の間を結ぶ部位を表現することができる。位置情報は、動画を構成する各フレームについて含まれていてもよいし、キーフレームごとに含まれていてもよいし、任意の数ごとのフレームごとに含まれていてもよいし、ランダムな時点について含まれていてもよい。マイフレームに位置情報が含まれていない場合、最も近い過去の時点の位置情報に基づいてボーンを表示するようにすることができる。 The position information indicates the position in the image of each part of the body (for example, head, shoulders, elbows, hips, knees, ankles, etc.). The position information includes a part and a position of the part in association with a time point on the time axis of the moving image. Based on the position information, the state (bone) of the skeleton of the body can be displayed. That is, for example, a figure (for example, a circle) indicating a part can be superimposed and displayed on the image at the position indicated by the position information. It should be noted that the positions of a plurality of parts may be included at one time point. The position information may not be included in the part connecting the two parts (for example, the forearm connecting the wrist and the elbow or the thigh connecting the waist and the knee). In this case, by connecting a pair of marks (circles, etc.) indicating the two predetermined parts with a line, the part connecting the two parts can be expressed. The position information may be included for each frame constituting the video, for each key frame, for each frame of any number, or at a random time point. May be included. If My Frame does not contain location information, bones can be displayed based on the location information at the nearest past point in time.

姿勢情報は、ユーザの身体の姿勢に係る情報である。姿勢情報には、動画の時間軸上の時点に対応付けて、評価対象となる部位と、姿勢値と、評価ランクと、評価コメントとが含まれる。姿勢値とは、姿勢を表す値である。姿勢値は、たとえば、地面から部位までの距離、2つの部位間の距離、間接部位の角度(第1の端部の部位から間接部位への直線と、第2の端部の部位から間接部位への直線とが作る角度)などである。評価ランクは、評価値をランクにより表した値である。評価ランクは、たとえば、5段階の1ないし5や、ABCなどで表現される。評価コメントは、姿勢に関する評価に係るコメントである。たとえば、モードが「リフティング」で、屈曲が十分でない場合に、「腰が下がっていない」といった評価コメントが含まれうる。 Posture information is information related to the posture of the user's body. The posture information includes a part to be evaluated, a posture value, an evaluation rank, and an evaluation comment in association with a time point on the time axis of the moving image. The posture value is a value representing the posture. The posture values are, for example, the distance from the ground to the part, the distance between the two parts, the angle of the indirect part (the straight line from the part of the first end to the indirect part, and the part of the second end to the indirect part. The angle formed by the straight line to). The evaluation rank is a value representing the evaluation value by rank. The evaluation rank is expressed by, for example, 1 to 5 in 5 stages, ABC, or the like. The evaluation comment is a comment related to the evaluation regarding the posture. For example, if the mode is "lifting" and the flexion is not sufficient, it may include an evaluation comment such as "not sitting down".

動き情報は、ユーザの身体の動きに係る情報である。動き情報には、動画の時間軸上の期間に対応付けて、評価対象となる部位と、姿勢値のリストと、評価ランクと、評価コメントとが含まれる。姿勢値のリストは、期間内における時系列の姿勢値である。評価コメントは、動きに関する評価に係るコメントである。たとえば、モードが「リフティング」で、膝の伸展がスムーズでない場合に、「膝の動きがスムーズではありません」といった評価コメントが含まれうる。 The movement information is information related to the movement of the user's body. The motion information includes a part to be evaluated, a list of posture values, an evaluation rank, and an evaluation comment in association with a period on the time axis of the moving image. The list of posture values is a time-series posture value within a period. The evaluation comment is a comment related to the evaluation of movement. For example, if the mode is "lifting" and the knee extension is not smooth, it may include a rating comment such as "knee movement is not smooth".

チェックポイント情報は、チェックポイントに関する情報である。チェックポイントとしては、たとえば、ウェイトリフティングのトレーニングメニューの場合に、ウェイトのバーを握ったところ、ウェイトを持って直立したところ、ウェイトを胸の高さまで上げたところなどである。チェックポイント情報には、動画の時間軸上の時点に対応付けて、チェックポイントを記憶している。すなわち、チェックポイントIDが示すチェックポイントが表示されている動画中のフレーム(静止画像)を特定することができる。 Checkpoint information is information about checkpoints. Checkpoints include, for example, in the case of a weightlifting training menu, where you hold the weight bar, stand upright with the weight, or raise the weight to chest height. The checkpoint information stores the checkpoint in association with the time point on the time axis of the moving image. That is, it is possible to identify the frame (still image) in the moving image in which the checkpoint indicated by the checkpoint ID is displayed.

評価部215は、画像解析部212が特定した動画の時間軸における時点と各部位の位置とを含む位置情報を生成することができる。評価部215は、取得した評価ランクおよびコメントについて、部位の位置が条件を満たす場合には、時点、部位および姿勢値と、評価ランクおよびコメントとを含む姿勢情報を生成し、部位の動き(時系列における位置の変化)が条件を満たす場合には、時点、部位および姿勢値のリストと、評価ランクおよびコメントとを含む動き情報を生成する。また、評価部215は、画像解析部212が解析した、各チェックポイントに対応する時点と、当該チェックポイントを示すチェックポイントIDとを含むチェックポイント情報を生成する。 The evaluation unit 215 can generate position information including a time point on the time axis of the moving image specified by the image analysis unit 212 and the position of each part. When the position of the part satisfies the condition for the acquired evaluation rank and comment, the evaluation unit 215 generates posture information including the time point, the part and the posture value, and the evaluation rank and the comment, and moves the part (time). If the condition (change in position in the series) is satisfied, motion information including a list of time points, parts and posture values, and an evaluation rank and a comment is generated. Further, the evaluation unit 215 generates checkpoint information including a time point corresponding to each checkpoint analyzed by the image analysis unit 212 and a checkpoint ID indicating the checkpoint.

評価情報出力部216は、評価情報をディスプレイ22に出力する。評価情報出力部216は、たとえば、評価表示部114は、評価情報に含まれている位置情報に基づいて、動画に重畳させて、身体の部位を表す図形(たとえば、端部や間接を表す円とそれらを結ぶ線)を表示することで、ボーンの動きを動画に重ねて表示することができる。また、評価情報出力部216は、たとえば、部位の位置の時系列的な変化をグラフ表示することができる。 The evaluation information output unit 216 outputs the evaluation information to the display 22. The evaluation information output unit 216, for example, the evaluation display unit 114 superimposes on a moving image based on the position information included in the evaluation information to represent a figure (for example, an end or an indirect circle). And the line connecting them), the movement of the bones can be superimposed on the video. Further, the evaluation information output unit 216 can display, for example, a graph of changes in the position of the portion over time.

また、評価表示部114は、評価情報に含まれている姿勢情報および動き情報に基づいて、動画の表示に併せて、評価ランクおよび評価コメントを表示することができる。たとえば、評価表示部114は、動画の再生時間が、姿勢情報に含まれている時点の前後近傍(たとえば、5秒前後など任意の長さとすることができる。)にきたところで、姿勢情報に含まれている評価ランクおよび評価コメントを表示することができる。また、評価表示部114は、動画の再生時間が、動き情報に含まれている期間内にきたところで、動き情報に含まれている評価ランクおよび評価コメントを表示することができる。また、評価表示部114は、姿勢情報に含まれている姿勢値を表示することができる。また、評価表示部114は、動き情報に含まれている姿勢値のリストに基づいて、姿勢値の時系列的な変換をグラフ表示することができる。 Further, the evaluation display unit 114 can display the evaluation rank and the evaluation comment together with the display of the moving image based on the posture information and the movement information included in the evaluation information. For example, the evaluation display unit 114 includes the video reproduction time in the posture information when it comes to the vicinity of the front and back (for example, about 5 seconds or the like) at the time when the video is included in the posture information. It is possible to display the evaluation rank and evaluation comment. Further, the evaluation display unit 114 can display the evaluation rank and the evaluation comment included in the motion information when the playback time of the moving image comes within the period included in the motion information. In addition, the evaluation display unit 114 can display the posture value included in the posture information. Further, the evaluation display unit 114 can display a graph of the time-series conversion of the posture values based on the list of posture values included in the movement information.

図15、図16および図17は、評価情報出力部216が出力する画面42の一例を示す図である。図15において、画面42には、ユーザ1を撮影した画像データ421に重畳させて、ボーン422が表示されている。また、図15の例では、画面42には、姿勢情報の評価コメント423と動き情報の評価コメント424が表示されている。さらに、画面42の例には、トレーニング情報の回数425と、回数カウント部214がカウントした回数426とが表示されている。図16の例では、肩や手首、足首などの速度を表すグラフ427の例が示されている。図17の例では、トレーニング情報の動画データ423が表示されている。このような画面42がディスプレイ22に表示されることにより、ユーザ1はトレーニング時の身体の姿勢や動きを修正し、効率的かつ効果的なトレーニングを行うことが可能となる。 15, 16 and 17 are diagrams showing an example of the screen 42 output by the evaluation information output unit 216. In FIG. 15, the bone 422 is displayed on the screen 42 by superimposing the user 1 on the captured image data 421. Further, in the example of FIG. 15, the evaluation comment 423 of the posture information and the evaluation comment 424 of the movement information are displayed on the screen 42. Further, in the example of the screen 42, the number of times 425 of the training information and the number of times 426 counted by the number of times counting unit 214 are displayed. In the example of FIG. 16, an example of Graph 427 showing the speed of the shoulder, wrist, ankle, etc. is shown. In the example of FIG. 17, the moving image data 423 of the training information is displayed. By displaying such a screen 42 on the display 22, the user 1 can correct the posture and movement of the body during training, and can perform efficient and effective training.

評価情報出力部216は、評価情報をユーザ端末10に送信することもできる。ユーザ1は、ユーザ端末10を用いてトレーニング中およびトレーニング後にトレーニングの振り返りを行うことが可能となる。 The evaluation information output unit 216 can also transmit the evaluation information to the user terminal 10. The user 1 can use the user terminal 10 to look back on the training during and after the training.

評価情報出力部216は、ユーザ1によるトレーニングの履歴をトレーニング履歴記憶部237に登録する。評価情報出力部216は、ユーザ1を示すユーザIDと、ユーザ認証部210がユーザ1を認証した日時と、ディスプレイ22に対応するメニューIDと、設定情報と、回数カウント部214がカウントした回数と、ユーザを認証した時刻から、トレーニング終了までの時間とを含むトレーニング履歴をトレーニング履歴記憶部237に登録することができる。設定情報については、ディスプレイ22がユーザ1から設定情報の入力を受け付けて(たとえば、ディスプレイ22をタッチパネルディスプレイとし、タッチパネルディスプレイに選択肢などを表示して入力を受け付けることができる。)、ディスプレイ22から設定情報を受信するようにしてもよいし、ユーザ端末10が設定情報の入力を受け付けて、ユーザ端末10から設定情報を受信するようにしてもよいし、トレーニング機器が通信機能を備えるようにして、トレーニング機器から設定情報を取得するようにしてもよい。 The evaluation information output unit 216 registers the training history by the user 1 in the training history storage unit 237. The evaluation information output unit 216 includes a user ID indicating the user 1, a date and time when the user authentication unit 210 authenticates the user 1, a menu ID corresponding to the display 22, setting information, and the number of times counted by the number count unit 214. , The training history including the time from the time when the user is authenticated to the end of training can be registered in the training history storage unit 237. Regarding the setting information, the display 22 accepts the input of the setting information from the user 1 (for example, the display 22 can be a touch panel display, and the touch panel display can display options and the like to accept the input), and the setting information is set from the display 22. The information may be received, the user terminal 10 may accept the input of the setting information and receive the setting information from the user terminal 10, or the training device may be provided with a communication function. The setting information may be acquired from the training device.

トレーニング履歴送信部217は、トレーニング履歴をユーザ端末10に送信する。トレーニング履歴送信部217は、トレーニングが終了する度にトレーニング情報をユーザ端末10に送信するようにしてもよいし、ユーザ端末10からのリクエストに応じてトレーニング履歴を応答するようにしてもよい。ユーザ端末10では、トレーニング履歴を表示することができる。図18は、ユーザ端末10によるトレーニング履歴の表示例を示す図である。図18に示す画面43では、ユーザ1が行ったトレーニングの内容431と、トレーニング中のユーザ1を撮影した動画432が表示されている。このようにユーザ1はトレーニング中の状態を後から振り返ることができるので、効果的なトレーニングが可能となる。 The training history transmission unit 217 transmits the training history to the user terminal 10. The training history transmission unit 217 may transmit the training information to the user terminal 10 each time the training is completed, or may respond the training history in response to a request from the user terminal 10. The training history can be displayed on the user terminal 10. FIG. 18 is a diagram showing a display example of the training history by the user terminal 10. On the screen 43 shown in FIG. 18, the content 431 of the training performed by the user 1 and the moving image 432 of the user 1 during the training are displayed. In this way, the user 1 can look back on the state during training later, so that effective training becomes possible.

トレーニング履歴送信部217は、トレーニングボリュームをユーザ端末10に送信する。図19に示す画面44では、トレーニングボリューム情報の出力画面44の一例を示す。図19に示すように、トレーニングボリュームを、ユーザの日次の身長、体重等の身体情報とともに、日次、週次、月次の推移を示すことができる。また、図19に示すように、ユーザの脂肪率とともにトレーニングボリューム情報を同時に示すことで、ユーザに仕事量に対する脂肪率の推移を比較することもできる。 The training history transmission unit 217 transmits the training volume to the user terminal 10. The screen 44 shown in FIG. 19 shows an example of the training volume information output screen 44. As shown in FIG. 19, the training volume can show daily, weekly, and monthly transitions along with physical information such as height and weight of the user on a daily basis. Further, as shown in FIG. 19, by simultaneously showing the training volume information together with the fat percentage of the user, it is possible to compare the transition of the fat percentage with respect to the workload to the user.

また、トレーニング履歴送信部217は、トレーニング履歴を管理者端末30にも送信することができる。トレーニング履歴送信部217は、トレーニングが終了する度にトレーニング情報を管理者端末10に送信するようにしてもよいし、管理者端末30からのリクエストに応じてトレーニング履歴を応答するようにしてもよい。 In addition, the training history transmission unit 217 can also transmit the training history to the administrator terminal 30. The training history transmission unit 217 may transmit the training information to the administrator terminal 10 each time the training is completed, or may respond the training history in response to a request from the administrator terminal 30. ..

改善策情報出力部218は、トレーニングの改善策をディスプレイ22に出力する。改善策情報出力部218は、ディスプレイ22に対応するメニューIDに対応する改善条件情報のうち、ユーザ1の身体情報や、画像解析部213が特定した各部位の位置や動きが条件を満たされるものを検索する。改善策情報出力部218は、検索した改善策情報のアドバイスを取得し、取得したアドバイスをディスプレイ22に出力する。改善策情報出力部218は、また、基準情報に含まれている各部位の位置や角度をディスプレイ22に出力することができる。たとえば、改善策情報出力部218は、基準位置に含まれている各部位の位置や角度に基づいて、身体の骨格の状態(ボーン)を表示することができる。すなわち、たとえば、位置情報が示す位置に、部位を示す図形(たとえば円など)を画像に重畳させて表示することができる。 The improvement measure information output unit 218 outputs the training improvement measure to the display 22. In the improvement measure information output unit 218, among the improvement condition information corresponding to the menu ID corresponding to the display 22, the physical information of the user 1 and the position and movement of each part specified by the image analysis unit 213 satisfy the conditions. To search for. The improvement measure information output unit 218 acquires the advice of the searched improvement measure information, and outputs the acquired advice to the display 22. The remedy information output unit 218 can also output the position and angle of each part included in the reference information to the display 22. For example, the improvement measure information output unit 218 can display the state (bone) of the skeleton of the body based on the position and angle of each part included in the reference position. That is, for example, a figure (for example, a circle) indicating a part can be superimposed and displayed on the image at the position indicated by the position information.

図20は、本実施形態の運動支援システムにおいて実行される処理の流れを示す図である。 FIG. 20 is a diagram showing a flow of processing executed in the exercise support system of the present embodiment.

サーバ装置20のユーザ認証部210は、ユーザ1がトレーニング器具の近傍に来たことを検出する(S501)。ユーザ1の検出は、たとえば、人感センサーをディスプレイ22付近に設置してもよいし、カメラ21からの画像を監視し、画像から人間を検出するようにしてもよい。 The user authentication unit 210 of the server device 20 detects that the user 1 has come near the training device (S501). For the detection of the user 1, for example, a motion sensor may be installed near the display 22, or an image from the camera 21 may be monitored to detect a human from the image.

次にユーザ認証部210は、ユーザ1の認証を行う(S502)。ユーザ1の認証は、たとえば、画像から顔部分の特徴量を抽出してユーザ情報の認証情報に含まれている特徴量と比較することにより行うことができる。また、ユーザ認証部210は、たとえば、ユーザ端末10との間の通信(たとえば、ユーザ端末10からユーザIDおよびパスワード、あるいは公開鍵などの認証情報の入力を受け付けることなど)によりユーザ1の認証を行うようにしてもよい。また、ディスプレイ22付近にICカードリーダを設置して会員証を用いて認証を行うようにしてもよい。 Next, the user authentication unit 210 authenticates the user 1 (S502). The authentication of the user 1 can be performed, for example, by extracting the feature amount of the face portion from the image and comparing it with the feature amount included in the authentication information of the user information. Further, the user authentication unit 210 authenticates the user 1 by, for example, communicating with the user terminal 10 (for example, accepting input of authentication information such as a user ID and password or a public key from the user terminal 10). You may do it. Further, an IC card reader may be installed near the display 22 to perform authentication using the membership card.

ユーザ1が認証されると、画像取得部212は、カメラ21からの画像を取得して画像データ記憶部233に登録することを開始する(S503)。トレーニング情報出力部211は、ディスプレイ22に対応するメニューIDをトレーニング情報記憶部231から特定し、特定したメニューIDに対応するトレーニング情報をトレーニング情報記憶部231から読み出し(S504)、読み出したトレーニング情報を、ユーザ1に対応するユーザ情報を用いて修正する(S505)。トレーニング情報出力部211は、たとえば、身長や体重、筋肉量などに応じて、ウェイトの重さや回数などを修正することができる。また、トレーニング情報出力部211は、ユーザ1のトレーニング履歴に応じてトレーニング情報を修正するようにしてもよい。トレーニング情報出力部211は、修正したトレーニング情報をディスプレイ22に出力する(S506)。トレーニング情報出力部211は、ここでユーザ1から目的の入力を受け付けるようにして、目的とメニューIDとに対応するトレーニング情報を読み出すようにしてもよい。トレーニング情報の出力例は、たとえば図13に示した画面42である。 When the user 1 is authenticated, the image acquisition unit 212 starts to acquire the image from the camera 21 and register it in the image data storage unit 233 (S503). The training information output unit 211 identifies the menu ID corresponding to the display 22 from the training information storage unit 231, reads the training information corresponding to the specified menu ID from the training information storage unit 231 (S504), and reads the read training information. , The user information corresponding to the user 1 is used for correction (S505). The training information output unit 211 can modify the weight and the number of times of the weight according to, for example, height, weight, muscle mass, and the like. Further, the training information output unit 211 may modify the training information according to the training history of the user 1. The training information output unit 211 outputs the corrected training information to the display 22 (S506). The training information output unit 211 may receive the target input from the user 1 here, and may read the training information corresponding to the target and the menu ID. An example of output of training information is screen 42 shown in FIG. 13, for example.

画像解析部213は、カメラ21から取得した画像データを解析して、ユーザ1の身体の各部位の位置を特定する(S507)。回数カウント部214は、部位の位置に基づいて、ユーザ1が行ったトレーニングの回数をカウントする(S508)。回数カウント部214は、たとえば、膝の角度が所定角度以内になった場合に、足の屈伸を1回行ったとカウントしたり、臀部の位置が床上所定距離以内になった場合に、スクワットを1回行ったとカウントしたりすることができる。 The image analysis unit 213 analyzes the image data acquired from the camera 21 and identifies the position of each part of the body of the user 1 (S507). The number-of-times counting unit 214 counts the number of times of training performed by the user 1 based on the position of the part (S508). The number-of-times counting unit 214 counts that the leg has been bent and stretched once when the knee angle is within a predetermined angle, or squats 1 when the buttock position is within a predetermined distance on the floor. It can be counted as a round.

評価情報出力部216は、ユーザ1を撮影した画像に、各部位の位置とその接続関係を重畳表示させる、いわゆるボーンの表示を行う(S509)。また、評価部215は、部位の位置や動き(位置または角度の時系列変化)に基づいてトレーニングの評価を行い、評価情報出力部216は、その評価結果をディスプレイ22に出力する(S510)。ここで、ユーザ1がイヤフォン、ヘッドフォン、ネックスピーカなどの音声出力装置を装着している場合は、評価結果を音声として出力することもできる。 The evaluation information output unit 216 displays a so-called bone by superimposing the position of each part and its connection relationship on the image captured by the user 1 (S509). Further, the evaluation unit 215 evaluates the training based on the position and movement (time-series change of the position or angle) of the part, and the evaluation information output unit 216 outputs the evaluation result to the display 22 (S510). Here, when the user 1 is equipped with an audio output device such as earphones, headphones, or a neck speaker, the evaluation result can be output as audio.

改善策情報出力部218は、ユーザ1の身体情報や、画像解析部213が特定した各部位の位置および動きが条件を満たす改善条件情報を改善条件記憶部238から検索し、検索した改善条件情報のアドバイスをディスプレイ22に出力する(S511)。なお、改善策情報出力部218は、改善条件情報に含まれている他の項目をディスプレイ22に出力してもよい。また、ユーザ1がイヤフォン、ヘッドフォン、ネックスピーカなどの音声出力装置を装着している場合は、改善条件情報に含まれているアドバイスなどの情報を音声として出力してもよい。 The improvement measure information output unit 218 searches the improvement condition storage unit 238 for the improvement condition information that satisfies the physical information of the user 1 and the position and movement of each part specified by the image analysis unit 213, and the searched improvement condition information. The advice is output to the display 22 (S511). The improvement measure information output unit 218 may output other items included in the improvement condition information to the display 22. Further, when the user 1 is equipped with an audio output device such as earphones, headphones, or a neck speaker, information such as advice included in the improvement condition information may be output as audio.

最後に回数カウント部214は、トレーニングの履歴をトレーニング履歴記憶部237に登録することができる(S512)。回数カウント部214は、トレーニングの回数をカウントする度に、または、トレーニングのカウントができなくなって所定時間経過したことなどによりトレーニングの終了を検知して、履歴を登録するようにしてもよい。 Finally, the number counting unit 214 can register the training history in the training history storage unit 237 (S512). The number-of-times counting unit 214 may detect the end of training each time the number of times of training is counted, or when a predetermined time has elapsed since the training cannot be counted, and may register the history.

以上のようにして、本実施形態の運動支援システムによれば、トレーニング機器ごとに設置されるディスプレイ22にトレーニングの説明などの情報が表示されるとともに、カメラ21によって撮影されたユーザ1の身体を解析して姿勢や動きについての評価および改善策が提示される。したがって、従来パーソナルトレーナーなどが人力で行っていた機器の説明や身体の動きの評価・アドバイス等をシステムにより行うことができるので、ユーザ1の指導を効率化することが可能となる。 As described above, according to the exercise support system of the present embodiment, information such as a training explanation is displayed on the display 22 installed for each training device, and the body of the user 1 photographed by the camera 21 is displayed. It is analyzed and evaluation and improvement measures for posture and movement are presented. Therefore, since the system can be used to explain the equipment and evaluate / advise the movement of the body, which was conventionally performed manually by a personal trainer or the like, it is possible to improve the efficiency of the guidance of the user 1.

また、本実施形態の運動支援システムによれば、容易に身体運動についての評価を行うことができる。トレーニングに係る身体運動について、身体の各部位の位置関係や動きについて評価することができるので、具体的な改善努力につながりやすく、トレーニング効果の向上が期待される。また、本実施形態の運動支援システムでは、コメントやアドバイスも提供されるため、ユーザは容易に現状と改善策とを把握することが可能になる。 Further, according to the exercise support system of the present embodiment, it is possible to easily evaluate the physical exercise. Since it is possible to evaluate the positional relationship and movement of each part of the body regarding the physical exercise related to training, it is easy to lead to concrete improvement efforts, and it is expected that the training effect will be improved. In addition, since the exercise support system of the present embodiment also provides comments and advice, the user can easily grasp the current situation and improvement measures.

以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。 Although the present embodiment has been described above, the above embodiment is for facilitating the understanding of the present invention, and is not for limiting and interpreting the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof.

たとえば、本実施形態では、サーバ装置20において画像の解析を行うものとしたが、これに限らず、カメラ21またはユーザ端末10において画像の解析を行い、各部位の位置関係を特定するようにしてもよい。 For example, in the present embodiment, the server device 20 analyzes the image, but the present invention is not limited to this, and the camera 21 or the user terminal 10 analyzes the image to specify the positional relationship of each part. May be good.

また、本実施形態では、部位の位置は2次元の画像上の位置であることを想定したが、これに限らず、3次元の位置としてもよい。たとえば、カメラ21に加えて、トレーニング器具の設置場所にデプスカメラを配置し、カメラ21からの画像と、デプスカメラからの深度マップとに基づいて、部位の3次元の位置を特定することができる。なお、カメラ21に代えてデプスカメラを設けるようにし、デプスカメラからの深度マップのみから3次元の位置を特定することも可能である。 Further, in the present embodiment, the position of the portion is assumed to be a position on a two-dimensional image, but the position is not limited to this and may be a three-dimensional position. For example, in addition to the camera 21, a depth camera can be placed at the installation location of the training equipment, and the three-dimensional position of the part can be specified based on the image from the camera 21 and the depth map from the depth camera. .. It is also possible to provide a depth camera instead of the camera 21 and specify the three-dimensional position only from the depth map from the depth camera.

また、本実施形態では、カメラで撮影するユーザの身体の部位は、ユーザの正面方向または横方向から見た部位であることを想定したが、これに限らず、ユーザより上方に設置するカメラの特性を活かし、ユーザの頭上方向から見た部位であることとしてもよい。この場合、頭上から見たユーザの頭の中心及び両肩の二次元上の位置を特定して解析を行うことができる。 Further, in the present embodiment, it is assumed that the part of the user's body to be photographed by the camera is the part viewed from the front direction or the lateral direction of the user, but the present invention is not limited to this, and the camera installed above the user Taking advantage of its characteristics, it may be a part viewed from above the user's head. In this case, the center of the user's head and the two-dimensional positions of both shoulders as seen from above can be specified and analyzed.

また、本実施形態では、運動中のユーザの身体を撮像した画像がカメラ21からサーバ装置20に送信されるものとしたが、これに限らず、トレーニング器具の設置場所にコンピュータを配置し、当該コンピュータにおいて画像から特徴量を抽出し、特徴量をサーバ装置20に送信するようにしてもよいし、当該コンピュータが特徴量に基づいて身体の部位を推定し、部位の絶対的な位置(画像のXY座標上の位置としてもよいし、基準位置(たとえば、地面や足先、頭、身体の重心など)からの実寸での距離としてもよいし、その他の任意の座標系での位置とすることもできる。)または複数部位間の相対的な位置関係を取得し、これらの絶対的な位置や相対的な位置関係をサーバ装置20に送信するようにしてもよい。 Further, in the present embodiment, the image of the body of the user during exercise is transmitted from the camera 21 to the server device 20, but the present invention is not limited to this, and the computer is placed at the installation location of the training equipment. A computer may extract a feature amount from an image and send the feature amount to the server device 20, or the computer estimates a body part based on the feature amount and the absolute position of the part (of the image). It may be a position on XY coordinates, it may be an actual distance from a reference position (for example, the ground, toes, head, center of gravity of the body, etc.), or it may be a position in any other coordinate system. It is also possible to acquire the relative positional relationship between a plurality of parts, and transmit these absolute positions and relative positional relationships to the server device 20.

また、本実施形態では、改善策情報にはサーバ装置20側で準備されたコンテンツが提供されるものとしたが、これに限らず、たとえば、基準値を含めるようにして、基準値に基づく正しい姿勢(各部位の位置や角度)となるボーンを動画または動画から抽出した静止画に重畳して表示するようにしてもよい。これにより、どのような姿勢とするべきかを容易に把握することができる。 Further, in the present embodiment, the content prepared on the server device 20 side is provided as the improvement measure information, but the present invention is not limited to this, and for example, the reference value is included so as to be correct based on the reference value. Bones that are postures (positions and angles of each part) may be superimposed and displayed on a moving image or a still image extracted from the moving image. As a result, it is possible to easily grasp what kind of posture should be taken.

また、本実施形態では、身体の部位の位置または動き(経時的な位置)について評価するものとしたが、これに限らず、ユーザが把持または装着している道具の位置を特定して評価するようにしてもよい。この場合、道具の位置についての基準情報と評価条件情報を登録しておき、道具の特徴量を抽出して位置を特定して、身体部位の位置と同様に評価を行うようにすればよい。 Further, in the present embodiment, the position or movement (position over time) of the body part is evaluated, but the present invention is not limited to this, and the position of the tool gripped or worn by the user is specified and evaluated. You may do so. In this case, the reference information and the evaluation condition information about the position of the tool may be registered, the feature amount of the tool may be extracted, the position may be specified, and the evaluation may be performed in the same manner as the position of the body part.

また、本実施形態では、改善策についてはアドバイス等のコンテンツを提供するものとしたが、たとえば、用具のレコメンデーションを行うようにしてもよい。この場合、サーバ装置20は、ユーザの身体情報(身長、体重等)に対応付けて、用具と当該用具のサイズ(長さ等)の基準値を記憶しておき、画像データからユーザが使用している用具の特徴量を抽出して用具の形状を特定し、当該形状と身体情報に含まれるユーザのサイズ(たとえば身長等)に基づいて用具の大きさを推定し、推定した用具の大きさと、基準値との差が所定の閾値以上であれば、基準値のサイズの用具をレコメンドすることができる。 Further, in the present embodiment, the content such as advice is provided for the improvement measure, but for example, the recommendation of the tool may be performed. In this case, the server device 20 stores the reference value of the tool and the size (length, etc.) of the tool in association with the physical information (height, weight, etc.) of the user, and the user uses the image data. The feature amount of the tool is extracted, the shape of the tool is specified, the size of the tool is estimated based on the shape and the size of the user (for example, height) included in the physical information, and the estimated size of the tool is used. If the difference from the reference value is equal to or greater than a predetermined threshold value, the tool having the size of the reference value can be recommended.

また、道具の位置を推定することにより、サーバ装置20は、道具のスピードを推定することができる。また、サーバ装置20は、時系列での道具の位置の変化のパターンを抽出することにより、パターンの回数を、道具を使った動作の回数として推定することができる。 Further, by estimating the position of the tool, the server device 20 can estimate the speed of the tool. Further, the server device 20 can estimate the number of patterns as the number of operations using the tool by extracting the pattern of the change in the position of the tool in the time series.

また、ある姿勢または動きを検出した場合に、その動作に対する課題を提案するようにしてもよい。この場合、サーバ装置20は、ひとつまたは一連の姿勢または動きに対応付けて、評価コメントに代えて、課題を記憶しておき、当該課題を出力すればよい。 Further, when a certain posture or movement is detected, a problem for the movement may be proposed. In this case, the server device 20 may store the task in place of the evaluation comment and output the task in association with one or a series of postures or movements.

また、ある姿勢または動きを検出した場合に、行うべきトレーニングを提示するようにしてもよい。この場合、サーバ装置20は、ひとつまたは一連の姿勢または動きに対応付けて、評価コメントに代えて、トレーニング内容を記憶しておき、当該内容を出力すればよい。 In addition, when a certain posture or movement is detected, the training to be performed may be presented. In this case, the server device 20 may store the training content in place of the evaluation comment in association with one or a series of postures or movements, and output the content.

また、プレイヤーが行った動作を自動検出するようにすることもできる。この場合、サーバ装置20は、たとえばシュートやパスなどの所定の動作を行う姿勢(身体の各部位の位置)を基準情報として記憶しておき、画像から解析した身体の部位の位置と基準情報とを比較して、画像中のプレイヤーが行った動作を特定することができる。 It is also possible to automatically detect the action performed by the player. In this case, the server device 20 stores the posture (position of each part of the body) for performing a predetermined operation such as shooting or passing as reference information, and the position and reference information of the body part analyzed from the image. Can be compared to identify the actions performed by the player in the image.

また、本実施形態では、所定の機能の実行及び情報の記憶を、ユーザ端末またはサーバ装置で行うものとしているが、これに限らず、いずれか一方の装置で当該機能の実行及び情報の記憶を行うこととしてもよい。または、本実施形態とは異なる形態で、機能部及び記憶部を分散して設けてもよい。 Further, in the present embodiment, the execution of a predetermined function and the storage of information are performed by the user terminal or the server device, but the present invention is not limited to this, and the execution of the function and the storage of information are performed by either device. You may do it. Alternatively, the functional unit and the storage unit may be distributed and provided in a form different from the present embodiment.

また、本実施形態では、基準情報(位置基準情報および角度基準情報)は予め設定されているものとしたが、これに限らず、複数のユーザ1を撮影した画像データから基準情報を作製するようにしてもよい。この場合、たとえば、ユーザ1の姿勢や運動が正しいか否かの入力を受け付けて、正しいと評価されたもののみに基づいて、基準情報を作成するようにすることができる。 Further, in the present embodiment, the reference information (position reference information and angle reference information) is set in advance, but the reference information is not limited to this, and the reference information is created from the image data obtained by capturing a plurality of users 1. It may be. In this case, for example, it is possible to accept the input of whether or not the posture and movement of the user 1 are correct, and create the reference information based only on the ones evaluated as correct.

また、本実施形態では、トレーニングに関する情報や評価結果などがディスプレイ22に表示され、またはユーザ1が装着している音声出力装置から音声として出力されるものとしたが、トレーニングを応援するメッセージをディスプレイ22に表示し、またはトレーニングを応援するかけ声をユーザ1が装着している音声出力装置から音声として出力するようにしてもよい。これにより、ユーザ1のトレーニングのモチベーションを向上することが可能となる。 Further, in the present embodiment, information related to training, evaluation results, and the like are displayed on the display 22, or are output as voice from the voice output device worn by the user 1, but a message supporting the training is displayed. A voice output device worn by the user 1 may output a voice to be displayed on the 22 or to support the training. This makes it possible to improve the training motivation of the user 1.

10 ユーザ端末
20 サーバ装置
21 カメラ
22 ディスプレイ
23 通信ネットワークすぴ
30 管理者端末
210 ユーザ認証部
211 トレーニング情報出力部
212 画像取得部
213 画像解析部
214 回数カウント部
215 評価部
216 評価情報送信部
231 トレーニング情報記憶部
232 ユーザ情報記憶部
233 画像データ記憶部
234 基準情報記憶部
235 評価条件情報記憶部
236 トレーニング計画記憶部
237 トレーニング履歴記憶部
238 改善条件記憶部
10 User terminal 20 Server device 21 Camera 22 Display 23 Communication network spi 30 Administrator terminal 210 User authentication unit 211 Training information output unit 212 Image acquisition unit 213 Image analysis unit 214 Number of times counting unit 215 Evaluation unit 216 Evaluation information transmission unit 231 Training Information storage unit 232 User information storage unit 233 Image data storage unit 234 Reference information storage unit 235 Evaluation condition information storage unit 236 Training plan storage unit 237 Training history storage unit 238 Improvement condition storage unit

Claims (7)

ユーザの運動を支援するシステムであって、
前記運動時の前記ユーザを撮影するカメラと、
前記運動を行う場所に設置されるディスプレイと、
前記運動に関する説明を前記ディスプレイに出力する説明出力部と、
前記カメラが撮影した画像を解析して前記ユーザの身体の部位の位置を特定する部位特定部と、
前記部位の位置を前記画像に重畳させて前記ディスプレイに出力する出力部と、
を備えることを特徴とする運動支援システム。
A system that supports the movement of users
A camera that captures the user during the exercise and
A display installed at the place where the exercise is performed and
An explanatory output unit that outputs an explanation about the exercise to the display,
A part identification part that analyzes an image taken by the camera to identify the position of a part of the user's body,
An output unit that superimposes the position of the portion on the image and outputs it to the display.
An exercise support system characterized by being equipped with.
請求項1に記載の運動支援システムであって、
少なくとも1つの前記部位の位置に係る基準値を記憶する基準値記憶部と、
前記画像における前記部位の位置および前記基準値を比較して前記運動の評価値を決定する評価部と、
をさらに備え、
前記出力部はさらに、前記評価値を前記ディスプレイに出力すること、
を特徴とする運動支援システム。
The exercise support system according to claim 1.
A reference value storage unit that stores a reference value related to the position of at least one of the parts,
An evaluation unit that determines the evaluation value of the exercise by comparing the position of the portion in the image and the reference value.
With more
The output unit further outputs the evaluation value to the display.
An exercise support system featuring.
請求項2に記載の運動支援システムであって、
前記評価部は、前記基準値から前記位置までの距離に応じて前記評価値を決定すること、
を特徴とする運動支援システム。
The exercise support system according to claim 2.
The evaluation unit determines the evaluation value according to the distance from the reference value to the position.
An exercise support system featuring.
請求項2に記載の運動支援システムであって、
前記基準値記憶部は、第1および第2の前記部位のそれぞれと第3の前記部位とを結ぶ直線の間の角度についての前記基準値を記憶し、
前記部位特定部は、前記第1ないし第3の部位のそれぞれを前記画像から特定し、
前記評価部は、特定された前記第1ないし第3の部位についての前記角度を算出し、算出した前記角度と前記基準値とを比較して、前記評価値を決定すること、
を特徴とする運動支援システム。
The exercise support system according to claim 2.
The reference value storage unit stores the reference value for the angle between the straight line connecting each of the first and second portions and the third portion.
The site specifying portion identifies each of the first to third sites from the image, and then
The evaluation unit calculates the angle with respect to the specified first to third parts, compares the calculated angle with the reference value, and determines the evaluation value.
An exercise support system featuring.
請求項1に記載の運動支援システムであって、
前記部位の位置に基づいて、前記運動の回数をカウントする回数カウント部をさらに備え、
前記出力部はさらに、前記運動の回数を前記ディスプレイに出力すること、
を特徴とする運動支援システム。
The exercise support system according to claim 1.
Further, a number counting unit for counting the number of times of the exercise based on the position of the portion is provided.
The output unit further outputs the number of times of the exercise to the display.
An exercise support system featuring.
請求項2に記載の運動支援システムであって、
前記出力部はさらに、前記評価値を音声で出力すること、
を特徴とする運動支援システム。
The exercise support system according to claim 2.
The output unit further outputs the evaluation value by voice.
An exercise support system featuring.
請求項1に記載の運動支援システムであって、
前記出力部はさらに、前記特定されたユーザの身体の位置に基づいて改善策情報を音声で出力すること、
を特徴とする運動支援システム。
The exercise support system according to claim 1.
The output unit further outputs the improvement measure information by voice based on the position of the body of the specified user.
An exercise support system featuring.
JP2019079333A 2019-04-18 2019-04-18 Exercise support system Pending JP2020174910A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019079333A JP2020174910A (en) 2019-04-18 2019-04-18 Exercise support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019079333A JP2020174910A (en) 2019-04-18 2019-04-18 Exercise support system

Publications (1)

Publication Number Publication Date
JP2020174910A true JP2020174910A (en) 2020-10-29

Family

ID=72937246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079333A Pending JP2020174910A (en) 2019-04-18 2019-04-18 Exercise support system

Country Status (1)

Country Link
JP (1) JP2020174910A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102320960B1 (en) * 2021-05-03 2021-11-02 이다인 Personalized home training behavior guidance and correction system
WO2022103089A1 (en) * 2020-11-16 2022-05-19 삼성전자 주식회사 Electronic device and operation method therefor
WO2022186508A1 (en) * 2021-03-04 2022-09-09 삼성전자주식회사 Electronic device and control method therefor
KR20220148077A (en) * 2021-04-28 2022-11-04 피제이비 주식회사 Moving bike device of controlling contents play according to contents properties and driving method thereof
KR20230081949A (en) * 2021-11-30 2023-06-08 주식회사 인공지능연구원 System and method for artificial intelligence golf swing analysis/correction based on 3D character retargeting

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013154125A (en) * 2012-01-31 2013-08-15 Konami Digital Entertainment Co Ltd Game apparatus, method of controlling the game apparatus, and program
US20130260884A1 (en) * 2009-10-27 2013-10-03 Harmonix Music Systems, Inc. Gesture-based user interface
JP2015027437A (en) * 2013-07-01 2015-02-12 株式会社東芝 Action information processing device and method
JP2015146980A (en) * 2014-02-07 2015-08-20 セイコーエプソン株式会社 Exercise support system, exercise support apparatus, and exercise support method
WO2016056449A1 (en) * 2014-10-10 2016-04-14 富士通株式会社 Skill determination program, skill determination method, skill determination device, and server
JP2016087226A (en) * 2014-11-07 2016-05-23 学校法人北里研究所 Exercise assist device, exercise assist method, and program
WO2016208291A1 (en) * 2015-06-26 2016-12-29 Necソリューションイノベータ株式会社 Measurement device and measurement method
JP2017064120A (en) * 2015-09-30 2017-04-06 株式会社リコー Information processor and system
JP2017080197A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
JP2017080195A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
US20190038187A1 (en) * 2017-08-03 2019-02-07 Latella Sports Technologies, LLC Systems and methods for evaluating body motion
JP2019058285A (en) * 2017-09-25 2019-04-18 パナソニックIpマネジメント株式会社 Activity support method, program, and activity support system
WO2019082376A1 (en) * 2017-10-27 2019-05-02 株式会社アシックス Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130260884A1 (en) * 2009-10-27 2013-10-03 Harmonix Music Systems, Inc. Gesture-based user interface
JP2013154125A (en) * 2012-01-31 2013-08-15 Konami Digital Entertainment Co Ltd Game apparatus, method of controlling the game apparatus, and program
JP2015027437A (en) * 2013-07-01 2015-02-12 株式会社東芝 Action information processing device and method
JP2015146980A (en) * 2014-02-07 2015-08-20 セイコーエプソン株式会社 Exercise support system, exercise support apparatus, and exercise support method
WO2016056449A1 (en) * 2014-10-10 2016-04-14 富士通株式会社 Skill determination program, skill determination method, skill determination device, and server
JP2016087226A (en) * 2014-11-07 2016-05-23 学校法人北里研究所 Exercise assist device, exercise assist method, and program
WO2016208291A1 (en) * 2015-06-26 2016-12-29 Necソリューションイノベータ株式会社 Measurement device and measurement method
JP2017064120A (en) * 2015-09-30 2017-04-06 株式会社リコー Information processor and system
JP2017080197A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
JP2017080195A (en) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method and program
US20190038187A1 (en) * 2017-08-03 2019-02-07 Latella Sports Technologies, LLC Systems and methods for evaluating body motion
JP2019058285A (en) * 2017-09-25 2019-04-18 パナソニックIpマネジメント株式会社 Activity support method, program, and activity support system
WO2019082376A1 (en) * 2017-10-27 2019-05-02 株式会社アシックス Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022103089A1 (en) * 2020-11-16 2022-05-19 삼성전자 주식회사 Electronic device and operation method therefor
WO2022186508A1 (en) * 2021-03-04 2022-09-09 삼성전자주식회사 Electronic device and control method therefor
KR20220148077A (en) * 2021-04-28 2022-11-04 피제이비 주식회사 Moving bike device of controlling contents play according to contents properties and driving method thereof
KR102578265B1 (en) * 2021-04-28 2023-09-13 피제이비 주식회사 Moving bike device of controlling contents play according to contents properties and driving method thereof
KR102320960B1 (en) * 2021-05-03 2021-11-02 이다인 Personalized home training behavior guidance and correction system
KR20230081949A (en) * 2021-11-30 2023-06-08 주식회사 인공지능연구원 System and method for artificial intelligence golf swing analysis/correction based on 3D character retargeting
KR102593654B1 (en) * 2021-11-30 2023-10-26 주식회사 인공지능연구원 System and method for artificial intelligence golf swing analysis/correction based on 3D character retargeting

Similar Documents

Publication Publication Date Title
US11745055B2 (en) Method and system for monitoring and feed-backing on execution of physical exercise routines
KR100772497B1 (en) Golf clinic system and application method thereof
JP2020174910A (en) Exercise support system
WO2017181717A1 (en) Electronic coaching method and system
JP2022043264A (en) Motion evaluation system
KR102320960B1 (en) Personalized home training behavior guidance and correction system
JP2021049208A (en) Exercise evaluation system
EP3786971A1 (en) Advancement manager in a handheld user device
US20230240594A1 (en) Posture assessment program, posture assessment apparatus, posture assessment method, and posture assessment system
TWI679557B (en) Adaptive sport posture sensing system and method
JP2023162333A (en) Control method of training device
WO2021261529A1 (en) Physical exercise assistance system
CN116271757A (en) Auxiliary system and method for basketball practice based on AI technology
WO2022030619A1 (en) Guidance support system
JP2021068069A (en) Providing method for unmanned training
KR102564945B1 (en) Exercise management healthcare service system using tag
JP7023004B2 (en) Motion analysis system, motion analysis program, and motion analysis method
Adolf et al. Automatic Telerehabilitation System in a Home Environment Using Computer Vision.
Gharasuie et al. Performance monitoring for exercise movements using mobile cameras
JP6465419B2 (en) Measuring apparatus and measuring method
WO2023127870A1 (en) Care support device, care support program, and care support method
JP2021099666A (en) Method for generating learning model
WO2023275940A1 (en) Posture estimation device, posture estimation system, posture estimation method
CN113842622B (en) Motion teaching method, device, system, electronic equipment and storage medium
JPWO2019008772A1 (en) PROGRAM, COMPUTER DEVICE, AND SYSTEM FOR EVALUATING MUSCLE CONDITION, AND METHOD FOR EVALUATING MUSCLE CONDITION

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190515

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401