JP2007289515A - Exercise support device and its program - Google Patents

Exercise support device and its program Download PDF

Info

Publication number
JP2007289515A
JP2007289515A JP2006122509A JP2006122509A JP2007289515A JP 2007289515 A JP2007289515 A JP 2007289515A JP 2006122509 A JP2006122509 A JP 2006122509A JP 2006122509 A JP2006122509 A JP 2006122509A JP 2007289515 A JP2007289515 A JP 2007289515A
Authority
JP
Japan
Prior art keywords
user
exercise
video data
correction
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006122509A
Other languages
Japanese (ja)
Inventor
Kaori Fujimura
香央里 藤村
Setsuko Murata
節子 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006122509A priority Critical patent/JP2007289515A/en
Publication of JP2007289515A publication Critical patent/JP2007289515A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To take exercise always appropriately without overstrain when a user takes exercise in real time by presenting the user with appropriate instruction data in accordance with the user's state or instruction content. <P>SOLUTION: In an exercise support server SV, when distributing instruction video data to user terminals UT1 to UTn, a movable range and velocity of the user's movements are detected from the user exercise video data to determine on the basis of a detection result whether or not the user needs correction of the instruction video data. At the same time, it is determined on the basis of metadata of the instruction video data whether or not the exercise changes and, on the basis of the decision result, whether or not the instruction video data are ones needing correction. As a result of the respective determinations, when it is determined that the correction of the instruction video data are needed, the instruction video data are corrected according to information stored in a correction method table 144 and the corrected instruction video data are distributed to the user terminals UT1 to UTn. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、例えば高齢者が自宅において運動を行う際にその支援を行うために使用される運動支援装置とそのプログラムに関する。   The present invention relates to an exercise support apparatus used for providing support when, for example, an elderly person exercises at home, and a program thereof.

高齢者の転倒事故は、主に加齢による筋力の低下など身体機能の衰えが原因で起こる。転倒事故による骨折は様々な障害を招き、そのまま寝たきりにつながるおそれもある。転倒事故を未然に防ぎ、骨折や寝たきりになることを予防するには、衰えていく身体機能を筋力アップによって改善することが重要であり、そのために対象者に筋力アップ体操等を行わせるための種々システムが提案されている。   The fall accident of the elderly occurs mainly due to a decline in physical functions such as a decrease in muscle strength due to aging. Fractures caused by a fall accident can cause various obstacles and can lead to bedridden. In order to prevent falling accidents and prevent fractures and bedriddenness, it is important to improve declining body functions by increasing muscle strength. Various systems have been proposed.

例えば、高齢者宅にパーソナル・コンピュータからなる利用者端末を設置し、この利用者端末に対しサーバ装置から通信ネットワークを介して指導用の映像データを配信して表示させる。高齢者は、上記表示された指導用の映像データを見ながら運動を行う。このようなシステムを使用すれば、高齢者は自宅において指導映像を手本に体操などの適切な運動を行うことが可能となる。   For example, a user terminal composed of a personal computer is installed in an elderly person's house, and instruction video data is distributed and displayed from the server device to the user terminal via a communication network. An elderly person exercises while viewing the displayed video data for guidance. If such a system is used, an elderly person can perform appropriate exercises such as gymnastic exercises using a guidance video as an example at home.

一方、例えばスキーの技術指導において、指導者が滑走しているときの映像と非指導者が滑走しているときの映像をそれぞれ撮像し、これらの映像を互いに時間的な同期をとって合成して表示する装置も提案されている。このような装置によれば、非指導者は自身のフォームと指導者のフォームとの違いを容易に比較検討することが可能となる。   On the other hand, for example, in skiing technical guidance, a video of when the instructor is sliding and a video of when the non-instructor is sliding are respectively captured, and these images are synthesized in time synchronization. A display device has also been proposed. According to such a device, the non-instructor can easily compare and examine the difference between the own form and the instructor's form.

特開2001−186471号公報JP 2001-186471 A

ところが、前者のシステムでは、サーバ装置からは予め作成された指導用の映像データがそのまま配信されて利用者端末に表示される。このため、利用者の身体的又は精神的な状態によっては、指導映像データにより示される運動の進行に利用者の運動が追従できず、利用者が指導プログラム通りの適切な運動を行えなくなったり、また利用者に無理を強いることになり、非常に好ましくなかった。   However, in the former system, the video data for guidance created in advance is distributed as it is from the server device and displayed on the user terminal. For this reason, depending on the physical or mental state of the user, the user's movement cannot follow the progress of the movement indicated by the instructional video data, and the user cannot perform an appropriate movement according to the instruction program, In addition, the user was forced to do so, which was not very desirable.

また、後者の装置では、非指導者は滑走後において自身の映像を指導者の映像と比較検討することはできるが、指導者の映像を手本にリアルタイムに運動することはできない。すなわち、運動終了後の検討にしか利用できない。このため、自律的に運動することが難しい高齢者等に対しては効果が期待できない。   In the latter device, the non-instructor can compare and examine his own image with the instructor's image after running, but cannot exercise in real time using the instructor's image as a model. That is, it can be used only for examination after the end of exercise. For this reason, the effect cannot be expected for elderly people who are difficult to exercise autonomously.

この発明は上記事情に着目してなされたもので、その目的とするところは、利用者の状態又は指導内容に応じて常に適切な指導データを利用者に提示できるようにし、これにより利用者がリアルタイムに運動を行う場合に常に無理なく適切な運動を行えるようにした運動支援装置とそのプログラムを提供することにある。   The present invention has been made by paying attention to the above circumstances, and the purpose of the present invention is to always provide appropriate instruction data to the user in accordance with the state of the user or the contents of the instruction. It is an object to provide an exercise support apparatus and a program for making it possible to perform appropriate exercises without difficulty when exercising in real time.

上記目的を達成するためにこの発明の一つの観点は、利用者が運動する際の手本となる指導データを利用者に提示する際に、上記利用者が上記指導データにより示される運動に適応可能であるか否かを判定し、適応不可能と判定された場合に上記指導データに適応可能とするための修正を加え、この修正された指導データを利用者に対し提示するようにしたものである。   In order to achieve the above object, one aspect of the present invention is that the user adapts to the exercise indicated by the instruction data when presenting instruction data to the user as an example of exercise. Judgment is made whether or not it is possible, and when it is judged that adaptation is impossible, the above-mentioned guidance data is modified to be adaptable, and the revised guidance data is presented to the user. It is.

したがって、利用者の身体的又は精神的な状態により、利用者の動きが指導データにより示される運動の進行に追従できないと予想される場合には、指導データに対し自動的に修正が加えられ、この修正された指導データが利用者に提示される。このため、利用者はリアルタイムに、無理をすることなく常に指導プログラム通りに適切な運動を行うことが可能となる。   Therefore, when it is predicted that the user's movement cannot follow the progress of the movement indicated by the instruction data due to the physical or mental state of the user, the instruction data is automatically corrected, This corrected instruction data is presented to the user. For this reason, the user can always perform an appropriate exercise according to the instruction program in real time without overdoing it.

またこの発明は次のような各種観点を備えることも特徴とする。
第1の観点は、上記判定を行う際に、利用者が過去に行った運動の様子を記録した運動映像データから利用者の動きの範囲又は速度を解析し、この解析結果に基づいて利用者が上記指導データにより示される運動に適応可能であるか否かを判定するものである。
このようにすると、例えば利用者が前回行った運動の状況をもとに、利用者が指導データにより示される運動に適応可能であるか否かが判定される。このため、利用者のその時々の状況に応じた適切な判定が可能となる。
The present invention is also characterized by having the following various viewpoints.
In the first aspect, when the above determination is made, the range or speed of the user's movement is analyzed from the motion video data recording the state of the user's previous movement, and the user is based on the analysis result. It is determined whether or not can be adapted to the exercise indicated by the instruction data.
If it does in this way, it will be judged whether a user can adapt to the exercise | movement shown by instruction | indication data based on the condition of the exercise | movement which the user performed last time. Therefore, it is possible to make an appropriate determination according to the situation of the user.

第2の観点は、利用者の運動に対する状況を表す利用者属性情報を記憶する手段を設け、上記判定を行う際に、上記記憶された利用者属性情報に基づいて、利用者が指導データにより示される運動に適応可能であるか否かを判定するものである。
このようにすると、予め記憶された利用者属性情報をもとに、利用者が指導データの運動に適応可能か否かが判定される。このため、画像解析処理などを行うことなく簡単かつ迅速な判定が可能となる。
According to a second aspect, a means for storing user attribute information representing a situation of the user's exercise is provided, and when the determination is made, the user can use the instruction data based on the stored user attribute information. It is determined whether or not it is adaptable to the indicated movement.
If it does in this way, it will be judged whether a user can adapt to exercise of instruction data based on user attribute information memorized beforehand. Therefore, it is possible to make a simple and quick determination without performing image analysis processing or the like.

第3の観点は、指導データにより示される運動の属性を表す運動属性情報を記憶する手段を設け、この記憶された運動属性情報に基づいて、利用者が指導データにより示される運動に適応可能であるか否かを判定するものである。
このようにすると、指導データにより示される運動の属性をもとに、利用者が指導データの運動に適応可能か否かが判定される。このため、たとえ利用者自身に支障がなくても、選択された指導データにより示される運動の負荷が高かったり、また指導データにより示される運動が用具を準備する必要がある場合には、適応不可能と判定されて指導データに適切な修正が加えられる。
A third aspect provides a means for storing exercise attribute information representing the exercise attribute indicated by the instruction data, and the user can adapt to the exercise indicated by the instruction data based on the stored exercise attribute information. It is determined whether or not there is.
If it does in this way, it will be judged whether a user can adapt to the exercise | movement of instruction data based on the attribute of the exercise | movement shown by instruction | indication data. For this reason, even if there is no problem for the user himself / herself, if the exercise load indicated by the selected instruction data is high, or if the exercise indicated by the instruction data needs to prepare the equipment, the indication is not applicable. Appropriate corrections are made to the guidance data as it is determined to be possible.

第4の観点は、利用者の動きの範囲又は速度の解析結果、利用者属性情報及び指導データの運動属性情報の少なくとも1つに対応付けて予め設定された修正内容を表す情報を記憶する手段を設け、適応不可能と判定された場合に、当該判定の根拠に対応する修正内容を表す情報を読み出して指導データに修正を加えるものである。
このようにすると、適応不可能と判定された場合に、指導データに対しこの判定の根拠に応じた修正処理が行われる。したがって、利用者の状況又は指導データの内容に応じ、指導データに対し常に適切な修正処理を施すことができ、これにより利用者に対し常に適切な指導データを提示することが可能となる。
According to a fourth aspect of the present invention, there is provided means for storing information representing correction contents set in advance in association with at least one of an analysis result of a user's movement range or speed, user attribute information, and exercise attribute information of guidance data When it is determined that adaptation is impossible, information indicating the correction content corresponding to the basis of the determination is read and correction is made to the guidance data.
If it does in this way, when it determines with adaptation being impossible, the correction process according to the basis of this determination will be performed with respect to guidance data. Therefore, appropriate correction processing can always be performed on the guidance data according to the user's situation or the content of the guidance data, and thus it is possible to always present appropriate guidance data to the user.

第5の観点は、指導データに対し当該指導データをスローモーション再生させるための修正処理を行うものである。このようにすると、利用者が指導データにより示される運動の速度またはテンポに追従できない場合に、指導データによる運動の速度又はテンポを遅くすることが可能となる。   The fifth aspect is to perform a correction process for causing the instruction data to be reproduced in slow motion with respect to the instruction data. In this way, when the user cannot follow the speed or tempo of the exercise indicated by the guidance data, the speed or tempo of the exercise based on the guidance data can be reduced.

第6の観点は、指導データにより示される運動の開始前又は途中に休止期間を挿入するものである。このようにすると、例えば次の運動がゴムバンドやダンベル等の運動用具を使用する場合には、当該運動の開始前に休止期間(ポーズ期間)が挿入される。このため、利用者は余裕を持って運動用具を準備することが可能となる。   A sixth aspect is to insert a pause period before or during the start of the exercise indicated by the guidance data. In this way, for example, when the next exercise uses an exercise tool such as a rubber band or a dumbbell, a pause period (pause period) is inserted before the start of the exercise. For this reason, the user can prepare the exercise equipment with a margin.

第7の観点は、修正された指導データを手本に行われた利用者の運動の状況を表す利用者映像データを記憶すると共に、上記指導データに対し加えられた修正履歴を記憶する。そして、上記記憶された利用者映像データを再生する際に、上記記憶された修正履歴をもとに上記利用者映像データから修正に対応する部分を削除し、これにより利用者映像データを再構成するものである。   According to a seventh aspect, user video data representing the state of exercise of a user who has been modeled on the corrected instruction data is stored, and a correction history added to the instruction data is stored. When the stored user video data is reproduced, the portion corresponding to the correction is deleted from the user video data based on the stored correction history, thereby reconstructing the user video data. To do.

したがって、利用者の運動の様子を撮像した利用者映像データを再生する際には、指導データに加えられた修正に対応する部分が自動的に削除された利用者映像データが再生される。このため、例えば運動のスローモーション部分は通常の速度に直されて再生され、また運動の開始前に挿入された休止期間は削除されて連続的に再生される。したがって、利用者映像データを自然な状態で再生することが可能となる。これは、特に利用者映像データを指導データと並べた状態で再生する場合に、利用者映像データを指導データと時間的な同期を保持した状態で再生表示することができるようになるので、きわめて有効である。   Therefore, when reproducing the user video data obtained by imaging the state of the user's exercise, the user video data from which the part corresponding to the correction added to the instruction data is automatically deleted is reproduced. For this reason, for example, the slow motion portion of the exercise is played back at a normal speed, and the pause period inserted before the start of the exercise is deleted and played back continuously. Therefore, it is possible to reproduce user video data in a natural state. This is especially true when the user video data is played back in a state where it is aligned with the guidance data, since the user video data can be played back and displayed in a state that keeps temporal synchronization with the guidance data. It is valid.

要するにこの発明によれば、利用者の状態又は指導内容に応じて常に適切な指導データを利用者に提示できるようになり、これにより利用者がリアルタイムに運動を行う場合に常に無理なく適切な運動を行うことができる運動支援装置とそのプログラムを提供することができる。   In short, according to the present invention, appropriate instruction data can always be presented to the user according to the user's condition or instruction contents, and therefore, when the user exercises in real time, the appropriate exercise is always reasonable. It is possible to provide an exercise support apparatus capable of performing exercises and a program thereof.

以下、図面を参照してこの発明に係わる実施形態を説明する。
(第1の実施形態)
図1は、この発明に係わる運動支援システムの第1の実施形態を示す概略構成図である。この実施形態の運動支援システムは、高齢者等の運動支援サービスを受ける利用者の自宅等にそれぞれ利用者端末UT1,UT2,…UTnを設置し、これらの利用者端末UT1,UT2,…UTnを、保健センタ、スポーツクラブ又はフィットネスクラブ等に設置される運動支援サーバ装置SVに対し通信ネットワークNWを介して接続可能としている。またそれと共に、保健師などの指導者が使用する指導者端末MTを、例えばLAN(Local Area Network)を介して上記運動支援サーバ装置SVに接続可能としている。
Embodiments according to the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a schematic configuration diagram showing a first embodiment of an exercise support system according to the present invention. In the exercise support system of this embodiment, user terminals UT1, UT2,... UTn are installed at the homes of users who receive exercise support services such as elderly people, and these user terminals UT1, UT2,. It can be connected to an exercise support server SV installed in a health center, a sports club, a fitness club, or the like via a communication network NW. At the same time, a leader terminal MT used by a leader such as a public health nurse can be connected to the exercise support server device SV via, for example, a LAN (Local Area Network).

通信ネットワークNWは、例えばインターネットに代表されるIP(Internet Protocol)網と、このIP網にアクセスするための複数のアクセス網とから構成される。アクセス網としては、例えばDSL(Digital Subscriber Line)や光伝送路を使用する有線加入者網、CATV(Cable Television)網、無線LAN(Local Area Network)網、移動通信網、専用線網が用いられる。   The communication network NW includes, for example, an IP (Internet Protocol) network represented by the Internet and a plurality of access networks for accessing the IP network. As the access network, for example, a DSL (Digital Subscriber Line) or a wired subscriber network using an optical transmission line, a CATV (Cable Television) network, a wireless LAN (Local Area Network) network, a mobile communication network, or a dedicated line network is used. .

利用者端末UT1,UT2,…UTnは、例えばパーソナル・コンピュータからなり、指導映像データの受信表示機能と、利用者映像の撮像送信機能とを備えている。これらの機能はいずれも、アプリケーション・プログラムを中央処理ユニット(CPU:Central Processing Unit)に実行させることにより実現される。   The user terminals UT1, UT2,... UTn are made of, for example, a personal computer, and are provided with a guidance video data reception display function and a user video imaging transmission function. All of these functions are realized by causing an application program to be executed by a central processing unit (CPU).

指導映像データの受信表示機能は、利用者が運動を行う際に、運動支援サーバ装置SVから配信される指導映像データを受信して保存し、この指導映像データをディスプレイに表示させる。なお、この指導映像データに楽曲や指導者の音声データが含まれている場合には、これらの楽曲又は音声データをスピーカから出力させる。利用者映像の撮像送信機能は、運動中の利用者の様子をカメラで撮像し、その映像データを利用者運動映像データとして運動支援サーバ装置SVへ送信する。また、このとき利用者の音声をマイクロホンで検出し、その音声データを上記利用者運動映像データに含めて送信する。   When the user performs exercise, the instruction video data reception display function receives and stores the instruction video data distributed from the exercise support server device SV, and displays the instruction video data on the display. If the instruction video data includes music or instructor's voice data, the music or voice data is output from the speaker. The user image capturing / transmission function captures the state of the user during exercise with a camera and transmits the image data to the exercise support server SV as user exercise image data. At this time, the user's voice is detected by a microphone, and the voice data is included in the user motion video data and transmitted.

指導者端末MTも、上記利用者端末UT1,UT2,…UTnと同様にパーソナル・コンピュータからなり、指導映像データの作成機能と、利用者運動映像データの閲覧機能とを備えている。なお、これらの機能もアプリケーション・プログラムを中央処理ユニット(CPU:Central Processing Unit)に実行させることにより実現される。   Like the user terminals UT1, UT2,... UTn, the instructor terminal MT is also composed of a personal computer and has a function for creating instruction video data and a function for browsing user exercise video data. These functions are also realized by causing an application program to be executed by a central processing unit (CPU).

指導映像データの作成機能は、指導者自身の運動の様子をカメラで撮像して指導映像データを作成し、この作成された指導映像データを指導者端末MT内の記憶装置に記憶すると共に運動支援サーバ装置SVへ送信する。利用者運動映像データの閲覧機能は、運動支援サーバ装置SVに対し利用者映像の閲覧要求を送り、これにより運動支援サーバ装置SVからダウンロードされる利用者運動映像データ及び指導映像データを受信し、これらの映像データをディスプレイに並べて表示する。   The instruction video data creation function creates instruction video data by capturing the state of exercise of the instructor with a camera, stores the created instruction video data in a storage device in the leader terminal MT, and supports exercise Transmit to server device SV. The user exercise video data browsing function sends a user video browsing request to the exercise support server device SV, thereby receiving user exercise video data and instruction video data downloaded from the exercise support server device SV, These video data are displayed side by side on a display.

次に、運動支援サーバ装置SVはWebサーバにより構成されるもので、以下のような機能を備えている。図2はその構成を示すブロック図である。
すなわち、運動支援サーバ装置SVはCPU11を備え、このCPU11にはバス12を介してプログラムメモリ13及びデータメモリ14が接続され、さらに通信インタフェース(通信I/F)15が接続されている。
Next, the exercise support server SV is constituted by a Web server and has the following functions. FIG. 2 is a block diagram showing the configuration.
That is, the exercise support server SV includes a CPU 11, to which a program memory 13 and a data memory 14 are connected via a bus 12, and a communication interface (communication I / F) 15 is further connected.

通信I/F15は、CPU11の制御の下で、利用者端末UT1〜UTn及び指導者端末MTとの間で通信ネットワークNWにより規定される通信プロトコルに従って通信を行う。通信プロトコルとしては、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)が使用される。   The communication I / F 15 performs communication with the user terminals UT1 to UTn and the instructor terminal MT according to a communication protocol defined by the communication network NW under the control of the CPU 11. For example, TCP / IP (Transmission Control Protocol / Internet Protocol) is used as the communication protocol.

データメモリ14は、例えばハードディスクやフラッシュメモリ等を記憶媒体として使用したもので、利用者映像記憶エリア141と、指導映像記憶エリア142と、指導映像メタデータ記憶エリア143と、修正方法テーブル144とを備えている。
利用者映像記憶エリア141には、利用者端末UT1〜UTnから送られた利用者運動映像データが、利用者の識別情報と日時情報と対応付けられて記憶される。指導映像記憶エリア142には、指導者端末MTから送信された指導映像データが、識別情報に対応付けられて記憶される。
The data memory 14 uses, for example, a hard disk or a flash memory as a storage medium, and includes a user video storage area 141, a guidance video storage area 142, a guidance video metadata storage area 143, and a correction method table 144. I have.
In the user video storage area 141, user motion video data sent from the user terminals UT1 to UTn is stored in association with user identification information and date / time information. In the guidance video storage area 142, guidance video data transmitted from the leader terminal MT is stored in association with identification information.

指導映像メタデータ記憶エリア143には、上記指導映像データに出現する複数の運動の属性を表すメタデータ(運動属性情報)が出現順に記憶される。図4はこのメタデータの一例を示すもので、運動ごとに、運動を識別するための運動IDと、姿勢と、道具と、運動間の姿勢又は道具の変化の有無とから構成される。   In the instructional video metadata storage area 143, metadata (exercise attribute information) representing the attributes of a plurality of exercises appearing in the instructional video data is stored in the order of appearance. FIG. 4 shows an example of this metadata, which is composed of a motion ID for identifying a motion, a posture, a tool, and a posture between motions or whether there is a change in the tool for each motion.

修正方法テーブル144には、利用者の状況に応じた指導映像データの修正の要否と、上記指導映像メタデータにより表される運動間の姿勢又は道具の変化との組み合わせの全種類に対応付けて、それぞれ適切な修正処理の内容を表す情報が記憶される。図5はこの修正方法テーブルの一例を示すものである。   The correction method table 144 is associated with all types of combinations of necessity of correction of instructional video data according to the user's situation and changes in posture or tool between exercises represented by the instructional video metadata. Thus, information representing the contents of appropriate correction processing is stored. FIG. 5 shows an example of the correction method table.

プログラムメモリ13には、利用者映像解析プログラム131と、修正要否判定プログラム132と、指導映像修正プログラム133と、指導映像配信制御プログラム134と、映像再表示制御プログラム135が格納されている。
利用者映像解析プログラム131は、利用者が過去に行った運動の様子を記録した利用者運動映像データを上記データメモリ14の利用者映像記憶エリア141から読み出し、この利用者運動映像データに対し画像処理を施すことにより、利用者の動きの範囲又は速度を解析する。そして、その解析結果に基づいて指導映像データに出現する運動に対し利用者が適応可能であるか否かを判定する処理を、前記CPU11に実行させる。
The program memory 13 stores a user video analysis program 131, a correction necessity determination program 132, a guidance video correction program 133, a guidance video distribution control program 134, and a video redisplay control program 135.
The user video analysis program 131 reads user motion video data in which the state of the exercise performed by the user in the past is read from the user video storage area 141 of the data memory 14, and an image is obtained with respect to the user motion video data. By performing the processing, the range or speed of movement of the user is analyzed. Then, the CPU 11 is caused to execute processing for determining whether or not the user can adapt to the exercise appearing in the instructional video data based on the analysis result.

修正要否判定プログラム132は、上記利用者映像解析プログラム131による利用者の適応の可否に基づいて、指導映像データの修正処理の要否を判定する。またそれと共に、上記データメモリ14の指導映像メタデータ記憶エリア143から該当するメタデータを読み出し、このメタデータをもとに指導映像データの修正処理の要否を判定する処理を、上記CPU11に実行させる。   The correction necessity determination program 132 determines whether or not the instruction video data correction processing is necessary based on whether or not the user video analysis program 131 can adapt the user. At the same time, the corresponding metadata is read from the instruction video metadata storage area 143 of the data memory 14, and the CPU 11 executes a process for determining whether or not the instruction video data correction processing is necessary based on the metadata. Let

指導映像修正プログラム133は、上記修正要否判定プログラム132により指導映像データに対する修正が必要と判定された場合に、データメモリ14の修正方法テーブル144から対応する修正処理内容を示す情報を読み出す。そして、この修正内容を示す情報に従い指導映像データに修正を施す処理を、上記CPU11に実行させる。またそれと共に、上記指導映像データに施した修正処理の履歴を表す情報を、指導映像データに対応付けてデータメモリ14の指導映像記憶エリア142に記憶させる処理を、上記CPU11に実行させる。   The instruction video correction program 133 reads information indicating the corresponding correction processing contents from the correction method table 144 of the data memory 14 when the correction necessity determination program 132 determines that the instruction video data needs to be corrected. Then, the CPU 11 is caused to execute a process for correcting the instruction video data according to the information indicating the correction content. At the same time, the CPU 11 is caused to execute a process of storing information indicating the history of the correction process applied to the instruction video data in the instruction video storage area 142 of the data memory 14 in association with the instruction video data.

指導映像配信制御プログラム134は、上記指導映像修正プログラム133により修正された指導映像データを利用者端末UT1〜UTnに向け配信する処理を、上記CPU11に実行させる。
映像再表示制御プログラム135は、指導者端末MT又は利用者端末UT1〜UTnから利用者運動映像データの再生要求が送られた場合に、当該利用者運動映像データに対応する指導映像データに修正が加えられているか否かを、上記修正処理の履歴を表す情報をもとに判定する。そして、修正が加えられている場合には、利用者運動映像データから上記修正に対応する部分を削除する処理を行って利用者運動映像データを再構成し、この再構成された利用者運動映像データを修正が施される前のオリジナルの指導映像データと共に、要求元の指導者端末MT又は利用者端末UT1〜UTnへ送信する処理を、上記CPU11に実行させる。
The instruction video distribution control program 134 causes the CPU 11 to execute processing for distributing instruction video data corrected by the instruction video correction program 133 to the user terminals UT1 to UTn.
When a reproduction request for user motion video data is sent from the instructor terminal MT or the user terminals UT1 to UTn, the video redisplay control program 135 corrects the instruction video data corresponding to the user motion video data. Whether it has been added or not is determined based on information representing the history of the correction process. If correction has been made, processing for deleting the portion corresponding to the correction from the user motion video data is performed to reconstruct the user motion video data, and this reconstructed user motion video The CPU 11 is caused to execute a process of transmitting the data to the requesting instructor terminal MT or the user terminals UT1 to UTn together with the original instruction video data before the data is corrected.

次に、以上のように構成された運動支援サーバ装置SVの動作を説明する。
このシステムの運動支援サービスを利用する場合、利用者は先ず会員登録を行う。この会員登録処理は、利用者端末UT1から運動支援サーバ装置SVに対しアクセスし、この運動支援サーバ装置SVからダウンロードされる会員登録画面において会員登録のための入力操作を行うことによりなされる。入力される情報には、利用者の氏名と属性情報、運動能力に関する情報、及び運動の目的を表す情報が含まれる。
Next, the operation of the exercise support server apparatus SV configured as described above will be described.
When using the exercise support service of this system, the user first performs membership registration. This member registration process is performed by accessing the exercise support server device SV from the user terminal UT1 and performing an input operation for member registration on the member registration screen downloaded from the exercise support server device SV. The input information includes the user's name and attribute information, information on athletic ability, and information indicating the purpose of the exercise.

これに対し運動支援サーバ装置SVは、上記利用者端末UT1から会員登録のための入力情報を受信すると、登録要求元の利用者に対して利用者IDとパスワードを発行し、この発行した利用者IDとパスワードを利用者端末UT1へ送信する。そして、上記受信された入力情報を個人データとして記憶する。利用者端末UT1は、上記運動支援サーバ装置SVから送られた利用者IDとパスワードを受信し、上記入力した個人データと共にデータメモリ内の個人データ記憶部に格納する。   On the other hand, when the exercise support server device SV receives input information for member registration from the user terminal UT1, the exercise support server device SV issues a user ID and password to the registration requesting user. The ID and password are transmitted to the user terminal UT1. The received input information is stored as personal data. The user terminal UT1 receives the user ID and password sent from the exercise support server SV, and stores them in the personal data storage unit in the data memory together with the inputted personal data.

また、上記利用者IDとパスワードの送信によって個人データの登録受け付けが完了すると、運動支援サーバ装置SVは続いて、利用者がこのシステムが提供する運動支援サービスを利用するために必要なアプリケーション・プログラムを上記利用者端末UT1へダウンロードする。これに対し利用者端末UT1は、上記運動支援サーバ装置SVからダウンロードされた各アプリケーション・プログラムを受信し、この受信された各アプリケーション・プログラムをプログラムメモリに格納する。   When the registration of personal data is completed by transmitting the user ID and password, the exercise support server SV continues to use an application program necessary for the user to use the exercise support service provided by this system. Is downloaded to the user terminal UT1. On the other hand, the user terminal UT1 receives each application program downloaded from the exercise support server device SV, and stores each received application program in the program memory.

さて、そうして利用者の会員登録に係わる一連の処理が終了すると、運動支援サーバ装置SVは、個人データ記憶エリア(図示せず)に記憶された利用者の個人データを分析し、先ず利用者に適した運動メニューを選択する。運動メニューとしては、例えば介護予防のための転倒予防体操(転倒リスクの高い高齢者向けの筋力アップ体操)、生活習慣病予防やダイエットのための健康体操(脂肪燃焼体操)、ジャズダンスやヨガ、太極拳、フラダンス、エアロビクス等があげられる。   When the series of processing related to user membership registration is completed, the exercise support server SV analyzes the user's personal data stored in a personal data storage area (not shown), and first uses it. Select an exercise menu suitable for the person. The exercise menu includes, for example, fall prevention exercises for care prevention (muscular strength exercises for elderly people with a high risk of fall), health exercises (fat burning exercises) for lifestyle-related disease prevention and diet, jazz dance and yoga, Tai Chi, hula dance, aerobics and so on.

次に運動支援サーバ装置SVは、上記選択された運動メニューを実行するためのスケジュールを作成する。例えば、運動メニューが転倒予防体操(筋力アップ体操)の場合、運動スケジュールは複数種類の準備運動と、複数種類の筋力アップ運動と、複数種類の整理運動とを時系列的に組み合わることにより構成される。準備運動としては、指の曲げ伸ばしや肘の上げ下げ、腰の曲げ伸ばし等があり、また筋力アップ運動としては爪先と踵の上げ下げや膝合わせなどがある。整理運動には呼吸運動などが含まれる。上記スケジュールには、利用者ID、担当指導者のID、上記運動の種類とその内容を表す情報、及び運動開始時刻が含まれる。
上記作成されたスケジュールデータは、運動支援サーバ装置SVの個人データ記憶エリアに保存されると共に、運動支援サーバ装置SVから利用者端末UT1及び指導者端末MTへ通知される。かくして、利用者端末UT1において利用者が運動支援サービスを受けるための準備が完了する。
Next, the exercise support server SV creates a schedule for executing the selected exercise menu. For example, if the exercise menu is fall prevention exercises (muscle strength exercises), the exercise schedule is composed by combining multiple types of preparatory exercises, multiple types of strength increase exercises, and multiple types of organizing exercises in time series. Is done. Preparatory exercises include bending and stretching of fingers, raising and lowering elbows, bending and stretching of hips, and examples of strength-up exercises include raising and lowering toes and heels and knee alignment. The organizing exercise includes breathing exercise. The schedule includes the user ID, the instructor's ID, the information indicating the type and content of the exercise, and the exercise start time.
The created schedule data is stored in the personal data storage area of the exercise support server SV, and is notified from the exercise support server SV to the user terminal UT1 and the instructor terminal MT. Thus, the preparation for the user to receive the exercise support service is completed at the user terminal UT1.

さて、上記スケジュールデータに記載された運動開始時刻になると、利用者端末UT1から運動支援サーバ装置SVへ運動開始要求が送信される。運動支援サーバ装置SVは上記運動開始要求を受信すると、以後次のように運動支援制御を実行する。
(1)指導映像データの修正配信
上記運動開始要求を受信すると運動支援サーバ装置SVのCPU11は、先に作成したスケジュールに対応する指導映像データを指導映像記憶エリア142から読み出して利用者端末UT1へ配信するが、その際この指導映像データについて、利用者の状況等に応じた修正制御を以下のように実行する。図3はその制御手順と制御内容を示すフローチャートである。
なお、ここでは説明の便宜上、利用者端末UT1の利用者が前日に同じ指導映像データを手本にした運動を行い、その様子を撮像した利用者運動映像データが運動支援サーバ装置SVの利用者映像記憶エリア141に記憶されているものとして説明を行う。
Now, when the exercise start time described in the schedule data is reached, an exercise start request is transmitted from the user terminal UT1 to the exercise support server SV. When the exercise support server SV receives the exercise start request, the exercise support server SV executes exercise support control as follows.
(1) Modified distribution of instructional video data
Upon receiving the exercise start request, the CPU 11 of the exercise support server SV reads out instruction video data corresponding to the previously created schedule from the instruction video storage area 142 and distributes it to the user terminal UT1. For data, correction control according to the situation of the user is executed as follows. FIG. 3 is a flowchart showing the control procedure and control contents.
Here, for convenience of explanation, a user of the user terminal UT1 performs an exercise using the same instruction video data as an example on the previous day, and the user exercise video data that captures the situation is a user of the exercise support server SV. The description will be made assuming that the data is stored in the video storage area 141.

すなわち、運動支援サーバ装置SVのCPU11は、先ずステップS31により上記利用者映像記憶エリア141から前日に行われた運動の様子を撮像した利用者運動映像データを読み出す。そして、ステップS32において上記読み出された利用者運動映像データから利用者の運動の可動範囲と運動の速度を解析する。この解析処理は、例えば画像間の時間差分をとり、その差分値の重心の移動量と移動速度を検出することにより行うことができる。   That is, the CPU 11 of the exercise support server SV first reads out user exercise video data obtained by imaging the state of exercise performed on the previous day from the user video storage area 141 in step S31. In step S32, the range of motion of the user and the speed of motion are analyzed from the read user motion image data. This analysis process can be performed, for example, by taking a time difference between images and detecting the moving amount and moving speed of the center of gravity of the difference value.

続いてCPU11は、上記運動の可動範囲と運動の速度の解析結果をもとに、利用者が指導映像データの修正を必要とする修正対象者であるか否かをステップS33により判定する。例えば、運動の可動範囲が指導映像データをもとに設定された最小範囲に達していないか、又は運動の速度が指導映像データをもとに設定された下限速度に達していなかった場合には、利用者の動きが指導映像の動きに追従できていないと見なし、利用者は指導映像データの修正を必要とする修正対象者と判定する。これに対し、運動の可動範囲が上記最小範囲以上であるか、又は運動の速度が下限速度以上だった場合には、利用者の動きは指導映像の動きに追従できていると見なし、利用者は指導映像データの修正を必要とする修正対象者ではないと判定する。   Subsequently, the CPU 11 determines in step S33 whether or not the user is a correction target person who needs to correct the instructional video data based on the analysis result of the movable range of the movement and the speed of the movement. For example, if the movement range of exercise does not reach the minimum range set based on the instructional video data, or the speed of exercise does not reach the lower limit speed set based on the instructional video data The user's movement is regarded as not following the movement of the guidance video, and the user is determined to be a correction target person who needs to correct the guidance video data. On the other hand, if the movement range of the exercise is equal to or greater than the above minimum range, or the velocity of the exercise is equal to or greater than the lower limit velocity, it is considered that the user's movement is following the movement of the instruction video, Is determined not to be a correction target person who requires correction of instructional video data.

次にCPU11は、ステップS34に移行して次に行われる運動の指導映像メタデータを読み出す。そして、このメタデータをもとに、次に行われる運動は修正対象か否かをステップS35において判定する。例えば、いま指導映像メタデータが図4に示すように構成されていたとする。この場合CPU11は、次に行われる運動が第1番目の運動であれば、この第1番目の運動の内容は姿勢及び道具が変化しないため、修正の必要がないと判定する。これに対し、次に行われる運動が第2番目の運動であれば、この運動は道具を使用するため修正の必要があると判定する。同様に、次に行われる運動が第3番目の運動であれば、この運動は姿勢が立位から椅子を使用する姿勢に変化するため、修正の必要があると判定する。   Next, the CPU 11 proceeds to step S34 and reads instruction video metadata of the exercise to be performed next. Then, based on this metadata, it is determined in step S35 whether or not the next exercise is to be corrected. For example, assume that the instructional video metadata is configured as shown in FIG. In this case, if the exercise to be performed next is the first exercise, the CPU 11 determines that the content of the first exercise does not need to be corrected because the posture and tool do not change. On the other hand, if the exercise to be performed next is the second exercise, it is determined that the exercise needs to be corrected because the tool is used. Similarly, if the exercise to be performed next is the third exercise, it is determined that the exercise needs to be corrected because the posture changes from the standing posture to the posture using the chair.

そうして利用者に対する判定と、運動内容に対する判定が終了すると、CPU11はステップS36に移行し、ここで上記ステップS33による判定結果と、上記ステップS35による判定結果に基づいて、指導映像に対し修正が必要か否かを判定する。この判定の結果、修正の必要がなければ、ステップS37に移行して上記次に行われる運動に対応する指導映像データを指導映像記憶エリア142から読み出し、この指導映像データをそのまま利用者端末UT1へ配信する。この結果、利用者端末UT1では上記運動に対応する指導映像が表示され、利用者はこの指導映像を見ながら運動を開始する。   When the determination on the user and the determination on the exercise content are completed, the CPU 11 proceeds to step S36, where the instruction video is corrected based on the determination result in step S33 and the determination result in step S35. Whether or not is necessary. As a result of this determination, if there is no need for correction, the process proceeds to step S37, where instruction video data corresponding to the next exercise is read from the instruction video storage area 142, and this instruction video data is directly sent to the user terminal UT1. To deliver. As a result, the instruction video corresponding to the exercise is displayed on the user terminal UT1, and the user starts the exercise while watching the instruction video.

一方、上記ステップS36において、次に行われる運動に対し修正する必要があると判定したとする。この場合CPU11はステップS38に移行し、ここで修正方法テーブル144から修正方法を表す情報を読み出す。そして、ステップS39において、上記読み出した修正方法を表す情報に従い、次に行われる運動に対応する指導映像データに対し修正を加える。   On the other hand, in step S36, it is determined that it is necessary to correct the next exercise. In this case, the CPU 11 proceeds to step S38, and reads information representing the correction method from the correction method table 144. In step S39, the instruction video data corresponding to the exercise to be performed next is corrected according to the information indicating the read correction method.

例えば、いま運動の内容に変化はないが利用者が修正対象者だったとする。この場合CPU11は、修正方法テーブルから処理内容として「スローモーション」が読み出されるので、次に行われる運動に対応する指導映像データに対しスローモーション加工を施す。そして、この修正された指導映像データをステップS40により利用者端末UT1へ配信する。この結果、利用者端末UT1では、上記修正された指導映像データに従い運動の映像がスローモーション再生される。したがって、利用者はこの指導映像を見ながら余裕を持って運動を行うことができる。   For example, it is assumed that there is no change in the content of the exercise, but the user is the person to be corrected. In this case, since “slow motion” is read out as the processing content from the correction method table, the CPU 11 performs slow motion processing on the instruction video data corresponding to the next exercise. And this corrected instruction | indication video data is delivered to user terminal UT1 by step S40. As a result, in the user terminal UT1, the motion video is played back in slow motion according to the corrected instruction video data. Therefore, the user can exercise with a margin while watching the instructional video.

また、利用者が修正対象者でかつ運動に姿勢変化がある場合には、修正方法テーブル144から処理内容として「ポーズ15秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に15秒間のポーズを挿入するための修正を加える。さらに、運動道具がゴムバンドに変化する場合には、修正方法テーブル144から処理内容として「ポーズ+15秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に挿入するポーズ期間の長さをさらに15秒間延長させるための修正を加える。   Further, when the user is a person to be corrected and there is a posture change in the exercise, “pause 15 seconds” is read from the correction method table 144 as the processing content. Therefore, the CPU 11 adds a correction for inserting a 15-second pose before starting the exercise to the instruction video data corresponding to the exercise to be performed next. Further, when the exercise tool changes to a rubber band, “pause + 15 seconds” is read from the correction method table 144 as the processing content. Therefore, the CPU 11 modifies the instruction video data corresponding to the next exercise to extend the length of the pause period inserted before starting the exercise for another 15 seconds.

そうして指導映像データの修正処理が終了すると、CPU11はステップS40により修正された指導映像データを利用者端末UT1へ配信する。この結果、利用者端末UT1では、上記修正された指導映像データに従い運動の開始タイミングが上記ポーズ期間だけに遅延する。したがって、利用者はこのポーズ期間に姿勢変化のための準備や運動道具の準備を行うことができる。   Then, when the instruction video data correction process is completed, the CPU 11 delivers the instruction video data corrected in step S40 to the user terminal UT1. As a result, in the user terminal UT1, the exercise start timing is delayed only by the pause period in accordance with the corrected instruction video data. Therefore, the user can make preparations for posture change and preparation of exercise equipment during this pose period.

また、上記指導映像データに対する修正処理を行った場合にCPU11は、上記指導映像データに施した修正処理の内容と修正位置を表す情報を作成し、この情報にさらに配信対象の利用者IDと日時情報を加え、この情報を修正履歴情報として修正対象の指導映像データに対応付けてデータメモリ14の指導映像記憶エリア142に記憶させる。   Further, when the correction process is performed on the instruction video data, the CPU 11 creates information indicating the content and the correction position of the correction process performed on the instruction video data, and further adds the user ID to be distributed and the date / time to this information. Information is added, and this information is stored as correction history information in the instruction video storage area 142 of the data memory 14 in association with the instruction video data to be corrected.

上記一つの運動に対応する指導映像データの配信が終了するとCPU11は、すべての運動が終了したか否かをステップS41で判定する。そして、次の運動が残っている場合にはステップS34に戻る。そして、このステップS34により、次に行われる運動に対応するメタデータを指導映像メタデータ記憶エリア143から読み出し、ステップS35において上記次の運動は修正が必要な運動か否かを判定する。   When the distribution of the instructional video data corresponding to the one exercise is completed, the CPU 11 determines in step S41 whether or not all the exercises are completed. If the next exercise remains, the process returns to step S34. In step S34, metadata corresponding to the exercise to be performed next is read from the instruction video metadata storage area 143. In step S35, it is determined whether or not the next exercise is an exercise requiring correction.

続いて、ステップS36により、先にステップS33により得られた判定結果と、上記ステップS35により新たに得られた判定結果に基づいて、指導映像に対し修正が必要か否かを判定する。そして、この判定結果、修正が必要であればステップS38により修正方法を表す情報を読み出し、ステップS39により次に行われる運動に対応する指導映像データに対し修正を加えたのち、ステップS40により利用者端末UT1へ配信する。これに対し修正が不要であれば、ステップS37に移行して次に行われる運動に対応する指導映像データをそのまま利用者端末UT1へ配信する。これに対しスケジュールで決められたすべての運動が終了すると、CPU11は指導映像データの配信制御を終了する。   Subsequently, in step S36, it is determined whether or not the instruction video needs to be corrected based on the determination result obtained in step S33 and the determination result newly obtained in step S35. If the determination result shows that correction is necessary, information indicating the correction method is read out in step S38, the instruction video data corresponding to the exercise to be performed next is corrected in step S39, and then the user is determined in step S40. Deliver to terminal UT1. On the other hand, if correction is unnecessary, the process proceeds to step S37, and the instruction video data corresponding to the exercise to be performed next is delivered to the user terminal UT1 as it is. On the other hand, when all the exercises determined by the schedule are finished, the CPU 11 finishes the distribution control of the instructional video data.

(2)利用者映像の蓄積及び再生制御
利用者の運動中又は運動終了後に運動支援サーバ装置SVのCPU11は、以下のように利用者運動映像データの蓄積及び再生制御を実行する。図6はその制御手順と制御内容を示すフローチャートである。
すなわち、利用者の運動中又は運動終了後に運動支援サーバ装置SVのCPU11は、ステップS61及びステップS66においてそれぞれ、利用者端末UT1からの利用者運動映像データの蓄積要求の到来と、指導者端末MTからの蓄積映像の閲覧要求の到来を監視する。
(2) User video storage and playback control
The CPU 11 of the exercise support server device SV executes accumulation and reproduction control of user exercise video data as follows during or after exercise of the user. FIG. 6 is a flowchart showing the control procedure and control contents.
That is, during or after the user's exercise, the CPU 11 of the exercise support server SV receives a request for accumulation of user exercise video data from the user terminal UT1 and an instructor terminal MT in steps S61 and S66, respectively. Monitors the arrival of browsing requests for stored video from.

この状態で、利用者端末UT1から利用者運動映像データの蓄積要求が到来すると、CPU11はステップS62により以後利用者端末UT1から送信される利用者の運動の様子を撮像した映像データを受信し、この受信した映像データをステップS63により利用者映像記憶エリア141に順次記憶させる。また、このときCPU11は、ステップS64において、利用者IDと、運動ID及びその運動開始・終了日時を表すタイムスタンプを上記映像データに付加して記憶させる。そしてCPU11は、ステップS65により利用者運動映像データの受信が終了したか否かを判定し、受信が終了するまで上記ステップS62〜ステップS64による映像データの蓄積処理を繰り返す。   In this state, when a storage request for user motion video data arrives from the user terminal UT1, the CPU 11 receives video data that captures the state of user motion transmitted from the user terminal UT1 in step S62, The received video data is sequentially stored in the user video storage area 141 in step S63. At this time, in step S64, the CPU 11 stores the user ID, the exercise ID, and the time stamp indicating the exercise start / end date and time in addition to the video data. Then, the CPU 11 determines whether or not the user motion video data has been received in step S65, and repeats the video data accumulation process in steps S62 to S64 until the reception is completed.

一方、利用者運動映像データが蓄積された状態で、指導者端末MTから蓄積映像の閲覧要求が到来したとする。そうするとCPU11は、ステップS67により閲覧対象の利用者運動映像データを運動ごとに利用者映像記憶エリア141から読み出すと共に、当該利用者運動映像データに対応する指導映像データを指導映像データ記憶エリア142から読み出す。また、ステップS68により、修正履歴情報を指導映像データ記憶エリア142から読み出す。   On the other hand, it is assumed that a request for browsing the stored video is received from the instructor terminal MT in a state where the user motion video data is stored. Then, in step S67, the CPU 11 reads the user motion video data to be browsed from the user video storage area 141 for each exercise, and reads the guidance video data corresponding to the user motion video data from the guidance video data storage area 142. . In step S68, the correction history information is read from the instructional video data storage area 142.

続いてCPU11は、ステップS69において上記指導映像データに対し修正が加えられているか否かを、運動ごとに上記修正履歴情報をもとに判定する。そして、この判定の結果、修正が加えられていなければ、ステップS71により当該運動に対応する利用者運動映像データと指導映像データとを合成して1画面の再生用映像データを生成し、この再生用映像データを要求元の指導者端末MTへ送信する。この結果、指導者端末MTでは、利用者運動映像データと指導映像データとが合成された映像データがディスプレイに表示される。   Subsequently, the CPU 11 determines whether or not the instruction video data has been corrected in step S69 based on the correction history information for each exercise. If no correction is made as a result of this determination, the user motion video data corresponding to the motion and the guidance video data are synthesized in step S71 to generate video data for one screen playback. Video data is transmitted to the instructor terminal MT as a request source. As a result, in the leader terminal MT, video data obtained by combining the user exercise video data and the guidance video data is displayed on the display.

そうして一つの運動に対応する再生用映像データの送信が終了すると、CPU11はステップS72からステップS67に戻る。そして、次の運動に対応する利用者運動映像データ及び指導映像データを読み出すと共に、ステップS68により修正履歴情報を読み出し、この修正履歴情報をもとにステップS69により上記指導映像データに対し修正が加えられているか否かを判定する。   When the transmission of the reproduction video data corresponding to one exercise is completed, the CPU 11 returns from step S72 to step S67. Then, the user motion video data and the instruction video data corresponding to the next exercise are read out, and the correction history information is read out in step S68, and the instruction video data is corrected in step S69 based on the correction history information. It is determined whether or not

この判定の結果、修正が加えられていたとすると、CPU11はステップS70に移行し、ここで上記修正履歴情報をもとに、利用者運動映像データから指導映像データの修正部分に対応する部分を再構成する。例えば、指導映像データにスローモーション加工がなされている場合には、この指導映像データのスローモーション加工部分に対応する利用者運動映像データの部分を早送りするべくように再構成する。また、指導映像データの開始前にポーズ期間が挿入されている場合には、当該指導映像データのポーズ期間に対応する利用者運動映像データの時間部分を削除する。   As a result of this determination, if the correction has been made, the CPU 11 proceeds to step S70, where the part corresponding to the corrected part of the instructional video data is restored from the user motion video data based on the correction history information. Constitute. For example, when slow motion processing is performed on the guidance video data, the user motion video data corresponding to the slow motion processing portion of the guidance video data is reconfigured to be fast-forwarded. If a pause period is inserted before the start of the instruction video data, the time portion of the user motion image data corresponding to the pause period of the instruction video data is deleted.

そうして利用者運動映像データの再構成処理が終了すると、CPU11はステップ71において、当該再構成された利用者運動映像データと、修正が加えられていないオリジナルの指導映像データとを合成して、1画面の再生用映像データを生成する。そして、この再生用映像データを要求元の指導者端末MTへ送信する。この結果、指導者端末MTでは、スローモーションやポーズ期間が削除された利用者運動映像データとオリジナルの指導映像データとが合成された映像データがディスプレイに表示される。   When the reconstruction process of the user motion video data is completed, the CPU 11 combines the reconstructed user motion video data with the original instruction video data not corrected in step 71. One-screen playback video data is generated. Then, this video data for reproduction is transmitted to the instructor terminal MT as a request source. As a result, on the instructor terminal MT, video data obtained by synthesizing the user motion video data from which the slow motion or pause period has been deleted and the original instruction video data is displayed on the display.

すなわち、指導者端末MTでは、利用者運動映像データとオリジナルの指導映像データとが、常に時間的な同期がとられた状態で並べて表示される。図7はその表示結果の一例を示すもので、IMは指導者の映像を、またIUは閲覧対象である利用者Aさんの映像を示している。したがって指導者は、利用者の運動の様子を撮像した映像を指導映像と常時時間的な対応がとれた状態で対比することができる。   That is, on the instructor terminal MT, the user exercise video data and the original instruction video data are always displayed side by side in a time-synchronized state. FIG. 7 shows an example of the display result. IM shows the video of the instructor, and IU shows the video of the user A who is the browsing target. Therefore, the instructor can compare the image obtained by capturing the state of the user's exercise with the instruction image in a state in which a temporal correspondence is always obtained.

以上述べたように第1の実施形態では、運動支援サーバ装置SVにおいて、利用者端末UT1〜UTnへ指導映像データを配信する際に、利用者が指導映像データの修正を必要とする修正対象者か否かを判定する。またそれと共に、指導映像データのメタデータをもとに運動の変化の有無を判定して、その判定結果をもとに当該指導映像データが修正を必要とするデータか否かを判定する。そして、上記各判定の結果、指導映像データの修正が必要と判定されると、修正方法テーブル144に記憶された情報に従い指導映像データを修正し、この修正された指導映像データを利用者端末UT1〜UTnへ配信するようにしている。   As described above, in the first embodiment, when the instruction video data is distributed to the user terminals UT1 to UTn in the exercise support server device SV, a correction target person who needs to correct the instruction video data. It is determined whether or not. At the same time, the presence or absence of a change in exercise is determined based on the metadata of the instructional video data, and it is determined whether the instructional video data is data that needs to be corrected based on the determination result. If it is determined that the instruction video data needs to be corrected as a result of each determination, the instruction video data is corrected in accordance with the information stored in the correction method table 144, and the corrected instruction video data is used as the user terminal UT1. It is trying to deliver to UTn.

したがって第1の実施形態によれば、利用者の身体的な状態により、利用者の動きが指導映像データにより示される運動の進行に追従できないと予想される場合には、指導映像データに対し自動的に修正が加えられ、この修正された指導映像データが利用者端末UT1〜UTnに配信されて表示される。このため、利用者は指導映像にしたがってリアルタイムに、しかも無理をすることなく効果的な運動を行うことが可能となる。   Therefore, according to the first embodiment, when it is predicted that the movement of the user cannot follow the progress of the movement indicated by the guidance video data due to the physical state of the user, the guidance video data is automatically processed. The instruction video data thus corrected is distributed to the user terminals UT1 to UTn and displayed. For this reason, the user can perform an effective exercise according to the instruction video in real time and without excessive effort.

また、前回の利用者運動映像データから利用者の動きの可動範囲及び速度を検出して、その検出結果をもとに当該利用者が指導映像データの修正を必要とする修正対象者か否かを判定するようにしている。このため、利用者が前回行った運動の様子をもとに、利用者が指導映像データにより示される運動に適応可能であるか否かを判定することができる。このため、利用者のその時々の状況に応じた適切な判定が可能となる。   In addition, the movable range and speed of the user's movement are detected from the previous user motion video data, and whether or not the user is a correction target who needs to correct the guidance video data based on the detection result. Is determined. Therefore, it is possible to determine whether or not the user can adapt to the exercise indicated by the instructional video data based on the state of the exercise performed by the user last time. Therefore, it is possible to make an appropriate determination according to the situation of the user.

さらに、上記したように指導映像データのメタデータをもとに運動の変化の有無を判定して、その判定結果をもとに当該指導映像データが修正を必要とするデータか否かを判定するようにしている。このため、たとえ利用者自身に支障がなくても、選択された指導データにより示される運動が用具を準備する必要がある場合には、適応不可能と判定されて指導映像データに適切な修正を加えることができる。   Furthermore, as described above, the presence / absence of a change in exercise is determined based on the metadata of the instructional video data, and it is determined whether the instructional video data is data that requires correction based on the determination result. I am doing so. For this reason, even if there is no problem for the user himself / herself, when the exercise indicated by the selected instruction data needs to prepare the equipment, it is determined that adaptation is not possible and the instruction video data is appropriately corrected. Can be added.

さらに、修正方法テーブル144に記憶された修正内容を表す情報に従い、指導映像データを修正するようにしている。このため、利用者の状況又は指導データの内容に応じ、指導映像データに対し常に適切な修正処理を施すことができ、これにより利用者に対し常に適切な指導データを提示することが可能となる。   Further, the instruction video data is corrected in accordance with the information indicating the correction content stored in the correction method table 144. For this reason, it is possible to always apply appropriate correction processing to the instruction video data according to the situation of the user or the contents of the instruction data, and thus it is possible to always present appropriate instruction data to the user. .

さらに第1の実施形態では、修正された指導映像データを手本に行われた利用者の運動の状況を表す利用者映像データを記憶すると共に、上記指導映像データに対し加えられた修正の内容を表す修正履歴情報を記憶する。そして、上記記憶された利用者映像データを再生する際に、上記記憶された修正履歴情報をもとに上記利用者映像データから修正に対応する部分を削除し、これにより利用者映像データを再構成するようにしている。   Further, in the first embodiment, user video data representing the state of exercise of the user performed using the corrected instructional video data as a model is stored, and the content of the correction added to the instructional video data Is stored. Then, when the stored user video data is reproduced, the portion corresponding to the correction is deleted from the user video data based on the stored correction history information, and the user video data is re-generated. I am trying to configure it.

したがって、利用者の運動の様子を撮像した利用者映像データを再生する際には、指導映像データに加えられた修正に対応する部分が自動的に削除された利用者映像データが再構成され、指導者端末MTに表示される。このため、利用者運動映像データとオリジナルの指導映像データとを、常に時間的な同期がとられた状態で並べて表示することができる。したがって指導者は、利用者の運動の様子を撮像した映像を指導映像と常に時間的な対応がとれた状態で対比することが可能となる。   Therefore, when playing back user video data that captures the state of the user's exercise, the user video data from which the part corresponding to the correction added to the guidance video data is automatically deleted is reconstructed, It is displayed on the leader terminal MT. For this reason, it is possible to display the user exercise video data and the original instruction video data side by side in a state that is always synchronized in time. Therefore, the instructor can compare the image obtained by capturing the state of the user's exercise with the instruction image in a state in which temporal correspondence is always obtained.

(第2の実施形態)
この発明の第2の実施形態は、利用者の運動に対する状況を表す利用者属性情報を記憶する利用者情報テーブルを設け、この利用者情報テーブルの内容に応じて利用者が指導映像データの修正を必要とする修正対象者か否かを判定する。また、利用者の属性情報と、運動の姿勢変化の有無及び道具の使用の可否のすべての組み合わせに対応付けて修正内容を表す情報を記憶した修正方法テーブルを設け、この修正方法テーブルに記憶された修正方法の内容を表す情報に従い指導映像データに修正を加えて配信するようにしたものである。
(Second Embodiment)
The second embodiment of the present invention provides a user information table for storing user attribute information representing the situation of the user's exercise, and the user modifies the instruction video data according to the contents of the user information table. It is determined whether or not the person is a correction target person who needs In addition, a correction method table storing information indicating the correction contents in association with all combinations of user attribute information, presence / absence of change in posture of exercise and use / non-use of tools is provided, and stored in the correction method table. According to the information representing the contents of the correction method, the instructional video data is corrected and distributed.

図8は、この発明の第2の実施形態に係わる運動支援サーバ装置の機能構成を示すブロック図である。なお、同図において前記図2と同一部分には同一符号を付して詳しい説明は省略する。
データメモリ14には、利用者情報データベース145が設けてある。この利用者情報データベース145には、例えば図10に示すように、利用者IDに対応付けて要介護度を表す情報と、運動に対する道具の使用の可否及び姿勢の可否を表す情報が記憶されている。
FIG. 8 is a block diagram showing a functional configuration of the exercise support server device according to the second embodiment of the present invention. In the figure, the same parts as those in FIG.
The data memory 14 is provided with a user information database 145. In this user information database 145, for example, as shown in FIG. 10, information indicating the degree of care required in association with the user ID, and information indicating whether or not the tool can be used for exercise and whether or not the posture is stored are stored. Yes.

また修正方法テーブル144′には、上記利用者情報データベース145に記憶された要介護度を表す情報と、運動に対する道具の使用の可否及び姿勢の可否を表す情報とのすべての組み合わせに対応付けて、修正内容を表す情報が記憶されている。図11にその一例を示す。   The correction method table 144 ′ is associated with all combinations of information indicating the degree of care required stored in the user information database 145 and information indicating whether or not the tool can be used for exercise and whether or not the posture can be used. Information indicating correction contents is stored. An example is shown in FIG.

プログラムメモリ13には、利用者属性解析プログラム136が新たに記憶されている。この利用者属性解析プログラム136は、上記利用者情報データベース145に記憶された利用者属性情報に基づいて、利用者が指導映像データの修正を必要とする修正対象者か否かを判定する処理を、CPU11に実行させる。   A user attribute analysis program 136 is newly stored in the program memory 13. The user attribute analysis program 136 performs a process of determining whether or not the user is a correction target person who needs to correct the instructional video data based on the user attribute information stored in the user information database 145. CPU11 is made to perform.

また指導映像修正プログラム133′は、修正要否判定プログラム132により指導映像データに対する修正が必要と判定された場合に、データメモリ14の修正方法テーブル144′から対応する修正処理内容を示す情報を読み出す。そして、この修正内容を示す情報に従い指導映像データに修正を施す処理を、上記CPU11に実行させる。またそれと共に、上記指導映像データに施した修正処理の履歴を表す情報を、指導映像データに対応付けてデータメモリ14の指導映像記憶エリア142に記憶させる処理を、上記CPU11に実行させる。   The instruction video correction program 133 ′ reads out information indicating the corresponding correction processing contents from the correction method table 144 ′ of the data memory 14 when the correction necessity determination program 132 determines that the instruction video data needs to be corrected. . Then, the CPU 11 is caused to execute a process for correcting the instruction video data according to the information indicating the correction content. At the same time, the CPU 11 is caused to execute a process of storing information indicating the history of the correction process applied to the instruction video data in the instruction video storage area 142 of the data memory 14 in association with the instruction video data.

次に、以上のように構成された運動支援サーバ装置SVによる指導映像データの修正配信制御動作を説明する。図9はその制御手順と制御内容を示すフローチャートである。なお、同図において前記図3と同一部分には同一符号を付して詳しい説明は省略する。
運動支援サーバ装置SVのCPU11は、先ずステップS91によりデータメモリ14の利用者情報データベース145から配信先となる利用者の属性情報を読み出す。そしてステップS33において、上記読み出した利用者属性情報をもとに、当該利用者が指導映像データの修正を必要とする修正対象者か否かを判定する。例えば、図10に示すように利用者ID=1の利用者と利用者ID=2の利用者については、ともに要介護度が“1”であり、道具の使用及び姿勢の変化に支障がないので、修正を必要としない非修正対象者と判定する。これに対し、利用者ID=4の利用者については、要介護度が“5”であり、姿勢については「立位不可」であるため、修正を必要とする修正対象者と判定する。
Next, the correction delivery control operation of the instructional video data by the exercise support server device SV configured as described above will be described. FIG. 9 is a flowchart showing the control procedure and control contents. In the figure, the same parts as those in FIG.
First, the CPU 11 of the exercise support server SV reads the attribute information of the user as the delivery destination from the user information database 145 of the data memory 14 in step S91. In step S33, based on the read user attribute information, it is determined whether or not the user is a correction target person who needs to correct the instructional video data. For example, as shown in FIG. 10, for the user with user ID = 1 and the user with user ID = 2, the degree of care required is “1”, and there is no hindrance to the use of tools and changes in posture. Therefore, it is determined that the person is a non-correction target who does not need correction. On the other hand, for the user with user ID = 4, the degree of care required is “5”, and the posture is “impossible to stand”, so it is determined that the user is to be corrected.

次にCPU11は、ステップS34に移行し、ここで前記第1の実施形態で述べたように、次に行われる運動の指導映像メタデータを読み出す。そして、このメタデータをもとに、次に行われる運動は修正対象か否かをステップS35において判定する。続いてCPU11は、ステップS36において、上記ステップS33による判定結果と、上記ステップS35による判定結果に基づいて、指導映像に対し修正が必要か否かを判定する。この判定の結果、修正の必要がなければ、ステップS37に移行して上記次に行われる運動に対応する指導映像データを指導映像記憶エリア142から読み出し、この指導映像データをそのまま利用者端末UT1へ配信する。   Next, the CPU 11 proceeds to step S34, and reads the instruction video metadata of the exercise to be performed next, as described in the first embodiment. Then, based on this metadata, it is determined in step S35 whether or not the next exercise is to be corrected. Subsequently, in step S36, the CPU 11 determines whether or not the instruction video needs to be corrected based on the determination result in step S33 and the determination result in step S35. As a result of this determination, if there is no need for correction, the process proceeds to step S37, where instruction video data corresponding to the next exercise is read from the instruction video storage area 142, and this instruction video data is directly sent to the user terminal UT1. To deliver.

一方、上記ステップS36において、次に行われる運動に対し修正する必要があると判定したとする。この場合CPU11はステップS38に移行し、ここで修正方法テーブル144′から修正方法を表す情報を読み出す。そして、ステップS39において、上記読み出した修正方法を表す情報に従い、次に行われる運動に対応する指導映像データに対し修正を加える。   On the other hand, in step S36, it is determined that it is necessary to correct the next exercise. In this case, the CPU 11 proceeds to step S38, and reads information representing the correction method from the correction method table 144 ′. In step S39, the instruction video data corresponding to the exercise to be performed next is corrected according to the information indicating the read correction method.

例えば、いま仮に利用者端末UT1の利用者が要介護度4であり、次に行われる運動に姿勢変化がなくかつ道具も使用しないとすると、修正方法テーブル144′から修正内容として「スローモーション」が読み出される。このため、次に行われる運動に対応する指導映像データに対しスローモーション加工を施す。そして、この修正された指導映像データをステップS40により利用者端末UT1へ配信する。この結果、利用者端末UT1では、上記修正された指導映像データに従い運動の映像がスローモーション再生される。したがって、利用者はこの指導映像を見ながら余裕を持って運動を行うことができる。   For example, if the user of the user terminal UT1 has a degree of care required of 4, and there is no change in posture in the next exercise and no tool is used, the correction method table 144 ′ shows “slow motion” as the correction contents. Is read out. For this reason, the slow motion processing is applied to the instruction video data corresponding to the next exercise. And this corrected instruction | indication video data is delivered to user terminal UT1 by step S40. As a result, in the user terminal UT1, the motion video is played back in slow motion according to the corrected instruction video data. Therefore, the user can exercise with a margin while watching the instructional video.

また、利用者が要介護度“4”以上で修正対象者であり、かつ運動に姿勢変化がある場合には、修正方法テーブル144′から処理内容として「ポーズ30秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に30秒間のポーズを挿入するための修正を加える。同様に、利用者が要介護度“3”以下で非修正対象者であるが、運動に姿勢変化がある場合には、修正方法テーブル144′から処理内容として「ポーズ15秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に15秒間のポーズを挿入するための修正を加える。   If the user is a person requiring correction with a degree of care required of “4” or more and there is a change in posture in exercise, “pause 30 seconds” is read from the correction method table 144 ′ as the processing content. For this reason, the CPU 11 adds correction for inserting a pause for 30 seconds to the instruction video data corresponding to the exercise to be performed next before the exercise starts. Similarly, if the user is a non-correction target person with a degree of care required of “3” or less, but there is a change in posture in the exercise, “pause 15 seconds” is read as the processing content from the correction method table 144 ′. Therefore, the CPU 11 adds a correction for inserting a 15-second pose before starting the exercise to the instruction video data corresponding to the exercise to be performed next.

さらに、運動道具がゴムバンドに変化する場合には、修正方法テーブル144′から処理内容として「ポーズ+15秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に挿入するポーズ期間の長さをさらに15秒間延長させるための修正を加える。同様に、運動道具がダンベルに変化する場合には、修正方法テーブル144′から処理内容として「ポーズ+10秒」が読み出される。このためCPU11は、次に行われる運動に対応する指導映像データに対し、運動開始前に挿入するポーズ期間の長さをさらに10秒間延長させるための修正を加える。   Further, when the exercise tool changes to a rubber band, “pause + 15 seconds” is read as the processing content from the correction method table 144 ′. Therefore, the CPU 11 modifies the instruction video data corresponding to the next exercise to extend the length of the pause period inserted before starting the exercise for another 15 seconds. Similarly, when the exercise tool changes to a dumbbell, “pause + 10 seconds” is read as the processing content from the correction method table 144 ′. Therefore, the CPU 11 modifies the instruction video data corresponding to the exercise to be performed next to extend the length of the pause period to be inserted before the exercise starts for another 10 seconds.

そうして指導映像データの修正処理が終了すると、CPU11はステップS40により修正された指導映像データを利用者端末UT1へ配信する。この結果、利用者端末UT1では、上記修正された指導映像データに従い運動の開始タイミングが上記ポーズ期間だけに遅延する。したがって、利用者はこのポーズ期間に姿勢変化のための準備や運動道具の準備を行うことができる。   Then, when the instruction video data correction process is completed, the CPU 11 delivers the instruction video data corrected in step S40 to the user terminal UT1. As a result, in the user terminal UT1, the exercise start timing is delayed only by the pause period in accordance with the corrected instruction video data. Therefore, the user can make preparations for posture change and preparation of exercise equipment during this pose period.

また、上記指導映像データに対する修正処理を行った場合にCPU11は、上記指導映像データに施した修正処理の内容と修正位置を表す情報を作成し、この情報にさらに配信対象の利用者IDと日時情報を加え、この情報を修正履歴情報として修正対象の指導映像データに対応付けてデータメモリ14の指導映像記憶エリア142に記憶させる。   Further, when the correction process is performed on the instruction video data, the CPU 11 creates information indicating the content and the correction position of the correction process performed on the instruction video data, and further adds the user ID to be distributed and the date / time to this information. Information is added, and this information is stored as correction history information in the instruction video storage area 142 of the data memory 14 in association with the instruction video data to be corrected.

上記一つの運動に対応する指導映像データの配信が終了するとCPU11は、すべての運動が終了したか否かをステップS41で判定する。そして、次の運動が残っている場合にはステップS34に戻る。そして、このステップS34により、次に行われる運動に対応するメタデータを指導映像メタデータ記憶エリア143から読み出し、ステップS35において上記次の運動は修正が必要な運動か否かを判定する。   When the distribution of the instructional video data corresponding to the one exercise is completed, the CPU 11 determines in step S41 whether or not all the exercises are completed. If the next exercise remains, the process returns to step S34. In step S34, metadata corresponding to the exercise to be performed next is read from the instruction video metadata storage area 143. In step S35, it is determined whether or not the next exercise is an exercise requiring correction.

続いて、ステップS36により、先にステップS33により得られた判定結果と、上記ステップS35により新たに得られた判定結果に基づいて、指導映像に対し修正が必要か否かを判定する。そして、この判定結果、修正が必要であればステップS38により修正方法を表す情報を読み出し、ステップS39により次に行われる運動に対応する指導映像データに対し修正を加えたのち、ステップS40により利用者端末UT1へ配信する。これに対し修正が不要であれば、ステップS37に移行して次に行われる運動に対応する指導映像データをそのまま利用者端末UT1へ配信する。これに対しスケジュールで決められたすべての運動が終了すると、CPU11は指導映像データの配信制御を終了する。
なお、利用者映像の蓄積及び再生制御動作については、先に述べた第1の実施形態(図6)と同じ制御手順及び制御内容により行われる。
Subsequently, in step S36, it is determined whether or not the instruction video needs to be corrected based on the determination result obtained in step S33 and the determination result newly obtained in step S35. If the determination result shows that correction is necessary, information indicating the correction method is read out in step S38, the instruction video data corresponding to the exercise to be performed next is corrected in step S39, and then the user is determined in step S40. Deliver to terminal UT1. On the other hand, if correction is unnecessary, the process proceeds to step S37, and the instruction video data corresponding to the exercise to be performed next is delivered to the user terminal UT1 as it is. On the other hand, when all the exercises determined by the schedule are finished, the CPU 11 finishes the distribution control of the instructional video data.
The user video accumulation and playback control operations are performed according to the same control procedure and control contents as those of the first embodiment (FIG. 6) described above.

以上述べたように第2の実施形態では、利用者の運動に対する状況を表す利用者属性情報を記憶する利用者情報テーブル145を設け、この利用者情報テーブル145の内容に応じて利用者が指導映像データの修正を必要とする修正対象者か否かを判定するようにしている。したがって、画像解析処理などの負荷の大きい処理を必要とすることなく簡単かつ迅速な判定処理が可能となる。   As described above, in the second embodiment, the user information table 145 that stores the user attribute information indicating the situation of the user's exercise is provided, and the user gives guidance according to the contents of the user information table 145. It is determined whether or not the person to be corrected needs to correct the video data. Therefore, simple and quick determination processing can be performed without requiring heavy processing such as image analysis processing.

(その他の実施形態)
前記各実施形態では、指導映像データの修正及び配信に係わるすべての処理を運動支援サーバ装置において行うようにした。しかし、それに限らず、利用者端末UT1〜UTnが加工されていない指導映像データを運動支援サーバ装置から受信し、この受信した指導映像データに対し利用者端末UT1〜UTnが修正及び表示に係わるすべての処理を行うようにしてもよい。この場合には、利用者端末UT1〜UTnがこの発明に係わる運動支援装置として機能する。
(Other embodiments)
In each of the above-described embodiments, all processing related to correction and distribution of instructional video data is performed in the exercise support server device. However, the present invention is not limited thereto, and instruction video data that is not processed by the user terminals UT1 to UTn is received from the exercise support server device, and the user terminals UT1 to UTn are all involved in correction and display for the received instruction video data. You may make it perform the process of. In this case, the user terminals UT1 to UTn function as exercise support apparatuses according to the present invention.

また、前記実施形態ではスローモーション加工された指導映像データを手本に行われた利用者の運動映像データを指導者端末MTで再生する際に、スローモーションの部分を早送りして通常の速度で再生するようにした。しかし、それに限らず、指導者がスローモーションのまま再生することを希望する場合には、指導者端末MTから運動支援サーバ装置SVへその旨のコマンドを送信することで、利用者運動映像データをスローモーションのまま運動支援サーバ装置SVから指導者端末MTへダウンロードするように構成してもよい。   Further, in the above embodiment, when the motion video data of the user, which is modeled on the guidance video data subjected to the slow motion processing, is reproduced on the leader terminal MT, the slow motion portion is fast-forwarded at a normal speed. I tried to play it. However, the present invention is not limited to this, and if the instructor wishes to play the video in slow motion, the user motion video data can be obtained by transmitting a command to that effect from the instructor terminal MT to the exercise support server device SV. You may comprise so that it may download to the leader terminal MT from the exercise | movement assistance server apparatus SV with a slow motion.

さらに、前記実施形態では指導映像データを配信する場合を例にとって説明した。しかし、指導データは必ずしも映像データである必要はなく、音声データやテキストデータであってもよい。
その他、運動支援装置の種類と構成、指導データの修正及び提示のための制御手順と制御内容、利用者映像データの再表示制御手順と制御内容、運動の種類や指導データに対する修正内容などについても、この発明の要旨を逸脱しない範囲で種々変形して実施できる。
Furthermore, in the above embodiment, the case where instruction video data is distributed has been described as an example. However, the instruction data is not necessarily video data, and may be audio data or text data.
In addition, the types and configurations of exercise support devices, control procedures and control details for correction and presentation of instruction data, re-display control procedures and control details for user video data, correction types for exercise types and instruction data, etc. Various modifications can be made without departing from the scope of the present invention.

要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明の第1の実施形態に係わる運動支援装置を備えた運動支援システムの概略構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic block diagram of the exercise assistance system provided with the exercise assistance apparatus concerning 1st Embodiment of this invention. この発明に係わる運動支援装置の第1の実施形態である運動支援サーバ装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the exercise assistance server apparatus which is 1st Embodiment of the exercise assistance apparatus concerning this invention. 図2に示した運動支援サーバ装置による指導映像データの修正制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the correction | amendment control procedure and control content of instruction | indication video data by the exercise | movement assistance server apparatus shown in FIG. 図3に示した修正制御において使用される指導映像メタデータの一例を示す図である。It is a figure which shows an example of instruction | indication video metadata used in the correction control shown in FIG. 図3に示した修正制御において使用される修正方法テーブルの一例を示す図である。It is a figure which shows an example of the correction method table used in the correction control shown in FIG. 図2に示した運動支援サーバ装置による利用者運動映像データの再生制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration control procedure and control content of user exercise | movement video data by the exercise | movement assistance server apparatus shown in FIG. 図6に示した再生制御により表示される指導映像データ及び利用者運動映像データの表示例を示す図である。It is a figure which shows the example of a display of instruction | indication video data and user exercise | movement video data displayed by the reproduction | regeneration control shown in FIG. この発明に係わる運動支援装置の第2の実施形態である運動支援サーバ装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the exercise assistance server apparatus which is 2nd Embodiment of the exercise assistance apparatus concerning this invention. 図8に示した運動支援サーバ装置による指導映像データの修正制御手順と制御内容を示すフローチャートである。It is a flowchart which shows the correction control procedure and control content of instruction | indication video data by the exercise | movement assistance server apparatus shown in FIG. 図9に示した修正制御において使用される利用者情報テーブルの一例を示す図である。It is a figure which shows an example of the user information table used in the correction control shown in FIG. 図9に示した修正制御において使用される修正方法テーブルの一例を示す図である。It is a figure which shows an example of the correction method table used in the correction control shown in FIG.

符号の説明Explanation of symbols

UT1〜UTn…利用者端末、SV…運動支援サーバ装置、MT…指導者端末、NW…通信ネットワーク、11…CPU、12…バス、13…プログラムメモリ、131…利用者映像解析プログラム、132…修正要否判定プログラム、133,133′…指導映像修正プログラム、134…指導映像配信制御プログラム、135…映像再表示制御プログラム、136…利用者属性解析プログラム、14…データメモリ、141…利用者映像記憶エリア、142…指導映像記憶エリア、143…指導映像メタデータ記憶エリア、144,144′…修正方法テーブル、145…利用者情報データベース、15…通信インタフェース(通信I/F)。   UT1 to UTn ... user terminal, SV ... exercise support server device, MT ... instructor terminal, NW ... communication network, 11 ... CPU, 12 ... bus, 13 ... program memory, 131 ... user video analysis program, 132 ... modification Necessity determination program, 133, 133 '... instruction video correction program, 134 ... instruction video distribution control program, 135 ... video redisplay control program, 136 ... user attribute analysis program, 14 ... data memory, 141 ... user video storage Area 142. Instruction video storage area 143 Instruction video metadata storage area 144 and 144 ′ Correction method table 145 User information database 15 Communication interface (communication I / F)

Claims (9)

利用者が運動する際の手本となる指導データを記憶する第1の記憶手段と、
前記利用者が、前記指導データにより示される運動に適応可能であるか否かを判定する判定手段と、
前記判定手段により適応不可能と判定された場合に、前記指導データに適応可能とするための修正を加える修正手段と、
前記修正手段により修正された指導データを前記利用者に対し提示する提示手段と
を具備することを特徴とする運動支援装置。
A first storage means for storing instruction data as a model when the user exercises;
Determination means for determining whether or not the user can adapt to the exercise indicated by the instruction data;
When it is determined by the determination means that adaptation is not possible, correction means for adding correction to make the guidance data adaptable;
An exercise support apparatus comprising: presentation means for presenting instruction data corrected by the correction means to the user.
前記判定手段は、
前記利用者が過去に行った運動の様子を記録した運動映像データから利用者の動きの範囲又は速度を解析する手段と、
前記解析結果に基づいて、前記利用者が前記指導データにより示される運動に適応可能であるか否かを判定する手段と
を備えることを特徴とする請求項1記載の運動支援装置。
The determination means includes
Means for analyzing the range or speed of the user's movement from the motion video data recording the state of the user's past movement;
The exercise support apparatus according to claim 1, further comprising: a unit that determines whether the user can adapt to the exercise indicated by the instruction data based on the analysis result.
前記判定手段は、
前記利用者の運動に対する状況を表す利用者属性情報を記憶する手段と、
前記記憶された利用者属性情報に基づいて、前記利用者が前記指導データにより示される運動に適応可能であるか否かを判定する手段と
を備えることを特徴とする請求項1記載の運動支援装置。
The determination means includes
Means for storing user attribute information representing a situation regarding the user's exercise;
The exercise support according to claim 1, further comprising means for determining whether or not the user can adapt to the exercise indicated by the instruction data based on the stored user attribute information. apparatus.
前記判定手段は、
前記指導データにより示される運動の属性を表す運動属性情報を記憶する手段と、
前記記憶された運動属性情報に基づいて、前記利用者が前記指導データにより示される運動に適応可能であるか否かを判定する手段と
を備えることを特徴とする請求項1記載の運動支援装置。
The determination means includes
Means for storing exercise attribute information representing an attribute of exercise indicated by the instruction data;
The exercise support apparatus according to claim 1, further comprising: means for determining whether the user can adapt to the exercise indicated by the instruction data based on the stored exercise attribute information. .
前記修正手段は、
前記利用者の動きの範囲又は速度の解析結果、前記利用者属性情報及び前記指導データの運動属性情報の少なくとも1つに対応付けて予め設定された修正内容を表す情報を記憶する修正内容記憶手段と、
前記判定手段により適応不可能と判定された場合に、当該判定の根拠に対応する修正内容を表す情報を前記修正内容記憶手段から読み出し、この読み出された修正内容を表す情報に基づいて前記指導データに修正を加える手段と
を備えることを特徴とする請求項2乃至4のいずれかに記載の運動支援装置。
The correcting means is
Correction content storage means for storing information representing a correction content set in advance in association with at least one of the user attribute information and the exercise attribute information of the guidance data, the analysis result of the range or speed of the user When,
When it is determined by the determination means that adaptation is not possible, information indicating the correction content corresponding to the basis of the determination is read from the correction content storage means, and the guidance is based on the information indicating the read correction content. The exercise support apparatus according to claim 2, further comprising means for correcting data.
前記修正手段は、前記指導データに対し、当該指導データをスローモーション再生させるための修正処理を行うことを特徴とする請求項1記載の運動支援装置。   The exercise support apparatus according to claim 1, wherein the correction unit performs a correction process for reproducing the instruction data in slow motion with respect to the instruction data. 前記修正手段は、前記指導データにより示される運動の開始前又は途中に休止期間を挿入することを特徴とする請求項1記載の運動支援装置。   The exercise support apparatus according to claim 1, wherein the correction unit inserts a pause period before or during the start of the exercise indicated by the instruction data. 前記修正された指導データを手本に行われた前記利用者の運動の状況を表す利用者映像データを記憶する手段と、
前記指導データに対し加えられた修正履歴を記憶する手段と、
前記記憶された利用者映像データを再生する際に、前記記憶された修正履歴をもとに前記利用者映像データから修正に対応する部分を削除することにより、未修正の利用者映像データを再構成する手段と
を、さらに具備することを特徴とする請求項1記載の運動支援装置。
Means for storing user video data representing the status of the user's exercise performed using the corrected instruction data as a model;
Means for storing a correction history added to the instruction data;
When the stored user video data is reproduced, the portion corresponding to the correction is deleted from the user video data based on the stored correction history, so that the uncorrected user video data is reproduced. The exercise support apparatus according to claim 1, further comprising means for configuring the exercise support apparatus.
利用者が運動する際の手本となる指導データを記憶部から読み出して提示部に提示させる処理を、コンピュータにより行う運動支援装置で使用されるプログラムであって、
前記利用者が、前記指導データにより示される運動に適応可能であるか否かを判定する処理と、
適応不可能と判定された場合に、前記指導データに適応可能とするための修正を加える処理と、
前記修正された指導データを前記提示部に提示させる処理と
を、前記コンピュータに実行させることを特徴とするプログラム。
A program used in an exercise support apparatus that performs a process of reading instruction data serving as a model when a user exercises from a storage unit and presenting the instruction data to a presentation unit using a computer,
A process for determining whether or not the user can adapt to the exercise indicated by the instruction data;
When it is determined that adaptation is not possible, processing for making corrections to make the guidance data adaptable;
The program which makes the said computer perform the process which makes the said presentation part show the said corrected instruction | indication data.
JP2006122509A 2006-04-26 2006-04-26 Exercise support device and its program Pending JP2007289515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006122509A JP2007289515A (en) 2006-04-26 2006-04-26 Exercise support device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006122509A JP2007289515A (en) 2006-04-26 2006-04-26 Exercise support device and its program

Publications (1)

Publication Number Publication Date
JP2007289515A true JP2007289515A (en) 2007-11-08

Family

ID=38760725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006122509A Pending JP2007289515A (en) 2006-04-26 2006-04-26 Exercise support device and its program

Country Status (1)

Country Link
JP (1) JP2007289515A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201681A (en) * 2008-02-27 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
WO2010050216A1 (en) * 2008-10-31 2010-05-06 ブラザー工業株式会社 Motion content generation system
JP2012210340A (en) * 2011-03-31 2012-11-01 Brother Industries Ltd Exercise support device, exercise support method, and exercise support program
JP2013111449A (en) * 2011-12-01 2013-06-10 Canon Inc Video generating apparatus and method, and program
JP2014056243A (en) * 2013-09-30 2014-03-27 Brother Ind Ltd Motion content creating system, output terminal, motion content creating device, content creating method, and program for creating content
JP2014094029A (en) * 2012-11-07 2014-05-22 Univ Of Tsukuba Motion evaluation support device, motion evaluation support system, motion evaluation support method and program
JP2017162442A (en) * 2016-03-08 2017-09-14 長輝 山本 Five-senses function measurement, training system, method, and program for improving brain function
JP2020048867A (en) * 2018-09-27 2020-04-02 Kddi株式会社 Training support method and device
JP2021036665A (en) * 2020-09-03 2021-03-04 Run.Edge株式会社 Moving image reproduction method and moving image reproduction system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009201681A (en) * 2008-02-27 2009-09-10 Xing Inc Exercise supporting apparatus, exercise supporting method, and computer program
US9044632B2 (en) 2008-10-31 2015-06-02 Brother Kogyo Kabushiki Kaisha Information processing apparatus, information processing method and recording medium storing program
WO2010050216A1 (en) * 2008-10-31 2010-05-06 ブラザー工業株式会社 Motion content generation system
JP2010107817A (en) * 2008-10-31 2010-05-13 Brother Ind Ltd Motion content creating system, output terminal, and device, method, and program for creating motion content
JP2012210340A (en) * 2011-03-31 2012-11-01 Brother Industries Ltd Exercise support device, exercise support method, and exercise support program
JP2013111449A (en) * 2011-12-01 2013-06-10 Canon Inc Video generating apparatus and method, and program
US9374522B2 (en) 2011-12-01 2016-06-21 Canon Kabushiki Kaisha Video generating apparatus and method
JP2014094029A (en) * 2012-11-07 2014-05-22 Univ Of Tsukuba Motion evaluation support device, motion evaluation support system, motion evaluation support method and program
JP2014056243A (en) * 2013-09-30 2014-03-27 Brother Ind Ltd Motion content creating system, output terminal, motion content creating device, content creating method, and program for creating content
JP2017162442A (en) * 2016-03-08 2017-09-14 長輝 山本 Five-senses function measurement, training system, method, and program for improving brain function
JP2020048867A (en) * 2018-09-27 2020-04-02 Kddi株式会社 Training support method and device
JP2021036665A (en) * 2020-09-03 2021-03-04 Run.Edge株式会社 Moving image reproduction method and moving image reproduction system
JP7000520B2 (en) 2020-09-03 2022-02-04 Run.Edge株式会社 Video playback method and video playback system

Similar Documents

Publication Publication Date Title
JP2007289515A (en) Exercise support device and its program
JP4594157B2 (en) Exercise support system, user terminal device thereof, and exercise support program
KR102043878B1 (en) Online exercise training apparatus and the method thereof
US20110021317A1 (en) System and method for displaying anonymously annotated physical exercise data
US20100081116A1 (en) Method and system for providing web based interactive lessons with improved session playback
US20170216674A1 (en) Information providing method, system, and terminal apparatus
JP2009213782A (en) Exercise supporting device, exercise supporting system, exercise supporting method and computer program
US11395940B2 (en) System and method for providing guided augmented reality physical therapy in a telemedicine platform
KR20110017258A (en) Fitness learning system based on user&#39;s participation and the method of training
JP2017005709A (en) Broadcast haptics architectures
JP2018098769A (en) Information processing method, information processing system and server
JP2006323467A (en) Exercise support system, its exercise support management device and program
Anggraini et al. An implementation of exercise and performance learning assistant system platform using Node. js
WO2020050097A1 (en) Information processing device, method, and program for generating composite image for user
JP2009201800A (en) Exercise supporting apparatus, computer program and exercise supporting method
JP4604126B1 (en) Content reproduction apparatus, content reproduction method, content reproduction system, content reproduction program, and recording medium
JP2022129532A (en) Exercise support program
Fitzgerald et al. Usability evaluation of e-motion: a virtual rehabilitation system designed to demonstrate, instruct and monitor a therapeutic exercise programme
EP4097709A1 (en) Exercise instruction and feedback systems and methods
JP7390640B2 (en) Exercise education system, server device, exercise education support service provision method and program
US11871082B2 (en) Methods and apparatus for media playback based on cue points
JP6942932B1 (en) Rehabilitation support equipment, rehabilitation support methods, and rehabilitation support programs
US20240198177A1 (en) Exercise instruction and feedback systems and methods
Ayase et al. A method for supporting at-home fitness exercise guidance and at-home nursing care for the elders, video-based simple measurement system
WO2004111910A1 (en) Sporting apparatus of image sports room, its managing method for an image sports room using of network and managing system