JP6691490B2 - Exercise state time information presenting device, exercise state time information presenting method, program - Google Patents

Exercise state time information presenting device, exercise state time information presenting method, program Download PDF

Info

Publication number
JP6691490B2
JP6691490B2 JP2017007349A JP2017007349A JP6691490B2 JP 6691490 B2 JP6691490 B2 JP 6691490B2 JP 2017007349 A JP2017007349 A JP 2017007349A JP 2017007349 A JP2017007349 A JP 2017007349A JP 6691490 B2 JP6691490 B2 JP 6691490B2
Authority
JP
Japan
Prior art keywords
time
camera
image
time point
time information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017007349A
Other languages
Japanese (ja)
Other versions
JP2018114138A (en
Inventor
岳美 持田
岳美 持田
聡貴 木村
聡貴 木村
牧夫 柏野
牧夫 柏野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017007349A priority Critical patent/JP6691490B2/en
Publication of JP2018114138A publication Critical patent/JP2018114138A/en
Application granted granted Critical
Publication of JP6691490B2 publication Critical patent/JP6691490B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Rehabilitation Tools (AREA)

Description

本発明は、身体動作における運動状態の時間情報を提示する技術に関し、特に一連のピッチング動作における重要な運動状態が生起した時点の相対的な時間関係を提示する技術に関する。   The present invention relates to a technique for presenting time information of a motion state in a body motion, and particularly to a technique for presenting a relative time relationship at the time when an important motion state in a series of pitching motions occurs.

スポーツスキルを習得しようとする際、できるだけ効果的に訓練を行いたいという欲求がある。筋力発揮能力を高める訓練や心肺機能を高める訓練などは、スポーツの種類によらず期待する効果が比較的明確であることから、一般に有用と考えられている。しかし、これらの基礎的訓練は、即座にある特定のスポーツスキルの上達につながるわけではない。個々のスポーツに特有のテクニックの習得には、基礎的訓練以外にそのスポーツに合わせた訓練が必要であり、また、このような訓練には様々な要求レベルの違いもある。   When trying to acquire sports skills, there is a desire to train as effectively as possible. It is generally considered that exercises for improving muscle exertion ability and exercises for improving cardiopulmonary function are useful because the expected effect is relatively clear regardless of the type of sport. However, these basic trainings do not immediately lead to the improvement of certain sport skills. In addition to basic training, training specific to each sport is required to acquire techniques specific to each sport, and such training also has various required level differences.

例えば、野球のピッチャーの投球動作(ピッチング動作)も、習得が非常に難しい運動課題の一つである。ピッチングの目的はバッターが打ちづらい球を投げることであり、そのためには、手から離れた球が所望の空間的軌道を通過するように投げる能力と、その球の速さ(球速)を調節する能力の両方が同時に要求される。特に、速い球を投げるためには、下肢、体幹、上肢各部の関節の運動が適切な時間順序で生じること(以下、運動連鎖という)が重要である(非特許文献1)。   For example, the pitching movement of a baseball pitcher (pitching movement) is one of the exercise tasks that is very difficult to learn. The purpose of pitching is to throw a ball that is hard for the batter to hit, by adjusting the ability of the ball away from the hand to pass the desired spatial trajectory and the speed of the ball (ball speed). Both abilities are required at the same time. In particular, in order to throw a fast ball, it is important that the motions of the joints of the lower limbs, the trunk, and the upper limbs occur in an appropriate time sequence (hereinafter, referred to as a motion chain) (Non-Patent Document 1).

しかし、球速を高める効果を有する運動連鎖を確実に身に付ける訓練法は確立されていない。例えば、球速を高める訓練方法として有効と考えられるのは、経験と実績のある優秀な指導者が言葉や身振りを介して、学習者に対して改善指導を行うことであるが、指導者の指導方法やスキルレベルには個人差があるため、すべての学習者が適切な指導を受けられるとは限らない。そこで、より多くの学習者が球速を高める上で有効な指導を受けられる手段や技術の開拓が望まれている。   However, no training method has been established to surely acquire the kinematic chain that has the effect of increasing the ball speed. For example, what is considered to be effective as a training method to increase the ball speed is that an excellent instructor with experience and a track record provides improvement instruction to learners through words and gestures. Due to individual differences in methods and skill levels, not all learners will receive adequate instruction. Therefore, it is desired to cultivate a means and technique for more learners to receive effective guidance for increasing the ball speed.

指導者が学習者に対してピッチングを指導する際、学習者のピッチングを映像に記録し、その再生映像を見ながら運動をどう修正すべきか確認することが、一般によく行われている。この方法は、学習者の運動の様子を指導者・学習者が客観的視点で共有できるという点で有用である。しかし、ピッチングの一連の動作は非常に高速なため、再生映像を見る者の視覚的あるいは認知的注意の向け方に依存して運動の主観的な把握の仕方が変わってしまい、運動をどう修正すべきかについて的確な指針が得られるとは限らない。   When an instructor teaches a learner how to pitch, it is generally common to record the learner's pitching in an image and check how the exercise should be corrected while watching the reproduced image. This method is useful in that the instructor / learner can share the state of the learner's exercise from an objective viewpoint. However, since the series of pitching actions is very fast, the subjective way of grasping the movement changes depending on how the viewer of the playback image focuses his or her visual or cognitive attention. It is not always possible to get a good guide on what to do.

そこで、記録した映像を時間方向に引き伸ばして再生(スロー再生やコマ送り再生)することにより、運動の視認性を高めることがよく行われる。また、ピッチング映像の視認性を高めるために、映像から人物領域だけを抽出して表示するとともに、その手先など特定部位の運動軌跡を映像上に重ねて表示する技術がある(非特許文献2)。   Therefore, the visibility of exercise is often increased by stretching the recorded video in the time direction and playing it back (slow playback or frame-by-frame playback). In addition, in order to improve the visibility of the pitching video, there is a technique of extracting and displaying only a human region from the video, and superimposing a motion locus of a specific part such as a hand on the video (Non-Patent Document 2). .

R. F. Escamilla, G. S. Fleisig, S. W. Barrentine, N. Zheng, J. R. Andrews, “Kinematic comparisons of throwing different types of baseball pitches”, Journal of Applied Biomechanics, Vol.14, Issue 1, pp.1-23, 1998.R. F. Escamilla, G. S. Fleisig, S. W. Barrentine, N. Zheng, J. R. Andrews, “Kinematic comparisons of throwing different types of baseball pitches”, Journal of Applied Biomechanics, Vol.14, Issue 1, pp.1-23, 1998. 篁俊市郎, 斎藤隆文, 田中秀幸, “スポーツ指導のためのビデオ映像処理”, 情報処理学会研究報告 グラフィクスとCAD(CG) 2003(15(2002-CG-110)), pp.37-42, 2003.Takatoshi Ichiro, Saito Takafumi, Tanaka Hideyuki, "Video Image Processing for Sports Instruction", IPSJ Research Report Graphics and CAD (CG) 2003 (15 (2002-CG-110)), pp.37-42, 2003.

しかし、スロー再生やコマ送り再生のように、時間方向に引き伸ばされた運動を見る場合、身体に働いている外力(重力、地面反力、慣性力)の影響を把握しづらくなるため、的確な運動修正指針を得ることは難しくなってしまう。   However, when you see a motion stretched in the time direction like slow playback or frame advance playback, it is difficult to grasp the influence of external force (gravity, ground reaction force, inertial force) acting on the body, so it is accurate It becomes difficult to obtain the motion correction guideline.

また、非特許文献2の技術のような視認性を高める方法を用いても、運動連鎖の時間的な構造を正確に認知することは難しく、やはり的確な運動修正指針を得ることは難しい。   Further, even if a method for improving visibility such as the technique of Non-Patent Document 2 is used, it is difficult to accurately recognize the temporal structure of the kinematic chain, and it is also difficult to obtain an accurate motion correction guideline.

そこで本発明は、一連のピッチング動作における重要な運動状態が生起した時点の相対的な時間関係をフィードバックとして提示することができる運動状態時間情報提示技術を提供することを目的とする。   Therefore, an object of the present invention is to provide a motion state time information presentation technique capable of presenting, as feedback, a relative time relationship at the time when an important motion state in a series of pitching motions occurs.

本発明の一態様は、ピッチング動作での前足が接地する様子を撮影するカメラを第1カメラ、前記第1カメラが撮影する投球方向と鉛直方向に対して平行な面上の一定の領域を第1カメラの画像領域、ピッチング動作での体幹が水平回転する様子を撮影するカメラを第2カメラ、前記第2カメラが撮影する頭上から地面を見下ろした面上の一定の領域を第2カメラの画像領域とし、前記第1カメラの画像領域を撮影した第1入力映像から、前足が接地した時点である時点Aを抽出する第1時点抽出部と、前記第2カメラの画像領域を撮影した第2入力映像から、体幹が水平回転を開始した時点である時点Bを抽出する第2時点抽出部と、前記時点Aと前記時点Bから、前記時点Aと前記時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する相対的時間関係フィードバック提示部とを含む。   According to an aspect of the present invention, a first camera is a camera for photographing a state in which a forefoot touches the ground during a pitching motion, and a certain area on a plane parallel to a pitch direction and a vertical direction photographed by the first camera is a first camera. The image area of one camera, the second camera is a camera for photographing the state of the trunk rotating horizontally during pitching motion, and the second camera is a certain area on the surface looking down on the ground from above the second camera. A first time point extraction unit that extracts a time point A, which is a time point when the front foot touches the ground, from a first input image obtained by photographing the image area of the first camera as an image area, and a first time point when the image area of the second camera is photographed. A second time point extraction unit that extracts a time point B, which is a time point when the trunk starts horizontal rotation, from two input images, and a relative time relationship between the time points A and B from the time points A and B. Relative time relationship reflecting It generates a readback, and a relative time relationship feedback presentation section for presenting.

本発明によれば、一連のピッチング動作における重要な運動状態が生起した時点の相対的な時間関係をフィードバックとして提示することが可能となる。   According to the present invention, it is possible to present, as feedback, a relative time relationship at the time when an important motion state in a series of pitching motions occurs.

ピッチング動作の模式図。The schematic diagram of a pitching operation. 運動状態時間情報提示装置100の構成の一例を示す図。The figure which shows an example of a structure of the exercise state time information presentation apparatus 100. 第1カメラ901及び第2カメラ902の画像領域の一例を示す図。The figure which shows an example of the image area of the 1st camera 901 and the 2nd camera 902. 運動状態時間情報提示装置100の動作の一例を示す図。The figure which shows an example of operation | movement of the exercise state time information presentation apparatus 100. 第1時点抽出部110の構成の一例を示す図。The figure which shows an example of a structure of the 1st time point extraction part 110. 第1時点抽出部110の動作の一例を示す図。The figure which shows an example of operation | movement of the 1st time point extraction part 110. 第2カメラ902の画像領域の二値画像と体幹ベクトルrtの関係の一例を示す図(右手投げの場合)。The figure which shows an example of the relationship between the binary image of the image area of the 2nd camera 902, and the trunk vector r t (in the case of right hand throwing). 第2カメラ902の画像領域の二値画像と体幹ベクトルrtの関係の一例を示す図(左手投げの場合)。The figure which shows an example of the relationship between the binary image of the image area of the 2nd camera 902, and the trunk vector r t (in the case of left hand throwing). 第2時点抽出部120の構成の一例を示す図。The figure which shows an example of a structure of the 2nd time point extraction part 120. 第2時点抽出部120の動作の一例を示す図。The figure which shows an example of operation | movement of the 2nd time point extraction part 120. 運動状態時間情報提示装置200の構成の一例を示す図。The figure which shows an example of a structure of the exercise state time information presentation apparatus 200. 第1カメラ901、第2カメラ902、球速測定器903の配置関係の一例を示す図。The figure which shows an example of the arrangement | positioning relationship of the 1st camera 901, the 2nd camera 902, and the ball speed measuring device 903. 運動状態時間情報提示装置200の動作の一例を示す図。The figure which shows an example of operation | movement of the exercise state time information presentation apparatus 200.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. It should be noted that components having the same function are denoted by the same reference numeral, and redundant description will be omitted.

<技術的背景>
図1は、ピッチング動作の模式図である。本連続動作の中で注目する運動状態(以下、イベントともいう)の生起時点は、前足(つまり、投球方向に向かって踏み出す足)が接地する時点である時点Aと、体幹の水平回転(つまり、体正面を投球方向に向ける運動)が始まる時点である時点Bの2点である。時点Aと時点Bの2点に注目する理由は、以下の通りである。球速は、球が手から離れる時点(時点C)における指先の対地速度に他ならないが、ピッチングの運動学的解析によれば、その指先の対地速度を高める上で重要なのは、時点A(前足接地)から時点C(球離れ)までの間に体幹の水平回転速度をできる限り大きくすることである(非特許文献1)。時点Cでは体正面は投球方向を向いた状態になるのが自然であるから、時点Aから時点Cの間に体幹の水平回転速度を十分高めるには、時点Aにおける体幹の向きと時点Cにおける体幹の向きの差が大きいほど有利である。そして、その向きの差に直接影響するのは、時点Aと時点Bの相対的な時間関係であると考えられる。
<Technical background>
FIG. 1 is a schematic diagram of a pitching operation. In this continuous motion, the time of occurrence of the movement state (hereinafter, also referred to as an event) of interest is the time A at which the front foot (that is, the foot stepping in the pitching direction) touches the ground, and the horizontal rotation of the trunk ( That is, there are two points at time point B, which is the time point at which the movement of directing the front of the body in the pitching direction) starts. The reason for paying attention to the two points of time A and time B is as follows. The ball speed is nothing but the ground speed of the fingertip at the time when the ball leaves the hand (time C), but according to the kinematic analysis of pitching, it is important to increase the ground speed of the fingertip at time A (the front foot touchdown). ) To time point C (away from the ball), the horizontal rotation speed of the trunk is increased as much as possible (Non-Patent Document 1). Since it is natural that the front of the body faces the pitching direction at time point C, in order to sufficiently increase the horizontal rotation speed of the trunk between time points A and C, the direction of the trunk at time point A and the time point The larger the difference in the orientation of the trunk in C, the more advantageous. It is considered that the relative time relationship between the time points A and B directly affects the difference in the direction.

そこで、時点Aと時点Bの相対的な時間関係、つまり時点Aと時点Bの時間順序や時間間隔をフィードバックとして指導者や学習者に提示する。これにより、指導者や学習者によるピッチング動作の修正の支援を効果的に行えると考えられる。   Therefore, the relative time relationship between the time points A and B, that is, the time sequence and the time interval between the time points A and B are presented to the instructor or the learner as feedback. Therefore, it is considered that the instructor or the learner can effectively support the correction of the pitching motion.

<第一実施形態>
図2〜図4を参照して運動状態時間情報提示装置100について説明する。図2に示すように運動状態時間情報提示装置100は、第1時点抽出部110、第2時点抽出部120、相対的時間関係フィードバック提示部130、記録部190を含む。記録部190は、運動状態時間情報提示装置100の処理に必要な情報を適宜記録する構成部である。
<First embodiment>
The exercise | movement state time information presentation apparatus 100 is demonstrated with reference to FIGS. As shown in FIG. 2, the exercise state time information presentation device 100 includes a first time point extraction unit 110, a second time point extraction unit 120, a relative time relationship feedback presentation unit 130, and a recording unit 190. The recording unit 190 is a component that appropriately records information necessary for the processing of the exercise state time information presentation device 100.

第1カメラ901、第2カメラ902は運動状態時間情報提示装置100に接続しており、第1カメラ901、第2カメラ902により撮影された映像が運動状態時間情報提示装置100の入力となっている。図3は、左手投げのピッチャーによる投球を第1カメラ901及び第2カメラ902で撮影している様子を示すものである。第1カメラ901で撮影するのは、ピッチング動作での前足が接地する様子である。また、第2カメラ902で撮影するのは、ピッチング動作での体幹が水平回転する様子である。   The first camera 901 and the second camera 902 are connected to the exercise state time information presenting apparatus 100, and the images taken by the first camera 901 and the second camera 902 are input to the exercise state time information presenting apparatus 100. There is. FIG. 3 shows a state in which a first pitched camera 901 and a second pitched camera 902 are shooting a pitched ball from a left-handed pitcher. The first camera 901 takes a picture of how the forefoot touches the ground during the pitching operation. The second camera 902 takes a picture of the trunk horizontally rotating during the pitching operation.

第1カメラ901により撮影された映像である第1入力映像は、第1時点抽出部110の処理対象となる。第1時点抽出部110における処理のため、第1入力映像に求められる条件がいくつかある。まず、第1カメラ901は、対地固定されており、投球方向と鉛直方向に対して平行な面上の一定の領域(以下、第1カメラ901の画像領域という)を撮影し続けている必要がある。また、第1カメラ901による映像には、ピッチング中に投球方向に前足を踏み出すときの接地位置周辺が含まれている必要がある一方で、ピッチング開始前の静止状態における前足位置周辺は含まれていない方が好ましい。さらに、第1カメラ901による映像には、前足と類似の色を有する部分が(前足以外には)含まれない方が好ましい。   The first input video, which is a video captured by the first camera 901, is a processing target of the first time point extraction unit 110. Because of the processing in the first time point extraction unit 110, there are some conditions required for the first input image. First, the first camera 901 is fixed to the ground, and it is necessary to continue shooting a certain area on the surface parallel to the pitching direction and the vertical direction (hereinafter referred to as the image area of the first camera 901). is there. Further, the image captured by the first camera 901 needs to include the vicinity of the ground contact position when the front foot is stepped in the pitching direction during pitching, but includes the vicinity of the front foot position in the stationary state before the start of pitching. Not preferable. Further, it is preferable that the image captured by the first camera 901 does not include a portion having a color similar to that of the front foot (other than the front foot).

第2カメラ902により撮影された映像である第2入力映像は、第2時点抽出部120の処理対象となる。第2時点抽出部120における処理のため、第2入力映像に求められる条件がいくつかある。まず、第2カメラ902は、対地固定されており、頭上から地面を見下ろした面上の一定の領域(以下、第2カメラ902の画像領域という)を撮影し続けている必要がある。また、第2カメラ902による映像には、ピッチング中の体幹が完全に含まれている必要がある。さらに、第2カメラ902による映像には、体幹と類似の色を有する部分が(体幹以外には)含まれない方が好ましい。   The second input video, which is a video captured by the second camera 902, is a processing target of the second time point extraction unit 120. Because of the processing in the second time point extraction unit 120, there are some conditions required for the second input video. First, the second camera 902 is fixed to the ground, and it is necessary to continue to photograph a certain area on the surface of the second camera 902 that looks down on the ground from above (hereinafter referred to as the image area of the second camera 902). Further, the image captured by the second camera 902 needs to completely include the trunk being pitched. Furthermore, it is preferable that the image captured by the second camera 902 does not include a portion having a color similar to that of the trunk (other than the trunk).

第1時点抽出部110が第1入力映像から前足が接地する時点(時点A)を抽出する際や第2時点抽出部120が第2入力映像から体幹の水平回転が始まる時点(時点B)を抽出する際には、前足および体幹の色情報を利用する。したがって、第1入力映像、第2入力映像は、RGBのようにできるだけ分解能の高いカラー情報を含むのが好ましい。また、時間分解能、空間分解能もできるだけ高いのが好ましい。   When the first time point extraction unit 110 extracts the time point (time point A) at which the front foot touches the ground from the first input image, and when the second time point extraction unit 120 starts horizontal rotation of the trunk from the second input image point (time point B). When extracting, the color information of the forefoot and trunk is used. Therefore, it is preferable that the first input image and the second input image include color information with resolution as high as possible, such as RGB. Further, it is preferable that the time resolution and the spatial resolution are as high as possible.

運動状態時間情報提示装置100は、第1カメラの画像領域を撮影した第1入力映像と第2カメラの画像領域を撮影した第2入力映像から、前足が接地した時点である時点Aと体幹が水平回転を開始した時点である時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する。   The exercise state time information presenting apparatus 100 determines a time point A, which is a time point when the front foot is in contact with the ground, from the first input image obtained by photographing the image region of the first camera and the second input image obtained by photographing the image region of the second camera. Generates and presents relative time relationship feedback that reflects the relative time relationship at time B, which is the time when the horizontal rotation starts.

図4に従い運動状態時間情報提示装置100の動作について説明する。第1時点抽出部110は、第1カメラの画像領域を撮影した第1入力映像から、前足が接地した時点である時点Aを抽出する(S110)。第1時点抽出部110は、第1カメラ901の画像領域を撮影した第1入力映像の各フレーム時刻における画像を前足の色を基準として二値化することにより二値画像を生成し、隣接する2つのフレーム時刻の二値画像間の差分情報をもとに前足接地イベントを検出し、時点Aを抽出する。   The operation of the exercise state time information presentation device 100 will be described with reference to FIG. The first time point extraction unit 110 extracts the time point A when the front foot touches the ground from the first input image obtained by photographing the image area of the first camera (S110). The first time point extraction unit 110 generates a binary image by binarizing the image at each frame time of the first input video imaged in the image area of the first camera 901 by using the color of the forefoot as a reference to generate a binary image and adjoins it. The front foot contact event is detected based on the difference information between the binary images at the two frame times, and the time point A is extracted.

以下、図5〜図6を参照して第1時点抽出部110について説明する。図5に示すように第1時点抽出部110は、二値画像生成部112、二値画像差分抽出部114を含む。   Hereinafter, the first time point extraction unit 110 will be described with reference to FIGS. As shown in FIG. 5, the first time point extraction unit 110 includes a binary image generation unit 112 and a binary image difference extraction unit 114.

図6に従い第1時点抽出部110の動作について説明する。各フレーム時刻t(t=0,1,…)における第1入力映像の画像をC1 t(x,y)とする。ここで、(x,y)は第1カメラ901の画像領域内の画素の座標位置を表す。つまり、C1 t(x,y)は(x,y)にある画素の色を表すp次元ベクトルである。例えば、画素の色を表すためにRGB階調値を用いる場合は、p=3となる。また、画像C1 t(x,y)を二値化するため、前足の色を表すp次元ベクトルの基準値T1と二値化判定のための閾値d1を事前に与える(ただし、d1は正の数とする)。基準値T1、閾値d1は記録部190に事前に記録されているのでもいいし、二値画像生成部112の処理が開始される時点で入力されるのでもよい。 The operation of the first time point extraction unit 110 will be described with reference to FIG. The image of the first input video image at each frame time t (t = 0, 1, ...) Is C 1 t (x, y). Here, (x, y) represents the coordinate position of the pixel in the image area of the first camera 901. That is, C 1 t (x, y) is a p-dimensional vector representing the color of the pixel at (x, y). For example, when using RGB gradation values to represent the color of a pixel, p = 3. Further, in order to binarize the image C 1 t (x, y), a reference value T 1 of the p-dimensional vector representing the color of the forefoot and a threshold d 1 for binarization determination are given in advance (however, d 1 is a positive number). The reference value T 1 and the threshold value d 1 may be recorded in the recording unit 190 in advance, or may be input when the process of the binary image generating unit 112 is started.

二値画像生成部112は、第1入力映像から、フレーム時刻t(t=0,1,…)における第1入力映像の画像C1 t(x,y)を二値化した二値画像B1 t(x,y)を生成する(S112)。二値画像生成部112の動作を詳細に説明する。まず、二値画像生成部112は、フレーム時刻t(t=0,1,…)における第1入力映像の画像C1 t(x,y)の各座標位置(x,y)でのC1 t(x,y)と前足の色を表す基準値T1との距離||C1 t(x,y)-T1||を算出する。距離||C1 t(x,y)-T1||の算出には、例えばp次元ユークリッド距離を用いるとよい。次に、二値画像生成部112は、距離||C1 t(x,y)-T1||を閾値d1と比較することにより、その座標位置(x,y)の画素の色が前足の色と類似しているかの判定結果を生成し、その判定結果に基づいてフレーム時刻tにおける二値画像B1 t(x,y)を生成する。具体的には、||C1 t(x,y)-T1||<d1の場合(類似している場合)、B1 t(x,y)=1、それ以外の場合(類似していない場合)、B1 t(x,y)=0として二値画像B1 t(x,y)を生成する。なお、||C1 t(x,y)-T1||<d1の代わりに、||C1 t(x,y)-T1||≦d1を用いてもよい。 The binary image generation unit 112 binarizes a binary image B obtained by binarizing the image C 1 t (x, y) of the first input video at the frame time t (t = 0, 1, ...) From the first input video. 1 t (x, y) is generated (S112). The operation of the binary image generation unit 112 will be described in detail. First, C 1 in the binary image generating unit 112, the coordinate position of the frame time t (t = 0,1, ...) of the first input image in the image C 1 t (x, y) (x, y) Calculate the distance || C 1 t (x, y) -T 1 || between t (x, y) and the reference value T 1 that represents the color of the forefoot. To calculate the distance || C 1 t (x, y) -T 1 ||, for example, the p-dimensional Euclidean distance may be used. Next, the binary image generation unit 112 compares the distance || C 1 t (x, y) -T 1 || with the threshold value d 1 to determine the color of the pixel at the coordinate position (x, y). A determination result of whether the color is similar to that of the forefoot is generated, and a binary image B 1 t (x, y) at the frame time t is generated based on the determination result. Specifically, if || C 1 t (x, y) -T 1 || <d 1 (similar), B 1 t (x, y) = 1, otherwise (similar) If not), a binary image B 1 t (x, y) is generated with B 1 t (x, y) = 0. Incidentally, || C 1 t (x, y) instead of -T 1 || <d 1, || C 1 t (x, y) -T 1 || ≦ d 1 may be used.

二値画像差分抽出部114は、S112で生成した、隣り合うフレーム時刻t-1,tにおける二値画像B1 t-1(x,y),B1 t(x,y)から、各座標位置(x,y)におけるB1 t-1(x,y)とB1 t(x,y)の差分の絶対値の画像領域全体(第1カメラの画像領域Ω1)での総和をフレーム時刻tにおける前足の移動速度の絶対値vtとして算出し、絶対値vtを用いて時点Aを抽出する(S114)。二値画像差分抽出部114の動作を詳細に説明する。まず、二値画像差分抽出部114は、フレーム時刻t-1における二値画像B1 t-1(x,y)とフレーム時刻tにおける二値画像B1 t(x,y)から、式(1)によりフレーム時刻t(t=1,…)における前足の移動速度の絶対値vtとして算出する。
ただし、t=0については、v0=0とする。
The binary image difference extraction unit 114 calculates each coordinate from the binary images B 1 t-1 (x, y) and B 1 t (x, y) at the adjacent frame times t-1 and t generated in S112. Frame the total sum of the absolute values of the differences between B 1 t-1 (x, y) and B 1 t (x, y) at position (x, y) over the entire image area (image area Ω 1 of the first camera) calculated as an absolute value v t forefoot movement speed of the at time t, and extracts the point a by using the absolute value v t (S114). The operation of the binary image difference extraction unit 114 will be described in detail. First, binary image difference extraction unit 114, the frame time t-1 in the binary image B 1 t-1 (x, y) two at frame time t value image B 1 t (x, y), the formula ( According to 1), the absolute value v t of the moving speed of the forefoot at the frame time t (t = 1, ...) Is calculated.
However, for t = 0, v 0 = 0.

次に、二値画像差分抽出部114は、フレーム時刻t,t+1における絶対値vt,vt+1を用いて式(2)を満たすフレーム時刻tを前足が接地したフレーム時刻(以下、tAと表す)であると判定し、時点AtAとして抽出する。
ここで速度閾値vは、前足が接地したフレーム時刻を特定するための正の数である。速度閾値vは記録部190に事前に記録されているのでもいいし、二値画像差分抽出部114の処理が開始される時点で入力されるのでもよい。
Next, the binary image difference extraction unit 114 uses the absolute values v t , v t + 1 at the frame times t, t + 1 to determine the frame time t satisfying the expression (2) at the frame time when the front foot touches the ground (hereinafter , T A ) and is extracted as the time point At A.
Here, the speed threshold v is a positive number for specifying the frame time when the front foot touches the ground. The speed threshold value v may be recorded in the recording unit 190 in advance, or may be input when the process of the binary image difference extraction unit 114 is started.

なお、式(1)の代わりに式(3)を用い速度の値を正規化したうえで判定してもよい。
It should be noted that the equation (3) may be used in place of the equation (1) to normalize the speed value for determination.

第2時点抽出部120は、第2カメラの画像領域を撮影した第2入力映像から、体幹が水平回転を開始した時点である時点Bを抽出する(S120)。第2時点抽出部120は、第2カメラ902の画像領域を撮影した第2入力映像の各フレーム時刻における画像を体幹の色を基準として二値化することにより二値画像を生成し、体幹領域の分布の主成分方向から体幹の向きである偏角を推定し、偏角を用いて投球方向への回転開始イベントを検出し、時点Bを抽出する。ここで、体幹領域の分布の主成分の傾きの逆正接(アークタンジェント)として偏角を推定する。このため、逆正接関数が定義可能となるように体幹の回転範囲を制限しなければならない。そこで、右肩の肩峰から左肩の肩峰へ向かうベクトル(体幹ベクトル)をrとし、その偏角θが一連のピッチング動作の開始から終了までの間ずっと-π/2<θ<π/2(右手投げの場合)またはπ/2<θ<3π/2(左手投げの場合)が満たされるように、第2カメラ902の向きを設定する(図7及び図8参照)。あるいは、第2カメラ902で映像を撮影した後、各フレーム時刻の画像に対して一定の座標回転変換を施してもよい。以下、フレーム時刻tにおける体幹ベクトルをrt、偏角をθtと表す。 The second time point extraction unit 120 extracts the time point B, which is the time point when the trunk starts horizontal rotation, from the second input image obtained by capturing the image area of the second camera (S120). The second time point extraction unit 120 generates a binary image by binarizing the image at each frame time of the second input video imaged in the image area of the second camera 902 by using the color of the trunk as a reference to generate a binary image. The argument, which is the direction of the trunk, is estimated from the principal component direction of the distribution of the trunk region, the rotation start event in the pitching direction is detected using the argument, and the time point B is extracted. Here, the argument is estimated as the arctangent of the slope of the main component of the distribution of the trunk region. Therefore, the rotation range of the trunk must be limited so that the arctangent function can be defined. Therefore, let r be the vector from the acromion of the right shoulder to the acromion of the left shoulder (trunk vector), and its declination θ is -π / 2 <θ <π / The direction of the second camera 902 is set so that 2 (for right hand throwing) or π / 2 <θ <3π / 2 (for left hand throwing) is satisfied (see FIGS. 7 and 8). Alternatively, after the video is taken by the second camera 902, a fixed coordinate rotation conversion may be performed on the image at each frame time. Hereinafter, the trunk vector at the frame time t is represented by r t and the argument is represented by θ t .

以下、図9〜図10を参照して第2時点抽出部120について説明する。図9に示すように第2時点抽出部120は、二値画像生成部122、二値画像主成分抽出部124を含む。   Hereinafter, the second time point extraction unit 120 will be described with reference to FIGS. 9 to 10. As shown in FIG. 9, the second time point extraction unit 120 includes a binary image generation unit 122 and a binary image principal component extraction unit 124.

図10に従い第2時点抽出部120の動作について説明する。各フレーム時刻t(t=0,1,…)における第2入力映像の画像をC2 t(x,y)とする。ここで、(x,y)は第2カメラ902の画像領域内の画素の座標位置を表す。つまり、C2 t(x,y)は(x,y)にある画素の色を表すp次元ベクトルである。例えば、画素の色を表すためにRGB階調値を用いる場合は、p=3となる。また、画像C2 t(x,y)を二値化するため、体幹の色を表すp次元ベクトルの基準値T2と二値化判定のための閾値d2を事前に与える(ただし、d2は正の数とする)。基準値T2、閾値d2は記録部190に事前に記録されているのでもいいし、二値画像生成部122の処理が開始される時点で入力されるのでもよい。 The operation of the second time point extraction unit 120 will be described with reference to FIG. The image of the second input video image at each frame time t (t = 0, 1, ...) Is C 2 t (x, y). Here, (x, y) represents the coordinate position of the pixel in the image area of the second camera 902. That is, C 2 t (x, y) is a p-dimensional vector representing the color of the pixel at (x, y). For example, when using RGB gradation values to represent the color of a pixel, p = 3. Further, in order to binarize the image C 2 t (x, y), the reference value T 2 of the p-dimensional vector representing the color of the trunk and the threshold d 2 for binarization determination are given in advance (however, d 2 is a positive number). The reference value T 2 and the threshold value d 2 may be recorded in the recording unit 190 in advance, or may be input when the processing of the binary image generation unit 122 is started.

二値画像生成部122は、第2入力映像から、フレーム時刻t(t=0,1,…)における第2入力映像の画像C2 t(x,y)を二値化した二値画像B2 t(x,y)を生成する(S122)。二値画像生成部122の動作を詳細に説明する。まず、二値画像生成部122は、フレーム時刻t(t=0,1,…)における第2入力映像の画像C2 t(x,y)の各座標位置(x,y)でのC2 t(x,y)と体幹の色を表す基準値T2との距離||C2 t(x,y)-T2||を算出する。距離||C2 t(x,y)-T2||の算出には、例えばp次元ユークリッド距離を用いるとよい。次に、二値画像生成部122は、距離||C2 t(x,y)-T2||を閾値d2と比較することにより、その座標位置(x,y)の画素の色が体幹の色と類似しているかの判定結果を生成し、その判定結果に基づいてフレーム時刻tにおける二値画像B2 t(x,y)を生成する。具体的には、||C2 t(x,y)-T2||<d2の場合(類似している場合)、B2 t(x,y)=1、それ以外の場合(類似していない場合)、B2 t(x,y)=0として二値画像B2 t(x,y)を生成する。なお、||C2 t(x,y)-T2||<d2の代わりに、||C2 t(x,y)-T2||≦d2を用いてもよい。 The binary image generation unit 122 binarizes a binary image B obtained by binarizing the image C 2 t (x, y) of the second input video at the frame time t (t = 0, 1, ...) From the second input video. 2 t (x, y) is generated (S122). The operation of the binary image generation unit 122 will be described in detail. First, the binary image generating unit 122, C 2 at each coordinate position of the frame time t (t = 0,1, ...) of the second input image of the image C 2 t (x, y) (x, y) Calculate the distance || C 2 t (x, y) -T 2 || between t (x, y) and the reference value T 2 that represents the color of the trunk. To calculate the distance || C 2 t (x, y) -T 2 ||, for example, the p-dimensional Euclidean distance may be used. Next, the binary image generation unit 122 compares the distance || C 2 t (x, y) -T 2 || with the threshold d 2 to determine the color of the pixel at the coordinate position (x, y). A determination result as to whether the color is similar to the trunk color is generated, and a binary image B 2 t (x, y) at the frame time t is generated based on the determination result. Specifically, if || C 2 t (x, y) -T 2 || <d 2 (similar), B 2 t (x, y) = 1, otherwise (similar) If not), a binary image B 2 t (x, y) is generated with B 2 t (x, y) = 0. Incidentally, || C 2 t (x, y) -T 2 || < instead of d 2, || C 2 t ( x, y) may be used -T 2 || ≦ d 2.

二値画像主成分抽出部124は、S122で生成したフレーム時刻tにおける二値画像B2 t(x,y)から、体幹領域の全画素の(つまり、B2 t(x,y)=1を満たす(x,y)の)x座標のベクトルXt=(x1 t,…, xi t,…,xNt t)とy座標のベクトルYt=(y1 t,…,yi t,…,yNt t)(1≦i≦Nt、iは整数、Ntはフレーム時刻tにおける体幹領域の総画素数)の共分散行列の固有ベクトルet=(ex t, ey t)の傾きey t/ex tの逆正接をフレーム時刻tにおける体幹ベクトルrtの偏角θtとして算出し、偏角θtを用いて時点Bを抽出する(S124)。二値画像主成分抽出部124の動作を詳細に説明する。まず、二値画像主成分抽出部124は、フレーム時刻tにおける二値画像B2 t(x,y)から、体幹領域の全画素の(つまり、B2 t(x,y)=1を満たす(x,y)の)x座標のベクトルXt=(x1 t,…, xi t,…,xNt t)とy座標のベクトルYt=(y1 t,…,yi t,…,yNt t)(1≦i≦Nt、iは整数、Ntはフレーム時刻tにおける体幹領域の総画素数)を抽出する。次に、二値画像主成分抽出部124は、Xt,Ytの共分散行列の固有ベクトルet=(ex t, ey t)を算出、式(4)により算出される固有ベクトルetの傾きey t/ex tの逆正接をフレーム時刻t(t=0,…)における体幹ベクトルrtの偏角θtとして算出する。 The binary image principal component extraction unit 124 uses the binary image B 2 t (x, y) at the frame time t generated in S122 to calculate all pixels (that is, B 2 t (x, y) = (X, y)) x coordinate vector X t = (x 1 t ,…, x i t ,…, x Nt t ) that satisfies 1 and y coordinate vector Y t = (y 1 t ,…, y i t , ..., y Nt t ) (1 ≦ i ≦ Nt, i is an integer, Nt is the total number of pixels in the trunk region at the frame time t), the eigenvector e t = (e x t , e y The arctangent of the slope e y t / e x t of t ) is calculated as the argument θ t of the trunk vector r t at the frame time t, and the time B is extracted using the argument θ t (S124). The operation of the binary image principal component extraction unit 124 will be described in detail. First, the binary image principal component extraction unit 124 sets (that is, B 2 t (x, y) = 1 of all pixels in the torso region from the binary image B 2 t (x, y) at the frame time t. (X, y)) x-coordinate vector X t = (x 1 t ,…, x i t ,…, x Nt t ) and y-coordinate vector Y t = (y 1 t ,…, y i t , ..., y Nt t ) (1 ≦ i ≦ Nt, i is an integer, Nt is the total number of pixels in the trunk region at the frame time t) is extracted. Next, the binary image composed mainly extracting unit 124, X t, eigenvectors of the covariance matrix of Y t e t = (e x t, e y t) calculated, eigenvector e t calculated by the equation (4) The arc tangent of the slope e y t / e x t of is calculated as the argument θ t of the trunk vector r t at the frame time t (t = 0, ...).

最後に、二値画像主成分抽出部124は、フレーム時刻t,t+1における偏角θtt+1を用いて、右手投げの場合は式(5R)を満たすフレーム時刻tを、左手投げの場合は式(5L)を満たすフレーム時刻tを、体幹の水平回転が開始したフレーム時刻(以下、tBと表す)であると判定し、時点BtBとして抽出する。 Finally, the binary image principal component extraction unit 124 uses the argument angles θ t and θ t + 1 at the frame times t and t + 1 to calculate the frame time t that satisfies the equation (5R) in the case of right hand throwing. frame time t satisfying the formula (5L) in the case of throwing the left hand, a frame time of horizontal rotation starts of the trunk (hereinafter referred to as t B) is determined to be, it extracts a time Bt B.

ここで偏角閾値Θは、体幹の投球方向への回転開始フレーム時刻を特定するための数であり、右手投げの場合は-π/2<Θ<π/2を、左手投げの場合はπ/2<Θ<3π/2を満たす数である。偏角閾値Θは記録部190に事前に記録されているのでもいいし、二値画像主成分抽出部124の処理が開始される時点で入力されるのでもよい。 Here, the declination threshold Θ is a number for specifying the rotation start frame time in the pitching direction of the trunk. In the case of right hand throwing, -π / 2 <Θ <π / 2, and in the case of left hand throwing, It is a number that satisfies π / 2 <Θ <3π / 2. The argument angle threshold Θ may be recorded in the recording unit 190 in advance, or may be input at the time when the process of the binary image principal component extracting unit 124 is started.

なお、偏角θtを上述の方法にて算出するのは、固有ベクトルetの傾きey t/ex tと体幹領域の分布の主成分の傾きとが一致することからである。 Incidentally, for calculating the deflection angle theta t by the above-mentioned method is the fact that the inclination of the principal components of the distribution of the gradient e y t / e x t and the trunk area of the eigenvector e t match.

相対的時間関係フィードバック提示部130は、S110で抽出した時点AとS120で抽出した時点Bから、時点Aと時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する(S130)。例えば、音を用いて相対的時間関係フィードバックを提示することができる。   The relative time relation feedback presenting section 130 generates and presents relative time relation feedback reflecting the relative time relation between the time points A and B from the time point A extracted in S110 and the time point B extracted in S120. (S130). For example, sounds can be used to present relative time-related feedback.

以下、相対的時間関係フィードバックを音として提示する方法の例を2つ説明する。   Hereinafter, two examples of the method of presenting the relative time relation feedback as a sound will be described.

(方法1)時点AtAと時点BtBの時間間隔|tB-tA|だけ離して識別可能な2種類の音sA,sBを1回ずつ鳴らすことで相対的時間関係フィードバックを提示する。その際、音sA,sBの提示順序は、tA<tBならばsA,sBの順、tB<tAならばsB,sAの順とする。また、tA=tBの場合は音sA,sBを同時に提示する。ここで、音sA,sBそれぞれの時間長は、互いに同じでも異なっていてもよく、それぞれ聴取可能な範囲でできる限り短くする。音sA,sBの例として、(1)互いに識別可能な程度に異なる基本周波数の周期音、(2)互いに識別可能な程度に異なる周波数成分からなる非周期音、(3)一方が周期音で他方が非周期音などの構成が考えられる。 (Method 1) Relative time-related feedback is presented by sounding two types of distinguishable sounds s A and s B , separated by a time interval | t B -t A | between time points At A and Bt B. To do. At that time, the sound s A, presentation order of s B is, t A <t B if s A, the order of s B, t B <t A if s B, the order of s A. When t A = t B , the sounds s A and s B are presented at the same time. Here, the time length of each of the sounds s A and s B may be the same as or different from each other, and is made as short as possible within the audible range. As examples of the sounds s A and s B , (1) periodic sounds having fundamental frequencies different from each other so that they can be distinguished from each other, (2) non-periodic sounds having frequency components different from each other so that they can be distinguished from each other, and (3) one of them is a periodic sound. It is conceivable that the other is a sound and the other is an aperiodic sound.

(方法2)基本周波数が滑らかに単調増加または単調減少する時間長|tB-tA|のスイープ音やチャープ音を相対的時間関係フィードバックとして提示する。その際、基本周波数の変化方向は、識別可能な程度に異なる2つの基本周波数をfA,fBとして、tA<tBならばfAからfBへの変化、tB<tAならばfBからfAへの変化とする。また、tA=tBの場合は音を提示しない。 (Method 2) A sweep sound or a chirp sound with a time length | t B -t A | at which the fundamental frequency smoothly increases or decreases monotonically is presented as relative time-related feedback. At that time, the direction of change of the fundamental frequency is two fundamental frequencies f A and f B which are distinguishably different from each other. If t A <t B , the change from f A to f B, and if t B <t A, For example, change from f B to f A. Also, when t A = t B , no sound is presented.

なお、(方法1)については、第1時点抽出部110での処理の所要時間と第2時点抽出部120での処理の所要時間が一致する場合、tAが得られたとき即座に音sAを提示し、tBが得られたとき即座に音sBを提示するのでもよい。これに対して、(方法2)は、tA,tBが抽出された後にスイープ音等を提示する必要がある。 Regarding (Method 1), when the time required for the processing in the first time point extraction unit 110 and the time required for the processing in the second time point extraction unit 120 match, the sound s is immediately output when t A is obtained. It is also possible to present A and to present sound s B immediately when t B is obtained. On the other hand, in (method 2), it is necessary to present a sweep sound or the like after t A and t B are extracted.

また、相対的時間関係フィードバックを提示する方法は音に限られるものではなく、人が視聴覚等にて感得できるものであればどのようなものを用いてもよい。例えば、光、皮膚振動などを用いることもできる。   Further, the method of presenting the relative time relationship feedback is not limited to sound, and any method that can be perceived by a person such as audiovisual sense may be used. For example, light, skin vibration, or the like can be used.

S110とS120については、必ずしもS110、S120の順に実行する必要はない。例えば、S120、S110の順に実行してもよい。また、リアルタイムで相対的時間関係フィードバックを提示するためには、S110とS120を時間的に並行して実行するのが好ましい。   Regarding S110 and S120, it is not always necessary to execute S110 and S120 in this order. For example, S120 and S110 may be executed in this order. Further, in order to present the relative time relation feedback in real time, it is preferable to execute S110 and S120 in parallel in time.

本実施形態の発明によれば、ピッチング訓練の際の、学習者のピッチング動作を撮影した2種類の映像から、前足接地時点と体幹水平回転開始時点を抽出することにより、一連のピッチング動作における重要な運動状態が生起した時点の相対的な時間関係をフィードバックとして提示することが可能となる。また、相対的な時間関係を音で提示することにより、学習者および指導者はその音を聞いて重要な運動状態の生起した時間順序や時間間隔を把握することができる。その結果、指導者がピッチング動作の修正を指導したり、学習者が自主的にピッチング動作を修正したりすることにより、球速を高めるのに有効な訓練を行なうことができる。   According to the invention of this embodiment, by extracting the front foot contact point and the trunk horizontal rotation start point from two types of video images of the learner's pitching operation during pitching training, a series of pitching operations can be performed. It is possible to present, as feedback, the relative time relationship at the time when an important motor state occurs. Further, by presenting the relative time relationship by sound, the learner and the instructor can hear the sound and grasp the time sequence and time interval in which an important exercise state occurs. As a result, the instructor teaches the correction of the pitching motion, and the learner voluntarily corrects the pitching motion, so that effective training for increasing the ball speed can be performed.

ピッチング動作における理想的な運動連鎖は、1秒に満たない非常に短時間の中で複数の運動状態が然るべき順序で次々と生起するものであるため、ピッチング動作を撮影した映像から学習者や指導者が複数の運動状態の生起順序や時間間隔などを正確に認知することは困難であるが、本実施形態の発明によれば、学習者や指導者はそのような短時間に凝縮された複数の運動状態の生起順序や時間間隔などを正確に認知することが可能となる。特に、運動状態に関連する時間情報の提示に音を用いることは、人間の時間情報の認知処理能力を考えた場合には、極めて効果的である。聴覚、視覚、皮膚感覚など時間情報を伝達しうる感覚モダリティの中で、聴覚は特に時間分解能に関して特に優れている(参考非特許文献1)ため、音による提示は、時間的に非常に近接して起こる複数イベントの生起時刻を正確に把握する処理に最も適していると考えられる。
(参考非特許文献1)L. E. Humes, T. A. Busey, J. C. Craig, D. Kewley-Port, “The effects of age on sensory thresholds and temporal gap detection in hearing, vision, and touch”, Atten Percept Psychophys, Vol.71, No.4, pp.860-871, 2009.
The ideal kinematic chain in pitching motion is that multiple motion states occur one after another in an appropriate sequence within a very short time of less than 1 second. Although it is difficult for a person to accurately recognize the occurrence order and time intervals of a plurality of exercise states, according to the invention of the present embodiment, the learner and the instructor have a plurality of condensed states in such a short time. It is possible to accurately recognize the occurrence sequence and time interval of the motor state of the. In particular, the use of sound for presenting time information relating to the exercise state is extremely effective when considering the cognitive processing ability of human time information. Among the sensory modalities capable of transmitting time information such as hearing, sight, and skin sensation, hearing is particularly excellent in terms of temporal resolution (Reference Non-Patent Document 1), so that presentation by sound is very close in time. It is considered to be the most suitable for the process of accurately grasping the occurrence times of multiple events that occur.
(Reference Non-Patent Document 1) LE Humes, TA Busey, JC Craig, D. Kewley-Port, “The effects of age on sensory thresholds and temporal gap detection in hearing, vision, and touch”, Atten Percept Psychophys, Vol.71. , No.4, pp.860-871, 2009.

<第二実施形態>
第一実施形態では、2種類の映像からピッチング動作中で重要な運動状態である前足接地と体幹水平回転開始の2つの時点を抽出することにより、ピッチング動作修正のための指針となる相対的時間関係フィードバックを提示し、ピッチング訓練ができるようにしたが、球速測定器で測定した球速も確認しながらピッチング訓練ができるようにしてもよい。そこで、第二実施形態では、球速測定器で測定される球速も入力とする運動状態時間情報提示装置について説明する。
<Second embodiment>
In the first embodiment, by extracting from the two types of images two points of time, which are the important motion states during the pitching motion, that is, the forefoot ground contact and the start of the horizontal trunk rotation, a relative guideline for correcting the pitching motion is obtained. Although the time-related feedback is presented so that the pitching training can be performed, the pitching training may be performed while confirming the ball speed measured by the ball speed measuring device. Therefore, in the second embodiment, an exercise state time information presenting apparatus that also inputs the ball speed measured by the ball speed measuring device will be described.

図11〜図13を参照して運動状態時間情報提示装置200について説明する。図11に示すように運動状態時間情報提示装置200は、第1時点抽出部110、第2時点抽出部120、相対的時間関係フィードバック提示部130、最適時間間隔推定部240、記録部190を含む。記録部190は、運動状態時間情報提示装置200の処理に必要な情報を適宜記録する構成部である。   The exercise state time information presentation device 200 will be described with reference to FIGS. 11 to 13. As shown in FIG. 11, the exercise state time information presentation device 200 includes a first time point extraction unit 110, a second time point extraction unit 120, a relative time relationship feedback presentation unit 130, an optimum time interval estimation unit 240, and a recording unit 190. . The recording unit 190 is a component that appropriately records information necessary for the processing of the exercise state time information presentation device 200.

第1カメラ901、第2カメラ902は運動状態時間情報提示装置200に接続しており、第1カメラ901、第2カメラ902により撮影された映像が運動状態時間情報提示装置200の入力となっている。第1カメラ901、第2カメラ902、第1入力映像、第2入力映像に対する要件や特徴は第一実施形態のそれと同じである。   The first camera 901 and the second camera 902 are connected to the exercise state time information presenting apparatus 200, and the images taken by the first camera 901 and the second camera 902 are input to the exercise state time information presenting apparatus 200. There is. The requirements and features for the first camera 901, the second camera 902, the first input image, and the second input image are the same as those of the first embodiment.

また、球速測定器903は運動状態時間情報提示装置200に接続しており、球速測定器903で測定された球速が運動状態時間情報提示装置200の入力となっている(図12参照)。球速測定器903は、ある閾値以上の速さで移動する物体を検出したときに、その速さを出力し、それ以外のときは出力を行わないものとする。また、球速測定器903は、1回の投球につき高々1回の出力しか行わないように、物体の速さを測定する時間間隔を適切に設定するものとする。   The ball speed measuring device 903 is connected to the exercise state time information presenting device 200, and the ball speed measured by the ball speed measuring device 903 is input to the exercise state time information presenting device 200 (see FIG. 12). It is assumed that the ball speed measuring device 903 outputs the speed when detecting an object moving at a speed equal to or higher than a certain threshold, and does not output the speed at other times. Further, the ball speed measuring device 903 appropriately sets the time interval for measuring the speed of the object so that only one output is made at most per pitch.

運動状態時間情報提示装置200は、第1カメラの画像領域を撮影した第1入力映像と第2カメラの画像領域を撮影した第2入力映像と球速から、前足が接地した時点である時点Aと体幹が水平回転を開始した時点である時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成すると同時に、球速が最大になると予想される時点Aと時点Bの時間間隔である最適時間間隔を推定し、提示する。   The exercise state time information presentation device 200 determines the time point A, which is the time point when the front foot touches the ground, from the first input video imaged of the image area of the first camera, the second input video imaged of the image area of the second camera, and the ball speed. It is a time interval between time A and time B at which the ball speed is expected to be maximized at the same time as generating relative time relationship feedback that reflects the relative time relationship at time B when the core starts horizontal rotation. Estimate and present the optimal time interval.

図13に従い運動状態時間情報提示装置200の動作について説明する。第1時点抽出部110は、第1カメラの画像領域を撮影した第1入力映像から、前足が接地した時点である時点Aを抽出する(S110)。第2時点抽出部120は、第2カメラの画像領域を撮影した第2入力映像から、体幹が水平回転を開始した時点である時点Bを抽出する(S120)。相対的時間関係フィードバック提示部130は、S110で抽出した時点AとS120で抽出した時点Bから、時点Aと時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する(S130)。S110〜S130までの処理は運動状態時間情報提示装置100と同様である。以下、時点AをtA、時点BをtBとする。 The operation of the exercise state time information presentation device 200 will be described with reference to FIG. The first time point extraction unit 110 extracts the time point A when the front foot touches the ground from the first input image obtained by photographing the image area of the first camera (S110). The second time point extraction unit 120 extracts the time point B, which is the time point when the trunk starts horizontal rotation, from the second input image obtained by capturing the image area of the second camera (S120). The relative time relation feedback presenting section 130 generates and presents relative time relation feedback reflecting the relative time relation between the time points A and B from the time point A extracted in S110 and the time point B extracted in S120. (S130). The processing from S110 to S130 is the same as that of the exercise state time information presentation device 100. Hereinafter, the time point A is t A and the time point B is t B.

最適時間間隔推定部240は、S110で抽出した時点AtAとS120で抽出した時点BtBと球速測定器903が測定した球速から、球速が最大となると予想される時点Aと時点Bの時間間隔である最適時間間隔Δtbestを推定する(S240)。最適時間間隔推定部240の具体的な処理は、以下のようになる。まず、最適時間間隔推定部240は、k回目のピッチング動作における球速vball(k)と同時に入力される、k回目のピッチング動作における前足接地時点である時点AtAと体幹水平回転開始時点である時点BtBから時間間隔Δt(k)=tB-tAを算出する。次に、最適時間間隔推定部240は、c1,c2,c3を定数とし、時間間隔を要素とする時間間隔ベクトルTk=[Δt(1),…, Δt(k)]とその各要素の2乗を要素とする2乗時間間隔ベクトルSk=[Δt(1)2,…,Δt(k)2]、単位数である1を各要素とする単位数ベクトルE=[1,…,1]、球速を要素とする球速ベクトルVk=[vball(1),…, vball(k)]の間に、 The optimum time interval estimation unit 240 determines the time interval between the time A and the time B at which the ball speed is expected to be the maximum from the time At A extracted in S110, the time Bt B extracted in S120, and the ball speed measured by the ball speed measuring device 903. Then, the optimum time interval Δt best is estimated (S240). The specific processing of the optimum time interval estimation unit 240 is as follows. First, the optimum time interval estimation unit 240 inputs the ball speed v ball (k) in the k-th pitching motion at the time At A , which is the time when the front foot touches the ground in the k-th pitching motion, and the horizontal trunk start time. The time interval Δt (k) = t B -t A is calculated from a certain time point Bt B. Next, the optimal time interval estimation unit 240 sets c 1 , c 2 , and c 3 as constants, and the time interval vector T k = [Δt (1), ..., Δt (k)] having time intervals as elements and its A square time interval vector S k = [Δt (1) 2 , ..., Δt (k) 2 ], each of which is the square of each element, and a unit number vector E = [1 that has 1 as the number of units ,…, 1], between the ball velocity vector V k = [v ball (1),…, v ball (k)] with the ball velocity as an element,

の関係が成り立つと仮定し、 Assuming that the relationship of

が最小になるc1,c2,c3を推定する(ただし、'はベクトルの転置を表す)。ここで、 Estimate c 1 , c 2 , and c 3 that minimize (where 'represents the transpose of the vector). here,

である。c1,c2,c3の推定には、最小二乗法などを用いることができる。また、k-1回目以前のピッチングデータである時間間隔ベクトルTk-1=[Δt(1),…, Δt(k-1)]と球速ベクトルVk-1=[vball(1),…, vball(k-1)]は記録部190に記録されているものとする。このとき、c1<0の場合、二次関数f(x)=c1x2+c2x+c3は上に凸であり、その最大値はx=-c2/2c1において与えられる。一方、c1≧0の場合、二次関数f(x)の最大値を定義することができない。そこで、最適時間間隔推定部240は、c1<0のとき、球速が最大になると予想される最適時間間隔ΔtbestをΔtbest=-c2/2c1と推定する一方、c1≧0のとき、最適時間間隔Δtbestを不定と推定する。 Is. The least squares method or the like can be used to estimate c 1 , c 2 , and c 3 . Also, the time interval vector T k-1 = [Δt (1),…, Δt (k-1)] and the ball velocity vector V k-1 = [v ball (1), , V ball (k-1)] is recorded in the recording unit 190. Then, if c 1 <0, the quadratic function f (x) = c 1 x 2 + c 2 x + c 3 is convex upward, and its maximum value is given by x = -c 2 / 2c 1 . To be On the other hand, when c 1 ≧ 0, the maximum value of the quadratic function f (x) cannot be defined. Therefore, when c 1 <0, the optimum time interval estimation unit 240 estimates the optimum time interval Δt best at which the ball speed is expected to be maximum as Δt best = -c 2 / 2c 1 , while c 1 ≧ 0 At this time, the optimal time interval Δt best is estimated to be indefinite.

なお、最適時間間隔Δtbestの提示方法は、相対的時間関係フィードバック提示部130と同様でよい。つまり、音、光、皮膚振動などを用いることができる。 The method of presenting the optimum time interval Δt best may be the same as that of the relative time relationship feedback presenting unit 130. That is, sound, light, skin vibration, etc. can be used.

最適時間間隔Δtbestをピッチングの度に提示する必要がない場合、その提示タイミングは例えばユーザが外部から提示の指示をしたときに限ってもよい。また、最適時間間隔Δtbestをピッチングの度に提示する場合、投球ごとに相対的時間関係フィードバック提示部130が相対的時間関係フィードバックを提示した後、数秒の間をおいて自動的に提示するといった方法で行ってもよい。 When it is not necessary to present the optimum time interval Δt best for each pitching, the presentation timing may be limited to, for example, when the user gives an instruction for presentation from the outside. When presenting the optimum time interval Δt best for each pitching, the relative time relation feedback presenting unit 130 presents the relative time relation feedback for each pitch, and then automatically presents it after a few seconds. You may go by the method.

本実施形態の発明によれば、ピッチング訓練の際の、学習者のピッチング動作を撮影した2種類の映像から、前足接地時点と体幹水平回転開始時点を抽出することにより、一連のピッチング動作の中で異なる重要な運動状態が生起した時点の相対的な時間関係をフィードバックとして提示することが可能となる。また、球速に関するデータをあわせて取得することにより、球速が最大になると予想される時点Aと時点Bの時間間隔である最適時間間隔も提示できるようになる。これにより、より効果的な訓練が行えるものと期待される。   According to the invention of the present embodiment, a series of pitching motions are extracted by extracting the front foot contact point and the trunk horizontal rotation start point from two types of video images of the learner's pitching motions during pitching training. It is possible to present the relative time relationship at the time when different important motor states occur as feedback. Further, by also acquiring the data regarding the ball speed, it becomes possible to present the optimum time interval which is the time interval between the time A and the time B at which the ball speed is expected to be the maximum. It is expected that this will enable more effective training.

<変形例>
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
<Modification>
It is needless to say that the present invention is not limited to the above-described embodiment and can be appropriately modified without departing from the spirit of the present invention. The various kinds of processing described in the above embodiments may be executed not only in time series according to the order described, but also in parallel or individually according to the processing capability of the device that executes the processing or the need.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Additional notes>
The device of the present invention is, for example, as a single hardware entity, an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating with the outside of the hardware entity. Connectable communication unit, CPU (Central Processing Unit, may include a cache memory or register, etc.), RAM or ROM as memory, external storage device as hard disk, and their input unit, output unit, communication unit , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged among external storage devices. If necessary, the hardware entity may be provided with a device (drive) capable of reading and writing a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。   The external storage device of the hardware entity stores a program necessary for realizing the above-described functions and data necessary for processing of this program (not limited to the external storage device, for example, the program is read). It may be stored in a ROM that is a dedicated storage device). In addition, data and the like obtained by the processing of these programs are appropriately stored in the RAM, the external storage device, or the like.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。   In the hardware entity, each program stored in an external storage device (or ROM, etc.) and data necessary for the processing of each program are read into the memory as necessary, and interpreted and executed / processed by the CPU as appropriate. . As a result, the CPU realizes a predetermined function (each constituent element represented by the above, ... Unit, ... Means, etc.).

本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。   The present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention. Further, the processes described in the above embodiments are not only executed in time series in the order described, but may be executed in parallel or individually according to the processing capability of the device that executes the processes or as necessary. .

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。   As described above, when the processing functions of the hardware entity (the device of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on the computer, the processing functions of the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded in a computer-readable recording medium. The computer-readable recording medium may be any recording medium such as a magnetic recording device, an optical disc, a magneto-optical recording medium, or a semiconductor memory. Specifically, for example, a hard disk device, a flexible disk, a magnetic tape or the like is used as a magnetic recording device, and a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), or a CD-ROM (Compact Disc Read Only) is used as an optical disc. Memory), CD-R (Recordable) / RW (ReWritable), MO (Magneto-Optical disc) as a magneto-optical recording medium, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory) as a semiconductor memory, etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The distribution of this program is performed by selling, transferring, or lending a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, the program may be stored in a storage device of a server computer and transferred from the server computer to another computer via a network to distribute the program.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, the program recorded on a portable recording medium or the program transferred from the server computer in its own storage device. Then, when executing the processing, this computer reads the program stored in its own recording medium and executes the processing according to the read program. As another execution form of this program, a computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to this computer. Each time, the processing according to the received program may be sequentially executed. Further, the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by executing the execution instruction and acquiring the result without transferring the program from the server computer to the computer. May be It should be noted that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to a computer but has the property of defining computer processing).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Further, in this embodiment, the hardware entity is configured by executing a predetermined program on the computer, but at least a part of these processing contents may be implemented by hardware.

Claims (8)

ピッチング動作での前足が接地する様子を撮影するカメラを第1カメラ、前記第1カメラが撮影する投球方向と鉛直方向に対して平行な面上の一定の領域を第1カメラの画像領域、ピッチング動作での体幹が水平回転する様子を撮影するカメラを第2カメラ、前記第2カメラが撮影する頭上から地面を見下ろした面上の一定の領域を第2カメラの画像領域とし、
前記第1カメラの画像領域を撮影した第1入力映像から、前足が接地した時点である時点Aを抽出する第1時点抽出部と、
前記第2カメラの画像領域を撮影した第2入力映像から、体幹が水平回転を開始した時点である時点Bを抽出する第2時点抽出部と、
前記時点Aと前記時点Bから、前記時点Aと前記時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する相対的時間関係フィードバック提示部と
を含む運動状態時間情報提示装置。
The first camera is a camera for photographing the forefoot landing in the pitching motion, and a certain area on a plane parallel to the pitching direction and the vertical direction photographed by the first camera is an image area of the first camera, and pitching. The second camera is a camera for photographing the state in which the trunk is horizontally rotated during the movement, and a certain region on the surface of the second camera which looks down on the ground from above the head is an image region of the second camera,
A first time point extraction unit that extracts a time point A, which is a time point when the front foot touches the ground, from a first input image obtained by photographing the image area of the first camera;
A second time point extraction unit that extracts a time point B, which is a time point at which the trunk starts horizontal rotation, from the second input image obtained by photographing the image area of the second camera;
Motion state time information including a relative time relationship feedback presenting section for generating and presenting relative time relationship feedback reflecting the relative time relationship between the time points A and B from the time points A and B. Presentation device.
請求項1に記載の運動状態時間情報提示装置であって、
前記第1時点抽出部は、
前記第1入力映像から、フレーム時刻t(t=0,1,…)における第1入力映像の画像C1 t(x,y)(ただし、(x,y)は前記第1カメラの画像領域内の画素の座標位置を表す)を二値化した二値画像B1 t(x,y)を生成する二値画像生成部と、
隣り合うフレーム時刻t-1,tにおける二値画像B1 t-1(x,y),B1 t(x,y)から、次式により算出されるフレーム時刻t(t=1,…)における前足の移動速度の絶対値vt
(ただし、t=0については、v0=0とする)を用いて、前記時点Aを抽出する二値画像差分抽出部と
を含む運動状態時間情報提示装置。
The exercise state time information presentation device according to claim 1,
The first time point extraction unit is
From the first input image, an image C 1 t (x, y) of the first input image at a frame time t (t = 0,1, ...) (where (x, y) is the image area of the first camera) A binary image generation unit that generates a binary image B 1 t (x, y) by binarizing
Frame time t (t = 1, ...) Calculated by the following formula from binary images B 1 t-1 (x, y) and B 1 t (x, y) at adjacent frame times t-1 and t the absolute value v t of the forefoot movement speed of at
(However, for t = 0, v 0 = 0) is used, and a motion state time information presentation device including a binary image difference extraction unit that extracts the time point A.
請求項1または2に記載の運動状態時間情報提示装置であって、
Δt(k)をk回目のピッチング動作における時点Aと時点Bとの時間間隔、v ball (k)を球速測定器が測定したk回目のピッチング動作における球速とし、
時間間隔Δt(1), …, Δt(k)と球速v ball (1), …, v ball (k)とを用いて、球速が最大となると予想される時点Aと時点Bの時間間隔である最適時間間隔を推定する最適時間間隔推定部と
を含む運動状態時間情報提示装置。
The exercise state time information presentation device according to claim 1 or 2,
Δt (k) is the time interval between time A and time B in the kth pitching motion, v ball (k) is the ball speed in the kth pitching motion measured by the ball speed measuring device,
Using the time intervals Δt (1),…, Δt (k) and the ball speeds v ball (1),…, v ball (k), the time interval between the time A and the time B at which the ball speed is expected to be the maximum is determined. A motion state time information presentation device including an optimum time interval estimation unit that estimates a certain optimum time interval.
請求項1ないし3のいずれか1項に記載の運動状態時間情報提示装置であって、
前記相対的時間関係フィードバック提示部は、
音を用いて前記相対的時間関係フィードバックを生成する
ことを特徴とする運動状態時間情報提示装置。
The exercise state time information presentation device according to any one of claims 1 to 3,
The relative time relationship feedback presenting unit,
A motion state time information presentation device, wherein the relative time relation feedback is generated using sound.
ピッチング動作での前足が接地する様子を撮影するカメラを第1カメラ、前記第1カメラが撮影する投球方向と鉛直方向に対して平行な面上の一定の領域を第1カメラの画像領域、ピッチング動作での体幹が水平回転する様子を撮影するカメラを第2カメラ、前記第2カメラが撮影する頭上から地面を見下ろした面上の一定の領域を第2カメラの画像領域とし、
運動状態時間情報提示装置が、前記第1カメラの画像領域を撮影した第1入力映像から、前足が接地した時点である時点Aを抽出する第1時点抽出ステップと、
前記運動状態時間情報提示装置が、前記第2カメラの画像領域を撮影した第2入力映像から、体幹が水平回転を開始した時点である時点Bを抽出する第2時点抽出ステップと、
前記運動状態時間情報提示装置が、前記時点Aと前記時点Bから、前記時点Aと前記時点Bの相対的な時間関係を反映した相対的時間関係フィードバックを生成し、提示する相対的時間関係フィードバック提示ステップと
を含む運動状態時間情報提示方法。
The first camera is a camera for photographing the forefoot landing in the pitching motion, and a certain area on a plane parallel to the pitching direction and the vertical direction photographed by the first camera is an image area of the first camera, and pitching. The second camera is a camera for photographing the state in which the trunk is horizontally rotated during the movement, and a certain region on the surface of the second camera which looks down on the ground from above the head is an image region of the second camera,
A first time point extraction step in which the exercise state time information presentation device extracts a time point A at which the front foot touches the ground, from a first input image obtained by photographing the image area of the first camera;
A second time point extraction step in which the exercise state time information presentation device extracts a time point B, which is a time point at which the trunk starts horizontal rotation, from a second input image obtained by photographing the image area of the second camera;
Relative time relationship feedback that the exercise state time information presenting device generates and presents relative time relationship feedback reflecting the relative time relationship between the time points A and B from the time points A and B. A method of presenting motion state time information, including a presenting step.
請求項5に記載の運動状態時間情報提示方法であって、
前記第1時点抽出ステップは、
前記第1入力映像から、フレーム時刻t(t=0,1,…)における第1入力映像の画像C1 t(x,y)(ただし、(x,y)は前記第1カメラの画像領域内の画素の座標位置を表す)を二値化した二値画像B1 t(x,y)を生成する二値画像生成ステップと、
隣り合うフレーム時刻t-1,tにおける二値画像B1 t-1(x,y),B1 t(x,y)から、次式により算出されるフレーム時刻t(t=1,…)における前足の移動速度の絶対値vt
(ただし、t=0については、v0=0とする)を用いて、前記時点Aを抽出する二値画像差分抽出ステップと
を含む運動状態時間情報提示方法。
The exercise state time information presentation method according to claim 5,
The first time point extraction step includes
From the first input image, an image C 1 t (x, y) of the first input image at a frame time t (t = 0,1, ...) (where (x, y) is the image area of the first camera) (Representing the coordinate position of the pixel in) is a binary image generating step of generating a binary image B 1 t (x, y),
Frame time t (t = 1, ...) Calculated by the following formula from binary images B 1 t-1 (x, y) and B 1 t (x, y) at adjacent frame times t-1 and t the absolute value v t of the forefoot movement speed of at
(However, for t = 0, v 0 = 0) is used to extract the time point A, and a binary image difference extraction step is included.
請求項5または6に記載の運動状態時間情報提示方法であって、
Δt(k)をk回目のピッチング動作における時点Aと時点Bとの時間間隔、v ball (k)を球速測定器が測定したk回目のピッチング動作における球速とし、
前記運動状態時間情報提示装置が、時間間隔Δt(1), …, Δt(k)と球速v ball (1), …, v ball (k)とを用いて、球速が最大となると予想される時点Aと時点Bの時間間隔である最適時間間隔を推定する最適時間間隔推定ステップと
を含む運動状態時間情報提示方法。
The exercise state time information presentation method according to claim 5 or 6,
Δt (k) is the time interval between time A and time B in the kth pitching motion, v ball (k) is the ball speed in the kth pitching motion measured by the ball speed measuring device,
It is expected that the motion state time information presenting device uses the time interval Δt (1), ..., Δt (k) and the ball speed v ball (1), ..., v ball (k) to maximize the ball speed. An optimal time interval estimation step of estimating an optimum time interval which is a time interval between time A and time B.
請求項1ないし4のいずれか1項に記載の運動状態時間情報提示装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the exercise state time information presentation device according to any one of claims 1 to 4.
JP2017007349A 2017-01-19 2017-01-19 Exercise state time information presenting device, exercise state time information presenting method, program Active JP6691490B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017007349A JP6691490B2 (en) 2017-01-19 2017-01-19 Exercise state time information presenting device, exercise state time information presenting method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017007349A JP6691490B2 (en) 2017-01-19 2017-01-19 Exercise state time information presenting device, exercise state time information presenting method, program

Publications (2)

Publication Number Publication Date
JP2018114138A JP2018114138A (en) 2018-07-26
JP6691490B2 true JP6691490B2 (en) 2020-04-28

Family

ID=62983382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017007349A Active JP6691490B2 (en) 2017-01-19 2017-01-19 Exercise state time information presenting device, exercise state time information presenting method, program

Country Status (1)

Country Link
JP (1) JP6691490B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011062352A (en) * 2009-09-17 2011-03-31 Koki Hashimoto Exercise motion teaching device and play facility
US9746353B2 (en) * 2012-06-20 2017-08-29 Kirt Alan Winter Intelligent sensor system
JP6307457B2 (en) * 2015-02-17 2018-04-04 日本電信電話株式会社 Exercise state feedback method, system, and program

Also Published As

Publication number Publication date
JP2018114138A (en) 2018-07-26

Similar Documents

Publication Publication Date Title
US11998819B2 (en) Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program
US11132533B2 (en) Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion
US11594029B2 (en) Methods and systems for determining ball shot attempt location on ball court
US10923224B2 (en) Non-transitory computer-readable recording medium, skill determination method, skill determination device and server
Loffing et al. On-court position influences skilled tennis players’ anticipation of shot outcome
US9744421B2 (en) Method of analysing a video of sports motion
Shim et al. Perception of kinematic characteristics of tennis strokes for anticipating stroke type and direction
US8774467B2 (en) Predictive flight path and non-destructive marking system and method
CN103916586B (en) image analysis apparatus and image analysis method
EP0847201B1 (en) Real time tracking system for moving bodies on a sports field
Chun et al. A sensor-aided self coaching model for uncocking improvement in golf swing
US11615540B2 (en) Methods and systems to track a moving sports object trajectory in 3D using a single camera
US20230285832A1 (en) Automatic ball machine apparatus utilizing player identification and player tracking
JP6691490B2 (en) Exercise state time information presenting device, exercise state time information presenting method, program
KR101703316B1 (en) Method and apparatus for measuring velocity based on image
Ting et al. Kinect-based badminton action analysis system
Malawski Real-time first person perspective tracking and feedback system for weapon practice support in fencing
WO2023106028A1 (en) Moving object detection device, moving object detection method, and computer-readable recording medium
EP3971842A1 (en) Method, apparatus and computer program product for generating a path of an object through a virtual environment
TWM529902U (en) Barbell track analysis system
JP2023178888A (en) Determination device, determination method, and program
Akiyama et al. Supporting sports instruction with comparative display of forms
Chan Personalised annotations for augmented video coaching
Myint A Novel Multi-View Table Tennis Umpiring Framework
CN116704406A (en) Dribbling breaking behavior detection method and system based on sight focus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200410

R150 Certificate of patent or registration of utility model

Ref document number: 6691490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150