JP2012094130A - Operation analyzing device - Google Patents

Operation analyzing device Download PDF

Info

Publication number
JP2012094130A
JP2012094130A JP2011215122A JP2011215122A JP2012094130A JP 2012094130 A JP2012094130 A JP 2012094130A JP 2011215122 A JP2011215122 A JP 2011215122A JP 2011215122 A JP2011215122 A JP 2011215122A JP 2012094130 A JP2012094130 A JP 2012094130A
Authority
JP
Japan
Prior art keywords
still image
image
trajectory
motion analysis
still
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011215122A
Other languages
Japanese (ja)
Other versions
JP5872829B2 (en
Inventor
Mitsuji Yoshida
満次 吉田
Itsuko Yoshida
いつ子 吉田
Atsushi Usui
温 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAYTRON KK
Original Assignee
RAYTRON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RAYTRON KK filed Critical RAYTRON KK
Priority to JP2011215122A priority Critical patent/JP5872829B2/en
Publication of JP2012094130A publication Critical patent/JP2012094130A/en
Application granted granted Critical
Publication of JP5872829B2 publication Critical patent/JP5872829B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an operation analyzing device which is easily usable for a user.SOLUTION: This operation analyzing device is configured to, when receiving the input of a moving image (S11), display a still image at an operation part (S12). The operation analyzing device is configured to, when an arbitrary part on the still image is designated by a user (S13), retrieve a first feature point in a range having a radius r with the designated point as a center (S14), and to retrieve a second feature point corresponding to the first feature point in adjacent still images temporally posterior to the still image whose first feature point has been retrieved (S15), and to calculate a difference between those feature points (S16), and to calculate the average value of the calculated differences (S17), and to calculate the difference between the feature points for all the adjacent still images of a plurality of continuous still images, and to calculate the average value of the calculated differences (S18: YES), and to successively connect those calculated average values, and to create an orbit in this way (S19).

Description

この発明は、動作解析装置に関し、特に、特定箇所の動作を解析可能な動作解析装置に関するものである。   The present invention relates to a motion analysis device, and more particularly to a motion analysis device capable of analyzing a motion at a specific location.

ゴルフのスイング運動の動作解析に関する技術が、例えば、特開2009−20897号公報(特許文献1)に開示されている。特許文献1によると、時系列の物体画像データのそれぞれについて、特定領域の位置を検出し、検出した特定領域の位置の変化を追跡することにより、特定領域の軌跡を線と点で表示することとしている。   For example, Japanese Unexamined Patent Application Publication No. 2009-20897 (Patent Document 1) discloses a technique related to a golf swing motion analysis. According to Patent Document 1, the position of a specific area is detected for each piece of time-series object image data, and the locus of the specific area is displayed with lines and points by tracking the change in the position of the detected specific area. It is said.

具体的には、予め特定領域の色を記憶しておくことにより、記憶された色と同じ色の領域を時系列の物体画像データからそれぞれ検出し、特定領域の位置の変化を追跡する。また、ユーザによるマニュアル操作により、特定領域の位置を指定させ、この指定された領域の色に基づいて、特定領域の位置の変化を追跡する。   Specifically, by storing the color of the specific area in advance, areas having the same color as the stored color are detected from the time-series object image data, and the change in the position of the specific area is tracked. Further, the position of the specific area is designated by a manual operation by the user, and the change in the position of the specific area is traced based on the color of the designated area.

特開2009−20897号公報(段落番号0071〜0075等)JP 2009-20897 A (paragraph numbers 0071 to 0075, etc.)

しかしながら、特許文献1に開示の技術では、特定領域の位置の検出のために、特定領域の色を予め記憶させる必要がある。そうすると、例えば、予め記憶させた色と異なる色を急遽使用しなければならなくなった場合に、色の登録を改めて行う必要があり、ユーザにとってこのような作業は煩雑である。   However, in the technique disclosed in Patent Document 1, it is necessary to previously store the color of the specific area in order to detect the position of the specific area. In this case, for example, when a color different from the color stored in advance needs to be used quickly, it is necessary to register the color again, which is complicated for the user.

また、ユーザによるマニュアル操作により、特定領域の位置を指定された場合であっても、指定された領域の色に基づいて、特定領域の位置の変化を追跡するため、例えば、ユーザにとって、複数の特定領域の位置を指定したい場合には、特定領域のそれぞれにおいて、異なる色を用いる必要がある。   Further, even when the position of the specific area is designated by the user's manual operation, the change in the position of the specific area is tracked based on the color of the designated area. When it is desired to specify the position of the specific area, it is necessary to use a different color in each of the specific areas.

この発明の目的は、ユーザにとって、簡易に使用可能な動作解析装置を提供することである。   An object of the present invention is to provide an operation analysis apparatus that can be easily used by a user.

この発明に係る動作解析装置は、連続する複数の静止画から構成される動画の動作を解析する。動作解析装置は、動画の入力を受け付ける動画受付手段と、動画受付手段により受け付けた動画のうち、動画を構成する第一の静止画において、第一の静止画像上の解析対象箇所を指定する解析箇所指定手段と、解析対象箇所から一定範囲内において、第一の特徴点を検索する第一の検索手段と、動画を構成し、第一の静止画と異なる静止画である第二の静止画において、第一の特徴点に対応する第二の特徴点を検索する第二の検索手段と、第一および第二の特徴点に基づいて、軌跡を作成する軌跡作成手段とを備える。   The motion analysis apparatus according to the present invention analyzes the motion of a moving image composed of a plurality of continuous still images. The motion analysis device includes a moving image receiving unit that receives an input of a moving image, and an analysis that specifies an analysis target location on the first still image in the first still image constituting the moving image out of the moving images received by the moving image receiving unit. A location specifying means, a first search means for searching for a first feature point within a certain range from the analysis target location, and a second still image that constitutes a moving image and is a still image different from the first still image , A second search means for searching for a second feature point corresponding to the first feature point, and a trajectory creation means for creating a trajectory based on the first and second feature points.

こうすることにより、動作解析装置は、第一の静止画像上の解析対象箇所の指定を行い、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、解析対象箇所の指定および軌跡の作成を行い、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。   By doing so, the motion analysis apparatus designates the analysis target location on the first still image, and searches for the first feature point in the first still image and the second feature point in the second still image. To do. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to analyze the motion of the moving image by specifying the analysis target portion and creating the locus without considering the color. As a result, the user can use it easily.

好ましくは、解析箇所指定手段は、ユーザが解析対象箇所を任意に指定可能とするために、ユーザからの指定を受け付ける指定受付手段を有する。こうすることにより、ユーザは、動作の解析を行う箇所を任意に指定することが可能となる。これにより、ユーザの利便性をさらに向上させることができる。   Preferably, the analysis location specifying means includes a specification receiving means for receiving a specification from the user so that the user can arbitrarily specify the analysis target location. By doing so, the user can arbitrarily designate a location for analyzing the motion. Thereby, the convenience for the user can be further improved.

好ましくは、解析箇所指定手段は、第一の静止画から観測対象を認識する認識手段と、認識手段によって認識された観測対象の画像データに基づいて、観測対象の形態を推定する形態推定手段とを有する。ここで、上記解析対象箇所は、形態推定手段によって推定された画像データに基づいて指定される。こうすることにより、動作解析を開始するに際して、動作解析装置が観測対象の初期形態を推定し、そのデータに基づいて解析の初期条件を自動的に決定することが可能となる。これにより、ユーザが解析対象箇所を指定する作業を省略することができるため、ユーザの利便性をさらに向上させた動作解析装置を提供することができる。   Preferably, the analysis location specifying means includes a recognition means for recognizing the observation target from the first still image, and a form estimation means for estimating the form of the observation target based on the observation target image data recognized by the recognition means; Have Here, the analysis target location is specified based on the image data estimated by the form estimation means. In this way, when starting the motion analysis, the motion analysis device can estimate the initial form of the observation target and automatically determine the initial conditions for the analysis based on the data. Thereby, since the user can omit the operation of specifying the analysis target portion, it is possible to provide an operation analysis device that further improves the convenience for the user.

好ましくは、認識手段は、観測対象を含む一定の領域を対象領域として画定する対象領域画定手段と、対象領域の大きさを所定の画像サイズとなるように調整する対象領域正規化手段とを含む。こうすることにより、第一の静止画像における観測対象の位置や大きさ等による影響を受けることなく、観測対象の形態推定および動作解析を、より高精度に一律に行うことが可能となる。   Preferably, the recognizing unit includes a target region demarcating unit that demarcates a certain region including the observation target as a target region, and a target region normalizing unit that adjusts the size of the target region to a predetermined image size. . By doing so, it is possible to uniformly perform the morphological estimation and motion analysis of the observation target without being affected by the position and size of the observation target in the first still image.

好ましくは、認識手段は、第一の静止画に形成された輝度勾配に基づいて、観測対象の輪郭を検出する。こうすることにより、観測対象の輪郭を高精度に行うことができるため、観測対象の形態推定および動作解析を、より高精度に行うことができる。   Preferably, the recognizing unit detects the contour of the observation target based on the luminance gradient formed in the first still image. By doing so, since the contour of the observation target can be performed with high accuracy, the shape estimation and motion analysis of the observation target can be performed with higher accuracy.

好ましくは、観測対象に対応する比較対象の画像データを、予め複数記憶するレファレンス画像記憶手段をさらに備え、形態推定手段は、認識手段によって認識された観測対象の画像データと、レファレンス画像記憶手段によって記憶された比較対象の画像データとを比較し、観測対象の画像データに形態が近似する比較対象の画像データを選択するレファレンス画像選択手段を含む。ここで、上記解析対象箇所は、レファレンス画像選択手段によって選択された比較対象の画像データに基づいて指定される。こうすることにより、観測対象の形態を自動的に推定し、且つ、推定された画像データ上において上記解析対象箇所を設定することができる。すなわち、動作解析の開始点における解析箇所の初期条件を、ユーザによる指定を要することなく、より確実且つ高精度に設定することができる。これにより、ユーザに対する利便性を向上させるとともに、動作解析の精度を向上させることができる。   Preferably, the image processing apparatus further includes a reference image storage unit that stores in advance a plurality of comparison target image data corresponding to the observation target, and the form estimation unit includes the observation target image data recognized by the recognition unit and the reference image storage unit. Reference image selecting means for comparing the stored image data to be compared and selecting image data to be compared whose form approximates the image data to be observed is included. Here, the analysis target portion is specified based on the comparison target image data selected by the reference image selection means. By doing so, it is possible to automatically estimate the form of the observation target and set the analysis target location on the estimated image data. That is, the initial condition of the analysis location at the start point of the motion analysis can be set more reliably and with high accuracy without requiring designation by the user. Thereby, the convenience for the user can be improved and the accuracy of the operation analysis can be improved.

好ましくは、第一の検索手段は、一定範囲内において、複数の第一の特徴点を検索し、第二の検索手段は、複数の第一の特徴点に対応する複数の第二の特徴点を検索し、軌跡作成手段は、複数の第一の特徴点と複数の第二の特徴点との差をそれぞれ算出し、この算出した差の平均値を求めることにより、求めた平均値に基づいて、軌跡を作成する。こうすることにより、複数の特徴点の差の平均値に基づいて、軌跡を作成することができる。したがって、例えば、動作解析装置の認識した解析対象箇所が、ユーザの意図する箇所と多少ずれていた場合であっても、そのずれ具合を抑えることができる。その結果、作成する軌跡の精度を向上させることができる。   Preferably, the first search unit searches for a plurality of first feature points within a certain range, and the second search unit stores a plurality of second feature points corresponding to the plurality of first feature points. The trajectory creation means calculates the difference between the plurality of first feature points and the plurality of second feature points, respectively, and obtains the average value of the calculated differences, thereby obtaining the average value. To create a trajectory. In this way, a trajectory can be created based on the average value of differences between a plurality of feature points. Therefore, for example, even if the analysis target location recognized by the motion analysis device is slightly deviated from the location intended by the user, the degree of deviation can be suppressed. As a result, the accuracy of the created trajectory can be improved.

さらに好ましくは、平均値は、第一および第二の特徴点に基づく点であって、動画を構成する静止画像上の所定の点における変化を示すものであり、軌跡作成手段は、平均値を、連続する複数の静止画の隣り合う静止画像間においてそれぞれ算出し、この算出した平均値が示す所定の点を順に接続することにより、軌跡を作成する。   More preferably, the average value is a point based on the first and second feature points and indicates a change at a predetermined point on the still image constituting the moving image. The trajectory is created by sequentially calculating between adjacent still images of a plurality of continuous still images and sequentially connecting predetermined points indicated by the calculated average value.

さらに好ましくは、第一の静止画は、動画の先頭に位置する静止画と、動画の最後に位置する静止画とを含み、第二の静止画は、第一の静止画と時系列的に後に隣り合う静止画と、第一の静止画より時系列的に前に隣り合う静止画とを含み、第二の検索手段は、時系列的に後に隣り合う静止画において、第一の特徴点に対応する第二の特徴点を検索すると共に、時系列的に前に隣り合う静止画において、第一の特徴点に対応する第二の特徴点を検索する。こうすることにより、例えば、連続する複数の静止画において、時系列的に前から後ろへ向かって、順に特徴点の検索を行った場合に、途中で特徴点の検索を行うことが出来なくなった場合であっても、時系列的に後ろから前へ向かって、逆順に特徴点の検索を行うことができる。その結果、確実に特徴点の検索を行うことができる。   More preferably, the first still image includes a still image located at the beginning of the movie and a still image located at the end of the movie, and the second still image is time-sequentially with the first still image. The second search means includes a first feature point in a still image that is adjacent in time series, and a still image that is adjacent in time series before the first still image. And a second feature point corresponding to the first feature point in a still image adjacent in time series. By doing this, for example, when searching for feature points in order from the front to the back in time series in a plurality of continuous still images, it is no longer possible to search for feature points on the way Even in this case, the feature points can be searched in reverse order from the rear to the front in time series. As a result, the feature point can be reliably searched.

さらに好ましくは、第二の検索手段は、動画の動作の速さを取得する取得手段を含み、取得手段により取得した速さに基づいて、第二の特徴点を検索する。こうすることにより、第二の特徴点の検索を動画の動作の速さに応じて変化させることができる。その結果、容易に第二の特徴点を検索することができる。   More preferably, the second search means includes acquisition means for acquiring the speed of motion of the moving image, and searches for the second feature point based on the speed acquired by the acquisition means. In this way, the search for the second feature point can be changed according to the moving speed of the moving image. As a result, the second feature point can be easily searched.

一実施形態として、連続する複数の静止画は、一定間隔で構成されており、取得手段は、隣り合う静止画像間において、静止画像の差の大小を取得することにより、動画の動作の速さを取得する。   As one embodiment, a plurality of continuous still images are configured at regular intervals, and the acquisition means acquires the magnitude of the difference between the still images between adjacent still images, thereby speeding up the motion of the moving image. To get.

好ましくは、軌跡作成手段は、軌跡の方向が転換された場合に、方向転換前の軌跡と方向転換後の軌跡とを識別可能とする方向転換識別手段を有する。こうすることにより、動作の転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を容易に行うことができる。   Preferably, the trajectory creation unit includes a direction change identification unit that can identify a trajectory before the direction change and a trajectory after the direction change when the direction of the trajectory is changed. By doing this, it becomes possible to clearly grasp the point that becomes the turning point of the operation and the trajectory of the movement before and after that, so that more detailed operation analysis can be easily performed.

好ましくは、方向転換識別手段は、時系列的に連続する静止画間における軌跡の速度ベクトルを計算し、特定の静止画における速度ベクトルと、当該特定の静止画と時系列的に後に隣り合う静止画における速度ベクトルとの内積が負となった場合に、軌跡の方向転換を検出する。こうすることにより、動作の転換点となるポイントを、より高精度に検出することが可能となる。   Preferably, the direction change identification unit calculates a velocity vector of a trajectory between still images that are continuous in time series, and a speed vector in a specific still image and a still image that is adjacent to the specific still image after time series. When the inner product with the velocity vector in the image becomes negative, the direction change of the trajectory is detected. By doing so, it becomes possible to detect the point that becomes the turning point of the operation with higher accuracy.

さらに好ましくは、軌跡作成手段により作成された軌跡と、動画受付手段により受け付けた動画とを重ねて表示する表示手段を含む。こうすることにより、軌跡と動画とを重ねて表示することができ、ユーザにとって、動画の動作の解析結果がわかりやすくなる。   More preferably, it includes display means for displaying the trajectory created by the trajectory creating means and the moving picture accepted by the moving picture accepting means in an overlapping manner. By doing so, the trajectory and the moving image can be displayed in an overlapping manner, and the analysis result of the moving image operation can be easily understood by the user.

このような動作解析装置は、第一の静止画像上の解析対象箇所の指定を行い、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、解析対象箇所の指定および軌跡の作成を行い、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。   Such a motion analysis apparatus designates an analysis target location on the first still image, and searches for the first feature point in the first still image and the second feature point in the second still image. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to analyze the motion of the moving image by specifying the analysis target portion and creating the locus without considering the color. As a result, the user can use it easily.

この発明の一実施形態に係る動作解析装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation | movement analysis apparatus which concerns on one Embodiment of this invention. ゴルフのスイングのフォームを解析する場合の動作解析装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operation | movement analysis apparatus in the case of analyzing the form of a golf swing. 連続する複数の静止画の一部を示す図である。It is a figure which shows a part of several continuous still images. 連続する複数の静止画の一部を示す図であって、図3の次の状態を示す静止画である。It is a figure which shows a part of several continuous still images, Comprising: It is a still image which shows the next state of FIG. 連続する複数の静止画の一部を示す図であって、図4の次の状態を示す静止画である。It is a figure which shows a part of several continuous still images, Comprising: It is a still image which shows the next state of FIG. 図3の静止画において、指定されたPの位置を示す図である。In the still image in FIG. 3 is a diagram illustrating the position of the specified P 0. 図3の静止画において、検索された特徴点P、P、Pの位置を示す図である。In the still image of FIG. 3 shows a search feature point P 1, the position of P 2, P 3. 図4の静止画において、検索された特徴点P´、P´、P´の位置を示す図である。FIG. 5 is a diagram illustrating the positions of searched feature points P 1 ′, P 2 ′, and P 3 ′ in the still image of FIG. 4. 図3の静止画に軌跡を重ねて表示した状態を示す図である。FIG. 4 is a diagram illustrating a state in which a trajectory is displayed superimposed on the still image of FIG. 3. 連続する複数の静止画の他の例を示す図である。It is a figure which shows the other example of several continuous still images. 連続する複数の静止画の他の例を示す図であって、図10の次の状態を示す静止画である。It is a figure which shows the other example of several continuous still images, Comprising: It is a still image which shows the next state of FIG. 連続する複数の静止画の他の例を示す図であって、図11の次の状態を示す静止画である。It is a figure which shows the other example of several continuous still images, Comprising: It is a still image which shows the next state of FIG. 本発明の他の実施形態に係る動作解析装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operation | movement analysis apparatus which concerns on other embodiment of this invention. 連続する複数の静止画のうち、時系列的に最初の静止画を示す図である。It is a figure which shows the first still picture in time series among several continuous still pictures. 図14に示す対象領域を拡大した示す図である。FIG. 15 is an enlarged view of the target area shown in FIG. 14. 図15に示すプレーヤーの輪郭を抽出した図を示す。The figure which extracted the outline of the player shown in FIG. 15 is shown. 比較対象となるレファレンス画像の一例を示す図である。It is a figure which shows an example of the reference image used as comparison object. 図17に示すレファレンス画像であって、(a)は画像上に頭部、腕部、および脚部に対応する第一身体部位領域が画定されている様子を表す図であり、(b)はレファレンスプレーヤーの輪郭を抽出した図であり、(c)は(a)に示す第一身体部位領域のみを抽出した様子を表す図である。FIG. 17 is a reference image shown in FIG. 17, wherein (a) represents a state in which first body part regions corresponding to the head, arms, and legs are defined on the image; It is the figure which extracted the outline of the reference player, (c) is a figure showing a mode that only the 1st body part area | region shown to (a) was extracted. 観測対象の画像データに、選択されたレファレンス画像に対応する第一身体部位領域を適用した様子を表す図である。It is a figure showing a mode that the 1st body part area | region corresponding to the selected reference image was applied to the image data of observation object. 図19に示す画像から時系列的に後に隣接する画像を示す図であって、図19に対応する図である。It is a figure which shows the image which adjoins after the time series from the image shown in FIG. 19, Comprising: It is a figure corresponding to FIG. 図20に示す画像から時系列的に後に隣接する画像を示す図であって、図20に対応する図である。It is a figure which shows the image which adjoins after the time series from the image shown in FIG. 20, Comprising: It is a figure corresponding to FIG. 一連のゴルフスイングを記録した動画を、計6フレームの静止画によって表した図である。It is the figure which represented the moving image which recorded a series of golf swings with the still image of a total of 6 frames. 方向転換識別手段によってテイクバックとダウンスイングとが識別可能となったゴルフスイングの軌跡を表す図である。It is a figure showing the locus | trajectory of the golf swing from which the takeback and the downswing became distinguishable by the direction change identification means. 二つのゴルフスイングの軌跡を形成し、それらを並列表示した図を示す。The figure which formed the locus | trajectory of two golf swings and displayed them in parallel is shown. 本発明に係る動作比較手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the operation | movement comparison means which concerns on this invention. 第一および第二の軌跡のフレーム番号Nと差分値xに係るグラフを示す。The graph which concerns on the frame number N and the difference value x of a 1st and 2nd locus | trajectory is shown.

以下、図面を参照して、この発明の一実施形態に係る動作解析装置について説明する。図1は、この発明の一実施形態に係る動作解析装置10の構成を示すブロック図である。図1を参照して、動作解析装置10は、動画の動作を解析可能であって、動作解析装置10全体を制御するCPU等の制御部11と、画像等を記憶する記憶部12と、タッチパネル式であってユーザからの操作を受け付けると共に記憶部12に記憶した画像等を表示する操作部13と、外部機器との接続インターフェースとなるI/F部14とを備える。なお、本実施形態中において、画像とは、動画および静止画を含むものとする。   Hereinafter, an operation analysis apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a motion analysis apparatus 10 according to an embodiment of the present invention. Referring to FIG. 1, the motion analysis device 10 can analyze the motion of a moving image, and includes a control unit 11 such as a CPU that controls the entire motion analysis device 10, a storage unit 12 that stores images and the like, and a touch panel. An operation unit 13 that receives an operation from a user and displays an image or the like stored in the storage unit 12 and an I / F unit 14 that is a connection interface with an external device. In the present embodiment, the image includes a moving image and a still image.

ここで、動作解析装置10が、ゴルフのスイングのフォームを解析する場合について説明する。図2は、ゴルフのスイングのフォームを解析する場合の動作解析装置10の動きを示すフローチャートである。図1〜図2を参照して説明する。   Here, a case where the motion analysis device 10 analyzes a golf swing form will be described. FIG. 2 is a flowchart showing the movement of the motion analysis apparatus 10 when analyzing a golf swing form. A description will be given with reference to FIGS.

まず、ユーザは、アドレスからフィニッシュまでのゴルフのスイングのフォームをビデオカメラ等で予め撮影しており、動作解析装置10は、I/F部14を介して、撮影した動画の入力を受け付ける(図2において、ステップS11、以下ステップを省略する)。動画は、連続する複数の静止画から構成されており、この複数の静止画は、一定間隔である。図3〜図5は、連続する複数の静止画の一部を示す図である。図3〜図5は、アドレスからフィニッシュまでのゴルフのスイングのうち、スイングの開始直後であるアドレスからテイクバックまでの状態を順に示している。ここで、I/F部14は、動画受付手段として作動する。動作解析装置10は、連続する静止画の先頭に位置する図3の静止画を操作部13に表示する(S12)。ここで、図3の静止画は、第一の静止画である。   First, the user has previously photographed a golf swing form from the address to the finish with a video camera or the like, and the motion analysis apparatus 10 accepts input of the photographed moving image via the I / F unit 14 (FIG. 2, step S11, the following steps are omitted). The moving image is composed of a plurality of continuous still images, and the plurality of still images are at regular intervals. 3 to 5 are diagrams showing a part of a plurality of continuous still images. FIGS. 3 to 5 sequentially show the state from the address immediately after the start of the swing to the takeback among golf swings from the address to the finish. Here, the I / F unit 14 operates as a moving image receiving unit. The motion analysis apparatus 10 displays the still image of FIG. 3 positioned at the head of the continuous still images on the operation unit 13 (S12). Here, the still image of FIG. 3 is a first still image.

そうすると、動作解析装置10は、動作解析の対象となる解析対象箇所として、ユーザから静止画像上の任意の箇所を指定される(S13)。操作部13は、タッチパネル式であり、画面を指等でタッチされることによって、任意の箇所を指定される。ここでは、任意の箇所として、Pを指定される。なお、図6は、図3の静止画において、指定されたPの位置を示す図である。ここで、操作部13は、指定受付手段として作動する。 Then, the motion analysis apparatus 10 designates an arbitrary location on the still image from the user as an analysis target location to be a motion analysis target (S13). The operation unit 13 is a touch panel type, and an arbitrary portion is designated by touching the screen with a finger or the like. Here, P 0 is designated as an arbitrary location. 6 shows, in the still image in FIG. 3 is a diagram illustrating the position of the specified P 0. Here, the operation unit 13 operates as a designation receiving unit.

そうすると、動作解析装置10は、指定点であるPを中心とし、予め定められた半径r範囲内において、第一の特徴点の検索を行う(S14)。特徴点とは、静止画像中の輝度の変化の大きい箇所や、物体のエッジ等を示す点であって、静止画において何らかの変化を有する点である。ここでは、図3の静止画において、P、P、Pの複数の第一の特徴点が検索される。 Then, the motion analysis device 10 is centered and P 0 is the designated point, within the radius r a predetermined range, the search for the first characteristic point performed (S14). A feature point is a point that indicates a location where the luminance changes greatly in a still image, an edge of an object, or the like, and is a point that has some change in a still image. Here, a plurality of first feature points P 1 , P 2 , and P 3 are searched in the still image of FIG.

なお、特徴点の検索は、SIFT(Scale Invariant Feature Transform)特徴量を用いることができる。SIFT特徴量の計算は、指定点Pを中心とした半径r範囲内の部分静止画を平滑化し、平滑化画像からDoG(Difference of Gaussian)画像を生成する。そして、DoG画像において極値を探索する。そして、当該極値の周囲の画素の輝度勾配および角度に基づき特徴量を計算する。SIFT特徴量は、物体の回転や、物体の拡大および縮小等に影響を受けることがない。したがって、この実施形態のような回転する動作であるゴルフのスイングにおいて、誤差等がなく適切に用いることができる。図7は、図3の静止画において、検索された第一の特徴点P、P、Pの位置を示す図である。ここで、制御部11は、第一の検索手段として作動する。 Note that a feature point search can use a SIFT (Scale Invariant Feature Transform) feature. The SIFT feature value is calculated by smoothing a partial still image within a radius r centered on the designated point P 0 and generating a DoG (Difference of Gaussian) image from the smoothed image. Then, extreme values are searched for in the DoG image. Then, the feature amount is calculated based on the luminance gradient and angle of the pixels around the extreme value. The SIFT feature quantity is not affected by the rotation of the object, the enlargement / reduction of the object, or the like. Therefore, the golf swing which is a rotating operation as in this embodiment can be appropriately used without any error. FIG. 7 is a diagram illustrating the positions of the searched first feature points P 1 , P 2 , and P 3 in the still image of FIG. Here, the control unit 11 operates as a first search means.

そして、動作解析装置10は、第一の特徴点P、P、Pを検索した図3の静止画より時系列的に後に隣り合う静止画、すなわち、図4の静止画において、第一の特徴点P、P、Pに対応する第二の特徴点の検索を行う(S15)。ここで、対応するとは、第一の特徴点P、P、Pに類似する値を有することを意味する。検索においては、例えば、図3の静止画における第一の特徴点P、P、Pの座標を図4の静止画にあてはめて、当該座標の位置を中心とした所定の範囲内において、第一の特徴点P、P、Pに対応する第二の特徴点の検索を行う。図8は、図4の静止画において、検索された第二の特徴点P´、P´、P´の位置を示す図である。P´がPに対応し、P´がPに対応し、P´がPに対応している。ここで、図4の静止画は、第二の静止画であり、制御部11は、第二の検索手段として作動する。 Then, the motion analysis apparatus 10 determines the first feature point P 1 , P 2 , P 3 in the still image adjacent in time series after the still image in FIG. 3, that is, the still image in FIG. The second feature point corresponding to the one feature point P 1 , P 2 , P 3 is searched (S15). Here, “corresponding” means having values similar to the first feature points P 1 , P 2 , and P 3 . In the search, for example, the coordinates of the first feature points P 1 , P 2 , P 3 in the still image of FIG. 3 are applied to the still image of FIG. 4 and within a predetermined range centered on the position of the coordinates. The second feature points corresponding to the first feature points P 1 , P 2 , P 3 are searched. FIG. 8 is a diagram showing the positions of the searched second feature points P 1 ′, P 2 ′, and P 3 ′ in the still image of FIG. P 1 'corresponds to P 1, P 2' corresponds to P 2, P 3 'corresponds to P 3. Here, the still image of FIG. 4 is a second still image, and the control unit 11 operates as a second search unit.

そして、図7に示す特徴点P、P、Pと、図8に示す特徴点P´、P´、P´との差を算出する(S16)。P´−P=ΔPよりΔPを算出する。すなわち、隣り合う静止画像間における特徴点の変化量を算出する。P´、P´においても同様に計算して、P´−P=ΔPよりΔPを算出し、P´−P=ΔPよりΔPを算出する。そして、算出した差ΔP、ΔP、ΔPの3つの平均値ΔPt1を求める(S17)。この平均値ΔPt1は、第一および第二の特徴点に基づく点である静止画像上の所定の点における変化を示すものとなる。 Then, the difference between the feature points P 1 , P 2 and P 3 shown in FIG. 7 and the feature points P 1 ′, P 2 ′ and P 3 ′ shown in FIG. 8 is calculated (S16). ΔP 1 is calculated from P 1 ′ −P 1 = ΔP 1 . That is, the change amount of the feature point between adjacent still images is calculated. P 2 ', P 3' is also calculated in the same manner in, 'calculates the [Delta] P 2 than-P 2 = ΔP 2, P 3' P 2 calculates the [Delta] P 3 from-P 3 = ΔP 3. Then, three average values ΔP t1 of the calculated differences ΔP 1 , ΔP 2 and ΔP 3 are obtained (S17). The average value ΔP t1 indicates a change at a predetermined point on the still image that is a point based on the first and second feature points.

そして、第二の特徴点P´、P´、P´を検索した図4の静止画より時系列的に後に隣り合う静止画、すなわち、図5の静止画においても同様に、特徴点P´、P´、P´に対応する特徴点P´´、P´´、P´´(図示せず)の検索を行い、特徴点P´、P´、P´と特徴点P´´、P´´、P´´の差を算出し、算出した差の平均値ΔPt2を求める。このとき、特徴点P´、P´、P´は第一の特徴点となり、特徴点P´´、P´´、P´´は第二の特徴点となる。 Similarly, in the still image adjacent in time series after the still image of FIG. 4 searched for the second feature points P 1 ′, P 2 ′, and P 3 ′, that is, the still image of FIG. the point P 1 ', P 2', P 3 'to the corresponding feature point P 1'', P 2'', performs a search of the P 3'' (not shown), the feature point P 1', P 2 ' , P 3 ′ and the feature points P 1 ″ , P 2 ″ , P 3 ″ are calculated, and an average value ΔP t2 of the calculated differences is obtained. In this case, the feature point P 1 ', P 2', P 3 ' becomes the first feature points, the feature point P 1'', P 2'', P 3'' is the second aspect.

このように、S11にて受け付けた動画を構成する連続する複数の静止画の隣り合う静止画像間の全てにおいて、特徴点の差をそれぞれ算出し、算出した差の平均値ΔPtn(n=1,2・・・)を順に求めていく(S18において、NO)。 As described above, the difference between the feature points is calculated for all the adjacent still images of the plurality of continuous still images constituting the moving image received in S11, and the average value ΔP tn (n = 1) of the calculated differences is calculated. , 2...) In order (NO in S18).

そして、連続する複数の静止画の隣り合う静止画像間の全てにおいて、特徴点の差をそれぞれ算出し、算出した差の平均値ΔPtn(n=1,2・・・)を求めると(S18において、YES)、求めた平均値ΔPtnを順に接続する。すなわち、所定の点を順に接続する。このようにして、平均値ΔPtnに基づき、軌跡を作成する(S19)。平均値ΔPtnは、軌跡の一部であり、接続することにより軌跡全体となる。図9は、図3の静止画に軌跡20を重ねて表示した状態を示す図である。なお、図9においては、軌跡20の一部を示している。ここで、制御部11は、軌跡作成手段として作動する。このようにして、動作解析装置10は、軌跡20を作成することにより、動作の解析を行う。 Then, the difference between the feature points is calculated for all the adjacent still images of the plurality of continuous still images, and the average value ΔP tn (n = 1, 2,...) Of the calculated difference is obtained (S18). And YES), the obtained average value ΔP tn is connected in order. That is, predetermined points are connected in order. In this way, a trajectory is created based on the average value ΔP tn (S19). The average value ΔP tn is a part of the trajectory and becomes the entire trajectory by connecting. FIG. 9 is a diagram illustrating a state in which the trajectory 20 is superimposed on the still image of FIG. In FIG. 9, a part of the trajectory 20 is shown. Here, the control unit 11 operates as a trajectory creation unit. In this way, the motion analysis device 10 analyzes the motion by creating the trajectory 20.

このように、動作解析装置10は、解析対象箇所として第一の静止画像上の任意の箇所の指定を受け付けると、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、任意の箇所を指定するのみで、軌跡を作成して、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。   As described above, when the motion analysis apparatus 10 receives designation of an arbitrary location on the first still image as the analysis target location, the first feature point in the first still image and the second feature in the second still image. Search for feature points. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to create a trajectory and analyze the motion of the moving image only by designating an arbitrary location without considering the color. As a result, the user can use it easily.

また、S13において、例えば画面が小さい場合には、ユーザとっては図3のグリップを指定したにもかかわらず、グリップとは異なるシャフト等を指定されたと操作部13が受け付けてしまう場合がある。すなわち、操作部13が受け付けた指定点Pとユーザの意図した解析対象箇所とが異なる場合がある。しかしながら、S14において、指定点Pを中心としてPの周囲の複数の特徴点を検索するため、この検索した複数の特徴点に基づいて軌跡の作成を行うことができる。したがって、指定点Pとユーザの意図した解析対象箇所とが異なる場合であっても、作成する軌跡の精度を向上させることができる。 In S13, for example, when the screen is small, the operation unit 13 may accept that the user designates a shaft or the like different from the grip even though the user designates the grip shown in FIG. That is, the designated point P 0 received by the operation unit 13 may be different from the analysis target portion intended by the user. However, in S14, for searching a plurality of feature points around the P 0 around a specified point P 0, it is possible to perform the creation of the locus on the basis of a plurality of characteristic points the search. Therefore, even when the analysis target locations intended for the specified point P 0 and the user are different, it is possible to improve the accuracy of the trajectory to be created.

なお、S15における第二の特徴点の検索の際に、例えば動画の動作が激しい場合には、第二の特徴点の検索が困難となる場合がある。例えば、図3〜図5に示す静止画像は、スイングの開始直後を示すものであるため、動作が遅く、静止画像間の変化が小さい。しかしながら、図10〜図12に示す静止画像は、ダウンスイングからインパクト直前を順に示すものであるため、動作が速く、静止画像間の変化が大きい。このように動画の動作が速く、特徴点の検索が困難な場合には、動画の動作の速さを予め取得しておくことにより、対応することができる。   When searching for the second feature point in S15, for example, if the motion of the moving image is intense, the search for the second feature point may be difficult. For example, the still images shown in FIGS. 3 to 5 show the state immediately after the start of the swing, so the operation is slow and the change between the still images is small. However, since the still images shown in FIGS. 10 to 12 show the order from the downswing to immediately before the impact, the operation is fast and the change between the still images is large. Thus, when the motion of the moving image is fast and it is difficult to search for the feature points, it can be dealt with by acquiring the speed of the motion of the moving image in advance.

具体的には、静止画像を所定の大きさの領域に分割し、隣り合う静止画像間で、対応する領域毎に差分を抽出する。そして、その差分の大小を取得して、差分が大きければ動作が速いと判断し、差分が小さければ動作が遅いと判断する。このようにして、動画の動作の速さを取得する。そして、S15における第二の特徴点の検索の際に、動作の速さを取得して、動作が速い場合には、検索する範囲を大きくする。ここで、制御部11は、取得手段として作動する。   Specifically, a still image is divided into regions of a predetermined size, and a difference is extracted for each corresponding region between adjacent still images. The magnitude of the difference is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, it is determined that the operation is slow. In this way, the motion speed of the moving image is acquired. Then, when searching for the second feature point in S15, the speed of operation is acquired, and if the operation is fast, the search range is enlarged. Here, the control unit 11 operates as an acquisition unit.

また、例えば、静止画像を所定の大きさの小領域に分割し、小領域毎に、横軸が輝度勾配、縦軸が出現頻度を示す輝度勾配のヒストグラムを計算する。なお、この輝度勾配は、上記したS14におけるSIFT特徴量計算時のものと同じである。そして、隣り合う静止画像間で、計算したヒストグラムを対応する領域毎に比較することにより、ヒストグラムの差の大小を取得して、差が大きければ動作が速いと判断し、差が小さければ動作が遅いと判断してもよい。   Further, for example, a still image is divided into small regions of a predetermined size, and a histogram of luminance gradients in which the horizontal axis indicates the luminance gradient and the vertical axis indicates the appearance frequency is calculated for each small region. This luminance gradient is the same as that at the time of SIFT feature value calculation in S14 described above. Then, by comparing the calculated histogram for each corresponding region between adjacent still images, the magnitude of the difference in the histogram is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, the operation is performed. You may judge that it is slow.

また、例えば、静止画像全体に2次元DCT(Discrete Cosine Transform:離散コサイン変換)処理を行うことにより、静止画像全体を周波数領域に変換する。そして、変換した周波数領域のうち、高周波領域の情報を除き、低周波領域のヒストグラムを計算する。そして、隣り合う静止画像間で、計算したヒストグラムを比較することにより、ヒストグラムの差の大小を取得して、差が大きければ動作が速いと判断し、差が小さければ動作が遅いと判断してもよい。   In addition, for example, the entire still image is converted into the frequency domain by performing a two-dimensional DCT (Discrete Cosine Transform) process on the entire still image. And the histogram of a low frequency area | region is calculated except the information of a high frequency area | region among the converted frequency area | regions. Then, by comparing the calculated histograms between adjacent still images, the magnitude of the difference between the histograms is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, the operation is determined to be slow. Also good.

また、上記の実施の形態においては、特徴点の検索の際に、いずれの静止画像においても特徴点の検索ができた場合について説明したが、例えば図3の静止画の特徴点P、P、Pは検索できたものの、図3の静止画に隣り合う図4の静止画の特徴点P´、P´、P´は検索できない場合がある。このような場合には、補間処理を行うことにより、対応することができる。 Further, in the above-described embodiment, the case has been described where the feature points can be searched for any still image when searching for the feature points. For example, the feature points P 1 and P 1 of the still image shown in FIG. 2 and P 3 can be searched, but the feature points P 1 ′, P 2 ′, and P 3 ′ of the still image in FIG. 4 adjacent to the still image in FIG. 3 may not be searched. Such a case can be dealt with by performing an interpolation process.

具体的には、特徴点の検索を、動画の先頭に位置する静止画から動画の最後に位置する静止画まで順に行うと共に、動画の最後に位置する静止画から動画の先頭に位置する静止画まで逆順にも行う。すなわち、先頭に位置する静止画において、第一の特徴点を検索すると、先頭に位置する静止画と時系列的に後に隣り合う静止画において、第二の特徴点を検索する。さらに、最後に位置する静止画において、第一の特徴点を検索すると、最後に位置する静止画と時系列的に前に隣り合う静止画において、第二の特徴点を検索する。   Specifically, feature points are searched in order from the still image located at the beginning of the movie to the still image located at the end of the movie, and from the still image located at the end of the movie to the still image located at the beginning of the movie. Repeat in reverse order. That is, when the first feature point is searched for in the still image located at the head, the second feature point is searched for in the still image that is adjacent in time series to the still image located at the head. Further, when the first feature point is searched for in the last still image, the second feature point is searched for in the still image adjacent to the last still image in time series.

そして、特徴点の差を算出して、算出した差の平均値が、順にΔPt1、ΔPt2と求まり、逆順にΔPt5、ΔPt4と求まり、ΔPt3については特徴点が検索できず平均値を算出できなかった場合、ΔPt3の前後の平均値、すなわち、ΔPt2、ΔPt4に基づいて、ΔPt3を算出する。すなわち、ΔPt2とΔPt4の平均をΔPt3と算出する。このようにして、補間処理を行うことにより、軌跡を作成してもよい。なお、この場合、最後に位置する静止画における第一の特徴点の検索は、最後に位置する静止画において、先頭に位置する静止画と同じ箇所をユーザから指定されることにより、行ってもよい。 Then, a difference between the feature points is calculated, and an average value of the calculated differences is obtained in order as ΔP t1 and ΔP t2, and in reverse order as ΔP t5 and ΔP t4, and a feature point cannot be searched for ΔP t3 and the average value If ΔP t3 cannot be calculated, ΔP t3 is calculated based on the average values before and after ΔP t3 , that is, ΔP t2 and ΔP t4 . That is, the average of ΔP t2 and ΔP t4 is calculated as ΔP t3 . In this way, the trajectory may be created by performing the interpolation process. In this case, the search for the first feature point in the last still image may be performed by designating the same location as the still image located at the top in the last still image by the user. Good.

また、上記の実施の形態においては、特徴点の検索の際に、いずれの静止画像においても特徴点の検索ができた場合について説明したが、例えば、特徴点Pに対応する特徴点P´と、特徴点Pに対応する特徴点P´とを検索でき、特徴点Pに対応する特徴点P´においては検索できなかった場合、特徴点Pは破棄し、特徴点P、P、P´、P´のみに基づいて、平均値を算出してもよい。 In the above-described embodiment, the case has been described where the feature point can be searched for any still image when searching for the feature point. For example, the feature point P 1 corresponding to the feature point P 1 is described above. can find and 'the feature points P 2 corresponding to the feature point P 2', if it can not find in the feature point P 3 'corresponding to the feature point P 3, the feature point P 3 is discarded, the feature point The average value may be calculated based on only P 1 , P 2 , P 1 ′, and P 2 ′.

また、軌跡を作成する際に、平均値に対して、移動平均フィルタ等のローパスフィルタ処理を行ってもよい。こうすることにより、作成する軌跡を滑らかにすることができる。   Further, when creating the trajectory, low-pass filter processing such as a moving average filter may be performed on the average value. By doing so, the created trajectory can be smoothed.

また、上記の実施の形態においては、特徴点の差の平均値に基づいて、軌跡を作成する例について説明したが、これに限ることなく、特徴点の平均値に基づいて、軌跡を作成してもよい。すなわち、複数の第一の特徴点を検索し、その平均値を求める。また、複数の第二の特徴点を検索し、その平均値を求める。そして、求めた平均値を順に接続して、軌跡を作成してもよい。   In the above embodiment, an example of creating a trajectory based on the average value of feature point differences has been described. However, the present invention is not limited to this, and a trajectory is created based on the average value of feature points. May be. That is, a plurality of first feature points are searched and the average value is obtained. In addition, a plurality of second feature points are searched and an average value thereof is obtained. Then, the trajectory may be created by sequentially connecting the obtained average values.

また、上記の実施の形態においては、軌跡20と静止画とを重ね合わせて表示する例について説明したが、これに限ることなく、軌跡20と動画とを重ね合わせて表示してもよい。こうすることにより、ユーザにとって、動画の動作の解析結果がわかりやすくなる。ここで、操作部13は、表示手段として作動する。   Further, in the above-described embodiment, an example in which the trajectory 20 and the still image are displayed in an overlapping manner has been described. However, the present invention is not limited thereto, and the trajectory 20 and the moving image may be displayed in an overlapping manner. This makes it easier for the user to understand the analysis result of the motion of the moving image. Here, the operation unit 13 operates as display means.

また、例えば、予めモデルとなるゴルフのスイングの動画を準備しておくことにより、モデルの動画の軌跡と、自身の動画の軌跡とを並べて表示してもよい。こうすることにより、モデルのフォームと自身のフォームとを容易に比較することができ、ユーザにとってより良いフォームへと改善しやすくなる。なお、この場合、人物の大きさが異なる場合には、双方の大きさを揃えるように、画像の拡大縮小等を行ってもよい。また、スイングに要する時間が異なる場合には、長い方の動画を間引きして双方の時間の長さを揃えてもよい。   Further, for example, by preparing a golf swing video as a model in advance, the model video trajectory and the own video trajectory may be displayed side by side. By doing so, it is possible to easily compare the model form with its own form, and the user can easily improve the form. In this case, when the size of the person is different, the image may be enlarged / reduced so that both sizes are equal. If the time required for the swing is different, the longer moving image may be thinned out so that the time lengths of both are equal.

また、上記の実施の形態においては、S13において、ユーザからPの1点を指定される例について説明したが、これに限ることなく、2点以上指定された場合でも同様に、指定点の各々において、S14からの処理を行い、各々の軌跡を作成することができる。 In the above embodiment, the example in which one point P 0 is designated by the user in S13 has been described. However, the present invention is not limited to this, and even when two or more points are designated, In each, the process from S14 can be performed to create each trajectory.

また、上記の実施の形態においては、S13において、ユーザからPを指定されて、指定点であるPを中心とし、予め定められた所定の半径rの範囲内において、特徴点の検索を行い、指定点Pとは異なるP、P、Pの特徴点が検索される例について説明したが、これに限ることなく、指定点Pを特徴点として検索されてもよい。 In the above embodiment, in S13, P 0 is designated by the user, and a feature point search is performed within a predetermined radius r centered on the designated point P 0 . The example in which the feature points of P 1 , P 2 , P 3 different from the designated point P 0 are retrieved has been described, but the present invention is not limited to this, and the designated point P 0 may be retrieved as the feature point.

また、上記の実施の形態においては、第二の静止画は、第一の静止画と時系列的に隣り合う静止画である例について説明したが、これに限ることなく、第一の静止画と異なる静止画であればよい。   In the above-described embodiment, the example in which the second still image is a still image adjacent to the first still image in time series has been described, but the first still image is not limited thereto. Any other still image may be used.

また、上記の実施の形態においては、第一の特徴点として、P、P、Pの3つを検索する例について説明したが、これに限ることなく、いくつでもよい。 In the above-described embodiment, an example of searching for three of P 1 , P 2 , and P 3 as the first feature points has been described, but the number is not limited to this, and any number is possible.

また、上記の実施の形態においては、操作部13は、タッチパネル式である例について説明したが、これに限ることなく、例えば、操作部13は、表示画面と、マウスとを備える構成とし、ユーザによってマウスを操作されることにより、解析対象箇所を指定されてもよい。   In the above embodiment, the example in which the operation unit 13 is a touch panel type has been described. However, the operation unit 13 is not limited to this example. For example, the operation unit 13 includes a display screen and a mouse. The analysis target location may be specified by operating the mouse.

また、上記の実施の形態においては、特徴量として、SIFT特徴量を用いる例について説明したが、これに限ることなく、や、HOG(Histogram of Oriented Gradients)特徴量や、Harris特徴量等の他の特徴量を用いてもよい。   In the above-described embodiment, an example using a SIFT feature amount as a feature amount has been described. However, the present invention is not limited to this, and other features such as a HOG (Histogram of Oriented Gradients) feature amount, a Harris feature amount, and the like. May be used.

次に、図1および図13〜図21を参照して、この発明の他の実施形態に係る動作解析装置30について説明する。なお、上記実施形態と同様の構成要素については同じ符号を付し、詳しい説明を省略する。また、以下の説明においては、前述した実施形態と同様に、本発明をゴルフスイングの動作解析に適用した場合について説明する。   Next, a motion analysis apparatus 30 according to another embodiment of the present invention will be described with reference to FIG. 1 and FIGS. In addition, the same code | symbol is attached | subjected about the component similar to the said embodiment, and detailed description is abbreviate | omitted. Moreover, in the following description, the case where the present invention is applied to the golf swing motion analysis will be described as in the above-described embodiment.

動作解析装置30は、図1に示す実施形態と同様に、動作解析装置30全体を制御するCPU等の制御部11と、画像等を記憶する記憶部12と、タッチパネル式であってユーザからの操作を受け付けると共に記憶部12に記憶した画像等を表示する操作部13と、外部機器との接続インターフェースとなるI/F部14とを備える。   Similar to the embodiment shown in FIG. 1, the motion analysis device 30 includes a control unit 11 such as a CPU that controls the entire motion analysis device 30, a storage unit 12 that stores images and the like, and a touch panel type that is received from a user. An operation unit 13 that receives an operation and displays an image or the like stored in the storage unit 12 and an I / F unit 14 that is a connection interface with an external device are provided.

ここで、この実施形態に係る動作解析装置30においては、記憶部12に、動作解析の観測対象に対応する画像が、複数記憶されている。具体的には、記憶部12に、アドレスの姿勢をとるゴルフプレーヤーの画像を、幅広い年齢、身長、体型、および性別等に亘ってランダムに多数記憶する。これらの画像は、観測対象の初期形態を推定するためのレファレンス画像として利用される。なお、この処理に関しては、後に詳述する。   Here, in the motion analysis apparatus 30 according to this embodiment, the storage unit 12 stores a plurality of images corresponding to observation targets for motion analysis. Specifically, a large number of images of golf players taking the address posture are randomly stored in the storage unit 12 over a wide range of ages, heights, body shapes, genders, and the like. These images are used as reference images for estimating the initial form of the observation target. This process will be described in detail later.

次に、この実施形態に係る動作解析装置30の制御部11が行う動作解析フローについて説明する。まず、動作解析装置30は、I/F部14を介して、予め撮影されたゴルフスイングの動画の入力を受け付ける(S21)。上記したように、動画データは、時系列的に連続する複数の静止画の集合体として構成されている。動作解析装置30は、時系列の先頭に位置する図14に示す静止画31を、操作部13に表示する(S22)。   Next, an operation analysis flow performed by the control unit 11 of the operation analysis apparatus 30 according to this embodiment will be described. First, the motion analysis apparatus 30 accepts an input of a golf swing video imaged in advance via the I / F unit 14 (S21). As described above, the moving image data is configured as an aggregate of a plurality of still images that are continuous in time series. The motion analysis apparatus 30 displays the still image 31 shown in FIG. 14 positioned at the beginning of the time series on the operation unit 13 (S22).

次いで、動作解析装置30は、静止画31をスキャンし、所定のサイズを有する領域を解析の対象領域32として順に画定する(S23)。なお、図14においては、観測対象となるプレーヤー33が、対象領域32内に適切なサイズで含まれている場合を示している。しかしながら、実際の解析フローとしては、静止画31を全体に亘ってスキャンし、対象領域32の位置と大きさを変化させつつ、次々と候補となる対象領域を画定していく。そして、後述する処理において、それぞれの対象領域毎にプレーヤー33が含まれているか否かが判定される。   Next, the motion analysis apparatus 30 scans the still image 31 and sequentially defines an area having a predetermined size as an analysis target area 32 (S23). FIG. 14 shows a case where the player 33 to be observed is included in the target area 32 with an appropriate size. However, as an actual analysis flow, the still image 31 is scanned over the entire area, and the target area is defined one after another while changing the position and size of the target area 32. And in the process mentioned later, it is determined whether the player 33 is included for every object area | region.

以下、理解の容易の観点から、図14に示すように、S23により画定された対象領域32内に、観測対象となるプレーヤー33が適切なサイズにて含まれていた場合について説明する。   Hereinafter, from the viewpoint of easy understanding, as shown in FIG. 14, a case will be described in which the player 33 to be observed is included in an appropriate size in the target area 32 defined by S23.

プレーヤー33を含む対象領域32が画定された後、その後の解析処理をより迅速且つ容易に進行可能とするために、対象領域32の大きさを所定の画像サイズとなるように調整する(S24)。具体的には、対象領域32の画像サイズを、例えば64×128ドットに拡大/縮小する。その結果、図14に示す対象領域32が、図15に示すような所定の画像サイズを有する対象領域32Aとして切り出されることとなる。同様に、対象領域32に含まれていたプレーヤー33も、それに対応して拡大/縮小され、プレーヤー33Aとなる。   After the target area 32 including the player 33 is defined, the size of the target area 32 is adjusted to a predetermined image size so that the subsequent analysis process can proceed more quickly and easily (S24). . Specifically, the image size of the target area 32 is enlarged / reduced to 64 × 128 dots, for example. As a result, the target area 32 shown in FIG. 14 is cut out as a target area 32A having a predetermined image size as shown in FIG. Similarly, the player 33 included in the target area 32 is also enlarged / reduced correspondingly and becomes the player 33A.

次いで、対象領域32の画像データにおける輝度勾配に基づいて、プレーヤー33Aの輪郭34を検出する(S25)。なお、輪郭を検出する手法としては、例えば上記したSIFT特徴量やHOG特徴量のような輝度勾配に基づく特徴量を適用してもよいし、Harris特徴量等のような輝度勾配以外のパラメータに基づく特徴量を適用してもよい。これらの手法を用いることにより、図16に示すように、プレーヤー33Aに対応する輪郭34を効果的に抽出することができる。なお、図16においては、理解の容易の観点から、プレーヤー33Aの実際の輪郭33Bと、HOG特徴量に基づいて抽出された輪郭34とを併記しているが、実際の処理においては、HOG特徴量に基づく輪郭34を検出すればよい。   Next, the contour 34 of the player 33A is detected based on the luminance gradient in the image data of the target area 32 (S25). As a method for detecting the contour, for example, a feature amount based on a luminance gradient such as the SIFT feature amount or the HOG feature amount described above may be applied, or a parameter other than the luminance gradient such as a Harris feature amount may be applied. A feature amount based on the above may be applied. By using these methods, the contour 34 corresponding to the player 33A can be extracted effectively as shown in FIG. In FIG. 16, from the viewpoint of easy understanding, the actual contour 33B of the player 33A and the contour 34 extracted based on the HOG feature amount are shown together. However, in actual processing, the HOG feature is shown. An outline 34 based on the quantity may be detected.

このように、S23〜S25のステップを経ることによって、図14に示す静止画31から、図16に示す観測対象の輪郭34を抽出することができる。すなわち、本発明においては、S23〜S25のステップを実行する制御部11が、観測対象となるプレーヤー33を静止画31中において認識するための人物認識手段(図13中のA)として機能する。   As described above, the contour 34 of the observation target shown in FIG. 16 can be extracted from the still image 31 shown in FIG. 14 through the steps S23 to S25. That is, in the present invention, the control unit 11 that executes the steps S23 to S25 functions as a person recognition means (A in FIG. 13) for recognizing the player 33 to be observed in the still image 31.

次いで、動作解析装置30は、人物認識手段(A)によって検出されたプレーヤー33Aの輪郭34と、記憶部12に記憶されたレファレンス画像とを比較し、輪郭34と近似するレファレンス画像を選択する(S26)。この動作について、以下に具体的に説明する。   Next, the motion analysis device 30 compares the contour 34 of the player 33 </ b> A detected by the person recognition means (A) with the reference image stored in the storage unit 12, and selects a reference image that approximates the contour 34 ( S26). This operation will be specifically described below.

この実施形態においては、上記したように、記憶部12が、アドレスの姿勢をとるゴルフプレーヤーの画像データを、幅広い年齢、身長、体型、および性別等に亘って、ランダムに多数記憶している。図17に、比較対象となるレファレンス画像を例示する。このレファレンス画像においても、図15および図16に示す対象領域32Aと同じ画像サイズの対象領域32Aが画定されており、この対象領域32A内にレファレンスプレーヤー35が適切なサイズにて収容されるように記憶されている。すなわち、S26にて比較される観測対象プレーヤー33Aとレファレンスプレーヤー35とは、共通サイズの対象領域32A内において、人物の位置や大きさがほぼ共通となるように調整され、記憶される。この構成により、観測対象プレーヤー33Aと、レファレンスプレーヤー35との比較を、静止画31におけるプレーヤー33の位置や大きさ等によって影響を受けることなく、より高精度に実行することが可能となる。   In this embodiment, as described above, the storage unit 12 stores a large number of image data of golf players taking an address posture at random over a wide range of ages, heights, body shapes, genders, and the like. FIG. 17 illustrates a reference image to be compared. Also in the reference image, a target area 32A having the same image size as the target area 32A shown in FIGS. 15 and 16 is defined, and the reference player 35 is accommodated in an appropriate size in the target area 32A. It is remembered. That is, the observation target player 33A and the reference player 35 compared in S26 are adjusted and stored so that the positions and sizes of the persons are substantially the same in the target area 32A of the common size. With this configuration, the comparison between the observation target player 33A and the reference player 35 can be executed with higher accuracy without being affected by the position and size of the player 33 in the still image 31.

記憶部12においては、レファレンス画像は、図17に示すような静止画像の他に、上記HOG特徴量により導出される輪郭画像や、頭部、腕部、または脚部等といった身体の一部領域を画定した身体部位領域画像として記憶されていてもよい。図18(a)〜(c)に、図17に対応する各形式の画像データを例示する。図18(a)は、図17に対応する静止画であって、画像上において頭部、腕部、および脚部に対応する第一身体部位領域36が画定されている様子を表す図である。すなわち、第一頭部領域36a、第一腕部領域36b、および第一脚部領域36cが、それぞれ画像上に画定されている。図18(b)は、レファレンスプレーヤー35の輪郭55を示す図である。図18(c)は、図18(a)に示す第一身体部位領域36のみを抽出した様子を表す図である。   In the storage unit 12, in addition to the still image as shown in FIG. 17, the reference image is a contour image derived from the HOG feature amount, or a partial body region such as the head, arm, or leg. May be stored as a body part region image that defines. 18A to 18C illustrate image data of each format corresponding to FIG. FIG. 18A is a still image corresponding to FIG. 17, and shows a state in which the first body part region 36 corresponding to the head, arms, and legs is defined on the image. . That is, the first head region 36a, the first arm region 36b, and the first leg region 36c are each defined on the image. FIG. 18B is a diagram showing an outline 55 of the reference player 35. FIG. 18C is a diagram illustrating a state where only the first body part region 36 illustrated in FIG.

この実施形態においては、人物認識手段(A)によって検出されたプレーヤー33Aの輪郭34と、図18(b)に示すレファレンスプレーヤー35の輪郭55とを比較することによって、記憶部12に記憶された多数のレファレンス画像から、観測対象に形態が近似するものを選択する。そして、選択されたレファレンス画像に対応する第一身体部位領域36を抽出し、観測対象の画像データに適用する。その結果を、図19に示す。   In this embodiment, the contour 34 of the player 33A detected by the person recognition means (A) is compared with the contour 55 of the reference player 35 shown in FIG. From a large number of reference images, an image whose form approximates the observation target is selected. Then, the first body part region 36 corresponding to the selected reference image is extracted and applied to the image data to be observed. The result is shown in FIG.

図19に示すように、上記した方法により適用された第一身体部位領域36は、観測対象のプレーヤー33Aの身体の各部位とほぼ一致することとなる。これにより、プレーヤー33Aの頭部、腕部、および脚部等の配置、すなわち、アドレス状態におけるプレーヤー33Aの姿勢を、概略的に推定することができる。   As shown in FIG. 19, the first body part region 36 applied by the method described above substantially coincides with each part of the body of the player 33A to be observed. Thereby, the arrangement of the head, arms, legs, and the like of the player 33A, that is, the posture of the player 33A in the address state can be roughly estimated.

このように、本発明によれば、入力された静止画31のデータと、記憶部12に記憶されたレファレンス画像データとに基づいて、静止画31におけるプレーヤー33Aの初期形態(姿勢や体型等の要素を含む)を、概略的に推定することが可能となる。すなわち、S26を実行する制御部11は、プレーヤー33Aの初期形態を推定するための初期形態推定手段(B)として機能する。   As described above, according to the present invention, based on the input data of the still image 31 and the reference image data stored in the storage unit 12, the initial form of the player 33A in the still image 31 (such as the posture and the body shape). Including elements) can be roughly estimated. That is, the control part 11 which performs S26 functions as an initial form estimation means (B) for estimating the initial form of the player 33A.

なお、S26を実行した結果、観測対象のプレーヤー33Aに近似するレファレンス画像が発見されなかった場合、動作解析装置30は、S23にて確定した対象領域32内に人物が適切に含まれなかったものと判断し、S23にリターンする。そして、対象領域32内に人物が適切に含まれている状態を検出するまでS23〜S26を繰り返し行う。   In addition, as a result of executing S26, when a reference image that approximates the observation target player 33A is not found, the motion analysis apparatus 30 does not appropriately include a person in the target area 32 determined in S23. And return to S23. Then, S23 to S26 are repeated until a state in which a person is appropriately included in the target area 32 is detected.

S26の結果、図19に示すようにプレーヤー33Aの姿勢を推定することができた場合、次のステップとして、動作解析の対象となる解析対象箇所を、図19に示す画像データに基づいて指定する(S27)。ここで、本実施形態においては、解析対象箇所を、第一身体部位領域36によって決定する。その一例としては、図19に示す第一頭部領域36a、第一腕部領域36bの下端部、および/または、第一脚部領域36cの中央部等を、解析対象箇所として自動的に指定する。これは、プレーヤー33Aの頭部、グリップ(手首近辺)、および/または膝を、解析対象箇所として自動的に指定したことと同義である。なぜならば、上記したように、第一身体部位領域36は、観測対象のプレーヤー33Aの身体の各部位とほぼ一致するように画定されているからである。図19に、例として第一腕部領域36bの下端部、すなわちプレーヤー33Aのグリップ付近を解析対象箇所として指定した場合を示す(図19中の点39)。   As a result of S26, when the posture of the player 33A can be estimated as shown in FIG. 19, as a next step, an analysis target portion to be subjected to motion analysis is designated based on the image data shown in FIG. (S27). Here, in this embodiment, the analysis object location is determined by the first body part region 36. As an example, the first head region 36a, the lower end portion of the first arm region 36b, and / or the center portion of the first leg region 36c shown in FIG. To do. This is synonymous with automatically specifying the head, grip (near the wrist), and / or knee of the player 33A as the analysis target portion. This is because, as described above, the first body part region 36 is defined so as to substantially coincide with each part of the body of the player 33A to be observed. FIG. 19 shows, as an example, a case where the lower end of the first arm region 36b, that is, the vicinity of the grip of the player 33A is designated as an analysis target location (point 39 in FIG. 19).

このように、本実施形態においては、上記S23〜S27を実行する制御部11が、解析対象箇所を指定するための解析対象箇所指定手段(C)として機能する。そして、この構成により、ユーザが動作解析を開始するに際して、動作解析装置30が観測対象となるプレーヤー33Aの初期形態を推定し、そのデータに基づいて解析の初期条件を自動的に決定することが可能となる。これにより、ユーザが解析対象箇所を指定する作業を省略することができるため、ユーザの利便性をさらに向上させることができる。   Thus, in this embodiment, the control part 11 which performs said S23-S27 functions as an analysis object location designation | designated means (C) for designating an analysis object location. With this configuration, when the user starts motion analysis, the motion analysis device 30 estimates the initial form of the player 33A to be observed and automatically determines the initial conditions for analysis based on the data. It becomes possible. Thereby, since the user can omit the work of specifying the analysis target portion, the convenience for the user can be further improved.

S27によって解析対象箇所が指定された後、動作解析装置30は、指定された第一身体部位領域36内において第一の特徴点の検索を行う(S28)。ここでは、上記したSIFT特徴量やHOG特徴量等を用いて、第一身体部位領域36内において複数の第一の特徴点が検索される。   After the analysis target location is designated in S27, the motion analysis device 30 searches for the first feature point in the designated first body part region 36 (S28). Here, a plurality of first feature points are searched in the first body part region 36 using the SIFT feature value, the HOG feature value, and the like.

次いで、動作解析装置30は、第一の特徴点を検索した図19の静止画より時系列的に後に隣り合う静止画、すなわち、図20に示す静止画において、第一の特徴点に対応する第二の特徴点の検索を行う(S29)。そして、検索された第二の特徴点に基づいて、第一身体部位領域36に対応する第二身体部位領域37を画定する(S30)。   Next, the motion analysis device 30 corresponds to the first feature point in the adjacent still image after the time series of the still image of FIG. 19 searched for the first feature point, that is, the still image shown in FIG. The second feature point is searched (S29). Based on the searched second feature point, a second body part region 37 corresponding to the first body part region 36 is defined (S30).

次いで、第一身体部位領域36と第二身体部位領域37の差に基づいて軌跡を作成する(S31)。具体的には、図20に示す第二腕部領域37bが新たに画定された後、第二腕部領域37bの下端部に相当する位置が、解析対象箇所として認識される(図20中の点40)。そして、点39と点40との差に基づいて、軌跡42が作成される。同様に、例えばS27にて第一頭部領域36aを解析対象箇所として指定した場合は、第一頭部領域36aと第二頭部領域37aとの差に基づいて、プレーヤー33Aの頭部の軌跡を作成することができる。また、第一脚部領域36cと第二脚部領域37cとの差に基づいて、プレーヤー33Aの膝の軌跡を作成することができる。   Next, a trajectory is created based on the difference between the first body part region 36 and the second body part region 37 (S31). Specifically, after the second arm region 37b shown in FIG. 20 is newly defined, a position corresponding to the lower end of the second arm region 37b is recognized as an analysis target location (in FIG. 20). Point 40). A trajectory 42 is created based on the difference between the points 39 and 40. Similarly, for example, when the first head region 36a is designated as an analysis target location in S27, the trajectory of the head of the player 33A based on the difference between the first head region 36a and the second head region 37a. Can be created. Further, the knee trajectory of the player 33A can be created based on the difference between the first leg region 36c and the second leg region 37c.

続けて、図20に示す静止画と時系列的に後に隣り合う静止画、すなわち図21に示す静止画において、第二の特徴点に対応する第三の特徴点の検索を行い、検索された第三の特徴点に基づいて、第二身体部位領域37に対応する第三身体部位領域38を画定する。そして、第二身体部位領域37と第三身体部位領域38の差に基づいて、解析対象箇所を認識し(図21中の点41)、軌跡43を作成する。   Subsequently, the third feature point corresponding to the second feature point is searched in the still image that is chronologically adjacent to the still image shown in FIG. 20, that is, the still image shown in FIG. Based on the third feature point, a third body part region 38 corresponding to the second body part region 37 is defined. Then, based on the difference between the second body part region 37 and the third body part region 38, the analysis target part is recognized (point 41 in FIG. 21), and a locus 43 is created.

このように、連続する静止画毎に解析対象箇所の軌跡を順次作成することによって、一連のゴルフスイング動作において、プレーヤーの所定部位(例えば、頭部、腕部、および/または脚部)の運動を解析することが可能となる。   In this way, by sequentially creating the locus of the analysis target portion for each continuous still image, the motion of a predetermined part (for example, the head, arms, and / or legs) of the player in a series of golf swing motions. Can be analyzed.

なお、本実施形態においては、プレーヤー33Aの輪郭34を検出することによって人物認識を行う場合について述べたが、これに限らず、観測対象の形態を抽出可能であれば、他の如何なる手法を用いてもよい。   In the present embodiment, the case where person recognition is performed by detecting the contour 34 of the player 33A has been described. However, the present invention is not limited to this, and any other method may be used as long as the form of the observation target can be extracted. May be.

また、本実施形態においては、プレーヤー33Aの輪郭34とレファレンスプレーヤー35の輪郭55とを比較することによって、観測対象に形態が近似するものを選択する場合について述べたが、これに限らず、例えば図18(a)に示す静止画データの比較によって選択する構成であってもよいし、図18(c)に示す身体部位領域36に係るデータとの比較によって選択してもよい。また、観測対象とレファレンスとの比較が可能であれば、図18に示す以外の如何なる形式のデータを比較に用いてもよい。   Further, in the present embodiment, a case has been described in which the contour that is close to the observation target is selected by comparing the contour 34 of the player 33A and the contour 55 of the reference player 35. 18A may be selected by comparison with still image data, or may be selected by comparison with data relating to the body part region 36 shown in FIG. In addition, any type of data other than that shown in FIG. 18 may be used for comparison as long as the observation target and the reference can be compared.

また、本実施形態においては、身体部位領域36に基づいて動作解析の初期条件である解析対象箇所39を指定する場合について述べた。しかしながら、これに限らず、例えば図18(a)に示す静止画データや、図18(b)に示す輪郭55に係るデータに基づいて指定してもよいし、その他如何なるデータに基づいて解析対象箇所39を指定してもよい。   Moreover, in this embodiment, the case where the analysis object location 39 which is the initial condition of motion analysis based on the body region 36 was specified was described. However, the present invention is not limited to this. For example, it may be specified based on the still image data shown in FIG. 18A or the data related to the contour 55 shown in FIG. 18B, or may be analyzed based on any other data. The location 39 may be designated.

なお、上記実施形態のように、本発明をゴルフスイングの動作解析に適用する場合においては、動作解析装置10、30は、スイングのテイクバックからダウンスイングへとスイングの方向が転換されたことを検出し、それをユーザに識別可能とする方向転換識別手段をさらに備えていてもよい。これについて、図22を参照して説明する。図22(a)〜(f)は、一連のゴルフスイングを記録した動画を示しており、この動画は、連続する計6フレームの静止画によって構成されている。   When the present invention is applied to the golf swing motion analysis as in the above embodiment, the motion analysis devices 10 and 30 indicate that the swing direction has been changed from the swing takeback to the downswing. There may be further provided a direction change identifying means for detecting and enabling the user to identify it. This will be described with reference to FIG. FIGS. 22A to 22F show moving images in which a series of golf swings are recorded, and the moving images are composed of a total of six frames of still images.

図22(a)〜(f)に示すように、ゴルフスイングは、ゴルフクラブを上方へ振り上げるテイクバック(図22(a)〜(c))から、ゴルフクラブを下方へ振り下げるダウンスイング(図22(d)〜(f))へと移行する。すなわち、図22においては、図22(c)と図22(d)との間にスイングの方向転換が発生している。   As shown in FIGS. 22 (a) to 22 (f), the golf swing is a downswing (from FIG. 22 (a) to (c)) in which the golf club is swung down to swing down the golf club. Shifting to FIG. 22 (d) to (f)). That is, in FIG. 22, a swing direction change occurs between FIG. 22 (c) and FIG. 22 (d).

方向転換識別手段は、この方向転換点を検出し、方向転換前の軌跡と方向転換後の軌跡とをユーザに識別可能とさせるものである。これにより、動作の転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を行うことができる。具体的なアルゴリズムについて以下に説明する。   The direction change identification means detects the direction change point and enables the user to identify the trajectory before the direction change and the trajectory after the direction change. As a result, it becomes possible to clearly grasp the point that becomes the turning point of the motion and the trajectory of the motion before and after that, so that more detailed motion analysis can be performed. A specific algorithm will be described below.

前提として、図22(f)を現時点とする。方向転換識別手段は、まず、現時点から時系列的に5フレーム前の図22(a)におけるグリップの速度べクトルvを計算する。このvは、図22(a)と時系列的に前に隣り合うフレーム、すなわち、現時点から6フレーム前(図示せず)のグリップの位置と、5フレーム前のグリップの位置とから求めることができる。同様にして、現時点から4フレーム前の図22(b)におけるグリップの速度べクトルv、3フレーム前の図22(c)におけるグリップの速度べクトルv、現時点から2フレーム前の図22(d)におけるグリップの速度べクトルv、現時点から1フレーム前の図22(e)におけるグリップの速度べクトルv、現時点のフレームにおけるグリップの速度べクトルvを、それぞれ計算する。 As a premise, FIG. 22 (f) is the current time. The direction change identifying means first calculates a grip speed vector v 1 in FIG. 22A five frames before the current time series from the present time. This v 1 is obtained from the frame adjacent in time series to FIG. 22A, that is, the grip position 6 frames before (not shown) from the present time and the grip position 5 frames before. Can do. Similarly, Figure 22 of the previous four frames from the present base rate of grip in (b) vector v 2, 3 frames prior to 22 base speed of the grip in (c) vector v 3, from the moment of two frames before 22 The grip speed vector v 4 in (d), the grip speed vector v 5 in FIG. 22 (e) one frame before the current time, and the grip speed vector v 6 in the current frame are calculated.

ここで、現時点から5フレーム前〜3フレーム前の間におけるグリップの平均速度ベクトルfは、以下のように表される。 Here, the average velocity vector f 1 of the grip between the front and 3 frames 5 frames before the present time is expressed as follows.

Figure 2012094130
Figure 2012094130

同様に、現時点から2フレーム前〜現時点のフレームの間におけるグリップの平均速度ベクトルfは、以下のように表される。 Similarly, the average velocity vector f 2 of the grip between the frame of two frames before-current from the current time is expressed as follows.

Figure 2012094130
Figure 2012094130

本実施形態に係る方向転換識別手段は、グリップの方向転換点を検出するために、fとfとの内積=f・fを計算する。そうすると、5フレーム前〜3フレーム前におけるグリップの速度ベクトルと、2フレーム前〜現時点におけるグリップの速度ベクトルとは、その方向が反転していることから、内積は、負の値をとることとなる。換言すれば、内積が負となる時点を検出することができれば、スイングのテイクバックからダウンスイングへと方向が転換される方向転換点を検出することができる。 Turning identification means according to the present embodiment, in order to detect the turning points of the grip, to calculate the inner product = f 1 · f 2 between f 1 and f 2. Then, since the direction of the grip speed vector from 5 frames before to 3 frames and the speed vector of the grip from 2 frames before to the present time are reversed, the inner product takes a negative value. . In other words, if a point in time when the inner product becomes negative can be detected, a turning point at which the direction is changed from the takeback of the swing to the downswing can be detected.

このようにして方向転換点を検出した後、上記したS31において、方向転換点の前の軌跡線と異なる種類の軌跡線を形成することによって、ユーザは、テイクバックの軌跡と、ダウンスイングの軌跡とを明瞭に区別して認識することが可能となる。識別可能とする手段としては、例えば軌跡線の色の変更(黄色から赤色等)や、線種の変更(実線から点線等)、軌跡線を点滅表示する等が考えられる。   After detecting the turning point in this way, in S31 described above, by forming a different kind of locus line from the locus line before the turning point, the user can take the takeback locus and the downswing locus. Can be clearly distinguished and recognized. As means for enabling identification, for example, changing the color of the locus line (yellow to red, etc.), changing the line type (solid line to dotted line, etc.), blinking the locus line, etc. can be considered.

なお、この実施形態においては、理解の容易の観点から、平均速度ベクトルf,fを、連続する3フレームの速度ベクトルの平均をとることによって算出したが、これに限らず、任意の数のフレームの速度ベクトルの平均に基づいて、平均速度ベクトルf,fを算出してもよい。 In this embodiment, from the viewpoint of easy understanding, the average velocity vectors f 1 and f 2 are calculated by averaging the velocity vectors of three consecutive frames. The average speed vectors f 1 and f 2 may be calculated based on the average of the speed vectors of the frames.

図23に、方向転換識別手段によってテイクバックとダウンスイングとを識別可能としたゴルフスイングの軌跡の一例を示す。このように、本発明に係る方向転換識別手段によれば、ユーザは、スイングの転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を行うことが可能となる。   FIG. 23 shows an example of a golf swing trajectory in which takeback and downswing can be identified by the direction change identifying means. Thus, according to the direction change identification means according to the present invention, the user can clearly grasp the point that becomes the turning point of the swing and the trajectory of the movement before and after the turning point. Analysis can be performed.

なお、上記した各実施形態においては、1つのパターンのゴルフスイングを表示手段(操作部13)に表示し、その動作解析を行った場合について述べた。しかしながら、これに限らず、動作解析装置10,30は、二以上の異なる動作を並べて表示し、これらの異なる動作を比較可能とするための動作比較手段をさらに備えていてもよい。以下、上記実施形態と同様に、ゴルフスイングの動作比較を実行可能な動作比較手段について、図24〜図26を参照して説明する。   In each of the above-described embodiments, the case where one pattern of golf swing is displayed on the display means (operation unit 13) and the motion analysis is performed has been described. However, the present invention is not limited to this, and the motion analysis apparatuses 10 and 30 may further include an operation comparison means for displaying two or more different operations side by side and making these different operations comparable. Hereinafter, similarly to the above-described embodiment, an operation comparison unit capable of performing a golf swing operation comparison will be described with reference to FIGS.

本実施形態に係る動作比較手段は、まず、二つのゴルフスイングを記憶した動画を並列表示し(S41)、前述した実施形態のいずれかの方法を用いて、それぞれのゴルフスイングの軌跡を形成する。図24に、二つのゴルフスイングの軌跡を形成し、それらを並列表示した図を示す。具体的には、第一の表示領域44に、第一の軌跡45が表示され、第二の表示領域46に第二の軌跡47が表示されている。   The motion comparison unit according to the present embodiment first displays in parallel the videos that store the two golf swings (S41), and forms the trajectory of each golf swing using any of the methods of the above-described embodiments. . FIG. 24 shows a diagram in which two golf swing trajectories are formed and displayed in parallel. Specifically, a first locus 45 is displayed in the first display area 44, and a second locus 47 is displayed in the second display area 46.

次いで、二つの動画の時間軸を圧縮/伸張して調整し、二つの動画の時間軸を揃える(S42)。ここで、ゴルフスイングは、上記したように、アドレスの姿勢から、テイクバック、ダウンスイング、フィニッシュという一連の動作によって構成される。そして、これら各動作に要する時間は、人によって異なり、且つ、同じ人がスイングした場合であっても、スイング毎に異なるものである。したがって、二つのスイングを並列表示して比較する場合、各動作の始めの時点と終わりの時点とを揃えることによって、各スイングの軌道をより視覚的に比較検証し易くすることができる。   Next, the time axes of the two moving images are adjusted by compressing / expanding, and the time axes of the two moving images are aligned (S42). Here, as described above, the golf swing is constituted by a series of operations such as take back, down swing, and finish from the address posture. The time required for each of these operations varies depending on the person, and even when the same person swings, the time varies depending on the swing. Therefore, when two swings are displayed in parallel and compared, the trajectory of each swing can be more easily visually verified by aligning the start time and end time of each operation.

その方法としては、二つの動画において、アドレス状態からテイクバックの終わりの時点までの時間と、ダウンスイングの始めの時点とフィニッシュまでの時間をそれぞれ計算し、一方の動画のフレームを間引く、またはフレーム間の時間を伸長させることによって、二つの動画間において各動作に要する時間を揃える処理を行うことが考えられる。なお、テイクバックの終わりからダウンスイングの始めへの転換点は、前述した実施形態に係る方法によって検出可能である。   The method is to calculate the time from the address state to the end of takeback and the time from the beginning of the downswing to the finish in each of the two videos. It is conceivable to perform a process for aligning the time required for each operation between two moving images by extending the time between them. Note that the turning point from the end of the takeback to the start of the downswing can be detected by the method according to the above-described embodiment.

より具体的に説明すると、例えば第一の表示領域44に表示したゴルフスイングにおいては、アドレスからテイクバックの終わりまで1.4秒、ダウンスイングの始めからフィニッシュまで1.1秒を要したとする。また、第二の表示領域46に表示したゴルフスイングにおいては、アドレスからテイクバックの終わりまで1.8秒、ダウンスイングの始めからフィニッシュまで1.5秒を要したとする。この場合、第二の表示領域46に表示する動画において、アドレスからテイクバックの終わりまでの間の静止画フレームを、1.4/1.8の割合で間引きし、且つ、ダウンスイングの始めからフィニッシュまでの間の静止画フレームを、1.1/1.5の割合で間引きをする。この処理によって、二つのゴルフスイングのアドレスからフィニッシュまでの時間軸を揃えることができる。この処理により、二つのスイングを並列して動画再生した場合等において、二つのスイングの軌道をより視覚的に比較検証し易くすることができる。   More specifically, for example, in the golf swing displayed in the first display area 44, it takes 1.4 seconds from the address to the end of the takeback, and 1.1 seconds from the start of the downswing to the finish. . In the golf swing displayed in the second display area 46, it takes 1.8 seconds from the address to the end of the takeback and 1.5 seconds from the start of the downswing to the finish. In this case, in the moving image displayed in the second display area 46, the still image frame from the address to the end of the takeback is thinned out at a ratio of 1.4 / 1.8, and from the beginning of the downswing. The still image frame until the finish is thinned out at a ratio of 1.1 / 1.5. By this processing, the time axis from the address of two golf swings to the finish can be aligned. With this process, when the two swings are played back in parallel, the trajectories of the two swings can be more easily compared and verified visually.

次いで、二つの動画の画像サイズを拡大/縮小し、各表示領域44,46におけるプレーヤーの位置や大きさを揃える処理を行う(S43)。これにより、ユーザは、二つのスイングをより比較検証し易くなる。   Next, processing for enlarging / reducing the image sizes of the two moving images and aligning the positions and sizes of the players in the display areas 44 and 46 is performed (S43). This makes it easier for the user to compare and verify the two swings.

次いで、第一の軌跡45の重心点48と、第二の軌跡47の重心点49とをそれぞれ計算する(S44)。各軌跡の重心点48,49は、軌跡を構成する各ポイントの平均値を求めることによって計算することができる。なお、重心点48,49を計算した後、その座標を図24に示すように表示してもよいし、表示をせずに記憶するのみであってもよい。   Next, the centroid point 48 of the first locus 45 and the centroid point 49 of the second locus 47 are respectively calculated (S44). The barycentric points 48 and 49 of each trajectory can be calculated by obtaining an average value of each point constituting the trajectory. In addition, after calculating the gravity center points 48 and 49, the coordinates may be displayed as shown in FIG. 24 or may be stored without being displayed.

次いで、各フレームにおける第一の軌跡45および第二の軌跡47のポイントと、それぞれの軌跡の重心点48,49との間の差分値を計算し、フレーム番号と当該差分値とを記録する(S45)。ここで参考データとして、図26にフレーム番号Nと差分値xに係るグラフを示す。なお、図26においては、第一の軌跡45と重心点48との差分値グラフを線50に、第二の軌跡47と重心点49との差分値グラフを線51にそれぞれ示す。   Next, a difference value between the points of the first trajectory 45 and the second trajectory 47 in each frame and the centroid points 48 and 49 of the respective trajectories is calculated, and the frame number and the difference value are recorded ( S45). As reference data, a graph relating to the frame number N and the difference value x is shown in FIG. In FIG. 26, a difference value graph between the first locus 45 and the center of gravity point 48 is shown as a line 50, and a difference value graph between the second locus 47 and the center of gravity point 49 is shown as a line 51.

次いで、S45によって得られたデータに基づいて、第一の軌跡45と第二の軌跡47との間の差を計算し、その差が大きくなっている軌跡部分を識別可能に表示する(S46)。具体的には、それぞれのフレーム番号Nにおいて線50と線51との差を計算すると、図26に示すように、その差が比較的に大きくなる軌跡部分52,53,54が検出される。換言すれば、第一の軌跡45と第二の軌跡47とは、軌跡部分52,53,54において、スイングの軌道が相対的に大きく異なっていることを意味している。そこで、第一の軌跡45または第二の軌跡47のうち、この軌跡部分52,53,54に相当する軌跡線に対して、例えば線色の変更や線種の変更、または点滅表示等をすることによって、ユーザがその部分を識別可能とすることができる。この構成によれば、例えばユーザがゴルフスイングを日々記録した場合に、そのスイングの軌道が変化した部分を詳細に把握・検証することが可能となる。これにより、さらに付加価値の高い動作解析装置を提供することができる。   Next, based on the data obtained in S45, the difference between the first trajectory 45 and the second trajectory 47 is calculated, and the trajectory portion where the difference is large is displayed in an identifiable manner (S46). . Specifically, when the difference between the line 50 and the line 51 is calculated at each frame number N, as shown in FIG. 26, locus portions 52, 53, and 54 in which the difference is relatively large are detected. In other words, the first trajectory 45 and the second trajectory 47 mean that the trajectories of the swing are relatively greatly different in the trajectory portions 52, 53, and 54. Therefore, for example, the line color, the line type, or the blinking display is performed on the trajectory lines corresponding to the trajectory portions 52, 53, and 54 in the first trajectory 45 or the second trajectory 47. Thus, the user can identify the portion. According to this configuration, for example, when a user records a golf swing every day, it is possible to grasp and verify in detail a portion where the trajectory of the swing has changed. Thereby, it is possible to provide a motion analysis apparatus with higher added value.

なお、本実施形態においては、二つのゴルフスイングを比較した場合について述べたが、これに限らず、三以上の動作を比較する構成であってもよい。   In addition, in this embodiment, although the case where two golf swings were compared was described, the structure which compares not only this but three or more operation | movement may be sufficient.

また、本発明に係る動作解析装置の動作アルゴリズムが、ソフトウェアまたはハードウェアのいずれによっても実現可能であることは、当業者であれば容易に理解されるであろう。   Moreover, those skilled in the art will easily understand that the operation algorithm of the operation analysis apparatus according to the present invention can be realized by either software or hardware.

また、上記した各実施形態においては、ゴルフスイングを動作解析の対象とした場合について説明した。しかしながら本発明は、これに限定されるものではない。すなわち、本発明の概念は、動作解析の開始点における画像データと、予め記憶したレファレンスデータとを比較し、開始点における観測対象の形態を推定することによって、解析対象箇所の初期条件(サイズ、座標等)を決定し、以て動作解析を容易且つ迅速に実行可能とすることにある。したがって、ゴルフスイングに限らず、例えば野球のスイングや、舞踊、演技、武道等、プレーヤーの体の動きを把握・検証することに対してニーズのある、あらゆる分野のスポーツ・演技に適用可能であることは、当業者であれば容易に理解されるであろう。   Further, in each of the above-described embodiments, the case where the golf swing is the target of motion analysis has been described. However, the present invention is not limited to this. That is, the concept of the present invention is to compare the image data at the start point of the motion analysis with the reference data stored in advance, and estimate the form of the observation target at the start point, thereby determining the initial condition (size, In other words, the motion analysis can be performed easily and quickly. Therefore, it is applicable not only to golf swings, but also to sports and performances in all fields where there is a need for grasping and verifying player movements such as baseball swings, dances, performances, martial arts, etc. This will be readily understood by those skilled in the art.

以上、図面を参照してこの発明の実施形態を説明したが、この発明は、図示した実施形態のものに限定されない。図示された実施形態に対して、この発明と同一の範囲内において、あるいは均等の範囲内において、種々の修正や変形を加えることが可能である。   As mentioned above, although embodiment of this invention was described with reference to drawings, this invention is not limited to the thing of embodiment shown in figure. Various modifications and variations can be made to the illustrated embodiment within the same range or equivalent range as the present invention.

この発明は、スポーツにおいて、フォームのチェックが必要となる場合に、有効に利用される。   The present invention is effectively used when it is necessary to check a form in sports.

10,30 動作解析装置、11 制御部、12 記憶部、13 操作部、14 I/F部、20,42,43,45,47 軌跡、31 静止画、32,32A,36,36a,36b,36c,37,37a,37b,37c,38,38a,38b,38c 領域、33,33A,35 プレーヤー、34,55 輪郭、39,40,41,48,49 点、44,46 表示領域、50,51 線、52,53,54 軌跡部分。   10, 30 motion analysis device, 11 control unit, 12 storage unit, 13 operation unit, 14 I / F unit, 20, 42, 43, 45, 47 locus, 31 still image, 32, 32A, 36, 36a, 36b, 36c, 37, 37a, 37b, 37c, 38, 38a, 38b, 38c area, 33, 33A, 35 player, 34, 55 contour, 39, 40, 41, 48, 49 points, 44, 46 display area, 50, 51 line, 52, 53, 54 locus part.

Claims (14)

連続する複数の静止画から構成される動画の動作を解析する動作解析装置であって、
前記動画の入力を受け付ける動画受付手段と、
前記動画受付手段により受け付けた動画のうち、前記動画を構成する第一の静止画において、前記第一の静止画像上において、動作解析の対象となる解析対象箇所を指定する解析対象箇所指定手段と、
前記解析対象箇所から一定範囲内において、第一の特徴点を検索する第一の検索手段と、
前記動画を構成し、前記第一の静止画と異なる静止画である第二の静止画において、前記第一の特徴点に対応する第二の特徴点を検索する第二の検索手段と、
前記第一および第二の特徴点に基づいて、軌跡を作成する軌跡作成手段と、を備える、動作解析装置。
A motion analysis device that analyzes motion of a moving image composed of a plurality of continuous still images,
Video accepting means for accepting input of the video;
Among the videos received by the video reception means, in the first still image constituting the video, on the first still image, an analysis target location specifying means for specifying an analysis target location that is a target of motion analysis; ,
First search means for searching for a first feature point within a certain range from the analysis target location;
A second search unit configured to search for a second feature point corresponding to the first feature point in a second still image that constitutes the moving image and is a still image different from the first still image;
A motion analysis device comprising: trajectory creation means for creating a trajectory based on the first and second feature points.
前記解析対象箇所指定手段は、ユーザが前記解析対象箇所を任意に指定可能とするために、ユーザからの指定を受け付ける指定受付手段を有する、請求項1に記載の動作解析装置。   The motion analysis apparatus according to claim 1, wherein the analysis target location specifying unit includes a specification receiving unit that receives a specification from a user so that the user can arbitrarily specify the analysis target location. 前記解析箇所指定手段は、
前記第一の静止画から観測対象を認識する認識手段と、
前記認識手段によって認識された前記観測対象の画像データに基づいて、前記観測対象の形態を推定する形態推定手段と、を有し、
前記解析対象箇所は、前記形態推定手段による推定結果に基づいて指定される、請求項1に記載の動作解析装置。
The analysis location specifying means is:
Recognition means for recognizing an observation object from the first still image;
Morphological estimation means for estimating the morphology of the observation target based on the image data of the observation target recognized by the recognition means,
The motion analysis apparatus according to claim 1, wherein the analysis target location is specified based on an estimation result by the form estimation unit.
前記認識手段は、
前記観測対象を含む一定の領域を対象領域として画定する対象領域画定手段と、
前記対象領域の大きさを所定の画像サイズとなるように調整する対象領域正規化手段と、を含む、請求項3に記載の動作解析装置。
The recognition means is
Target area defining means for defining a certain area including the observation target as a target area;
The motion analysis apparatus according to claim 3, further comprising target region normalizing means that adjusts the size of the target region so as to be a predetermined image size.
前記認識手段は、前記第一の静止画における輝度勾配に基づいて、前記観測対象の輪郭を検出する、請求項3または4に記載の動作解析装置。   5. The motion analysis apparatus according to claim 3, wherein the recognition unit detects an outline of the observation target based on a luminance gradient in the first still image. 前記観測対象に対応する比較対象の画像を、予め複数記憶するレファレンス画像記憶手段をさらに備え、
前記形態推定手段は、
前記認識手段によって認識された前記観測対象の画像データと、前記レファレンス画像記憶手段によって記憶された前記比較対象の画像データとを比較し、前記観測対象の画像データに形態が近似する前記比較対象の画像データを選択するレファレンス画像選択手段を含み、
前記解析対象箇所は、前記レファレンス画像選択手段によって選択された前記比較対象の画像データに基づいて指定される、請求項3〜5のいずれかに記載の動作解析装置。
Reference image storage means for storing a plurality of comparison target images corresponding to the observation target in advance,
The form estimation means includes
The image data of the observation object recognized by the recognition means is compared with the image data of the comparison object stored by the reference image storage means, and the comparison object whose form approximates the image data of the observation object is compared. Reference image selection means for selecting image data is included,
The motion analysis apparatus according to claim 3, wherein the analysis target portion is specified based on the image data to be compared selected by the reference image selection unit.
前記第一の検索手段は、前記一定範囲内において、複数の第一の特徴点を検索し、
前記第二の検索手段は、前記複数の第一の特徴点に対応する複数の第二の特徴点を検索し、
前記軌跡作成手段は、前記複数の第一の特徴点と前記複数の第二の特徴点との差をそれぞれ算出し、この算出した差の平均値を求めることにより、求めた平均値に基づいて、軌跡を作成する、請求項1〜6のいずれかに記載の動作解析装置。
The first search means searches for a plurality of first feature points within the certain range,
The second search means searches for a plurality of second feature points corresponding to the plurality of first feature points,
The trajectory creation means calculates the difference between the plurality of first feature points and the plurality of second feature points, respectively, and obtains an average value of the calculated differences, based on the obtained average value. The motion analysis device according to any one of claims 1 to 6, wherein a trajectory is created.
前記平均値は、前記第一および第二の特徴点に基づく点であって、前記動画を構成する静止画像上の所定の点における変化を示すものであり、
前記軌跡作成手段は、前記平均値を、連続する前記複数の静止画の隣り合う静止画像間においてそれぞれ算出し、この算出した平均値が示す前記所定の点を順に接続することにより、軌跡を作成する、請求項7に記載の動作解析装置。
The average value is a point based on the first and second feature points, and indicates a change at a predetermined point on the still image constituting the moving image,
The trajectory creation means creates the trajectory by sequentially calculating the average value between adjacent still images of the plurality of continuous still images and sequentially connecting the predetermined points indicated by the calculated average value. The motion analysis apparatus according to claim 7.
前記第一の静止画は、前記動画の先頭に位置する静止画と、前記動画の最後に位置する静止画とを含み、
前記第二の静止画は、前記第一の静止画と時系列的に後に隣り合う静止画と、前記第一の静止画より時系列的に前に隣り合う静止画とを含み、
前記第二の検索手段は、時系列的に後に隣り合う静止画において、前記第一の特徴点に対応する前記第二の特徴点を検索すると共に、時系列的に前に隣り合う静止画において、前記第一の特徴点に対応する前記第二の特徴点を検索する、請求項1〜8のいずれかに記載の動作解析装置。
The first still image includes a still image located at the beginning of the moving image and a still image located at the end of the moving image,
The second still image includes a still image that is adjacent to the first still image in time series and a still image that is adjacent to the first still image in time series before,
The second search means searches for the second feature point corresponding to the first feature point in the still images that are adjacent in time series, and in the still image that is adjacent in time series. The motion analysis device according to claim 1, wherein the second feature point corresponding to the first feature point is searched.
前記第二の検索手段は、前記動画の動作の速さを取得する取得手段を含み、前記取得手段により取得した速さに基づいて、前記第二の特徴点を検索する、請求項1〜9のいずれかに記載の動作解析装置。   The second search means includes an acquisition means for acquiring the speed of motion of the moving image, and searches for the second feature point based on the speed acquired by the acquisition means. The motion analysis apparatus according to any one of the above. 連続する前記複数の静止画は、一定間隔で構成されており、
前記取得手段は、隣り合う静止画像間において、静止画像の差の大小を取得することにより、前記動画の動作の速さを取得する、請求項10に記載の動作解析装置。
The plurality of continuous still images are configured at regular intervals,
The motion analysis apparatus according to claim 10, wherein the acquisition unit acquires a motion speed of the moving image by acquiring a magnitude of a difference between still images between adjacent still images.
前記軌跡作成手段は、前記軌跡の方向が転換された場合に、方向転換前の軌跡と方向転換後の軌跡とを識別可能とする方向転換識別手段を有する、請求項1〜11のいずれかに記載の動作解析装置。   The said locus | trajectory creation means has a direction change identification means which can identify the locus | trajectory before a direction change, and the locus | trajectory after a direction change, when the direction of the said locus | trajectory is changed. The operation analysis apparatus described. 前記方向転換識別手段は、
時系列的に連続する静止画間における軌跡の速度ベクトルを計算し、特定の静止画における速度ベクトルと、当該特定の静止画と時系列的に後に隣り合う静止画における速度ベクトルとの内積が負となった場合に、前記軌跡の方向転換を検出する、請求項12に記載の動作解析装置。
The direction change identifying means includes
The trajectory velocity vector between still images that are continuous in time series is calculated, and the inner product of the velocity vector of a specific still image and the velocity vector of the still image that is adjacent to the specific still image in time series is negative. The motion analysis apparatus according to claim 12, wherein the direction change of the trajectory is detected when it becomes.
前記軌跡作成手段により作成された軌跡と、前記動画受付手段により受け付けた動画とを重ねて表示する表示手段を含む、請求項1〜13のいずれかに記載の動作解析装置。   The motion analysis apparatus according to claim 1, further comprising a display unit that displays the trajectory created by the trajectory creation unit and the moving image received by the moving image reception unit.
JP2011215122A 2010-10-01 2011-09-29 Motion analysis device Active JP5872829B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011215122A JP5872829B2 (en) 2010-10-01 2011-09-29 Motion analysis device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010224133 2010-10-01
JP2010224133 2010-10-01
JP2011215122A JP5872829B2 (en) 2010-10-01 2011-09-29 Motion analysis device

Publications (2)

Publication Number Publication Date
JP2012094130A true JP2012094130A (en) 2012-05-17
JP5872829B2 JP5872829B2 (en) 2016-03-01

Family

ID=46387334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011215122A Active JP5872829B2 (en) 2010-10-01 2011-09-29 Motion analysis device

Country Status (1)

Country Link
JP (1) JP5872829B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014063275A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Image specifying device, image specifying method, and program
JP2014115984A (en) * 2012-11-13 2014-06-26 Okada Denshi Co Ltd Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function
JP2014186559A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Video image extraction device, video image extraction method and program
JP2016042306A (en) * 2014-08-18 2016-03-31 株式会社リコー Locus drawing device, locus drawing method, locus drawing system, and program
JP2017208051A (en) * 2016-05-20 2017-11-24 日本電信電話株式会社 Technical support device, method, program, and system
JP2020011071A (en) * 2013-02-14 2020-01-23 株式会社ユピテル system
JP7419969B2 (en) 2020-05-27 2024-01-23 富士通株式会社 Generation method, generation program, and information processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124281A (en) * 1993-11-01 1995-05-16 Matsushita Electric Ind Co Ltd Form training device
JPH11308527A (en) * 1998-04-22 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> Image sequence parallel display method and system and recording medium recording image sequence parallel display program
JP2001126184A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Automatic license plate recognizing device and vehicle speed measuring method
JP2001307105A (en) * 2000-04-25 2001-11-02 Canon Inc Image processor and its method
JP2004157850A (en) * 2002-11-07 2004-06-03 Olympus Corp Motion detector
JP2009020897A (en) * 2002-09-26 2009-01-29 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2009163639A (en) * 2008-01-09 2009-07-23 Nippon Hoso Kyokai <Nhk> Object trajectory identification device, object trajectory identification method, and object trajectory identification program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124281A (en) * 1993-11-01 1995-05-16 Matsushita Electric Ind Co Ltd Form training device
JPH11308527A (en) * 1998-04-22 1999-11-05 Nippon Telegr & Teleph Corp <Ntt> Image sequence parallel display method and system and recording medium recording image sequence parallel display program
JP2001126184A (en) * 1999-10-29 2001-05-11 Matsushita Electric Ind Co Ltd Automatic license plate recognizing device and vehicle speed measuring method
JP2001307105A (en) * 2000-04-25 2001-11-02 Canon Inc Image processor and its method
JP2009020897A (en) * 2002-09-26 2009-01-29 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program
JP2004157850A (en) * 2002-11-07 2004-06-03 Olympus Corp Motion detector
JP2009150848A (en) * 2007-12-21 2009-07-09 Topcon Corp Image processing apparatus
JP2009163639A (en) * 2008-01-09 2009-07-23 Nippon Hoso Kyokai <Nhk> Object trajectory identification device, object trajectory identification method, and object trajectory identification program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014063275A (en) * 2012-09-20 2014-04-10 Casio Comput Co Ltd Image specifying device, image specifying method, and program
JP2014115984A (en) * 2012-11-13 2014-06-26 Okada Denshi Co Ltd Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function
JP2020011071A (en) * 2013-02-14 2020-01-23 株式会社ユピテル system
JP2022009225A (en) * 2013-02-14 2022-01-14 株式会社ユピテル system
JP7274775B2 (en) 2013-02-14 2023-05-17 株式会社ユピテル system
JP2014186559A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Video image extraction device, video image extraction method and program
JP2016042306A (en) * 2014-08-18 2016-03-31 株式会社リコー Locus drawing device, locus drawing method, locus drawing system, and program
JP2017208051A (en) * 2016-05-20 2017-11-24 日本電信電話株式会社 Technical support device, method, program, and system
JP7419969B2 (en) 2020-05-27 2024-01-23 富士通株式会社 Generation method, generation program, and information processing device

Also Published As

Publication number Publication date
JP5872829B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
JP5872829B2 (en) Motion analysis device
US8879787B2 (en) Information processing device and information processing method
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US7756293B2 (en) Movement capture and analysis apparatus and method
JP5595655B2 (en) Image processing apparatus and image processing method
US20100208038A1 (en) Method and system for gesture recognition
JP6771996B2 (en) Systems and methods for real-time interactive operation of the user interface
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
JP5898014B2 (en) Posture estimation apparatus, posture estimation method, and posture estimation program
US11798318B2 (en) Detection of kinetic events and mechanical variables from uncalibrated video
JP4153818B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
JP2006185109A (en) Image measurement device and image measurement method
CN109063661A (en) Gait analysis method and device
JP5468773B2 (en) Image processing apparatus and image processing method
JP2003256850A (en) Movement recognizing device and image processor and its program
Malawski et al. Real-time action detection and analysis in fencing footwork
KR101447958B1 (en) Method and apparatus for recognizing body point
KR101394279B1 (en) Method for recognition of user&#39;s motion by analysis of depth image and apparatus for analyzing user&#39;s motion using the same
CN112417205A (en) Target retrieval device and method and electronic equipment
JP6810442B2 (en) A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program.
JP2002008043A (en) Device and method for analyzing action
JP2018180894A (en) Information processing device, information processing method, and program
JPH08279044A (en) Pattern recognition device and gesture recognition device
JP2003052039A (en) System and method for measuring work motion, and program for measurement of work motion
US20230126755A1 (en) Information processing apparatus, information processing method, and imaging system

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20121105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160114

R150 Certificate of patent or registration of utility model

Ref document number: 5872829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250