JP2012094130A - Operation analyzing device - Google Patents
Operation analyzing device Download PDFInfo
- Publication number
- JP2012094130A JP2012094130A JP2011215122A JP2011215122A JP2012094130A JP 2012094130 A JP2012094130 A JP 2012094130A JP 2011215122 A JP2011215122 A JP 2011215122A JP 2011215122 A JP2011215122 A JP 2011215122A JP 2012094130 A JP2012094130 A JP 2012094130A
- Authority
- JP
- Japan
- Prior art keywords
- still image
- image
- trajectory
- motion analysis
- still
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
この発明は、動作解析装置に関し、特に、特定箇所の動作を解析可能な動作解析装置に関するものである。 The present invention relates to a motion analysis device, and more particularly to a motion analysis device capable of analyzing a motion at a specific location.
ゴルフのスイング運動の動作解析に関する技術が、例えば、特開2009−20897号公報(特許文献1)に開示されている。特許文献1によると、時系列の物体画像データのそれぞれについて、特定領域の位置を検出し、検出した特定領域の位置の変化を追跡することにより、特定領域の軌跡を線と点で表示することとしている。 For example, Japanese Unexamined Patent Application Publication No. 2009-20897 (Patent Document 1) discloses a technique related to a golf swing motion analysis. According to Patent Document 1, the position of a specific area is detected for each piece of time-series object image data, and the locus of the specific area is displayed with lines and points by tracking the change in the position of the detected specific area. It is said.
具体的には、予め特定領域の色を記憶しておくことにより、記憶された色と同じ色の領域を時系列の物体画像データからそれぞれ検出し、特定領域の位置の変化を追跡する。また、ユーザによるマニュアル操作により、特定領域の位置を指定させ、この指定された領域の色に基づいて、特定領域の位置の変化を追跡する。 Specifically, by storing the color of the specific area in advance, areas having the same color as the stored color are detected from the time-series object image data, and the change in the position of the specific area is tracked. Further, the position of the specific area is designated by a manual operation by the user, and the change in the position of the specific area is traced based on the color of the designated area.
しかしながら、特許文献1に開示の技術では、特定領域の位置の検出のために、特定領域の色を予め記憶させる必要がある。そうすると、例えば、予め記憶させた色と異なる色を急遽使用しなければならなくなった場合に、色の登録を改めて行う必要があり、ユーザにとってこのような作業は煩雑である。 However, in the technique disclosed in Patent Document 1, it is necessary to previously store the color of the specific area in order to detect the position of the specific area. In this case, for example, when a color different from the color stored in advance needs to be used quickly, it is necessary to register the color again, which is complicated for the user.
また、ユーザによるマニュアル操作により、特定領域の位置を指定された場合であっても、指定された領域の色に基づいて、特定領域の位置の変化を追跡するため、例えば、ユーザにとって、複数の特定領域の位置を指定したい場合には、特定領域のそれぞれにおいて、異なる色を用いる必要がある。 Further, even when the position of the specific area is designated by the user's manual operation, the change in the position of the specific area is tracked based on the color of the designated area. When it is desired to specify the position of the specific area, it is necessary to use a different color in each of the specific areas.
この発明の目的は、ユーザにとって、簡易に使用可能な動作解析装置を提供することである。 An object of the present invention is to provide an operation analysis apparatus that can be easily used by a user.
この発明に係る動作解析装置は、連続する複数の静止画から構成される動画の動作を解析する。動作解析装置は、動画の入力を受け付ける動画受付手段と、動画受付手段により受け付けた動画のうち、動画を構成する第一の静止画において、第一の静止画像上の解析対象箇所を指定する解析箇所指定手段と、解析対象箇所から一定範囲内において、第一の特徴点を検索する第一の検索手段と、動画を構成し、第一の静止画と異なる静止画である第二の静止画において、第一の特徴点に対応する第二の特徴点を検索する第二の検索手段と、第一および第二の特徴点に基づいて、軌跡を作成する軌跡作成手段とを備える。 The motion analysis apparatus according to the present invention analyzes the motion of a moving image composed of a plurality of continuous still images. The motion analysis device includes a moving image receiving unit that receives an input of a moving image, and an analysis that specifies an analysis target location on the first still image in the first still image constituting the moving image out of the moving images received by the moving image receiving unit. A location specifying means, a first search means for searching for a first feature point within a certain range from the analysis target location, and a second still image that constitutes a moving image and is a still image different from the first still image , A second search means for searching for a second feature point corresponding to the first feature point, and a trajectory creation means for creating a trajectory based on the first and second feature points.
こうすることにより、動作解析装置は、第一の静止画像上の解析対象箇所の指定を行い、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、解析対象箇所の指定および軌跡の作成を行い、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。 By doing so, the motion analysis apparatus designates the analysis target location on the first still image, and searches for the first feature point in the first still image and the second feature point in the second still image. To do. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to analyze the motion of the moving image by specifying the analysis target portion and creating the locus without considering the color. As a result, the user can use it easily.
好ましくは、解析箇所指定手段は、ユーザが解析対象箇所を任意に指定可能とするために、ユーザからの指定を受け付ける指定受付手段を有する。こうすることにより、ユーザは、動作の解析を行う箇所を任意に指定することが可能となる。これにより、ユーザの利便性をさらに向上させることができる。 Preferably, the analysis location specifying means includes a specification receiving means for receiving a specification from the user so that the user can arbitrarily specify the analysis target location. By doing so, the user can arbitrarily designate a location for analyzing the motion. Thereby, the convenience for the user can be further improved.
好ましくは、解析箇所指定手段は、第一の静止画から観測対象を認識する認識手段と、認識手段によって認識された観測対象の画像データに基づいて、観測対象の形態を推定する形態推定手段とを有する。ここで、上記解析対象箇所は、形態推定手段によって推定された画像データに基づいて指定される。こうすることにより、動作解析を開始するに際して、動作解析装置が観測対象の初期形態を推定し、そのデータに基づいて解析の初期条件を自動的に決定することが可能となる。これにより、ユーザが解析対象箇所を指定する作業を省略することができるため、ユーザの利便性をさらに向上させた動作解析装置を提供することができる。 Preferably, the analysis location specifying means includes a recognition means for recognizing the observation target from the first still image, and a form estimation means for estimating the form of the observation target based on the observation target image data recognized by the recognition means; Have Here, the analysis target location is specified based on the image data estimated by the form estimation means. In this way, when starting the motion analysis, the motion analysis device can estimate the initial form of the observation target and automatically determine the initial conditions for the analysis based on the data. Thereby, since the user can omit the operation of specifying the analysis target portion, it is possible to provide an operation analysis device that further improves the convenience for the user.
好ましくは、認識手段は、観測対象を含む一定の領域を対象領域として画定する対象領域画定手段と、対象領域の大きさを所定の画像サイズとなるように調整する対象領域正規化手段とを含む。こうすることにより、第一の静止画像における観測対象の位置や大きさ等による影響を受けることなく、観測対象の形態推定および動作解析を、より高精度に一律に行うことが可能となる。 Preferably, the recognizing unit includes a target region demarcating unit that demarcates a certain region including the observation target as a target region, and a target region normalizing unit that adjusts the size of the target region to a predetermined image size. . By doing so, it is possible to uniformly perform the morphological estimation and motion analysis of the observation target without being affected by the position and size of the observation target in the first still image.
好ましくは、認識手段は、第一の静止画に形成された輝度勾配に基づいて、観測対象の輪郭を検出する。こうすることにより、観測対象の輪郭を高精度に行うことができるため、観測対象の形態推定および動作解析を、より高精度に行うことができる。 Preferably, the recognizing unit detects the contour of the observation target based on the luminance gradient formed in the first still image. By doing so, since the contour of the observation target can be performed with high accuracy, the shape estimation and motion analysis of the observation target can be performed with higher accuracy.
好ましくは、観測対象に対応する比較対象の画像データを、予め複数記憶するレファレンス画像記憶手段をさらに備え、形態推定手段は、認識手段によって認識された観測対象の画像データと、レファレンス画像記憶手段によって記憶された比較対象の画像データとを比較し、観測対象の画像データに形態が近似する比較対象の画像データを選択するレファレンス画像選択手段を含む。ここで、上記解析対象箇所は、レファレンス画像選択手段によって選択された比較対象の画像データに基づいて指定される。こうすることにより、観測対象の形態を自動的に推定し、且つ、推定された画像データ上において上記解析対象箇所を設定することができる。すなわち、動作解析の開始点における解析箇所の初期条件を、ユーザによる指定を要することなく、より確実且つ高精度に設定することができる。これにより、ユーザに対する利便性を向上させるとともに、動作解析の精度を向上させることができる。 Preferably, the image processing apparatus further includes a reference image storage unit that stores in advance a plurality of comparison target image data corresponding to the observation target, and the form estimation unit includes the observation target image data recognized by the recognition unit and the reference image storage unit. Reference image selecting means for comparing the stored image data to be compared and selecting image data to be compared whose form approximates the image data to be observed is included. Here, the analysis target portion is specified based on the comparison target image data selected by the reference image selection means. By doing so, it is possible to automatically estimate the form of the observation target and set the analysis target location on the estimated image data. That is, the initial condition of the analysis location at the start point of the motion analysis can be set more reliably and with high accuracy without requiring designation by the user. Thereby, the convenience for the user can be improved and the accuracy of the operation analysis can be improved.
好ましくは、第一の検索手段は、一定範囲内において、複数の第一の特徴点を検索し、第二の検索手段は、複数の第一の特徴点に対応する複数の第二の特徴点を検索し、軌跡作成手段は、複数の第一の特徴点と複数の第二の特徴点との差をそれぞれ算出し、この算出した差の平均値を求めることにより、求めた平均値に基づいて、軌跡を作成する。こうすることにより、複数の特徴点の差の平均値に基づいて、軌跡を作成することができる。したがって、例えば、動作解析装置の認識した解析対象箇所が、ユーザの意図する箇所と多少ずれていた場合であっても、そのずれ具合を抑えることができる。その結果、作成する軌跡の精度を向上させることができる。 Preferably, the first search unit searches for a plurality of first feature points within a certain range, and the second search unit stores a plurality of second feature points corresponding to the plurality of first feature points. The trajectory creation means calculates the difference between the plurality of first feature points and the plurality of second feature points, respectively, and obtains the average value of the calculated differences, thereby obtaining the average value. To create a trajectory. In this way, a trajectory can be created based on the average value of differences between a plurality of feature points. Therefore, for example, even if the analysis target location recognized by the motion analysis device is slightly deviated from the location intended by the user, the degree of deviation can be suppressed. As a result, the accuracy of the created trajectory can be improved.
さらに好ましくは、平均値は、第一および第二の特徴点に基づく点であって、動画を構成する静止画像上の所定の点における変化を示すものであり、軌跡作成手段は、平均値を、連続する複数の静止画の隣り合う静止画像間においてそれぞれ算出し、この算出した平均値が示す所定の点を順に接続することにより、軌跡を作成する。 More preferably, the average value is a point based on the first and second feature points and indicates a change at a predetermined point on the still image constituting the moving image. The trajectory is created by sequentially calculating between adjacent still images of a plurality of continuous still images and sequentially connecting predetermined points indicated by the calculated average value.
さらに好ましくは、第一の静止画は、動画の先頭に位置する静止画と、動画の最後に位置する静止画とを含み、第二の静止画は、第一の静止画と時系列的に後に隣り合う静止画と、第一の静止画より時系列的に前に隣り合う静止画とを含み、第二の検索手段は、時系列的に後に隣り合う静止画において、第一の特徴点に対応する第二の特徴点を検索すると共に、時系列的に前に隣り合う静止画において、第一の特徴点に対応する第二の特徴点を検索する。こうすることにより、例えば、連続する複数の静止画において、時系列的に前から後ろへ向かって、順に特徴点の検索を行った場合に、途中で特徴点の検索を行うことが出来なくなった場合であっても、時系列的に後ろから前へ向かって、逆順に特徴点の検索を行うことができる。その結果、確実に特徴点の検索を行うことができる。 More preferably, the first still image includes a still image located at the beginning of the movie and a still image located at the end of the movie, and the second still image is time-sequentially with the first still image. The second search means includes a first feature point in a still image that is adjacent in time series, and a still image that is adjacent in time series before the first still image. And a second feature point corresponding to the first feature point in a still image adjacent in time series. By doing this, for example, when searching for feature points in order from the front to the back in time series in a plurality of continuous still images, it is no longer possible to search for feature points on the way Even in this case, the feature points can be searched in reverse order from the rear to the front in time series. As a result, the feature point can be reliably searched.
さらに好ましくは、第二の検索手段は、動画の動作の速さを取得する取得手段を含み、取得手段により取得した速さに基づいて、第二の特徴点を検索する。こうすることにより、第二の特徴点の検索を動画の動作の速さに応じて変化させることができる。その結果、容易に第二の特徴点を検索することができる。 More preferably, the second search means includes acquisition means for acquiring the speed of motion of the moving image, and searches for the second feature point based on the speed acquired by the acquisition means. In this way, the search for the second feature point can be changed according to the moving speed of the moving image. As a result, the second feature point can be easily searched.
一実施形態として、連続する複数の静止画は、一定間隔で構成されており、取得手段は、隣り合う静止画像間において、静止画像の差の大小を取得することにより、動画の動作の速さを取得する。 As one embodiment, a plurality of continuous still images are configured at regular intervals, and the acquisition means acquires the magnitude of the difference between the still images between adjacent still images, thereby speeding up the motion of the moving image. To get.
好ましくは、軌跡作成手段は、軌跡の方向が転換された場合に、方向転換前の軌跡と方向転換後の軌跡とを識別可能とする方向転換識別手段を有する。こうすることにより、動作の転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を容易に行うことができる。 Preferably, the trajectory creation unit includes a direction change identification unit that can identify a trajectory before the direction change and a trajectory after the direction change when the direction of the trajectory is changed. By doing this, it becomes possible to clearly grasp the point that becomes the turning point of the operation and the trajectory of the movement before and after that, so that more detailed operation analysis can be easily performed.
好ましくは、方向転換識別手段は、時系列的に連続する静止画間における軌跡の速度ベクトルを計算し、特定の静止画における速度ベクトルと、当該特定の静止画と時系列的に後に隣り合う静止画における速度ベクトルとの内積が負となった場合に、軌跡の方向転換を検出する。こうすることにより、動作の転換点となるポイントを、より高精度に検出することが可能となる。 Preferably, the direction change identification unit calculates a velocity vector of a trajectory between still images that are continuous in time series, and a speed vector in a specific still image and a still image that is adjacent to the specific still image after time series. When the inner product with the velocity vector in the image becomes negative, the direction change of the trajectory is detected. By doing so, it becomes possible to detect the point that becomes the turning point of the operation with higher accuracy.
さらに好ましくは、軌跡作成手段により作成された軌跡と、動画受付手段により受け付けた動画とを重ねて表示する表示手段を含む。こうすることにより、軌跡と動画とを重ねて表示することができ、ユーザにとって、動画の動作の解析結果がわかりやすくなる。 More preferably, it includes display means for displaying the trajectory created by the trajectory creating means and the moving picture accepted by the moving picture accepting means in an overlapping manner. By doing so, the trajectory and the moving image can be displayed in an overlapping manner, and the analysis result of the moving image operation can be easily understood by the user.
このような動作解析装置は、第一の静止画像上の解析対象箇所の指定を行い、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、解析対象箇所の指定および軌跡の作成を行い、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。 Such a motion analysis apparatus designates an analysis target location on the first still image, and searches for the first feature point in the first still image and the second feature point in the second still image. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to analyze the motion of the moving image by specifying the analysis target portion and creating the locus without considering the color. As a result, the user can use it easily.
以下、図面を参照して、この発明の一実施形態に係る動作解析装置について説明する。図1は、この発明の一実施形態に係る動作解析装置10の構成を示すブロック図である。図1を参照して、動作解析装置10は、動画の動作を解析可能であって、動作解析装置10全体を制御するCPU等の制御部11と、画像等を記憶する記憶部12と、タッチパネル式であってユーザからの操作を受け付けると共に記憶部12に記憶した画像等を表示する操作部13と、外部機器との接続インターフェースとなるI/F部14とを備える。なお、本実施形態中において、画像とは、動画および静止画を含むものとする。
Hereinafter, an operation analysis apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a motion analysis apparatus 10 according to an embodiment of the present invention. Referring to FIG. 1, the motion analysis device 10 can analyze the motion of a moving image, and includes a
ここで、動作解析装置10が、ゴルフのスイングのフォームを解析する場合について説明する。図2は、ゴルフのスイングのフォームを解析する場合の動作解析装置10の動きを示すフローチャートである。図1〜図2を参照して説明する。 Here, a case where the motion analysis device 10 analyzes a golf swing form will be described. FIG. 2 is a flowchart showing the movement of the motion analysis apparatus 10 when analyzing a golf swing form. A description will be given with reference to FIGS.
まず、ユーザは、アドレスからフィニッシュまでのゴルフのスイングのフォームをビデオカメラ等で予め撮影しており、動作解析装置10は、I/F部14を介して、撮影した動画の入力を受け付ける(図2において、ステップS11、以下ステップを省略する)。動画は、連続する複数の静止画から構成されており、この複数の静止画は、一定間隔である。図3〜図5は、連続する複数の静止画の一部を示す図である。図3〜図5は、アドレスからフィニッシュまでのゴルフのスイングのうち、スイングの開始直後であるアドレスからテイクバックまでの状態を順に示している。ここで、I/F部14は、動画受付手段として作動する。動作解析装置10は、連続する静止画の先頭に位置する図3の静止画を操作部13に表示する(S12)。ここで、図3の静止画は、第一の静止画である。
First, the user has previously photographed a golf swing form from the address to the finish with a video camera or the like, and the motion analysis apparatus 10 accepts input of the photographed moving image via the I / F unit 14 (FIG. 2, step S11, the following steps are omitted). The moving image is composed of a plurality of continuous still images, and the plurality of still images are at regular intervals. 3 to 5 are diagrams showing a part of a plurality of continuous still images. FIGS. 3 to 5 sequentially show the state from the address immediately after the start of the swing to the takeback among golf swings from the address to the finish. Here, the I /
そうすると、動作解析装置10は、動作解析の対象となる解析対象箇所として、ユーザから静止画像上の任意の箇所を指定される(S13)。操作部13は、タッチパネル式であり、画面を指等でタッチされることによって、任意の箇所を指定される。ここでは、任意の箇所として、P0を指定される。なお、図6は、図3の静止画において、指定されたP0の位置を示す図である。ここで、操作部13は、指定受付手段として作動する。
Then, the motion analysis apparatus 10 designates an arbitrary location on the still image from the user as an analysis target location to be a motion analysis target (S13). The
そうすると、動作解析装置10は、指定点であるP0を中心とし、予め定められた半径r範囲内において、第一の特徴点の検索を行う(S14)。特徴点とは、静止画像中の輝度の変化の大きい箇所や、物体のエッジ等を示す点であって、静止画において何らかの変化を有する点である。ここでは、図3の静止画において、P1、P2、P3の複数の第一の特徴点が検索される。 Then, the motion analysis device 10 is centered and P 0 is the designated point, within the radius r a predetermined range, the search for the first characteristic point performed (S14). A feature point is a point that indicates a location where the luminance changes greatly in a still image, an edge of an object, or the like, and is a point that has some change in a still image. Here, a plurality of first feature points P 1 , P 2 , and P 3 are searched in the still image of FIG.
なお、特徴点の検索は、SIFT(Scale Invariant Feature Transform)特徴量を用いることができる。SIFT特徴量の計算は、指定点P0を中心とした半径r範囲内の部分静止画を平滑化し、平滑化画像からDoG(Difference of Gaussian)画像を生成する。そして、DoG画像において極値を探索する。そして、当該極値の周囲の画素の輝度勾配および角度に基づき特徴量を計算する。SIFT特徴量は、物体の回転や、物体の拡大および縮小等に影響を受けることがない。したがって、この実施形態のような回転する動作であるゴルフのスイングにおいて、誤差等がなく適切に用いることができる。図7は、図3の静止画において、検索された第一の特徴点P1、P2、P3の位置を示す図である。ここで、制御部11は、第一の検索手段として作動する。
Note that a feature point search can use a SIFT (Scale Invariant Feature Transform) feature. The SIFT feature value is calculated by smoothing a partial still image within a radius r centered on the designated point P 0 and generating a DoG (Difference of Gaussian) image from the smoothed image. Then, extreme values are searched for in the DoG image. Then, the feature amount is calculated based on the luminance gradient and angle of the pixels around the extreme value. The SIFT feature quantity is not affected by the rotation of the object, the enlargement / reduction of the object, or the like. Therefore, the golf swing which is a rotating operation as in this embodiment can be appropriately used without any error. FIG. 7 is a diagram illustrating the positions of the searched first feature points P 1 , P 2 , and P 3 in the still image of FIG. Here, the
そして、動作解析装置10は、第一の特徴点P1、P2、P3を検索した図3の静止画より時系列的に後に隣り合う静止画、すなわち、図4の静止画において、第一の特徴点P1、P2、P3に対応する第二の特徴点の検索を行う(S15)。ここで、対応するとは、第一の特徴点P1、P2、P3に類似する値を有することを意味する。検索においては、例えば、図3の静止画における第一の特徴点P1、P2、P3の座標を図4の静止画にあてはめて、当該座標の位置を中心とした所定の範囲内において、第一の特徴点P1、P2、P3に対応する第二の特徴点の検索を行う。図8は、図4の静止画において、検索された第二の特徴点P1´、P2´、P3´の位置を示す図である。P1´がP1に対応し、P2´がP2に対応し、P3´がP3に対応している。ここで、図4の静止画は、第二の静止画であり、制御部11は、第二の検索手段として作動する。
Then, the motion analysis apparatus 10 determines the first feature point P 1 , P 2 , P 3 in the still image adjacent in time series after the still image in FIG. 3, that is, the still image in FIG. The second feature point corresponding to the one feature point P 1 , P 2 , P 3 is searched (S15). Here, “corresponding” means having values similar to the first feature points P 1 , P 2 , and P 3 . In the search, for example, the coordinates of the first feature points P 1 , P 2 , P 3 in the still image of FIG. 3 are applied to the still image of FIG. 4 and within a predetermined range centered on the position of the coordinates. The second feature points corresponding to the first feature points P 1 , P 2 , P 3 are searched. FIG. 8 is a diagram showing the positions of the searched second feature points P 1 ′, P 2 ′, and P 3 ′ in the still image of FIG. P 1 'corresponds to P 1, P 2' corresponds to P 2, P 3 'corresponds to P 3. Here, the still image of FIG. 4 is a second still image, and the
そして、図7に示す特徴点P1、P2、P3と、図8に示す特徴点P1´、P2´、P3´との差を算出する(S16)。P1´−P1=ΔP1よりΔP1を算出する。すなわち、隣り合う静止画像間における特徴点の変化量を算出する。P2´、P3´においても同様に計算して、P2´−P2=ΔP2よりΔP2を算出し、P3´−P3=ΔP3よりΔP3を算出する。そして、算出した差ΔP1、ΔP2、ΔP3の3つの平均値ΔPt1を求める(S17)。この平均値ΔPt1は、第一および第二の特徴点に基づく点である静止画像上の所定の点における変化を示すものとなる。 Then, the difference between the feature points P 1 , P 2 and P 3 shown in FIG. 7 and the feature points P 1 ′, P 2 ′ and P 3 ′ shown in FIG. 8 is calculated (S16). ΔP 1 is calculated from P 1 ′ −P 1 = ΔP 1 . That is, the change amount of the feature point between adjacent still images is calculated. P 2 ', P 3' is also calculated in the same manner in, 'calculates the [Delta] P 2 than-P 2 = ΔP 2, P 3' P 2 calculates the [Delta] P 3 from-P 3 = ΔP 3. Then, three average values ΔP t1 of the calculated differences ΔP 1 , ΔP 2 and ΔP 3 are obtained (S17). The average value ΔP t1 indicates a change at a predetermined point on the still image that is a point based on the first and second feature points.
そして、第二の特徴点P1´、P2´、P3´を検索した図4の静止画より時系列的に後に隣り合う静止画、すなわち、図5の静止画においても同様に、特徴点P1´、P2´、P3´に対応する特徴点P1´´、P2´´、P3´´(図示せず)の検索を行い、特徴点P1´、P2´、P3´と特徴点P1´´、P2´´、P3´´の差を算出し、算出した差の平均値ΔPt2を求める。このとき、特徴点P1´、P2´、P3´は第一の特徴点となり、特徴点P1´´、P2´´、P3´´は第二の特徴点となる。 Similarly, in the still image adjacent in time series after the still image of FIG. 4 searched for the second feature points P 1 ′, P 2 ′, and P 3 ′, that is, the still image of FIG. the point P 1 ', P 2', P 3 'to the corresponding feature point P 1'', P 2'', performs a search of the P 3'' (not shown), the feature point P 1', P 2 ' , P 3 ′ and the feature points P 1 ″ , P 2 ″ , P 3 ″ are calculated, and an average value ΔP t2 of the calculated differences is obtained. In this case, the feature point P 1 ', P 2', P 3 ' becomes the first feature points, the feature point P 1'', P 2'', P 3'' is the second aspect.
このように、S11にて受け付けた動画を構成する連続する複数の静止画の隣り合う静止画像間の全てにおいて、特徴点の差をそれぞれ算出し、算出した差の平均値ΔPtn(n=1,2・・・)を順に求めていく(S18において、NO)。 As described above, the difference between the feature points is calculated for all the adjacent still images of the plurality of continuous still images constituting the moving image received in S11, and the average value ΔP tn (n = 1) of the calculated differences is calculated. , 2...) In order (NO in S18).
そして、連続する複数の静止画の隣り合う静止画像間の全てにおいて、特徴点の差をそれぞれ算出し、算出した差の平均値ΔPtn(n=1,2・・・)を求めると(S18において、YES)、求めた平均値ΔPtnを順に接続する。すなわち、所定の点を順に接続する。このようにして、平均値ΔPtnに基づき、軌跡を作成する(S19)。平均値ΔPtnは、軌跡の一部であり、接続することにより軌跡全体となる。図9は、図3の静止画に軌跡20を重ねて表示した状態を示す図である。なお、図9においては、軌跡20の一部を示している。ここで、制御部11は、軌跡作成手段として作動する。このようにして、動作解析装置10は、軌跡20を作成することにより、動作の解析を行う。
Then, the difference between the feature points is calculated for all the adjacent still images of the plurality of continuous still images, and the average value ΔP tn (n = 1, 2,...) Of the calculated difference is obtained (S18). And YES), the obtained average value ΔP tn is connected in order. That is, predetermined points are connected in order. In this way, a trajectory is created based on the average value ΔP tn (S19). The average value ΔP tn is a part of the trajectory and becomes the entire trajectory by connecting. FIG. 9 is a diagram illustrating a state in which the trajectory 20 is superimposed on the still image of FIG. In FIG. 9, a part of the trajectory 20 is shown. Here, the
このように、動作解析装置10は、解析対象箇所として第一の静止画像上の任意の箇所の指定を受け付けると、第一の静止画における第一の特徴点および第二の静止画における第二の特徴点を検索する。そして、第一および第二の特徴点に基づいて、軌跡を作成する。したがって、ユーザにとって、色を考慮する必要なく、任意の箇所を指定するのみで、軌跡を作成して、動画の動作を解析することができる。その結果、ユーザにとって、簡易に使用可能となる。 As described above, when the motion analysis apparatus 10 receives designation of an arbitrary location on the first still image as the analysis target location, the first feature point in the first still image and the second feature in the second still image. Search for feature points. Then, a trajectory is created based on the first and second feature points. Therefore, it is possible for the user to create a trajectory and analyze the motion of the moving image only by designating an arbitrary location without considering the color. As a result, the user can use it easily.
また、S13において、例えば画面が小さい場合には、ユーザとっては図3のグリップを指定したにもかかわらず、グリップとは異なるシャフト等を指定されたと操作部13が受け付けてしまう場合がある。すなわち、操作部13が受け付けた指定点P0とユーザの意図した解析対象箇所とが異なる場合がある。しかしながら、S14において、指定点P0を中心としてP0の周囲の複数の特徴点を検索するため、この検索した複数の特徴点に基づいて軌跡の作成を行うことができる。したがって、指定点P0とユーザの意図した解析対象箇所とが異なる場合であっても、作成する軌跡の精度を向上させることができる。
In S13, for example, when the screen is small, the
なお、S15における第二の特徴点の検索の際に、例えば動画の動作が激しい場合には、第二の特徴点の検索が困難となる場合がある。例えば、図3〜図5に示す静止画像は、スイングの開始直後を示すものであるため、動作が遅く、静止画像間の変化が小さい。しかしながら、図10〜図12に示す静止画像は、ダウンスイングからインパクト直前を順に示すものであるため、動作が速く、静止画像間の変化が大きい。このように動画の動作が速く、特徴点の検索が困難な場合には、動画の動作の速さを予め取得しておくことにより、対応することができる。 When searching for the second feature point in S15, for example, if the motion of the moving image is intense, the search for the second feature point may be difficult. For example, the still images shown in FIGS. 3 to 5 show the state immediately after the start of the swing, so the operation is slow and the change between the still images is small. However, since the still images shown in FIGS. 10 to 12 show the order from the downswing to immediately before the impact, the operation is fast and the change between the still images is large. Thus, when the motion of the moving image is fast and it is difficult to search for the feature points, it can be dealt with by acquiring the speed of the motion of the moving image in advance.
具体的には、静止画像を所定の大きさの領域に分割し、隣り合う静止画像間で、対応する領域毎に差分を抽出する。そして、その差分の大小を取得して、差分が大きければ動作が速いと判断し、差分が小さければ動作が遅いと判断する。このようにして、動画の動作の速さを取得する。そして、S15における第二の特徴点の検索の際に、動作の速さを取得して、動作が速い場合には、検索する範囲を大きくする。ここで、制御部11は、取得手段として作動する。
Specifically, a still image is divided into regions of a predetermined size, and a difference is extracted for each corresponding region between adjacent still images. The magnitude of the difference is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, it is determined that the operation is slow. In this way, the motion speed of the moving image is acquired. Then, when searching for the second feature point in S15, the speed of operation is acquired, and if the operation is fast, the search range is enlarged. Here, the
また、例えば、静止画像を所定の大きさの小領域に分割し、小領域毎に、横軸が輝度勾配、縦軸が出現頻度を示す輝度勾配のヒストグラムを計算する。なお、この輝度勾配は、上記したS14におけるSIFT特徴量計算時のものと同じである。そして、隣り合う静止画像間で、計算したヒストグラムを対応する領域毎に比較することにより、ヒストグラムの差の大小を取得して、差が大きければ動作が速いと判断し、差が小さければ動作が遅いと判断してもよい。 Further, for example, a still image is divided into small regions of a predetermined size, and a histogram of luminance gradients in which the horizontal axis indicates the luminance gradient and the vertical axis indicates the appearance frequency is calculated for each small region. This luminance gradient is the same as that at the time of SIFT feature value calculation in S14 described above. Then, by comparing the calculated histogram for each corresponding region between adjacent still images, the magnitude of the difference in the histogram is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, the operation is performed. You may judge that it is slow.
また、例えば、静止画像全体に2次元DCT(Discrete Cosine Transform:離散コサイン変換)処理を行うことにより、静止画像全体を周波数領域に変換する。そして、変換した周波数領域のうち、高周波領域の情報を除き、低周波領域のヒストグラムを計算する。そして、隣り合う静止画像間で、計算したヒストグラムを比較することにより、ヒストグラムの差の大小を取得して、差が大きければ動作が速いと判断し、差が小さければ動作が遅いと判断してもよい。 In addition, for example, the entire still image is converted into the frequency domain by performing a two-dimensional DCT (Discrete Cosine Transform) process on the entire still image. And the histogram of a low frequency area | region is calculated except the information of a high frequency area | region among the converted frequency area | regions. Then, by comparing the calculated histograms between adjacent still images, the magnitude of the difference between the histograms is acquired, and if the difference is large, it is determined that the operation is fast, and if the difference is small, the operation is determined to be slow. Also good.
また、上記の実施の形態においては、特徴点の検索の際に、いずれの静止画像においても特徴点の検索ができた場合について説明したが、例えば図3の静止画の特徴点P1、P2、P3は検索できたものの、図3の静止画に隣り合う図4の静止画の特徴点P1´、P2´、P3´は検索できない場合がある。このような場合には、補間処理を行うことにより、対応することができる。 Further, in the above-described embodiment, the case has been described where the feature points can be searched for any still image when searching for the feature points. For example, the feature points P 1 and P 1 of the still image shown in FIG. 2 and P 3 can be searched, but the feature points P 1 ′, P 2 ′, and P 3 ′ of the still image in FIG. 4 adjacent to the still image in FIG. 3 may not be searched. Such a case can be dealt with by performing an interpolation process.
具体的には、特徴点の検索を、動画の先頭に位置する静止画から動画の最後に位置する静止画まで順に行うと共に、動画の最後に位置する静止画から動画の先頭に位置する静止画まで逆順にも行う。すなわち、先頭に位置する静止画において、第一の特徴点を検索すると、先頭に位置する静止画と時系列的に後に隣り合う静止画において、第二の特徴点を検索する。さらに、最後に位置する静止画において、第一の特徴点を検索すると、最後に位置する静止画と時系列的に前に隣り合う静止画において、第二の特徴点を検索する。 Specifically, feature points are searched in order from the still image located at the beginning of the movie to the still image located at the end of the movie, and from the still image located at the end of the movie to the still image located at the beginning of the movie. Repeat in reverse order. That is, when the first feature point is searched for in the still image located at the head, the second feature point is searched for in the still image that is adjacent in time series to the still image located at the head. Further, when the first feature point is searched for in the last still image, the second feature point is searched for in the still image adjacent to the last still image in time series.
そして、特徴点の差を算出して、算出した差の平均値が、順にΔPt1、ΔPt2と求まり、逆順にΔPt5、ΔPt4と求まり、ΔPt3については特徴点が検索できず平均値を算出できなかった場合、ΔPt3の前後の平均値、すなわち、ΔPt2、ΔPt4に基づいて、ΔPt3を算出する。すなわち、ΔPt2とΔPt4の平均をΔPt3と算出する。このようにして、補間処理を行うことにより、軌跡を作成してもよい。なお、この場合、最後に位置する静止画における第一の特徴点の検索は、最後に位置する静止画において、先頭に位置する静止画と同じ箇所をユーザから指定されることにより、行ってもよい。 Then, a difference between the feature points is calculated, and an average value of the calculated differences is obtained in order as ΔP t1 and ΔP t2, and in reverse order as ΔP t5 and ΔP t4, and a feature point cannot be searched for ΔP t3 and the average value If ΔP t3 cannot be calculated, ΔP t3 is calculated based on the average values before and after ΔP t3 , that is, ΔP t2 and ΔP t4 . That is, the average of ΔP t2 and ΔP t4 is calculated as ΔP t3 . In this way, the trajectory may be created by performing the interpolation process. In this case, the search for the first feature point in the last still image may be performed by designating the same location as the still image located at the top in the last still image by the user. Good.
また、上記の実施の形態においては、特徴点の検索の際に、いずれの静止画像においても特徴点の検索ができた場合について説明したが、例えば、特徴点P1に対応する特徴点P1´と、特徴点P2に対応する特徴点P2´とを検索でき、特徴点P3に対応する特徴点P3´においては検索できなかった場合、特徴点P3は破棄し、特徴点P1、P2、P1´、P2´のみに基づいて、平均値を算出してもよい。 In the above-described embodiment, the case has been described where the feature point can be searched for any still image when searching for the feature point. For example, the feature point P 1 corresponding to the feature point P 1 is described above. can find and 'the feature points P 2 corresponding to the feature point P 2', if it can not find in the feature point P 3 'corresponding to the feature point P 3, the feature point P 3 is discarded, the feature point The average value may be calculated based on only P 1 , P 2 , P 1 ′, and P 2 ′.
また、軌跡を作成する際に、平均値に対して、移動平均フィルタ等のローパスフィルタ処理を行ってもよい。こうすることにより、作成する軌跡を滑らかにすることができる。 Further, when creating the trajectory, low-pass filter processing such as a moving average filter may be performed on the average value. By doing so, the created trajectory can be smoothed.
また、上記の実施の形態においては、特徴点の差の平均値に基づいて、軌跡を作成する例について説明したが、これに限ることなく、特徴点の平均値に基づいて、軌跡を作成してもよい。すなわち、複数の第一の特徴点を検索し、その平均値を求める。また、複数の第二の特徴点を検索し、その平均値を求める。そして、求めた平均値を順に接続して、軌跡を作成してもよい。 In the above embodiment, an example of creating a trajectory based on the average value of feature point differences has been described. However, the present invention is not limited to this, and a trajectory is created based on the average value of feature points. May be. That is, a plurality of first feature points are searched and the average value is obtained. In addition, a plurality of second feature points are searched and an average value thereof is obtained. Then, the trajectory may be created by sequentially connecting the obtained average values.
また、上記の実施の形態においては、軌跡20と静止画とを重ね合わせて表示する例について説明したが、これに限ることなく、軌跡20と動画とを重ね合わせて表示してもよい。こうすることにより、ユーザにとって、動画の動作の解析結果がわかりやすくなる。ここで、操作部13は、表示手段として作動する。
Further, in the above-described embodiment, an example in which the trajectory 20 and the still image are displayed in an overlapping manner has been described. However, the present invention is not limited thereto, and the trajectory 20 and the moving image may be displayed in an overlapping manner. This makes it easier for the user to understand the analysis result of the motion of the moving image. Here, the
また、例えば、予めモデルとなるゴルフのスイングの動画を準備しておくことにより、モデルの動画の軌跡と、自身の動画の軌跡とを並べて表示してもよい。こうすることにより、モデルのフォームと自身のフォームとを容易に比較することができ、ユーザにとってより良いフォームへと改善しやすくなる。なお、この場合、人物の大きさが異なる場合には、双方の大きさを揃えるように、画像の拡大縮小等を行ってもよい。また、スイングに要する時間が異なる場合には、長い方の動画を間引きして双方の時間の長さを揃えてもよい。 Further, for example, by preparing a golf swing video as a model in advance, the model video trajectory and the own video trajectory may be displayed side by side. By doing so, it is possible to easily compare the model form with its own form, and the user can easily improve the form. In this case, when the size of the person is different, the image may be enlarged / reduced so that both sizes are equal. If the time required for the swing is different, the longer moving image may be thinned out so that the time lengths of both are equal.
また、上記の実施の形態においては、S13において、ユーザからP0の1点を指定される例について説明したが、これに限ることなく、2点以上指定された場合でも同様に、指定点の各々において、S14からの処理を行い、各々の軌跡を作成することができる。 In the above embodiment, the example in which one point P 0 is designated by the user in S13 has been described. However, the present invention is not limited to this, and even when two or more points are designated, In each, the process from S14 can be performed to create each trajectory.
また、上記の実施の形態においては、S13において、ユーザからP0を指定されて、指定点であるP0を中心とし、予め定められた所定の半径rの範囲内において、特徴点の検索を行い、指定点P0とは異なるP1、P2、P3の特徴点が検索される例について説明したが、これに限ることなく、指定点P0を特徴点として検索されてもよい。 In the above embodiment, in S13, P 0 is designated by the user, and a feature point search is performed within a predetermined radius r centered on the designated point P 0 . The example in which the feature points of P 1 , P 2 , P 3 different from the designated point P 0 are retrieved has been described, but the present invention is not limited to this, and the designated point P 0 may be retrieved as the feature point.
また、上記の実施の形態においては、第二の静止画は、第一の静止画と時系列的に隣り合う静止画である例について説明したが、これに限ることなく、第一の静止画と異なる静止画であればよい。 In the above-described embodiment, the example in which the second still image is a still image adjacent to the first still image in time series has been described, but the first still image is not limited thereto. Any other still image may be used.
また、上記の実施の形態においては、第一の特徴点として、P1、P2、P3の3つを検索する例について説明したが、これに限ることなく、いくつでもよい。 In the above-described embodiment, an example of searching for three of P 1 , P 2 , and P 3 as the first feature points has been described, but the number is not limited to this, and any number is possible.
また、上記の実施の形態においては、操作部13は、タッチパネル式である例について説明したが、これに限ることなく、例えば、操作部13は、表示画面と、マウスとを備える構成とし、ユーザによってマウスを操作されることにより、解析対象箇所を指定されてもよい。
In the above embodiment, the example in which the
また、上記の実施の形態においては、特徴量として、SIFT特徴量を用いる例について説明したが、これに限ることなく、や、HOG(Histogram of Oriented Gradients)特徴量や、Harris特徴量等の他の特徴量を用いてもよい。 In the above-described embodiment, an example using a SIFT feature amount as a feature amount has been described. However, the present invention is not limited to this, and other features such as a HOG (Histogram of Oriented Gradients) feature amount, a Harris feature amount, and the like. May be used.
次に、図1および図13〜図21を参照して、この発明の他の実施形態に係る動作解析装置30について説明する。なお、上記実施形態と同様の構成要素については同じ符号を付し、詳しい説明を省略する。また、以下の説明においては、前述した実施形態と同様に、本発明をゴルフスイングの動作解析に適用した場合について説明する。 Next, a motion analysis apparatus 30 according to another embodiment of the present invention will be described with reference to FIG. 1 and FIGS. In addition, the same code | symbol is attached | subjected about the component similar to the said embodiment, and detailed description is abbreviate | omitted. Moreover, in the following description, the case where the present invention is applied to the golf swing motion analysis will be described as in the above-described embodiment.
動作解析装置30は、図1に示す実施形態と同様に、動作解析装置30全体を制御するCPU等の制御部11と、画像等を記憶する記憶部12と、タッチパネル式であってユーザからの操作を受け付けると共に記憶部12に記憶した画像等を表示する操作部13と、外部機器との接続インターフェースとなるI/F部14とを備える。
Similar to the embodiment shown in FIG. 1, the motion analysis device 30 includes a
ここで、この実施形態に係る動作解析装置30においては、記憶部12に、動作解析の観測対象に対応する画像が、複数記憶されている。具体的には、記憶部12に、アドレスの姿勢をとるゴルフプレーヤーの画像を、幅広い年齢、身長、体型、および性別等に亘ってランダムに多数記憶する。これらの画像は、観測対象の初期形態を推定するためのレファレンス画像として利用される。なお、この処理に関しては、後に詳述する。
Here, in the motion analysis apparatus 30 according to this embodiment, the
次に、この実施形態に係る動作解析装置30の制御部11が行う動作解析フローについて説明する。まず、動作解析装置30は、I/F部14を介して、予め撮影されたゴルフスイングの動画の入力を受け付ける(S21)。上記したように、動画データは、時系列的に連続する複数の静止画の集合体として構成されている。動作解析装置30は、時系列の先頭に位置する図14に示す静止画31を、操作部13に表示する(S22)。
Next, an operation analysis flow performed by the
次いで、動作解析装置30は、静止画31をスキャンし、所定のサイズを有する領域を解析の対象領域32として順に画定する(S23)。なお、図14においては、観測対象となるプレーヤー33が、対象領域32内に適切なサイズで含まれている場合を示している。しかしながら、実際の解析フローとしては、静止画31を全体に亘ってスキャンし、対象領域32の位置と大きさを変化させつつ、次々と候補となる対象領域を画定していく。そして、後述する処理において、それぞれの対象領域毎にプレーヤー33が含まれているか否かが判定される。
Next, the motion analysis apparatus 30 scans the
以下、理解の容易の観点から、図14に示すように、S23により画定された対象領域32内に、観測対象となるプレーヤー33が適切なサイズにて含まれていた場合について説明する。
Hereinafter, from the viewpoint of easy understanding, as shown in FIG. 14, a case will be described in which the
プレーヤー33を含む対象領域32が画定された後、その後の解析処理をより迅速且つ容易に進行可能とするために、対象領域32の大きさを所定の画像サイズとなるように調整する(S24)。具体的には、対象領域32の画像サイズを、例えば64×128ドットに拡大/縮小する。その結果、図14に示す対象領域32が、図15に示すような所定の画像サイズを有する対象領域32Aとして切り出されることとなる。同様に、対象領域32に含まれていたプレーヤー33も、それに対応して拡大/縮小され、プレーヤー33Aとなる。
After the
次いで、対象領域32の画像データにおける輝度勾配に基づいて、プレーヤー33Aの輪郭34を検出する(S25)。なお、輪郭を検出する手法としては、例えば上記したSIFT特徴量やHOG特徴量のような輝度勾配に基づく特徴量を適用してもよいし、Harris特徴量等のような輝度勾配以外のパラメータに基づく特徴量を適用してもよい。これらの手法を用いることにより、図16に示すように、プレーヤー33Aに対応する輪郭34を効果的に抽出することができる。なお、図16においては、理解の容易の観点から、プレーヤー33Aの実際の輪郭33Bと、HOG特徴量に基づいて抽出された輪郭34とを併記しているが、実際の処理においては、HOG特徴量に基づく輪郭34を検出すればよい。
Next, the
このように、S23〜S25のステップを経ることによって、図14に示す静止画31から、図16に示す観測対象の輪郭34を抽出することができる。すなわち、本発明においては、S23〜S25のステップを実行する制御部11が、観測対象となるプレーヤー33を静止画31中において認識するための人物認識手段(図13中のA)として機能する。
As described above, the
次いで、動作解析装置30は、人物認識手段(A)によって検出されたプレーヤー33Aの輪郭34と、記憶部12に記憶されたレファレンス画像とを比較し、輪郭34と近似するレファレンス画像を選択する(S26)。この動作について、以下に具体的に説明する。
Next, the motion analysis device 30 compares the
この実施形態においては、上記したように、記憶部12が、アドレスの姿勢をとるゴルフプレーヤーの画像データを、幅広い年齢、身長、体型、および性別等に亘って、ランダムに多数記憶している。図17に、比較対象となるレファレンス画像を例示する。このレファレンス画像においても、図15および図16に示す対象領域32Aと同じ画像サイズの対象領域32Aが画定されており、この対象領域32A内にレファレンスプレーヤー35が適切なサイズにて収容されるように記憶されている。すなわち、S26にて比較される観測対象プレーヤー33Aとレファレンスプレーヤー35とは、共通サイズの対象領域32A内において、人物の位置や大きさがほぼ共通となるように調整され、記憶される。この構成により、観測対象プレーヤー33Aと、レファレンスプレーヤー35との比較を、静止画31におけるプレーヤー33の位置や大きさ等によって影響を受けることなく、より高精度に実行することが可能となる。
In this embodiment, as described above, the
記憶部12においては、レファレンス画像は、図17に示すような静止画像の他に、上記HOG特徴量により導出される輪郭画像や、頭部、腕部、または脚部等といった身体の一部領域を画定した身体部位領域画像として記憶されていてもよい。図18(a)〜(c)に、図17に対応する各形式の画像データを例示する。図18(a)は、図17に対応する静止画であって、画像上において頭部、腕部、および脚部に対応する第一身体部位領域36が画定されている様子を表す図である。すなわち、第一頭部領域36a、第一腕部領域36b、および第一脚部領域36cが、それぞれ画像上に画定されている。図18(b)は、レファレンスプレーヤー35の輪郭55を示す図である。図18(c)は、図18(a)に示す第一身体部位領域36のみを抽出した様子を表す図である。
In the
この実施形態においては、人物認識手段(A)によって検出されたプレーヤー33Aの輪郭34と、図18(b)に示すレファレンスプレーヤー35の輪郭55とを比較することによって、記憶部12に記憶された多数のレファレンス画像から、観測対象に形態が近似するものを選択する。そして、選択されたレファレンス画像に対応する第一身体部位領域36を抽出し、観測対象の画像データに適用する。その結果を、図19に示す。
In this embodiment, the
図19に示すように、上記した方法により適用された第一身体部位領域36は、観測対象のプレーヤー33Aの身体の各部位とほぼ一致することとなる。これにより、プレーヤー33Aの頭部、腕部、および脚部等の配置、すなわち、アドレス状態におけるプレーヤー33Aの姿勢を、概略的に推定することができる。
As shown in FIG. 19, the first
このように、本発明によれば、入力された静止画31のデータと、記憶部12に記憶されたレファレンス画像データとに基づいて、静止画31におけるプレーヤー33Aの初期形態(姿勢や体型等の要素を含む)を、概略的に推定することが可能となる。すなわち、S26を実行する制御部11は、プレーヤー33Aの初期形態を推定するための初期形態推定手段(B)として機能する。
As described above, according to the present invention, based on the input data of the
なお、S26を実行した結果、観測対象のプレーヤー33Aに近似するレファレンス画像が発見されなかった場合、動作解析装置30は、S23にて確定した対象領域32内に人物が適切に含まれなかったものと判断し、S23にリターンする。そして、対象領域32内に人物が適切に含まれている状態を検出するまでS23〜S26を繰り返し行う。
In addition, as a result of executing S26, when a reference image that approximates the
S26の結果、図19に示すようにプレーヤー33Aの姿勢を推定することができた場合、次のステップとして、動作解析の対象となる解析対象箇所を、図19に示す画像データに基づいて指定する(S27)。ここで、本実施形態においては、解析対象箇所を、第一身体部位領域36によって決定する。その一例としては、図19に示す第一頭部領域36a、第一腕部領域36bの下端部、および/または、第一脚部領域36cの中央部等を、解析対象箇所として自動的に指定する。これは、プレーヤー33Aの頭部、グリップ(手首近辺)、および/または膝を、解析対象箇所として自動的に指定したことと同義である。なぜならば、上記したように、第一身体部位領域36は、観測対象のプレーヤー33Aの身体の各部位とほぼ一致するように画定されているからである。図19に、例として第一腕部領域36bの下端部、すなわちプレーヤー33Aのグリップ付近を解析対象箇所として指定した場合を示す(図19中の点39)。
As a result of S26, when the posture of the
このように、本実施形態においては、上記S23〜S27を実行する制御部11が、解析対象箇所を指定するための解析対象箇所指定手段(C)として機能する。そして、この構成により、ユーザが動作解析を開始するに際して、動作解析装置30が観測対象となるプレーヤー33Aの初期形態を推定し、そのデータに基づいて解析の初期条件を自動的に決定することが可能となる。これにより、ユーザが解析対象箇所を指定する作業を省略することができるため、ユーザの利便性をさらに向上させることができる。
Thus, in this embodiment, the
S27によって解析対象箇所が指定された後、動作解析装置30は、指定された第一身体部位領域36内において第一の特徴点の検索を行う(S28)。ここでは、上記したSIFT特徴量やHOG特徴量等を用いて、第一身体部位領域36内において複数の第一の特徴点が検索される。
After the analysis target location is designated in S27, the motion analysis device 30 searches for the first feature point in the designated first body part region 36 (S28). Here, a plurality of first feature points are searched in the first
次いで、動作解析装置30は、第一の特徴点を検索した図19の静止画より時系列的に後に隣り合う静止画、すなわち、図20に示す静止画において、第一の特徴点に対応する第二の特徴点の検索を行う(S29)。そして、検索された第二の特徴点に基づいて、第一身体部位領域36に対応する第二身体部位領域37を画定する(S30)。
Next, the motion analysis device 30 corresponds to the first feature point in the adjacent still image after the time series of the still image of FIG. 19 searched for the first feature point, that is, the still image shown in FIG. The second feature point is searched (S29). Based on the searched second feature point, a second body part region 37 corresponding to the first
次いで、第一身体部位領域36と第二身体部位領域37の差に基づいて軌跡を作成する(S31)。具体的には、図20に示す第二腕部領域37bが新たに画定された後、第二腕部領域37bの下端部に相当する位置が、解析対象箇所として認識される(図20中の点40)。そして、点39と点40との差に基づいて、軌跡42が作成される。同様に、例えばS27にて第一頭部領域36aを解析対象箇所として指定した場合は、第一頭部領域36aと第二頭部領域37aとの差に基づいて、プレーヤー33Aの頭部の軌跡を作成することができる。また、第一脚部領域36cと第二脚部領域37cとの差に基づいて、プレーヤー33Aの膝の軌跡を作成することができる。
Next, a trajectory is created based on the difference between the first
続けて、図20に示す静止画と時系列的に後に隣り合う静止画、すなわち図21に示す静止画において、第二の特徴点に対応する第三の特徴点の検索を行い、検索された第三の特徴点に基づいて、第二身体部位領域37に対応する第三身体部位領域38を画定する。そして、第二身体部位領域37と第三身体部位領域38の差に基づいて、解析対象箇所を認識し(図21中の点41)、軌跡43を作成する。
Subsequently, the third feature point corresponding to the second feature point is searched in the still image that is chronologically adjacent to the still image shown in FIG. 20, that is, the still image shown in FIG. Based on the third feature point, a third
このように、連続する静止画毎に解析対象箇所の軌跡を順次作成することによって、一連のゴルフスイング動作において、プレーヤーの所定部位(例えば、頭部、腕部、および/または脚部)の運動を解析することが可能となる。 In this way, by sequentially creating the locus of the analysis target portion for each continuous still image, the motion of a predetermined part (for example, the head, arms, and / or legs) of the player in a series of golf swing motions. Can be analyzed.
なお、本実施形態においては、プレーヤー33Aの輪郭34を検出することによって人物認識を行う場合について述べたが、これに限らず、観測対象の形態を抽出可能であれば、他の如何なる手法を用いてもよい。
In the present embodiment, the case where person recognition is performed by detecting the
また、本実施形態においては、プレーヤー33Aの輪郭34とレファレンスプレーヤー35の輪郭55とを比較することによって、観測対象に形態が近似するものを選択する場合について述べたが、これに限らず、例えば図18(a)に示す静止画データの比較によって選択する構成であってもよいし、図18(c)に示す身体部位領域36に係るデータとの比較によって選択してもよい。また、観測対象とレファレンスとの比較が可能であれば、図18に示す以外の如何なる形式のデータを比較に用いてもよい。
Further, in the present embodiment, a case has been described in which the contour that is close to the observation target is selected by comparing the
また、本実施形態においては、身体部位領域36に基づいて動作解析の初期条件である解析対象箇所39を指定する場合について述べた。しかしながら、これに限らず、例えば図18(a)に示す静止画データや、図18(b)に示す輪郭55に係るデータに基づいて指定してもよいし、その他如何なるデータに基づいて解析対象箇所39を指定してもよい。
Moreover, in this embodiment, the case where the
なお、上記実施形態のように、本発明をゴルフスイングの動作解析に適用する場合においては、動作解析装置10、30は、スイングのテイクバックからダウンスイングへとスイングの方向が転換されたことを検出し、それをユーザに識別可能とする方向転換識別手段をさらに備えていてもよい。これについて、図22を参照して説明する。図22(a)〜(f)は、一連のゴルフスイングを記録した動画を示しており、この動画は、連続する計6フレームの静止画によって構成されている。 When the present invention is applied to the golf swing motion analysis as in the above embodiment, the motion analysis devices 10 and 30 indicate that the swing direction has been changed from the swing takeback to the downswing. There may be further provided a direction change identifying means for detecting and enabling the user to identify it. This will be described with reference to FIG. FIGS. 22A to 22F show moving images in which a series of golf swings are recorded, and the moving images are composed of a total of six frames of still images.
図22(a)〜(f)に示すように、ゴルフスイングは、ゴルフクラブを上方へ振り上げるテイクバック(図22(a)〜(c))から、ゴルフクラブを下方へ振り下げるダウンスイング(図22(d)〜(f))へと移行する。すなわち、図22においては、図22(c)と図22(d)との間にスイングの方向転換が発生している。 As shown in FIGS. 22 (a) to 22 (f), the golf swing is a downswing (from FIG. 22 (a) to (c)) in which the golf club is swung down to swing down the golf club. Shifting to FIG. 22 (d) to (f)). That is, in FIG. 22, a swing direction change occurs between FIG. 22 (c) and FIG. 22 (d).
方向転換識別手段は、この方向転換点を検出し、方向転換前の軌跡と方向転換後の軌跡とをユーザに識別可能とさせるものである。これにより、動作の転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を行うことができる。具体的なアルゴリズムについて以下に説明する。 The direction change identification means detects the direction change point and enables the user to identify the trajectory before the direction change and the trajectory after the direction change. As a result, it becomes possible to clearly grasp the point that becomes the turning point of the motion and the trajectory of the motion before and after that, so that more detailed motion analysis can be performed. A specific algorithm will be described below.
前提として、図22(f)を現時点とする。方向転換識別手段は、まず、現時点から時系列的に5フレーム前の図22(a)におけるグリップの速度べクトルv1を計算する。このv1は、図22(a)と時系列的に前に隣り合うフレーム、すなわち、現時点から6フレーム前(図示せず)のグリップの位置と、5フレーム前のグリップの位置とから求めることができる。同様にして、現時点から4フレーム前の図22(b)におけるグリップの速度べクトルv2、3フレーム前の図22(c)におけるグリップの速度べクトルv3、現時点から2フレーム前の図22(d)におけるグリップの速度べクトルv4、現時点から1フレーム前の図22(e)におけるグリップの速度べクトルv5、現時点のフレームにおけるグリップの速度べクトルv6を、それぞれ計算する。
As a premise, FIG. 22 (f) is the current time. The direction change identifying means first calculates a grip speed vector v 1 in FIG. 22A five frames before the current time series from the present time. This v 1 is obtained from the frame adjacent in time series to FIG. 22A, that is, the grip position 6 frames before (not shown) from the present time and the grip position 5 frames before. Can do. Similarly, Figure 22 of the previous four frames from the present base rate of grip in (b)
ここで、現時点から5フレーム前〜3フレーム前の間におけるグリップの平均速度ベクトルf1は、以下のように表される。 Here, the average velocity vector f 1 of the grip between the front and 3 frames 5 frames before the present time is expressed as follows.
同様に、現時点から2フレーム前〜現時点のフレームの間におけるグリップの平均速度ベクトルf2は、以下のように表される。 Similarly, the average velocity vector f 2 of the grip between the frame of two frames before-current from the current time is expressed as follows.
本実施形態に係る方向転換識別手段は、グリップの方向転換点を検出するために、f1とf2との内積=f1・f2を計算する。そうすると、5フレーム前〜3フレーム前におけるグリップの速度ベクトルと、2フレーム前〜現時点におけるグリップの速度ベクトルとは、その方向が反転していることから、内積は、負の値をとることとなる。換言すれば、内積が負となる時点を検出することができれば、スイングのテイクバックからダウンスイングへと方向が転換される方向転換点を検出することができる。 Turning identification means according to the present embodiment, in order to detect the turning points of the grip, to calculate the inner product = f 1 · f 2 between f 1 and f 2. Then, since the direction of the grip speed vector from 5 frames before to 3 frames and the speed vector of the grip from 2 frames before to the present time are reversed, the inner product takes a negative value. . In other words, if a point in time when the inner product becomes negative can be detected, a turning point at which the direction is changed from the takeback of the swing to the downswing can be detected.
このようにして方向転換点を検出した後、上記したS31において、方向転換点の前の軌跡線と異なる種類の軌跡線を形成することによって、ユーザは、テイクバックの軌跡と、ダウンスイングの軌跡とを明瞭に区別して認識することが可能となる。識別可能とする手段としては、例えば軌跡線の色の変更(黄色から赤色等)や、線種の変更(実線から点線等)、軌跡線を点滅表示する等が考えられる。 After detecting the turning point in this way, in S31 described above, by forming a different kind of locus line from the locus line before the turning point, the user can take the takeback locus and the downswing locus. Can be clearly distinguished and recognized. As means for enabling identification, for example, changing the color of the locus line (yellow to red, etc.), changing the line type (solid line to dotted line, etc.), blinking the locus line, etc. can be considered.
なお、この実施形態においては、理解の容易の観点から、平均速度ベクトルf1,f2を、連続する3フレームの速度ベクトルの平均をとることによって算出したが、これに限らず、任意の数のフレームの速度ベクトルの平均に基づいて、平均速度ベクトルf1,f2を算出してもよい。 In this embodiment, from the viewpoint of easy understanding, the average velocity vectors f 1 and f 2 are calculated by averaging the velocity vectors of three consecutive frames. The average speed vectors f 1 and f 2 may be calculated based on the average of the speed vectors of the frames.
図23に、方向転換識別手段によってテイクバックとダウンスイングとを識別可能としたゴルフスイングの軌跡の一例を示す。このように、本発明に係る方向転換識別手段によれば、ユーザは、スイングの転換点となるポイントと、その前後の動きの軌跡を明確に把握することが可能となるため、より詳細な動作解析を行うことが可能となる。 FIG. 23 shows an example of a golf swing trajectory in which takeback and downswing can be identified by the direction change identifying means. Thus, according to the direction change identification means according to the present invention, the user can clearly grasp the point that becomes the turning point of the swing and the trajectory of the movement before and after the turning point. Analysis can be performed.
なお、上記した各実施形態においては、1つのパターンのゴルフスイングを表示手段(操作部13)に表示し、その動作解析を行った場合について述べた。しかしながら、これに限らず、動作解析装置10,30は、二以上の異なる動作を並べて表示し、これらの異なる動作を比較可能とするための動作比較手段をさらに備えていてもよい。以下、上記実施形態と同様に、ゴルフスイングの動作比較を実行可能な動作比較手段について、図24〜図26を参照して説明する。 In each of the above-described embodiments, the case where one pattern of golf swing is displayed on the display means (operation unit 13) and the motion analysis is performed has been described. However, the present invention is not limited to this, and the motion analysis apparatuses 10 and 30 may further include an operation comparison means for displaying two or more different operations side by side and making these different operations comparable. Hereinafter, similarly to the above-described embodiment, an operation comparison unit capable of performing a golf swing operation comparison will be described with reference to FIGS.
本実施形態に係る動作比較手段は、まず、二つのゴルフスイングを記憶した動画を並列表示し(S41)、前述した実施形態のいずれかの方法を用いて、それぞれのゴルフスイングの軌跡を形成する。図24に、二つのゴルフスイングの軌跡を形成し、それらを並列表示した図を示す。具体的には、第一の表示領域44に、第一の軌跡45が表示され、第二の表示領域46に第二の軌跡47が表示されている。
The motion comparison unit according to the present embodiment first displays in parallel the videos that store the two golf swings (S41), and forms the trajectory of each golf swing using any of the methods of the above-described embodiments. . FIG. 24 shows a diagram in which two golf swing trajectories are formed and displayed in parallel. Specifically, a
次いで、二つの動画の時間軸を圧縮/伸張して調整し、二つの動画の時間軸を揃える(S42)。ここで、ゴルフスイングは、上記したように、アドレスの姿勢から、テイクバック、ダウンスイング、フィニッシュという一連の動作によって構成される。そして、これら各動作に要する時間は、人によって異なり、且つ、同じ人がスイングした場合であっても、スイング毎に異なるものである。したがって、二つのスイングを並列表示して比較する場合、各動作の始めの時点と終わりの時点とを揃えることによって、各スイングの軌道をより視覚的に比較検証し易くすることができる。 Next, the time axes of the two moving images are adjusted by compressing / expanding, and the time axes of the two moving images are aligned (S42). Here, as described above, the golf swing is constituted by a series of operations such as take back, down swing, and finish from the address posture. The time required for each of these operations varies depending on the person, and even when the same person swings, the time varies depending on the swing. Therefore, when two swings are displayed in parallel and compared, the trajectory of each swing can be more easily visually verified by aligning the start time and end time of each operation.
その方法としては、二つの動画において、アドレス状態からテイクバックの終わりの時点までの時間と、ダウンスイングの始めの時点とフィニッシュまでの時間をそれぞれ計算し、一方の動画のフレームを間引く、またはフレーム間の時間を伸長させることによって、二つの動画間において各動作に要する時間を揃える処理を行うことが考えられる。なお、テイクバックの終わりからダウンスイングの始めへの転換点は、前述した実施形態に係る方法によって検出可能である。 The method is to calculate the time from the address state to the end of takeback and the time from the beginning of the downswing to the finish in each of the two videos. It is conceivable to perform a process for aligning the time required for each operation between two moving images by extending the time between them. Note that the turning point from the end of the takeback to the start of the downswing can be detected by the method according to the above-described embodiment.
より具体的に説明すると、例えば第一の表示領域44に表示したゴルフスイングにおいては、アドレスからテイクバックの終わりまで1.4秒、ダウンスイングの始めからフィニッシュまで1.1秒を要したとする。また、第二の表示領域46に表示したゴルフスイングにおいては、アドレスからテイクバックの終わりまで1.8秒、ダウンスイングの始めからフィニッシュまで1.5秒を要したとする。この場合、第二の表示領域46に表示する動画において、アドレスからテイクバックの終わりまでの間の静止画フレームを、1.4/1.8の割合で間引きし、且つ、ダウンスイングの始めからフィニッシュまでの間の静止画フレームを、1.1/1.5の割合で間引きをする。この処理によって、二つのゴルフスイングのアドレスからフィニッシュまでの時間軸を揃えることができる。この処理により、二つのスイングを並列して動画再生した場合等において、二つのスイングの軌道をより視覚的に比較検証し易くすることができる。
More specifically, for example, in the golf swing displayed in the
次いで、二つの動画の画像サイズを拡大/縮小し、各表示領域44,46におけるプレーヤーの位置や大きさを揃える処理を行う(S43)。これにより、ユーザは、二つのスイングをより比較検証し易くなる。
Next, processing for enlarging / reducing the image sizes of the two moving images and aligning the positions and sizes of the players in the
次いで、第一の軌跡45の重心点48と、第二の軌跡47の重心点49とをそれぞれ計算する(S44)。各軌跡の重心点48,49は、軌跡を構成する各ポイントの平均値を求めることによって計算することができる。なお、重心点48,49を計算した後、その座標を図24に示すように表示してもよいし、表示をせずに記憶するのみであってもよい。
Next, the
次いで、各フレームにおける第一の軌跡45および第二の軌跡47のポイントと、それぞれの軌跡の重心点48,49との間の差分値を計算し、フレーム番号と当該差分値とを記録する(S45)。ここで参考データとして、図26にフレーム番号Nと差分値xに係るグラフを示す。なお、図26においては、第一の軌跡45と重心点48との差分値グラフを線50に、第二の軌跡47と重心点49との差分値グラフを線51にそれぞれ示す。
Next, a difference value between the points of the
次いで、S45によって得られたデータに基づいて、第一の軌跡45と第二の軌跡47との間の差を計算し、その差が大きくなっている軌跡部分を識別可能に表示する(S46)。具体的には、それぞれのフレーム番号Nにおいて線50と線51との差を計算すると、図26に示すように、その差が比較的に大きくなる軌跡部分52,53,54が検出される。換言すれば、第一の軌跡45と第二の軌跡47とは、軌跡部分52,53,54において、スイングの軌道が相対的に大きく異なっていることを意味している。そこで、第一の軌跡45または第二の軌跡47のうち、この軌跡部分52,53,54に相当する軌跡線に対して、例えば線色の変更や線種の変更、または点滅表示等をすることによって、ユーザがその部分を識別可能とすることができる。この構成によれば、例えばユーザがゴルフスイングを日々記録した場合に、そのスイングの軌道が変化した部分を詳細に把握・検証することが可能となる。これにより、さらに付加価値の高い動作解析装置を提供することができる。
Next, based on the data obtained in S45, the difference between the
なお、本実施形態においては、二つのゴルフスイングを比較した場合について述べたが、これに限らず、三以上の動作を比較する構成であってもよい。 In addition, in this embodiment, although the case where two golf swings were compared was described, the structure which compares not only this but three or more operation | movement may be sufficient.
また、本発明に係る動作解析装置の動作アルゴリズムが、ソフトウェアまたはハードウェアのいずれによっても実現可能であることは、当業者であれば容易に理解されるであろう。 Moreover, those skilled in the art will easily understand that the operation algorithm of the operation analysis apparatus according to the present invention can be realized by either software or hardware.
また、上記した各実施形態においては、ゴルフスイングを動作解析の対象とした場合について説明した。しかしながら本発明は、これに限定されるものではない。すなわち、本発明の概念は、動作解析の開始点における画像データと、予め記憶したレファレンスデータとを比較し、開始点における観測対象の形態を推定することによって、解析対象箇所の初期条件(サイズ、座標等)を決定し、以て動作解析を容易且つ迅速に実行可能とすることにある。したがって、ゴルフスイングに限らず、例えば野球のスイングや、舞踊、演技、武道等、プレーヤーの体の動きを把握・検証することに対してニーズのある、あらゆる分野のスポーツ・演技に適用可能であることは、当業者であれば容易に理解されるであろう。 Further, in each of the above-described embodiments, the case where the golf swing is the target of motion analysis has been described. However, the present invention is not limited to this. That is, the concept of the present invention is to compare the image data at the start point of the motion analysis with the reference data stored in advance, and estimate the form of the observation target at the start point, thereby determining the initial condition (size, In other words, the motion analysis can be performed easily and quickly. Therefore, it is applicable not only to golf swings, but also to sports and performances in all fields where there is a need for grasping and verifying player movements such as baseball swings, dances, performances, martial arts, etc. This will be readily understood by those skilled in the art.
以上、図面を参照してこの発明の実施形態を説明したが、この発明は、図示した実施形態のものに限定されない。図示された実施形態に対して、この発明と同一の範囲内において、あるいは均等の範囲内において、種々の修正や変形を加えることが可能である。 As mentioned above, although embodiment of this invention was described with reference to drawings, this invention is not limited to the thing of embodiment shown in figure. Various modifications and variations can be made to the illustrated embodiment within the same range or equivalent range as the present invention.
この発明は、スポーツにおいて、フォームのチェックが必要となる場合に、有効に利用される。 The present invention is effectively used when it is necessary to check a form in sports.
10,30 動作解析装置、11 制御部、12 記憶部、13 操作部、14 I/F部、20,42,43,45,47 軌跡、31 静止画、32,32A,36,36a,36b,36c,37,37a,37b,37c,38,38a,38b,38c 領域、33,33A,35 プレーヤー、34,55 輪郭、39,40,41,48,49 点、44,46 表示領域、50,51 線、52,53,54 軌跡部分。 10, 30 motion analysis device, 11 control unit, 12 storage unit, 13 operation unit, 14 I / F unit, 20, 42, 43, 45, 47 locus, 31 still image, 32, 32A, 36, 36a, 36b, 36c, 37, 37a, 37b, 37c, 38, 38a, 38b, 38c area, 33, 33A, 35 player, 34, 55 contour, 39, 40, 41, 48, 49 points, 44, 46 display area, 50, 51 line, 52, 53, 54 locus part.
Claims (14)
前記動画の入力を受け付ける動画受付手段と、
前記動画受付手段により受け付けた動画のうち、前記動画を構成する第一の静止画において、前記第一の静止画像上において、動作解析の対象となる解析対象箇所を指定する解析対象箇所指定手段と、
前記解析対象箇所から一定範囲内において、第一の特徴点を検索する第一の検索手段と、
前記動画を構成し、前記第一の静止画と異なる静止画である第二の静止画において、前記第一の特徴点に対応する第二の特徴点を検索する第二の検索手段と、
前記第一および第二の特徴点に基づいて、軌跡を作成する軌跡作成手段と、を備える、動作解析装置。 A motion analysis device that analyzes motion of a moving image composed of a plurality of continuous still images,
Video accepting means for accepting input of the video;
Among the videos received by the video reception means, in the first still image constituting the video, on the first still image, an analysis target location specifying means for specifying an analysis target location that is a target of motion analysis; ,
First search means for searching for a first feature point within a certain range from the analysis target location;
A second search unit configured to search for a second feature point corresponding to the first feature point in a second still image that constitutes the moving image and is a still image different from the first still image;
A motion analysis device comprising: trajectory creation means for creating a trajectory based on the first and second feature points.
前記第一の静止画から観測対象を認識する認識手段と、
前記認識手段によって認識された前記観測対象の画像データに基づいて、前記観測対象の形態を推定する形態推定手段と、を有し、
前記解析対象箇所は、前記形態推定手段による推定結果に基づいて指定される、請求項1に記載の動作解析装置。 The analysis location specifying means is:
Recognition means for recognizing an observation object from the first still image;
Morphological estimation means for estimating the morphology of the observation target based on the image data of the observation target recognized by the recognition means,
The motion analysis apparatus according to claim 1, wherein the analysis target location is specified based on an estimation result by the form estimation unit.
前記観測対象を含む一定の領域を対象領域として画定する対象領域画定手段と、
前記対象領域の大きさを所定の画像サイズとなるように調整する対象領域正規化手段と、を含む、請求項3に記載の動作解析装置。 The recognition means is
Target area defining means for defining a certain area including the observation target as a target area;
The motion analysis apparatus according to claim 3, further comprising target region normalizing means that adjusts the size of the target region so as to be a predetermined image size.
前記形態推定手段は、
前記認識手段によって認識された前記観測対象の画像データと、前記レファレンス画像記憶手段によって記憶された前記比較対象の画像データとを比較し、前記観測対象の画像データに形態が近似する前記比較対象の画像データを選択するレファレンス画像選択手段を含み、
前記解析対象箇所は、前記レファレンス画像選択手段によって選択された前記比較対象の画像データに基づいて指定される、請求項3〜5のいずれかに記載の動作解析装置。 Reference image storage means for storing a plurality of comparison target images corresponding to the observation target in advance,
The form estimation means includes
The image data of the observation object recognized by the recognition means is compared with the image data of the comparison object stored by the reference image storage means, and the comparison object whose form approximates the image data of the observation object is compared. Reference image selection means for selecting image data is included,
The motion analysis apparatus according to claim 3, wherein the analysis target portion is specified based on the image data to be compared selected by the reference image selection unit.
前記第二の検索手段は、前記複数の第一の特徴点に対応する複数の第二の特徴点を検索し、
前記軌跡作成手段は、前記複数の第一の特徴点と前記複数の第二の特徴点との差をそれぞれ算出し、この算出した差の平均値を求めることにより、求めた平均値に基づいて、軌跡を作成する、請求項1〜6のいずれかに記載の動作解析装置。 The first search means searches for a plurality of first feature points within the certain range,
The second search means searches for a plurality of second feature points corresponding to the plurality of first feature points,
The trajectory creation means calculates the difference between the plurality of first feature points and the plurality of second feature points, respectively, and obtains an average value of the calculated differences, based on the obtained average value. The motion analysis device according to any one of claims 1 to 6, wherein a trajectory is created.
前記軌跡作成手段は、前記平均値を、連続する前記複数の静止画の隣り合う静止画像間においてそれぞれ算出し、この算出した平均値が示す前記所定の点を順に接続することにより、軌跡を作成する、請求項7に記載の動作解析装置。 The average value is a point based on the first and second feature points, and indicates a change at a predetermined point on the still image constituting the moving image,
The trajectory creation means creates the trajectory by sequentially calculating the average value between adjacent still images of the plurality of continuous still images and sequentially connecting the predetermined points indicated by the calculated average value. The motion analysis apparatus according to claim 7.
前記第二の静止画は、前記第一の静止画と時系列的に後に隣り合う静止画と、前記第一の静止画より時系列的に前に隣り合う静止画とを含み、
前記第二の検索手段は、時系列的に後に隣り合う静止画において、前記第一の特徴点に対応する前記第二の特徴点を検索すると共に、時系列的に前に隣り合う静止画において、前記第一の特徴点に対応する前記第二の特徴点を検索する、請求項1〜8のいずれかに記載の動作解析装置。 The first still image includes a still image located at the beginning of the moving image and a still image located at the end of the moving image,
The second still image includes a still image that is adjacent to the first still image in time series and a still image that is adjacent to the first still image in time series before,
The second search means searches for the second feature point corresponding to the first feature point in the still images that are adjacent in time series, and in the still image that is adjacent in time series. The motion analysis device according to claim 1, wherein the second feature point corresponding to the first feature point is searched.
前記取得手段は、隣り合う静止画像間において、静止画像の差の大小を取得することにより、前記動画の動作の速さを取得する、請求項10に記載の動作解析装置。 The plurality of continuous still images are configured at regular intervals,
The motion analysis apparatus according to claim 10, wherein the acquisition unit acquires a motion speed of the moving image by acquiring a magnitude of a difference between still images between adjacent still images.
時系列的に連続する静止画間における軌跡の速度ベクトルを計算し、特定の静止画における速度ベクトルと、当該特定の静止画と時系列的に後に隣り合う静止画における速度ベクトルとの内積が負となった場合に、前記軌跡の方向転換を検出する、請求項12に記載の動作解析装置。 The direction change identifying means includes
The trajectory velocity vector between still images that are continuous in time series is calculated, and the inner product of the velocity vector of a specific still image and the velocity vector of the still image that is adjacent to the specific still image in time series is negative. The motion analysis apparatus according to claim 12, wherein the direction change of the trajectory is detected when it becomes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011215122A JP5872829B2 (en) | 2010-10-01 | 2011-09-29 | Motion analysis device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010224133 | 2010-10-01 | ||
JP2010224133 | 2010-10-01 | ||
JP2011215122A JP5872829B2 (en) | 2010-10-01 | 2011-09-29 | Motion analysis device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012094130A true JP2012094130A (en) | 2012-05-17 |
JP5872829B2 JP5872829B2 (en) | 2016-03-01 |
Family
ID=46387334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011215122A Active JP5872829B2 (en) | 2010-10-01 | 2011-09-29 | Motion analysis device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5872829B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063275A (en) * | 2012-09-20 | 2014-04-10 | Casio Comput Co Ltd | Image specifying device, image specifying method, and program |
JP2014115984A (en) * | 2012-11-13 | 2014-06-26 | Okada Denshi Co Ltd | Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function |
JP2014186559A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Video image extraction device, video image extraction method and program |
JP2016042306A (en) * | 2014-08-18 | 2016-03-31 | 株式会社リコー | Locus drawing device, locus drawing method, locus drawing system, and program |
JP2017208051A (en) * | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | Technical support device, method, program, and system |
JP2020011071A (en) * | 2013-02-14 | 2020-01-23 | 株式会社ユピテル | system |
JP7419969B2 (en) | 2020-05-27 | 2024-01-23 | 富士通株式会社 | Generation method, generation program, and information processing device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07124281A (en) * | 1993-11-01 | 1995-05-16 | Matsushita Electric Ind Co Ltd | Form training device |
JPH11308527A (en) * | 1998-04-22 | 1999-11-05 | Nippon Telegr & Teleph Corp <Ntt> | Image sequence parallel display method and system and recording medium recording image sequence parallel display program |
JP2001126184A (en) * | 1999-10-29 | 2001-05-11 | Matsushita Electric Ind Co Ltd | Automatic license plate recognizing device and vehicle speed measuring method |
JP2001307105A (en) * | 2000-04-25 | 2001-11-02 | Canon Inc | Image processor and its method |
JP2004157850A (en) * | 2002-11-07 | 2004-06-03 | Olympus Corp | Motion detector |
JP2009020897A (en) * | 2002-09-26 | 2009-01-29 | Toshiba Corp | Image analysis method, image analysis apparatus, image analysis program |
JP2009150848A (en) * | 2007-12-21 | 2009-07-09 | Topcon Corp | Image processing apparatus |
JP2009163639A (en) * | 2008-01-09 | 2009-07-23 | Nippon Hoso Kyokai <Nhk> | Object trajectory identification device, object trajectory identification method, and object trajectory identification program |
-
2011
- 2011-09-29 JP JP2011215122A patent/JP5872829B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07124281A (en) * | 1993-11-01 | 1995-05-16 | Matsushita Electric Ind Co Ltd | Form training device |
JPH11308527A (en) * | 1998-04-22 | 1999-11-05 | Nippon Telegr & Teleph Corp <Ntt> | Image sequence parallel display method and system and recording medium recording image sequence parallel display program |
JP2001126184A (en) * | 1999-10-29 | 2001-05-11 | Matsushita Electric Ind Co Ltd | Automatic license plate recognizing device and vehicle speed measuring method |
JP2001307105A (en) * | 2000-04-25 | 2001-11-02 | Canon Inc | Image processor and its method |
JP2009020897A (en) * | 2002-09-26 | 2009-01-29 | Toshiba Corp | Image analysis method, image analysis apparatus, image analysis program |
JP2004157850A (en) * | 2002-11-07 | 2004-06-03 | Olympus Corp | Motion detector |
JP2009150848A (en) * | 2007-12-21 | 2009-07-09 | Topcon Corp | Image processing apparatus |
JP2009163639A (en) * | 2008-01-09 | 2009-07-23 | Nippon Hoso Kyokai <Nhk> | Object trajectory identification device, object trajectory identification method, and object trajectory identification program |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063275A (en) * | 2012-09-20 | 2014-04-10 | Casio Comput Co Ltd | Image specifying device, image specifying method, and program |
JP2014115984A (en) * | 2012-11-13 | 2014-06-26 | Okada Denshi Co Ltd | Customer management system having image comparison function and golf lesson support system using customer management system having image comparison function |
JP2020011071A (en) * | 2013-02-14 | 2020-01-23 | 株式会社ユピテル | system |
JP2022009225A (en) * | 2013-02-14 | 2022-01-14 | 株式会社ユピテル | system |
JP7274775B2 (en) | 2013-02-14 | 2023-05-17 | 株式会社ユピテル | system |
JP2014186559A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Video image extraction device, video image extraction method and program |
JP2016042306A (en) * | 2014-08-18 | 2016-03-31 | 株式会社リコー | Locus drawing device, locus drawing method, locus drawing system, and program |
JP2017208051A (en) * | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | Technical support device, method, program, and system |
JP7419969B2 (en) | 2020-05-27 | 2024-01-23 | 富士通株式会社 | Generation method, generation program, and information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP5872829B2 (en) | 2016-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5872829B2 (en) | Motion analysis device | |
US8879787B2 (en) | Information processing device and information processing method | |
US9898651B2 (en) | Upper-body skeleton extraction from depth maps | |
US7756293B2 (en) | Movement capture and analysis apparatus and method | |
JP5595655B2 (en) | Image processing apparatus and image processing method | |
US20100208038A1 (en) | Method and system for gesture recognition | |
JP6771996B2 (en) | Systems and methods for real-time interactive operation of the user interface | |
US20220383653A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program | |
JP5898014B2 (en) | Posture estimation apparatus, posture estimation method, and posture estimation program | |
US11798318B2 (en) | Detection of kinetic events and mechanical variables from uncalibrated video | |
JP4153818B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
JP2006185109A (en) | Image measurement device and image measurement method | |
CN109063661A (en) | Gait analysis method and device | |
JP5468773B2 (en) | Image processing apparatus and image processing method | |
JP2003256850A (en) | Movement recognizing device and image processor and its program | |
Malawski et al. | Real-time action detection and analysis in fencing footwork | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
KR101394279B1 (en) | Method for recognition of user's motion by analysis of depth image and apparatus for analyzing user's motion using the same | |
CN112417205A (en) | Target retrieval device and method and electronic equipment | |
JP6810442B2 (en) | A camera assembly, a finger shape detection system using the camera assembly, a finger shape detection method using the camera assembly, a program for implementing the detection method, and a storage medium for the program. | |
JP2002008043A (en) | Device and method for analyzing action | |
JP2018180894A (en) | Information processing device, information processing method, and program | |
JPH08279044A (en) | Pattern recognition device and gesture recognition device | |
JP2003052039A (en) | System and method for measuring work motion, and program for measurement of work motion | |
US20230126755A1 (en) | Information processing apparatus, information processing method, and imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20121105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5872829 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |