JP6441570B2 - Golf swing analysis system, program and method - Google Patents

Golf swing analysis system, program and method Download PDF

Info

Publication number
JP6441570B2
JP6441570B2 JP2013269352A JP2013269352A JP6441570B2 JP 6441570 B2 JP6441570 B2 JP 6441570B2 JP 2013269352 A JP2013269352 A JP 2013269352A JP 2013269352 A JP2013269352 A JP 2013269352A JP 6441570 B2 JP6441570 B2 JP 6441570B2
Authority
JP
Japan
Prior art keywords
frame
address
golf swing
inter
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013269352A
Other languages
Japanese (ja)
Other versions
JP2015123206A (en
Inventor
植田 勝彦
勝彦 植田
伸敬 島田
伸敬 島田
良明 白井
良明 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Original Assignee
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Ritsumeikan Trust filed Critical Sumitomo Rubber Industries Ltd
Priority to JP2013269352A priority Critical patent/JP6441570B2/en
Publication of JP2015123206A publication Critical patent/JP2015123206A/en
Application granted granted Critical
Publication of JP6441570B2 publication Critical patent/JP6441570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ゴルフスイングを撮影した動画からアドレス及び/又はインパクトのフレームを抽出するゴルフスイングの分析システム、プログラム及び方法に関する。   The present invention relates to a golf swing analysis system, program, and method for extracting addresses and / or impact frames from a moving image of a golf swing.

従来より、ゴルファーによるゴルフスイングを撮影した動画に基づいて、ゴルフスイングを分析する装置が公知である(特許文献1,2等)。分析の結果は、ゴルファーのフォームの改善やゴルフ用品の開発等、様々な用途で利用される。   Conventionally, a device for analyzing a golf swing based on a moving image of a golf swing taken by a golfer is known (Patent Documents 1, 2, etc.). The results of the analysis are used in a variety of applications such as improving golfer foam and developing golf equipment.

ところで、ゴルフスイングは、一般に、アドレス、腕水平、トップ、切り返し、インパクト、フィニッシュの順に進む。アドレスとは、ゴルフクラブのヘッドをボール近くに配置した初期の状態であり、アドレスからゴルフクラブがテイクバックされる。テイクバック中、左腕が水平になる状態が、腕水平であり、最もヘッドが振り上げられた状態が、トップである。トップの後、ダウンスイングが開始される。切り返しとは、このダウンスイングの開始点であり、切り返しからゴルフクラブが振り下ろされる。そして、その後、ヘッドがボールと衝突した瞬間の状態が、インパクトであり、フィニッシュとは、インパクトの後、ゴルフクラブを前方へ振り抜いた状態である。   By the way, the golf swing generally proceeds in the order of address, arm level, top, turn-back, impact, and finish. The address is an initial state in which the golf club head is placed near the ball, and the golf club is taken back from the address. During takeback, the state where the left arm is horizontal is horizontal, and the state where the head is swung up is the top. After the top, a downswing is started. The turn-back is the starting point of this downswing, and the golf club is swung down from the turn-back. Then, the state at the moment when the head collides with the ball is the impact, and the finish is the state in which the golf club is shaken forward after the impact.

そして、以上のようなアドレス、腕水平、トップ、切り返し、インパクト、フィニッシュ等のポジションは、ゴルフスイングを診断するためのチェックポイントとなる。従って、動画の中からこのような特定のポジションのフレームを自動的に抽出することが重要であり、これまでにも様々なアルゴリズムが提案されている。   Positions such as address, arm level, top, turn-back, impact, and finish as described above serve as check points for diagnosing a golf swing. Therefore, it is important to automatically extract a frame at such a specific position from a moving image, and various algorithms have been proposed so far.

具体的には、特許文献1では、まず、動画に含まれる各フレームからエッジを検出し、各エッジ画像を二値化し、各二値化画像にハフ変換を施してゴルフクラブのシャフトに対応する直線を抽出する。そして、このシャフトの先端の動きに注目して、アドレスのフレームが抽出される。   Specifically, in Patent Document 1, first, an edge is detected from each frame included in a moving image, each edge image is binarized, and each binarized image is subjected to a Hough transform to correspond to a golf club shaft. Extract a straight line. An address frame is extracted by paying attention to the movement of the tip of the shaft.

その後、このアドレスのフレームから所定枚数後のフレームが、基準フレームとして抽出される。このときの基準フレームは、アドレス時であればゴルフクラブのヘッドの周辺が写る部分領域内にゴルフクラブが写っていないフレームとなる。そして、この基準フレームと、この基準フレーム以降の各フレームとの間で、以上の部分領域内においてフレーム間差分値が算出され、このフレーム間差分値が最大となるフレームが、インパクトのフレームとして決定される。   Thereafter, a frame after a predetermined number of frames from this address frame is extracted as a reference frame. The reference frame at this time is a frame in which the golf club is not captured in a partial region where the periphery of the golf club head is captured at the time of addressing. Then, an inter-frame difference value is calculated in the partial area between the reference frame and each frame after the reference frame, and a frame having the maximum inter-frame difference value is determined as an impact frame. Is done.

また、特許文献2では、隣接フレーム間の差分値が順次算出され、このフレーム間差分値が最小となるタイミングのフレームが、アドレスのフレームとして決定される。   Also, in Patent Document 2, a difference value between adjacent frames is sequentially calculated, and a frame at a timing at which the inter-frame difference value is minimized is determined as an address frame.

特開2011−177341号公報JP 2011-177341 A 特開2005−210666号公報Japanese Patent Laying-Open No. 2005-210666

以上の通り、特許文献1の方法では、多数のフレームに対しエッジ画像の生成やハフ変換等の処理が実行されるため、計算負荷が大きくなるという問題がある。ただし、アドレスフレームを抽出してしまった後、インパクトフレームを抽出する処理については、単にフレーム間差分値を順次算出し、これらの中から最大値を検出する程度であるため、比較的計算負荷は小さい。しかしながら、フレーム間差分値が最大となる一点を見つけ、これをインパクトに対応するものと判断する方法では、ノイズの影響等により誤判定が生じ易くなる。フレーム間差分値が最小となる一点をアドレスに対応するものと判断する特許文献2でも、同様のことが言える。   As described above, the method of Patent Document 1 has a problem that the calculation load increases because processing such as edge image generation and Hough transform is performed on a large number of frames. However, after extracting the address frame, the process of extracting the impact frame is simply to calculate the inter-frame difference value sequentially and detect the maximum value from these, so the calculation load is relatively small. However, in the method of finding one point where the inter-frame difference value is maximum and determining that this corresponds to the impact, erroneous determination is likely to occur due to the influence of noise or the like. The same can be said for Patent Document 2 in which one point at which the inter-frame difference value is minimized corresponds to the address.

本発明は、計算負荷を抑えつつ、アドレス及び/又はインパクトのフレームを精度よく抽出することができるゴルフスイングの分析システム、プログラム及び方法を提供することを目的とする。   It is an object of the present invention to provide a golf swing analysis system, program, and method capable of accurately extracting an address and / or an impact frame while suppressing a calculation load.

本発明の第1観点に係るゴルフスイングの分析システムは、ゴルフスイングを撮影した動画からアドレス及び/又はインパクトのフレームを抽出するシステムであって、前記動画から、フレーム間差分値を順次導出する差分導出部と、前記フレーム間差分値が時間軸に沿って特徴的に出現する区間を検出する特徴検出部と、前記検出結果に基づいて、インパクト及び/又はアドレスのフレームを特定する特定部とを備える。   A golf swing analysis system according to a first aspect of the present invention is a system that extracts an address and / or impact frame from a moving image of shooting a golf swing, and sequentially calculates a difference value between frames from the moving image. A derivation unit, a feature detection unit that detects a section in which the inter-frame difference value appears characteristically along a time axis, and a specification unit that identifies a frame of an impact and / or an address based on the detection result Prepare.

本発明の第2観点に係るゴルフスイングの分析システムは、第1観点に係るシステムであって、前記差分導出部は、アドレス及びインパクト時にゴルフクラブのヘッドの周辺が写る前記動画の部分領域内において、前記フレーム間差分値を順次導出する。   A golf swing analysis system according to a second aspect of the present invention is the system according to the first aspect, wherein the difference derivation unit is within a partial area of the moving image in which the periphery of the head of the golf club is captured at the time of address and impact. The inter-frame difference value is sequentially derived.

本発明の第3観点に係るゴルフスイングの分析システムは、第2観点に係るシステムであって、前記特徴検出部は、前記フレーム間差分値の第1の山と、前記第1の山の直前に位置する所定の長さ以上の谷とを含む区間を検出する。   A golf swing analysis system according to a third aspect of the present invention is a system according to a second aspect, wherein the feature detection unit includes a first peak of the inter-frame difference value and a position immediately before the first peak. A section including a valley having a predetermined length or more located at is detected.

本発明の第4観点に係るゴルフスイングの分析システムは、第3観点に係るシステムであって、前記特徴検出部は、前記第1の山及び前記谷に加え、前記谷の直前に位置する前記フレーム間差分値の第2の山をさらに含む区間を検出する。   A golf swing analysis system according to a fourth aspect of the present invention is a system according to a third aspect, wherein the feature detection unit is located immediately before the valley in addition to the first mountain and the valley. A section further including the second peak of the inter-frame difference value is detected.

本発明の第5観点に係るゴルフスイングの分析システムは、第3又は第4観点に係るシステムであって、前記特定部は、前記第1の山に対応する1つ又は複数のフレームの中から、前記インパクトのフレームを特定する。   The golf swing analysis system according to a fifth aspect of the present invention is the system according to the third or fourth aspect, wherein the specific unit is selected from one or more frames corresponding to the first mountain. The frame of the impact is specified.

本発明の第6観点に係るゴルフスイングの分析システムは、第3又は第4観点に係るシステムであって、前記特定部は、前記第1の山又は前記谷に対応する1つ又は複数のフレームの中から、前記アドレスのフレームを特定する。   The golf swing analysis system according to a sixth aspect of the present invention is the system according to the third or fourth aspect, wherein the specific unit is one or a plurality of frames corresponding to the first mountain or the valley. The frame of the address is specified from among the frames.

本発明の第7観点に係るゴルフスイングの分析システムは、第1から第6観点のいずれかに係るシステムであって、前記差分導出部により前記フレーム間差分値が導出される前に、前記動画の像ブレを補正する像ブレ補正部をさらに備える。   A golf swing analysis system according to a seventh aspect of the present invention is the system according to any one of the first to sixth aspects, wherein the moving image is calculated before the difference value between the frames is derived by the difference deriving unit. And an image blur correction unit that corrects the image blur.

本発明の第8観点に係るゴルフスイングの分析プログラムは、ゴルフスイングを撮影した動画からアドレス及び/又はインパクトのフレームを抽出するためのプログラムであって、前記動画から、フレーム間差分値を順次導出するステップと、前記フレーム間差分値が時間軸に沿って特徴的に出現する区間を検出するステップと、前記検出結果に基づいて、インパクト及び/又はアドレスのフレームを特定するステップとをコンピュータに実行させる。   A golf swing analysis program according to an eighth aspect of the present invention is a program for extracting an address and / or impact frame from a moving picture of a golf swing, and sequentially derives inter-frame difference values from the moving picture. And a step of detecting a section in which the inter-frame difference value characteristically appears along a time axis, and a step of identifying an impact and / or address frame based on the detection result. Let

本発明の第9観点に係るゴルフスイングの分析方法は、ゴルフスイングを撮影した動画からアドレス及び/又はインパクトのフレームを抽出するための方法であって、前記動画から、フレーム間差分値を順次導出するステップと、前記フレーム間差分値が時間軸に沿って特徴的に出現する区間を検出するステップと、前記検出結果に基づいて、インパクト及び/又はアドレスのフレームを特定するステップとを備える。   A golf swing analysis method according to a ninth aspect of the present invention is a method for extracting an address and / or impact frame from a moving picture of a golf swing, and sequentially derives inter-frame difference values from the moving picture. A step of detecting a section in which the inter-frame difference value characteristically appears along a time axis, and a step of identifying a frame of an impact and / or an address based on the detection result.

本発明では、動画に含まれるアドレス及び/又はインパクトのフレームを特定すべく、動画に基づいてフレーム間差分値が順次導出され、これらの値が時間軸に沿って特徴的な出現パターンで出現する区間が検出される。すなわち、単に特徴的な一点(例えば、フレーム間差分値が最大又は最小となる点等)を見つけるのではなく、特徴的な区間を見つけ、これに基づいてアドレス及び/又はインパクトのフレームが特定される。その結果、ノイズの影響等により誤判定が生じる可能性が低減される。従って、本発明によれば、計算負荷を抑えつつ、アドレス及び/又はインパクトのフレームを精度よく抽出することができる。   In the present invention, in order to specify an address and / or an impact frame included in a moving image, inter-frame difference values are sequentially derived based on the moving image, and these values appear in a characteristic appearance pattern along the time axis. A section is detected. That is, instead of simply finding a characteristic point (for example, a point where the difference value between frames is maximum or minimum), a characteristic interval is found, and based on this, an address and / or impact frame is specified. The As a result, the possibility of erroneous determination due to the influence of noise or the like is reduced. Therefore, according to the present invention, it is possible to accurately extract an address and / or impact frame while suppressing a calculation load.

本発明の一実施形態に係るゴルフスイングの分析システムの構成を示すブロック図。1 is a block diagram showing a configuration of a golf swing analysis system according to an embodiment of the present invention. ゴルフスイング分析処理の流れを示すシーケンス図。The sequence diagram which shows the flow of a golf swing analysis process. 撮影画面を示す図。The figure which shows an imaging | photography screen. アドレス、腕水平、トップ、切り返し、インパクト及びフィニッシュを捉えたフレームの例を示す図。The figure which shows the example of the flame | frame which caught the address, the arm level, the top, the cutback, the impact, and the finish. チェックポイントのフレームの抽出処理の流れを示すフローチャート。10 is a flowchart showing a flow of checkpoint frame extraction processing. インパクトフレームの抽出処理の流れを示すフローチャート。The flowchart which shows the flow of the extraction process of an impact frame. 時間軸に沿ったフレーム間差分値のグラフを示す図。The figure which shows the graph of the difference value between frames along a time-axis. 時間軸に沿ったフレーム間差分値の別のグラフを示す図。The figure which shows another graph of the difference value between frames along a time-axis. アドレスフレームの抽出処理の流れを示すフローチャート。6 is a flowchart showing a flow of address frame extraction processing. アドレス付近のフレーム間差分値のグラフの拡大図。The enlarged view of the graph of the difference value between frames near an address.

以下、図面を参照しつつ、本発明の一実施形態に係るゴルフスイングの分析システム、プログラム及び方法について説明する。   Hereinafter, a golf swing analysis system, program, and method according to an embodiment of the present invention will be described with reference to the drawings.

<1.ゴルフスイングの分析システムの概略>
図1に、本実施形態に係るゴルフスイングの分析システム100を示す。分析システム100は、ゴルフスイングを動画として撮影し、これを画像処理することで、ゴルファーによるゴルフスイングを分析するためのシステムである。分析システム100は、主として、携帯電話1と、携帯電話1からインターネット6を介して接続可能なサーバ2とから構成される。携帯電話1には、カメラ10が搭載されている。ユーザは、このカメラ10を用いてゴルフスイングを動画として撮影し、サーバ2は、これを携帯電話1から受け取り、分析する。なお、ここでいうユーザとは、ゴルフスイングの分析結果を必要とするゴルファーやインストラクター等の総称である。以下、携帯電話1及びサーバ2のハードウェア構成について説明した後、これらの動作について説明する。
<1. Outline of golf swing analysis system>
FIG. 1 shows a golf swing analysis system 100 according to this embodiment. The analysis system 100 is a system for analyzing a golf swing by a golfer by photographing a golf swing as a moving image and processing the image. The analysis system 100 mainly includes a mobile phone 1 and a server 2 that can be connected from the mobile phone 1 via the Internet 6. The mobile phone 1 is equipped with a camera 10. The user takes a golf swing as a moving image using the camera 10, and the server 2 receives this from the mobile phone 1 and analyzes it. In addition, a user here is a general term for a golfer, an instructor, etc. which require the analysis result of a golf swing. Hereinafter, after describing the hardware configurations of the mobile phone 1 and the server 2, their operations will be described.

<2.携帯電話のハードウェア構成>
本実施形態における携帯電話1は、カメラ機能付きのスマートフォンであり、ゴルフスイングの分析用のプログラム1Aがインストールされている。このプログラム1Aは、サーバ2と通信しながら、携帯電話1に後述する動作を実行させるためのアプリケーションソフトウェアであり、インターネット6を介してダウンロード可能である。
<2. Mobile phone hardware configuration>
The mobile phone 1 in the present embodiment is a smartphone with a camera function, and a program 1A for golf swing analysis is installed. This program 1 </ b> A is application software for causing the mobile phone 1 to perform an operation described later while communicating with the server 2, and can be downloaded via the Internet 6.

携帯電話1は、カメラ10の他、表示部11、入力部12、記憶部13、制御部14、及び通信部15を有しており、これらの部10〜15は、バス線16を介して相互に通信可能である。表示部11は、液晶ディスプレイ等で構成され、後述する画面等をユーザに対し表示する。入力部12は、タッチパネルや操作ボタン等で構成され、ユーザからの操作を受け付ける。記憶部13は、内蔵型のフラッシュメモリや取り外し可能なSDカード等で構成されており、上述のプログラム1Aは、ここに格納されている。通信部15は、携帯電話通信網を介しての他の電話との音声通信や、インターネット6を介しての各種サーバ(サーバ2を含む)とのデータ通信を可能にする他、専用のケーブルを介しての他の情報端末との通信も可能にする。制御部14は、CPU、ROMおよびRAM等で構成されており、記憶部13内に格納されているプログラム1Aを読み出して実行することにより、仮想的に撮影案内部14A及びサイズ調整部14Bとして動作する。各部14A,14Bの動作については、後述する。   The mobile phone 1 includes a display unit 11, an input unit 12, a storage unit 13, a control unit 14, and a communication unit 15 in addition to the camera 10, and these units 10 to 15 are connected via a bus line 16. They can communicate with each other. The display unit 11 is configured by a liquid crystal display or the like, and displays a screen or the like described later to the user. The input unit 12 includes a touch panel, operation buttons, and the like, and receives an operation from the user. The storage unit 13 includes a built-in flash memory, a removable SD card, and the like, and the above-described program 1A is stored here. The communication unit 15 enables voice communication with other telephones via a mobile phone communication network, data communication with various servers (including the server 2) via the Internet 6, and a dedicated cable. Communication with other information terminals is also possible. The control unit 14 includes a CPU, a ROM, a RAM, and the like, and operates as a photographing guide unit 14A and a size adjustment unit 14B virtually by reading and executing the program 1A stored in the storage unit 13. To do. The operation of each part 14A, 14B will be described later.

<3.サーバのハードウェア構成>
サーバ2は、ゴルフスイングの分析用のプログラム2Aがインストールされたアプリケーションサーバである。このプログラム2Aは、携帯電話1と通信しながら、サーバ2に後述する動作を実行させるためのアプリケーションソフトウェアであり、CD−ROM等のコンピュータで読み取り可能な記録媒体20からインストール可能である。
<3. Server hardware configuration>
The server 2 is an application server in which a program 2A for golf swing analysis is installed. This program 2A is application software for causing the server 2 to execute an operation described later while communicating with the mobile phone 1, and can be installed from a computer-readable recording medium 20 such as a CD-ROM.

サーバ2は、表示部21、入力部22、記憶部23、制御部24、及び通信部25を有しており、これらの部21〜25は、バス線26を介して相互に通信可能である。表示部21は、液晶ディスプレイ等で構成され、必要な画面等をユーザに対し表示する。入力部22は、マウスやキーボード、タッチパネル等で構成され、ユーザからの操作を受け付ける。記憶部23は、ハードディスク等で構成されており、上述のプログラム2Aは、ここに格納されている。通信部25は、インターネット6を介しての他の情報端末(携帯電話1を含む)とのデータ通信を可能にする。制御部24は、CPU、ROMおよびRAM等で構成されている。制御部24は、記憶部23内に格納されているプログラム2Aを読み出して実行することにより、仮想的に像ブレ補正部24A、差分導出部24B、特徴検出部24C、特定部24D及び診断部24Eとして動作する。各部24A〜24Eの動作については、後述する。   The server 2 includes a display unit 21, an input unit 22, a storage unit 23, a control unit 24, and a communication unit 25, and these units 21 to 25 can communicate with each other via a bus line 26. . The display unit 21 is configured with a liquid crystal display or the like, and displays a necessary screen or the like to the user. The input unit 22 includes a mouse, a keyboard, a touch panel, and the like, and receives an operation from the user. The storage unit 23 is configured by a hard disk or the like, and the above-described program 2A is stored here. The communication unit 25 enables data communication with other information terminals (including the mobile phone 1) via the Internet 6. The control unit 24 includes a CPU, a ROM, a RAM, and the like. The control unit 24 reads and executes the program 2A stored in the storage unit 23 to virtually execute the image blur correction unit 24A, the difference derivation unit 24B, the feature detection unit 24C, the specification unit 24D, and the diagnosis unit 24E. Works as. The operation of each unit 24A to 24E will be described later.

<4.ゴルフスイング分析処理>
以下、図2を参照しつつ、携帯電話1及びサーバ2によるゴルフスイング分析処理について説明する。
まず、ユーザは、ゴルフ練習場等においてゴルフスイングを改善したいと考えたときに、携帯電話1上でこれを支援するためのプログラム1Aを起動する(ステップS1)。これを受けて、携帯電話1の撮影案内部14Aは、表示部11上に、図3に示すような撮影画面W1を表示させる(ステップS2)。撮影画面W1内には、カメラ10が捉えるスルー画像が表示されるとともに、このスルー画像に重ねて2つの案内枠W2,W3が表示される。中央の案内枠W2は、アドレス時にゴルファー70の握るゴルフクラブ7のグリップ71を捉えるべき領域を示す枠でありであり、右下の案内枠W3は、アドレス時にゴルフクラブ7のヘッド72及びボールを捉えるべき領域を示す枠である。従って、ユーザは、これらの案内枠W2,W3を参考にすることで、カメラ10の撮像範囲内においてゴルファー70を捉えるべき凡その位置やアングルを容易に理解することができる。これらの案内枠W2,W3は、カメラ10を縦長に持った上で、カメラ10の撮像範囲内の所定の位置(本実施形態では、中央付近)でゴルファー70を捉えるように案内する。また、撮影画面W1上には、案内枠W2,W3に加え、これらの意味するところを示す情報、例えば、「中央の枠内にプレイヤーの手元を写し、右下の枠内にゴルフクラブのヘッドを写してください。」と言ったメッセージが表示されてもよい。
<4. Golf swing analysis processing>
Hereinafter, the golf swing analysis process by the mobile phone 1 and the server 2 will be described with reference to FIG.
First, when a user wants to improve a golf swing at a driving range or the like, the user activates a program 1A for supporting this on the mobile phone 1 (step S1). In response to this, the shooting guide unit 14A of the mobile phone 1 displays a shooting screen W1 as shown in FIG. 3 on the display unit 11 (step S2). A through image captured by the camera 10 is displayed in the photographing screen W1, and two guide frames W2 and W3 are displayed on the through image. The center guide frame W2 is a frame indicating a region where the grip 71 of the golf club 7 gripped by the golfer 70 is to be captured at the time of addressing, and the lower right guide frame W3 is the head 72 and the ball of the golf club 7 at the time of addressing. This is a frame indicating the area to be captured. Therefore, the user can easily understand the approximate position and angle at which the golf player 70 should be captured within the imaging range of the camera 10 by referring to the guide frames W2 and W3. The guide frames W2 and W3 guide the golfer 70 to be captured at a predetermined position (in the present embodiment, near the center) within the imaging range of the camera 10 while holding the camera 10 vertically long. On the shooting screen W1, in addition to the guide frames W2 and W3, information indicating the meaning thereof, for example, “the player's hand is copied in the center frame, and the golf club head is displayed in the lower right frame. You may see a message saying "Please copy."

続いて、ユーザは、以上のガイダンスに従って、カメラ10の撮像範囲内の適切な位置でゴルファー70を捉えた後、カメラ10でゴルフスイングを写す動画を撮影する(ステップS3)。このとき、ユーザは、手に持ったカメラ10を極力動かさないように注意しながら、アドレスからフィニッシュまでの一連の動作を撮影する。なお、ゴルフスイングは、一般に、アドレス、腕水平、トップ、切り返し、インパクト、フィニッシュの順に進む。図4は、これらの6つの状態を捉えたフレームの例を示している。アドレスとは、ゴルフクラブ7のヘッド72をボール近くに配置した初期の状態であり、アドレスからゴルフクラブ7がテイクバックされる。テイクバック中、左腕が水平になる状態が、腕水平であり、最もヘッド72が振り上げられた状態が、トップである。トップの後、ダウンスイングが開始される。切り返しとは、このダウンスイングの開始点であり、切り返しからゴルフクラブ7が振り下ろされる。そして、その後、ヘッド72がボールと衝突した瞬間の状態が、インパクトであり、フィニッシュとは、インパクトの後、ゴルフクラブ7を前方へ振り抜いた状態である。撮影された動画は、記憶部13内に保存される。   Subsequently, the user captures the golfer 70 at an appropriate position within the imaging range of the camera 10 according to the above guidance, and then shoots a moving image showing the golf swing with the camera 10 (step S3). At this time, the user captures a series of operations from the address to the finish while taking care not to move the camera 10 held in his hand as much as possible. A golf swing generally proceeds in the order of address, arm level, top, turn-back, impact, and finish. FIG. 4 shows an example of a frame that captures these six states. The address is an initial state in which the head 72 of the golf club 7 is disposed near the ball, and the golf club 7 is taken back from the address. During takeback, the state where the left arm is horizontal is the arm horizontal, and the state where the head 72 is swung up most is the top. After the top, a downswing is started. The turn-back is the starting point of this down swing, and the golf club 7 is swung down from the turn-back. Then, the state at the moment when the head 72 collides with the ball is an impact, and the finish is a state in which the golf club 7 is swung forward after the impact. The captured moving image is stored in the storage unit 13.

撮影が終わると、携帯電話1のサイズ調整部14Bは、必要に応じて、撮影された動画の画像サイズを縮小する(ステップS4)。具体的には、サイズ調整部14Bは、撮影された動画のアスペクト比を判断し、アスペクト比が所定値と異なると判断される場合(例えば、縦16:横9である場合)には、アスペクト比が所定値(本実施形態では、縦4:横3)となるように、動画に含まれる各フレームの上下方向(長手方向)の端辺から所定%の領域を切り取る。画像サイズが一定以上の比率で縦長である場合には、各フレームの上下の所定%の領域には、ゴルファー70やゴルフクラブ7が写っていないと考えられるからである。さらに、サイズ調整部14Bは、以上の動画のピクセル数を判断し、これが所定値よりも大きいと判断される場合(例えば、縦1440×横1080である場合)には、これを所定値(本実施形態では、縦640×横480)となるように、動画に含まれる各フレームを圧縮する。なお、このとき、圧縮後の画素値に小数点が生じないよう、内挿処理にて、各色成分(R,G,B)に関し画素値を整数化することが好ましい。   When shooting is finished, the size adjustment unit 14B of the mobile phone 1 reduces the image size of the shot moving image as necessary (step S4). Specifically, the size adjustment unit 14B determines the aspect ratio of the captured moving image, and when the aspect ratio is determined to be different from a predetermined value (for example, when the aspect ratio is 16: 9), the aspect ratio is determined. An area of a predetermined percentage is cut from the edge in the vertical direction (longitudinal direction) of each frame included in the moving image so that the ratio becomes a predetermined value (in this embodiment, vertical 4: horizontal 3). This is because it is considered that the golfer 70 and the golf club 7 are not captured in a predetermined% area above and below each frame when the image size is vertically long at a ratio of a certain level or more. Further, the size adjustment unit 14B determines the number of pixels of the above moving image, and when it is determined that this is larger than a predetermined value (for example, vertical 1440 × horizontal 1080), In the embodiment, each frame included in the moving image is compressed so that the length is 640 × width 480). At this time, it is preferable to convert the pixel values into integers for each color component (R, G, B) by interpolation processing so that no decimal point is generated in the compressed pixel values.

続いて、携帯電話1の通信部15は、以上の動画をインターネット6を介してサーバ2に送信する(ステップS5)。一方、サーバ2側では、通信部25がこれを受信し、その後、像ブレ補正部24Aが、携帯電話1から送られてきたこの動画に対し像振れ補正を実行する(ステップS6)。像振れ補正のアルゴリズムとしては、様々なものが公知であるため、ここでは詳細な説明を省略する。この像ブレ補正により、動画に含まれるフレーム間の像ブレが解消される。   Subsequently, the communication unit 15 of the mobile phone 1 transmits the above moving image to the server 2 via the Internet 6 (step S5). On the other hand, on the server 2 side, the communication unit 25 receives this, and then the image blur correction unit 24A performs image blur correction on the moving image sent from the mobile phone 1 (step S6). Since various image blur correction algorithms are known, detailed description thereof is omitted here. By this image blur correction, image blur between frames included in the moving image is eliminated.

動画の像振れ補正が終了すると、サーバ2の差分導出部24B、特徴検出部24C及び特定部24Dが協働して、像振れ補正後の動画の中から特定のタイミングでのフレームを自動的に抽出する(ステップS7)。具体的には、アドレス、腕水平、トップ、切り返し、インパクト及びフィニッシュの6枚のフレームが、自動的に抽出される。このようなタイミングは、ゴルフスイングを診断するためのチェックポイントとなる。これらのチェックポイントのフレームの抽出処理の詳細については、後述する。   When the image blur correction of the moving image is completed, the difference deriving unit 24B, the feature detecting unit 24C, and the specifying unit 24D of the server 2 cooperate to automatically select a frame at a specific timing from the moving image after the image blur correction. Extract (step S7). Specifically, six frames of address, arm horizontal, top, cut-back, impact and finish are automatically extracted. Such timing becomes a check point for diagnosing a golf swing. Details of the check point frame extraction processing will be described later.

その後、診断部24Eは、チェックポイントのフレームを用いて、ゴルフスイングの診断を行う(ステップS8)。例えば、チェックポイントのフレーム内に写るゴルファー70やゴルフクラブ7のシルエットを自動抽出し、伸ばすべきところで腕が曲がっていないか、顔が正しい方向を向いているか、ゴルフクラブの向きが正しいか等のチェック項目について診断がされる。このようなチェック項目は、インストラクターの知見に基づいて作成され得る。また、プロがゴルフスイングを行った時のチェックポイントでのフレームを用意しておき、これをユーザによるチェックポイントでのフレームと比較することもできる。なお、ゴルフスイングの診断のアルゴリズムについては、様々なものが公知であるため、ここでは詳細な説明を省略する。   Thereafter, the diagnosis unit 24E diagnoses a golf swing using the checkpoint frame (step S8). For example, the silhouette of the golfer 70 or golf club 7 reflected in the frame of the checkpoint is automatically extracted, and the arm is not bent where it should be stretched, the face is facing the correct direction, the golf club is oriented correctly, etc. A check item is diagnosed. Such check items can be created based on the knowledge of the instructor. It is also possible to prepare a frame at a checkpoint when a professional performs a golf swing and compare it with a frame at a checkpoint by the user. Note that various algorithms for diagnosing golf swings are known, and thus detailed description thereof is omitted here.

以上の診断の結果は、サーバ2の通信部25から携帯電話1の通信部15に送信され(ステップS9)、携帯電話1の表示部11上に表示される(ステップS10)。従って、ユーザは、診断の結果を確認し、正しいスイングフォームの習得に役立てることができる。なお、診断の結果は、スイングの点数、長所・短所、ゴルファー70に見合った練習メニュー等として表現され得る。また、チェックポイントのフレームそのものを診断の結果としてもよい。   The result of the above diagnosis is transmitted from the communication unit 25 of the server 2 to the communication unit 15 of the mobile phone 1 (step S9) and displayed on the display unit 11 of the mobile phone 1 (step S10). Therefore, the user can confirm the result of the diagnosis and use it for learning the correct swing form. The result of the diagnosis can be expressed as a swing score, advantages / disadvantages, a practice menu corresponding to the golfer 70, and the like. Also, the checkpoint frame itself may be the result of diagnosis.

<5.チェックポイントのフレームの抽出処理>
次に、図5を参照しつつ、チェックポイントのフレームの抽出処理について説明する。以下では、携帯電話1から送られてき、上述の像ブレ補正が施された後の動画に含まれる複数のフレームを、時間軸に沿って順に、F1,F2,・・・,Fn(nは、フレームの枚数)と表す。本処理では、まず、動画の中からインパクトフレームFIが抽出され(ステップS21)、続いて、アドレスフレームFAが抽出される(ステップS22)。インパクトフレームFI及びアドレスフレームFAの抽出処理については、後述する。
<5. Checkpoint frame extraction processing>
Next, a checkpoint frame extraction process will be described with reference to FIG. In the following, a plurality of frames included in the moving image sent from the mobile phone 1 and subjected to the above-described image blur correction are sequentially F 1 , F 2 ,..., F n along the time axis. (N is the number of frames). In the present process, first, the impact frame F I from the video is extracted (step S21), and subsequently, address frame F A is extracted (step S22). The extraction process of the impact frame F I and the address frame F A will be described later.

次に、動画の中からトップフレームFTが抽出される(ステップS23)。ここでは、インパクトのタイミングを基準にして、トップフレームFTが探索される。具体的には、トップは、インパクトの前に生じるため、インパクトフレームFIのN1枚前からN2枚前のフレームFI-N1,・・・,FI-N2間で、トップフレームFTが探索される。動画のFPS(Frame per second)が30fpsであれば、例えば、N1=15かつN2=4とすることができる。 Next, the top frame FT is extracted from the moving image (step S23). Here, the top frame FT is searched based on the timing of impact. Specifically, top, to produce before the impact, the impact frame F N2 immediately previous frame from N1 immediately previous I F I-N1, ···, between F I-N2, the top frame F T is Explored. If the FPS (Frame per second) of the moving image is 30 fps, for example, N1 = 15 and N2 = 4.

探索のアルゴリズムとしては、差分導出部24Bが、上記探索期間i=(I−N1)〜(I−N2)において順次、隣接フレームFi-1,Fi間で差分処理を実行する。差分処理とは、フレーム間差分値を算出する処理である。本実施形態では、フレーム間差分値として、差分絶対値和(SAD)が算出される。すなわち、差分導出部24Bは、各画素について、フレームFiにおける画素値からフレームFi-1における画素値を減算した値をその画素の画素値とする差分画像を作成する。なお、ここでの画素値の計算は、色成分(R,G,B)毎に行われる。そして、差分導出部24Bは、この差分画像に含まれる全画素の全色成分に関する画素値の絶対値の合計値(SAD)を算出する。特定部24Dは、上記探索期間i=(I−N1)〜(I−N2)における差分処理の後、フレーム間差分値が最小となるi=Tを特定し、このときのフレームFTをトップフレームとする。なお、ステップS23における差分処理は、動画の画面全体を対象として実行される。 As a search algorithm, the difference deriving unit 24B sequentially executes difference processing between the adjacent frames F i-1 and F i in the search period i = (I−N1) to (I−N2). The difference process is a process for calculating an inter-frame difference value. In the present embodiment, an absolute difference sum (SAD) is calculated as the inter-frame difference value. That is, for each pixel, the difference deriving unit 24B creates a difference image using a value obtained by subtracting the pixel value in the frame F i-1 from the pixel value in the frame F i as the pixel value of the pixel. Here, the calculation of the pixel value is performed for each color component (R, G, B). Then, the difference deriving unit 24B calculates a total value (SAD) of absolute values of pixel values regarding all color components of all pixels included in the difference image. Specifying unit 24D, after the difference processing in the search period i = (I-N1) ~ (I-N2), to identify i = T the difference value between frames is minimized, the top frame F T at this time Frame. Note that the difference processing in step S23 is executed for the entire moving image screen.

次に、動画の中から腕水平フレームFHが抽出される(ステップS24)。ここでは、アドレスのタイミングを基準にして、腕水平フレームFHが探索される。具体的には、腕水平は、アドレスの後に生じるため、アドレスフレームFAのN3枚後からN4枚後のフレームFA+N3,・・・,FA+N4間で、腕水平フレームFHが探索される。動画のFPSが30fpsであれば、例えば、N3=10かつN4=45とすることができる。 Next, the arm horizontal frame F H is extracted from the moving image (step S24). Here, the arm horizontal frame F H is searched with reference to the timing of the address. More specifically, since the arm level occurs after the address, the arm level frame F H between the frames F A + N3 ,..., F A + N4 N3 frames to N4 frames after the address frame F A. Is searched. If the FPS of the moving image is 30 fps, for example, N3 = 10 and N4 = 45 can be set.

探索のアルゴリズムとしては、差分導出部24Bが、上記探索期間i=(A+N3)〜(A+N4)において順次、フレームFiとアドレスフレームFAとの差分画像を作成する。この差分画像は、様々な方法で作成し得るが、例えば、各画素について、HSV色空間内での色相、彩度及び明度に関するFi,FA間の距離を適当に重み付して足し合わせた値(以下、色距離)をその画素の画素値とする画像を生成し、さらにこれを二値化した画像とすることができる。この二値化では、所定の閾値よりも大きな色距離を有する画素の画素値を1(黒)とし、それ以外の画素の画素値を0(白)とする。また、このとき、ノイズの影響を小さくするため、黒が連続する領域が所定の大きさに満たない場合には、その領域内の画素の画素値を0(白)に変換することもできる。 As a search algorithm, the difference deriving unit 24B sequentially creates a difference image between the frame F i and the address frame F A in the search period i = (A + N3) to (A + N4). This difference image can be created by various methods. For example, for each pixel, the distances between F i and F A relating to hue, saturation and brightness in the HSV color space are appropriately weighted and added. An image having the obtained value (hereinafter referred to as a color distance) as the pixel value of the pixel is generated, and this can be further binarized. In this binarization, the pixel value of a pixel having a color distance larger than a predetermined threshold is set to 1 (black), and the pixel values of other pixels are set to 0 (white). At this time, in order to reduce the influence of noise, when the area where black continues is less than a predetermined size, the pixel value of the pixel in the area can be converted to 0 (white).

続いて、特徴検出部24Cが、上記探索期間i=(A+N3)〜(A+N4)において順次、ハフ変換により以上の差分画像上でゴルフクラブ7のシャフト73に対応する直線を検出する。なお、探索時刻のフレームFiとアドレスフレームFAとの差分画像には、アドレス時のシャフト73と、探索時刻でのシャフト73が写ることになる。また、図4を参照すると分かるように、ボールの飛行方向に対し後方からゴルフスイングを撮影した場合においては、腕水平時のシャフト73の直線は、アドレス時のシャフト73よりも長く、かつ、少なくともここでの探索期間においては最大の長さを有することになる。従って、特定部24Dは、上記探索期間i=(A+N3)〜(A+N4)において最大の投票数を得た直線、すなわち、腕水平時のシャフト73に対応する直線が存在するi=Hを特定し、このときのフレームFHを腕水平フレームFHとする。なお、腕水平時におけるシャフト73の角度は、ある程度決まっているため、直線の探索に当たっては、直線を表すパラメータθを所定の範囲(例えば、−5°〜−85°)内に設定しておくことが好ましい。 Subsequently, the feature detection unit 24C sequentially detects a straight line corresponding to the shaft 73 of the golf club 7 on the above difference image by the Hough transform in the search period i = (A + N3) to (A + N4). In the difference image between the frame F i at the search time and the address frame F A , the shaft 73 at the address and the shaft 73 at the search time are shown. As can be seen from FIG. 4, when a golf swing is photographed from the rear with respect to the flight direction of the ball, the straight line of the shaft 73 when the arm is horizontal is longer than the shaft 73 at the time of addressing, and at least The search period here has the maximum length. Accordingly, the specifying unit 24D specifies i = H where the straight line that has obtained the maximum number of votes in the search period i = (A + N3) to (A + N4), that is, the straight line corresponding to the shaft 73 when the arm is horizontal exists. The frame F H at this time is referred to as an arm horizontal frame F H. Since the angle of the shaft 73 when the arm is horizontal is determined to some extent, the parameter θ representing the straight line is set within a predetermined range (for example, −5 ° to −85 °) when searching for the straight line. It is preferable.

次に、特定部24Dは、インパクトのタイミングを基準にして、動画の中から切り返しフレームFSを抽出し(ステップS25)、さらに、フィニッシュフレームFFを抽出する(ステップS26)。具体的には、特定部24Dは、インパクトフレームFIのN5枚前のフレームを切り返しフレームFSとし、インパクトフレームFIのN6枚後のフレームをフィニッシュフレームFFとする。動画のFPSが30fpsであれば、例えば、N5=3かつN6=15とすることができる。 Next, the specification unit 24D, based on the timing of the impact, to extract the forward turning frame F S from the video (step S25), and further extracts the finish frame F F (step S26). Specifically, the specifying unit 24D includes a frame F S crosscut the N5 immediately previous frame of the impact frame F I, the N6 sheets after the frame of the impact frame F I and finish the frame F F. If the FPS of the moving image is 30 fps, for example, N5 = 3 and N6 = 15 can be set.

<5−1.インパクトフレームの抽出処理>
次に、図6を参照しつつ、インパクトフレームFIの抽出処理について説明する。以下では、フレームFiにおける案内枠W3内の部分画像を、Giと表す。部分画像Giは、上記のとおり、アドレス及びインパクト時にゴルフクラブ7のヘッド72及びボールの周辺が写る領域の画像である。
<5-1. Impact Frame Extraction Processing>
Next, referring to FIG. 6, it will be described extraction process of the impact frame F I. Hereinafter, the partial image in the guide frame W3 in the frame F i, expressed as G i. The partial image G i, as described above, an image of a region Utsuru the periphery of the head 72 and the ball of the golf club 7 at address and impact.

まず、差分導出部24Bが、i=2,3,・・・,n−N7(動画のFPSが30fpsであれば、例えば、N7=10)に対し順次、案内枠W3内の領域において隣接フレームFi-1,Fi間で差分処理を実行する(ステップS31)。すなわち、差分導出部24Bは、i=2,3,・・・,n−N7に対し順次、部分画像Gi-1,Gi間で差分処理を実行する。なお、i=(n−N7+1)〜nまでの区間についての差分処理を省略するのは、このような期間にインパクトが存在することはないからである。本実施形態における差分処理とは、上記のとおり、フレーム間差分値として、差分絶対値和(SAD)を算出する処理である。従って、ここでは、差分導出部24Bは、各画素について、部分画像Giにおける画素値から部分画像Gi-1における画素値を減算した値をその画素の画素値とする差分画像を作成する。なお、ここでの画素値の計算は、色成分(R,G,B)毎に行われる。そして、差分導出部24Bは、この差分画像に含まれる全画素の全色成分に関する画素値の絶対値の合計値(SAD)を算出する。従って、ステップS31では、SAD(2),SAD(3),・・・SAD(n−N7)が得られる。なお、SAD(i)とは、部分画像Gi-1,Gi間でのSADである。 First, the difference deriving unit 24B sequentially selects adjacent frames in the area within the guide frame W3 with respect to i = 2, 3,..., N−N7 (for example, N7 = 10 if the FPS of the moving image is 30 fps). Difference processing is executed between F i-1 and F i (step S31). That is, the difference deriving unit 24B sequentially performs the difference process between the partial images G i−1 and G i for i = 2, 3,..., N−N7. The reason why the difference processing for the section from i = (n−N7 + 1) to n is omitted is that there is no impact in such a period. The difference process in the present embodiment is a process for calculating a sum of absolute differences (SAD) as an inter-frame difference value as described above. Accordingly, here, the difference deriving unit 24B, for each pixel, to create a difference image to the value obtained by subtracting the pixel values in the partial image G i-1 from the pixel values in the partial image G i and the pixel value of the pixel. Here, the calculation of the pixel value is performed for each color component (R, G, B). Then, the difference deriving unit 24B calculates a total value (SAD) of absolute values of pixel values regarding all color components of all pixels included in the difference image. Therefore, in step S31, SAD (2), SAD (3),... SAD (n−N7) are obtained. SAD (i) is SAD between the partial images G i-1 and G i .

ところで、ステップS31で算出されたSADとは、微小時間の間に案内枠W3内に生じた変化を表す指標である。また、上記のとおり、案内枠W3は、アドレス及びインパクト時にゴルフクラブ7のヘッド72及びボールの周辺を写す領域を囲む枠である。従って、案内枠W3内の部分画像Giは、主としてアドレス及びインパクトの前後の短い期間以外においては、あまり変化がない。よって、ステップS31で算出されたSADの値は、インパクトの山51とアドレスの山53とが現れる図7に示すようなグラフを描くと予想される。しかしながら、しばしば、ボールやティー等の動きにより、図8に示すように、インパクトの後にもSADの山54が現れる場合がある。ただし、このような場合においては、インパクトの山51とノイズの山54との間の谷55の幅は、インパクトの山51とアドレスの山53との間の谷52の幅に比べて短くなる。 By the way, the SAD calculated in step S31 is an index representing a change occurring in the guide frame W3 during a very short time. Further, as described above, the guide frame W3 is a frame that surrounds an area that captures the periphery of the head 72 of the golf club 7 and the ball at the time of addressing and impact. Therefore, the partial image G i in the guide frame W3 is mainly in the non-short period before and after the address and impact, there is not much change. Therefore, the SAD value calculated in step S31 is expected to draw a graph as shown in FIG. 7 in which an impact peak 51 and an address peak 53 appear. However, often, due to the movement of a ball, a tee or the like, as shown in FIG. However, in such a case, the width of the valley 55 between the impact peak 51 and the noise peak 54 is shorter than the width of the valley 52 between the impact peak 51 and the address peak 53. .

そこで、続くステップS32〜S37では、特徴検出部24Cは、ステップS31で算出されたSADの値が時間軸に沿って以上のような出現パターンで特徴的に出現する区間を検出する。具体的には、特徴検出部24Cは、所定の閾値D1(本実施形態では、D1=5000)以上のSADの第1の山と、第1の山の直前に位置する所定の閾値D1よりも小さいSADの谷とを検出する。本実施形態では、山の幅については特に問われないが、谷については、所定の長さD2(動画のFPS=30fpsであれば、例えば、D2=フレーム10枚分)以上の幅を有するものが検出対象となる。ここでは、このような特徴を有するSADの出現パターンを検出し、第1の山をインパクトの山51と決定することで、インパクトの後のノイズの山54をインパクトの山51と誤検出してしまうことを防ぐことができる。 Therefore, in subsequent steps S32 to S37, the feature detection unit 24C detects a section in which the value of the SAD calculated in step S31 characteristically appears in the appearance pattern as described above along the time axis. Specifically, the feature detection unit 24C includes a first peak of SAD equal to or greater than a predetermined threshold D 1 (D 1 = 5000 in the present embodiment), and a predetermined threshold D positioned immediately before the first peak. SAD valleys less than 1 are detected. In this embodiment, the width of the mountain is not particularly limited, but the valley has a width equal to or greater than a predetermined length D 2 (for example, if FPS of a moving image is 30 fps, D 2 = 10 frames). What it has becomes a detection target. Here, the appearance pattern of the SAD having such characteristics is detected, and the first peak is determined as the impact peak 51, so that the noise peak 54 after the impact is erroneously detected as the impact peak 51. Can be prevented.

以上の出現パターンは、SAD(2),SAD(3),・・・SAD(n−N7)の値を時間軸に沿って逆送りでスキャンしてゆくことにより検出される。特徴検出部24Cは、スキャンの開始時点を設定すべく、パラメータiにn−N7を代入する(ステップS32)。   The above appearance patterns are detected by scanning the values of SAD (2), SAD (3),... SAD (n−N7) in reverse feed along the time axis. The feature detection unit 24C substitutes n−N7 for the parameter i in order to set the scan start time (step S32).

続いて、特徴検出部24Cは、閾値D1以上のSADが検出されるまで、時間軸に沿って1つ前のSADの値を順次調べてゆく(ステップS33)。そして、閾値D1以上のSADが検出されると、特徴検出部24Cは、今度は閾値D1よりも小さいSADが検出されるまで、時間軸に沿って1つ前のSADの値を順次調べてゆく(ステップS34)。従って、ステップS33,S34では、閾値D1以上のSADが連続する山が検出される。この山は、インパクトの山51の候補となる。 Then, feature detecting section 24C until the threshold D 1 or more SAD are detected, Yuku sequentially checks the value of the previous SAD along the time axis (step S33). When the threshold value D 1 or more SAD is detected, the feature detection unit 24C is in turn until small SAD is detected than the threshold value D 1, sequentially checks the value of the previous SAD along the time axis Go (step S34). Therefore, in step S33, S34, mountain threshold D 1 or more SAD are continuous are detected. This mountain is a candidate for the impact mountain 51.

ステップS34で閾値D1よりも小さいSADが検出されると、すなわち、山の終わりと谷の始まりが検出されると、特徴検出部24Cは、谷の幅を計測するためのカウンタcntに初期値1を設定する(ステップS35)。そして、特徴検出部24Cは、カウンタcntを用いて、当該谷が長さD2以上の幅を有しているかを判断する(ステップS36,S37)。具体的には、ステップS36では、閾値D1よりも小さいSADが検出される限り、時間軸に沿って1つ前のSADの値を順次調べてゆく。このとき、特徴検出部24Cは、cntの値をインクリメントしながら、閾値D1よりも小さいSADが連続する谷の幅をカウントする。 When smaller SAD than the threshold value D 1 in step S34 is detected, i.e., when the beginning of the end of the peaks and valleys are detected, wherein the detection unit 24C is the initial value to the counter cnt for measuring the width of the trough 1 is set (step S35). The feature detection unit 24C uses the counter cnt, determines whether the valley has a length D 2 or the width (step S36, S37). Specifically, in step S36, as long as the smaller SAD than the threshold value D 1 is detected, Yuku sequentially checks the value of the previous SAD along the time axis. At this time, the feature detection unit 24C while incrementing the value of cnt, counts the width of the valley smaller SAD than the threshold D 1 are continuous.

また、特徴検出部24Cは、ステップS36で閾値D1よりも小さいSADが検出され、cntの値がインクリメントされる度に、現在のcntの値、すなわち、谷の幅をチェックする(ステップS37)。そして、特徴検出部24Cは、この谷の幅が所定の長さD2以上であると判断される場合には、直前のステップS34でインパクトの山51の候補として検出された山を、最終的にインパクトの山51として決定する。続いて、特徴検出部24Cは、このインパクトの山51に対応する1又は複数のフレームの中から、インパクトフレームFIを特定する(ステップS38)。具体的には、直前のステップS34で検出された山の中で、SAD(i)の値が最大となるi=Iを特定し、このときのフレームFIをインパクトフレームとする。 The feature detecting section 24C is smaller SAD than the threshold value D 1 is detected in step S36, each time the value of cnt is incremented, the value of the current cnt, i.e., checks the width of the root (step S37) . Then, feature detecting section 24C, when the width of the valley is determined to be a predetermined length D 2 or more, the detected as a candidate of a mountain 51 impact at step S34 immediately before the mountain, finally Is determined as the impact mountain 51. Then, feature detecting section 24C, from among the one or more frames corresponding to the pile 51 of the impact, to identify the impact frame F I (step S38). Specifically, in the mountains that are detected at step S34 immediately before to identify i = I where the value of SAD (i) becomes the maximum, the frame F I at this time is an impact frame.

一方、ステップS36,S37において谷の幅が所定の長さD2よりも短いと判断される場合(カウンタcntの値がD2に達する前に、閾値D1以上のSADが検出され、谷の終わりが検出された場合)には、特徴検出部24Cは、処理をステップS34に戻す。すなわち、直前のステップS34でインパクトの山51の候補として検出された山を、最終的にはノイズの山54と判断し、同様のスキャンを続けてゆく。なお、図6から分かるとおり、本処理では、インパクトの山51の後にノイズの山54がいくつあろうとも、それらを全てノイズの山として検出することができる。 On the other hand, the value of the case (counter cnt to the width of the root in step S36, S37 is determined to less than a predetermined length D 2 is before reaching the D 2, it is detected threshold D 1 or more SAD is, the valleys When the end is detected, the feature detection unit 24C returns the process to step S34. That is, the mountain detected as the candidate for the impact mountain 51 in the immediately preceding step S34 is finally determined as the noise mountain 54, and the same scanning is continued. As can be seen from FIG. 6, in this process, any number of noise peaks 54 after the impact peak 51 can be detected as noise peaks.

<5−2.アドレスフレームの抽出処理>
次に、図9を参照しつつ、アドレスフレームFAの抽出処理について説明する。本処理では、特徴検出部24Cは、ステップS31で算出されたSADの値を流用して、これらのSADの値が時間軸に沿って所定の出現パターンで特徴的に出現する区間を検出する。
<5-2. Address frame extraction processing>
Next, referring to FIG. 9 will be described extraction process of the address frame F A. In this process, the feature detection unit 24C uses the SAD values calculated in step S31 to detect a section in which these SAD values characteristically appear in a predetermined appearance pattern along the time axis.

具体的に説明すると、図7には現れていないが、アドレスの山53は、詳細に見ると、図10に示すように、複数の山からなる場合がある。これは、ゴルファーが、アドレスの前に位置決めのためにゴルフクラブ7を左右に揺らしたり、また、アドレスの後に同じくゴルフクラブ7を左右に揺らすワッグル動作を行うためである。しかしながら、真のアドレス時には、ゴルファーは、少しの間静止する。従って、SADのグラフ上のアドレスに対応する部分は、所定の長さ以上の谷531を挟んで前後に山532〜534が(少なくとも谷531の後に山533が)現れるような形状になると予想される。   More specifically, although not shown in FIG. 7, the address peak 53 may be composed of a plurality of peaks as shown in FIG. This is because the golfer swings the golf club 7 left and right for positioning before the address, and also performs a waggle operation that swings the golf club 7 left and right after the address. However, at the true address, the golfer rests for a short time. Accordingly, the portion corresponding to the address on the SAD graph is expected to have a shape in which peaks 532 to 534 appear at least before and after the valley 531 having a predetermined length or more (at least the mountain 533 after the valley 531). The

そこで、特徴検出部24Cは、所定の閾値D3(本実施形態では、閾値D1と同様にD3=5000)以上のSADの第1の山と、第1の山の直前に位置する所定の閾値D3よりも小さいSADの谷と、この谷の直前に位置する所定の閾値D3以上のSADの第2の山とを検出する。本実施形態では、山の幅については特に問われないが、谷については、所定の長さD4(動画のFPS=30fpsであれば、例えば、D4=フレーム5枚分)以上の幅を有するものが検出対象となる。ここでは、このような特徴を有するSADの出現パターンを検出し、第1の山を真のアドレスの山533と決定することで、ノイズの山534を真のアドレスの山533と誤検出してしまうことを防ぐことができる。 Therefore, the feature detection unit 24C has a first peak of SAD that is equal to or greater than a predetermined threshold value D 3 (in this embodiment, D 3 = 5000 as in the case of the threshold value D 1 ), and a predetermined value positioned immediately before the first peak. And a SAD valley that is smaller than the threshold D 3 and a second SAD peak that is not less than a predetermined threshold D 3 and is located immediately before the valley. In this embodiment, the width of the mountain is not particularly limited, but the valley has a width equal to or greater than a predetermined length D 4 (for example, if FPS of a moving image is 30 fps, D 4 = 5 frames). What it has becomes a detection target. Here, the appearance pattern of the SAD having such characteristics is detected, and the first peak is determined as the true address peak 533, so that the noise peak 534 is erroneously detected as the true address peak 533. Can be prevented.

以上の出現パターンは、SAD(2),SAD(3),・・・SAD(I−N8)(動画のFPS=30fpsであれば、例えば、N8=5)の値を時間軸に沿って逆送りでスキャンしてゆくことにより検出される。なお、i=(I−N8+1)〜nまでの期間についての差分処理を省略するのは、このような期間にアドレスが存在することはないからである。特徴検出部24Cは、スキャンの開始時点を設定すべく、パラメータiにI−N8を代入する(ステップS41)。   The above appearance patterns are obtained by reversing the values of SAD (2), SAD (3),... SAD (I-N8) (for example, N8 = 5 if FPS = 30 fps of the moving image) along the time axis. It is detected by scanning with feed. The reason why the difference processing for the period from i = (I−N8 + 1) to n is omitted is that there is no address in such a period. The feature detection unit 24C substitutes I-N8 for the parameter i in order to set the scan start time (step S41).

続いて、特徴検出部24Cは、閾値D3以上のSADが検出されるまで、時間軸に沿って1つ前のSADの値を順次調べてゆく(ステップS42)。そして、閾値D3以上のSADが検出されると、特徴検出部24Cは、今度は閾値D3よりも小さいSADが検出されるまで、時間軸に沿って1つ前のSADの値を順次調べてゆく(ステップS43)。従って、ステップS42,S43では、閾値D3以上のSADが連続する山が検出される。この山は、真のアドレスの山533の候補となる。なお、特徴検出部24Cは、ステップS42,S43において、SAD(2)まで調べても目的のSADが検出されなかった場合には、最初のフレームF1をアドレスフレームFAとして特定する(ステップS48)。 Then, feature detecting section 24C until the threshold D 3 or more SAD are detected, Yuku sequentially checks the value of the previous SAD along the time axis (step S42). When the threshold value D 3 or more SAD is detected, the feature detection unit 24C is in turn until small SAD is detected than the threshold value D 3, sequentially checks the value of the previous SAD along the time axis Go (step S43). Therefore, in step S42, S43, mountain threshold D 3 or more SAD are continuous are detected. This mountain is a candidate for the true address mountain 533. Note that the feature detection unit 24C specifies the first frame F 1 as the address frame F A when the target SAD is not detected even after examining SAD (2) in steps S42 and S43 (step S48). ).

ステップS43で閾値D3よりも小さいSADが検出されると、すなわち、山の終わりと谷の始まりが検出されると、特徴検出部24Cは、谷の幅を計測するためのカウンタcntに初期値1を設定する(ステップS44)。そして、特徴検出部24Cは、次に閾値D3以上のSADが検出されるまで、時間軸に沿って1つ前のSADの値を順次調べてゆく(ステップS45)。このとき、特徴検出部24Cは、cntの値をインクリメントしながら、閾値D3よりも小さいSADが連続する谷の幅をカウントする。 When smaller SAD than the threshold value D 3 in step S43 is detected, i.e., when the beginning of the end of the peaks and valleys are detected, wherein the detection unit 24C is the initial value to the counter cnt for measuring the width of the trough 1 is set (step S44). Then, feature detecting section 24C until the next time threshold D 3 or more SAD are detected, Yuku sequentially checks the value of the previous SAD along the time axis (step S45). At this time, the feature detection unit 24C while incrementing the value of cnt, counts the width of the valley smaller SAD than the threshold value D 3 are continuous.

そして、ステップS45で閾値D3以上のSADが検出されると、すなわち、谷の終わりと新たな山の始まりが検出されると、特徴検出部24Cは、現在のcntの値、すなわち、直前の谷の幅をチェックする(ステップS46)。そして、特徴検出部24Cは、この谷の幅が所定の長さD4以上であると判断される場合には、直前のステップS43で真のアドレスの山533の候補として検出された山を、最終的に真のアドレスの山533として決定する。続いて、特徴検出部24Cは、この真のアドレスの山533に対応する1又は複数のフレームの中から、アドレスフレームFAを特定する(ステップS47)。具体的には、直前のステップS43で検出された山に対応するiの値のうち、時間軸に沿って最も前のi=Aを特定し、このときのフレームFAをアドレスフレームとする。なお、特徴検出部24Cは、ステップS45においてSAD(2)まで調べても閾値D3以上のSADが検出されなかった場合にも、処理をステップS47に進める。 When an SAD greater than or equal to the threshold value D 3 is detected in step S45, that is, when the end of the valley and the start of a new mountain are detected, the feature detection unit 24C determines the current cnt value, The width of the valley is checked (step S46). Then, feature detecting section 24C, when the width of the valley is determined to be a predetermined length D 4 above, were detected in the step S43 immediately before as a candidate for the true address of the mountains 533 mountains, Finally, the peak 533 of the true address is determined. Subsequently, the feature detection unit 24C identifies the address frame F A from one or more frames corresponding to the true address peak 533 (step S47). Specifically, of the value of i corresponding to the mountain detected in step S43 immediately before to identify the earliest i = A along the time axis, the frame F A at this time it is the address frame. The feature detecting section 24C, even when the threshold value D 3 or more SAD is not detected examine up SAD (2) in step S45, the process proceeds to step S47.

一方、ステップS46において直前の谷の幅が所定の長さD4よりも短いと判断される場合には、特徴検出部24Cは、処理をステップS43に戻す。すなわち、直前のステップS43で真のアドレスの山533の候補として検出された山を、最終的にはノイズの山534と判断し、同様のスキャンを続けてゆく。なお、図9から分かるとおり、本処理では、真のアドレスの山533の後にノイズの山534がいくつあろうとも、それらを全てノイズの山として検出することができる。 On the other hand, if the width of the immediately preceding valley is determined to less than a predetermined length D 4 in step S46, the feature detection unit 24C, the process returns to step S43. That is, the peak detected as a candidate for the true address peak 533 in the previous step S43 is finally determined as the noise peak 534, and the same scanning is continued. As can be seen from FIG. 9, in this process, any number of noise peaks 534 after the true address peak 533 can be detected as noise peaks.

<6.特徴>
上記実施形態では、動画に含まれるアドレスフレームFA及びインパクトフレームFIを特定すべく、動画に基づいてフレーム間差分値(SAD)が順次導出され、これらの値が時間軸に沿って特徴的な出現パターンで出現する区間が検出される。すなわち、単に特徴的な一点(例えば、フレーム間差分値が最大又は最小となる点等)を見つけるのではなく、特徴的な区間を見つけ、これに基づいてアドレスフレームFA及びインパクトフレームFIが特定される。その結果、ノイズの影響等により誤判定が生じる可能性が低減される。従って、上記実施形態によれば、計算負荷を抑えつつ、アドレスフレームFA及びインパクトフレームFIを精度よく抽出することができる。
<6. Features>
In the above embodiment, in order to identify the address frame F A and the impact frame F I included in the moving image, inter-frame difference values (SAD) are sequentially derived based on the moving image, and these values are characteristic along the time axis. Sections that appear in various appearance patterns are detected. That is, instead of simply finding a characteristic point (for example, a point where the inter-frame difference value is maximum or minimum), a characteristic interval is found, and based on this, the address frame F A and the impact frame F I are determined. Identified. As a result, the possibility of erroneous determination due to the influence of noise or the like is reduced. Therefore, according to the above embodiment, the address frame F A and the impact frame F I can be extracted with high accuracy while suppressing the calculation load.

<7.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
<7. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning. For example, the following changes can be made. Moreover, the gist of the following modifications can be combined as appropriate.

<7−1>
上記実施形態では、ゴルフスイングの撮影、及び画像サイズの縮小が携帯電話1側で実行され、像振れ補正、チェックポイントのフレームの抽出、及びゴルフスイングの診断がサーバ2側で実行されるようになっていた。しかしながら、これらの処理を実行する主体は、携帯電話1とサーバ2とに適宜振り分けることができる。例えば、携帯電話1側で撮影から像振れ補正までが実行されるようにしてもよいし、撮影のみを携帯電話1で行った後、縮小前の動画を携帯電話1からサーバ2に送信し、サーバ2側で画像サイズの縮小を行ってもよい。或いは、サーバ2を省略し、携帯電話1において撮影から診断処理までが全て実行されるようにしてもよい。
<7-1>
In the above embodiment, shooting of the golf swing and reduction of the image size are executed on the mobile phone 1 side, and image blur correction, checkpoint frame extraction, and golf swing diagnosis are executed on the server 2 side. It was. However, the main body that executes these processes can be appropriately assigned to the mobile phone 1 and the server 2. For example, the mobile phone 1 may be configured to execute from shooting to image blur correction, or after only shooting with the mobile phone 1, the video before reduction is transmitted from the mobile phone 1 to the server 2, The image size may be reduced on the server 2 side. Alternatively, the server 2 may be omitted and the cellular phone 1 may execute all the processes from photographing to diagnostic processing.

<7−2>
分析システム100のハードウェア構成は、上記したものに限られない。例えば、携帯電話のようなインターネット通信機能を有するカメラ以外のカメラで撮影し、これをパーソナルコンピュータ(以下、PC)に取り込んで、PCからサーバ2に送信するようにしてもよい。また、PCにサーバ2と同様のプログラムをインストールしておき、PCで分析するようにしてもよい。
<7-2>
The hardware configuration of the analysis system 100 is not limited to the above. For example, the image may be taken by a camera other than a camera having an Internet communication function such as a mobile phone, and this may be taken into a personal computer (hereinafter referred to as a PC) and transmitted from the PC to the server 2. Alternatively, a program similar to that of the server 2 may be installed on the PC and analyzed by the PC.

<7−3>
携帯電話1やサーバ2の処理能力が十分に高い場合等には、ステップS4における上下領域の切り取り処理及び/又は圧縮の処理は、適宜、省略可能である。
<7-3>
When the processing capability of the cellular phone 1 or the server 2 is sufficiently high, the upper and lower area cutout processing and / or compression processing in step S4 can be omitted as appropriate.

<7−4>
上記実施形態では、フレーム間差分値としてSADを算出したが、フレーム間の差分を適切に評価できる限り、別の指標を用いることができる。例えば、フレーム間差分値として差分二乗値和(SSD)を算出してもよい。或いは、差分画像において画素値の絶対値が所定値以上となる画素数を算出してもよい。
<7-4>
In the above embodiment, the SAD is calculated as the inter-frame difference value, but another index can be used as long as the inter-frame difference can be appropriately evaluated. For example, a sum of squared differences (SSD) may be calculated as the inter-frame difference value. Or you may calculate the pixel number from which the absolute value of a pixel value becomes more than predetermined value in a difference image.

<7−5>
上記実施形態では、インパクト検出時において、第1の山、谷及び第2の山を検出するための閾値を全て同じ値D1としたが、これらの閾値を適宜異なる値としてもよい。アドレス検出時の閾値D3についても同様である。また、D1=D3でなくてもよい。
<7-5>
In the above embodiment, at the time of impact detection, first peak, all the threshold for detecting a valley and second peak was the same value D 1, may be these thresholds as appropriate different values. The same applies to the threshold D 3 at the time of address detection. Further, D 1 may not be D 3 .

<7−6>
上記実施形態では、インパクト及びアドレス検出時において、SADの出現パターンを検出すべく逆送りでスキャンしたが、スキャンの順番はこれに限られず、例えば、前からスキャンしてもよい。
<7-6>
In the above-described embodiment, scanning is performed in reverse to detect the appearance pattern of SAD at the time of impact and address detection. However, the scanning order is not limited to this, and for example, scanning may be performed from the front.

<7−7>
上記実施形態では、アドレス検出時において、所定の長さ以上の谷の後に第2の山が検出されたことを以って、第1の山が真のアドレスの山と判断された。しかしながら、第2の山の検出を省略し、第1の山の後、所定の長さ以上の谷が検出されたことを以って、第1の山を真のアドレスの山と判断してもよい。また、インパクトの検出時において、所定の長さ以上の谷の後に第2の山が検出されたことを以って、第1の山をインパクトの山と判断してもよい。
<7-7>
In the above embodiment, when the address is detected, the first peak is determined to be a true address peak because the second peak is detected after the valley having a predetermined length or more. However, the detection of the second peak is omitted, and after the first peak, a valley having a predetermined length or more is detected, so that the first peak is determined to be a true address peak. Also good. Further, when the impact is detected, the first mountain may be determined as the impact mountain because the second mountain is detected after the valley having a predetermined length or more.

<7−8>
上記実施形態では、真のアドレスの山533に対応するフレーム群のうち最も前のフレームをアドレスフレームFAとしたが、真のアドレスの山533の別の箇所から、アドレスフレームFAを検出してもよいし、谷531に対応するフレームをアドレスフレームFAとしてもよい。また、インパクトの山51のうちSAD(i)が最大とならない箇所で、インパクトフレームFIを検出してもよい。
<7-8>
In the above embodiment, the first frame in the frame group corresponding to the peak 533 of the true address is the address frame F A. However, the address frame F A is detected from another part of the peak 533 of the true address. Alternatively, the frame corresponding to the valley 531 may be the address frame F A. Further, at a point where SAD (i) is not a maximum of impact mountain 51 may detect the impact frame F I.

<7−9>
上記実施形態のステップS31において、隣接フレーム間ではなく、探索時刻のフレームと所定の基準フレームとの間で差分処理を実行するようにしてもよい。このときの基準フレームは、例えば、案内枠W3内にゴルフクラブ7が写っていないタイミングの画像とすることができる。
<7-9>
In step S31 of the above embodiment, the difference process may be executed between the frame at the search time and the predetermined reference frame instead of between adjacent frames. The reference frame at this time can be, for example, an image at a timing when the golf club 7 is not shown in the guide frame W3.

1 ゴルフスイングの分析システム
1A,2A プログラム(ゴルフスイングの分析プログラム)
24A 像ブレ補正部
24B 差分導出部
24C 特徴検出部
24D 特定部
51 インパクトの山(第1の山)
52 谷
53 アドレスの山(第2の山)
531 谷
532 山(第2の山)
533 真のアドレスの山(第1の山)
7 ゴルフクラブ
72 ヘッド
1 Golf Swing Analysis System 1A, 2A Program (Golf Swing Analysis Program)
24A Image blur correction unit 24B Difference derivation unit 24C Feature detection unit 24D Identification unit 51 Mountain of impact (first mountain)
52 Valley 53 Mountain of Address (Second Mountain)
531 Valley 532 Mountain (second mountain)
533 True address mountain (first mountain)
7 golf club 72 head

Claims (5)

ゴルフスイングを撮影した動画からアドレスのフレームを抽出するゴルフスイングの分析システムであって、
前記動画から、アドレス及びインパクト時にゴルフクラブのヘッドの周辺が写る前記動画の部分領域内において、フレーム間差分値を順次導出する差分導出部と、
前記フレーム間差分値が時間軸に沿って特徴的に出現する区間であって、前記フレーム間差分値の第1の山と、前記第1の山の直前に位置する所定の長さ以上の谷とを含む区間を検出する特徴検出部と、
前記検出結果に基づいて、前記第1の山又は前記谷に対応する1つ又は複数のフレームの中から、アドレスのフレームを特定する特定部と
を備える、ゴルフスイングの分析システム。
A golf swing analysis system that extracts an address frame from a video of shooting a golf swing,
In the partial area of the moving image in which the periphery of the head of the golf club is reflected from the moving image at the time of impact and impact, a difference deriving unit that sequentially derives a difference value between frames
A section in which the inter-frame difference value appears characteristically along the time axis, and a first peak of the inter-frame difference value and a valley of a predetermined length or more located immediately before the first peak A feature detection unit for detecting a section including
A golf swing analysis system comprising: a specifying unit that specifies a frame of an address from one or a plurality of frames corresponding to the first mountain or the valley based on the detection result.
前記特徴検出部は、前記第1の山及び前記谷に加え、前記谷の直前に位置する前記フレーム間差分値の第2の山をさらに含む区間を検出する、
請求項に記載のゴルフスイングの分析システム。
The feature detection unit detects a section further including a second peak of the inter-frame difference value located immediately before the valley in addition to the first peak and the valley.
The golf swing analysis system according to claim 1 .
前記差分導出部により前記フレーム間差分値が導出される前に、前記動画の像ブレを補正する像ブレ補正部
をさらに備える、
請求項1又は2に記載のゴルフスイングの分析システム。
An image blur correction unit that corrects image blur of the moving image before the inter-frame difference value is derived by the difference deriving unit;
The golf swing analysis system according to claim 1 or 2 .
ゴルフスイングを撮影した動画からアドレスのフレームを抽出するためのゴルフスイングの分析プログラムであって、
前記動画から、アドレス及びインパクト時にゴルフクラブのヘッドの周辺が写る前記動画の部分領域内において、フレーム間差分値を順次導出するステップと、
前記フレーム間差分値が時間軸に沿って特徴的に出現する区間であって、前記フレーム間差分値の第1の山と、前記第1の山の直前に位置する所定の長さ以上の谷とを含む区間を検出するステップと、
前記検出結果に基づいて、前記第1の山又は前記谷に対応する1つ又は複数のフレームの中から、アドレスのフレームを特定するステップと
をコンピュータに実行させる、ゴルフスイングの分析プログラム。
A golf swing analysis program for extracting an address frame from a video of shooting a golf swing,
From the moving image, in the partial area of the moving image in which the periphery of the head of the golf club is captured at the time of address and impact, sequentially deriving inter-frame difference values;
A section in which the inter-frame difference value appears characteristically along the time axis, and a first peak of the inter-frame difference value and a valley of a predetermined length or more located immediately before the first peak Detecting a section including
A golf swing analysis program that causes a computer to execute a step of identifying a frame of an address from one or a plurality of frames corresponding to the first mountain or the valley based on the detection result.
ゴルフスイングを撮影した動画からアドレスのフレームを抽出するためのゴルフスイングの分析方法であって、
前記動画から、アドレス及びインパクト時にゴルフクラブのヘッドの周辺が写る前記動画の部分領域内において、フレーム間差分値を順次導出するステップと、
前記フレーム間差分値が時間軸に沿って特徴的に出現する区間であって、前記フレーム間差分値の第1の山と、前記第1の山の直前に位置する所定の長さ以上の谷とを含む区間を検出するステップと、
前記検出結果に基づいて、前記第1の山又は前記谷に対応する1つ又は複数のフレームの中から、アドレスのフレームを特定するステップと
を備える、ゴルフスイングの分析方法。

A golf swing analysis method for extracting a frame of an address from a video of shooting a golf swing,
From the moving image, in the partial area of the moving image in which the periphery of the head of the golf club is captured at the time of address and impact, sequentially deriving inter-frame difference values;
A section in which the inter-frame difference value appears characteristically along the time axis, and a first peak of the inter-frame difference value and a valley of a predetermined length or more located immediately before the first peak Detecting a section including
A method of analyzing a golf swing, comprising: specifying a frame of an address from one or a plurality of frames corresponding to the first mountain or the valley based on the detection result.

JP2013269352A 2013-12-26 2013-12-26 Golf swing analysis system, program and method Active JP6441570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013269352A JP6441570B2 (en) 2013-12-26 2013-12-26 Golf swing analysis system, program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269352A JP6441570B2 (en) 2013-12-26 2013-12-26 Golf swing analysis system, program and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018187842A Division JP6771521B2 (en) 2018-10-03 2018-10-03 Golf swing analysis system, program and method

Publications (2)

Publication Number Publication Date
JP2015123206A JP2015123206A (en) 2015-07-06
JP6441570B2 true JP6441570B2 (en) 2018-12-19

Family

ID=53534380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269352A Active JP6441570B2 (en) 2013-12-26 2013-12-26 Golf swing analysis system, program and method

Country Status (1)

Country Link
JP (1) JP6441570B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6676873B2 (en) * 2014-09-22 2020-04-08 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2019217150A (en) * 2018-06-22 2019-12-26 セイコーエプソン株式会社 Swing analysis device, swing analysis method, and swing analysis system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117045A (en) * 2001-10-18 2003-04-22 Takasago Electric Ind Co Ltd Swing form diagnosing device
JP4494837B2 (en) * 2003-12-26 2010-06-30 Sriスポーツ株式会社 Golf swing diagnostic system
JP5604779B2 (en) * 2008-09-17 2014-10-15 富士通株式会社 Portable terminal device, swing measurement method and measurement program
JP5536491B2 (en) * 2010-03-01 2014-07-02 ダンロップスポーツ株式会社 Golf swing diagnosis method
EP2707837A4 (en) * 2011-06-27 2015-06-24 Swing Profile Ltd Method of analysing a video of sports motion

Also Published As

Publication number Publication date
JP2015123206A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
JP5536491B2 (en) Golf swing diagnosis method
JP4494837B2 (en) Golf swing diagnostic system
US8300084B2 (en) Method for real-time prompting stitching degree of panoramic image
US8894500B2 (en) Diagnosing method of golf swing
US10007846B2 (en) Image processing method
CN109902189B (en) Picture selection method and related equipment
JP6362085B2 (en) Image recognition system, image recognition method and program
KR20130107254A (en) Image processing apparatus, image processing method, and storage medium
KR20140116033A (en) Display control apparatus, display control method and a recording medium thereof
KR20160034819A (en) Image processing apparatus, image processing method, and program
JP6218351B2 (en) Golf swing diagnosis method
JP6441570B2 (en) Golf swing analysis system, program and method
JP4717445B2 (en) Image processing system, image processing device, game device, program, information storage medium, and image processing method
JP6771521B2 (en) Golf swing analysis system, program and method
US11941498B2 (en) Facial motion detection and image correction method and apparatus
JP6304619B2 (en) Image stabilization system, program, and method
US10373329B2 (en) Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing
JP5016012B2 (en) Silhouette extraction method
CN111091513B (en) Image processing method, device, computer readable storage medium and electronic equipment
KR102055146B1 (en) Method for checking out sports motion using event-based vision sensor and apparatus for the same
JP5470529B2 (en) Motion detection device, motion detection method, and motion detection program
JP6717769B2 (en) Information processing device and program
JP2008022502A5 (en)
JP6188453B2 (en) Image processing apparatus, image processing method, and program
JP7113193B2 (en) Athlete state identification method and player state identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181003

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181122

R150 Certificate of patent or registration of utility model

Ref document number: 6441570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250