JP7360023B2 - Shot management system, shot management method and program - Google Patents

Shot management system, shot management method and program Download PDF

Info

Publication number
JP7360023B2
JP7360023B2 JP2019154906A JP2019154906A JP7360023B2 JP 7360023 B2 JP7360023 B2 JP 7360023B2 JP 2019154906 A JP2019154906 A JP 2019154906A JP 2019154906 A JP2019154906 A JP 2019154906A JP 7360023 B2 JP7360023 B2 JP 7360023B2
Authority
JP
Japan
Prior art keywords
shot
image
golf club
type
golf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019154906A
Other languages
Japanese (ja)
Other versions
JP2021029736A (en
Inventor
宏 三枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PRGR Co Ltd
Original Assignee
PRGR Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PRGR Co Ltd filed Critical PRGR Co Ltd
Priority to JP2019154906A priority Critical patent/JP7360023B2/en
Publication of JP2021029736A publication Critical patent/JP2021029736A/en
Application granted granted Critical
Publication of JP7360023B2 publication Critical patent/JP7360023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、ショット集計システム、ショット集計方法及びプログラムに関する。 The present invention relates to a shot tally system, shot tally method, and program.

特許文献1には、ゴルフボールを打った瞬間を挟んだ前後のスイングの映像が再生可能な装置が記載されている。 Patent Document 1 describes a device that can reproduce videos of swings before and after the moment when a golf ball is hit.

また、ゴルフショップ内における試打の場面やゴルフ練習場におけるゴルフの練習の場面に用いることができるゴルフ測定装置が知られている。このようなゴルフ測定装置では、例えば、ショットの際の、ヘッドスピード、ボールスピード、ボールの打ち出し角度、スピン量、シミュレーション飛距離、ヘッド軌道、ダイナミックロフト、フェース角、ライ角、打点位置などの値が測定可能である。 Also, golf measuring devices are known that can be used for trial shots in a golf shop or for golf practice at a golf driving range. Such golf measurement devices can measure, for example, values such as head speed, ball speed, ball launch angle, spin rate, simulated flight distance, head trajectory, dynamic loft, face angle, lie angle, and hitting position during a shot. is measurable.

特開平5-15628号公報Japanese Patent Application Publication No. 5-15628

ゴルフ測定装置のなかには、ショットの際の測定値を示すショットデータを、当該ショットに用いられたゴルフクラブの種類(番手、モデル名、型番、など)に関連付けて管理できるものがある。このようなショットデータを、ショットに用いられたゴルフクラブの種類ごとに集計することで、例えば、ショットの分析を行うクラブ開発の場面や顧客へのショットデータの提供の場面などにおけるショットデータの活用性が向上するものと期待される。 Some golf measuring devices are capable of managing shot data indicating a measured value during a shot in association with the type (number, model name, model number, etc.) of the golf club used for the shot. By aggregating such shot data by type of golf club used for the shot, it is possible to utilize the shot data, for example, in club development for shot analysis or in providing shot data to customers. It is expected that performance will improve.

しかし従来は、ゴルフクラブの種類ごとにショットデータを集計するためには、ゴルフクラブの種類をオペレータが手作業で入力する必要があり、手間がかかっていた。 However, conventionally, in order to aggregate shot data for each type of golf club, an operator had to manually input the type of golf club, which was time-consuming.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ゴルフクラブの種類ごとのショットデータの集計の手間を低減できるショット集計システム、ショット集計方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and one of its objects is to provide a shot aggregation system, a shot aggregation method, and a program that can reduce the effort of aggregating shot data for each type of golf club. It is in.

上記課題を解決するために、本発明に係るショット集計システムは、ゴルフボール及び当該ゴルフボールをショットするゴルフクラブを表す画像に基づいて、前記ゴルフクラブの種類を推定する推定手段と、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付ける関連付け手段と、共通の前記ゴルフクラブの種類に関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算する計算手段と、を含む。 In order to solve the above problems, a shot tally system according to the present invention includes an estimating means for estimating the type of the golf club based on an image representing a golf ball and a golf club that shoots the golf ball; association means for associating club type data indicating an estimated type of the golf club with shot data indicating at least one of the behavior of the golf club or the behavior of the golf ball when making a shot; and calculation means for calculating a representative value of the values indicated by each of the plurality of shot data associated with the type of club.

本発明の一態様では、前記計算手段は、前記複数の前記ショットデータが示す値の平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つを計算する。 In one aspect of the present invention, the calculation means calculates at least one of an average value, standard deviation, maximum value, or minimum value of the values indicated by the plurality of shot data.

また、本発明の一態様では、前記推定手段は、前記ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する。 Further, in one aspect of the present invention, the estimating means estimates the type of the golf club based on the image taken between the timing of the address in the shot and the timing of the shot.

この態様では、前記推定手段は、検出される前記ショットのタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 In this aspect, the estimation means may estimate the type of the golf club based on the image taken a predetermined time before the timing of the detected shot.

この場合、前記推定手段は、前記ゴルフボールが配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 In this case, the estimating means determines the type of the golf club based on the image taken a predetermined time before the timing at which a change from the state where the golf ball is placed to the state where the golf ball is not placed is detected. may be estimated.

あるいは、前記推定手段は、打音が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 Alternatively, the estimating means may estimate the type of the golf club based on the image taken a predetermined time before the timing at which the hitting sound was detected.

あるいは、前記推定手段は、前記ゴルフクラブの通過が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 Alternatively, the estimating means may estimate the type of the golf club based on the image taken a predetermined time before the timing at which passage of the golf club was detected.

あるいは、前記推定手段は、ボールが配置されていることが検出されたタイミング以後に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 Alternatively, the estimating means may estimate the type of the golf club based on the image taken after the timing at which the placement of the ball was detected.

また、前記推定手段は、前記ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了する撮影手段が撮影する前記画像に基づいて、前記ゴルフクラブの種類を推定してもよい。 Further, the estimating means may estimate the type of the golf club based on the image taken by a photographing means that starts photographing at the timing of an address in the shot and ends photographing at the timing of the shot. .

また、本発明の一態様では、前記推定手段は、学習済の機械学習モデルに、前記画像を入力した際の出力に基づいて、当該画像が表すゴルフクラブの種類を推定する。 Further, in one aspect of the present invention, the estimating means estimates the type of golf club represented by the image based on an output when the image is input to a trained machine learning model.

また、本発明に係るショット集計方法は、ゴルフボール及び当該ゴルフボールをショットするゴルフクラブを表す画像に基づいて、前記ゴルフクラブの種類を推定するステップと、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付けるステップと、共通の前記ゴルフクラブの種類に関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算するステップと、を含む。 Further, the shot tallying method according to the present invention includes a step of estimating the type of the golf club based on an image representing a golf ball and a golf club with which the golf ball is shot; a step of associating club type data indicating an estimated type of the golf club with shot data indicating at least one of a behavior of a club or a behavior of the golf ball; and a step of associating club type data indicating an estimated type of the golf club; The method includes the step of calculating a representative value of the values indicated by each of the plurality of shot data.

また、本発明に係るプログラムは、ゴルフボール及び当該ゴルフボールをショットするゴルフクラブを表す画像に基づいて、前記ゴルフクラブの種類を推定する手順、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付ける手順、共通の前記ゴルフクラブの種類に関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算する手順、をコンピュータに実行させる。 The program according to the present invention also includes a procedure for estimating the type of golf club based on an image representing a golf ball and a golf club that shoots the golf ball, and a behavior of the golf club when shooting the golf ball. or a step of associating club type data indicating an estimated type of the golf club with shot data indicating at least one of the behaviors of the golf ball, a plurality of the shots being associated with a common type of the golf club; A computer is caused to execute a procedure for calculating a representative value of the values indicated by each piece of data.

本発明の一実施形態に係るショット測定システムの構成の一例を示す図である。1 is a diagram showing an example of the configuration of a shot measurement system according to an embodiment of the present invention. 本発明の一実施形態に係るショット測定装置の構成の一例を示す図である。1 is a diagram showing an example of the configuration of a shot measuring device according to an embodiment of the present invention. 本発明の一実施形態に係る学習装置の構成の一例を示す図である。1 is a diagram showing an example of the configuration of a learning device according to an embodiment of the present invention. 本発明の一実施形態に係る学習装置の機能の一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of functions of a learning device according to an embodiment of the present invention. 基礎画像の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a basic image. 学習入力画像の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a learning input image. 基礎画像の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a basic image. 基礎画像の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a basic image. 本発明の一実施形態に係る学習装置で行われる処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of the flow of processing performed by the learning device according to an embodiment of the present invention. 本発明の一実施形態に係るショット管理装置の機能の一例を示す機能ブロック図である。1 is a functional block diagram showing an example of functions of a shot management device according to an embodiment of the present invention. FIG. 本発明の一実施形態に係るショット管理装置で行われる処理の流れの一例を示すフロー図である。FIG. 2 is a flow diagram showing an example of the flow of processing performed by the shot management device according to an embodiment of the present invention. 本発明の一実施形態に係る集計装置の構成の一例を示す図である。1 is a diagram illustrating an example of the configuration of a totalizing device according to an embodiment of the present invention.

以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るショット測定システム1の構成の一例を示す図である。図1に示すように、本実施形態に係るショット測定システム1には、ショット管理装置10と、ショット測定装置22と、が含まれる。 FIG. 1 is a diagram showing an example of the configuration of a shot measurement system 1 according to an embodiment of the present invention. As shown in FIG. 1, the shot measurement system 1 according to the present embodiment includes a shot management device 10 and a shot measurement device 22.

本実施形態に係るショット管理装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すようにショット管理装置10は、例えば、プロセッサ12、記憶部14、通信部16、表示部18、操作部20を含んでいる。 The shot management device 10 according to this embodiment is a computer such as a personal computer. As shown in FIG. 1, the shot management device 10 includes, for example, a processor 12, a storage section 14, a communication section 16, a display section 18, and an operation section 20.

プロセッサ12は、例えばショット管理装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 12 is a program-controlled device such as a CPU that operates according to a program installed in the shot management device 10, for example.

記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。 The storage unit 14 is a storage element such as ROM or RAM, a hard disk drive, or the like. The storage unit 14 stores programs and the like executed by the processor 12.

通信部16は、例えばネットワークボードなどの通信インタフェースである。本実施形態では通信部16を介してショット管理装置10は、ショット測定装置22と通信可能となっている。 The communication unit 16 is, for example, a communication interface such as a network board. In this embodiment, the shot management device 10 can communicate with the shot measurement device 22 via the communication unit 16.

表示部18は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に
従って各種の画像を表示する。
The display unit 18 is a display device such as a liquid crystal display, and displays various images according to instructions from the processor 12.

操作部20は、キーボードやマウスなどといったユーザインタフェースであって、ユー
ザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
The operation unit 20 is a user interface such as a keyboard or a mouse, and receives user operation input and outputs a signal indicating the content to the processor 12.

なお、ショット管理装置10は、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 Note that the shot management device 10 may include an optical disk drive for reading optical disks such as DVD-ROMs and Blu-ray (registered trademark) disks, a USB (Universal Serial Bus) port, and the like.

図2は、本実施形態に係るショット測定装置22の構成の一例を示す図である。図2に示すように、本実施形態に係るショット測定装置22には、弾道測定器30、ヘッド挙動測定器32、ヘッド撮影装置34が含まれている。 FIG. 2 is a diagram showing an example of the configuration of the shot measuring device 22 according to the present embodiment. As shown in FIG. 2, the shot measuring device 22 according to this embodiment includes a trajectory measuring device 30, a head behavior measuring device 32, and a head photographing device 34.

弾道測定器30には、LEDなどのフラッシュ光源40が、左右及び中央のそれぞれに縦に並んで3個ずつ、計9個設けられている。また、弾道測定器30には、左側のフラッシュ光源40と中央のフラッシュ光源40との間、及び、右側のフラッシュ光源40と中央のフラッシュ光源40との間に、ステレオカメラ42が設けられている。また、弾道測定器30の右端には、ボール有無判別センサ44が設けられている。また、弾道測定器30には、ヘッドスピードセンサ46が設けられている。 The trajectory measurement device 30 is provided with a total of nine flash light sources 40 such as LEDs, with three flash light sources 40 arranged vertically on the left, right, and center sides. Further, the trajectory measurement device 30 is provided with a stereo camera 42 between the left flash light source 40 and the center flash light source 40 and between the right flash light source 40 and the center flash light source 40. . Furthermore, a ball presence/absence determination sensor 44 is provided at the right end of the trajectory measuring device 30. Further, the trajectory measuring device 30 is provided with a head speed sensor 46.

本実施形態では例えば、弾道測定器30の前方に、異なる種類の複数のマーカが表面の異なる場所に張り付けられたゴルフボール48が配置される。 In this embodiment, for example, a golf ball 48 having a plurality of markers of different types affixed to different locations on its surface is placed in front of the trajectory measuring device 30 .

そして当該ゴルフボール48のショット直後の弾道が、複数のステレオカメラ42によって複数の方向から同時に撮影される。本実施形態では例えば、フラッシュ光源40を複数回断続的に点灯する間に、多重露光によりゴルフボール48の複数の像を含む画像が撮影される。なお、ステレオカメラ42が高速度カメラであり、当該高速度カメラによってゴルフボール48の像を含む画像が連続撮影されてもよい。 Then, the trajectory of the golf ball 48 immediately after the shot is simultaneously photographed from a plurality of directions by a plurality of stereo cameras 42. In this embodiment, for example, an image including a plurality of images of the golf ball 48 is photographed by multiple exposure while the flash light source 40 is intermittently turned on a plurality of times. Note that the stereo camera 42 may be a high-speed camera, and images including the image of the golf ball 48 may be continuously captured by the high-speed camera.

そして、撮影された画像はショット管理装置10に送信される。そして、ショット管理装置10において、ステレオ画像計測技術により、撮影される画像に基づく、ゴルフボール48の挙動の三次元計測が行われる。 The photographed image is then transmitted to the shot management device 10. Then, in the shot management device 10, three-dimensional measurement of the behavior of the golf ball 48 is performed using stereo image measurement technology based on the photographed images.

そして本実施形態では、ショット管理装置10において、ゴルフボール48の三次元計測の結果に基づいて、ボールスピードデータ、打出し角度データ、スピン量データ、及び、飛距離データを含む部分ボールデータが生成される。 In this embodiment, the shot management device 10 generates partial ball data including ball speed data, launch angle data, spin amount data, and flight distance data based on the results of three-dimensional measurement of the golf ball 48. be done.

ここで、ボールスピードデータは、例えば、ゴルフボール48のボールスピード(例えば初速度)を示すデータである。また、打出し角度データは、例えば、ゴルフボール48の上下、左右の打出し角度を示すデータである。また、スピン量データは、例えば、ゴルフボール48のバックスピン量とサイドスピン量を示すデータである。また、飛距離データは、例えば、ゴルフボール48のシミュレーション飛距離を示すデータである。 Here, the ball speed data is, for example, data indicating the ball speed (eg, initial speed) of the golf ball 48. Further, the launch angle data is, for example, data indicating the vertical and horizontal launch angles of the golf ball 48. Further, the spin amount data is, for example, data indicating the amount of backspin and the amount of side spin of the golf ball 48. Further, the flight distance data is, for example, data indicating a simulated flight distance of the golf ball 48.

また、本実施形態では、ヘッドスピードセンサ46によって計測される、ゴルフボール48のショットに用いられるゴルフクラブのヘッドスピードを示すヘッドスピードデータが、弾道測定器30からショット管理装置10に送信される。 Further, in the present embodiment, head speed data indicating the head speed of the golf club used for the shot of the golf ball 48, which is measured by the head speed sensor 46, is transmitted from the trajectory measuring device 30 to the shot management device 10.

そして、本実施形態では、ショット管理装置10において、弾道測定器30から送信されるヘッドスピードデータと、上述の部分ボールデータと、を含む、ボールデータが生成される。 In this embodiment, the shot management device 10 generates ball data including the head speed data transmitted from the trajectory measuring device 30 and the above-mentioned partial ball data.

ボール有無判別センサ44は、ティー50の上に配置されたゴルフボール48の存在の有無を検知するセンサである。本実施形態では例えば、ボール有無判別センサ44によって、ゴルフボール48がティー50の上に配置されていない状態から配置されている状態に変化したことが検出された際にステレオカメラ42による撮影準備が開始される。そして、ボール有無判別センサ44によって、ゴルフボール48がティー50の上に配置された状態からティー50の上に配置されていない状態に変化した際に、ステレオカメラ42による撮影が行われる。 The ball presence/absence determination sensor 44 is a sensor that detects the presence or absence of a golf ball 48 placed on the tee 50. In this embodiment, for example, when the ball presence/absence determination sensor 44 detects that the golf ball 48 has changed from not being placed on the tee 50 to being placed on the tee 50, the stereo camera 42 prepares for photographing. will be started. Then, when the golf ball 48 changes from being placed on the tee 50 to not being placed on the tee 50 by the ball presence/absence determination sensor 44, the stereo camera 42 takes an image.

以下、ゴルフボール48がティー50の上に配置されていない状態から配置されている状態に変化したことの検出を配置検出と呼ぶこととする。また、ゴルフボール48がティー50の上に配置されている状態から配置されていない状態に変化したことの検出をショット検出と呼ぶこととする。 Hereinafter, the detection that the golf ball 48 has changed from not being placed on the tee 50 to being placed on the tee 50 will be referred to as placement detection. Further, detection of a change from a state in which the golf ball 48 is placed on the tee 50 to a state in which it is not placed on the tee 50 will be referred to as shot detection.

また、本実施形態において、ボール有無判別センサ44による配置検出のタイミングに、ボール有無判別センサ44が、所定の配置検出信号をショット管理装置10に送信してもよい。また、本実施形態において、ボール有無判別センサ44によるショット検出のタイミングに、ボール有無判別センサ44が、所定のショット検出信号をショット管理装置10に送信してもよい。 Further, in this embodiment, the ball presence/absence discrimination sensor 44 may transmit a predetermined placement detection signal to the shot management device 10 at the timing of the placement detection by the ball presence/absence discrimination sensor 44 . Further, in this embodiment, the ball presence/absence discrimination sensor 44 may transmit a predetermined shot detection signal to the shot management device 10 at the timing of shot detection by the ball presence/absence discrimination sensor 44 .

また、本実施形態では、ゴルフボール48の三次元計測の結果に基づいて、ゴルフボール48の弾道のシミュレーション結果を表す画像を表示部18に表示できるようになっている。 Further, in this embodiment, an image representing a simulation result of the trajectory of the golf ball 48 can be displayed on the display unit 18 based on the results of three-dimensional measurement of the golf ball 48.

ヘッド挙動測定器32には、左右に並んで2つのユニットが設けられている。それぞれのユニットには、LEDなどのフラッシュ光源52が、上側と下側のそれぞれに、横に3個並んで、計6個設けられている。 The head behavior measuring device 32 is provided with two units arranged side by side. Each unit is provided with a total of six flash light sources 52 such as LEDs, with three flash light sources 52 arranged horizontally on each of the upper and lower sides.

また、それぞれのユニットの中央には、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドを撮影するカメラ54が設けられている。 Furthermore, a camera 54 is provided at the center of each unit to photograph the club head of the golf club used to shoot the golf ball 48.

また、右側のユニットの左側には、前方の反射板56に向かって赤外線等を照射することにより、ゴルフボール48のショットに用いられるゴルフクラブの通過を検出する通過センサ58が設けられている。 Further, on the left side of the right unit, a passage sensor 58 is provided that detects passage of a golf club used for a shot of the golf ball 48 by irradiating infrared rays or the like toward the front reflecting plate 56.

ヘッド挙動測定器32では、カメラ54によって複数の方向から、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドが撮影される。本実施形態では例えば、フラッシュ光源52を複数回断続的に点灯する間に、多重露光によりクラブヘッドの複数の像を含む画像が撮影される。本実施形態において、通過センサ58がゴルフクラブの通過を検出したタイミングに、カメラ54による画像の撮影が行われてもよい。なお、カメラ54が高速度カメラであり、当該高速度カメラによってクラブヘッドの像を含む画像が連続撮影されてもよい。 In the head behavior measuring device 32, the camera 54 photographs the club head of the golf club used to shoot the golf ball 48 from a plurality of directions. In this embodiment, for example, while the flash light source 52 is intermittently turned on a plurality of times, an image including a plurality of images of the club head is photographed by multiple exposure. In this embodiment, the image may be captured by the camera 54 at the timing when the passing sensor 58 detects passing of the golf club. Note that the camera 54 may be a high-speed camera, and images including the image of the club head may be continuously captured by the high-speed camera.

また、本実施形態において、通過センサ58によってゴルフクラブの通過が検出されるタイミングに、通過センサ58が、所定の通過検出信号をショット管理装置10に送信してもよい。 Furthermore, in the present embodiment, the passage sensor 58 may transmit a predetermined passage detection signal to the shot management device 10 at the timing when the passage of the golf club is detected by the passage sensor 58 .

そして、撮影された画像はショット管理装置10に送信される。そして、ショット管理装置10において、撮影される画像に基づく、クラブヘッドの姿勢及び軌道の三次元計測が行われる。なお、本実施形態において、ゴルフボール48のショットに用いられるゴルフクラブの上面に、マーカが設けられていてもよい。そして、撮影される画像に基づいて特定される、ゴルフクラブの上面のマーカの三次元座標値に基づいて、クラブヘッドの姿勢及び軌道の三次元計測が行われてもよい。 The photographed image is then transmitted to the shot management device 10. Then, in the shot management device 10, three-dimensional measurement of the attitude and trajectory of the club head is performed based on the captured image. In addition, in this embodiment, a marker may be provided on the upper surface of the golf club used to shoot the golf ball 48. Then, three-dimensional measurement of the attitude and trajectory of the club head may be performed based on the three-dimensional coordinate values of the marker on the top surface of the golf club, which are specified based on the photographed image.

そして本実施形態では、ショット管理装置10において、三次元計測の結果に基づいて、フェーススピードデータ、ヘッド軌道データ、ダイナミックロフトデータ、フェース角データ、ライ角データ、打点位置データ、法線角度データ、及び、フェースローテーションデータを含む、ヘッドデータが生成される。 In this embodiment, the shot management device 10 determines, based on the three-dimensional measurement results, face speed data, head trajectory data, dynamic loft data, face angle data, lie angle data, hitting point position data, normal angle data, Then, head data including face rotation data is generated.

ここで、フェーススピードデータは、例えば、インパクト時のクラブヘッドのフェーススピードを示すデータである。また、ヘッド軌道データは、例えば、インパクト時のクラブヘッドの上下方向、左右方向の進入角を示すデータである。また、ダイナミックロフトデータは、例えば、インパクト時のクラブヘッドのロフト角を示すデータである。また、フェース角データは、例えば、インパクト時のクラブヘッドのフェース角を示すデータである。また、ライ角データは、例えば、インパクト時のクラブヘッドのライ角を示すデータである。また、打点位置データは、例えば、ショットされたゴルフボール48の打点位置を示すデータである。また、法線角度データは、例えば、インパクト時のクラブヘッドのフェース面の向きを示すデータである。フェースローテーションは、例えば、ショットの際のクラブヘッドのフェースローテーションの大きさを示すデータである。 Here, the face speed data is, for example, data indicating the face speed of the club head at the time of impact. Further, the head trajectory data is, for example, data indicating the approach angle of the club head in the vertical direction and the horizontal direction at the time of impact. Further, the dynamic loft data is, for example, data indicating the loft angle of the club head at the time of impact. Further, the face angle data is, for example, data indicating the face angle of the club head at the time of impact. Further, the lie angle data is, for example, data indicating the lie angle of the club head at the time of impact. Further, the hitting point position data is, for example, data indicating the hitting point position of the golf ball 48 that has been shot. Further, the normal angle data is, for example, data indicating the direction of the face surface of the club head at the time of impact. The face rotation is, for example, data indicating the magnitude of the face rotation of the club head during a shot.

また、本実施形態では、クラブヘッドの三次元計測の結果に基づいて、インパクトの直前のクラブヘッドの動きを表示部18にアニメーション表示させることができるようになっている。 Furthermore, in this embodiment, the movement of the club head immediately before impact can be displayed in animation on the display unit 18 based on the results of three-dimensional measurement of the club head.

ヘッド撮影装置34には、本実施形態では例えば、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドを側方から撮影するカメラ60が設けられている。本実施形態では、カメラ60が、所定のフレームレートでフレーム画像を撮影する。ヘッド撮影装置34は、クラブヘッドがアドレスの際に位置する範囲を撮影範囲として撮影するので、アドレスの際のクラブヘッドを確実に撮影することができる。クラブヘッドの撮影の際には、撮影時刻も併せて記録される。 In this embodiment, the head photographing device 34 is provided with a camera 60 that photographs the club head of a golf club used for shooting a golf ball 48 from the side, for example. In this embodiment, the camera 60 captures frame images at a predetermined frame rate. Since the head photographing device 34 photographs the range in which the club head is positioned at the time of address as the photographing range, it is possible to reliably photograph the club head at the time of address. When photographing a club head, the time of photographing is also recorded.

ヘッド撮影装置34のカメラ60は、ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了してもよい。例えば、ヘッド撮影装置34は、ボール有無判別センサ44による配置検出がされたタイミングにカメラ60による画像の撮影を開始してもよい。そして、ヘッド撮影装置34は、例えば、ボール有無判別センサ44によるショット検出がされたタイミングにカメラ60による画像の撮影を終了してもよい。 The camera 60 of the head photographing device 34 may start photographing at the timing of the address in the shot, and may end photographing at the timing of the shot. For example, the head photographing device 34 may start photographing an image with the camera 60 at the timing when the ball presence/absence determination sensor 44 detects the placement. Then, the head photographing device 34 may end photographing of the image by the camera 60 at the timing when the ball presence/absence determination sensor 44 detects a shot, for example.

撮影された画像は、撮影時刻の情報に関連付けられた上で、ショット管理装置10に送信される。本実施形態では、当該撮影時刻の情報が、撮影タイミングを示す情報として取り扱われる。そして、ショット管理装置10において、学習済の機械学習モデルを用いて、当該画像に写っているゴルフクラブの種類の推定が行われる。 The photographed image is transmitted to the shot management device 10 after being associated with information on the photographing time. In this embodiment, the information on the photographing time is handled as information indicating the photographing timing. Then, in the shot management device 10, the type of golf club shown in the image is estimated using the learned machine learning model.

図3は、上述の機械学習モデルの学習に用いられる学習装置70の構成の一例を示す図である。 FIG. 3 is a diagram showing an example of the configuration of a learning device 70 used for learning the above-described machine learning model.

本実施形態に係る学習装置70は、パーソナルコンピュータなどのコンピュータである。図3に示すように学習装置70は、例えば、プロセッサ72、記憶部74、通信部76、表示部78、操作部80を含んでいる。 The learning device 70 according to this embodiment is a computer such as a personal computer. As shown in FIG. 3, the learning device 70 includes, for example, a processor 72, a storage section 74, a communication section 76, a display section 78, and an operation section 80.

プロセッサ72は、例えば学習装置70にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 72 is a program-controlled device such as a CPU that operates according to a program installed in the learning device 70, for example.

記憶部74は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部74には、プロセッサ72によって実行されるプログラムなどが記憶される。 The storage unit 74 is a storage element such as ROM or RAM, a hard disk drive, or the like. The storage unit 74 stores programs and the like executed by the processor 72.

通信部76は、例えばネットワークボードなどの通信インタフェースである。 The communication unit 76 is, for example, a communication interface such as a network board.

表示部78は、液晶ディスプレイ等の表示デバイスであって、プロセッサ72の指示に従って各種の画像を表示する。 The display unit 78 is a display device such as a liquid crystal display, and displays various images according to instructions from the processor 72.

操作部80は、キーボードやマウスなどといったユーザインタフェースであって、ユー
ザの操作入力を受け付けて、その内容を示す信号をプロセッサ72に出力する。
The operation unit 80 is a user interface such as a keyboard or a mouse, and receives user operation input and outputs a signal indicating the content to the processor 72.

なお、学習装置70は、DVD-ROMやBlu-ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 Note that the learning device 70 may include an optical disk drive for reading optical disks such as a DVD-ROM or a Blu-ray (registered trademark) disk, a USB (Universal Serial Bus) port, and the like.

なお、ショット管理装置10を学習装置70に流用してもよい。 Note that the shot management device 10 may be used as the learning device 70.

図4は、本実施形態に係る学習装置70で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る学習装置70で、図4に示す機能のすべてが実装される必要はなく、また、図4に示す機能以外の機能が実装されていても構わない。 FIG. 4 is a functional block diagram showing an example of functions implemented in the learning device 70 according to this embodiment. Note that the learning device 70 according to this embodiment does not need to implement all of the functions shown in FIG. 4, and functions other than those shown in FIG. 4 may be implemented.

図4に示すように、学習装置70には、機能的には例えば、機械学習モデル90、学習データ記憶部92、学習データ取得部94、前処理部96、学習部98が含まれる。機械学習モデル90は、プロセッサ72及び記憶部74を主として実装される。 As shown in FIG. 4, the learning device 70 functionally includes, for example, a machine learning model 90, a learning data storage section 92, a learning data acquisition section 94, a preprocessing section 96, and a learning section 98. The machine learning model 90 is mainly implemented using a processor 72 and a storage unit 74.

学習データ記憶部92は、記憶部74を主として実装される。学習データ取得部94、前処理部96、学習部98は、プロセッサ72を主として実装される。 The learning data storage section 92 is mainly implemented with the storage section 74. The learning data acquisition unit 94, preprocessing unit 96, and learning unit 98 are mainly implemented using the processor 72.

以上の機能は、コンピュータである学習装置70にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ72で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して学習装置70に供給されてもよい。 The above functions may be implemented by having the processor 72 execute a program installed in the learning device 70, which is a computer, and including commands corresponding to the above functions. This program may be supplied to the learning device 70, for example, via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet.

機械学習モデル90は、本実施形態では例えば、アダブースト、ランダムフォレスト、ニューラルネットワーク、サポートベクタマシン(SVM)、最近傍識別器、などの機械学習が実装された機械学習モデルである。 In this embodiment, the machine learning model 90 is a machine learning model in which machine learning such as Adaboost, random forest, neural network, support vector machine (SVM), and nearest neighbor classifier is implemented.

機械学習モデル90は、本実施形態では例えば、ショットに用いられたゴルフクラブの種類(例えば、番手、モデル名、型番、などのうちの少なくとも1つ)を推定する。 In this embodiment, the machine learning model 90 estimates, for example, the type of golf club used for the shot (for example, at least one of the club count, model name, model number, etc.).

学習データ記憶部92は、本実施形態では例えば、機械学習モデル90の学習に用いられる複数の学習データを記憶する。学習データには、例えば、ゴルフクラブ及びゴルフボール48を少なくとも表す基礎画像と、当該ゴルフクラブの種類を示す教師データと、が含まれている。ここで複数の学習データのそれぞれに含まれる基礎画像には、様々な種類のゴルフクラブが写っていることが望ましい。 In this embodiment, the learning data storage unit 92 stores, for example, a plurality of learning data used for learning the machine learning model 90. The learning data includes, for example, a basic image representing at least a golf club and a golf ball 48, and teacher data indicating the type of the golf club. Here, it is desirable that the basic images included in each of the plurality of learning data include various types of golf clubs.

学習データ取得部94は、本実施形態では例えば、機械学習モデル90の学習に用いられる学習データを取得する。ここで学習データ取得部94は、学習データ記憶部92に記憶されている学習データを取得してもよい。 In this embodiment, the learning data acquisition unit 94 acquires learning data used for learning the machine learning model 90, for example. Here, the learning data acquisition unit 94 may acquire learning data stored in the learning data storage unit 92.

前処理部96は、本実施形態では例えば、学習データに含まれる基礎画像に基づいて、ゴルフクラブ及びゴルフボール48を少なくとも表す、当該基礎画像とは異なる学習入力画像を生成する。前処理部96は、例えば、テンプレートマッチング技術を用いることで、基礎画像内におけるゴルフボール48の画像が占める領域を特定する。具体的には例えば、基礎画像内における白色の円形の領域が、ゴルフボール48の画像が占める領域と特定される。そして、前処理部96は、例えば、基礎画像内においてゴルフボール48の画像が占める領域の位置、大きさ、又は、色のうちの少なくとも1つに基づいて、学習入力画像を生成する。 In this embodiment, the preprocessing unit 96 generates, for example, a learning input image representing at least the golf club and the golf ball 48, which is different from the basic image, based on the basic image included in the learning data. The preprocessing unit 96 uses, for example, template matching technology to identify the area occupied by the image of the golf ball 48 within the basic image. Specifically, for example, a white circular area within the basic image is specified as the area occupied by the image of the golf ball 48. Then, the preprocessing unit 96 generates a learning input image based on, for example, at least one of the position, size, or color of the area occupied by the image of the golf ball 48 in the basic image.

ここで、前処理部96が、学習入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置である学習入力画像を生成してもよい。 Here, the preprocessing unit 96 may generate a learning input image in which the position of the area occupied by the image of the golf ball 48 in the learning input image is a predetermined position.

また、前処理部96が、ゴルフボール48の画像が占める領域の大きさが所定の大きさである学習入力画像を生成してもよい。 Further, the preprocessing unit 96 may generate a learning input image in which the area occupied by the image of the golf ball 48 has a predetermined size.

図5は、基礎画像の一例を模式的に示す図である。図5に示す基礎画像には、ゴルフボール48、ティー50、ゴルフクラブ100の像が写っている。図5に示す基礎画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。そして、図5に示す基礎画像の縦の長さがx1であり、横の長さがy1であるとする。また、基礎画像に写るゴルフボール48の像の直径はD1であることとする。また、基礎画像に写るゴルフボール48の像の中心の座標値が(x2,y2)であることとする。 FIG. 5 is a diagram schematically showing an example of a basic image. The basic image shown in FIG. 5 includes images of a golf ball 48, a tee 50, and a golf club 100. In the basic image shown in FIG. 5, the downward direction is the positive direction of the X-axis, and the direction to the right is the positive direction of the Y-axis. It is assumed that the vertical length of the basic image shown in FIG. 5 is x1, and the horizontal length is y1. Further, it is assumed that the diameter of the image of the golf ball 48 in the basic image is D1. It is also assumed that the coordinate values of the center of the image of the golf ball 48 in the basic image are (x2, y2).

図6は、本実施形態において生成されるべき学習入力画像の一例を模式的に示す図である。図6に示す学習入力画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。また、図6の示す学習入力画像の縦の長さがx0であり、横の長さがy0であるとする。また、基礎画像に写るゴルフボール48の像の直径はD0であることとする。また、学習入力画像に写るゴルフボール48の像の中心の座標値が(a,b)であることとする。 FIG. 6 is a diagram schematically showing an example of a learning input image to be generated in this embodiment. In the learning input image shown in FIG. 6, it is assumed that the downward direction is the positive direction of the X-axis, and the direction to the right is the positive direction of the Y-axis. Further, it is assumed that the vertical length of the learning input image shown in FIG. 6 is x0, and the horizontal length is y0. Further, it is assumed that the diameter of the image of the golf ball 48 in the basic image is D0. It is also assumed that the coordinate values of the center of the image of the golf ball 48 in the learning input image are (a, b).

この場合、前処理部96は、図5に示す基礎画像に写るゴルフボール48の像の直径D1に基づいて、基礎画像の拡縮率をD0/D1と決定する。そして、前処理部96は、図5に示す基礎画像から4頂点の座標値がそれぞれ(x2-(D1/D0)×a,y2-(D1/D0)×b)、(x2-(D1/D0)×a,y2+(D1/D0)×(y0-b))、(x2+(D1/D0)×(x0-a),y2-(D1/D0)×b)、(x2+(D1/D0)×(x0-a),y2+(D1/D0)×(y0-b))である長方形の領域R1を切り出す。 In this case, the preprocessing unit 96 determines the expansion/contraction ratio of the basic image to be D0/D1 based on the diameter D1 of the image of the golf ball 48 shown in the basic image shown in FIG. Then, the preprocessing unit 96 calculates the coordinate values of the four vertices from the basic image shown in FIG. D0)×a,y2+(D1/D0)×(y0-b)),(x2+(D1/D0)×(x0-a),y2-(D1/D0)×b),(x2+(D1/D0) )×(x0-a), y2+(D1/D0)×(y0-b)).

ここで例えば、図5に示す基礎画像に写るゴルフボール48の像の直径D1が直径D0と同じである場合は、図5に示す基礎画像から4頂点の座標値がそれぞれ(x2-a,y2-b)、(x2-a,y2+(y0-b))、(x2+(x0-a),y2-b)、(x2+(x0-a),y2+(y0-b))である長方形の領域R1が切り出される。 For example, if the diameter D1 of the image of the golf ball 48 in the basic image shown in FIG. 5 is the same as the diameter D0, the coordinate values of the four vertices from the basic image shown in FIG. -b), (x2-a, y2+(y0-b)), (x2+(x0-a), y2-b), (x2+(x0-a), y2+(y0-b)) R1 is cut out.

そして、前処理部96は、切り出された領域R1の縦横の長さをD0/D1倍にした学習入力画像を生成する。なお、図5に示す基礎画像に写るゴルフボール48の像の直径D1が直径D0と同じである場合は、基礎画像から領域R1を切り出した画像自体が学習入力画像となる。このようにして、図5に示す基礎画像に対応する学習入力画像が生成される。 The preprocessing unit 96 then generates a learning input image in which the vertical and horizontal lengths of the cut out region R1 are multiplied by D0/D1. Note that if the diameter D1 of the image of the golf ball 48 in the basic image shown in FIG. 5 is the same as the diameter D0, the image itself obtained by cutting out the region R1 from the basic image becomes the learning input image. In this way, a learning input image corresponding to the basic image shown in FIG. 5 is generated.

図7は、基礎画像の別の一例を模式的に示す図である。図7に示す基礎画像には、ゴルフボール48、ティー50、ゴルフクラブ100の像が写っている。図7に示す基礎画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。そして、図7の示す基礎画像の縦の長さがx3であり、横の長さがy3であるとする。また、基礎画像に写るゴルフボール48の像の直径はD2であることとする。また、基礎画像に写るゴルフボール48の像の中心の座標値が(x4,y4)であることとする。 FIG. 7 is a diagram schematically showing another example of the basic image. The basic image shown in FIG. 7 includes images of a golf ball 48, a tee 50, and a golf club 100. In the basic image shown in FIG. 7, the downward direction is the X-axis positive direction, and the right direction is the Y-axis positive direction. Assume that the basic image shown in FIG. 7 has a vertical length of x3 and a horizontal length of y3. Further, it is assumed that the diameter of the image of the golf ball 48 in the basic image is D2. It is also assumed that the coordinate values of the center of the image of the golf ball 48 in the basic image are (x4, y4).

この場合、前処理部96は、図7に示す基礎画像に写るゴルフボール48の像の直径D2に基づいて、基礎画像の拡縮率をD0/D2と決定する。そして、前処理部96は、図7に示す基礎画像から4頂点の座標値がそれぞれ(x4-(D2/D0)×a,y4-(D2/D0)×b)、(x4-(D2/D0)×a,y4+(D2/D0)×(y0-b))、(x4+(D2/D0)×(x0-a),y4-(D2/D0)×b)、(x4+(D2/D0)×(x0-a),y4+(D2/D0)×(y0-b))である長方形の領域R2を切り出す。 In this case, the preprocessing unit 96 determines the expansion/contraction ratio of the basic image to be D0/D2 based on the diameter D2 of the image of the golf ball 48 shown in the basic image shown in FIG. Then, the preprocessing unit 96 calculates the coordinate values of the four vertices from the basic image shown in FIG. D0)×a, y4+(D2/D0)×(y0-b)), (x4+(D2/D0)×(x0-a), y4-(D2/D0)×b), (x4+(D2/D0) )×(x0-a), y4+(D2/D0)×(y0-b)).

ここで例えば、図7に示す基礎画像に写るゴルフボール48の像の直径D2が直径D0の125%である場合は、図7に示す基礎画像から4頂点の座標値がそれぞれ(x4-1.25×a,y4-1.25×b)、(x4-1.25×a,y4+1.25×(y0-b))、(x4+1.25×(x0-a),y4-1.25×b)、(x4+1.25×(x0-a),y4+1.25×(y0-b))である長方形の領域R2が切り出される。 For example, if the diameter D2 of the image of the golf ball 48 in the basic image shown in FIG. 7 is 125% of the diameter D0, the coordinate values of the four vertices from the basic image shown in FIG. 7 are (x4-1. 25×a, y4-1.25×b), (x4-1.25×a, y4+1.25×(y0-b)), (x4+1.25×(x0-a), y4-1.25× b), a rectangular region R2 of (x4+1.25×(x0-a), y4+1.25×(y0-b)) is cut out.

そして、前処理部96は、切り出された領域R2の縦横の長さをD0/D2倍にした学習入力画像を生成する。なお、図7に示す基礎画像に写るゴルフボール48の像の直径D2が直径D0の125%である場合は、基礎画像から領域R2を切り出した画像の縦横の長さを80%にした学習入力画像が生成される。このようにして、図7に示す基礎画像に対応する学習入力画像が生成される。 Then, the preprocessing unit 96 generates a learning input image in which the vertical and horizontal lengths of the cut out region R2 are doubled by D0/D. Note that if the diameter D2 of the image of the golf ball 48 in the basic image shown in FIG. 7 is 125% of the diameter D0, the learning input is such that the vertical and horizontal lengths of the image cut out from the basic image are 80%. An image is generated. In this way, a learning input image corresponding to the basic image shown in FIG. 7 is generated.

以上のようにして、図5に示す基礎画像に基づく学習入力画像も、図7に示す基礎画像に基づく学習入力画像も、学習入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置(例えば、中心の座標値が(a,b)である位置)となる。また、図5に示す基礎画像に基づく学習入力画像も、図7に示す基礎画像に基づく学習入力画像も、学習入力画像内におけるゴルフボール48の画像が占める領域の直径は所定の長さ(例えば、D0)となる。 As described above, both the learning input image based on the basic image shown in FIG. 5 and the learning input image based on the basic image shown in FIG. The position (for example, the position where the center coordinate values are (a, b)). Furthermore, in both the learning input image based on the basic image shown in FIG. 5 and the learning input image based on the basic image shown in FIG. , D0).

また、基礎画像がティー50をさらに表す画像であってもよい。そして、前処理部96が、ティー50の向きが所定の向きとなるよう画像全体が回転された学習入力画像を生成する。 Further, the basic image may be an image that further represents the tee 50. Then, the preprocessing unit 96 generates a learning input image in which the entire image is rotated so that the orientation of the tee 50 is in a predetermined orientation.

また、基礎画像が人工芝をさらに表す画像であってもよい。そして、前処理部96が、人工芝の縁の向きが所定の向きとなるよう画像全体が回転された学習入力画像を生成してもよい。 Furthermore, the basic image may be an image that further represents artificial turf. The preprocessing unit 96 may then generate a learning input image in which the entire image is rotated so that the edge of the artificial grass is oriented in a predetermined direction.

図8は、基礎画像のさらに別の一例を模式的に示す図である。ここで前処理部96が、前処理部96は、ティー50の向きが上下方向となるよう図8に示す基礎画像を回転させてもよい。あるいは、前処理部96は、人工芝の縁102の向きが左右方向となるよう図8に示す基礎画像を回転させてもよい。そして、図5及び図7に示す基礎画像を参照して説明した上述の処理と同様の処理を、回転後の基礎画像に対して実行することにより、図8に示す基礎画像から長方形の領域R3が切り出されてもよい。そして、切り出された領域R3に基づく学習入力画像が生成されてもよい。例えば、切り出された領域R3を上述のようにして拡大又は縮小することで学習入力画像が生成されてもよい。 FIG. 8 is a diagram schematically showing yet another example of the basic image. Here, the preprocessing unit 96 may rotate the basic image shown in FIG. 8 so that the tee 50 is oriented in the vertical direction. Alternatively, the preprocessing unit 96 may rotate the basic image shown in FIG. 8 so that the edge 102 of the artificial grass is oriented in the left-right direction. Then, by performing processing similar to the above-described processing described with reference to the basic images shown in FIGS. 5 and 7 on the rotated basic image, the rectangular region R3 is extracted from the basic image shown in FIG. may be cut out. A learning input image may then be generated based on the cut out region R3. For example, the learning input image may be generated by enlarging or reducing the cut out region R3 as described above.

また、前処理部96は、ゴルフボール48の画像が占める領域の色が所定色となるよう画像全体が色補正された学習入力画像を生成してもよい。ここで例えば、前処理部96は、ゴルフボール48の画像が占める領域の色に基づいて、複数の所定色(例えば、白、黄色、ピンク)のうちから、最も色差が小さい色を特定してもよい。そして、前処理部96は、ゴルフボール48の画像が占める領域が特定された色となるよう画像全体を色補正することにより、学習入力画像を生成してもよい。 Further, the preprocessing unit 96 may generate a learning input image in which the entire image is color-corrected so that the color of the area occupied by the image of the golf ball 48 becomes a predetermined color. Here, for example, the preprocessing unit 96 identifies a color with the smallest color difference from among a plurality of predetermined colors (for example, white, yellow, pink) based on the color of the area occupied by the image of the golf ball 48. Good too. The preprocessing unit 96 may then generate the learning input image by color-correcting the entire image so that the area occupied by the image of the golf ball 48 has the specified color.

また、基礎画像に人工芝の像が含まれている場合に、前処理部96は、人工芝の画像が示す領域の色が所定色(例えば、緑色)となるよう画像全体が色補正された学習入力画像を生成してもよい。 Further, when the basic image includes an image of artificial turf, the preprocessing unit 96 performs color correction on the entire image so that the color of the area indicated by the image of artificial turf is a predetermined color (for example, green). A learning input image may also be generated.

なお、図5、図7、図8に示す基礎画像にはドライバーが写っている。しかし、上述のように、複数の学習データのそれぞれに含まれる基礎画像には、ドライバーに限らず、フェアウェイウッド、ユーティリティ、アイアン、ウェッジなど様々な番手のゴルフクラブ100が写っていることが望ましい。また、複数の学習データのそれぞれに含まれる基礎画像には、様々なモデルや型番のゴルフクラブ100が写っていることが望ましい。 Note that the basic images shown in FIGS. 5, 7, and 8 include a driver. However, as described above, it is desirable that the basic images included in each of the plurality of learning data include golf clubs 100 of various sizes, including not only drivers but also fairway woods, utilities, irons, wedges, and the like. Furthermore, it is desirable that the basic images included in each of the plurality of pieces of learning data include golf clubs 100 of various models and model numbers.

学習部98は、本実施形態では例えば、学習入力画像を機械学習モデル90に入力した際の出力を用いて、機械学習モデル90の学習を実行する。ここで例えば、学習データに含まれる基礎画像に基づいて生成された学習入力画像を機械学習モデル90に入力した際の出力と、当該学習データに含まれる教師データと、が比較されてもよい。そして当該比較の結果に基づいて機械学習モデル90のパラメータの値が更新される教師あり学習が実行されてもよい。 In this embodiment, the learning unit 98 executes learning of the machine learning model 90 using, for example, an output when a learning input image is input to the machine learning model 90. Here, for example, the output when a learning input image generated based on a basic image included in the learning data is input into the machine learning model 90 and the teacher data included in the learning data may be compared. Then, supervised learning may be performed in which the values of the parameters of the machine learning model 90 are updated based on the results of the comparison.

ここで、本実施形態に係る学習装置70で行われる学習処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。ここでは例えば複数の学習データが学習データ記憶部92に記憶されていることとする。 Here, an example of the flow of the learning process performed by the learning device 70 according to the present embodiment will be described with reference to the flow diagram illustrated in FIG. 9. Here, for example, it is assumed that a plurality of pieces of learning data are stored in the learning data storage section 92.

まず、学習データ取得部94が、学習データ記憶部92に記憶されている複数の学習データのうち、S102~S104に示す処理が実行されていないものを1つ取得する(S101)。 First, the learning data acquisition unit 94 acquires one piece of learning data that has not been subjected to the processes shown in S102 to S104 from among the plurality of pieces of learning data stored in the learning data storage unit 92 (S101).

そして、前処理部96が、S101に示す処理で取得された学習データに含まれる基礎画像に基づいて、上述のようにして、当該基礎画像に対応する学習入力画像を生成する(S102)。 Then, the preprocessing unit 96 generates a learning input image corresponding to the basic image as described above, based on the basic image included in the learning data acquired in the process shown in S101 (S102).

そして、学習部98が、S102に示す処理で生成された学習入力画像を機械学習モデル90に入力する(S103)。 Then, the learning unit 98 inputs the learning input image generated in the process shown in S102 to the machine learning model 90 (S103).

そして、学習部98が、S103に示す処理における学習入力画像の入力に応じた機械学習モデル90の出力を用いた、機械学習モデル90の学習を実行する(S104)。ここで例えば、当該出力と、S101に示す処理で取得された学習データに含まれる教師データと、の比較に基づいて、機械学習モデル90のパラメータの値が更新されてもよい。 Then, the learning unit 98 executes learning of the machine learning model 90 using the output of the machine learning model 90 according to the input of the learning input image in the process shown in S103 (S104). Here, for example, the values of the parameters of the machine learning model 90 may be updated based on a comparison between the output and the teacher data included in the learning data acquired in the process shown in S101.

そして学習部98が、学習データ記憶部92に記憶されている複数の学習データのすべてについてS102~S104に示す処理が実行されたか否かを確認する(S105)。 The learning unit 98 then checks whether the processes shown in S102 to S104 have been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105).

学習データ記憶部92に記憶されている複数の学習データのすべてについてS102~S104に示す処理が実行されていないことが確認された場合は(S105:N)、S101に示す処理に戻る。 If it is confirmed that the processes shown in S102 to S104 have not been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105: N), the process returns to S101.

学習データ記憶部92に記憶されている複数の学習データのすべてについてS102~S104に示す処理が実行されたことが確認された場合は(S105:Y)、本処理例に示す処理は終了される。 If it is confirmed that the processes shown in S102 to S104 have been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105: Y), the process shown in this processing example is ended. .

本実施形態では、以上のようにして複数の学習データが学習された学習済の機械学習モデル90が生成される。そして生成された機械学習モデル90は、ショット管理装置10の記憶部14に記憶される。 In this embodiment, a trained machine learning model 90 in which a plurality of learning data are trained is generated as described above. The generated machine learning model 90 is then stored in the storage unit 14 of the shot management device 10.

そして、本実施形態では、ショット管理装置10に記憶された学習済の機械学習モデル90を用いて、ヘッド撮影装置34のカメラ60により撮影される画像に写っているゴルフクラブの種類の推定が行われる。 In this embodiment, the learned machine learning model 90 stored in the shot management device 10 is used to estimate the type of golf club shown in the image captured by the camera 60 of the head imaging device 34. be exposed.

以下、ヘッド撮影装置34のカメラ60により撮影される画像に写っているゴルフクラブの種類の推定を中心に、本実施形態に係るショット管理装置10の機能、及び、ショット管理装置10で実行される処理について、さらに説明する。 Hereinafter, the functions of the shot management device 10 according to the present embodiment and the functions executed by the shot management device 10 will be mainly focused on estimating the type of golf club shown in the image photographed by the camera 60 of the head photographing device 34. The processing will be further explained.

図10は、本実施形態に係るショット管理装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るショット管理装置10で、図10に示す機能のすべてが実装される必要はなく、また、図10に示す機能以外の機能が実装されていても構わない。 FIG. 10 is a functional block diagram showing an example of functions implemented in the shot management device 10 according to this embodiment. Note that the shot management device 10 according to this embodiment does not need to implement all of the functions shown in FIG. 10, and functions other than those shown in FIG. 10 may be implemented.

図10に示すように、ショット管理装置10には、機能的には例えば、機械学習モデル90、受信部110、ショットデータ生成部112、ターゲット画像特定部114、クラブ種類推定部116、ショット管理データ生成部118、ショット管理データ記憶部120、集計部122、提供部124、が含まれる。 As shown in FIG. 10, the shot management device 10 functionally includes, for example, a machine learning model 90, a reception section 110, a shot data generation section 112, a target image identification section 114, a club type estimation section 116, and shot management data. It includes a generation section 118, a shot management data storage section 120, an aggregation section 122, and a provision section 124.

機械学習モデル90は、プロセッサ12及び記憶部14を主として実装される。受信部110は、通信部16を主として実装される。ショットデータ生成部112、ターゲット画像特定部114、クラブ種類推定部116、ショット管理データ生成部118、集計部122は、プロセッサ12を主として実装される。ショット管理データ記憶部120は、記憶部14を主として実装される。提供部124は、プロセッサ12及び表示部18を主として実装される。 The machine learning model 90 is mainly implemented using the processor 12 and the storage unit 14. The receiving section 110 is mainly implemented with the communication section 16. The shot data generation section 112, the target image identification section 114, the club type estimation section 116, the shot management data generation section 118, and the aggregation section 122 are mainly implemented using the processor 12. The shot management data storage section 120 is mainly implemented using the storage section 14 . The providing unit 124 is mainly implemented with the processor 12 and the display unit 18.

以上の機能は、コンピュータであるショット管理装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してショット管理装置10に供給されてもよい。 The above functions may be implemented by having the processor 12 execute a program that is installed in the shot management device 10, which is a computer, and includes commands corresponding to the above functions. This program may be supplied to the shot management device 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet. .

機械学習モデル90は、本実施形態では例えば、図4~図9を参照して説明したようにして生成された学習済の機械学習モデルである。 In this embodiment, the machine learning model 90 is, for example, a trained machine learning model generated as described with reference to FIGS. 4 to 9.

受信部110は、本実施形態では例えば、ヘッドスピードデータ、ステレオカメラ42により撮影された画像、カメラ54により撮影された画像、及び、カメラ60により撮影された画像をショット測定装置22から受信する。 In this embodiment, the receiving unit 110 receives, for example, head speed data, an image taken by the stereo camera 42, an image taken by the camera 54, and an image taken by the camera 60 from the shot measuring device 22.

本実施形態では、1回のショットが行われる度に、受信部110は、当該ショットに対応付けられるヘッドスピードデータを弾道測定器30から受信する。また、受信部110は、当該ショットに対応付けられる、ステレオカメラ42により撮影された1又は複数の画像を弾道測定器30から受信する。また、受信部110は、当該ショットに対応付けられる、カメラ54により撮影された1又は複数の画像をヘッド挙動測定器32から受信する。また、受信部110は、当該ショットに対応付けられる、カメラ60により撮影された1又は複数の画像をヘッド撮影装置34から受信する。 In this embodiment, every time one shot is performed, the receiving unit 110 receives head speed data associated with the shot from the trajectory measuring device 30. The receiving unit 110 also receives one or more images taken by the stereo camera 42 and associated with the shot from the trajectory measuring device 30. The receiving unit 110 also receives from the head behavior measuring device 32 one or more images taken by the camera 54 and associated with the shot. Further, the receiving unit 110 receives from the head photographing device 34 one or more images photographed by the camera 60 and associated with the shot.

また、受信部110が、ボール有無判別センサ44から送信される上述の配置検出信号を受信してもよい。また、受信部110が、ボール有無判別センサ44から送信される上述のショット検出信号を受信してもよい。また、受信部110が、通過センサ58から送信される上述の通過検出信号を受信してもよい。 Further, the receiving unit 110 may receive the above-described placement detection signal transmitted from the ball presence/absence determination sensor 44. Further, the receiving unit 110 may receive the above-described shot detection signal transmitted from the ball presence/absence determination sensor 44. Further, the receiving unit 110 may receive the above-mentioned passage detection signal transmitted from the passage sensor 58.

ショットデータ生成部112は、本実施形態では例えば、ゴルフボール48をショットする際の当該ゴルフボール48をショットするゴルフクラブの挙動又はゴルフボール48の挙動のうちの少なくとも一方を示すショットデータを生成する。ここでは例えば、上述のボールデータ、及び、上述のクラブデータを含む、ショットデータが生成される。 In this embodiment, for example, the shot data generation unit 112 generates shot data that indicates at least one of the behavior of the golf club that shoots the golf ball 48 or the behavior of the golf ball 48 when the golf ball 48 is shot. . Here, for example, shot data including the above-mentioned ball data and the above-mentioned club data is generated.

ターゲット画像特定部114は、本実施形態では例えば、受信部110が受信する、1回のショットに対応付けられる、カメラ60により撮影された1又は複数の画像のうちから、ゴルフクラブの推定に用いられるターゲット画像を特定する。本実施形態に係るターゲット画像には、ゴルフボール48及び当該ゴルフボール48をショットするゴルフクラブが表れている。 In this embodiment, the target image specifying unit 114 uses, for example, one or more images received by the receiving unit 110 and received by the camera 60 to estimate a golf club, and which is associated with one shot. Identify the target image that will be displayed. The target image according to this embodiment shows a golf ball 48 and a golf club that shoots the golf ball 48.

ターゲット画像特定部114は、例えば、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像を、ターゲット画像に特定してもよい。この場合、例えば、配置検出信号の受信タイミングが、アドレスのタイミングとして取り扱われてもよい。また、例えば、ショット検出信号の受信タイミングが、ショットのタイミングとして取り扱われてもよい。 For example, the target image specifying unit 114 may specify, as the target image, an image photographed between the timing of the address in the shot and the timing of the shot. In this case, for example, the timing of receiving the placement detection signal may be treated as the timing of the address. Further, for example, the reception timing of the shot detection signal may be treated as the shot timing.

ここで、ターゲット画像特定部114は、例えば、検出されるショットのタイミングの所定時間前にカメラ60によって撮影された画像を、ターゲット画像に特定してもよい。 Here, the target image specifying unit 114 may specify, as the target image, for example, an image photographed by the camera 60 a predetermined time before the timing of the detected shot.

例えば、ターゲット画像特定部114が、ゴルフボール48が配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前にカメラ60によって撮影された画像を、ターゲット画像に特定してもよい。例えば、ショット検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、ターゲット画像に特定されてもよい。 For example, the target image identifying unit 114 identifies, as the target image, an image taken by the camera 60 a predetermined time before the timing at which a change from the state where the golf ball 48 is placed to the state where the golf ball 48 is not placed is detected. You may. For example, an image taken by the camera 60 a predetermined time before the shot detection signal is received may be specified as the target image.

また、ターゲット画像特定部114は、ゴルフクラブの通過が検出されたタイミングの所定時間前にカメラ60によって撮影された画像を、ターゲット画像に特定してもよい。例えば、通過検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、ターゲット画像に特定されてもよい。 Further, the target image specifying unit 114 may specify, as the target image, an image photographed by the camera 60 a predetermined time before the timing at which passage of the golf club is detected. For example, an image taken by the camera 60 a predetermined time before the passing detection signal is received may be specified as the target image.

また、ターゲット画像特定部114は、受信部110が通過検出信号を受信してから所定時間以内にショット検出信号を受信した際に、ショットが行われたことを特定してもよい。そして、このようにしてショットが行われたことが特定された場合に、ショット検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、ターゲット画像に特定されてもよい。あるいは、このようにしてショットのタイミングが特定された場合に、通過検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、ターゲット画像に特定されてもよい。 Further, the target image specifying unit 114 may specify that a shot has been taken when the receiving unit 110 receives a shot detection signal within a predetermined time after receiving the passing detection signal. When it is determined that a shot has been taken in this way, an image taken by the camera 60 a predetermined time before the timing at which the shot detection signal was received may be specified as the target image. Alternatively, when the shot timing is specified in this way, an image taken by the camera 60 a predetermined time before the timing at which the passing detection signal is received may be specified as the target image.

また、上述のように、ボール有無判別センサ44による配置検出がされたタイミングにカメラ60による画像の撮影が開始されてもよい。そして、ターゲット画像特定部114は、配置検出がされたタイミング以後にカメラ60によって撮影された画像を、ターゲット画像に特定してもよい。 Furthermore, as described above, the camera 60 may start capturing images at the timing when the ball presence/absence determination sensor 44 detects the placement. Then, the target image specifying unit 114 may specify, as the target image, an image photographed by the camera 60 after the timing at which the arrangement is detected.

クラブ種類推定部116は、本実施形態では例えば、ターゲット画像に基づいて、当該ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定する。ここで、クラブ種類推定部116は、学習済の機械学習モデル90にターゲット画像を入力した際の出力に基づいて、当該ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定してもよい。そして、クラブ種類推定部116は、本実施形態では例えば、推定されたゴルフクラブの種類を示すクラブ種類データを生成する。 In this embodiment, the club type estimating unit 116 estimates the type of golf club used for the shot represented by the target image, for example, based on the target image. Here, the club type estimating unit 116 may estimate the type of golf club used for the shot represented by the target image based on the output when the target image is input to the trained machine learning model 90. . In this embodiment, the club type estimation unit 116 generates, for example, club type data indicating the estimated type of golf club.

ショット管理データ生成部118は、本実施形態では例えば、1回のショットに対応付けられる上述のショットデータに、当該ショットについてクラブ種類推定部116によって推定されるゴルフクラブの種類を示すクラブ種類データを関連付ける。ここでは例えば、1回のショットに対応付けられる上述のショットデータと、当該ショットについて推定されたゴルフクラブの種類を示すクラブ種類データと、を含むショット管理データが生成される。なお、ショット管理データに、例えば、ショット検出信号の受信時刻などといったショットタイミングを示すショットタイミングデータが含まれるようにしてもよい。 In this embodiment, the shot management data generation unit 118 adds, for example, club type data indicating the type of golf club estimated by the club type estimation unit 116 for the shot to the above-mentioned shot data associated with one shot. associate. Here, for example, shot management data is generated that includes the above-mentioned shot data associated with one shot and club type data indicating the type of golf club estimated for the shot. Note that the shot management data may include shot timing data indicating shot timing such as the reception time of the shot detection signal, for example.

ショット管理データ記憶部120は、本実施形態では例えば、ショット管理データ生成部118により生成されるショット管理データを記憶する。本実施形態ではショットが行われる度に、当該ショットに対応するショット管理データが生成される。そして、生成されるショット管理データがショット管理データ記憶部120に記憶される。 In this embodiment, the shot management data storage unit 120 stores, for example, shot management data generated by the shot management data generation unit 118. In this embodiment, each time a shot is performed, shot management data corresponding to the shot is generated. The generated shot management data is then stored in the shot management data storage section 120.

集計部122は、本実施形態では例えば、ショット管理データ記憶部120に記憶されている複数のショット管理データを集計する。ここで、集計部122が、例えば、共通のゴルフクラブの種類に関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部122が、ユーザにより指定された種類を示すクラブ種類データを含む複数のショット管理データを特定してもよい。 In this embodiment, the totaling unit 122 totals, for example, a plurality of shot management data stored in the shot management data storage unit 120. Here, the aggregation unit 122 may calculate, for example, a representative value of the values indicated by each of the plurality of shot data associated with a common type of golf club. For example, the aggregation unit 122 may specify a plurality of shot management data including club type data indicating the type specified by the user.

そして、集計部122が、当該複数のショット管理データにそれぞれに含まれるショットデータが示す値の代表値を計算してもよい。 Then, the aggregation unit 122 may calculate a representative value of the values indicated by the shot data included in each of the plurality of shot management data.

例えば、ボールスピードデータ、打出し角度データ、スピン量データ、飛距離データ、ヘッドスピードデータ、フェーススピードデータ、ヘッド軌道データ、ダイナミックロフトデータ、フェース角データ、ライ角データ、打点位置データ、法線角度データ、又は、フェースローテーションデータのうちの少なくとも1つについて、当該データの値の代表値(例えば、平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つ)が計算されてもよい。 For example, ball speed data, launch angle data, spin rate data, flight distance data, head speed data, face speed data, head trajectory data, dynamic loft data, face angle data, lie angle data, RBI position data, normal angle. For at least one of the data or face rotation data, a representative value (for example, at least one of the average value, standard deviation, maximum value, or minimum value) of the data may be calculated. good.

提供部124は、本実施形態では、集計部122により計算される集計結果をユーザに提供する。ここで、提供部124は、本実施形態では、集計部122により計算される集計結果を表示部18に表示させてもよい。また、集計部122により計算される集計結果が印刷出力されてもよい。 In this embodiment, the providing unit 124 provides the user with the total results calculated by the totaling unit 122. Here, in this embodiment, the providing unit 124 may display the total results calculated by the totaling unit 122 on the display unit 18. Further, the total results calculated by the total unit 122 may be printed out.

ここで、例えば、集計部122が、ユーザによるゴルフクラブの種類の指定に応じて、集計部122が当該種類に関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部122が、指定された種類を示すクラブ種類データを含む複数のショット管理データを特定してもよい。そして、集計部122が、これら複数のショット管理データが示す値の代表値を計算してもよい。そして、提供部124が、計算された代表値を、表示部18に表示させたり、印刷出力したりしてもよい。ここで、提供部124は、これら複数のショット管理データのそれぞれが示す値の一覧を併せて表示部18に表示させたり、印刷出力したりしてもよい。 Here, for example, in response to the user's designation of the type of golf club, the aggregation unit 122 may calculate a representative value of the values indicated by each of the plurality of shot data associated with the type. good. For example, the totaling unit 122 may specify a plurality of shot management data including club type data indicating the specified type. Then, the aggregation unit 122 may calculate a representative value of the values indicated by the plurality of shot management data. Then, the providing unit 124 may display the calculated representative value on the display unit 18 or print it out. Here, the providing unit 124 may display on the display unit 18 or print out a list of values indicated by each of the plurality of shot management data.

また、提供部124が、ゴルフクラブの種類ごとに、当該種類に対応する複数のショット管理データが示す値の代表値を計算してもよい。そして、ゴルフクラブの種類ごとの代表値の一覧を、表示部18に表示させたり、印刷出力したりしてもよい。 Further, the providing unit 124 may calculate, for each type of golf club, a representative value of the values indicated by a plurality of shot management data corresponding to the type. Then, a list of representative values for each type of golf club may be displayed on the display unit 18 or may be printed out.

ここで、本実施形態に係るショット管理装置10で行われる処理の流れの一例を、図11に例示するフロー図を参照しながら説明する。図11に示す処理例では、ショット検出信号の受信に応じて、1回のショットに対応付けられるショット管理データが生成され、記憶される。 Here, an example of the flow of processing performed by the shot management device 10 according to the present embodiment will be described with reference to a flowchart illustrated in FIG. 11. In the processing example shown in FIG. 11, shot management data associated with one shot is generated and stored in response to reception of a shot detection signal.

まず、ショットデータ生成部112が、受信部110によるショット検出信号の受信を待機する(S201)。 First, the shot data generation unit 112 waits for reception of a shot detection signal by the reception unit 110 (S201).

そして、受信部110によるショット検出信号の受信が検出されると、ショットデータ生成部112は、ショットデータを生成する(S202)。ここでは例えば、受信部110が、ショット検出信号の受信タイミング以前又は以後の所定時間以内に、弾道測定器30及びヘッド挙動測定器32から受信した画像、並びに、弾道測定器30から受信したヘッドスピードデータが特定される。そして、特定された画像及びヘッドスピードデータに基づいて、ショットデータが生成される。 Then, when receiving the shot detection signal by the receiving unit 110 is detected, the shot data generating unit 112 generates shot data (S202). Here, for example, the receiving unit 110 receives images received from the trajectory measuring device 30 and head behavior measuring device 32, and head speed received from the trajectory measuring device 30 within a predetermined time before or after the reception timing of the shot detection signal. Data is identified. Then, shot data is generated based on the specified image and head speed data.

そして、ターゲット画像特定部114が、上述のようにして、ターゲット画像を特定する(S203)。 Then, the target image identifying unit 114 identifies the target image as described above (S203).

そして、クラブ種類推定部116が、S203に示す処理で特定されたターゲット画像に基づいて、当該ターゲット画像に表れているゴルフクラブの種類を推定し、推定されたゴルフクラブの種類を示すクラブ種類データを生成する(S204)。ここで上述のように、ターゲット画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類が推定されてもよい。 Then, the club type estimating unit 116 estimates the type of golf club appearing in the target image based on the target image specified in the process shown in S203, and club type data indicating the estimated type of golf club. is generated (S204). Here, as described above, the type of golf club may be estimated based on the output when the target image is input to the machine learning model 90.

そして、ショット管理データ生成部118が、S202に示す処理で生成されたショットデータと、S204に示す処理で生成されたクラブ種類データと、を含むショット管理データを生成する(S205)。 Then, the shot management data generation unit 118 generates shot management data including the shot data generated in the process shown in S202 and the club type data generated in the process shown in S204 (S205).

そして、ショット管理データ生成部118が、S205に示す処理で生成されたショット管理データをショット管理データ記憶部120に記憶させて(S206)、本処理例に示す処理は終了される。 Then, the shot management data generation unit 118 stores the shot management data generated in the process shown in S205 in the shot management data storage unit 120 (S206), and the process shown in the present process example ends.

本実施形態では、基礎画像に対して前処理が実行されることで生成される学習入力画像により、機械学習モデル90の学習が実行される。そのため、ゴルフクラブの種類を的確に推定できる機械学習モデル90の学習を少ない画像を用いて行うことができることとなる。 In this embodiment, learning of the machine learning model 90 is performed using a learning input image generated by performing preprocessing on a basic image. Therefore, the machine learning model 90 that can accurately estimate the type of golf club can be trained using fewer images.

また、本実施形態では、集計部122により、ゴルフクラブの種類ごとのショットデータが集計される。そのため、本実施形態によれば、ゴルフクラブの種類ごとのショットデータの集計の手間を低減できることとなる。 Further, in the present embodiment, the aggregation unit 122 aggregates shot data for each type of golf club. Therefore, according to the present embodiment, it is possible to reduce the effort required to compile shot data for each type of golf club.

なお、本実施形態において、クラブ種類推定部116が、ターゲット画像内においてゴルフボール48の画像が占める領域の位置、大きさ、又は、色のうちの少なくとも1つに基づいて、ゴルフクラブ及びゴルフボール48を少なくとも表す、ターゲット画像とは異なる、入力画像を生成してもよい。例えば、基礎画像に基づいて学習入力画像を生成する際に用いられるアルゴリズムと同様のアルゴリズムにより、ターゲット画像に基づいて入力画像が生成されてもよい。 In this embodiment, the club type estimating unit 116 determines the golf club and the golf ball based on at least one of the position, size, or color of the area occupied by the image of the golf ball 48 in the target image. An input image different from the target image may be generated that represents at least 48. For example, the input image may be generated based on the target image using an algorithm similar to the algorithm used when generating the learning input image based on the basic image.

例えば、クラブ種類推定部116が、入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置である入力画像を生成してもよい。 For example, the club type estimation unit 116 may generate an input image in which the position of the area occupied by the image of the golf ball 48 in the input image is a predetermined position.

また、例えば、クラブ種類推定部116が、ゴルフボール48の画像が占める領域の大きさが所定の大きさである入力画像を生成してもよい。 Further, for example, the club type estimation unit 116 may generate an input image in which the area occupied by the image of the golf ball 48 has a predetermined size.

また、例えば、クラブ種類推定部116が、ゴルフボール48の画像が占める領域の色が所定色となるよう画像全体が色補正された入力画像を生成してもよい。 Further, for example, the club type estimating unit 116 may generate an input image in which the entire image is color-corrected so that the color of the area occupied by the image of the golf ball 48 is a predetermined color.

また、例えば、ターゲット画像が、人工芝をさらに表す画像であり、クラブ種類推定部116が、人工芝の画像が示す領域の色が所定色となるよう画像全体が色補正された入力画像を生成してもよい。 Further, for example, the target image is an image that further represents artificial turf, and the club type estimation unit 116 generates an input image in which the entire image is color-corrected so that the color of the area indicated by the artificial turf image is a predetermined color. You may.

また、例えば、クラブ種類推定部116が、人工芝の縁の向きが所定の向きとなるよう画像全体が回転された入力画像を生成してもよい。 Further, for example, the club type estimating unit 116 may generate an input image in which the entire image is rotated so that the edge of the artificial grass is oriented in a predetermined direction.

また、例えば、ターゲット画像が、ティー50をさらに表す画像であり、クラブ種類推定部116が、ティー50の向きが所定の向きとなるよう画像全体が回転された入力画像を生成してもよい。 Further, for example, the target image is an image that further represents the tee 50, and the club type estimating unit 116 may generate an input image in which the entire image is rotated so that the orientation of the tee 50 is a predetermined orientation.

そして、クラブ種類推定部116が、入力画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類を推定してもよい。 Then, the club type estimating unit 116 may estimate the type of golf club based on the output when the input image is input to the machine learning model 90.

なおこの場合、機械学習モデル90が、前処理部96により生成される学習入力画像の入力に応じた出力を用いた学習が実行された機械学習モデルでなくても構わない。例えば、ゴルフクラブ及びゴルフボール48が所定の向きとなり、所定の画角で、所定の色味となるよう撮影された学習入力画像と、当該ゴルフクラブの種類を示す教師データと、を含むよう予め作成された複数の学習データを用いた学習が実行された機械学習モデルであっても構わない。 Note that in this case, the machine learning model 90 does not have to be a machine learning model that has undergone learning using an output corresponding to the input of the learning input image generated by the preprocessing unit 96. For example, the learning input image may be preset to include a learning input image that is photographed so that the golf club and the golf ball 48 are oriented in a predetermined direction, at a predetermined angle of view, and have a predetermined color tone, and training data indicating the type of the golf club. It may be a machine learning model that has been trained using a plurality of created training data.

以上のように、ゴルフボール48、ティー50、人工芝の像を頼りに、ターゲット画像に基づいて生成された、学習入力画像に似た入力画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類を推定してもよい。この場合、機械学習モデル90が前処理部96により生成される学習入力画像の入力に応じた出力を用いた学習が実行されたものであるか否かに関わらず、ゴルフクラブの種類を的確に推定できる機械学習モデル90の学習を少ない画像を用いて行うことができる。 As described above, based on the output when an input image similar to the learning input image, which is generated based on the target image and relying on the images of the golf ball 48, the tee 50, and the artificial turf, is input to the machine learning model 90. The type of golf club may also be estimated. In this case, the machine learning model 90 can accurately determine the type of golf club regardless of whether learning has been performed using the output according to the input of the learning input image generated by the preprocessing unit 96. The machine learning model 90 that can be estimated can be trained using a small number of images.

なお、本発明は上述の実施形態に限定されるものではない。 Note that the present invention is not limited to the above-described embodiments.

例えば、ショット測定装置22が打音を検出する打音検出センサを備えていてもよい。そして、打音検出センサによって打音が検出されたタイミングに、打音検出センサが、所定のショット検出信号をショット管理装置10に送信してもよい。そして、受信部110が当該ショット検出信号を受信してもよい。 For example, the shot measuring device 22 may include a hitting sound detection sensor that detects hitting sounds. Then, the hitting sound detection sensor may transmit a predetermined shot detection signal to the shot management device 10 at the timing when the hitting sound is detected by the hitting sound detection sensor. Then, the receiving unit 110 may receive the shot detection signal.

そしてこの場合に、ターゲット画像特定部114が、打音が検出されたタイミングの所定時間前にヘッド撮影装置34のカメラ60により撮影された画像を、ターゲット画像に特定してもよい。例えば、打音検出センサが送信するショット検出信号を受信部110が受信したタイミングの所定時間前にカメラ60により撮影された画像が、ターゲット画像に特定されてもよい。 In this case, the target image specifying unit 114 may specify, as the target image, an image photographed by the camera 60 of the head photographing device 34 a predetermined time before the timing at which the tapping sound was detected. For example, an image photographed by the camera 60 a predetermined time before the timing at which the receiving unit 110 receives the shot detection signal transmitted by the hitting sound detection sensor may be specified as the target image.

また、ショット管理装置10とショット測定装置22との役割分担は上述のものには限定されない。例えば、ショット管理装置10で実装される図10に示す機能の一部又は全部がショット測定装置22で実装されてもよい。また、例えば、ショット管理装置10でヘッドスピードデータが生成されてもよい。 Furthermore, the division of roles between the shot management device 10 and the shot measurement device 22 is not limited to the above-described one. For example, some or all of the functions shown in FIG. 10 implemented in the shot management device 10 may be implemented in the shot measurement device 22. Further, for example, head speed data may be generated by the shot management device 10.

また、ヘッド撮影装置34の機能が、ヘッド挙動測定器32に実装されていてもよい。 Further, the functions of the head photographing device 34 may be implemented in the head behavior measuring device 32.

また、例えば、図12に示すように、複数のショット測定システム1が、ショット管理装置10と同様の、パーソナルコンピュータなどのコンピュータである集計装置130と通信可能であってもよい。そして、それぞれのショット測定システム1が、ショット管理データ生成部118によって生成されたショット管理データを、集計装置130に送信してもよい。この場合、送信されるショット管理データには、当該ショット管理データを送信するショット測定システム1の識別情報が関連付けられていてもよい。 Further, for example, as shown in FIG. 12, a plurality of shot measurement systems 1 may be able to communicate with a totaling device 130, which is a computer such as a personal computer, similar to the shot management device 10. Then, each shot measurement system 1 may transmit the shot management data generated by the shot management data generation unit 118 to the aggregation device 130. In this case, the shot management data to be transmitted may be associated with identification information of the shot measurement system 1 that transmits the shot management data.

そして、集計装置130が、上述の集計部122や提供部124の機能を担っていてもよい。例えば、集計装置130が、上述したように、複数のショット測定システム1から受信した複数のショット管理データを集計してもよい。そして集計装置130が、集計装置130により計算される集計結果を、集計装置130のユーザに提供してもよい。 The aggregation device 130 may also have the functions of the aggregation section 122 and the provision section 124 described above. For example, the aggregation device 130 may aggregate a plurality of shot management data received from a plurality of shot measurement systems 1, as described above. The aggregation device 130 may then provide the user of the aggregation device 130 with the aggregation results calculated by the aggregation device 130.

複数のゴルフショップのそれぞれに、ショット測定システム1が設けられている場合に以上のようにすることで、複数のゴルフショップで生成されたショットデータを横断的に分析することができる。例えば、ゴルフショットごと、ショットに用いられたゴルフクラブの種類ごとのショットデータの分析を行うことができる。 By doing the above when each of a plurality of golf shops is provided with the shot measurement system 1, shot data generated at a plurality of golf shops can be analyzed in a cross-sectional manner. For example, shot data can be analyzed for each golf shot and for each type of golf club used for the shot.

なお、本実施形態に係るショット測定システム1が設けられる場所は特に問わず、例えば、ゴルフ練習場にショット測定システム1が設けられていてもよい。 Note that the location where the shot measurement system 1 according to the present embodiment is installed does not particularly matter; for example, the shot measurement system 1 may be installed at a golf driving range.

また、上述の集計部122や提供部124の機能に限らず、例えば、図10に示す機械学習モデル90、受信部110、ショットデータ生成部112、ターゲット画像特定部114、クラブ種類推定部116、ショット管理データ生成部118、ショット管理データ記憶部120の機能の一部又は全部が、集計装置130で実装されてもよい。 In addition to the functions of the aggregation unit 122 and the provision unit 124 described above, for example, the machine learning model 90 shown in FIG. A part or all of the functions of the shot management data generation section 118 and the shot management data storage section 120 may be implemented in the aggregation device 130.

また、クラブ種類推定部116は、学習済の機械学習モデル90を用いずに、ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定してもよい。 Further, the club type estimating unit 116 may estimate the type of golf club used for the shot represented by the target image without using the trained machine learning model 90.

例えば、クラブ種類推定部116が、ターゲット画像内のクラブヘッドに対応した特定範囲の画素値を有する画素を、例えば、人工芝等の緑色の背景に対応した画素値を有する画素から切り分けて抽出してもよい。 For example, the club type estimation unit 116 separates and extracts pixels having pixel values in a specific range corresponding to the club head in the target image from pixels having pixel values corresponding to a green background such as artificial turf. It's okay.

そして、クラブヘッドの大きさ、又は、クラブヘッドの形状に関する第1特徴情報が特定されてもよい。ここで、抽出されたクラブヘッドの像の画素の総数をクラブヘッドの大きさとしてもよい。また、抽出されたクラブヘッドの画像の領域から、クラブヘッドのシャフトが挿入される筒形状のソケット部の像を除去して得られるクラウン部及びサイド部の像の輪郭形状の情報が特定されてもよい。輪郭形状は、ウッド系のゴルフクラブの場合、種類によって大きく異なるので、抽出されたクラウン部の像の輪郭形状から、ゴルフクラブの種類を判別することができる。輪郭形状は、例えば輪郭を表す曲線の傾斜角度あるいは曲線の曲率によって特徴付けることができる。また、クラウン部及びサイド部の像の縦横比が特定されてもよい。 Then, first characteristic information regarding the size of the club head or the shape of the club head may be specified. Here, the total number of pixels of the extracted image of the club head may be taken as the size of the club head. Furthermore, from the extracted club head image area, information on the contour shapes of the crown and side images obtained by removing the image of the cylindrical socket into which the club head shaft is inserted is identified. Good too. In the case of wood-based golf clubs, the contour shape varies greatly depending on the type, so the type of golf club can be determined from the contour shape of the extracted crown image. The contour shape can be characterized, for example, by the inclination angle or curvature of a curved line representing the contour. Further, the aspect ratios of the images of the crown portion and the side portions may be specified.

そして、特定された第1特徴情報に基づいて、ゴルフクラブの種類が推定されてもよい。例えばクラブ種類推定部116が、第1特徴情報とゴルフクラブの種類とを対応付けた参照テーブルを予め保持していてもよい。そして、特定された第1特徴情報から、この参照テーブルを参照することにより、ゴルフクラブの種類が推定されてもよい。 Then, the type of golf club may be estimated based on the identified first feature information. For example, the club type estimating unit 116 may previously hold a reference table that associates the first feature information with the type of golf club. Then, the type of golf club may be estimated from the identified first feature information by referring to this reference table.

また、クラブ種類推定部116が、ゴルフクラブのモデル名あるいは型番と対応付けることができる、模様、記号、又は色彩のうちの少なくとも1つの第2特徴情報を有する複数のクラブヘッドの参照画像を予め保持していてもよい。そして、ターゲット画像内のクラブヘッドの像について、保持している参照画像を呼び出して、それぞれの参照画像中の第2特徴情報とのマッチングを行うことにより、ゴルフクラブのモデル名あるいは型番が推定されてもよい。 Further, the club type estimation unit 116 holds in advance reference images of a plurality of club heads having second characteristic information of at least one of a pattern, a symbol, or a color that can be associated with the model name or model number of the golf club. You may do so. Then, the model name or model number of the golf club is estimated by calling the retained reference images for the image of the club head in the target image and performing matching with the second feature information in each reference image. It's okay.

第2特徴情報は、クラブヘッドの輪郭形状、フェース面に設けられたスコアラインの模様、フェース面に設けられたパンチマークの形態、フェース面に形成された装飾模様、又はクラブヘッドに設けられたロゴマークの少なくともいずれか1つを含んでいてもよい。 The second characteristic information includes the outline shape of the club head, the score line pattern provided on the face surface, the form of punch marks provided on the face surface, the decorative pattern formed on the face surface, or the shape of the score line provided on the face surface, or the It may include at least one of the logo marks.

また、本実施形態において、ゴルフクラブの種類の推定結果に応じて、弾道測定器30のステレオカメラ42による撮影タイミング及び撮影範囲が変更されてもよい。 Furthermore, in the present embodiment, the timing and range of photography by the stereo camera 42 of the trajectory measuring device 30 may be changed depending on the estimation result of the type of golf club.

また、上記の具体的な数値は例示であり、これらの数値には限定されない。 Moreover, the above-mentioned specific numerical values are just examples, and the present invention is not limited to these numerical values.

1 ショット測定システム、10 ショット管理装置、12 プロセッサ、14 記憶部、16 通信部、18 表示部、20 操作部、22 ショット測定装置、30 弾道測定器、32 ヘッド挙動測定器、34 ヘッド撮影装置、40 フラッシュ光源、42 ステレオカメラ、44 ボール有無判別センサ、46 ヘッドスピードセンサ、48 ゴルフボール、50 ティー、52 フラッシュ光源、54 カメラ、56 反射板、58 通過センサ、60 カメラ、70 学習装置、72 プロセッサ、74 記憶部、76 通信部、78 表示部、80 操作部、90 機械学習モデル、92 学習データ記憶部、94 学習データ取得部、96 前処理部、98 学習部、100 ゴルフクラブ、102 縁、110 受信部、112 ショットデータ生成部、114 ターゲット画像特定部、116 クラブ種類推定部、118 ショット管理データ生成部、120 ショット管理データ記憶部、122 集計部、124 提供部、130 集計装置。 1 shot measurement system, 10 shot management device, 12 processor, 14 storage unit, 16 communication unit, 18 display unit, 20 operation unit, 22 shot measurement device, 30 trajectory measurement device, 32 head behavior measurement device, 34 head photography device, 40 flash light source, 42 stereo camera, 44 ball presence/absence determination sensor, 46 head speed sensor, 48 golf ball, 50 tee, 52 flash light source, 54 camera, 56 reflector, 58 passing sensor, 60 camera, 70 learning device, 72 processor , 74 storage unit, 76 communication unit, 78 display unit, 80 operation unit, 90 machine learning model, 92 learning data storage unit, 94 learning data acquisition unit, 96 preprocessing unit, 98 learning unit, 100 golf club, 102 edge, Reference Signs List 110 receiving unit, 112 shot data generating unit, 114 target image specifying unit, 116 club type estimating unit, 118 shot management data generating unit, 120 shot management data storage unit, 122 aggregating unit, 124 providing unit, 130 aggregating device.

Claims (11)

ゴルフボールの像及びゴルフクラブの像が写っている画像を学習した学習済の機械学習モデルに、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像の少なくとも一部である、当該ショットにおいてショットされるゴルフボール及び当該ショットにおいて当該ゴルフボールをショットするゴルフクラブを表す画像を入力した際の出力に基づいて、前記ゴルフクラブの種類を推定する推定手段と、
前記ショットにおける、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付ける関連付け手段と
含むことを特徴とするショット管理システム。
A trained machine learning model that has learned an image containing an image of a golf ball and an image of a golf club is provided with at least a portion of an image taken between the timing of the address in the shot and the timing of the shot. estimating means for estimating the type of the golf club based on an output when inputting an image representing a golf ball shot in the shot and a golf club that shoots the golf ball in the shot;
an association for associating club type data indicating an estimated type of the golf club with shot data indicating at least one of the behavior of the golf club when hitting the golf ball or the behavior of the golf ball in the shot; means and
A shot management system comprising :
共通の前記ゴルフクラブの種類に関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算する計算手段、をさらに含む、
ことを特徴とする請求項1に記載のショット管理システム
further comprising calculation means for calculating a representative value of the values indicated by each of the plurality of shot data associated with the common type of golf club;
The shot management system according to claim 1, characterized in that :
前記計算手段は、前記複数の前記ショットデータが示す値の平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つを計算する、
ことを特徴とする請求項に記載のショット管理システム。
The calculation means calculates at least one of an average value, standard deviation, maximum value, or minimum value of the values indicated by the plurality of shot data.
The shot management system according to claim 2 , characterized in that:
前記推定手段は、検出される前記ショットのタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken a predetermined time before the timing of the detected shot.
The shot management system according to any one of claims 1 to 3 .
前記推定手段は、前記ゴルフボールが配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken a predetermined time before a timing at which a change from a state where the golf ball is placed to a state where the golf ball is not placed is detected. ,
The shot management system according to any one of claims 1 to 3 .
前記推定手段は、打音が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken a predetermined time before the timing at which the hitting sound was detected.
The shot management system according to any one of claims 1 to 3 .
前記推定手段は、前記ゴルフクラブの通過が検出されたタイミングの所定時間前に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken a predetermined time before the timing at which passage of the golf club was detected.
The shot management system according to any one of claims 1 to 3 .
前記推定手段は、ボールが配置されていることが検出されたタイミング以後に撮影された前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken after the timing when the placement of the ball was detected.
The shot management system according to any one of claims 1 to 3 .
前記推定手段は、前記ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了する撮影手段が撮影する前記画像に基づいて、前記ゴルフクラブの種類を推定する、
ことを特徴とする請求項1から8のいずれか一項に記載のショット管理システム。
The estimating means estimates the type of the golf club based on the image taken by the photographing means which starts photographing at the timing of the address in the shot and ends the photographing at the timing of the shot.
The shot management system according to any one of claims 1 to 8 .
推定手段が、ゴルフボールの像及びゴルフクラブの像が写っている画像を学習した学習済の機械学習モデルに、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像の少なくとも一部である、当該ショットにおいてショットされるゴルフボール及び当該ショットにおいて当該ゴルフボールをショットするゴルフクラブを表す画像を入力した際の出力に基づいて、前記ゴルフクラブの種類を推定するステップと、
関連付け手段が、前記ショットにおける、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付けるステップと
含むことを特徴とするショット管理方法。
The estimation means applies at least one of the images taken between the timing of the address in the shot and the timing of the shot to the trained machine learning model that has learned the images including the image of the golf ball and the image of the golf club. a step of estimating the type of the golf club based on an output when inputting an image representing a golf ball shot in the shot and a golf club that shoots the golf ball in the shot;
The association means includes a club type indicating the estimated type of the golf club in shot data indicating at least one of the behavior of the golf club when hitting the golf ball or the behavior of the golf ball in the shot. a step of associating the data ;
A shot management method comprising :
ゴルフボールの像及びゴルフクラブの像が写っている画像を学習した学習済の機械学習モデルに、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像の少なくとも一部である、当該ショットにおいてショットされるゴルフボール及び当該ショットにおいて当該ゴルフボールをショットするゴルフクラブを表す画像を入力した際の出力に基づいて、前記ゴルフクラブの種類を推定する手順、
前記ショットにおける、前記ゴルフボールをショットする際の前記ゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータに、推定される前記ゴルフクラブの種類を示すクラブ種類データを関連付ける手順
コンピュータに実行させることを特徴とするプログラム。
A trained machine learning model that has learned an image containing an image of a golf ball and an image of a golf club is provided with at least a portion of an image taken between the timing of the address in the shot and the timing of the shot. a step of estimating the type of the golf club based on an output when inputting an image representing a golf ball shot in the shot and a golf club that shoots the golf ball in the shot;
a step of associating club type data indicating an estimated type of the golf club with shot data indicating at least one of the behavior of the golf club when hitting the golf ball or the behavior of the golf ball in the shot; ,
A program that causes a computer to execute.
JP2019154906A 2019-08-27 2019-08-27 Shot management system, shot management method and program Active JP7360023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019154906A JP7360023B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019154906A JP7360023B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Publications (2)

Publication Number Publication Date
JP2021029736A JP2021029736A (en) 2021-03-01
JP7360023B2 true JP7360023B2 (en) 2023-10-12

Family

ID=74677280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154906A Active JP7360023B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Country Status (1)

Country Link
JP (1) JP7360023B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088604A (en) 2001-09-20 2003-03-25 Sumitomo Rubber Ind Ltd Golf swing record storage system
US20050268705A1 (en) 2004-06-07 2005-12-08 William Gobush Launch monitor
US20150051020A1 (en) 2013-08-15 2015-02-19 Elwha, Llc Active golf tee

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003088604A (en) 2001-09-20 2003-03-25 Sumitomo Rubber Ind Ltd Golf swing record storage system
US20050268705A1 (en) 2004-06-07 2005-12-08 William Gobush Launch monitor
US20150051020A1 (en) 2013-08-15 2015-02-19 Elwha, Llc Active golf tee

Also Published As

Publication number Publication date
JP2021029736A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
JP4271615B2 (en) Golf club head behavior measuring device
JP5584961B2 (en) Golf club trial hitting system and golf club trial hitting method
JP2006247023A (en) Golf club information providing system, method and program
JP2011238222A5 (en)
US20200346091A1 (en) Device for calculating flight information of ball, method of calculating flight information of ball, and computing-device-readable recording medium having the method recorded therein
JP6582641B2 (en) How to display golf club swing
CN110458100A (en) Based on target detection and the identification of the table tennis drop point of tracking and methods of marking and system
JP5471357B2 (en) Golf club swing display method and display chart
JP7319540B2 (en) Shot management system, shot management method and program
JP2009045495A (en) Behavior measuring instrument for golf club head
JP7360023B2 (en) Shot management system, shot management method and program
JP2004061483A (en) Method and instrument for measuring rotation quantity and rotary axis direction of curved surface body, and method of specifying three-dimensional posture of curved surface body
JP7410370B2 (en) Shot management system and shot management method
KR102578896B1 (en) Theta data acquisition system and theta data acquisition method
JP7307334B2 (en) Image generation system, estimation system, image generation method, estimation method and program
KR102050970B1 (en) Green information providing method using picture and terminal thereof
JP5540665B2 (en) Golf club selection method and selection apparatus, and golf club
KR101019801B1 (en) Apparatus and method for sensing moving object and virtual golf simulation device using the same
TWI635887B (en) Sensing device for calculating information on golf shot of user and sensing method using the same
TWI453056B (en) Virtual golf simulation apparatus and sensing device and method used for the same
CN111524217A (en) Novel method for improving accuracy of sketch shape and application system
JP6710961B2 (en) Golf swing analysis method
US11138807B1 (en) Detection of test object for virtual superimposition
JP2006204359A (en) Golf ball trial hitting machine
CN117876457A (en) Golf club data measurement method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7360023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150