JP2021029738A - Shot management system, shot management method and program - Google Patents

Shot management system, shot management method and program Download PDF

Info

Publication number
JP2021029738A
JP2021029738A JP2019154908A JP2019154908A JP2021029738A JP 2021029738 A JP2021029738 A JP 2021029738A JP 2019154908 A JP2019154908 A JP 2019154908A JP 2019154908 A JP2019154908 A JP 2019154908A JP 2021029738 A JP2021029738 A JP 2021029738A
Authority
JP
Japan
Prior art keywords
shot
image
user
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019154908A
Other languages
Japanese (ja)
Other versions
JP7319540B2 (en
Inventor
三枝 宏
Hiroshi Saegusa
宏 三枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PRGR Co Ltd
Original Assignee
PRGR Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PRGR Co Ltd filed Critical PRGR Co Ltd
Priority to JP2019154908A priority Critical patent/JP7319540B2/en
Publication of JP2021029738A publication Critical patent/JP2021029738A/en
Application granted granted Critical
Publication of JP7319540B2 publication Critical patent/JP7319540B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a shot management system, a shot management method and a program capable of reducing labor and time when managing shot data by associating the shot data with a user who made a shot.SOLUTION: A shot data generation unit 112 generates a plurality of pieces of shot data which indicates at least one of motion of a golf club and motion of a golf ball when a user makes a shot of a golf ball. A user determination unit 122 acquires a plurality of images of a user who made a shot associated with the shot data out of a plurality of users who is associated with one of the plurality of pieces of shot data. The user determination unit 122 determines the user with whom the shot data associated with the image is associated, out of the plurality of users, on the basis of respective images. A shot management data generation unit 124 associates the determined user with the shot data.SELECTED DRAWING: Figure 10

Description

本発明は、ショット管理システム、ショット管理方法及びプログラムに関する。 The present invention relates to a shot management system, a shot management method and a program.

特許文献1には、ゴルフボールを打った瞬間を挟んだ前後のスイングの映像が再生可能な装置が記載されている。 Patent Document 1 describes a device capable of reproducing an image of a swing before and after the moment when a golf ball is hit.

また、ゴルフショップ内における試打の場面やゴルフ練習場におけるゴルフの練習の場面に用いることができるゴルフ測定装置が知られている。このようなゴルフ測定装置では、例えば、ショットの際の、ヘッドスピード、ボールスピード、ボールの打ち出し角度、スピン量、シミュレーション飛距離、ヘッド軌道、ダイナミックロフト、フェース角、ライ角、打点位置などの値が測定可能である。 Further, a golf measuring device that can be used in a test hitting scene in a golf shop or a golf practice scene in a driving range is known. In such a golf measuring device, for example, values such as head speed, ball speed, ball launch angle, spin amount, simulation flight distance, head trajectory, dynamic loft, face angle, lie angle, and hitting point position at the time of a shot. Is measurable.

特開平5−15628号公報Japanese Unexamined Patent Publication No. 5-15628

ゴルフ測定装置により測定されるショットの際の測定値を示すショットデータを、当該ショットを行ったユーザに関連付けて管理することが考えられる。このようにすることで、例えば、複数のユーザが1つのゴルフ測定装置を用いて順番にショットを行う場面などにおいて、ショットを行ったユーザごとに、当該ユーザによるショットのショットデータだけを抽出して提供できるため、便利である。また、例えば、ゴルフ測定装置を用いたレッスンにおいて、コーチのショットを除外して生徒のショットのショットデータだけを抽出して提供できるため、便利である。 It is conceivable to manage the shot data indicating the measured value at the time of the shot measured by the golf measuring device in association with the user who performed the shot. By doing so, for example, in a scene where a plurality of users take shots in order using one golf measuring device, for each user who has taken a shot, only the shot data of the shot by the user is extracted. It is convenient because it can be provided. Further, for example, in a lesson using a golf measuring device, it is convenient because the shot data of the student's shot can be extracted and provided by excluding the coach's shot.

しかし、ショットが行われる度に、あるいは、ショットを行うユーザが変わる度に、ショットを行ったユーザの名前などといったユーザの識別情報を手作業でオペレータが入力する必要があるとなると、オペレータにとっては手間がかかる。 However, if the operator needs to manually input user identification information such as the name of the user who took the shot each time a shot is taken or the user who takes the shot changes, the operator needs to enter the user's identification information manually. It takes time and effort.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、ショットを行ったユーザに関連付けてショットデータを管理する際の手間を軽減できるショット管理システム、ショット管理方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and one of the purposes thereof is a shot management system, a shot management method, and a program that can reduce the trouble of managing shot data in association with the user who performed the shot. Is to provide.

上記課題を解決するために、本発明に係るショット管理システムは、ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成するショットデータ生成手段と、複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得する取得手段と、それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定する判定手段と、前記ショットデータに、判定される前記ユーザを関連付ける関連付け手段と、を含む。 In order to solve the above problems, the shot management system according to the present invention generates shot data that generates a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when the golf ball is shot. Based on the means, the acquisition means for acquiring a plurality of images of the user who has performed the shot corresponding to the shot data among the plurality of users associated with the plurality of shot data, and the respective images. Includes a determination means for determining which of the plurality of users the shot data associated with is associated with, and an association means for associating the shot data with the user to be determined.

本発明の一態様では、共通の前記ユーザに関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算する計算手段、をさらに含む。 In one aspect of the present invention, a calculation means for calculating a representative value of a value indicated by each of the plurality of shot data associated with the common user is further included.

この態様では、前記計算手段は、前記複数の前記ショットデータが示す値の平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つを計算してもよい。 In this aspect, the calculation means may calculate at least one of the mean value, standard deviation, maximum value, or minimum value of the values indicated by the plurality of shot data.

また、本発明の一態様では、前記取得手段は、前記ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された前記ユーザの画像を取得する。 Further, in one aspect of the present invention, the acquisition means acquires an image of the user taken between the timing of the address in the shot and the timing of the shot.

この態様では、前記取得手段は、検出される前記ショットのタイミングの所定時間前に撮影された前記ユーザの画像を取得してもよい。 In this aspect, the acquisition means may acquire an image of the user taken before a predetermined time of the timing of the shot to be detected.

この場合、前記取得手段は、ボールが配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得してもよい。 In this case, the acquisition means may acquire an image of the user taken before a predetermined time at the timing when the change from the state in which the ball is arranged to the state in which the ball is not arranged is detected.

あるいは、前記取得手段は、打音が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得してもよい。 Alternatively, the acquisition means may acquire an image of the user taken before a predetermined time at the timing when the tapping sound is detected.

あるいは、前記取得手段は、前記ゴルフクラブの通過が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得してもよい。 Alternatively, the acquisition means may acquire an image of the user taken before a predetermined time when the passage of the golf club is detected.

あるいは、前記取得手段は、ボールが配置されていることが検出されたタイミング以後に撮影された前記ユーザの画像を取得してもよい。 Alternatively, the acquisition means may acquire an image of the user taken after the timing when it is detected that the ball is arranged.

また、前記取得手段は、前記ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了する撮影手段が撮影する前記ユーザの画像を取得してもよい。 Further, the acquisition means may acquire an image of the user to be photographed by the photographing means that starts shooting at the timing of the address in the shot and ends shooting at the timing of the shot.

また、本発明の一態様では、前記判定手段は、学習済の機械学習モデルを用いて、前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定してもよい。 Further, in one aspect of the present invention, the determination means may determine which of the plurality of users the shot data is associated with by using a trained machine learning model.

また、本発明に係るショット管理方法は、ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成するステップと、複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得するステップと、それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定するステップと、前記ショットデータに、判定される前記ユーザを関連付けるステップと、を含む。 Further, the shot management method according to the present invention includes a step of generating a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when a golf ball is shot, and the plurality of shot data. A step of acquiring a plurality of images of a user who has performed a shot corresponding to the shot data among a plurality of users associated with each other, and a plurality of shot data associated with the image based on the respective images. It includes a step of determining which of the users is associated with, and a step of associating the determined user with the shot data.

また、本発明に係るプログラムは、ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成する手順、複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得する手順、それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定する手順、前記ショットデータに、判定される前記ユーザを関連付ける手順、をコンピュータに実行させる。 Further, the program according to the present invention is associated with a procedure for generating a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when shooting a golf ball, and the plurality of shot data, respectively. , A procedure for acquiring a plurality of images of a user who has taken a shot corresponding to the shot data among a plurality of users, and based on each of the images, the shot data associated with the image is among the plurality of users. The computer is made to execute a procedure for determining which one is associated with, and a procedure for associating the determined user with the shot data.

本発明の一実施形態に係るショット測定システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the shot measurement system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るショット測定装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the shot measuring apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る学習装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the learning apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る学習装置の機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the learning apparatus which concerns on one Embodiment of this invention. 基礎画像の一例を模式的に示す図である。It is a figure which shows an example of the basic image schematically. 学習入力画像の一例を模式的に示す図である。It is a figure which shows an example of the learning input image schematically. 基礎画像の一例を模式的に示す図である。It is a figure which shows an example of the basic image schematically. 基礎画像の一例を模式的に示す図である。It is a figure which shows an example of the basic image schematically. 本発明の一実施形態に係る学習装置で行われる処理の流れの一例を示すフロー図である。It is a flow figure which shows an example of the flow of the process performed by the learning apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るショット管理装置の機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the shot management apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るショット管理装置で行われる処理の流れの一例を示すフロー図である。It is a flow chart which shows an example of the flow of the process performed by the shot management apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る端末の構成の一例を示す図である。It is a figure which shows an example of the structure of the terminal which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について、図面を参照しながら説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るショット測定システム1の構成の一例を示す図である。図1に示すように、本実施形態に係るショット測定システム1には、ショット管理装置10と、ショット測定装置22と、が含まれる。 FIG. 1 is a diagram showing an example of a configuration of a shot measurement system 1 according to an embodiment of the present invention. As shown in FIG. 1, the shot measurement system 1 according to the present embodiment includes a shot management device 10 and a shot measurement device 22.

本実施形態に係るショット管理装置10は、パーソナルコンピュータなどのコンピュータである。図1に示すようにショット管理装置10は、例えば、プロセッサ12、記憶部14、通信部16、表示部18、操作部20を含んでいる。 The shot management device 10 according to the present embodiment is a computer such as a personal computer. As shown in FIG. 1, the shot management device 10 includes, for example, a processor 12, a storage unit 14, a communication unit 16, a display unit 18, and an operation unit 20.

プロセッサ12は、例えばショット管理装置10にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 12 is, for example, a program control device such as a CPU that operates according to a program installed in the shot management device 10.

記憶部14は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部14には、プロセッサ12によって実行されるプログラムなどが記憶される。 The storage unit 14 is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 14 stores a program or the like executed by the processor 12.

通信部16は、例えばネットワークボードなどの通信インタフェースである。本実施形態では通信部16を介してショット管理装置10は、ショット測定装置22と通信可能となっている。 The communication unit 16 is a communication interface such as a network board. In the present embodiment, the shot management device 10 can communicate with the shot measuring device 22 via the communication unit 16.

表示部18は、液晶ディスプレイ等の表示デバイスであって、プロセッサ12の指示に
従って各種の画像を表示する。
The display unit 18 is a display device such as a liquid crystal display, and displays various images according to the instructions of the processor 12.

操作部20は、キーボードやマウスなどといったユーザインタフェースであって、ユー
ザの操作入力を受け付けて、その内容を示す信号をプロセッサ12に出力する。
The operation unit 20 is a user interface such as a keyboard or a mouse, receives an operation input of the user, and outputs a signal indicating the contents to the processor 12.

なお、ショット管理装置10は、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The shot management device 10 may include an optical disk drive for reading an optical disk such as a DVD-ROM or a Blu-ray (registered trademark) disc, a USB (Universal Serial Bus) port, or the like.

図2は、本実施形態に係るショット測定装置22の構成の一例を示す図である。図2に示すように、本実施形態に係るショット測定装置22には、弾道測定器30、ヘッド挙動測定器32、ヘッド撮影装置34、ユーザ撮影装置36が含まれている。 FIG. 2 is a diagram showing an example of the configuration of the shot measuring device 22 according to the present embodiment. As shown in FIG. 2, the shot measuring device 22 according to the present embodiment includes a ballistic measuring device 30, a head behavior measuring device 32, a head photographing device 34, and a user photographing device 36.

弾道測定器30には、LEDなどのフラッシュ光源40が、左右及び中央のそれぞれに縦に並んで3個ずつ、計9個設けられている。また、弾道測定器30には、左側のフラッシュ光源40と中央のフラッシュ光源40との間、及び、右側のフラッシュ光源40と中央のフラッシュ光源40との間に、ステレオカメラ42が設けられている。また、弾道測定器30の右端には、ボール有無判別センサ44が設けられている。また、弾道測定器30には、ヘッドスピードセンサ46が設けられている。 The ballistic measuring instrument 30 is provided with three flash light sources 40 such as LEDs arranged vertically on each of the left and right sides and the center, for a total of nine. Further, the ballistic measuring instrument 30 is provided with a stereo camera 42 between the flash light source 40 on the left side and the flash light source 40 in the center, and between the flash light source 40 on the right side and the flash light source 40 in the center. .. Further, a ball presence / absence determination sensor 44 is provided at the right end of the ballistic measuring instrument 30. Further, the ballistic measuring instrument 30 is provided with a head speed sensor 46.

本実施形態では例えば、弾道測定器30の前方に、異なる種類の複数のマーカが表面の異なる場所に張り付けられたゴルフボール48が配置される。 In the present embodiment, for example, a golf ball 48 in which a plurality of markers of different types are attached to different locations on the surface is arranged in front of the ballistic measuring instrument 30.

そして当該ゴルフボール48のショット直後の弾道が、複数のステレオカメラ42によって複数の方向から同時に撮影される。本実施形態では例えば、フラッシュ光源40を複数回断続的に点灯する間に、多重露光によりゴルフボール48の複数の像を含む画像が撮影される。なお、ステレオカメラ42が高速度カメラであり、当該高速度カメラによってゴルフボール48の像を含む画像が連続撮影されてもよい。 Then, the trajectory of the golf ball 48 immediately after the shot is simultaneously photographed by the plurality of stereo cameras 42 from a plurality of directions. In the present embodiment, for example, while the flash light source 40 is intermittently turned on a plurality of times, an image including a plurality of images of the golf ball 48 is photographed by multiple exposure. The stereo camera 42 is a high-speed camera, and the high-speed camera may continuously capture images including an image of a golf ball 48.

そして、撮影された画像はショット管理装置10に送信される。そして、ショット管理装置10において、ステレオ画像計測技術により、撮影される画像に基づく、ゴルフボール48の挙動の三次元計測が行われる。 Then, the captured image is transmitted to the shot management device 10. Then, in the shot management device 10, the behavior of the golf ball 48 is three-dimensionally measured based on the captured image by the stereo image measurement technique.

そして本実施形態では、ショット管理装置10において、ゴルフボール48の三次元計測の結果に基づいて、ボールスピードデータ、打出し角度データ、スピン量データ、及び、飛距離データを含む部分ボールデータが生成される。 Then, in the present embodiment, the shot management device 10 generates partial ball data including ball speed data, launch angle data, spin amount data, and flight distance data based on the result of three-dimensional measurement of the golf ball 48. Will be done.

ここで、ボールスピードデータは、例えば、ゴルフボール48のボールスピード(例えば初速度)を示すデータである。また、打出し角度データは、例えば、ゴルフボール48の上下、左右の打出し角度を示すデータである。また、スピン量データは、例えば、ゴルフボール48のバックスピン量とサイドスピン量を示すデータである。また、飛距離データは、例えば、ゴルフボール48のシミュレーション飛距離を示すデータである。 Here, the ball speed data is data indicating, for example, the ball speed (for example, the initial speed) of the golf ball 48. Further, the launch angle data is, for example, data indicating the vertical and horizontal launch angles of the golf ball 48. Further, the spin amount data is, for example, data showing the backspin amount and the side spin amount of the golf ball 48. Further, the flight distance data is, for example, data indicating a simulated flight distance of the golf ball 48.

また、本実施形態では、ヘッドスピードセンサ46によって計測される、ゴルフボール48のショットに用いられるゴルフクラブのヘッドスピードを示すヘッドスピードデータが、弾道測定器30からショット管理装置10に送信される。 Further, in the present embodiment, the head speed data indicating the head speed of the golf club used for the shot of the golf ball 48, which is measured by the head speed sensor 46, is transmitted from the ballistic measuring device 30 to the shot management device 10.

そして、本実施形態では、ショット管理装置10において、弾道測定器30から送信されるヘッドスピードデータと、上述の部分ボールデータと、を含む、ボールデータが生成される。 Then, in the present embodiment, the shot management device 10 generates ball data including the head speed data transmitted from the ballistic measuring device 30 and the above-mentioned partial ball data.

ボール有無判別センサ44は、ティー50の上に配置されたゴルフボール48の存在の有無を検知するセンサである。本実施形態では例えば、ボール有無判別センサ44によって、ゴルフボール48がティー50の上に配置されていない状態から配置されている状態に変化したことが検出された際にステレオカメラ42による撮影準備が開始される。そして、ボール有無判別センサ44によって、ゴルフボール48がティー50の上に配置された状態からティー50の上に配置されていない状態に変化した際に、ステレオカメラ42による撮影が行われる。 The ball presence / absence determination sensor 44 is a sensor that detects the presence / absence of the golf ball 48 arranged on the tee 50. In the present embodiment, for example, when the ball presence / absence determination sensor 44 detects that the golf ball 48 has changed from the state in which it is not placed on the tee 50 to the state in which it is placed, the stereo camera 42 prepares for shooting. It will be started. Then, when the golf ball 48 is changed from the state where the golf ball 48 is arranged on the tee 50 to the state where the golf ball 48 is not arranged on the tee 50 by the ball presence / absence determination sensor 44, the stereo camera 42 takes a picture.

以下、ゴルフボール48がティー50の上に配置されていない状態から配置されている状態に変化したことの検出を配置検出と呼ぶこととする。また、ゴルフボール48がティー50の上に配置されている状態から配置されていない状態に変化したことの検出をショット検出と呼ぶこととする。 Hereinafter, the detection that the golf ball 48 has changed from the state in which it is not placed on the tee 50 to the state in which it is placed is referred to as placement detection. Further, the detection that the golf ball 48 has changed from the state in which it is placed on the tee 50 to the state in which it is not placed is referred to as shot detection.

また、本実施形態において、ボール有無判別センサ44による配置検出のタイミングに、ボール有無判別センサ44が、所定の配置検出信号をショット管理装置10に送信してもよい。また、本実施形態において、ボール有無判別センサ44によるショット検出のタイミングに、ボール有無判別センサ44が、所定のショット検出信号をショット管理装置10に送信してもよい。 Further, in the present embodiment, the ball presence / absence determination sensor 44 may transmit a predetermined arrangement detection signal to the shot management device 10 at the timing of the arrangement detection by the ball presence / absence determination sensor 44. Further, in the present embodiment, the ball presence / absence determination sensor 44 may transmit a predetermined shot detection signal to the shot management device 10 at the timing of shot detection by the ball presence / absence determination sensor 44.

また、本実施形態では、ゴルフボール48の三次元計測の結果に基づいて、ゴルフボール48の弾道のシミュレーション結果を表す画像を表示部18に表示できるようになっている。 Further, in the present embodiment, an image showing the simulation result of the trajectory of the golf ball 48 can be displayed on the display unit 18 based on the result of the three-dimensional measurement of the golf ball 48.

ヘッド挙動測定器32には、左右に並んで2つのユニットが設けられている。それぞれのユニットには、LEDなどのフラッシュ光源52が、上側と下側のそれぞれに、横に3個並んで、計6個設けられている。 The head behavior measuring instrument 32 is provided with two units arranged side by side on the left and right sides. Each unit is provided with three flash light sources 52 such as LEDs arranged side by side on each of the upper side and the lower side, for a total of six.

また、それぞれのユニットの中央には、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドを撮影するカメラ54が設けられている。 Further, in the center of each unit, a camera 54 for photographing the club head of the golf club used for the shot of the golf ball 48 is provided.

また、右側のユニットの左側には、前方の反射板56に向かって赤外線等を照射することにより、ゴルフボール48のショットに用いられるゴルフクラブの通過を検出する通過センサ58が設けられている。 Further, on the left side of the unit on the right side, a passage sensor 58 is provided to detect the passage of the golf club used for the shot of the golf ball 48 by irradiating the front reflector 56 with infrared rays or the like.

ヘッド挙動測定器32では、カメラ54によって複数の方向から、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドが撮影される。本実施形態では例えば、フラッシュ光源52を複数回断続的に点灯する間に、多重露光によりクラブヘッドの複数の像を含む画像が撮影される。本実施形態において、通過センサ58がゴルフクラブの通過を検出したタイミングに、カメラ54による画像の撮影が行われてもよい。なお、カメラ54が高速度カメラであり、当該高速度カメラによってクラブヘッドの像を含む画像が連続撮影されてもよい。 In the head behavior measuring device 32, the club head of the golf club used for the shot of the golf ball 48 is photographed from a plurality of directions by the camera 54. In the present embodiment, for example, while the flash light source 52 is intermittently turned on a plurality of times, an image including a plurality of images of the club head is captured by multiple exposure. In the present embodiment, the image may be taken by the camera 54 at the timing when the passage sensor 58 detects the passage of the golf club. The camera 54 is a high-speed camera, and the high-speed camera may continuously capture images including an image of a club head.

また、本実施形態において、通過センサ58によってゴルフクラブの通過が検出されるタイミングに、通過センサ58が、所定の通過検出信号をショット管理装置10に送信してもよい。 Further, in the present embodiment, the passage sensor 58 may transmit a predetermined passage detection signal to the shot management device 10 at the timing when the passage sensor 58 detects the passage of the golf club.

そして、撮影された画像はショット管理装置10に送信される。そして、ショット管理装置10において、撮影される画像に基づく、クラブヘッドの姿勢及び軌道の三次元計測が行われる。なお、本実施形態において、ゴルフボール48のショットに用いられるゴルフクラブの上面に、マーカが設けられていてもよい。そして、撮影される画像に基づいて特定される、ゴルフクラブの上面のマーカの三次元座標値に基づいて、クラブヘッドの姿勢及び軌道の三次元計測が行われてもよい。 Then, the captured image is transmitted to the shot management device 10. Then, the shot management device 10 performs three-dimensional measurement of the posture and trajectory of the club head based on the captured image. In the present embodiment, a marker may be provided on the upper surface of the golf club used for the shot of the golf ball 48. Then, the posture and trajectory of the club head may be three-dimensionally measured based on the three-dimensional coordinate values of the markers on the upper surface of the golf club, which are specified based on the captured image.

そして本実施形態では、ショット管理装置10において、三次元計測の結果に基づいて、フェーススピードデータ、ヘッド軌道データ、ダイナミックロフトデータ、フェース角データ、ライ角データ、打点位置データ、法線角度データ、及び、フェースローテーションデータを含む、ヘッドデータが生成される。 Then, in the present embodiment, in the shot management device 10, based on the result of the three-dimensional measurement, face speed data, head trajectory data, dynamic loft data, face angle data, lie angle data, hitting point position data, normal angle data, And head data including face rotation data is generated.

ここで、フェーススピードデータは、例えば、インパクト時のクラブヘッドのフェーススピードを示すデータである。また、ヘッド軌道データは、例えば、インパクト時のクラブヘッドの上下方向、左右方向の進入角を示すデータである。また、ダイナミックロフトデータは、例えば、インパクト時のクラブヘッドのロフト角を示すデータである。また、フェース角データは、例えば、インパクト時のクラブヘッドのフェース角を示すデータである。また、ライ角データは、例えば、インパクト時のクラブヘッドのライ角を示すデータである。また、打点位置データは、例えば、ショットされたゴルフボール48の打点位置を示すデータである。また、法線角度データは、例えば、インパクト時のクラブヘッドのフェース面の向きを示すデータである。フェースローテーションは、例えば、ショットの際のクラブヘッドのフェースローテーションの大きさを示すデータである。 Here, the face speed data is, for example, data indicating the face speed of the club head at the time of impact. Further, the head trajectory data is, for example, data indicating an approach angle in the vertical direction and the horizontal direction of the club head at the time of impact. Further, the dynamic loft data is, for example, data indicating the loft angle of the club head at the time of impact. Further, the face angle data is, for example, data indicating the face angle of the club head at the time of impact. The lie angle data is, for example, data indicating the lie angle of the club head at the time of impact. Further, the hitting point position data is, for example, data indicating the hitting point position of the shot golf ball 48. The normal angle data is, for example, data indicating the orientation of the face surface of the club head at the time of impact. The face rotation is, for example, data indicating the magnitude of the face rotation of the club head at the time of a shot.

また、本実施形態では、クラブヘッドの三次元計測の結果に基づいて、インパクトの直前のクラブヘッドの動きを表示部18にアニメーション表示させることができるようになっている。 Further, in the present embodiment, the movement of the club head immediately before the impact can be animated and displayed on the display unit 18 based on the result of the three-dimensional measurement of the club head.

ヘッド撮影装置34には、本実施形態では例えば、ゴルフボール48のショットに用いられるゴルフクラブのクラブヘッドを側方から撮影するカメラ60が設けられている。本実施形態では、カメラ60が、所定のフレームレートでフレーム画像を撮影する。ヘッド撮影装置34は、クラブヘッドがアドレスの際に位置する範囲を撮影範囲として撮影するので、アドレスの際のクラブヘッドを確実に撮影することができる。クラブヘッドの撮影の際には、撮影時刻も併せて記録される。 In the present embodiment, the head photographing device 34 is provided with, for example, a camera 60 that photographs the club head of the golf club used for the shot of the golf ball 48 from the side. In this embodiment, the camera 60 captures a frame image at a predetermined frame rate. Since the head photographing device 34 photographs the range in which the club head is located at the address as the photographing range, the club head at the time of the address can be reliably photographed. When shooting the club head, the shooting time is also recorded.

ヘッド撮影装置34のカメラ60は、ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了してもよい。例えば、ヘッド撮影装置34は、ボール有無判別センサ44による配置検出がされたタイミングにカメラ60による画像の撮影を開始してもよい。そして、ヘッド撮影装置34は、例えば、ボール有無判別センサ44によるショット検出がされたタイミングにカメラ60による画像の撮影を終了してもよい。 The camera 60 of the head photographing device 34 may start shooting at the timing of the address in the shot and end the shooting at the timing of the shot. For example, the head photographing device 34 may start photographing an image by the camera 60 at the timing when the arrangement is detected by the ball presence / absence determination sensor 44. Then, the head photographing device 34 may end the photographing of the image by the camera 60 at the timing when the shot is detected by the ball presence / absence determination sensor 44, for example.

撮影された画像は、撮影時刻の情報に関連付けられた上で、ショット管理装置10に送信される。本実施形態では、当該撮影時刻の情報が、撮影タイミングを示す情報として取り扱われる。そして、ショット管理装置10において、学習済の機械学習モデルを用いて、当該画像に写っているゴルフクラブの種類の推定が行われる。 The captured image is transmitted to the shot management device 10 after being associated with the shooting time information. In the present embodiment, the information on the shooting time is treated as information indicating the shooting timing. Then, the shot management device 10 estimates the type of golf club shown in the image by using the trained machine learning model.

図3は、上述の機械学習モデルの学習に用いられる学習装置70の構成の一例を示す図である。 FIG. 3 is a diagram showing an example of the configuration of the learning device 70 used for learning the above-mentioned machine learning model.

本実施形態に係る学習装置70は、パーソナルコンピュータなどのコンピュータである。図3に示すように学習装置70は、例えば、プロセッサ72、記憶部74、通信部76、表示部78、操作部80を含んでいる。 The learning device 70 according to the present embodiment is a computer such as a personal computer. As shown in FIG. 3, the learning device 70 includes, for example, a processor 72, a storage unit 74, a communication unit 76, a display unit 78, and an operation unit 80.

プロセッサ72は、例えば学習装置70にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。 The processor 72 is, for example, a program control device such as a CPU that operates according to a program installed in the learning device 70.

記憶部74は、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部74には、プロセッサ72によって実行されるプログラムなどが記憶される。 The storage unit 74 is a storage element such as a ROM or RAM, a hard disk drive, or the like. The storage unit 74 stores a program or the like executed by the processor 72.

通信部76は、例えばネットワークボードなどの通信インタフェースである。 The communication unit 76 is a communication interface such as a network board.

表示部78は、液晶ディスプレイ等の表示デバイスであって、プロセッサ72の指示に従って各種の画像を表示する。 The display unit 78 is a display device such as a liquid crystal display, and displays various images according to the instructions of the processor 72.

操作部80は、キーボードやマウスなどといったユーザインタフェースであって、ユー
ザの操作入力を受け付けて、その内容を示す信号をプロセッサ72に出力する。
The operation unit 80 is a user interface such as a keyboard or a mouse, receives an operation input of the user, and outputs a signal indicating the contents to the processor 72.

なお、学習装置70は、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスクを読み取る光ディスクドライブ、USB(Universal Serial Bus)ポートなどを含んでいてもよい。 The learning device 70 may include an optical disk drive for reading an optical disk such as a DVD-ROM or a Blu-ray (registered trademark) disc, a USB (Universal Serial Bus) port, or the like.

なお、ショット管理装置10を学習装置70に流用してもよい。 The shot management device 10 may be diverted to the learning device 70.

図4は、本実施形態に係る学習装置70で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る学習装置70で、図4に示す機能のすべてが実装される必要はなく、また、図4に示す機能以外の機能が実装されていても構わない。 FIG. 4 is a functional block diagram showing an example of the functions implemented in the learning device 70 according to the present embodiment. It should be noted that the learning device 70 according to the present embodiment does not have to be equipped with all the functions shown in FIG. 4, and may be equipped with functions other than the functions shown in FIG.

図4に示すように、学習装置70には、機能的には例えば、機械学習モデル90、学習データ記憶部92、学習データ取得部94、前処理部96、学習部98が含まれる。機械学習モデル90は、プロセッサ72及び記憶部74を主として実装される。 As shown in FIG. 4, the learning device 70 functionally includes, for example, a machine learning model 90, a learning data storage unit 92, a learning data acquisition unit 94, a preprocessing unit 96, and a learning unit 98. The machine learning model 90 mainly implements the processor 72 and the storage unit 74.

学習データ記憶部92は、記憶部74を主として実装される。学習データ取得部94、前処理部96、学習部98は、プロセッサ72を主として実装される。 The learning data storage unit 92 mainly implements the storage unit 74. The learning data acquisition unit 94, the preprocessing unit 96, and the learning unit 98 mainly implement the processor 72.

以上の機能は、コンピュータである学習装置70にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ72で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して学習装置70に供給されてもよい。 The above functions may be implemented by executing the program including the instructions corresponding to the above functions installed in the learning device 70, which is a computer, on the processor 72. This program may be supplied to the learning device 70 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like.

機械学習モデル90は、本実施形態では例えば、アダブースト、ランダムフォレスト、ニューラルネットワーク、サポートベクタマシン(SVM)、最近傍識別器、などの機械学習が実装された機械学習モデルである。 In this embodiment, the machine learning model 90 is a machine learning model in which machine learning such as AdaBoost, Random Forest, Neural Network, Support Vector Machine (SVM), and Nearest Discriminator is implemented.

機械学習モデル90は、本実施形態では例えば、ショットに用いられたゴルフクラブの種類(例えば、番手、モデル名、型番、などのうちの少なくとも1つ)を推定する。 In this embodiment, the machine learning model 90 estimates, for example, the type of golf club used for the shot (for example, at least one of a count, a model name, a model number, and the like).

学習データ記憶部92は、本実施形態では例えば、機械学習モデル90の学習に用いられる複数の学習データを記憶する。学習データには、例えば、ゴルフクラブ及びゴルフボール48を少なくとも表す基礎画像と、当該ゴルフクラブの種類を示す教師データと、が含まれている。ここで複数の学習データのそれぞれに含まれる基礎画像には、様々な種類のゴルフクラブが写っていることが望ましい。 In the present embodiment, the learning data storage unit 92 stores a plurality of learning data used for learning the machine learning model 90, for example. The learning data includes, for example, a basic image showing at least a golf club and a golf ball 48, and teacher data showing the type of the golf club. Here, it is desirable that various types of golf clubs are shown in the basic image included in each of the plurality of learning data.

学習データ取得部94は、本実施形態では例えば、機械学習モデル90の学習に用いられる学習データを取得する。ここで学習データ取得部94は、学習データ記憶部92に記憶されている学習データを取得してもよい。 In the present embodiment, the learning data acquisition unit 94 acquires learning data used for learning the machine learning model 90, for example. Here, the learning data acquisition unit 94 may acquire the learning data stored in the learning data storage unit 92.

前処理部96は、本実施形態では例えば、学習データに含まれる基礎画像に基づいて、ゴルフクラブ及びゴルフボール48を少なくとも表す、当該基礎画像とは異なる学習入力画像を生成する。前処理部96は、例えば、テンプレートマッチング技術を用いることで、基礎画像内におけるゴルフボール48の画像が占める領域を特定する。具体的には例えば、基礎画像内における白色の円形の領域が、ゴルフボール48の画像が占める領域と特定される。そして、前処理部96は、例えば、基礎画像内においてゴルフボール48の画像が占める領域の位置、大きさ、又は、色のうちの少なくとも1つに基づいて、学習入力画像を生成する。 In the present embodiment, the preprocessing unit 96 generates, for example, a learning input image different from the basic image, which represents at least the golf club and the golf ball 48, based on the basic image included in the learning data. The preprocessing unit 96 specifies, for example, a region occupied by the image of the golf ball 48 in the basic image by using a template matching technique. Specifically, for example, the white circular region in the basic image is specified as the region occupied by the image of the golf ball 48. Then, the preprocessing unit 96 generates a learning input image based on, for example, at least one of the position, size, or color of the region occupied by the image of the golf ball 48 in the basic image.

ここで、前処理部96が、学習入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置である学習入力画像を生成してもよい。 Here, the preprocessing unit 96 may generate a learning input image in which the position of the region occupied by the image of the golf ball 48 in the learning input image is a predetermined position.

また、前処理部96が、ゴルフボール48の画像が占める領域の大きさが所定の大きさである学習入力画像を生成してもよい。 Further, the preprocessing unit 96 may generate a learning input image in which the size of the region occupied by the image of the golf ball 48 is a predetermined size.

図5は、基礎画像の一例を模式的に示す図である。図5に示す基礎画像には、ゴルフボール48、ティー50、ゴルフクラブ100の像が写っている。図5に示す基礎画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。そして、図5に示す基礎画像の縦の長さがx1であり、横の長さがy1であるとする。また、基礎画像に写るゴルフボール48の像の直径はD1であることとする。また、基礎画像に写るゴルフボール48の像の中心の座標値が(x2,y2)であることとする。 FIG. 5 is a diagram schematically showing an example of a basic image. The basic image shown in FIG. 5 shows images of a golf ball 48, a tee 50, and a golf club 100. In the basic image shown in FIG. 5, it is assumed that the downward direction is the X-axis positive direction and the right direction is the Y-axis positive direction. Then, it is assumed that the vertical length of the basic image shown in FIG. 5 is x1 and the horizontal length is y1. Further, it is assumed that the diameter of the image of the golf ball 48 shown in the basic image is D1. Further, it is assumed that the coordinate value of the center of the image of the golf ball 48 shown in the basic image is (x2, y2).

図6は、本実施形態において生成されるべき学習入力画像の一例を模式的に示す図である。図6に示す学習入力画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。また、図6の示す学習入力画像の縦の長さがx0であり、横の長さがy0であるとする。また、基礎画像に写るゴルフボール48の像の直径はD0であることとする。また、学習入力画像に写るゴルフボール48の像の中心の座標値が(a,b)であることとする。 FIG. 6 is a diagram schematically showing an example of a learning input image to be generated in the present embodiment. In the learning input image shown in FIG. 6, it is assumed that the downward direction is the X-axis positive direction and the right direction is the Y-axis positive direction. Further, it is assumed that the vertical length of the learning input image shown in FIG. 6 is x0 and the horizontal length is y0. Further, it is assumed that the diameter of the image of the golf ball 48 shown in the basic image is D0. Further, it is assumed that the coordinate values of the center of the image of the golf ball 48 shown in the learning input image are (a, b).

この場合、前処理部96は、図5に示す基礎画像に写るゴルフボール48の像の直径D1に基づいて、基礎画像の拡縮率をD0/D1と決定する。そして、前処理部96は、図5に示す基礎画像から4頂点の座標値がそれぞれ(x2−(D1/D0)×a,y2−(D1/D0)×b)、(x2−(D1/D0)×a,y2+(D1/D0)×(y0−b))、(x2+(D1/D0)×(x0−a),y2−(D1/D0)×b)、(x2+(D1/D0)×(x0−a),y2+(D1/D0)×(y0−b))である長方形の領域R1を切り出す。 In this case, the preprocessing unit 96 determines the scaling ratio of the basic image to be D0 / D1 based on the diameter D1 of the image of the golf ball 48 shown in the basic image shown in FIG. Then, in the preprocessing unit 96, the coordinate values of the four vertices from the basic image shown in FIG. 5 are (x2- (D1 / D0) × a, y2- (D1 / D0) × b) and (x2- (D1 / D1 /), respectively. D0) xa, y2 + (D1 / D0) x (y0-b)), (x2 + (D1 / D0) x (x0-a), y2- (D1 / D0) xb), (x2 + (D1 / D0) ) X (x0-a), y2 + (D1 / D0) x (y0-b)).

ここで例えば、図5に示す基礎画像に写るゴルフボール48の像の直径D1が直径D0と同じである場合は、図5に示す基礎画像から4頂点の座標値がそれぞれ(x2−a,y2−b)、(x2−a,y2+(y0−b))、(x2+(x0−a),y2−b)、(x2+(x0−a),y2+(y0−b))である長方形の領域R1が切り出される。 Here, for example, when the diameter D1 of the image of the golf ball 48 shown in the basic image shown in FIG. 5 is the same as the diameter D0, the coordinate values of the four vertices from the basic image shown in FIG. 5 are (x2-a, y2, respectively). -B), (x2-a, y2 + (y0-b)), (x2 + (x0-a), y2-b), (x2 + (x0-a), y2 + (y0-b)) R1 is cut out.

そして、前処理部96は、切り出された領域R1の縦横の長さをD0/D1倍にした学習入力画像を生成する。なお、図5に示す基礎画像に写るゴルフボール48の像の直径D1が直径D0と同じである場合は、基礎画像から領域R1を切り出した画像自体が学習入力画像となる。このようにして、図5に示す基礎画像に対応する学習入力画像が生成される。 Then, the preprocessing unit 96 generates a learning input image in which the vertical and horizontal lengths of the cut out region R1 are multiplied by D0 / D1. When the diameter D1 of the image of the golf ball 48 shown in the basic image shown in FIG. 5 is the same as the diameter D0, the image itself obtained by cutting out the region R1 from the basic image becomes the learning input image. In this way, the learning input image corresponding to the basic image shown in FIG. 5 is generated.

図7は、基礎画像の別の一例を模式的に示す図である。図7に示す基礎画像には、ゴルフボール48、ティー50、ゴルフクラブ100の像が写っている。図7に示す基礎画像では、下方向がX軸正方向であり、右方向がY軸正方向であることとする。そして、図7の示す基礎画像の縦の長さがx3であり、横の長さがy3であるとする。また、基礎画像に写るゴルフボール48の像の直径はD2であることとする。また、基礎画像に写るゴルフボール48の像の中心の座標値が(x4,y4)であることとする。 FIG. 7 is a diagram schematically showing another example of the basic image. The basic image shown in FIG. 7 shows images of a golf ball 48, a tee 50, and a golf club 100. In the basic image shown in FIG. 7, it is assumed that the downward direction is the X-axis positive direction and the right direction is the Y-axis positive direction. Then, it is assumed that the vertical length of the basic image shown in FIG. 7 is x3 and the horizontal length is y3. Further, it is assumed that the diameter of the image of the golf ball 48 shown in the basic image is D2. Further, it is assumed that the coordinate value of the center of the image of the golf ball 48 shown in the basic image is (x4, y4).

この場合、前処理部96は、図7に示す基礎画像に写るゴルフボール48の像の直径D2に基づいて、基礎画像の拡縮率をD0/D2と決定する。そして、前処理部96は、図7に示す基礎画像から4頂点の座標値がそれぞれ(x4−(D2/D0)×a,y4−(D2/D0)×b)、(x4−(D2/D0)×a,y4+(D2/D0)×(y0−b))、(x4+(D2/D0)×(x0−a),y4−(D2/D0)×b)、(x4+(D2/D0)×(x0−a),y4+(D2/D0)×(y0−b))である長方形の領域R2を切り出す。 In this case, the preprocessing unit 96 determines the scaling ratio of the basic image to be D0 / D2 based on the diameter D2 of the image of the golf ball 48 shown in the basic image shown in FIG. Then, in the preprocessing unit 96, the coordinate values of the four vertices from the basic image shown in FIG. 7 are (x4- (D2 / D0) × a, y4- (D2 / D0) × b), (x4- (D2 /), respectively. D0) xa, y4 + (D2 / D0) x (y0-b)), (x4 + (D2 / D0) x (x0-a), y4- (D2 / D0) xb), (x4 + (D2 / D0) ) X (x0-a), y4 + (D2 / D0) x (y0-b)), and a rectangular region R2 is cut out.

ここで例えば、図7に示す基礎画像に写るゴルフボール48の像の直径D2が直径D0の125%である場合は、図7に示す基礎画像から4頂点の座標値がそれぞれ(x4−1.25×a,y4−1.25×b)、(x4−1.25×a,y4+1.25×(y0−b))、(x4+1.25×(x0−a),y4−1.25×b)、(x4+1.25×(x0−a),y4+1.25×(y0−b))である長方形の領域R2が切り出される。 Here, for example, when the diameter D2 of the image of the golf ball 48 shown in the basic image shown in FIG. 7 is 125% of the diameter D0, the coordinate values of the four vertices from the basic image shown in FIG. 7 are (x4-1. 25 × a, y4-1.25 × b), (x4-1.25 × a, y4 + 1.25 × (y0-b)), (x4 + 1.25 × (x0-a), y4-1.25 × b), (x4 + 1.25 × (x0-a), y4 + 1.25 × (y0-b)), a rectangular region R2 is cut out.

そして、前処理部96は、切り出された領域R2の縦横の長さをD0/D2倍にした学習入力画像を生成する。なお、図7に示す基礎画像に写るゴルフボール48の像の直径D2が直径D0の125%である場合は、基礎画像から領域R2を切り出した画像の縦横の長さを80%にした学習入力画像が生成される。このようにして、図7に示す基礎画像に対応する学習入力画像が生成される。 Then, the preprocessing unit 96 generates a learning input image in which the vertical and horizontal lengths of the cut out region R2 are doubled by D0 / D2. When the diameter D2 of the image of the golf ball 48 shown in the basic image shown in FIG. 7 is 125% of the diameter D0, the learning input in which the vertical and horizontal lengths of the image obtained by cutting out the region R2 from the basic image is 80%. An image is generated. In this way, the learning input image corresponding to the basic image shown in FIG. 7 is generated.

以上のようにして、図5に示す基礎画像に基づく学習入力画像も、図7に示す基礎画像に基づく学習入力画像も、学習入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置(例えば、中心の座標値が(a,b)である位置)となる。また、図5に示す基礎画像に基づく学習入力画像も、図7に示す基礎画像に基づく学習入力画像も、学習入力画像内におけるゴルフボール48の画像が占める領域の直径は所定の長さ(例えば、D0)となる。 As described above, in both the learning input image based on the basic image shown in FIG. 5 and the learning input image based on the basic image shown in FIG. 7, the position of the region occupied by the image of the golf ball 48 in the learning input image is predetermined. It becomes a position (for example, a position where the coordinate value of the center is (a, b)). Further, in both the learning input image based on the basic image shown in FIG. 5 and the learning input image based on the basic image shown in FIG. 7, the diameter of the region occupied by the image of the golf ball 48 in the learning input image is a predetermined length (for example). , D0).

また、基礎画像がティー50をさらに表す画像であってもよい。そして、前処理部96が、ティー50の向きが所定の向きとなるよう画像全体が回転された学習入力画像を生成する。 Further, the basic image may be an image further representing the tee 50. Then, the preprocessing unit 96 generates a learning input image in which the entire image is rotated so that the orientation of the tee 50 is a predetermined orientation.

また、基礎画像が人工芝をさらに表す画像であってもよい。そして、前処理部96が、人工芝の縁の向きが所定の向きとなるよう画像全体が回転された学習入力画像を生成してもよい。 Further, the basic image may be an image further representing the artificial turf. Then, the preprocessing unit 96 may generate a learning input image in which the entire image is rotated so that the orientation of the edges of the artificial turf is a predetermined orientation.

図8は、基礎画像のさらに別の一例を模式的に示す図である。ここで前処理部96が、前処理部96は、ティー50の向きが上下方向となるよう図8に示す基礎画像を回転させてもよい。あるいは、前処理部96は、人工芝の縁102の向きが左右方向となるよう図8に示す基礎画像を回転させてもよい。そして、図5及び図7に示す基礎画像を参照して説明した上述の処理と同様の処理を、回転後の基礎画像に対して実行することにより、図8に示す基礎画像から長方形の領域R3が切り出されてもよい。そして、切り出された領域R3に基づく学習入力画像が生成されてもよい。例えば、切り出された領域R3を上述のようにして拡大又は縮小することで学習入力画像が生成されてもよい。 FIG. 8 is a diagram schematically showing still another example of the basic image. Here, the pretreatment unit 96 may rotate the basic image shown in FIG. 8 so that the tee 50 is oriented in the vertical direction. Alternatively, the pretreatment unit 96 may rotate the basic image shown in FIG. 8 so that the edge 102 of the artificial turf is oriented in the left-right direction. Then, by executing the same processing as the above-described processing described with reference to the basic images shown in FIGS. 5 and 7 on the rotated basic image, the rectangular region R3 from the basic image shown in FIG. 8 is executed. May be cut out. Then, a learning input image based on the cut out region R3 may be generated. For example, the learning input image may be generated by enlarging or reducing the cut out region R3 as described above.

また、前処理部96は、ゴルフボール48の画像が占める領域の色が所定色となるよう画像全体が色補正された学習入力画像を生成してもよい。ここで例えば、前処理部96は、ゴルフボール48の画像が占める領域の色に基づいて、複数の所定色(例えば、白、黄色、ピンク)のうちから、最も色差が小さい色を特定してもよい。そして、前処理部96は、ゴルフボール48の画像が占める領域が特定された色となるよう画像全体を色補正することにより、学習入力画像を生成してもよい。 Further, the preprocessing unit 96 may generate a learning input image in which the entire image is color-corrected so that the color of the region occupied by the image of the golf ball 48 becomes a predetermined color. Here, for example, the preprocessing unit 96 identifies a color having the smallest color difference from a plurality of predetermined colors (for example, white, yellow, and pink) based on the color of the area occupied by the image of the golf ball 48. May be good. Then, the preprocessing unit 96 may generate a learning input image by color-correcting the entire image so that the region occupied by the image of the golf ball 48 has a specified color.

また、基礎画像に人工芝の像が含まれている場合に、前処理部96は、人工芝の画像が示す領域の色が所定色(例えば、緑色)となるよう画像全体が色補正された学習入力画像を生成してもよい。 Further, when the basic image includes an image of artificial turf, the preprocessing unit 96 color-corrects the entire image so that the color of the region indicated by the image of artificial turf becomes a predetermined color (for example, green). A learning input image may be generated.

なお、図5、図7、図8に示す基礎画像にはドライバーが写っている。しかし、上述のように、複数の学習データのそれぞれに含まれる基礎画像には、ドライバーに限らず、フェアウェイウッド、ユーティリティ、アイアン、ウェッジなど様々な番手のゴルフクラブ100が写っていることが望ましい。また、複数の学習データのそれぞれに含まれる基礎画像には、様々なモデルや型番のゴルフクラブ100が写っていることが望ましい。 The driver is shown in the basic images shown in FIGS. 5, 7, and 8. However, as described above, it is desirable that the basic image included in each of the plurality of training data shows not only the driver but also golf clubs 100 having various counts such as fairway woods, utilities, irons, and wedges. Further, it is desirable that the golf club 100 of various models and model numbers is shown in the basic image included in each of the plurality of learning data.

学習部98は、本実施形態では例えば、学習入力画像を機械学習モデル90に入力した際の出力を用いて、機械学習モデル90の学習を実行する。ここで例えば、学習データに含まれる基礎画像に基づいて生成された学習入力画像を機械学習モデル90に入力した際の出力と、当該学習データに含まれる教師データと、が比較されてもよい。そして当該比較の結果に基づいて機械学習モデル90のパラメータの値が更新される教師あり学習が実行されてもよい。 In the present embodiment, the learning unit 98 executes learning of the machine learning model 90 by using, for example, the output when the learning input image is input to the machine learning model 90. Here, for example, the output when the learning input image generated based on the basic image included in the learning data is input to the machine learning model 90 and the teacher data included in the learning data may be compared. Then, supervised learning in which the value of the parameter of the machine learning model 90 is updated based on the result of the comparison may be executed.

ここで、本実施形態に係る学習装置70で行われる学習処理の流れの一例を、図9に例示するフロー図を参照しながら説明する。ここでは例えば複数の学習データが学習データ記憶部92に記憶されていることとする。 Here, an example of the flow of the learning process performed by the learning device 70 according to the present embodiment will be described with reference to the flow diagram illustrated in FIG. Here, for example, it is assumed that a plurality of learning data are stored in the learning data storage unit 92.

まず、学習データ取得部94が、学習データ記憶部92に記憶されている複数の学習データのうち、S102〜S104に示す処理が実行されていないものを1つ取得する(S101)。 First, the learning data acquisition unit 94 acquires one of the plurality of learning data stored in the learning data storage unit 92 in which the processes shown in S102 to S104 have not been executed (S101).

そして、前処理部96が、S101に示す処理で取得された学習データに含まれる基礎画像に基づいて、上述のようにして、当該基礎画像に対応する学習入力画像を生成する(S102)。 Then, the preprocessing unit 96 generates a learning input image corresponding to the basic image as described above based on the basic image included in the learning data acquired in the process shown in S101 (S102).

そして、学習部98が、S102に示す処理で生成された学習入力画像を機械学習モデル90に入力する(S103)。 Then, the learning unit 98 inputs the learning input image generated by the process shown in S102 into the machine learning model 90 (S103).

そして、学習部98が、S103に示す処理における学習入力画像の入力に応じた機械学習モデル90の出力を用いた、機械学習モデル90の学習を実行する(S104)。ここで例えば、当該出力と、S101に示す処理で取得された学習データに含まれる教師データと、の比較に基づいて、機械学習モデル90のパラメータの値が更新されてもよい。 Then, the learning unit 98 executes learning of the machine learning model 90 using the output of the machine learning model 90 in response to the input of the learning input image in the process shown in S103 (S104). Here, for example, the value of the parameter of the machine learning model 90 may be updated based on the comparison between the output and the teacher data included in the learning data acquired in the process shown in S101.

そして学習部98が、学習データ記憶部92に記憶されている複数の学習データのすべてについてS102〜S104に示す処理が実行されたか否かを確認する(S105)。 Then, the learning unit 98 confirms whether or not the processes shown in S102 to S104 have been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105).

学習データ記憶部92に記憶されている複数の学習データのすべてについてS102〜S104に示す処理が実行されていないことが確認された場合は(S105:N)、S101に示す処理に戻る。 When it is confirmed that the processes shown in S102 to S104 have not been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105: N), the process returns to the process shown in S101.

学習データ記憶部92に記憶されている複数の学習データのすべてについてS102〜S104に示す処理が実行されたことが確認された場合は(S105:Y)、本処理例に示す処理は終了される。 When it is confirmed that the processes shown in S102 to S104 have been executed for all of the plurality of learning data stored in the learning data storage unit 92 (S105: Y), the processes shown in this processing example are terminated. ..

本実施形態では、以上のようにして複数の学習データが学習された学習済の機械学習モデル90が生成される。そして生成された機械学習モデル90は、ショット管理装置10の記憶部14に記憶される。 In the present embodiment, the trained machine learning model 90 in which the plurality of training data are learned as described above is generated. Then, the generated machine learning model 90 is stored in the storage unit 14 of the shot management device 10.

そして、本実施形態では、ショット管理装置10に記憶された学習済の機械学習モデル90を用いて、ヘッド撮影装置34のカメラ60により撮影される画像に写っているゴルフクラブの種類の推定が行われる。 Then, in the present embodiment, the type of golf club shown in the image taken by the camera 60 of the head photographing apparatus 34 is estimated by using the learned machine learning model 90 stored in the shot management apparatus 10. It is said.

ユーザ撮影装置36には、本実施形態では例えば、ゴルフボール48をショットするユーザを撮影するカメラ62が設けられている。本実施形態では、カメラ62が、所定のフレームレートでフレーム画像を撮影する。ユーザ撮影装置36は、ゴルフボール48をショットするユーザが位置する範囲を撮影範囲として撮影するので、ショットするユーザを確実に撮影することができる。ゴルフボール48をショットするユーザの撮影の際には、撮影時刻も併せて記録される。 In the present embodiment, the user photographing device 36 is provided with, for example, a camera 62 that photographs a user who shoots a golf ball 48. In this embodiment, the camera 62 captures a frame image at a predetermined frame rate. Since the user photographing device 36 photographs the range in which the user who shoots the golf ball 48 is located as the photographing range, the user who shoots can be reliably photographed. When the user who shoots the golf ball 48 shoots, the shooting time is also recorded.

ユーザ撮影装置36のカメラ62は、ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了してもよい。例えば、ユーザ撮影装置36は、ボール有無判別センサ44による配置検出がされたタイミングにカメラ62による画像の撮影を開始してもよい。そして、ユーザ撮影装置36は、例えば、ボール有無判別センサ44によるショット検出がされたタイミングにカメラ62による画像の撮影を終了してもよい。 The camera 62 of the user photographing device 36 may start shooting at the timing of the address in the shot and end the shooting at the timing of the shot. For example, the user photographing device 36 may start photographing an image by the camera 62 at the timing when the arrangement is detected by the ball presence / absence determination sensor 44. Then, the user photographing device 36 may end the photographing of the image by the camera 62 at the timing when the shot is detected by the ball presence / absence determination sensor 44, for example.

撮影された画像は、撮影時刻の情報に関連付けられた上で、ショット管理装置10に送信される。本実施形態では、当該撮影時刻の情報が、撮影タイミングを示す情報として取り扱われる。そして、ショット管理装置10において、当該画像に写っているユーザの判定が行われる。 The captured image is transmitted to the shot management device 10 after being associated with the shooting time information. In the present embodiment, the information on the shooting time is treated as information indicating the shooting timing. Then, the shot management device 10 determines the user in the image.

以下、ヘッド撮影装置34のカメラ60により撮影される画像に写っているゴルフクラブの種類の推定、及び、ユーザ撮影装置36のカメラ62により撮影される画像に写っているユーザの判定を中心に、本実施形態に係るショット管理装置10の機能、及び、ショット管理装置10で実行される処理について、さらに説明する。 Hereinafter, the estimation of the type of golf club captured in the image captured by the camera 60 of the head photographing device 34 and the determination of the user captured in the image captured by the camera 62 of the user photographing device 36 will be mainly focused on. The function of the shot management device 10 and the process executed by the shot management device 10 according to the present embodiment will be further described.

図10は、本実施形態に係るショット管理装置10で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るショット管理装置10で、図10に示す機能のすべてが実装される必要はなく、また、図10に示す機能以外の機能が実装されていても構わない。 FIG. 10 is a functional block diagram showing an example of the functions implemented in the shot management device 10 according to the present embodiment. It should be noted that the shot management device 10 according to the present embodiment does not need to be equipped with all the functions shown in FIG. 10, and may be equipped with functions other than the functions shown in FIG.

図10に示すように、ショット管理装置10には、機能的には例えば、機械学習モデル90、受信部110、ショットデータ生成部112、第1ターゲット画像特定部114、クラブ種類推定部116、第2ターゲット画像特定部118、ユーザ画像データ記憶部120、ユーザ判定部122、ショット管理データ生成部124、ショット管理データ記憶部126、集計部128、提供部130、が含まれる。 As shown in FIG. 10, functionally, the shot management device 10 includes a machine learning model 90, a reception unit 110, a shot data generation unit 112, a first target image identification unit 114, a club type estimation unit 116, and a first. 2. The target image identification unit 118, the user image data storage unit 120, the user determination unit 122, the shot management data generation unit 124, the shot management data storage unit 126, the aggregation unit 128, and the provision unit 130 are included.

機械学習モデル90は、プロセッサ12及び記憶部14を主として実装される。受信部110は、通信部16を主として実装される。ショットデータ生成部112、第1ターゲット画像特定部114、クラブ種類推定部116、第2ターゲット画像特定部118、ユーザ判定部122、ショット管理データ生成部124、集計部128は、プロセッサ12を主として実装される。ユーザ画像データ記憶部120、ショット管理データ記憶部126は、記憶部14を主として実装される。提供部130は、プロセッサ12及び表示部18を主として実装される。 The machine learning model 90 mainly implements the processor 12 and the storage unit 14. The receiving unit 110 mainly mounts the communication unit 16. The shot data generation unit 112, the first target image identification unit 114, the club type estimation unit 116, the second target image identification unit 118, the user determination unit 122, the shot management data generation unit 124, and the aggregation unit 128 mainly implement the processor 12. Will be done. The user image data storage unit 120 and the shot management data storage unit 126 are mainly implemented with the storage unit 14. The providing unit 130 mainly mounts the processor 12 and the display unit 18.

以上の機能は、コンピュータであるショット管理装置10にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12で実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してショット管理装置10に供給されてもよい。 The above functions may be implemented by executing the program including the instructions corresponding to the above functions installed in the shot management device 10 which is a computer on the processor 12. This program may be supplied to the shot management device 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like. ..

機械学習モデル90は、本実施形態では例えば、図4〜図9を参照して説明したようにして生成された学習済の機械学習モデルである。 The machine learning model 90 is, for example, a trained machine learning model generated as described with reference to FIGS. 4 to 9 in the present embodiment.

受信部110は、本実施形態では例えば、ヘッドスピードデータ、ステレオカメラ42により撮影された画像、カメラ54により撮影された画像、カメラ60により撮影された画像、及び、カメラ62により撮影された画像をショット測定装置22から受信する。 In the present embodiment, the receiving unit 110 receives, for example, head speed data, an image taken by the stereo camera 42, an image taken by the camera 54, an image taken by the camera 60, and an image taken by the camera 62. Received from the shot measuring device 22.

本実施形態では、1回のショットが行われる度に、受信部110は、当該ショットに対応付けられるヘッドスピードデータを弾道測定器30から受信する。また、受信部110は、当該ショットに対応付けられる、ステレオカメラ42により撮影された1又は複数の画像を弾道測定器30から受信する。また、受信部110は、当該ショットに対応付けられる、カメラ54により撮影された1又は複数の画像をヘッド挙動測定器32から受信する。また、受信部110は、当該ショットに対応付けられる、カメラ60により撮影された1又は複数の画像をヘッド撮影装置34から受信する。また、受信部110は、当該ショットに対応付けられる、カメラ62により撮影された1又は複数の画像をヘッド撮影装置34から受信する。 In the present embodiment, each time a shot is taken, the receiving unit 110 receives the head speed data associated with the shot from the ballistic measuring instrument 30. Further, the receiving unit 110 receives one or a plurality of images taken by the stereo camera 42 associated with the shot from the ballistic measuring instrument 30. Further, the receiving unit 110 receives one or a plurality of images taken by the camera 54 associated with the shot from the head behavior measuring device 32. Further, the receiving unit 110 receives one or a plurality of images taken by the camera 60 associated with the shot from the head photographing device 34. Further, the receiving unit 110 receives one or a plurality of images taken by the camera 62 associated with the shot from the head photographing device 34.

また、受信部110が、ボール有無判別センサ44から送信される上述の配置検出信号を受信してもよい。また、受信部110が、ボール有無判別センサ44から送信される上述のショット検出信号を受信してもよい。また、受信部110が、通過センサ58から送信される上述の通過検出信号を受信してもよい。 Further, the receiving unit 110 may receive the above-mentioned arrangement detection signal transmitted from the ball presence / absence determination sensor 44. Further, the receiving unit 110 may receive the above-mentioned shot detection signal transmitted from the ball presence / absence determination sensor 44. Further, the receiving unit 110 may receive the above-mentioned passage detection signal transmitted from the passage sensor 58.

ショットデータ生成部112は、本実施形態では例えば、ゴルフボール48をショットする際の当該ゴルフボール48をショットするゴルフクラブの挙動又はゴルフボール48の挙動のうちの少なくとも一方を示すショットデータを複数生成する。ここでは例えば、上述のボールデータ、及び、上述のクラブデータを含む、ショットデータが複数生成される。 In the present embodiment, the shot data generation unit 112 generates a plurality of shot data indicating at least one of the behavior of the golf club that shoots the golf ball 48 and the behavior of the golf ball 48 when the golf ball 48 is shot, for example. To do. Here, for example, a plurality of shot data including the above-mentioned ball data and the above-mentioned club data are generated.

第1ターゲット画像特定部114は、本実施形態では例えば、受信部110が受信する、1回のショットに対応付けられる、カメラ60により撮影された1又は複数の画像のうちから、ゴルフクラブの推定に用いられる第1ターゲット画像を特定する。本実施形態に係る第1ターゲット画像には、ゴルフボール48及び当該ゴルフボール48をショットするゴルフクラブが表れている。 In the present embodiment, the first target image specifying unit 114 estimates the golf club from, for example, one or a plurality of images taken by the camera 60 associated with one shot received by the receiving unit 110. The first target image used for is specified. The first target image according to the present embodiment shows a golf ball 48 and a golf club that shoots the golf ball 48.

第1ターゲット画像特定部114は、例えば、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像を、第1ターゲット画像に特定してもよい。この場合、例えば、配置検出信号の受信タイミングが、アドレスのタイミングとして取り扱われてもよい。また、例えば、ショット検出信号の受信タイミングが、ショットのタイミングとして取り扱われてもよい。 The first target image identification unit 114 may specify, for example, an image taken between the timing of the address in the shot and the timing of the shot as the first target image. In this case, for example, the reception timing of the arrangement detection signal may be treated as the address timing. Further, for example, the reception timing of the shot detection signal may be treated as the shot timing.

ここで、第1ターゲット画像特定部114は、例えば、検出されるショットのタイミングの所定時間前にカメラ60によって撮影された画像を、第1ターゲット画像に特定してもよい。 Here, the first target image identification unit 114 may specify, for example, an image taken by the camera 60 before a predetermined time of the timing of the detected shot as the first target image.

例えば、第1ターゲット画像特定部114が、ゴルフボール48が配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前にカメラ60によって撮影された画像を、第1ターゲット画像に特定してもよい。例えば、ショット検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、第1ターゲット画像に特定されてもよい。 For example, the first target image identification unit 114 first obtains an image taken by the camera 60 before a predetermined time when a change from the state in which the golf ball 48 is arranged to the state in which the golf ball 48 is not arranged is detected. It may be specified as a target image. For example, an image taken by the camera 60 before a predetermined time when the shot detection signal is received may be specified as the first target image.

また、第1ターゲット画像特定部114は、ゴルフクラブの通過が検出されたタイミングの所定時間前にカメラ60によって撮影された画像を、第1ターゲット画像に特定してもよい。例えば、通過検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、第1ターゲット画像に特定されてもよい。 Further, the first target image specifying unit 114 may specify an image taken by the camera 60 as the first target image before a predetermined time when the passage of the golf club is detected. For example, an image taken by the camera 60 before a predetermined time when the passage detection signal is received may be specified as the first target image.

また、第1ターゲット画像特定部114は、受信部110が通過検出信号を受信してから所定時間以内にショット検出信号を受信した際に、ショットが行われたことを特定してもよい。そして、このようにしてショットが行われたことが特定された場合に、ショット検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、第1ターゲット画像に特定されてもよい。あるいは、このようにしてショットのタイミングが特定された場合に、通過検出信号を受信したタイミングの所定時間前にカメラ60によって撮影された画像が、第1ターゲット画像に特定されてもよい。 Further, the first target image specifying unit 114 may specify that the shot was taken when the receiving unit 110 received the shot detection signal within a predetermined time after receiving the passage detection signal. Then, when it is specified that the shot has been performed in this way, the image taken by the camera 60 before the predetermined time of the timing at which the shot detection signal is received may be specified as the first target image. .. Alternatively, when the shot timing is specified in this way, the image taken by the camera 60 before the predetermined time of the timing at which the passage detection signal is received may be specified as the first target image.

また、上述のように、ボール有無判別センサ44による配置検出がされたタイミングにカメラ60による画像の撮影が開始されてもよい。そして、第1ターゲット画像特定部114は、配置検出がされたタイミング以後にカメラ60によって撮影された画像を、第1ターゲット画像に特定してもよい。 Further, as described above, the camera 60 may start taking an image at the timing when the arrangement is detected by the ball presence / absence determination sensor 44. Then, the first target image identification unit 114 may specify the image taken by the camera 60 after the timing when the arrangement is detected as the first target image.

クラブ種類推定部116は、本実施形態では例えば、第1ターゲット画像に基づいて、当該第1ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定する。ここで、クラブ種類推定部116は、学習済の機械学習モデル90に第1ターゲット画像を入力した際の出力に基づいて、当該第1ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定してもよい。そして、クラブ種類推定部116は、本実施形態では例えば、推定されたゴルフクラブの種類を示すクラブ種類データを生成する。 In the present embodiment, the club type estimation unit 116 estimates the type of golf club used for the shot represented by the first target image, for example, based on the first target image. Here, the club type estimation unit 116 estimates the type of golf club used for the shot represented by the first target image based on the output when the first target image is input to the trained machine learning model 90. You may. Then, in the present embodiment, the club type estimation unit 116 generates, for example, club type data indicating the estimated golf club type.

第2ターゲット画像特定部118は、本実施形態では例えば、受信部110が受信する、1回のショットに対応付けられる、カメラ62により撮影された1又は複数の画像のうちから、ゴルフボール48をショットしたユーザの判定に用いられる第2ターゲット画像を特定する。 In the present embodiment, the second target image specifying unit 118 selects the golf ball 48 from among one or a plurality of images taken by the camera 62, which are associated with one shot received by the receiving unit 110, for example. The second target image used for determining the shot user is specified.

第2ターゲット画像特定部118は、例えば、ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された画像を、第2ターゲット画像に特定してもよい。この場合、例えば、配置検出信号の受信タイミングが、アドレスのタイミングとして取り扱われてもよい。また、例えば、ショット検出信号の受信タイミングが、ショットのタイミングとして取り扱われてもよい。 The second target image specifying unit 118 may specify, for example, an image taken between the timing of the address in the shot and the timing of the shot as the second target image. In this case, for example, the reception timing of the arrangement detection signal may be treated as the address timing. Further, for example, the reception timing of the shot detection signal may be treated as the shot timing.

ここで、第2ターゲット画像特定部118は、例えば、検出されるショットのタイミングの所定時間前にカメラ60によって撮影された画像を、第2ターゲット画像に特定してもよい。 Here, the second target image identification unit 118 may specify, for example, an image taken by the camera 60 before a predetermined time of the timing of the detected shot as the second target image.

例えば、第2ターゲット画像特定部118が、ゴルフボール48が配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前にカメラ62によって撮影された画像を、第2ターゲット画像に特定してもよい。例えば、ショット検出信号を受信したタイミングの所定時間前にカメラ62によって撮影された画像が、第2ターゲット画像に特定されてもよい。 For example, the second target image identification unit 118 captures an image taken by the camera 62 a predetermined time before the timing at which the change from the state in which the golf ball 48 is arranged to the state in which the golf ball 48 is not arranged is detected. It may be specified as a target image. For example, an image taken by the camera 62 before a predetermined time when the shot detection signal is received may be specified as the second target image.

また、第2ターゲット画像特定部118は、ゴルフクラブの通過が検出されたタイミングの所定時間前にカメラ62によって撮影された画像を、第2ターゲット画像に特定してもよい。例えば、通過検出信号を受信したタイミングの所定時間前にカメラ62によって撮影された画像が、第2ターゲット画像に特定されてもよい。 Further, the second target image specifying unit 118 may specify an image taken by the camera 62 as a second target image before a predetermined time when the passage of the golf club is detected. For example, an image taken by the camera 62 before a predetermined time when the passage detection signal is received may be specified as the second target image.

また、第2ターゲット画像特定部118は、受信部110が通過検出信号を受信してから所定時間以内にショット検出信号を受信した際に、ショットが行われたことを特定してもよい。そして、このようにしてショットが行われたことが特定された場合に、ショット検出信号を受信したタイミングの所定時間前にカメラ62によって撮影された画像が、第2ターゲット画像に特定されてもよい。あるいは、このようにしてショットのタイミングが特定された場合に、通過検出信号を受信したタイミングの所定時間前にカメラ62によって撮影された画像が、第2ターゲット画像に特定されてもよい。 Further, the second target image specifying unit 118 may specify that the shot was taken when the receiving unit 110 received the shot detection signal within a predetermined time after receiving the passage detection signal. Then, when it is specified that the shot has been performed in this way, the image taken by the camera 62 before the predetermined time of the timing at which the shot detection signal is received may be specified as the second target image. .. Alternatively, when the shot timing is specified in this way, the image taken by the camera 62 before the predetermined time of the timing at which the passage detection signal is received may be specified as the second target image.

また、上述のように、ボール有無判別センサ44による配置検出がされたタイミングにカメラ62による画像の撮影が開始されてもよい。そして、第2ターゲット画像特定部118は、配置検出がされたタイミング以後にカメラ62によって撮影された画像を、第2ターゲット画像に特定してもよい。 Further, as described above, the camera 62 may start taking an image at the timing when the arrangement is detected by the ball presence / absence determination sensor 44. Then, the second target image specifying unit 118 may specify the image taken by the camera 62 after the timing when the arrangement is detected as the second target image.

ユーザ画像データ記憶部120は、本実施形態では、例えば、ユーザの識別情報(ID)であるユーザIDと、少なくとも1つの当該ユーザの画像と、を含むユーザ画像データを記憶する。ここで例えば、ユーザの会員登録の際などに撮影される当該ユーザの顔画像と、当該ユーザのユーザIDと、を含むユーザ画像データがユーザ画像データ記憶部120に記憶されてもよい。 In the present embodiment, the user image data storage unit 120 stores user image data including, for example, a user ID which is user identification information (ID) and at least one image of the user. Here, for example, the user image data including the face image of the user and the user ID of the user, which are taken when the user is registered as a member, may be stored in the user image data storage unit 120.

ユーザ判定部122は、本実施形態では例えば、複数のショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得する。ここでは例えば、ユーザ判定部122は、複数の第2ターゲット画像を取得する。そして、ユーザ判定部122は、本実施形態では例えば、それぞれの第2ターゲット画像に基づいて、当該第2ターゲット画像に関連付けられるショットデータが複数のユーザのうちのいずれに関連付けられるかを判定する。 In the present embodiment, the user determination unit 122 acquires, for example, a plurality of images of users who have taken shots corresponding to the shot data among the plurality of users, which are associated with the plurality of shot data. Here, for example, the user determination unit 122 acquires a plurality of second target images. Then, in the present embodiment, the user determination unit 122 determines which of the plurality of users the shot data associated with the second target image is associated with, for example, based on each second target image.

ここで、ユーザ判定部122は、例えば、画像認識技術を用いることで、第2ターゲット画像からユーザの顔を表す部分を抽出してもよい。以下、このようにして抽出された部分を、抽出部分画像と呼ぶこととする。そして、ユーザ判定部122は、抽出部分画像に基づいて、第2ターゲット画像が表すユーザを判定してもよい。 Here, the user determination unit 122 may extract a portion representing the user's face from the second target image by using, for example, an image recognition technique. Hereinafter, the portion extracted in this way will be referred to as an extracted partial image. Then, the user determination unit 122 may determine the user represented by the second target image based on the extracted partial image.

ここでユーザは、例えば、画像認識技術を用いて、ユーザ画像データ記憶部120に記憶されているユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものを判定してもよい。そしてユーザ画像データにおいて、判定されたユーザの画像に関連付けられているユーザIDを特定してもよい。そして、ユーザ判定部122は、抽出部分画像を、当該ユーザ画像データに追加してもよい。以後、当該抽出部分画像は、当該ユーザ画像データに含まれるユーザの画像として取り扱われることとなる。 Here, for example, the user may use an image recognition technique to determine from among the images of the user stored in the user image data storage unit 120, those representing the same user as the user represented by the extracted partial image. .. Then, in the user image data, the user ID associated with the determined user's image may be specified. Then, the user determination unit 122 may add the extracted partial image to the user image data. After that, the extracted partial image will be treated as an image of the user included in the user image data.

ここでユーザ画像データ記憶部120に記憶されるユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものが存在しないことが判定される場合がある。この場合は、ユーザ判定部122は、いずれのユーザ画像データとも重複しない新規のユーザIDと、抽出部分画像と、を含む、新規のユーザ画像データを生成してもよい。そして、ユーザ判定部122は、生成されたユーザ画像データを、ユーザ画像データ記憶部120に記憶させてもよい。以後、当該抽出部分画像は、新規のユーザ画像データに含まれるユーザの画像として取り扱われることとなる。 Here, it may be determined that among the images of the user stored in the user image data storage unit 120, there is no image representing the same user as the user represented by the extracted partial image. In this case, the user determination unit 122 may generate new user image data including a new user ID that does not overlap with any user image data and an extracted partial image. Then, the user determination unit 122 may store the generated user image data in the user image data storage unit 120. After that, the extracted partial image will be treated as a user image included in the new user image data.

ショット管理データ生成部124は、本実施形態では例えば、1回のショットに対応付けられる上述のショットデータに、当該ショットについてクラブ種類推定部116によって推定されるゴルフクラブの種類を示すクラブ種類データ、及び、当該ショットについてユーザ判定部122により判定されるユーザを関連付ける。ここでは例えば、1回のショットに対応付けられる上述のショットデータと、当該ショットについて推定されたゴルフクラブの種類を示すクラブ種類データと、当該ショットについて判定されたユーザのユーザIDと、を含むショット管理データが生成される。 In the present embodiment, the shot management data generation unit 124 includes, for example, club type data indicating the type of golf club estimated by the club type estimation unit 116 for the shot in the above-mentioned shot data associated with one shot. Then, the user who is determined by the user determination unit 122 for the shot is associated with the shot. Here, for example, a shot including the above-mentioned shot data associated with one shot, club type data indicating the type of golf club estimated for the shot, and the user ID of the user determined for the shot. Management data is generated.

例えば、ユーザ画像データ記憶部120に記憶されているユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものが判定された場合は、当該ユーザのユーザIDを含むショット管理データが生成される。また、例えば、ユーザ画像データ記憶部120に記憶されているユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものが存在しないことが判定された場合は、新規に生成されるユーザ画像データに含まれるユーザIDを含むショット管理データが生成される。 For example, when it is determined that the image of the user stored in the user image data storage unit 120 represents the same user as the user represented by the extracted partial image, the shot management data including the user ID of the user is stored. Will be generated. Further, for example, when it is determined that none of the images of the user stored in the user image data storage unit 120 represents the same user as the user represented by the extracted partial image, a new image is generated. Shot management data including the user ID included in the user image data is generated.

なお、ショット管理データに、例えば、ショット検出信号の受信時刻などといったショットタイミングを示すショットタイミングデータが含まれるようにしてもよい。 The shot management data may include shot timing data indicating the shot timing, such as the reception time of the shot detection signal.

ショット管理データ記憶部126は、本実施形態では例えば、ショット管理データ生成部124により生成されるショット管理データを記憶する。本実施形態ではショットが行われる度に、当該ショットに対応するショット管理データが生成される。そして、生成されるショット管理データがショット管理データ記憶部126に記憶される。 In the present embodiment, the shot management data storage unit 126 stores, for example, the shot management data generated by the shot management data generation unit 124. In the present embodiment, each time a shot is taken, shot management data corresponding to the shot is generated. Then, the generated shot management data is stored in the shot management data storage unit 126.

集計部128は、本実施形態では例えば、ショット管理データ記憶部126に記憶されている複数のショット管理データを集計する。 In the present embodiment, the aggregation unit 128 aggregates a plurality of shot management data stored in the shot management data storage unit 126, for example.

ここで、集計部128が、例えば、共通のゴルフクラブの種類に関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、ユーザにより指定された種類を示すクラブ種類データを含む複数のショット管理データを特定してもよい。 Here, the aggregation unit 128 may calculate, for example, a representative value of a value indicated by each of a plurality of shot data associated with a common golf club type. For example, the aggregation unit 128 may specify a plurality of shot management data including club type data indicating the type specified by the user.

また、集計部128が、例えば、共通のユーザIDに関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、ユーザにより指定されたユーザIDを含む複数のショット管理データを特定してもよい。 Further, the aggregation unit 128 may calculate, for example, a representative value of the value indicated by each of the plurality of shot data associated with the common user ID. For example, the aggregation unit 128 may specify a plurality of shot management data including a user ID specified by the user.

なお、ショット管理装置10がカメラなどの撮影装置を備えていてもよい。そして、集計部128が、画像認識技術により、当該撮影装置により撮影されたユーザの画像と、ユーザ画像データ記憶部120に記憶されているユーザ画像データに含まれるユーザの画像とを照合することで、当該ユーザのユーザIDを判定してもよい。そして、集計部128が、判定されたユーザIDを含む複数のショット管理データを特定してもよい。 The shot management device 10 may include a photographing device such as a camera. Then, the totaling unit 128 collates the user's image taken by the photographing device with the user's image included in the user image data stored in the user image data storage unit 120 by the image recognition technology. , The user ID of the user may be determined. Then, the aggregation unit 128 may specify a plurality of shot management data including the determined user ID.

また、集計部128が、例えば、共通のユーザID、及び、共通のゴルフクラブの種類に関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、ユーザにより指定されたユーザIDとユーザにより指定された種類を示すクラブ種類データとを含む複数のショット管理データを特定してもよい。また上述の撮影装置により撮影されたユーザの画像に基づいて判定されるユーザIDとユーザにより指定された種類を示すクラブ種類データとを含む複数のショット管理データが特定されてもよい。 Further, the aggregation unit 128 may calculate, for example, a common user ID and a representative value of a value indicated by each of a plurality of shot data associated with a common golf club type. For example, the aggregation unit 128 may specify a plurality of shot management data including a user ID specified by the user and club type data indicating the type specified by the user. Further, a plurality of shot management data including a user ID determined based on the user's image taken by the above-mentioned photographing device and club type data indicating the type specified by the user may be specified.

そして、集計部128が、当該複数のショット管理データにそれぞれに含まれるショットデータが示す値の代表値を計算してもよい。 Then, the aggregation unit 128 may calculate a representative value of the value indicated by the shot data included in each of the plurality of shot management data.

例えば、ボールスピードデータ、打出し角度データ、スピン量データ、飛距離データ、ヘッドスピードデータ、フェーススピードデータ、ヘッド軌道データ、ダイナミックロフトデータ、フェース角データ、ライ角データ、打点位置データ、法線角度データ、又は、フェースローテーションデータのうちの少なくとも1つについて、当該データの値の代表値(例えば、平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つ)が計算されてもよい。 For example, ball speed data, launch angle data, spin amount data, flight distance data, head speed data, face speed data, head trajectory data, dynamic loft data, face angle data, lie angle data, hitting point position data, normal angle. For at least one of the data or face rotation data, even if a representative value of the value of the data (for example, at least one of the average value, the standard deviation, the maximum value, or the minimum value) is calculated. Good.

提供部130は、本実施形態では、集計部128により計算される集計結果をユーザに提供する。ここで、提供部130は、本実施形態では、集計部128により計算される集計結果を表示部18に表示させてもよい。また、集計部128により計算される集計結果が印刷出力されてもよい。 In the present embodiment, the providing unit 130 provides the user with the aggregation result calculated by the aggregation unit 128. Here, in the present embodiment, the providing unit 130 may display the aggregation result calculated by the aggregation unit 128 on the display unit 18. Further, the aggregation result calculated by the aggregation unit 128 may be printed out.

ここで、例えば、集計部128が、ユーザによるゴルフクラブの種類の指定に応じて、集計部128が当該種類に関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、指定された種類を示すクラブ種類データを含む複数のショット管理データを特定してもよい。そして、集計部128が、これら複数のショット管理データが示す値の代表値を計算してもよい。 Here, for example, even if the totaling unit 128 calculates the representative value of the value indicated by each of the plurality of shot data associated with the type according to the user's designation of the golf club type. Good. For example, the aggregation unit 128 may specify a plurality of shot management data including club type data indicating the specified type. Then, the aggregation unit 128 may calculate a representative value of the values indicated by the plurality of shot management data.

また、例えば、集計部128が、ユーザによるユーザIDの指定に応じて、集計部128が当該ユーザIDに関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、指定されたユーザIDを含む複数のショット管理データを特定してもよい。あるいは、集計部128が、上述の撮影装置により撮影されたユーザの画像に基づいて判定されるユーザIDを含む複数のショット管理データを特定してもよい。そして、集計部128が、これら複数のショット管理データが示す値の代表値を計算してもよい。 Further, for example, the aggregation unit 128 may calculate the representative value of the value indicated by each of the plurality of shot data associated with the user ID according to the designation of the user ID by the user. For example, the aggregation unit 128 may specify a plurality of shot management data including the designated user ID. Alternatively, the aggregation unit 128 may specify a plurality of shot management data including a user ID determined based on the user's image taken by the above-mentioned photographing device. Then, the aggregation unit 128 may calculate a representative value of the values indicated by the plurality of shot management data.

また、例えば、集計部128が、ユーザによるゴルフクラブの種類、及び、ユーザIDの指定に応じて、集計部128が当該ゴルフクラブの種類、及び、当該ユーザIDに関連付けられている複数のショットデータのそれぞれが示す値の代表値を計算してもよい。例えば、集計部128が、指定された種類を示すゴルフ種類データと、指定されたユーザIDと、を含む複数のショット管理データを特定してもよい。あるいは、集計部128が、指定された種類を示すゴルフ種類データと、上述の撮影装置により撮影されたユーザの画像に基づいて判定されるユーザIDと、を含む複数のショット管理データを特定してもよい。そして、集計部128が、これら複数のショット管理データが示す値の代表値を計算してもよい。 Further, for example, the totaling unit 128 has the type of golf club and a plurality of shot data associated with the user ID according to the designation of the golf club type and the user ID by the user. The representative value of the value indicated by each of the above may be calculated. For example, the aggregation unit 128 may specify a plurality of shot management data including golf type data indicating a designated type and a designated user ID. Alternatively, the aggregation unit 128 identifies a plurality of shot management data including golf type data indicating the specified type and a user ID determined based on the image of the user photographed by the above-mentioned photographing device. May be good. Then, the aggregation unit 128 may calculate a representative value of the values indicated by the plurality of shot management data.

そして、提供部130が、計算された代表値を、表示部18に表示させたり、印刷出力したりしてもよい。ここで、提供部130は、これら複数のショット管理データのそれぞれが示す値の一覧を併せて表示部18に表示させたり、印刷出力したりしてもよい。 Then, the providing unit 130 may display the calculated representative value on the display unit 18 or print out the calculated representative value. Here, the providing unit 130 may display a list of values indicated by each of the plurality of shot management data on the display unit 18 or print out the list.

また、提供部130が、ゴルフクラブの種類ごとに、当該種類に対応する複数のショット管理データが示す値の代表値を計算してもよい。そして、ゴルフクラブの種類ごとの代表値の一覧を、表示部18に表示させたり、印刷出力したりしてもよい。 Further, the providing unit 130 may calculate a representative value of a value indicated by a plurality of shot management data corresponding to the type of the golf club for each type of golf club. Then, a list of representative values for each type of golf club may be displayed on the display unit 18 or printed out.

また、提供部130が、ゴルフボール48をショットするユーザごとに、当該ユーザに対応する複数のショット管理データが示す値の代表値を計算してもよい。そして、ユーザごとの代表値の一覧を、表示部18に表示させたり、印刷出力したりしてもよい。 Further, the providing unit 130 may calculate a representative value of a value indicated by a plurality of shot management data corresponding to the user for each user who shoots the golf ball 48. Then, a list of representative values for each user may be displayed on the display unit 18 or printed out.

また、提供部130が、ゴルフクラブの種類とゴルフボール48をショットするユーザとの組合せごとに、当該ユーザに対応する複数のショット管理データが示す値の代表値を計算してもよい。そして、ゴルフクラブの種類とゴルフボール48をショットするユーザとの組合せごとの代表値の一覧を、表示部18に表示させたり、印刷出力したりしてもよい。 Further, the providing unit 130 may calculate a representative value of a value indicated by a plurality of shot management data corresponding to the user for each combination of the type of golf club and the user who shoots the golf ball 48. Then, a list of representative values for each combination of the type of golf club and the user who shoots the golf ball 48 may be displayed on the display unit 18 or printed out.

ここで、本実施形態に係るショット管理装置10で行われる処理の流れの一例を、図11に例示するフロー図を参照しながら説明する。図11に示す処理例では、ショット検出信号の受信に応じて、1回のショットに対応付けられるショット管理データが生成され、記憶される。 Here, an example of the flow of processing performed by the shot management device 10 according to the present embodiment will be described with reference to the flow chart illustrated in FIG. In the processing example shown in FIG. 11, shot management data associated with one shot is generated and stored in response to the reception of the shot detection signal.

まず、ショットデータ生成部112が、受信部110によるショット検出信号の受信を待機する(S201)。 First, the shot data generation unit 112 waits for the reception unit 110 to receive the shot detection signal (S201).

そして、受信部110によるショット検出信号の受信が検出されると、ショットデータ生成部112は、ショットデータを生成する(S202)。ここでは例えば、受信部110が、ショット検出信号の受信タイミング以前又は以後の所定時間以内に、弾道測定器30及びヘッド挙動測定器32から受信した画像、並びに、弾道測定器30から受信したヘッドスピードデータが特定される。そして、特定された画像及びヘッドスピードデータに基づいて、ショットデータが生成される。 Then, when the reception of the shot detection signal by the receiving unit 110 is detected, the shot data generation unit 112 generates shot data (S202). Here, for example, the image received by the receiving unit 110 from the ballistic measuring device 30 and the head behavior measuring device 32 within a predetermined time before or after the reception timing of the shot detection signal, and the head speed received from the ballistic measuring device 30. The data is identified. Then, shot data is generated based on the specified image and head speed data.

そして、第1ターゲット画像特定部114が、上述のようにして、第1ターゲット画像を特定する(S203)。 Then, the first target image identification unit 114 identifies the first target image as described above (S203).

そして、クラブ種類推定部116が、S203に示す処理で特定された第1ターゲット画像に基づいて、当該第1ターゲット画像に表れているゴルフクラブの種類を推定し、推定されたゴルフクラブの種類を示すクラブ種類データを生成する(S204)。ここで上述のように、第1ターゲット画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類が推定されてもよい。 Then, the club type estimation unit 116 estimates the type of golf club appearing in the first target image based on the first target image specified by the process shown in S203, and determines the estimated type of golf club. The indicated club type data is generated (S204). Here, as described above, the type of golf club may be estimated based on the output when the first target image is input to the machine learning model 90.

そして、第2ターゲット画像特定部118が、上述のようにして、第2ターゲット画像を特定する(S205)。 Then, the second target image identification unit 118 identifies the second target image as described above (S205).

そして、ユーザ判定部122が、S205に示す処理で特定された第2ターゲット画像に基づいて、当該第2ターゲット画像に表れているユーザのユーザIDを判定する(S206)。 Then, the user determination unit 122 determines the user ID of the user appearing in the second target image based on the second target image specified in the process shown in S205 (S206).

なお、そして、ユーザ判定部122が、ユーザ画像データ記憶部120に記憶されているユーザ画像データに対する処理を実行する(S207)。 Then, the user determination unit 122 executes a process for the user image data stored in the user image data storage unit 120 (S207).

S206に示す処理では、例えば、ユーザ画像データにおいて、抽出部分画像が表すユーザと同じユーザを表すユーザの画像に関連付けられているユーザIDが判定される。そしてこの場合は、S207に示す処理で、当該抽出部分画像が、当該ユーザIDを含むユーザ画像データに追加される。 In the process shown in S206, for example, in the user image data, the user ID associated with the image of the user representing the same user as the user represented by the extracted partial image is determined. Then, in this case, the extracted partial image is added to the user image data including the user ID by the process shown in S207.

また、S206に示す処理では、例えば、抽出部分画像が表すユーザと同じユーザを表すユーザの画像が存在しないことが判定された場合は、新規のユーザIDが払い出される。そしてこの場合は、S207に示す処理で、当該新規のユーザIDと、当該抽出部分画像と、を含む、新規のユーザ画像データが生成される。そして、生成されたユーザ画像データが、ユーザ画像データ記憶部120に記憶される。 Further, in the process shown in S206, for example, when it is determined that the image of the user representing the same user as the user represented by the extracted partial image does not exist, a new user ID is issued. Then, in this case, the process shown in S207 generates new user image data including the new user ID and the extracted partial image. Then, the generated user image data is stored in the user image data storage unit 120.

そして、ショット管理データ生成部124が、S202に示す処理で生成されたショットデータと、S204に示す処理で生成されたクラブ種類データと、S206に示す処理で判定されたユーザIDと、を含むショット管理データを生成する(S208)。 Then, the shot management data generation unit 124 includes the shot data generated by the process shown in S202, the club type data generated by the process shown in S204, and the user ID determined by the process shown in S206. Generate management data (S208).

S208に示す処理では、ユーザ画像データ記憶部120に記憶されているユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものが判定された場合は、当該ユーザのユーザIDを含むショット管理データが生成される。また、ユーザ画像データ記憶部120に記憶されているユーザの画像のうちから、抽出部分画像が表すユーザと同じユーザを表すものが存在しないことが判定された場合は、新規に生成されるユーザ画像データに含まれるユーザIDを含むショット管理データが生成される。 In the process shown in S208, when it is determined that the image of the user stored in the user image data storage unit 120 represents the same user as the user represented by the extracted partial image, the user ID of the user is included. Shot management data is generated. Further, when it is determined that none of the user images stored in the user image data storage unit 120 represents the same user as the user represented by the extracted partial image, a newly generated user image is generated. Shot management data including the user ID included in the data is generated.

そして、ショット管理データ生成部124が、S208に示す処理で生成されたショット管理データをショット管理データ記憶部126に記憶させて(S209)、本処理例に示す処理は終了される。 Then, the shot management data generation unit 124 stores the shot management data generated in the process shown in S208 in the shot management data storage unit 126 (S209), and the process shown in this processing example is completed.

本実施形態において、ユーザ判定部122が、学習済の機械学習モデルを用いて、ショットデータが複数のユーザのうちのいずれに関連付けられるかを判定してもよい。例えば、クラスタリング等の教師なし学習を実行することで、複数のユーザの画像を分類してもよい。そして、当該教師なし学習が実行された学習済の機械学習モデルを用いて、ユーザ判定部122が、第2ターゲット画像に基づいて、当該第2ターゲット画像に表れているユーザのユーザIDを判定してもよい。 In the present embodiment, the user determination unit 122 may determine which of the plurality of users the shot data is associated with by using the trained machine learning model. For example, images of a plurality of users may be classified by performing unsupervised learning such as clustering. Then, using the trained machine learning model in which the unsupervised learning is executed, the user determination unit 122 determines the user ID of the user appearing in the second target image based on the second target image. You may.

また例えば、ユーザ画像データ記憶部120が、ユーザIDと、ユーザの画像の特徴を示す特徴ベクトルと、を含むユーザ画像データを記憶してもよい。当該特徴ベクトルは、例えば、学習済の自己符号化器にユーザの画像を入力することによって抽出されるものであってもよい。そして、この場合に、当該学習済の自己符号化器に第2ターゲット画像を入力することによって当該第2ターゲット画像に対応する特徴ベクトルが抽出されてもよい。そして、ユーザ画像データに含まれる特徴ベクトルのうちから、第2ターゲット画像に対応する特徴ベクトルからの距離が最も近いものが特定されてもよい。そして、ユーザ判定部122が、特定された特徴ベクトルに関連付けられているユーザIDを、第2ターゲット画像に表れているユーザのユーザIDと判定してもよい。 Further, for example, the user image data storage unit 120 may store the user image data including the user ID and the feature vector indicating the features of the user's image. The feature vector may be extracted, for example, by inputting a user's image into a trained self-encoder. Then, in this case, the feature vector corresponding to the second target image may be extracted by inputting the second target image into the trained self-encoder. Then, from the feature vectors included in the user image data, the one having the shortest distance from the feature vector corresponding to the second target image may be specified. Then, the user determination unit 122 may determine the user ID associated with the specified feature vector as the user ID of the user appearing in the second target image.

本実施形態では、基礎画像に対して前処理が実行されることで生成される学習入力画像により、機械学習モデル90の学習が実行される。そのため、ゴルフクラブの種類を的確に推定できる機械学習モデル90の学習を少ない画像を用いて行うことができることとなる。 In the present embodiment, the learning of the machine learning model 90 is executed by the learning input image generated by executing the preprocessing on the basic image. Therefore, the machine learning model 90, which can accurately estimate the type of golf club, can be learned by using a small number of images.

また、本実施形態では、集計部128により、ゴルフクラブの種類ごとのショットデータが集計される。そのため、本実施形態によれば、ゴルフクラブの種類ごとのショットデータの集計の手間を低減できることとなる。 Further, in the present embodiment, the totaling unit 128 aggregates shot data for each type of golf club. Therefore, according to the present embodiment, it is possible to reduce the time and effort required to aggregate shot data for each type of golf club.

また、本実施形態では、ショット管理データ生成部124によって、ゴルフボール48をショットするユーザがショットデータに関連付けられる。そのため、ショットを行ったユーザに関連付けてショットデータを管理する際の手間を軽減できることとなる。 Further, in the present embodiment, the shot management data generation unit 124 associates the user who shoots the golf ball 48 with the shot data. Therefore, it is possible to reduce the time and effort required to manage the shot data in association with the user who performed the shot.

また、本実施形態では、集計部128により、ゴルフボール48をショットするユーザのごとのショットデータが集計される。そのため、本実施形態によれば、ショットを行ったユーザごとのショットデータの集計の手間を低減できることとなる。 Further, in the present embodiment, the aggregation unit 128 aggregates the shot data for each user who shoots the golf ball 48. Therefore, according to the present embodiment, it is possible to reduce the time and effort required to aggregate the shot data for each user who has performed the shot.

なお、本実施形態において、クラブ種類推定部116が、第1ターゲット画像内においてゴルフボール48の画像が占める領域の位置、大きさ、又は、色のうちの少なくとも1つに基づいて、ゴルフクラブ及びゴルフボール48を少なくとも表す、第1ターゲット画像とは異なる、入力画像を生成してもよい。例えば、基礎画像に基づいて学習入力画像を生成する際に用いられるアルゴリズムと同様のアルゴリズムにより、第1ターゲット画像に基づいて入力画像が生成されてもよい。 In the present embodiment, the club type estimation unit 116 sets the golf club and the golf club based on at least one of the position, size, or color of the area occupied by the image of the golf ball 48 in the first target image. An input image different from the first target image representing at least the golf ball 48 may be generated. For example, the input image may be generated based on the first target image by an algorithm similar to the algorithm used when generating the learning input image based on the basic image.

例えば、クラブ種類推定部116が、入力画像内におけるゴルフボール48の画像が占める領域の位置が所定の位置である入力画像を生成してもよい。 For example, the club type estimation unit 116 may generate an input image in which the position of the region occupied by the image of the golf ball 48 in the input image is a predetermined position.

また、例えば、クラブ種類推定部116が、ゴルフボール48の画像が占める領域の大きさが所定の大きさである入力画像を生成してもよい。 Further, for example, the club type estimation unit 116 may generate an input image in which the size of the region occupied by the image of the golf ball 48 is a predetermined size.

また、例えば、クラブ種類推定部116が、ゴルフボール48の画像が占める領域の色が所定色となるよう画像全体が色補正された入力画像を生成してもよい。 Further, for example, the club type estimation unit 116 may generate an input image in which the entire image is color-corrected so that the color of the region occupied by the image of the golf ball 48 becomes a predetermined color.

また、例えば、第1ターゲット画像が、人工芝をさらに表す画像であり、クラブ種類推定部116が、人工芝の画像が示す領域の色が所定色となるよう画像全体が色補正された入力画像を生成してもよい。 Further, for example, the first target image is an image further representing the artificial turf, and the club type estimation unit 116 is an input image in which the entire image is color-corrected so that the color of the region indicated by the artificial turf image becomes a predetermined color. May be generated.

また、例えば、クラブ種類推定部116が、人工芝の縁の向きが所定の向きとなるよう画像全体が回転された入力画像を生成してもよい。 Further, for example, the club type estimation unit 116 may generate an input image in which the entire image is rotated so that the orientation of the edges of the artificial turf is a predetermined orientation.

また、例えば、第1ターゲット画像が、ティー50をさらに表す画像であり、クラブ種類推定部116が、ティー50の向きが所定の向きとなるよう画像全体が回転された入力画像を生成してもよい。 Further, for example, even if the first target image is an image further representing the tee 50 and the club type estimation unit 116 generates an input image in which the entire image is rotated so that the orientation of the tee 50 becomes a predetermined orientation. Good.

そして、クラブ種類推定部116が、入力画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類を推定してもよい。 Then, the club type estimation unit 116 may estimate the type of the golf club based on the output when the input image is input to the machine learning model 90.

なおこの場合、機械学習モデル90が、前処理部96により生成される学習入力画像の入力に応じた出力を用いた学習が実行された機械学習モデルでなくても構わない。例えば、ゴルフクラブ及びゴルフボール48が所定の向きとなり、所定の画角で、所定の色味となるよう撮影された学習入力画像と、当該ゴルフクラブの種類を示す教師データと、を含むよう予め作成された複数の学習データを用いた学習が実行された機械学習モデルであっても構わない。 In this case, the machine learning model 90 does not have to be a machine learning model in which learning using the output corresponding to the input of the learning input image generated by the preprocessing unit 96 is executed. For example, a learning input image taken so that the golf club and the golf ball 48 are oriented in a predetermined direction, have a predetermined angle of view, and have a predetermined color, and teacher data indicating the type of the golf club are included in advance. It may be a machine learning model in which training is executed using a plurality of created training data.

以上のように、ゴルフボール48、ティー50、人工芝の像を頼りに、第1ターゲット画像に基づいて生成された、学習入力画像に似た入力画像を機械学習モデル90に入力した際の出力に基づいて、ゴルフクラブの種類を推定してもよい。この場合、機械学習モデル90が前処理部96により生成される学習入力画像の入力に応じた出力を用いた学習が実行されたものであるか否かに関わらず、ゴルフクラブの種類を的確に推定できる機械学習モデル90の学習を少ない画像を用いて行うことができる。 As described above, the output when an input image similar to the training input image generated based on the first target image is input to the machine learning model 90, relying on the images of the golf ball 48, the tee 50, and the artificial turf. The type of golf club may be estimated based on. In this case, regardless of whether or not the machine learning model 90 has been trained using the output corresponding to the input of the learning input image generated by the preprocessing unit 96, the type of golf club is accurately selected. Learning of the machine learning model 90 that can be estimated can be performed using a small number of images.

なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.

例えば、ショット測定装置22が打音を検出する打音検出センサを備えていてもよい。そして、打音検出センサによって打音が検出されたタイミングに、打音検出センサが、所定のショット検出信号をショット管理装置10に送信してもよい。そして、受信部110が当該ショット検出信号を受信してもよい。 For example, the shot measuring device 22 may include a tapping sound detection sensor that detects the tapping sound. Then, at the timing when the tapping sound is detected by the tapping sound detection sensor, the tapping sound detection sensor may transmit a predetermined shot detection signal to the shot management device 10. Then, the receiving unit 110 may receive the shot detection signal.

そしてこの場合に、第1ターゲット画像特定部114が、打音が検出されたタイミングの所定時間前にヘッド撮影装置34のカメラ60により撮影された画像を、第1ターゲット画像に特定してもよい。例えば、打音検出センサが送信するショット検出信号を受信部110が受信したタイミングの所定時間前にカメラ60により撮影された画像が、第1ターゲット画像に特定されてもよい。 In this case, the first target image specifying unit 114 may specify the image taken by the camera 60 of the head photographing device 34 as the first target image at a predetermined time before the timing at which the tapping sound is detected. .. For example, an image taken by the camera 60 before a predetermined time when the receiving unit 110 receives the shot detection signal transmitted by the tapping sound detection sensor may be specified as the first target image.

また、この場合に、第2ターゲット画像特定部118が、打音が検出されたタイミングの所定時間前にユーザ撮影装置36のカメラ62により撮影された画像を、第2ターゲット画像に特定してもよい。例えば、打音検出センサが送信するショット検出信号を受信部110が受信したタイミングの所定時間前にカメラ62により撮影された画像が、第2ターゲット画像に特定されてもよい。 Further, in this case, even if the second target image specifying unit 118 specifies the image taken by the camera 62 of the user photographing device 36 as the second target image before the predetermined time when the tapping sound is detected. Good. For example, an image taken by the camera 62 before a predetermined time when the receiving unit 110 receives the shot detection signal transmitted by the tapping sound detection sensor may be specified as the second target image.

また、ショット管理装置10とショット測定装置22との役割分担は上述のものには限定されない。例えば、ショット管理装置10で実装される図10に示す機能の一部又は全部がショット測定装置22で実装されてもよい。また、例えば、ショット管理装置10でヘッドスピードデータが生成されてもよい。 Further, the division of roles between the shot management device 10 and the shot measuring device 22 is not limited to the above. For example, a part or all of the functions shown in FIG. 10 mounted on the shot management device 10 may be mounted on the shot measuring device 22. Further, for example, the shot management device 10 may generate head speed data.

また、ヘッド撮影装置34の機能が、ヘッド挙動測定器32に実装されていてもよい。 Further, the function of the head photographing device 34 may be mounted on the head behavior measuring device 32.

また、例えば、図12に示すように、複数のショット測定システム1が、ショット管理装置10と同様の、パーソナルコンピュータなどのコンピュータである端末132と通信可能であってもよい。そして、それぞれのショット測定システム1が、ショット管理データ生成部124によって生成されたショット管理データを、端末132に送信してもよい。この場合、送信されるショット管理データには、当該ショット管理データを送信するショット測定システム1の識別情報が関連付けられていてもよい。 Further, for example, as shown in FIG. 12, a plurality of shot measurement systems 1 may be able to communicate with a terminal 132 which is a computer such as a personal computer similar to the shot management device 10. Then, each shot measurement system 1 may transmit the shot management data generated by the shot management data generation unit 124 to the terminal 132. In this case, the shot management data to be transmitted may be associated with the identification information of the shot measurement system 1 that transmits the shot management data.

そして、端末132が、上述の集計部128や提供部130の機能を担っていてもよい。例えば、端末132が、上述したように、複数のショット測定システム1から受信した複数のショット管理データを集計してもよい。そして端末132が、端末132により計算される集計結果を、端末132のユーザに提供してもよい。 Then, the terminal 132 may have the functions of the above-mentioned aggregation unit 128 and provision unit 130. For example, as described above, the terminal 132 may aggregate a plurality of shot management data received from the plurality of shot measurement systems 1. Then, the terminal 132 may provide the aggregation result calculated by the terminal 132 to the user of the terminal 132.

ゴルフ練習場の打席のそれぞれに、ショット測定システム1が設けられている場合に以上のようにすることで、複数の打席で生成されたショットデータを横断的に分析することができる。例えば、ショットごと、ショットに用いられたゴルフクラブの種類ごと、ショットを行ったユーザごとのショットデータの分析を行うことができる。 When the shot measurement system 1 is provided for each turn at bat in the driving range, the shot data generated by the plurality of turn at bats can be analyzed in a cross-sectional manner by performing the above. For example, it is possible to analyze shot data for each shot, each type of golf club used for the shot, and each user who made the shot.

また、端末132を、例えば、ゴルフ練習場の受付などに設けることで、ゴルフ練習場でショットの練習を行ったユーザに、当該ユーザによるショットについてのショット管理データやその集計結果を提供することができる。 Further, by providing the terminal 132 at the reception desk of the driving range, for example, it is possible to provide the user who has practiced the shot at the driving range with the shot management data for the shot by the user and the aggregated result thereof. it can.

例えば、ゴルフ練習場でのレッスンの場面において打席でコーチが模範ショットを行うことがある。このような場面でも、本実施形態によれば、練習を行ったユーザ(生徒)に、コーチによるショットについてのショット管理データを除外して、当該ユーザによるショットについてのショット管理データやその集計結果を提供することができる。 For example, a coach may make a model shot at bat during a lesson at a driving range. Even in such a situation, according to the present embodiment, the shot management data for shots by the coach is excluded from the practicing user (student), and the shot management data for the shots by the user and the aggregated result thereof are provided to the user (student). Can be provided.

また、複数の打席で当該ユーザがショットを行ったとしても、これら複数の打席によるショットについてのショット管理データやその集計結果をまとめて当該ユーザに提供することができる。 Further, even if the user takes a shot at a plurality of at-bats, the shot management data and the aggregated result of the shots by the plurality of at-bats can be collectively provided to the user.

なお、本実施形態に係るショット測定システム1が設けられる場所は特に問わず、例えば、ゴルフショップにショット測定システム1が設けられていてもよい。 The place where the shot measurement system 1 according to the present embodiment is provided is not particularly limited, and for example, the shot measurement system 1 may be provided in a golf shop.

また、クラブ種類推定部116は、学習済の機械学習モデル90を用いずに、第1ターゲット画像が表すショットに用いられたゴルフクラブの種類を推定してもよい。 Further, the club type estimation unit 116 may estimate the type of golf club used for the shot represented by the first target image without using the trained machine learning model 90.

また、上述の集計部128や提供部130の機能に限らず、例えば、機械学習モデル90、受信部110、ショットデータ生成部112、第1ターゲット画像特定部114、クラブ種類推定部116、第2ターゲット画像特定部118、ユーザ画像データ記憶部120、ユーザ判定部122、ショット管理データ生成部124、ショット管理データ記憶部126の機能の一部又は全部が、端末132で実装されてもよい。 Further, the functions are not limited to the above-mentioned aggregation unit 128 and provision unit 130, and for example, the machine learning model 90, the reception unit 110, the shot data generation unit 112, the first target image identification unit 114, the club type estimation unit 116, and the second. A part or all of the functions of the target image identification unit 118, the user image data storage unit 120, the user determination unit 122, the shot management data generation unit 124, and the shot management data storage unit 126 may be implemented in the terminal 132.

例えば、クラブ種類推定部116が、第1ターゲット画像内のクラブヘッドに対応した特定範囲の画素値を有する画素を、例えば、人工芝等の緑色の背景に対応した画素値を有する画素から切り分けて抽出してもよい。 For example, the club type estimation unit 116 separates pixels having a pixel value in a specific range corresponding to the club head in the first target image from pixels having a pixel value corresponding to a green background such as artificial turf. It may be extracted.

そして、クラブヘッドの大きさ、又は、クラブヘッドの形状に関する第1特徴情報が特定されてもよい。ここで、抽出されたクラブヘッドの像の画素の総数をクラブヘッドの大きさとしてもよい。また、抽出されたクラブヘッドの画像の領域から、クラブヘッドのシャフトが挿入される筒形状のソケット部の像を除去して得られるクラウン部及びサイド部の像の輪郭形状の情報が特定されてもよい。輪郭形状は、ウッド系のゴルフクラブの場合、種類によって大きく異なるので、抽出されたクラウン部の像の輪郭形状から、ゴルフクラブの種類を判別することができる。輪郭形状は、例えば輪郭を表す曲線の傾斜角度あるいは曲線の曲率によって特徴付けることができる。また、クラウン部及びサイド部の像の縦横比が特定されてもよい。 Then, the first feature information regarding the size of the club head or the shape of the club head may be specified. Here, the total number of pixels of the extracted club head image may be the size of the club head. Further, from the extracted area of the club head image, information on the contour shape of the image of the crown portion and the side portion obtained by removing the image of the tubular socket portion into which the shaft of the club head is inserted is specified. May be good. In the case of a wood-based golf club, the contour shape differs greatly depending on the type, so that the type of golf club can be determined from the contour shape of the extracted image of the crown portion. The contour shape can be characterized by, for example, the tilt angle of the curve representing the contour or the curvature of the curve. Further, the aspect ratio of the images of the crown portion and the side portion may be specified.

そして、特定された第1特徴情報に基づいて、ゴルフクラブの種類が推定されてもよい。例えばクラブ種類推定部116が、第1特徴情報とゴルフクラブの種類とを対応付けた参照テーブルを予め保持していてもよい。そして、特定された第1特徴情報から、この参照テーブルを参照することにより、ゴルフクラブの種類が推定されてもよい。 Then, the type of golf club may be estimated based on the specified first feature information. For example, the club type estimation unit 116 may hold in advance a reference table in which the first feature information and the type of the golf club are associated with each other. Then, the type of golf club may be estimated by referring to this reference table from the specified first feature information.

また、クラブ種類推定部116が、ゴルフクラブのモデル名あるいは型番と対応付けることができる、模様、記号、又は色彩のうちの少なくとも1つの第2特徴情報を有する複数のクラブヘッドの参照画像を予め保持していてもよい。そして、第1ターゲット画像内のクラブヘッドの像について、保持している参照画像を呼び出して、それぞれの参照画像中の第2特徴情報とのマッチングを行うことにより、ゴルフクラブのモデル名あるいは型番が推定されてもよい。 Further, the club type estimation unit 116 holds in advance reference images of a plurality of club heads having at least one second feature information of a pattern, a symbol, or a color, which can be associated with a model name or model number of a golf club. You may be doing it. Then, with respect to the image of the club head in the first target image, the held reference image is called and matched with the second feature information in each reference image, so that the model name or model number of the golf club can be changed. It may be estimated.

第2特徴情報は、クラブヘッドの輪郭形状、フェース面に設けられたスコアラインの模様、フェース面に設けられたパンチマークの形態、フェース面に形成された装飾模様、又はクラブヘッドに設けられたロゴマークの少なくともいずれか1つを含んでいてもよい。 The second feature information is provided on the contour shape of the club head, the pattern of the score line provided on the face surface, the form of the punch mark provided on the face surface, the decorative pattern formed on the face surface, or the club head. It may contain at least one of the logo marks.

また、本実施形態において、ゴルフクラブの種類の推定結果に応じて、弾道測定器30のステレオカメラ42による撮影タイミング及び撮影範囲が変更されてもよい。 Further, in the present embodiment, the shooting timing and shooting range of the ballistic measuring instrument 30 by the stereo camera 42 may be changed according to the estimation result of the type of golf club.

また、上記の具体的な数値は例示であり、これらの数値には限定されない。 Moreover, the above-mentioned specific numerical values are examples, and are not limited to these numerical values.

1 ショット測定システム、10 ショット管理装置、12 プロセッサ、14 記憶部、16 通信部、18 表示部、20 操作部、22 ショット測定装置、30 弾道測定器、32 ヘッド挙動測定器、34 ヘッド撮影装置、36 ユーザ撮影装置、40 フラッシュ光源、42 ステレオカメラ、44 ボール有無判別センサ、46 ヘッドスピードセンサ、48 ゴルフボール、50 ティー、52 フラッシュ光源、54 カメラ、56 反射板、58 通過センサ、60 カメラ、62 カメラ、70 学習装置、72 プロセッサ、74 記憶部、76 通信部、78 表示部、80 操作部、90 機械学習モデル、92 学習データ記憶部、94 学習データ取得部、96 前処理部、98 学習部、100 ゴルフクラブ、102 縁、110 受信部、112 ショットデータ生成部、114 第1ターゲット画像特定部、116 クラブ種類推定部、118 第2ターゲット画像特定部、120 ユーザ画像データ記憶部、122 ユーザ判定部、124 ショット管理データ生成部、126 ショット管理データ記憶部、128 集計部、130 提供部、132 端末。 1 shot measurement system, 10 shot management device, 12 processor, 14 storage unit, 16 communication unit, 18 display unit, 20 operation unit, 22 shot measurement device, 30 ballistic measurement device, 32 head behavior measurement device, 34 head imaging device, 36 User shooting device, 40 flash light source, 42 stereo camera, 44 ball presence / absence detection sensor, 46 head speed sensor, 48 golf ball, 50 tee, 52 flash light source, 54 camera, 56 reflector, 58 pass sensor, 60 camera, 62 Camera, 70 learning device, 72 processor, 74 storage unit, 76 communication unit, 78 display unit, 80 operation unit, 90 machine learning model, 92 learning data storage unit, 94 learning data acquisition unit, 96 preprocessing unit, 98 learning unit , 100 golf club, 102 edge, 110 receiver, 112 shot data generation unit, 114 first target image identification unit, 116 club type estimation unit, 118 second target image identification unit, 120 user image data storage unit, 122 user determination Unit, 124 shot management data generation unit, 126 shot management data storage unit, 128 aggregation unit, 130 provision unit, 132 terminals.

Claims (13)

ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成するショットデータ生成手段と、
複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得する取得手段と、
それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定する判定手段と、
前記ショットデータに、判定される前記ユーザを関連付ける関連付け手段と、
を含むことを特徴とするショット管理システム。
A shot data generation means for generating a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when a golf ball is shot.
An acquisition means for acquiring a plurality of images of a user who has performed a shot corresponding to the shot data among a plurality of users, which are associated with each of the plurality of shot data.
Based on each of the images, a determination means for determining which of the plurality of users the shot data associated with the image is associated with, and
An association means for associating the determined user with the shot data,
A shot management system characterized by including.
共通の前記ユーザに関連付けられている複数の前記ショットデータのそれぞれが示す値の代表値を計算する計算手段、をさらに含む、
ことを特徴とする請求項1に記載のショット管理システム。
A calculation means for calculating a representative value of a value indicated by each of the plurality of shot data associated with the common user is further included.
The shot management system according to claim 1.
前記計算手段は、前記複数の前記ショットデータが示す値の平均値、標準偏差、最大値、又は、最小値のうちの少なくとも1つを計算する、
ことを特徴とする請求項2に記載のショット管理システム。
The calculation means calculates at least one of the mean value, standard deviation, maximum value, or minimum value of the values indicated by the plurality of shot data.
The shot management system according to claim 2, wherein the shot management system is characterized in that.
前記取得手段は、前記ショットにおけるアドレスのタイミングから当該ショットのタイミングまでの間に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項1から3のいずれか一項に記載のショット管理システム。
The acquisition means acquires an image of the user taken between the timing of the address in the shot and the timing of the shot.
The shot management system according to any one of claims 1 to 3, wherein the shot management system is characterized in that.
前記取得手段は、検出される前記ショットのタイミングの所定時間前に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項4に記載のショット管理システム。
The acquisition means acquires an image of the user taken before a predetermined time of the timing of the shot to be detected.
The shot management system according to claim 4, wherein the shot management system is characterized in that.
前記取得手段は、ボールが配置されている状態から配置されていない状態への変化が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項5に記載のショット管理システム。
The acquisition means acquires an image of the user taken before a predetermined time when a change from the state in which the ball is arranged to the state in which the ball is not arranged is detected.
The shot management system according to claim 5.
前記取得手段は、打音が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項5に記載のショット管理システム。
The acquisition means acquires an image of the user taken before a predetermined time when the tapping sound is detected.
The shot management system according to claim 5.
前記取得手段は、前記ゴルフクラブの通過が検出されたタイミングの所定時間前に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項5に記載のショット管理システム。
The acquisition means acquires an image of the user taken before a predetermined time when the passage of the golf club is detected.
The shot management system according to claim 5.
前記取得手段は、ボールが配置されていることが検出されたタイミング以後に撮影された前記ユーザの画像を取得する、
ことを特徴とする請求項5に記載のショット管理システム。
The acquisition means acquires an image of the user taken after the timing when it is detected that the ball is arranged.
The shot management system according to claim 5.
前記取得手段は、前記ショットにおけるアドレスのタイミングに撮影を開始し、当該ショットのタイミングに撮影を終了する撮影手段が撮影する前記ユーザの画像を取得する、
ことを特徴とする請求項4から9のいずれか一項に記載のショット管理システム。
The acquisition means acquires an image of the user to be captured by the photographing means that starts shooting at the timing of the address in the shot and ends shooting at the timing of the shot.
The shot management system according to any one of claims 4 to 9, wherein the shot management system is characterized in that.
前記判定手段は、学習済の機械学習モデルを用いて、前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定する、
ことを特徴とする請求項1から10のいずれか一項に記載のショット管理システム。
The determination means uses a trained machine learning model to determine which of the plurality of users the shot data is associated with.
The shot management system according to any one of claims 1 to 10.
ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成するステップと、
複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得するステップと、
それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定するステップと、
前記ショットデータに、判定される前記ユーザを関連付けるステップと、
を含むことを特徴とするショット管理方法。
A step of generating a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when a golf ball is shot, and
A step of acquiring a plurality of images of a user who has performed a shot corresponding to the shot data among a plurality of users, which are associated with each of the plurality of shot data.
Based on each of the images, a step of determining which of the plurality of users the shot data associated with the image is associated with, and
A step of associating the determined user with the shot data,
A shot management method characterized by including.
ゴルフボールをショットする際のゴルフクラブの挙動又は前記ゴルフボールの挙動のうちの少なくとも一方を示すショットデータを複数生成する手順、
複数の前記ショットデータにそれぞれ関連付けられる、複数のユーザのうちの当該ショットデータに対応するショットを行ったユーザの画像を複数取得する手順、
それぞれの前記画像に基づいて、当該画像に関連付けられる前記ショットデータが前記複数のユーザのうちのいずれに関連付けられるかを判定する手順、
前記ショットデータに、判定される前記ユーザを関連付ける手順、
をコンピュータに実行させることを特徴とするプログラム。
A procedure for generating a plurality of shot data indicating at least one of the behavior of a golf club or the behavior of the golf ball when a golf ball is shot.
A procedure for acquiring a plurality of images of a user who has taken a shot corresponding to the shot data among a plurality of users, which are associated with the plurality of shot data.
A procedure for determining which of the plurality of users the shot data associated with the image is associated with, based on each of the images.
A procedure for associating the determined user with the shot data,
A program characterized by having a computer execute.
JP2019154908A 2019-08-27 2019-08-27 Shot management system, shot management method and program Active JP7319540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019154908A JP7319540B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019154908A JP7319540B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Publications (2)

Publication Number Publication Date
JP2021029738A true JP2021029738A (en) 2021-03-01
JP7319540B2 JP7319540B2 (en) 2023-08-02

Family

ID=74677283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154908A Active JP7319540B2 (en) 2019-08-27 2019-08-27 Shot management system, shot management method and program

Country Status (1)

Country Link
JP (1) JP7319540B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073940A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117045A (en) * 2001-10-18 2003-04-22 Takasago Electric Ind Co Ltd Swing form diagnosing device
JP2014123322A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Information notification device, information notification method, and program
JP2015052904A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Moving image selection device, moving image selection method, and program
JP2018099452A (en) * 2016-12-21 2018-06-28 ブリヂストンスポーツ株式会社 Selection support device, selection support system, and selection support method
US20180318644A1 (en) * 2017-01-30 2018-11-08 Topgolf Sweden Ab System and Method for Three Dimensional Object Tracking Using Combination of Radar and Image Data
JP6544551B1 (en) * 2018-03-25 2019-07-17 柏熊 誠治 Swing determination device, swing determination method, and program.

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117045A (en) * 2001-10-18 2003-04-22 Takasago Electric Ind Co Ltd Swing form diagnosing device
JP2014123322A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Information notification device, information notification method, and program
JP2015052904A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Moving image selection device, moving image selection method, and program
JP2018099452A (en) * 2016-12-21 2018-06-28 ブリヂストンスポーツ株式会社 Selection support device, selection support system, and selection support method
US20180318644A1 (en) * 2017-01-30 2018-11-08 Topgolf Sweden Ab System and Method for Three Dimensional Object Tracking Using Combination of Radar and Image Data
JP6544551B1 (en) * 2018-03-25 2019-07-17 柏熊 誠治 Swing determination device, swing determination method, and program.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023073940A1 (en) * 2021-10-29 2023-05-04 日本電気株式会社 Information processing device, information processing system, information processing method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP7319540B2 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
JP6983172B2 (en) Methods and equipment for performing motion analysis of sports equipment
JP6120837B2 (en) How to analyze sports motion video
TWI441669B (en) Virtual golf simulation apparatus and method
JP5675301B2 (en) Golf swing classification method, classification system, analysis apparatus, and program
CN105288982B (en) The motion state measure device of golf
JP7051315B2 (en) Methods, systems, and non-temporary computer-readable recording media for measuring ball rotation.
JP2006247023A (en) Golf club information providing system, method and program
JP6768996B2 (en) Ball flight information calculation device and ball flight information calculation method
JP5975711B2 (en) Golf swing classification method, classification system, classification device, and program
CN103916586B (en) image analysis apparatus and image analysis method
JP2013009771A (en) System, method, and program for measurement and analysis of behavior of golf club head in golf swing
JP2005034619A (en) Behavior measuring instrument of golf club head
CN115624735B (en) Auxiliary training system for ball games and working method
KR20100033205A (en) System suppporting golf practice and method therefor
JP2009045495A (en) Behavior measuring instrument for golf club head
JP7319540B2 (en) Shot management system, shot management method and program
KR102531041B1 (en) Method of recognizing motion of golf ball and club in fast camera image and apparatus of analyzing golf motion using the same
KR101624595B1 (en) Golf club and golf swing monitoring system
CN113209597A (en) Offline billiard hitting assisting method, device, terminal and storage medium
JP2006181014A (en) Image analysis device and movement correction system
JP2021029737A (en) Shot management system, shot management method and program
JP2021029736A (en) Shot tabulating system, shot tabulating method and program
JP2021033775A (en) Image generation system, estimation system, image generation method, estimation method, and program
TW201825155A (en) Sensing device for calculating information on golf shot of user and sensing method using the same
Malawski Real-time first person perspective tracking and feedback system for weapon practice support in fencing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7319540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150