JP7083334B2 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JP7083334B2
JP7083334B2 JP2019239187A JP2019239187A JP7083334B2 JP 7083334 B2 JP7083334 B2 JP 7083334B2 JP 2019239187 A JP2019239187 A JP 2019239187A JP 2019239187 A JP2019239187 A JP 2019239187A JP 7083334 B2 JP7083334 B2 JP 7083334B2
Authority
JP
Japan
Prior art keywords
image data
still image
flight distance
golf ball
ball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019239187A
Other languages
Japanese (ja)
Other versions
JP2021108017A (en
Inventor
竜志 岩屋
哲 渡辺
拓未 梅村
敬悟 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2019239187A priority Critical patent/JP7083334B2/en
Publication of JP2021108017A publication Critical patent/JP2021108017A/en
Application granted granted Critical
Publication of JP7083334B2 publication Critical patent/JP7083334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、ゴルフのプレイ中に、スマートフォン等の携帯端末でショットの動画を撮像してフォームを確認するなどといったことが広く行われている。 In recent years, it has become widely practiced to capture a moving image of a shot with a mobile terminal such as a smartphone and check the form while playing golf.

特開2008-158984号公報Japanese Unexamined Patent Publication No. 2008-158984

しかしながら、こうした動画からは、フォームを確認することはできても、ボールの軌道などを表示することは行われていないのが現状である。 However, the current situation is that although the form can be confirmed from such a video, the trajectory of the ball is not displayed.

本発明は上記実情に鑑みて為されたもので、簡便な操作でショットに関する情報を得ることができ、プレーヤーのショットの診断を行うことのできる画像処理装置、画像処理方法、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and provides an image processing device, an image processing method, and a program capable of obtaining information about a shot by a simple operation and diagnosing a shot of a player. That is one of the purposes.

上記従来例の問題点を解決する本発明の一態様は、画像処理装置であって、ゴルフのショットを撮像した一連のN個の静止画像データを含む動画像データを取得する手段と、前記取得した動画像データに含まれる静止画像データのそれぞれからゴルフボールの画像部分を検出するボール検出手段と、前記検出したゴルフボールの画像部分の位置の情報を用いて飛距離を推定する飛距離推定手段と、を含むものである。 One aspect of the present invention that solves the problems of the above-mentioned conventional example is an image processing device, which is a means for acquiring moving image data including a series of N still image data obtained by capturing a golf shot, and the acquisition. A ball detecting means for detecting an image portion of a golf ball from each of the still image data included in the moving image data, and a flight distance estimating means for estimating a flight distance using information on the position of the detected image portion of the golf ball. And includes.

本発明によると、簡便な操作でショットに関する情報を得ることができ、プレーヤーのショットの診断を行うことができる。 According to the present invention, information about a shot can be obtained by a simple operation, and a player's shot can be diagnosed.

本発明の実施の形態に係る画像処理装置の構成例を表すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態の一態様に係る画像処理装置の動作例を表す説明図である。It is explanatory drawing which shows the operation example of the image processing apparatus which concerns on one aspect of Embodiment of this invention. 本発明の実施の形態の一態様に係る画像処理装置の画像前処理部の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the image preprocessing part of the image processing apparatus which concerns on one aspect of embodiment of this invention. 本発明の実施の形態の一態様に係る画像処理装置の動作例を表すフローチャート図である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on one aspect of Embodiment of this invention. 本発明の実施の形態のもう一つの態様に係る画像処理装置の画像前処理部の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the image preprocessing part of the image processing apparatus which concerns on another aspect of embodiment of this invention. 本発明の実施の形態のもう一つの態様に係る画像処理装置の動作例を表すフローチャート図である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on another aspect of embodiment of this invention. 本発明の実施の形態のもう一つの態様に係る画像処理装置の動作例を表す説明図である。It is explanatory drawing which shows the operation example of the image processing apparatus which concerns on another aspect of embodiment of this invention. 本発明の実施の形態の一態様に係る画像処理装置の表示情報生成部の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the display information generation part of the image processing apparatus which concerns on one aspect of Embodiment of this invention. 本発明の実施の形態に係る画像処理装置の一態様における、仰角の推定方法の例を表す説明図である。It is explanatory drawing which shows the example of the method of estimating an elevation angle in one aspect of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の一態様における、飛距離の算出方法の例を表す説明図である。It is explanatory drawing which shows the example of the calculation method of the flight distance in one aspect of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の一態様における、飛距離の算出方法の例を表すもう一つの説明図である。It is another explanatory diagram which shows the example of the method of calculating the flight distance in one aspect of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る画像処理装置の一態様における、飛距離の算出方法の例を表すさらにもう一つの説明図である。It is still another explanatory diagram which shows the example of the method of calculating the flight distance in one aspect of the image processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態の別の態様に係る画像処理装置の表示情報生成部の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the display information generation part of the image processing apparatus which concerns on another aspect of embodiment of this invention. 本発明の実施の形態の別の態様に係る画像処理装置でのミート率の推定方法の例を表す説明図である。It is explanatory drawing which shows the example of the method of estimating the meet rate in the image processing apparatus which concerns on another aspect of embodiment of this invention.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置10の一例は、図1に例示するように、制御部11と、記憶部12と、操作部13と、表示部14と、撮像部15と、通信部16とを備えたスマートフォンなどの携帯端末である。 An embodiment of the present invention will be described with reference to the drawings. As an example of the image processing device 10 according to the embodiment of the present invention, as illustrated in FIG. 1, the control unit 11, the storage unit 12, the operation unit 13, the display unit 14, and the image pickup unit 15 communicate with each other. It is a mobile terminal such as a smartphone provided with the unit 16.

ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態のある例では、この制御部11は、撮像部15を制御して動画像データを撮像させる。また制御部11は、撮像されたゴルフのショットなど、ボールを使ったスポーツプレイ中の、プレーヤーのショットの動画像データの入力を、撮像部15から受け入れる。さらに、制御部11は、当該入力された動画像データからボールの位置を検出し、当該検出したボールの位置の情報を所定の処理に供する。制御部11の詳しい動作の内容については、後に述べる。 Here, the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In an example of this embodiment, the control unit 11 controls the image pickup unit 15 to capture moving image data. Further, the control unit 11 receives input of moving image data of a player's shot during sports play using a ball, such as an imaged golf shot, from the image pickup unit 15. Further, the control unit 11 detects the position of the ball from the input moving image data, and applies the information on the position of the detected ball to a predetermined process. The details of the operation of the control unit 11 will be described later.

記憶部12は、メモリデバイス等であり、制御部11によって実行されるプログラムを保持する。また記憶部12は、制御部11のワークメモリとしても動作する。 The storage unit 12 is a memory device or the like, and holds a program executed by the control unit 11. The storage unit 12 also operates as a work memory of the control unit 11.

操作部13は、例えばタッチパネルやボタン等であり、ユーザの操作に基づき当該操作の内容を制御部11に出力する。表示部14は、タッチパネルに重ね合わせて配されたディスプレイ等を含む。表示部14は、制御部11から入力される指示に従って画像を表示する。 The operation unit 13 is, for example, a touch panel, a button, or the like, and outputs the content of the operation to the control unit 11 based on the user's operation. The display unit 14 includes a display and the like arranged so as to be superimposed on the touch panel. The display unit 14 displays an image according to an instruction input from the control unit 11.

撮像部15は、カメラであり、制御部11から入力される指示に従って画像データを撮像する。本実施の形態の一例では、撮像部15は、所定のタイミングごとに連続して複数フレーム分の静止画像データを撮像し、当該複数フレーム分の静止画像データを含むデータを、動画像データとして出力する。 The image pickup unit 15 is a camera and captures image data according to an instruction input from the control unit 11. In one example of the present embodiment, the imaging unit 15 continuously captures still image data for a plurality of frames at predetermined timings, and outputs data including the still image data for the plurality of frames as moving image data. do.

通信部16は、携帯電話通信網やネットワーク等の通信回線との間で情報を送受するインタフェース等である。通信部は16、制御部11から入力される指示に従って通信回線を介してデータを送出し、通信回線を通じて受信したデータを制御部11に出力する。 The communication unit 16 is an interface or the like for transmitting / receiving information to / from a communication line such as a mobile phone communication network or a network. The communication unit sends data via the communication line according to the instructions input from the control unit 11, and outputs the data received through the communication line to the control unit 11.

次に、制御部11の動作例について説明する。本実施の形態の一例に係る制御部11は、記憶部12に格納されたプログラムを実行することで、図2に例示するように、撮像制御部21と、画像前処理部22と、検出前処理部23と、検出処理部24と、表示情報生成部25と、表示制御部26とを機能的に含む構成を実現する。 Next, an operation example of the control unit 11 will be described. The control unit 11 according to an example of the present embodiment executes the program stored in the storage unit 12, and as illustrated in FIG. 2, the image pickup control unit 21, the image preprocessing unit 22, and the pre-detection unit. A configuration that functionally includes a processing unit 23, a detection processing unit 24, a display information generation unit 25, and a display control unit 26 is realized.

[実施形態の第1の態様]
撮像制御部21は、ユーザの指示を受信すると、撮像部15を制御し動画像データを撮像させる。なお、以下の説明では、スポーツとしてゴルフを例とする。また、ユーザは、ゴルフのプレーヤーの後方に画像処理装置10を置き、ショットの時点を含む前後の複数フレーム分の静止画像データを撮像させることとする。ここでプレーヤーの後方とは、プレーヤーの位置に対し、ボールを飛ばそうとする方向とは反対側をいう。そのため、撮像される画像データは例えば図3(a)に例示するように、プレーヤーが右利きの場合、フレーム内の中心よりやや左側にプレーヤーが位置する。また、フレームの中心の下辺近傍に当初ボールが位置し、ショットの後は、ボールがフレーム上方へ移動して撮像される状態となるものである。なお、ショット後も、ボールがフレームから出ないよう、画角等が調整されているものとする。
[First aspect of the embodiment]
Upon receiving the user's instruction, the image pickup control unit 21 controls the image pickup unit 15 to capture moving image data. In the following description, golf will be taken as an example as a sport. Further, the user places the image processing device 10 behind the golf player to capture still image data for a plurality of frames before and after including the time of the shot. Here, the rear of the player means the side opposite to the direction in which the ball is to be thrown with respect to the position of the player. Therefore, as illustrated in FIG. 3A, the captured image data is located slightly to the left of the center of the frame when the player is right-handed. Further, the ball is initially located near the lower side of the center of the frame, and after the shot, the ball moves upward to the frame and is in a state of being imaged. It is assumed that the angle of view and the like are adjusted so that the ball does not come out of the frame even after the shot.

画像前処理部22は、撮像部15によって撮像された動画像データの処理を実行する。 The image preprocessing unit 22 processes the moving image data captured by the image pickup unit 15.

本発明の実施の形態に係る画像処理装置10の第1の態様では、画像前処理部22が、図4に例示するように、補正部31と、変換部32とを含む。 In the first aspect of the image processing apparatus 10 according to the embodiment of the present invention, the image preprocessing unit 22 includes a correction unit 31 and a conversion unit 32, as illustrated in FIG.

補正部31は、動画像データに含まれる複数フレーム分の静止画像データのそれぞれに対して、いわゆる手振れ補正処理を行う。この処理は、広く知られた方法を採用して行うことができるので、ここでの詳しい説明は省略する。 The correction unit 31 performs so-called image stabilization processing on each of the still image data for a plurality of frames included in the moving image data. Since this process can be performed by adopting a widely known method, detailed description thereof is omitted here.

変換部32は、複数フレーム分の静止画像データのそれぞれを、グレースケールの画像データに変換し、平滑化処理を行う。ここでは複数フレーム分の静止画像データのそれぞれに対して所定サイズのブロックごとにブロック内の画素値の平均を求めて、ブロック内の画素のすべてを当該平均の値として設定した平滑化画像を生成する処理を行えばよい。なお、所定サイズは、例えば、比較的近くにあるゴルフボールが撮像される際の、当該撮像されたゴルフボールの画素数よりも十分小さいサイズであってもよい。平滑化の処理では、ゴルフボールが撮像された画素を失うものでなければ、他の広く知られた種々の方法を採用できる。 The conversion unit 32 converts each of the still image data for a plurality of frames into grayscale image data and performs smoothing processing. Here, the average of the pixel values in the block is calculated for each of the still image data of a plurality of frames for each block of a predetermined size, and a smoothed image in which all the pixels in the block are set as the average value is generated. You just have to do the processing. The predetermined size may be, for example, a size sufficiently smaller than the number of pixels of the imaged golf ball when the imaged golf ball is relatively close. In the smoothing process, various other widely known methods can be adopted as long as the golf ball does not lose the imaged pixels.

本実施の形態のこの態様では、この変換部32が出力する、変換後の複数フレーム分の静止画像データを処理対象データとして出力する(図3(b))。 In this aspect of the present embodiment, the converted still image data for a plurality of frames output by the conversion unit 32 is output as the processing target data (FIG. 3B).

検出前処理部23は、画像前処理部22が出力した処理対象データ、例えば、変換後の複数フレーム分の静止画像データについて、次の処理を行う。なお、ここでは処理対象データには、N個もしくはNフレームの静止画像データが含まれるものとする。 The detection pre-processing unit 23 performs the following processing on the processing target data output by the image pre-processing unit 22, for example, still image data for a plurality of frames after conversion. Here, it is assumed that the processing target data includes N still image data or N frame still image data.

検出前処理部23は、i番目のフレームの静止画像データと、i+1番目のフレームの静止画像データとの差分画像データを生成する。ここでiはN-2以下の自然数とする。なお、以下の説明では撮像された時刻が早い順に、静止画像データのフレームに1,2,…Nまでの番号を付して説明する。この差分画像データは、処理対象データに含まれる静止画像データと同じサイズの画像データである。 The detection preprocessing unit 23 generates difference image data between the still image data of the i-th frame and the still image data of the i + 1th frame. Here, i is a natural number of N-2 or less. In the following description, the frames of the still image data will be numbered 1, 2, ... N in the order of the earliest captured time. This difference image data is image data having the same size as the still image data included in the processing target data.

検出前処理部23は、i番目の差分画像データの各画素を順次、注目画素として選択し、当該注目画素に対応するi番目のフレームの静止画像データ内の画素とi+1番目のフレームの静止画像データ内の画素とが、互いに同じ画素値である、もしくは画素値の差が予め定めたしきい値を下回るときは「0」、そうでなければ「1」とする。 The detection preprocessing unit 23 sequentially selects each pixel of the i-th difference image data as a pixel of interest, and the pixel in the still image data of the i-th frame corresponding to the pixel of interest and the still image of the i + 1th frame. If the pixels in the data have the same pixel value, or if the difference between the pixel values is less than a predetermined threshold value, it is set to "0", otherwise it is set to "1".

検出前処理部23は、上記処理を繰り返して、第1番目と第2番目のフレームの静止画像データ間の差分画像データ、第2番目と第3番目のフレームの静止画像データ間の差分画像データ…、第N-1番目と第N番目のフレームの静止画像データ間の差分画像データの、N-1フレーム分の差分画像データを生成する(図3(c))。 The detection preprocessing unit 23 repeats the above processing to obtain the difference image data between the still image data of the first and second frames and the difference image data between the still image data of the second and third frames. ..., The difference image data for the N-1 frame of the difference image data between the still image data of the N-1st and the Nth frames is generated (FIG. 3 (c)).

なお、図3(c)の例では、差分画像データを、その画素値が「0」である画素、言い換えると差のない画素を黒色、画素値が「1」である画素、言い換えると、差のある画素、すなわち有意画素を白色とした二値化画像データとして表している。 In the example of FIG. 3C, the difference image data is a pixel whose pixel value is "0", in other words, a pixel having no difference is black, and a pixel value is "1", in other words, a difference. It is represented as binarized image data in which a certain pixel, that is, a significant pixel is white.

また検出前処理部23は、生成した各差分画像データに対してモルフォロジー変換処理、具体的には、差のある画素が白色である場合はオープニング処理、差のある画素が黒色である場合はクロージング処理を適用して、所定の画素数未満の有意画素の塊をノイズとして除去してもよい。なお、予定の画素数は、比較的近くにあるゴルフボールが撮像される際の、当該撮像されたゴルフボールの画素数よりも十分小さいサイズとする。 Further, the detection preprocessing unit 23 performs a morphology conversion process for each of the generated difference image data, specifically, an opening process when the difference pixel is white, and a closing process when the difference pixel is black. A process may be applied to remove a mass of significant pixels less than a predetermined number of pixels as noise. The planned number of pixels is set to a size sufficiently smaller than the number of pixels of the imaged golf ball when a relatively nearby golf ball is imaged.

検出処理部24は、検出前処理部23が処理した差分画像データの各々から、ボールが撮像されている位置の検出処理を実行する。図5に検出処理部24の処理の一例を示す。検出処理部24は、k=1,2,…N-2として各kの値について、以下に説明する処理S2からS6の繰り返し処理を開始する(S1)。また、検出処理部24は、k番目の差分画像データと、k+1番目の差分画像データとのそれぞれについて、ボールが撮像されると想定される検出対象領域を設定する(S2)。なお、本実施形態では、k番目の差分画像をk番目のフレームとk+1番目のフレームとの差分画像データとし、k+1番目の差分画像データをk+1番目のフレームとk+2番目のフレームとの差分画像データとする。 The detection processing unit 24 executes detection processing of the position where the ball is imaged from each of the difference image data processed by the detection preprocessing unit 23. FIG. 5 shows an example of the processing of the detection processing unit 24. The detection processing unit 24 starts the iterative processing of the processes S2 to S6 described below for each k value with k = 1, 2, ... N-2 (S1). Further, the detection processing unit 24 sets a detection target area where the ball is assumed to be imaged for each of the k-th difference image data and the k + 1-th difference image data (S2). In the present embodiment, the k-th difference image is the difference image data between the k-th frame and the k + 1-th frame, and the k + 1-th difference image data is the difference image data between the k + 1-th frame and the k + 2nd frame. And.

具体的には、検出処理部24は、連続する有意画素の塊のうち、予め定めた画素数より大きい画素数の画素を含む有意画素の塊をプレーヤーが撮像されている範囲として検出する。そして検出処理部24は、プレーヤーがフレームの中心より左側に存在するときにはプレーヤーとして検出した画素塊の外接矩形の右側辺よりも右側の範囲を検出対象領域と識別する。図3(c)では、この検出対象領域を符号Rで示している。また、プレーヤーがフレームの中心より右側に存在する場合、検出処理部24は、プレーヤーとして検出した画素塊の外接矩形の左側辺よりも左側の範囲を検出対象領域と識別する。 Specifically, the detection processing unit 24 detects a group of significant pixels including a group of pixels having a pixel number larger than a predetermined number of pixels as a range in which the player is imaged. Then, when the player is on the left side of the center of the frame, the detection processing unit 24 identifies the range on the right side of the right side of the circumscribed rectangle of the pixel block detected as the player as the detection target area. In FIG. 3C, the detection target region is indicated by reference numeral R. When the player is on the right side of the center of the frame, the detection processing unit 24 identifies the range on the left side of the left side of the circumscribed rectangle of the pixel block detected as the player as the detection target area.

なお、一つ前の、処理S2からS6までの繰り返し処理においてk番目の差分画像データについて領域Rを特定していれば、この処理S2ではk+1番目の差分画像データについてのみ処理してもよい。 If the area R is specified for the k-th difference image data in the previous iterative process from the processes S2 to S6, the process S2 may process only the k + 1-th difference image data.

検出処理部24は、k番目及びk+1番目の差分画像データから、それぞれ処理S2で定めた領域R内にある有意画素の塊を抽出する。そして検出処理部24は、当該抽出した有意画素の塊のうち、予め定めた画素数の範囲の有意画素を含む有意画素の塊を、仮のボール候補として検出する(S3)。 The detection processing unit 24 extracts a block of significant pixels in the region R defined in the processing S2 from the k-th and k + 1-th difference image data, respectively. Then, the detection processing unit 24 detects the group of significant pixels including the group of significant pixels in the range of a predetermined number of pixels as a temporary ball candidate among the group of the extracted significant pixels (S3).

検出処理部24は、k番目の差分画像データで仮のボール候補とした有意画素の塊のそれぞれについて、当該有意画素の塊の位置の情報を抽出する(S4)。また、検出処理部24は、当該取り出した位置の情報で特定されるk+1番目の差分画像データ内の位置に、仮のボール候補となるk番目で抽出した有意画素の塊に対応する有意画素の塊があるか否かを判断する(S5)。以下、この仮のボール候補となるk番目で抽出した有意画素の塊に対応する有意画素の塊を、対応有意画素塊という。 The detection processing unit 24 extracts information on the position of the lump of significant pixels for each of the lumps of significant pixels used as temporary ball candidates in the kth difference image data (S4). Further, the detection processing unit 24 has a significant pixel corresponding to a mass of significant pixels extracted at the kth position, which is a temporary ball candidate, at a position in the k + 1th difference image data specified by the information of the extracted position. It is determined whether or not there is a lump (S5). Hereinafter, the mass of significant pixels corresponding to the mass of significant pixels extracted at the kth position, which is a temporary ball candidate, is referred to as a corresponding significant pixel mass.

この処理S5で対応有意画素塊があると判断されると(S5:Yes)、検出処理部24は、当該有意画素塊の位置、言い換えるとその有意画素塊の外接矩形を特定する座標情報を、k番目の差分画像データにおけるボール候補の位置とする(S6)。なお、処理S4で対応有意画素塊がないと判断されると(S5:No)、検出処理部24はk番目の差分画像データにボール候補がないものとして処理を続ける。 When it is determined in the process S5 that there is a corresponding significant pixel block (S5: Yes), the detection processing unit 24 obtains coordinate information for specifying the position of the significant pixel block, in other words, the circumscribing rectangle of the significant pixel block. It is the position of the ball candidate in the kth difference image data (S6). If it is determined in the process S4 that there is no corresponding significant pixel block (S5: No), the detection processing unit 24 continues the process assuming that there is no ball candidate in the kth difference image data.

検出処理部24は、処理S2からS6の処理を、k=1,2,…N-2について繰り返し実行する。そして検出処理部24は、k=1,2,…N-2番目の差分画像データのそれぞれからボール候補となる有意画素の塊を検出する。 The detection processing unit 24 repeatedly executes the processes of processes S2 to S6 for k = 1, 2, ... N-2. Then, the detection processing unit 24 detects a mass of significant pixels as ball candidates from each of the k = 1, 2, ... N-2nd difference image data.

検出処理部24は、k=1,2,…N-2番目のフレームの静止画像データについて、次の処理を繰り返す(S7)。この繰り返し処理において検出処理部24は、k番目の差分画像データで新たにボール候補となったボール候補を、k番目のフレームの静止画像データにおけるゴルフボールの位置として、フレームを特定する情報、すなわちkの値に関連付けて当該ゴルフボールの位置を記憶部12に格納する(S8)。なお、検出処理部24は、k番目の差分画像データで新たにボール候補がなければ、k番目のフレームの静止画像データについては、ゴルフボールは検出できなかったものとして、位置の情報がない旨の情報を、記憶部12に格納する。 The detection processing unit 24 repeats the following processing for the still image data of the k = 1, 2, ... N-2nd frame (S7). In this iterative process, the detection processing unit 24 uses the ball candidate newly set as the ball candidate in the k-th difference image data as the position of the golf ball in the still image data of the k-th frame, that is, information for specifying the frame. The position of the golf ball is stored in the storage unit 12 in association with the value of k (S8). If there is no new ball candidate in the k-th difference image data, the detection processing unit 24 assumes that the golf ball could not be detected in the still image data of the k-th frame, and there is no position information. Information is stored in the storage unit 12.

これにより検出処理部24は、ゴルフボールと推定される有意画素の塊が検出されたフレームの静止画像データについて、そのゴルフボールの位置を表す情報を生成する。なお、ゴルフボールの位置を表す情報は、ゴルフボールとして検出された有意画素の塊の外接矩形を特定する座標情報の組でよい。 As a result, the detection processing unit 24 generates information indicating the position of the golf ball with respect to the still image data of the frame in which the mass of significant pixels presumed to be a golf ball is detected. The information indicating the position of the golf ball may be a set of coordinate information that specifies the circumscribing rectangle of the mass of significant pixels detected as the golf ball.

表示情報生成部25は、撮像制御部21が取得したi番目のフレームの静止画像データの少なくとも一部について、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置、言い換えると対応する画素塊の外接矩形の中心と、i番目のフレームの静止画像データで検出したゴルフボールの位置を結んだ線分を、i番目のフレームの静止画像データに係る表示情報として生成する。なお、ここではi=2,3,…N-1とする。 The display information generation unit 25 corresponds to at least a part of the still image data of the i-th frame acquired by the image pickup control unit 21 with respect to the position of the golf ball detected by the still image data of the i-1st and earlier frames, in other words. A line segment connecting the center of the circumscribing rectangle of the pixel block and the position of the golf ball detected by the still image data of the i-th frame is generated as display information related to the still image data of the i-th frame. Here, i = 2, 3, ... N-1.

また、表示情報生成部25は、i番目のフレームの静止画像データでゴルフボールが検出できなかった場合は、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置から外挿してi番目のフレームの静止画像データでのゴルフボールの位置を推定してもよい。この場合、表示情報生成部25は、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置と当該推定した位置とを結んだ線分を、i番目のフレームの静止画像データに係る表示情報として生成する。 If the golf ball cannot be detected in the still image data of the i-th frame, the display information generation unit 25 extrapolates the golf ball from the position of the golf ball detected in the still image data of the i-1st and earlier frames. The position of the golf ball in the still image data of the i-th frame may be estimated. In this case, the display information generation unit 25 converts the line segment connecting the position of the golf ball detected by the still image data of the i-1st frame and the estimated position into the still image data of the i-th frame. Generated as such display information.

あるいは、i番目のフレームの静止画像データでゴルフボールが検出できなかった場合、表示情報生成部25は、i-1番目以前のフレームの静止画像データと、i+1番目以降のフレームの静止画像データとのそれぞれで検出したゴルフボールの位置から内挿してi番目のフレームの静止画像データでのゴルフボールの位置を推定してもよい。 Alternatively, when the golf ball cannot be detected in the still image data of the i-th frame, the display information generation unit 25 includes the still image data of the i-1st and earlier frames and the still image data of the i + 1th and subsequent frames. The position of the golf ball may be estimated from the still image data of the i-th frame by interpolating from the position of the golf ball detected in each of the above.

表示制御部26は、ユーザの再生指示に応じて、撮像制御部21が取得した各フレームの静止画像データを順次表示する。また、表示制御部26は、再生中もしくは表示中のフレームの静止画像データに係る表示情報が生成された場合、当該表示情報を、静止画像データに重ね合わせて表示する。これにより、図3(d)に例示するように、ゴルフのショットの画像に、ゴルフボールの飛翔の軌跡を表す図形もしくは線分Aが重ね合わせて表示されることとなる。 The display control unit 26 sequentially displays the still image data of each frame acquired by the image pickup control unit 21 in response to the playback instruction of the user. Further, when the display information related to the still image data of the frame being reproduced or displayed is generated, the display control unit 26 superimposes the display information on the still image data and displays the display information. As a result, as illustrated in FIG. 3D, a figure or a line segment A representing the flight trajectory of the golf ball is superimposed and displayed on the image of the golf shot.

[第1の態様における検出処理の変形例]
またこの検出処理部24の処理S6の処理において、k番目の差分画像データでボール候補となっている有意画素の塊が複数ある場合、検出処理部24は、次の処理をさらに行ってボール候補を絞り込んでもよい。ここではk>2とする。
[Modified example of detection processing in the first aspect]
Further, in the process of the process S6 of the detection processing unit 24, when there are a plurality of significant pixel clusters that are ball candidates in the kth difference image data, the detection processing unit 24 further performs the following processing to perform the ball candidate. May be narrowed down. Here, k> 2.

すなわち検出処理部24は、各ゴルフボールから一つずつ検出された場合、k-2番目とk-1番目との静止画像データのそれぞれのゴルフボールの位置を表す点、例えばゴルフボールとして検出された画素塊の中心点を、各静止画像データにおいて検出したゴルフボールの位置を表す複数の点とする。検出処理部24は、これらのゴルフボールの位置を表すとされた点を結んだ延長線の情報を取得する。そして検出処理部24は、k番目の差分画像データ内で、当該情報で特定される延長線上に存在するボール候補の有意画素の塊をk番目の静止画像データのゴルフボールの位置とする。 That is, when one is detected from each golf ball, the detection processing unit 24 is detected as a point representing the position of each golf ball in the k-2nd and k-1th still image data, for example, a golf ball. The center point of the pixel block is defined as a plurality of points representing the positions of the golf balls detected in each still image data. The detection processing unit 24 acquires information on an extension line connecting points that are supposed to represent the positions of these golf balls. Then, the detection processing unit 24 sets the mass of the significant pixels of the ball candidate existing on the extension line specified by the information in the k-th difference image data as the position of the golf ball in the k-th still image data.

なお、上記に記載以外でもk番目の静止画像データ以外であって、2以上の静止画像データにおいて検出したゴルフボールの位置を表す点を結ぶ線分または当該線分の延長線上を特定する情報を得てもよい。この場合も、k番目の差分画像データ内で、当該情報で特定される延長線上に存在するボール候補の有意画素の塊をk番目の静止画像データのゴルフボールの位置とする。 In addition to the above description, other than the k-th still image data, information for specifying a line segment connecting points representing the positions of golf balls detected in two or more still image data or an extension line of the line segment is used. You may get it. Also in this case, in the k-th difference image data, the mass of significant pixels of the ball candidate existing on the extension line specified by the information is set as the position of the golf ball in the k-th still image data.

[実施形態の第2の態様]
次に、本発明の実施の形態に係る画像処理装置10の第2の態様について説明する。この第2の態様では、制御部11が機能的に図2に例示した構成を実現することは第1の態様と同様であるが、各部の動作において相違がある。
[Second aspect of the embodiment]
Next, a second aspect of the image processing apparatus 10 according to the embodiment of the present invention will be described. In this second aspect, the control unit 11 functionally realizes the configuration illustrated in FIG. 2 as in the first aspect, but there are differences in the operation of each unit.

撮像制御部21は、第1の態様と同様、ユーザの指示を受けて、撮像部15を制御し動画像データを撮像させる。ユーザは、ボールの飛ぶ方向の反対側であるゴルフのプレーヤーの後方に画像処理装置10を置き、ショットの時点を含む前後の複数フレーム分の静止画像データを撮像させることとする。撮像される画像データは例えば図3(a)に例示したように、プレーヤーが右利きの場合、フレーム内の中心よりやや左側にプレーヤーが位置することとなる。また、この画像データでは、フレームの中心の下辺近傍に当初ボールが位置し、ショットの後は、ボールがフレーム上方へ移動して撮像される。なお、ショット後も、ボールがフレームから出ないよう、画角等が調整されているものとする。 Similar to the first aspect, the image pickup control unit 21 controls the image pickup unit 15 to take an image of moving image data in response to a user's instruction. The user places the image processing device 10 behind the golf player on the opposite side of the direction in which the ball flies, and has the user capture still image data for a plurality of frames before and after including the time of the shot. As for the image data to be captured, for example, as illustrated in FIG. 3A, when the player is right-handed, the player is located slightly to the left of the center in the frame. Further, in this image data, the ball is initially located near the lower side of the center of the frame, and after the shot, the ball moves to the upper side of the frame and is imaged. It is assumed that the angle of view and the like are adjusted so that the ball does not come out of the frame even after the shot.

この第2の態様では、画像前処理部22は、図6に例示するように、補正部41と、プレーヤー領域特定部42と、変換部43とを含む。補正部41は、動画像データに含まれる複数フレーム分の静止画像データのそれぞれに対して、いわゆる手振れ補正処理を行う。この処理は、広く知られた方法を採用して行うことができるので、ここでの詳しい説明は省略する。 In this second aspect, the image preprocessing unit 22 includes a correction unit 41, a player area specifying unit 42, and a conversion unit 43, as illustrated in FIG. The correction unit 41 performs so-called image stabilization processing on each of the still image data for a plurality of frames included in the moving image data. Since this process can be performed by adopting a widely known method, detailed description thereof is omitted here.

プレーヤー領域特定部42は、各フレームの静止画像データからプレーヤーが撮像されている領域を特定する。この処理は、例えばディープラーニングを用いた、segnet;https://arxiv.org/pdf/1511.00561.pdf等のセグメンテーションネットワーク、YOLO;https://arxiv.org/abs/1506.02640等のオブジェクト検出ネットワークを用いて行うこととしてもよい。また、この他にも画像データから所定の特徴を有する対象を抽出できる方法であればいかなる方法を採用してもよい。 The player area specifying unit 42 identifies the area in which the player is imaged from the still image data of each frame. This process uses, for example, a segmentation network such as segnet; https://arxiv.org/pdf/1511.00561.pdf, and an object detection network such as YOLO; https://arxiv.org/abs/1506.02640 using deep learning. It may be done by using. In addition to this, any method may be adopted as long as it can extract an object having a predetermined feature from the image data.

プレーヤー領域特定部42は、各フレームの静止画像データにおいてプレーヤーが撮像されている領域を特定する。なお、プレーヤーが撮像されている領域は、プレーヤーとして認識される画素群に外接する矩形状の領域であってもよい。 The player area specifying unit 42 identifies the area in which the player is imaged in the still image data of each frame. The area in which the player is imaged may be a rectangular area circumscribing the pixel group recognized as the player.

変換部43は、複数フレーム分の静止画像データのそれぞれに対して所定サイズのブロックごとにブロック内の画素値の平均を求めて、ブロック内の画素のすべてを当該平均の値として設定した平滑化画像を生成する処理を行う。変換部43の平滑化の処理は、ゴルフボールが撮像された画素を失うものでなければ、他の広く知られた種々の方法を採用できる。なお、所定のサイズは、比較的近くにあるゴルフボールが撮像される際の、当該撮像されたゴルフボールの画素数よりも十分小さいサイズであってもよい。 The conversion unit 43 obtains the average of the pixel values in the block for each block of a predetermined size for each of the still image data for a plurality of frames, and smoothes all the pixels in the block as the average value. Performs the process of generating an image. As the smoothing process of the conversion unit 43, various other widely known methods can be adopted as long as the golf ball does not lose the imaged pixel. The predetermined size may be a size sufficiently smaller than the number of pixels of the imaged golf ball when the imaged golf ball is relatively close.

検出前処理部23は、画像前処理部22の変換部43が出力した処理対象データ、例えば、平滑化処理後の複数フレーム分の静止画像データについて、次の処理を行う。なお、ここでは処理対象データには、N個もしくはNフレーム分の平滑化画像の静止画像データが含まれるものとする。 The detection pre-processing unit 23 performs the following processing on the processing target data output by the conversion unit 43 of the image pre-processing unit 22, for example, still image data for a plurality of frames after smoothing processing. Here, it is assumed that the processing target data includes N still image data of smoothed images for N pieces or N frames.

検出前処理部23は、i番目のフレームの静止画像データに対応する平滑化画像を取得する。なお、iはN-2以下の自然数とし、以下では、i番目のフレームの静止画像データに対応する平滑化画像を、i番目の平滑化画像と呼ぶ。以下の説明では撮像された時刻が早い順に、静止画像データのフレームに1,2,…Nまでの番号を付して説明する。 The detection preprocessing unit 23 acquires a smoothed image corresponding to the still image data of the i-th frame. In addition, i is a natural number of N-2 or less, and in the following, the smoothed image corresponding to the still image data of the i-th frame is referred to as the i-th smoothed image. In the following description, the frames of the still image data will be numbered 1, 2, ... N in the order of the earliest captured time.

検出前処理部23は、N-2個の平滑化画像のうち、pは予め定めた2以上の整数として、i>pとした場合、i-p番目からi番目までのp+1個のフレームの静止画像データの平均を算出し平均画像データを生成する。 In the detection preprocessing unit 23, of the N-2 smoothed images, p is a predetermined integer of 2 or more, and when i> p, the p + 1 frames from the i-pth to the i-th frame. Calculate the average of still image data and generate average image data.

そして平均画像とi+1番目のフレームの静止画像データに対応する平滑化画像、つまりi+1番目の平滑化画像との差分画像データを生成する。差分画像データは、撮像された静止画像データと同じサイズの画像データであって、その各画素を次の処理を実行し特定したものである。 Then, a smoothed image corresponding to the average image and the still image data of the i + 1st frame, that is, the difference image data between the i + 1th smoothed image is generated. The difference image data is image data having the same size as the captured still image data, and each pixel is specified by performing the following processing.

すなわち検出前処理部23は、平均画像の各画素を順次選択する。以下では、選択した画素を、説明のため「注目画素」と呼ぶ。そして検出前処理部23は、当該注目画素に対応する平均画像の画素とi+1番目の平滑化画像の画素とが、互いに同じ画素値、あるいは画素値の差が予め定めたしきい値を下回る場合は「0」、そうでなければ「1」とする。ここでは例えば差分画像データを、その画素値が「0」である画素、言い換えれば、差のない画素を黒色、画素値が「1」である画素、言い換えれば、差のある画素、すなわち有意画素を白色とした二値化画像データとして表す。 That is, the detection preprocessing unit 23 sequentially selects each pixel of the average image. In the following, the selected pixel will be referred to as a "pixel of interest" for the sake of explanation. Then, in the detection preprocessing unit 23, when the pixel of the average image corresponding to the pixel of interest and the pixel of the i + 1th smoothed image have the same pixel value or the difference between the pixel values is less than a predetermined threshold value. Is "0", otherwise it is "1". Here, for example, the difference image data is a pixel whose pixel value is "0", in other words, a pixel having no difference is black, a pixel having a pixel value of "1", in other words, a pixel having a difference, that is, a significant pixel. Is represented as white binarized image data.

検出前処理部23は、この処理を繰り返して、第1番目から第p-1番目までの平均画像と第p番目の平滑化画像との間における差分画像データ、すなわちp番目の差分画像データと、第2番目から第p番目までの平均画像と第p+1番目の平滑化画像との間の差分画像データ、すなわちp+1番目の差分画像データ、…、第N-p番目から第N-1番目までの平均画像と第N番目の平滑化画像との間の各差分画像データを取得する。 The detection preprocessing unit 23 repeats this process to obtain the difference image data between the first to p-1th average images and the pth smoothed image, that is, the pth difference image data. , The difference image data between the second to pth average image and the p + 1st smoothed image, that is, the p + 1st difference image data, ..., Npth to N-1th Each difference image data between the average image of the above and the Nth smoothed image is acquired.

なお、検出前処理部23は、平均画像の代わりに、k番目の平滑化画像においてゴルフボールが撮像される際の画素数より大きいサイズの画素塊であって、周辺画素と色の異なる画素塊を検出して、当該画素塊を周辺画素の色で埋める処理、すなわちノイズ除去処理を実行して、実質的に背景となる画像を取得もよい。この場合、検出前処理部23は、当該実質的に背景となる画像と、k+1番目の平滑化画像との差分画像データを取得することとなる。 The detection preprocessing unit 23 is a pixel block having a size larger than the number of pixels when the golf ball is imaged in the k-th smoothed image instead of the average image, and is a pixel block having a color different from that of the peripheral pixels. , That is, a process of filling the pixel block with the colors of peripheral pixels, that is, a noise removing process may be executed to acquire an image that is substantially a background. In this case, the detection preprocessing unit 23 acquires the difference image data between the substantially background image and the k + 1th smoothed image.

検出前処理部23は、取得した各差分画像データに対してモルフォロジー変換処理、具体的には、差のある画素が白色である場合、オープニング処理または差のある画素が黒色である場合、クロージング処理の処理を適用する。また、検出処理前処理部23は、所定の画素数未満の有意画素の塊をノイズとして除去してもよい。なお、所定の画素数は、比較的近くにあるゴルフボールが撮像される際の、当該撮像されたゴルフボールの画素数よりも十分小さいサイズとしてもよい。 The detection preprocessing unit 23 performs a morphology conversion process for each acquired difference image data, specifically, an opening process when the difference pixel is white, or a closing process when the difference pixel is black. Apply the processing of. Further, the detection processing preprocessing unit 23 may remove a block of significant pixels less than a predetermined number of pixels as noise. The predetermined number of pixels may be a size sufficiently smaller than the number of pixels of the imaged golf ball when the imaged golf ball is relatively close.

検出処理部24は、検出前処理部23が取得差分画像データの各々から、ボールが撮像されている位置の検出処理を実行する。本実施の形態のこの態様では、検出処理部24は、第1の態様の図5に例示した処理に代えて、図7に示す処理を実行する。 The detection processing unit 24 executes the detection processing of the position where the ball is imaged from each of the acquired difference image data by the detection preprocessing unit 23. In this embodiment of the present embodiment, the detection processing unit 24 executes the processing shown in FIG. 7 instead of the processing exemplified in FIG. 5 of the first aspect.

図7に示す処理を実行する際、検出処理部24は、プレーヤー領域特定部42で特定した領域が差分画像データの中心より左側に存在するときには当該領域よりも右側の範囲を検出対象領域と識別する。また、プレーヤー領域特定部42で特定した領域が差分画像データの中心より右側に存在するときには当該領域よりも左側の範囲を検出対象領域と識別する。 When executing the process shown in FIG. 7, when the area specified by the player area specifying unit 42 exists on the left side of the center of the difference image data, the detection processing unit 24 identifies the area on the right side of the area as the detection target area. do. Further, when the area specified by the player area specifying unit 42 exists on the right side of the center of the difference image data, the range on the left side of the area is identified as the detection target area.

検出処理部24は、各差分画像データから、上記検出対象領域内にある有意画素の塊を抽出する。そして検出処理部24は、各差分画像データにおいて当該抽出した有意画素の塊のうち、予め定めた画素数の範囲の数だけの有意画素を含む有意画素の塊を、ボール候補として検出する(S11)。 The detection processing unit 24 extracts a block of significant pixels in the detection target region from each difference image data. Then, the detection processing unit 24 detects as a ball candidate a group of significant pixels including a group of significant pixels as many as the number of the number of significant pixels in a predetermined range of the number of pixels among the group of the extracted significant pixels in each difference image data (S11). ).

検出処理部24は、各差分画像データから検出した各ボール候補の位置、例えば、ボール候補となった有意画素塊に外接する矩形を特定する座標情報を、検出した差分画像データに対応するフレームの静止画像データを特定する情報に関連付けて、k番目の静止画像データにおいてゴルフボールが撮像されていると推定される位置の候補、言い換えるとボール位置候補として記録する(S12)。なお、検出処理部24は、k番目の差分画像データであれば、数値kをそのまま用いて処理を実行してもよい。 The detection processing unit 24 determines the position of each ball candidate detected from each difference image data, for example, the coordinate information for specifying the rectangle circumscribing the significant pixel block that has become the ball candidate, in the frame corresponding to the detected difference image data. In association with the information for specifying the still image data, it is recorded as a candidate for a position where the golf ball is presumed to be imaged in the kth still image data, in other words, as a ball position candidate (S12). The detection processing unit 24 may execute the processing using the numerical value k as it is if it is the k-th difference image data.

これにより、k番目の差分画像データを特定する情報に関連付けて記録したボール候補の位置は、k番目の静止画像データにおいてゴルフボールが撮像されていると推定される位置の候補を表すものとなる。以下では説明のため、k番目の静止画像データにおいてゴルフボールが撮像されていると推定される位置の候補を、Bk_1,Bk_2…とする。ここで推定される位置の候補を、以下では、ボール位置候補と呼ぶ。 As a result, the position of the ball candidate recorded in association with the information for identifying the k-th difference image data represents the candidate of the position where the golf ball is presumed to be imaged in the k-th still image data. .. In the following, for the sake of explanation, the candidates for the positions where the golf ball is presumed to be imaged in the kth still image data are referred to as Bk_1, Bk_2, and so on. The position candidates estimated here are referred to as ball position candidates below.

検出処理部24は、k-1番目の静止画像データにおけるボール位置候補と、k番目の静止画像データにおけるボール位置候補と、k+1番目の静止画像データにおけるボール位置候補とのそれぞれから1つずつボール位置候補を取り出して得られる可能な順列を列挙する(S13)。ここでkは2以上、N-1以下の自然数、つまりk=2,3…N-1とする。つまり、この処理S13ではボール位置候補の順列列挙が行われる。なお、上記の説明では、3つ静止画像データを用いる例を挙げるが、3以上であればいくつの静止画像データを用いてもよい。 The detection processing unit 24 has one ball from each of the ball position candidate in the k-1st still image data, the ball position candidate in the kth still image data, and the ball position candidate in the k + 1th still image data. The possible order sequences obtained by extracting the position candidates are listed (S13). Here, k is a natural number of 2 or more and N-1 or less, that is, k = 2,3 ... N-1. That is, in this process S13, the order sequence listing of the ball position candidates is performed. In the above description, an example of using three still image data will be given, but any number of still image data may be used as long as it is three or more.

例えば、図8では、k-1番目の静止画像データにおけるボール位置候補がBk-1_1,Bk-1_2,Bk-1_3の3つあり、k番目の静止画像データにおけるボール位置候補がBk_1,Bk_2の2つあり、k+1番目の静止画像データにおけるボール位置候補がBk+1_1,Bk+1_2,Bk+1_3の3つある場合を示す。なお、図8では、k番目の静止画像データにはBk-1_1,Bk-1_2,Bk-1_3のボール位置候補を破線で示しており、k+1番目の静止画像データには、Bk-1_1,Bk-1_2,Bk-1_3のボール位置候補と、Bk_1,Bk_2のボール位置候補とを破線で示している。 For example, in FIG. 8, there are three ball position candidates in the k-1st still image data, Bk-1_1, Bk-1_2, and Bk-1_3, and the ball position candidates in the kth still image data are Bk_1, Bk_2. There are two, and the case where there are three ball position candidates in the k + 1st still image data of Bk + 1_1, Bk + 1_2, and Bk + 1_3 is shown. In FIG. 8, the kth still image data shows the ball position candidates of Bk-1_1, Bk-1_2, and Bk-1_3 with broken lines, and the k + 1th still image data shows Bk-1_1 and Bk. The ball position candidates of -1_2 and Bk-1_3 and the ball position candidates of Bk_1 and Bk_2 are shown by broken lines.

この場合、それぞれから一つずつ取り出す可能な時系列順の順列は、
Bk-1_1→Bk_1→Bk+1_1
Bk-1_1→Bk_1→Bk+1_2
Bk-1_1→Bk_1→Bk+1_3
Bk-1_1→Bk_2→Bk+1_1
Bk-1_1→Bk_2→Bk+1_2
Bk-1_1→Bk_2→Bk+1_3
Bk-1_2→Bk_1→Bk+1_1

Bk-1_3→Bk_2→Bk+1_2
Bk-1_3→Bk_2→Bk+1_3
の18通りある。検出処理部24は、処理S13で、この順列を列挙する。この順列は、それぞれが、ボールの移動軌跡候補となる。
In this case, the chronological order in which one can be retrieved from each is
Bk-1_1 → Bk_1 → Bk + 1_1
Bk-1_1 → Bk_1 → Bk + 1_2
Bk-1_1 → Bk_1 → Bk + 1_3
Bk-1_1 → Bk_2 → Bk + 1_1
Bk-1_1 → Bk_2 → Bk + 1_2
Bk-1_1 → Bk_2 → Bk + 1_3
Bk-1_2 → Bk_1 → Bk + 1_1

Bk-1_3 → Bk_2 → Bk + 1_2
Bk-1_3 → Bk_2 → Bk + 1_3
There are 18 ways. The detection processing unit 24 lists this order in the processing S13. Each of these sequences is a candidate for the movement trajectory of the ball.

なお、処理S13では必ずしもすべての可能な順列を列挙する必要はなく、例えば順列に隣接して含まれるボール位置候補の差が予め定めたしきい値より大きい順列は、列挙から排除してもよい。なお、ボール位置候補の差は、例えば、X軸またはY軸のいずれかの方向の差などであってもよい。 In the process S13, it is not always necessary to enumerate all possible sequence sequences. For example, a sequence sequence in which the difference between ball position candidates included adjacent to the sequence sequence is larger than a predetermined threshold value may be excluded from the enumeration. .. The difference between the ball position candidates may be, for example, a difference in either the X-axis or the Y-axis direction.

検出処理部24は、各移動軌跡候補のうち、予め定めた条件に最もよく適合する移動軌跡候補を選択する(S14)。つまり、この処理S14では、条件に適合する移動軌跡候補を選択することが行われる。 The detection processing unit 24 selects, among the movement locus candidates, the movement locus candidate that best meets the predetermined conditions (S14). That is, in this process S14, a movement locus candidate that matches the conditions is selected.

ここで条件は、例えば移動軌跡候補に含まれるボール位置候補が表す位置に係る条件である。以下の例では静止画像データの縦方向をY軸、横方向をX軸とする。ここで、Y軸は、鉛直下方を正の方向とし、X軸は右方を正の方向とする。このとき、具体的な条件は、例えば:
(1)時系列順に隣接する3つのボール位置候補Bi-1_a→Bi_b→Bi+1_cにおいて、Bi+1_bより後の時間のボール位置候補のY座標が、Bi_bより前の時間のボール位置候補のY座標より小さいとき、Bi_bのY座標の値からBi-1_aのY座標の値を引いた値ΔYiよりも、Bi+1_cのY座標の値からBi_bのY座標の値を引いた値ΔYi+1の値が小さい
(2)時系列順に隣接する3つのボール位置候補Bi-1_a→Bi_b→Bi+1_cにおいて、Bi+1_b、つまり、より後の時間のボール位置候補のY座標が、Bi_b、つまり、より前の時間のボール位置候補のY座標より大きいとき、Bi_bのY座標の値からBi-1_aのY座標の値を引いた値ΔYiよりも、Bi+1_cのY座標の値からBi_bのY座標の値を引いた値ΔYi+1の値が大きい
(3)時系列順に隣接する3つのボール位置候補Bi-1_a→Bi_b→Bi+1_cにおいて、Bi_bより後の時間のボール位置候補のX座標の値からBi-1_aのX座標の値を引いた値ΔXiと、Bi+1_cのX座標の値からBi_bのX座標の値を引いた値ΔXi+1の値とが正または負である同じ符号であって、X軸方向の変化量の差の絶対値である|ΔXi+1-ΔXi|ができるだけ小さい。
との条件とする。言い換えれば、(1)は減速している場合を示し、(2)は加速している場合を示す。
Here, the condition is, for example, a condition related to the position represented by the ball position candidate included in the movement locus candidate. In the following example, the vertical direction of the still image data is the Y axis, and the horizontal direction is the X axis. Here, the Y-axis has a positive direction vertically below, and the X-axis has a positive direction to the right. At this time, the specific conditions are, for example:
(1) In three adjacent ball position candidates Bi-1_a → Bi_b → Bi + 1_c in chronological order, the Y coordinate of the ball position candidate at the time after Bi + 1_b is the ball position candidate at the time before Bi_b. When it is smaller than the Y coordinate, the value obtained by subtracting the value of the Y coordinate of Bi_b from the value of the Y coordinate of Bi + 1_c is greater than the value ΔYi obtained by subtracting the value of the Y coordinate of Bi-1_a from the value of the Y coordinate of Bi_b. The value of 1 is small (2) In the three adjacent ball position candidates Bi-1_a → Bi_b → Bi + 1_c in chronological order, Bi + 1_b, that is, the Y coordinate of the ball position candidate at a later time is Bi_b, That is, when it is larger than the Y coordinate of the ball position candidate at the earlier time, Bi_b is obtained from the value of the Y coordinate of Bi + 1_c rather than the value ΔYi obtained by subtracting the value of the Y coordinate of Bi-1_a from the value of the Y coordinate of Bi_b. The value obtained by subtracting the value of the Y coordinate of ΔYi + 1 is large. (3) Three adjacent ball position candidates in chronological order Bi- 1_a → Bi_b → Bi + 1_c The value ΔXi obtained by subtracting the value of the X coordinate of Bi-1_a from the value of the X coordinate and the value ΔXi + 1 obtained by subtracting the value of the X coordinate of Bi_b from the value of the X coordinate of Bi + 1_c are positive or negative. With the same sign, | ΔXi + 1-ΔXi |, which is the absolute value of the difference in the amount of change in the X-axis direction, is as small as possible.
It is a condition of. In other words, (1) shows the case of decelerating, and (2) shows the case of accelerating.

図8の例では、検出処理部24の処理により、例えば
・Bk-1_1→Bk_1→Bk+1_1では、上記条件(1)の条件を満足しており、また(3)X軸方向の変化量の差の絶対値が比較的小さいので、移動軌跡として適切であると判断される。
・Bk-1_1→Bk_1→Bk+1_2では、上昇中であるのに、ΔYk+1がΔYkより大きい、つまり加速しているため、(1)の条件を満足せず、またX軸方向の変化量の符号が変わっているので、(3)の条件も満足しない。従って移動軌跡として適切でないと判断される。
・Bk-1_1→Bk_1→Bk+1_3も、Bk-1_1→Bk_1→Bk+1_2の例と同じく(3)の条件を満足しない。

・Bk-1_2→Bk_1→Bk+1_1は、(1)、(3)の条件を満足するが、X軸方向の変化量の差の絶対値が、Bk-1_1→Bk_1→Bk+1_1のものより大きいので、移動軌跡として適切でないと判断される。

上記のように各移動軌跡候補が移動軌跡として適切か否かが判断される。
In the example of FIG. 8, by the processing of the detection processing unit 24, for example, ・ Bk-1_1 → Bk_1 → Bk + 1_1 satisfies the condition (1) above, and (3) the amount of change in the X-axis direction. Since the absolute value of the difference between them is relatively small, it is judged to be appropriate as a movement trajectory.
・ In Bk-1_1 → Bk_1 → Bk + 1_2, although it is rising, ΔYk + 1 is larger than ΔYk, that is, it is accelerating, so the condition (1) is not satisfied and the change in the X-axis direction is not satisfied. Since the sign of the quantity has changed, the condition (3) is not satisfied either. Therefore, it is judged that it is not appropriate as a movement trajectory.
-Bk-1_1->Bk_1-> Bk + 1_3 also does not satisfy the condition (3) as in the example of Bk-1_1->Bk_1-> Bk + 1_2.

-Bk-1_2->Bk_1-> Bk + 1_1 satisfies the conditions (1) and (3), but the absolute value of the difference in the amount of change in the X-axis direction is Bk-1_1->Bk_1-> Bk + 1_1. Since it is larger, it is judged that it is not suitable as a movement trajectory.

As described above, it is determined whether or not each movement locus candidate is appropriate as a movement locus.

図8の例では、以上の例のように、Bk-1_1→Bk_1→Bk+1_1が最も適切な移動軌跡として判断されることとなる。 In the example of FIG. 8, as in the above example, Bk-1_1 → Bk_1 → Bk + 1_1 is determined as the most appropriate movement locus.

検出処理部24は、最も適切な移動軌跡に含まれるボール位置候補の位置を特定する情報を、対応するフレームの静止画像データにおける、ゴルフボールの位置、言い換えると、ゴルフボールが撮像されている位置を表す情報として出力する。 The detection processing unit 24 uses information for identifying the position of the ball position candidate included in the most appropriate movement locus as the position of the golf ball in the still image data of the corresponding frame, in other words, the position where the golf ball is imaged. Is output as information representing.

表示情報生成部25は、撮像制御部21が取得したi番目のフレームの静止画像データの少なくとも一部についてのゴルフボールの位置と、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置とを結んだ線分を、i番目のフレームの静止画像データに係る表示情報として生成する。ここではi=2,3,…N-1とする。なお、ゴルフボールの位置は、それぞれ対応する画素塊の外接矩形の中心であってもよい。 The display information generation unit 25 detects the position of the golf ball for at least a part of the still image data of the i-th frame acquired by the image pickup control unit 21 and the golf ball detected by the still image data of the i-1st and earlier frames. The line segment connecting the positions of is generated as display information related to the still image data of the i-th frame. Here, i = 2, 3, ... N-1. The position of the golf ball may be the center of the circumscribed rectangle of the corresponding pixel block.

また、表示情報生成部25は、i番目のフレームの静止画像データでゴルフボールが検出できなかった場合は、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置から外挿してi番目のフレームの静止画像データでのゴルフボールの位置を推定してもよい。この場合、表示情報生成部25は、i-1番目以前のフレームの静止画像データで検出したゴルフボールの位置と当該推定した位置とを結んだ線分を、i番目のフレームの静止画像データに係る表示情報として生成する。 If the golf ball cannot be detected in the still image data of the i-th frame, the display information generation unit 25 extrapolates the golf ball from the position of the golf ball detected in the still image data of the i-1st and earlier frames. The position of the golf ball in the still image data of the i-th frame may be estimated. In this case, the display information generation unit 25 converts the line segment connecting the position of the golf ball detected by the still image data of the i-1st frame and the estimated position into the still image data of the i-th frame. Generated as such display information.

あるいは、i番目のフレームの静止画像データでゴルフボールが検出できなかった場合、表示情報生成部25は、i-1番目以前のフレームの静止画像データと、i+1番目以降のフレームの静止画像データとのそれぞれで検出したゴルフボールの位置から内挿してi番目のフレームの静止画像データでのゴルフボールの位置を推定してもよい。 Alternatively, when the golf ball cannot be detected in the still image data of the i-th frame, the display information generation unit 25 includes the still image data of the i-1st and earlier frames and the still image data of the i + 1th and subsequent frames. The position of the golf ball may be estimated from the still image data of the i-th frame by interpolating from the position of the golf ball detected in each of the above.

表示制御部26は、ユーザの再生指示に応じて、撮像制御部21が取得した各フレームの静止画像データを順次表示するとともに、再生中もしくは表示中のフレームの静止画像データに係る表示情報が生成されていたときには、当該表示情報を、静止画像データに重ね合わせて表示する。これにより、図3(d)に例示したものと同様に、ゴルフのショットの画像に、ゴルフボールの飛翔の軌跡を表す図形もしくは線分が重ね合わせて表示されることとなる。 The display control unit 26 sequentially displays the still image data of each frame acquired by the image pickup control unit 21 in response to the playback instruction of the user, and generates display information related to the still image data of the frame being played or displayed. If so, the display information is superimposed on the still image data and displayed. As a result, similar to the one illustrated in FIG. 3D, a figure or a line segment representing the flight trajectory of the golf ball is superimposed and displayed on the image of the golf shot.

[表示情報に関する例]
前述の実施形態の画像処理装置10は、撮像して得られた動画像データの各フレームにおいてゴルフボールが撮像されている位置を推定し、当該推定した位置を結ぶ線分を描画して、ゴルフボールの飛翔軌跡を表示するものであった。しかし、本実施の形態の画像処理装置10は、これだけに限らず、ゴルフのショットに関する種々の情報を推定して表示するようにしてもよい。
[Example of display information]
The image processing device 10 of the above-described embodiment estimates the position where the golf ball is imaged in each frame of the moving image data obtained by imaging, draws a line segment connecting the estimated positions, and draws golf. It displayed the flight trajectory of the ball. However, the image processing device 10 of the present embodiment is not limited to this, and various information regarding golf shots may be estimated and displayed.

[ヘッドスピードの推定]
本実施の形態のある態様では、画像処理装置10の制御部11は、表示情報生成部25の処理においてプレーヤーのゴルフクラブのヘッドが撮像されている範囲を、各静止画像データ中から検出する。このゴルフクラブのヘッド部分の検出は、YOLO;https://arxiv.org/abs/1506.02640等の一般的なオブジェクト検出ネットワークを利用する方法など、広く知られている方法を採用できるので、ここでの詳しい説明は省略する。また以下の例では前述の通り静止画像データの縦方向をY軸、横方向をX軸とする。
[Estimation of head speed]
In one embodiment of the present embodiment, the control unit 11 of the image processing device 10 detects a range in which the head of the golf club of the player is imaged in the processing of the display information generation unit 25 from each still image data. For the detection of the head part of this golf club, a widely known method such as a method using a general object detection network such as YOLO; https://arxiv.org/abs/1506.02640 can be adopted, so here. Detailed explanation of is omitted. Further, in the following example, as described above, the vertical direction of the still image data is the Y axis, and the horizontal direction is the X axis.

表示情報生成部25は、プレーヤーの撮像されている領域の検出の結果を用いて、画素数と実際の長さ、特に本実施形態ではメートル単位との比率を算出する。既に述べた第1の態様では、差分画像データ中にある有意画素の塊のうち、予め定めた画素数より大きい画素数の画素を含む有意画素塊をプレーヤーが撮像されている範囲として検出する。そのため、表示情報生成部25は、この有意画素の塊に外接する矩形の高さであって、画素単位をプレーヤーの身長の画素数とする。 The display information generation unit 25 calculates the ratio between the number of pixels and the actual length, particularly in meters in the present embodiment, by using the result of detection of the area where the image is captured by the player. In the first aspect described above, among the groups of significant pixels in the difference image data, the group of significant pixels including the pixels having a pixel number larger than the predetermined number of pixels is detected as the range in which the player is imaged. Therefore, the display information generation unit 25 has the height of a rectangle circumscribing the block of significant pixels, and the pixel unit is the number of pixels of the height of the player.

また第2の態様では、プレーヤー領域特定部42が特定した領域の高さを画素単位で表した値を、プレーヤーの身長の画素数とする。そして表示情報生成部25は、予め定めたプレーヤーの身長を、このプレーヤーの身長の画素数で除して比率rを求める。なお、プレーヤーの身長は、大人の身長の平均値でもよいし、ユーザにプレーヤーの身長の情報の入力を要求してもよい。 Further, in the second aspect, the value representing the height of the area specified by the player area specifying unit 42 in pixel units is taken as the number of pixels of the height of the player. Then, the display information generation unit 25 divides the predetermined height of the player by the number of pixels of the height of the player to obtain the ratio r. The height of the player may be an average value of the heights of adults, or the user may be requested to input information on the height of the player.

表示情報生成部25は、各フレームから検出したゴルフクラブのヘッドの位置のうち、Y軸の値が最小となったときのフレームと、Y軸の値が最大となったときのフレームとの間のフレームの数を抽出する。例えばゴルフクラブのヘッドの位置のうち、Y軸の値が最小となったときのフレームがi番目のフレームであり、Y軸の値が最大となったときのフレームがj番目のフレームであれば、表示情報生成部25は、これらの間のフレーム数として(j-i)を抽出する。そして表示情報生成部25は、フレーム間の撮像間隔を、ここで求めたフレームの数に乗じて、ゴルフクラブが最も高い位置から最も低い位置まで振り降ろされる間の時間tを、秒の単位で求める。なお、検出されたゴルフクラブのヘッドの位置は、ヘッドが撮影されている部分に外接する矩形の中心の位置であってもよい。フレーム間の撮像間隔は、例えばフレーム速度が1/30秒であれば、1/30となる。 The display information generation unit 25 is between the frame when the Y-axis value is the minimum and the frame when the Y-axis value is the maximum among the positions of the golf club heads detected from each frame. Extract the number of frames in. For example, if the frame when the Y-axis value is the minimum is the i-th frame and the frame when the Y-axis value is the maximum is the j-th frame among the positions of the golf club heads. , The display information generation unit 25 extracts (ji) as the number of frames between them. Then, the display information generation unit 25 multiplies the imaging interval between frames by the number of frames obtained here, and sets the time t during which the golf club is swung down from the highest position to the lowest position in seconds. Ask. The detected position of the head of the golf club may be the position of the center of the rectangle circumscribing the portion where the head is photographed. The imaging interval between frames is, for example, 1/30 if the frame speed is 1/30 second.

また、表示情報生成部25は、i番目のフレームのゴルフクラブのヘッドの位置における座標情報(xi,yi)と、j番目のフレームのゴルフクラブのヘッドの位置における座標情報(xj,yj)との静止画像データ上での画素単位でユークリッド距離Dを算出する。さらに、表示情報生成部25は、距離Dに予め算出した比rを乗じ、上記求めた時間tで除してヘッドスピードsを算出する。式は以下のとおりである。:
s=D・r/t
Further, the display information generation unit 25 includes coordinate information (xi, yi) at the position of the golf club head of the i-th frame and coordinate information (xj, yj) at the position of the golf club head of the j-th frame. The Euclidean distance D is calculated in pixel units on the still image data of. Further, the display information generation unit 25 calculates the head speed s by multiplying the distance D by the ratio r calculated in advance and dividing by the time t obtained above. The formula is as follows. :
s = D · r / t

画像処理装置10は、上記の手法に基づき算出したヘッドスピードの情報を、ゴルフボールの移動軌跡とともに表示してもよい。 The image processing device 10 may display information on the head speed calculated based on the above method together with the movement locus of the golf ball.

[初期位置の推定]
表示情報生成部25は、プレーヤーの撮像されている領域の検出結果を用い、当該領域の下辺を延長した線分と、ゴルフボールの飛翔の軌跡を表す直線であって、静止画像データのY軸正の方向に延長した線分との交差する位置を、ゴルフボールの初期位置として推定してもよい。
[Estimation of initial position]
The display information generation unit 25 uses the detection result of the region imaged by the player, is a line segment extending the lower side of the region, and is a straight line representing the trajectory of the flight of the golf ball, and is the Y axis of the still image data. The position where the line segment extending in the positive direction intersects may be estimated as the initial position of the golf ball.

表示制御部26は、ユーザの再生指示に応じて、撮像制御部21が取得した各フレームの静止画像データを順次表示する際、静止画像データの初期位置にゴルフのショットが行われたことを表す図形を重ね合わせて配し、インパクトがあったことを強調して表示してもよい。なお、表示制御部26が表示する図形は、丸形であっても、四角であっても、その他多角形であってもよい。 The display control unit 26 indicates that a golf shot was performed at the initial position of the still image data when sequentially displaying the still image data of each frame acquired by the image pickup control unit 21 in response to the playback instruction of the user. The figures may be overlapped and arranged to emphasize the impact. The figure displayed by the display control unit 26 may be a circle, a square, or another polygon.

表示情報生成部25は、この初期位置の情報を、次の処理において利用してもよい。 The display information generation unit 25 may use the information of this initial position in the next processing.

[飛距離の推定(第1の方法)]
本実施の形態のある態様では、表示情報生成部25は、図9に例示するようにヘッドスピード推定部51と、初期位置推定部52と、仮飛距離演算部53と、仰角推定部54と、ミート率推定部55と、飛距離推定部56とを含んで構成される。
[Estimation of flight distance (first method)]
In one embodiment of the present embodiment, the display information generation unit 25 includes a head speed estimation unit 51, an initial position estimation unit 52, a temporary flight distance calculation unit 53, and an elevation angle estimation unit 54, as illustrated in FIG. , The meet rate estimation unit 55 and the flight distance estimation unit 56 are included.

ヘッドスピード推定部51は、既に述べたように、i番目のフレームのゴルフクラブのヘッドの位置における座標情報(xi,yi)と、j番目のフレームのゴルフクラブのヘッドの位置における座標情報(xj,yj)との静止画像データ上での画素単位でユークリッド距離Dを算出する。さらに、表示情報生成部25は、距離Dに予め算出した比rを乗じ、上記求めた時間tで除してヘッドスピードs=D・r/tを推定する。初期位置推定部52は、上述の方法で初期位置を推定する。なお、本実施の形態のここでの例では、初期位置推定部52は、さらにゴルフボールを検出したフレームの撮像時刻と、当該検出位置との情報を用いて、位置に応じた時刻の外挿を行い、先に推定した初期位置にボールがあった最後の時点であって、インパクトの時点の時刻t0を、フレーム単位で推定する。 As described above, the head speed estimation unit 51 has coordinate information (xi, yi) at the position of the golf club head of the i-th frame and coordinate information (xj) at the position of the golf club head of the j-th frame. , Yj) and the Euclidean distance D is calculated in pixel units on the still image data. Further, the display information generation unit 25 estimates the head speed s = D · r / t by multiplying the distance D by the ratio r calculated in advance and dividing by the time t obtained above. The initial position estimation unit 52 estimates the initial position by the above method. In this example of the present embodiment, the initial position estimation unit 52 further extrapolates the time according to the position by using the image pickup time of the frame in which the golf ball is detected and the information of the detection position. Is performed, and the time t0 at the time of impact, which is the last time when the ball was at the previously estimated initial position, is estimated in frame units.

本実施の形態では、ミート率を仮に定めて仮の飛距離である仮飛距離を求める。この仮飛距離の値は、後に、ミート率を推定する処理に用いられる。このために、仮飛距離演算部53は、仮のミート率を1.25として、ヘッドスピード推定部51が推定したヘッドスピードsを用い、ボールスピードbs=1.25×sを算出する。なお、ミート率は、ボール初速をヘッドスピードで除した比率を意味する。そして仮飛距離演算部53は、ボールスピードbsを4倍した値を仮の飛距離とする。 In the present embodiment, the meet rate is tentatively determined to obtain the tentative flight distance, which is the tentative flight distance. The value of this provisional flight distance is later used in the process of estimating the meet rate. For this purpose, the temporary flight distance calculation unit 53 calculates the ball speed bs = 1.25 × s by using the head speed s estimated by the head speed estimation unit 51 with the temporary meet rate as 1.25. The meet rate means the ratio of the initial velocity of the ball divided by the head speed. Then, the temporary flight distance calculation unit 53 sets the value obtained by multiplying the ball speed bs by four as the temporary flight distance.

[仰角の推定]
仰角推定部54は、図10に例示する処理により、ボールの打ち出し時の仰角を推定する。仰角推定部54は、図11に例示するように、プレーヤーの撮像されている領域Fの検出結果を用いて、当該領域Fの高さHを算出する。そして仰角推定部54は、当該領域Fの下辺から、当該領域Fの高さHに対して所定比率(図11では0.9とする)の位置にあるX軸に平行な仮想的な線分λを設定する(S21)。以下の処理では、この線分λが、撮像部15の高さにある、地面に平行な線分と仮定する。
[Estimation of elevation angle]
The elevation angle estimation unit 54 estimates the elevation angle at the time of launching the ball by the process illustrated in FIG. As illustrated in FIG. 11, the elevation angle estimation unit 54 calculates the height H of the region F imaged by the player using the detection result of the region F. The elevation angle estimation unit 54 is a virtual line segment parallel to the X-axis located at a predetermined ratio (0.9 in FIG. 11) to the height H of the region F from the lower side of the region F. Set λ (S21). In the following processing, it is assumed that this line segment λ is a line segment parallel to the ground at the height of the imaging unit 15.

仰角推定部54は、ゴルフボールを検出した位置Bを通過し、X軸に平行な仮想線分λ′を設定する(S22)。ここで、位置Bは、どの時点のものでもよいが、図11では最初にゴルフボールを検出した位置としている。そして仰角推定部54は、ここまでに設定した仮想線分λとλ′との間の距離hを算出する(S23)。なお、仮想線分λとλ′との間の距離hは、λのY座標の値と、λ′のY座標の値との差の絶対値であって、単位は画素である。 The elevation angle estimation unit 54 passes through the position B where the golf ball is detected, and sets a virtual line segment λ'parallel to the X axis (S22). Here, the position B may be any time point, but in FIG. 11, the position B is the position where the golf ball is first detected. Then, the elevation angle estimation unit 54 calculates the distance h between the virtual line segment λ and λ'set so far (S23). The distance h between the virtual line segment λ and λ'is the absolute value of the difference between the value of the Y coordinate of λ and the value of the Y coordinate of λ', and the unit is a pixel.

仰角推定部54は、既に述べた、プレーヤーの身長に関する情報とプレーヤーの撮像されている領域Fの高さHとの比に基づいて画素に対する長さの比rを算出する(S24)。また、仰角推定部54は、上記距離hにこの比rを乗じてメートル単位での長さの情報h′=r×hを算出する(S25)。 The elevation angle estimation unit 54 calculates the ratio r of the length to the pixel based on the ratio of the information regarding the height of the player and the height H of the region F in which the player is imaged, which has already been described (S24). Further, the elevation angle estimation unit 54 multiplies the distance h by this ratio r to calculate the length information h'= r × h in metric units (S25).

図12に、撮像する場合、特に打ち出されたゴルフボールの進行方向が右となる状態を示す。撮像部15の位置Cとゴルフボールの位置Bとを結ぶ線分CBとすると、この長さh′は、撮像部15の位置Cとプレーヤーの正中線との交差する点Pと、当該正中線と線分CBとの交点Qとの間の長さPQに相当することとなる。 FIG. 12 shows a state in which the traveling direction of the launched golf ball is to the right when taking an image. Assuming that the line segment CB connecting the position C of the image pickup unit 15 and the position B of the golf ball, this length h'is the intersection P of the position C of the image pickup unit 15 and the midline of the player and the midline. It corresponds to the length PQ between the line segment CB and the intersection Q with the line segment CB.

ここでゴルフボールの初期位置Eが上記正中線と地面との交点であるとし、線分CBを延長した線分と、地面との交点をLとする。また線分ELの長さをd2とし、線分EBの長さをd1とする。求める仰角をαと置き、線分CLと地面とのなす角をβとすると、図12に例示するように、地面を平面と仮定したときには、平行線に関する定理から角LCPもまたβとなる。従って三角形CPQと、三角形LEQとは相似形となっている。 Here, it is assumed that the initial position E of the golf ball is the intersection of the median line and the ground, and the intersection of the line segment extending the line segment CB and the ground is L. Further, the length of the line segment EL is d2, and the length of the line segment EB is d1. Assuming that the angle of elevation to be obtained is α and the angle formed by the line segment CL and the ground is β, as illustrated in FIG. 12, when the ground is assumed to be a plane, the angle LCP is also β from the theorem regarding parallel lines. Therefore, the triangle CPQ and the triangle LEQ have similar figures.

さらに正弦定理より、

Figure 0007083334000001
が成立するので、これをαについて整理して、
Figure 0007083334000002
を得る。 Furthermore, from the law of sines,
Figure 0007083334000001
Is established, so organize this for α and
Figure 0007083334000002
To get.

一方、撮像部15の画角の情報から、プレーヤーの身長が画素数Hで撮像される場合の被写体までの距離Dは推定できるので、上記相似の関係から、D/h=d2/0.9H-hが成り立ち、

Figure 0007083334000003
と書くことができる。 On the other hand, since the distance D to the subject when the height of the player is imaged with the number of pixels H can be estimated from the information of the angle of view of the image pickup unit 15, D / h = d2 / 0.9H from the above similar relationship. -H holds,
Figure 0007083334000003
Can be written.

またd1は推定したボールの初速に、ゴルフボールが初期位置Eから点Bまで移動するのに要した時間を乗じて求めることができる。この時間は、先に求めたt0を用いて、点Bにあったときのフレームがk番目のフレームであれば(k-t0)にフレーム間の時間fps(例えば1/30秒であれば1/30)を乗じて、
(k-t0)・fps
と求めることができるため、

Figure 0007083334000004
となる。 Further, d1 can be obtained by multiplying the estimated initial velocity of the ball by the time required for the golf ball to move from the initial position E to the point B. This time is 1 if the frame at point B is the kth frame (kt0) and the time fps between frames (for example, 1/30 second) using the previously obtained t0. Multiply by / 30)
(Kt0) ・ fps
Because it can be asked
Figure 0007083334000004
Will be.

なお、角βは、

Figure 0007083334000005
と表すことができる。 The angle β is
Figure 0007083334000005
It can be expressed as.

仰角推定部54は、(2),(3),(4)式により、既知の値となっているD,H,h′,r(画素に対する現実の長さ(メートル)の比),k,t0,fps,bsからd1,d2,及びβを求める(S26)。そして(1)式に、当該求めた値を代入して仰角の推定値αを求める(S27)。 The elevation angle estimation unit 54 has D, H, h', r (ratio of the actual length (meter) to the pixel), k, which are known values according to the equations (2), (3), and (4). , T0, fps, bs to obtain d1, d2, and β (S26). Then, the estimated value α of the elevation angle is obtained by substituting the obtained value into the equation (1) (S27).

なお、身長に対するカメラの高さの比率を0.9以外とする場合は、(2)式における定数0.9もそれに合わせて変更する。 If the ratio of the height of the camera to the height is other than 0.9, the constant 0.9 in Eq. (2) is also changed accordingly.

[ミート率の推定(第1の方法)]
ミート率推定部55は、次のようにしてミート率を推定する。なお、以下の説明でも図12を参照する。また図12において、撮像部15の位置Cから鉛直下方に下ろした線と地面との交点をOとする。既に述べたように、この線分COの長さは0.9H(身長に対するカメラの高さの比率を0.9とする場合。異なる値とするときには、その値とする)である。
[Estimation of meet rate (first method)]
The meet rate estimation unit 55 estimates the meet rate as follows. Note that FIG. 12 will also be referred to in the following description. Further, in FIG. 12, the intersection of the line drawn vertically downward from the position C of the imaging unit 15 and the ground is defined as O. As already mentioned, the length of this line segment CO is 0.9H (when the ratio of the height of the camera to the height is 0.9. When different values are used, that value is used).

ミート率推定部55は、仮飛距離演算部53が求めた仮の飛距離m′=4・bsを用い、この飛距離の位置で、ゴルフボールが地面上の点B′にあるとして、撮像部15の位置Cからこの点B′を見るときの角度β′として、

Figure 0007083334000006
を求める。なお、ここでは地面は平面と仮定する。そしてミート率推定部55は、この位置B′に対応する静止画像データ上での画素のY座標の値を、プレーヤーの撮像されている領域Fの上辺から
Figure 0007083334000007
だけ下がった、つまりこの値だけY軸正の方向に移動した位置yとする。以下、この位置yを通り、X軸に平行な仮想的な線分をλ″とする。 The meat rate estimation unit 55 uses the temporary flight distance m'= 4 · bs obtained by the temporary flight distance calculation unit 53, and takes an image assuming that the golf ball is at the point B'on the ground at this flight distance position. As the angle β'when looking at this point B'from the position C of the part 15,
Figure 0007083334000006
Ask for. Here, it is assumed that the ground is a flat surface. Then, the meet rate estimation unit 55 sets the value of the Y coordinate of the pixel on the still image data corresponding to this position B'from the upper side of the region F in which the player is imaged.
Figure 0007083334000007
It is assumed that the position y is lowered by, that is, moved in the positive direction of the Y axis by this value. Hereinafter, a virtual line segment that passes through this position y and is parallel to the X axis is defined as λ ″.

またミート率推定部55は、ゴルフボールの位置B′のX座標の値を、次のように求める。以下の説明では図13を参照する。図13において図11と同じ点には、同じ符号を付している。図13において線分EBとY軸とのなす角を打ち出し角度φとする。また各フレームの静止画像データから検出したゴルフボールの位置のうち、その座標のY軸の値が最小となる位置Gと、点Bとを結ぶ線分を考えるとき、線分BGとX軸とのなす角をθとする。 Further, the meet rate estimation unit 55 obtains the value of the X coordinate of the position B'of the golf ball as follows. In the following description, FIG. 13 will be referred to. In FIG. 13, the same points as those in FIG. 11 are designated by the same reference numerals. In FIG. 13, the angle formed by the line segment EB and the Y axis is defined as the launch angle φ. Also, when considering the line segment connecting the point B and the position G where the value of the Y-axis of the coordinates is the minimum among the positions of the golf balls detected from the still image data of each frame, the line segments BG and the X-axis are used. Let θ be the angle formed by.

ミート率推定部55は、点Gを通り、X軸とのなす角がθであるようなもう一つの仮想的な線分を設定し、この線分と上述のλ″との交点をB′とする。そしてミート率推定部55は、角BEB′を曲がり角度ψとして、この曲がり角度ψと、上述の打ち出し角度φとの和の余弦に、先に求めた仰角αの所定の関数を乗じてミート率Mを演算する。ここでは、

Figure 0007083334000008
とする。なお、ここで角度αは、円周を360度とする角度単位であるディグリーで表すものとし、|z|は、zの絶対値を表すものとする。また定数である1.33や、0.01は経験的に定められている。 The meat rate estimation unit 55 sets another virtual line segment that passes through the point G and has an angle of θ with the X axis, and B'is the intersection of this line segment and the above-mentioned λ ″. Then, the meet rate estimation unit 55 takes the angle BEB'as the bending angle ψ, and multiplies the cosine of the sum of this bending angle ψ and the launch angle φ described above by a predetermined function of the elevation angle α obtained above. Calculate the meet rate M. Here,
Figure 0007083334000008
And. Here, the angle α is represented by a degree, which is an angle unit having a circumference of 360 degrees, and | z | represents the absolute value of z. Further, the constants 1.33 and 0.01 are empirically determined.

飛距離推定部56は、ミート率推定部55が求めたミート率Mと、先に求めたヘッドスピードsを用いてボールの初速をM・sとして、飛距離eを、
e=4・M・s
と推定する。
The flight distance estimation unit 56 uses the meet rate M obtained by the meet rate estimation unit 55 and the head speed s obtained earlier to set the initial velocity of the ball as M · s and set the flight distance e.
e = 4 ・ M ・ s
I presume.

表示制御部26は、ユーザの再生指示に応じて、撮像制御部21が取得した各フレームの静止画像データを順次表示する際、ここで得られた飛距離の値eやミート率を併せて表示してもよい。 When the display control unit 26 sequentially displays the still image data of each frame acquired by the image pickup control unit 21 in response to the playback instruction of the user, the display control unit 26 also displays the flight distance value e and the meet rate obtained here. You may.

[飛距離の推定(第2の方法)]
本実施の形態のもう一つの態様では、飛距離の推定を次のようにして行う。この態様では、表示情報生成部25は、図14に例示するようにヘッドスピード推定部61と、ミート率推定部62と、飛距離推定部63とを含んで構成される。ここでヘッドスピード推定部61は、既に述べた方法によりヘッドスピードsを推定する。
[Estimation of flight distance (second method)]
In another aspect of this embodiment, the flight distance is estimated as follows. In this aspect, the display information generation unit 25 includes a head speed estimation unit 61, a meet rate estimation unit 62, and a flight distance estimation unit 63, as illustrated in FIG. Here, the head speed estimation unit 61 estimates the head speed s by the method already described.

[ミート率の推定(第2の方法)]
またミート率推定部62は、図15に例示するように、プレーヤーの撮像されている領域Fの左端から、この領域の幅の所定数倍、例えば5倍の幅を有する領域Uを確定し、X軸方向に当該領域Uを所定の横分割数に分ける。またミート率推定部62は、例えばプレーヤーの撮像されている領域Fの下辺から、当該領域Fの高さの例えば0.8倍の高さの位置にX軸に平行な第1の判定ラインDL1を設定する。さらにミート率推定部62は、領域Fの下辺から、当該領域Fの高さの例えば1.2倍の高さの位置にX軸に平行な第2の判定ラインDL2を設定…のように複数の判定ラインを設定し、領域UをY軸方向にも複数に分割する。
[Estimation of meet rate (second method)]
Further, as illustrated in FIG. 15, the meet rate estimation unit 62 determines a region U having a width of a predetermined number of times, for example, 5 times the width of this region from the left end of the region F in which the player is imaged. The region U is divided into a predetermined number of horizontal divisions in the X-axis direction. Further, the meet rate estimation unit 62 is a first determination line DL1 parallel to the X-axis, for example, from the lower side of the region F in which the player is imaged to a position at a height of, for example, 0.8 times the height of the region F. To set. Further, the meet rate estimation unit 62 sets a plurality of second determination lines DL2 parallel to the X-axis at a position having a height of, for example, 1.2 times the height of the region F from the lower side of the region F. The determination line of is set, and the area U is divided into a plurality of areas in the Y-axis direction as well.

そしてミート率推定部62は、領域Uを分割して得られる小領域ごとに、予めミート率を設定しておく。図15の例では、3×3の9個に分割された小領域ごとに、第1行の左から右へ順に、1.15,1.2,1.15と設定している。また第2行についても同様に、1.35,1.42,1.35と設定し、第3行についても、1.1,1.2,1.1と設定する。 Then, the meet rate estimation unit 62 sets the meet rate in advance for each small region obtained by dividing the region U. In the example of FIG. 15, 1.15, 1.2, and 1.15 are set in order from the left to the right of the first row for each small area divided into 9 pieces of 3 × 3. Similarly, the second line is set to 1.35, 1.42, 1.35, and the third line is also set to 1.1, 1.2, 1.1.

ミート率推定部62は、各フレームの静止画像データのうち、ゴルフボールの位置を最後に検出したフレームにおける、当該ゴルフボールの位置が、上記小領域のどこに属するかを判断する。そして、ミート率推定部62は、当該判断の結果、最後に検出したゴルフボールの位置が属する小領域に関連して、予め設定されているミート率の値を、ミート率の推定値M′として出力する。 The meet rate estimation unit 62 determines, among the still image data of each frame, where in the small area the position of the golf ball belongs in the frame in which the position of the golf ball is last detected. Then, as a result of the determination, the meet rate estimation unit 62 sets a preset value of the meet rate as the estimated value M'of the meet rate in relation to the small area to which the position of the golf ball last detected belongs. Output.

飛距離推定部63は、ミート率推定部62が求めたミート率M′と、先に求めたヘッドスピードsを用いて(従ってボールの初速をM′・sとして)、飛距離e′を、
e′=4・M′・s
と推定する。
The flight distance estimation unit 63 uses the meet rate M'obtained by the meet rate estimation unit 62 and the head speed s obtained earlier (hence, the initial velocity of the ball is M'· s) to set the flight distance e'.
e ′ = 4 ・ M ′ ・ s
I presume.

そしてこの例では、表示制御部26は、ユーザの再生指示に応じて、撮像制御部21が取得した各フレームの静止画像データを順次表示する際、ここで得られた飛距離の値e′やミート率を併せて表示する。 In this example, when the display control unit 26 sequentially displays the still image data of each frame acquired by the image pickup control unit 21 in response to the playback instruction of the user, the flight distance value e'obtained here or the like. The meat rate is also displayed.

[実施形態の効果]
本発明の実施の形態によると、ゴルフのショット時の動画像を、プレーヤーの後ろ側から画像処理装置10の撮像部15で撮像すれば、当該撮像された動画像データに含まれる一連の静止画像データのフレームからゴルフボールの位置を検出し、動画像データの再生時にゴルフボールの移動軌跡を表す線分を重ね合わせて表示できる。
[Effect of embodiment]
According to the embodiment of the present invention, if a moving image at the time of a golf shot is captured by the imaging unit 15 of the image processing device 10 from the rear side of the player, a series of still images included in the captured moving image data. The position of the golf ball can be detected from the data frame, and the line segment representing the movement trajectory of the golf ball can be superimposed and displayed when the moving image data is reproduced.

このようにユーザは簡便な操作で、ゴルフボールの飛翔軌跡を合成した動画像を視聴でき、ゴルフのショット画像の娯楽性を向上できる。 In this way, the user can view a moving image in which the flight trajectory of the golf ball is synthesized with a simple operation, and can improve the entertainment of the golf shot image.

また本実施の形態のある態様では、上述のように、ショットの初期位置を合成して表示でき、ゴルフのショット画像の娯楽性をさらに向上できる。 Further, in a certain aspect of the present embodiment, as described above, the initial positions of the shots can be combined and displayed, and the entertainment of the golf shot image can be further improved.

さらに本実施の形態のいくつかの態様では、インパクト時のヘッドスピードを推定し、またミート率を推定して飛距離を推定でき、この推定したミート率や飛距離の情報等を併せて表示するので、ユーザは簡便な操作で、おおまかな飛距離の情報など、ショットに関する情報を得ることができ、プレーヤーのショットの診断を簡便に行うことができる。 Further, in some aspects of the present embodiment, the head speed at the time of impact can be estimated, the meet rate can be estimated to estimate the flight distance, and the estimated meet rate, flight distance information, and the like can be displayed together. Therefore, the user can obtain information about the shot, such as rough flight distance information, with a simple operation, and can easily diagnose the shot of the player.

また、当該推定したミート率や飛距離に基づき、これらが所定のしきい値を超えたときに、「ナイスショット!」などといった文字の画像など、演出用の画像を合わせて表示することとすると、さらにゴルフのショット画像の娯楽性を向上でき、また、プレーヤーのショットの診断を簡便に行うことができる。 In addition, based on the estimated meet rate and flight distance, when these exceed a predetermined threshold value, an image for staging such as an image of characters such as "Nice shot!" Will be displayed together. Further, the entertainingness of the shot image of golf can be improved, and the shot of the player can be easily diagnosed.

[ゴルフ以外のスポーツへの適用]
本実施の形態の画像処理装置10は、ゴルフ以外のスポーツにおいても利用できる。例えば野球やバッティングセンターなどでの打撃であれば、バッターの後方側、いわゆるバックネット裏から撮像した画像を用いることで、画像処理装置10は、ボールを検出し始めてからバッターが打撃を行うまでの時間と、バッターからマウンドまでの距離dである約18mの情報とを用いて、投球速度を推定する。
[Application to sports other than golf]
The image processing device 10 of the present embodiment can also be used in sports other than golf. For example, in the case of hitting at a baseball or batting center, by using an image captured from the back side of the batter, the so-called back of the back net, the image processing device 10 starts detecting the ball until the batter hits the ball. The throwing speed is estimated using the time and the information of about 18 m, which is the distance d from the batter to the mound.

すなわち、ボールが検出されるのは、ピッチャーの手からボールが離れた時点であるので、バッターが打撃を行うまでの時間Tで、上記距離dを除することで投球速度を判定できる。 That is, since the ball is detected when the ball is separated from the pitcher's hand, the pitching speed can be determined by dividing the distance d by the time T until the batter hits.

また野球では、バットのスイング速度と、バットがボールを打ち出すときのインパクト位置が、上記の投球速度に加えて打球速度に影響する。そこで画像処理装置10は、既に述べたゴルフクラブを検出した方法と同様の方法でバットの位置を検出し、そのスイングの速度と、打撃前のボールの最後の検出位置とバットを検出した領域が画像データ中で占める範囲とに基づいてインパクト位置を推定する。 In baseball, the swing speed of the bat and the impact position when the bat launches the ball affect the hitting speed in addition to the above-mentioned throwing speed. Therefore, the image processing device 10 detects the position of the bat by the same method as the method for detecting the golf club described above, and the speed of the swing, the last detected position of the ball before hitting, and the region where the bat is detected are determined. The impact position is estimated based on the range occupied in the image data.

そして画像処理装置10は、ボールの反発係数を定数として、以上で求めた投球速度とバットのスイング速度とインパクト位置とに基づいて打球速度を推定する。さらに画像処理装置10は、バットの領域の検出結果から、打撃後のフレームを特定し、当該打撃後のフレームから、打撃後のボールの位置を検出して、打球の角度を推定する。この推定方法は、既に述べたゴルフボールの打ち上げ角度の推定方法と同様の方法を採用できる。 Then, the image processing device 10 estimates the hitting speed based on the throwing speed, the swing speed of the bat, and the impact position obtained above, with the coefficient of restitution of the ball as a constant. Further, the image processing device 10 identifies the frame after hitting from the detection result of the area of the bat, detects the position of the ball after hitting from the frame after hitting, and estimates the angle of the hit ball. As this estimation method, the same method as the above-mentioned method for estimating the launch angle of a golf ball can be adopted.

そして画像処理装置10は、以上の打撃速度と打球の角度とに基づいて打球の飛距離を推定して表示する。 Then, the image processing device 10 estimates and displays the flight distance of the hit ball based on the above hitting speed and the angle of the hit ball.

さらに他のボールを用いたスポーツにおいても本実施の形態の画像処理装置10を利用して、プレーヤーが投げた、打ち出した、蹴り出した、つまりプレーヤーがショットしたボールの軌跡を推定して、その情報を、プレーヤーとボールとを撮像した画像に重畳して表示するなどの処理に供することができる。 Further, in sports using other balls, the image processing device 10 of the present embodiment is used to estimate the trajectory of the ball thrown, launched, kicked, that is, shot by the player, and the trajectory thereof is estimated. The information can be used for processing such as superimposing the information on the captured image of the player and the ball and displaying the information.

10 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 撮像部、16 通信部、21 撮像制御部、22 画像前処理部、23 検出前処理部、24 検出処理部、25 表示情報生成部、26 表示制御部、31,41 補正部、32,43 変換部、42 プレーヤー領域特定部、51,61 ヘッドスピード推定部、52 初期位置推定部、53 仮飛距離演算部、54 仰角推定部、55,62 ミート率推定部、56,63 飛距離推定部。

10 Image processing device, 11 Control unit, 12 Storage unit, 13 Operation unit, 14 Display unit, 15 Imaging unit, 16 Communication unit, 21 Imaging control unit, 22 Image preprocessing unit, 23 Pre-detection processing unit, 24 Detection processing unit , 25 Display information generation unit, 26 Display control unit, 31,41 Correction unit, 32,43 Conversion unit, 42 Player area identification unit, 51,61 Head speed estimation unit, 52 Initial position estimation unit, 53 Temporary flight distance calculation unit , 54 elevation angle estimation unit, 55,62 meat rate estimation unit, 56,63 flight distance estimation unit.

Claims (6)

ゴルフのショットを、ゴルフボールの打ち出し方向に実質的に平行な方向から撮像した一連のN個の静止画像データを含む動画像データを取得する手段と、
前記取得した動画像データに含まれる静止画像データのそれぞれからゴルフボールの画像部分を検出するボール検出手段と、
前記検出したゴルフボールの画像部分の位置の情報を用いて飛距離を推定する飛距離推定手段と、
を含み、
前記飛距離推定手段は、複数の前記静止画像データから検出されたゴルフボールの画像部分の位置に基づいて、前記静止画像データの平面における打ち出し角度を推定し、当該推定された打ち出し角度に基づいて飛距離を推定する、画像処理装置。
A means for acquiring moving image data including a series of N still image data obtained by capturing a golf shot from a direction substantially parallel to the launch direction of a golf ball .
A ball detecting means for detecting an image portion of a golf ball from each of the still image data included in the acquired moving image data, and a ball detecting means.
A flight distance estimation means for estimating the flight distance using the information on the position of the detected image portion of the golf ball, and
Including
The flight distance estimating means estimates the launch angle of the still image data on a plane based on the position of the image portion of the golf ball detected from the plurality of still image data, and is based on the estimated launch angle. An image processing device that estimates the flight distance .
請求項1に記載の画像処理装置であって、
さらに、前記取得した動画像データに含まれる静止画像データのそれぞれからゴルフクラブのヘッドの画像部分の検出を試行するヘッド検出手段を含み、
前記飛距離推定手段が、前記検出したゴルフボールの画像部分の位置の情報とゴルフクラブのヘッドの画像部分の位置の情報とを用いて飛距離を推定する画像処理装置。
The image processing apparatus according to claim 1.
Further, the head detecting means for trying to detect the image portion of the head of the golf club from each of the still image data included in the acquired moving image data is included.
An image processing device in which the flight distance estimating means estimates a flight distance using the detected information on the position of an image portion of a golf ball and information on the position of an image portion of a golf club head.
請求項2に記載の画像処理装置であって、
前記飛距離推定手段は、
複数の静止画像データから検出された前記ヘッド検出手段が検出した画像部分の位置に基づいてインパクト時のヘッドの速度を推定し、
複数の静止画像データから検出されたゴルフボールの画像部分の位置に基づいてミート率を推定し、
当該推定されたヘッドの速度とミート率とに基づいて飛距離を推定する画像処理装置。
The image processing apparatus according to claim 2.
The flight distance estimation means is
The speed of the head at the time of impact is estimated based on the position of the image portion detected by the head detecting means detected from a plurality of still image data, and the speed of the head is estimated.
Estimate the meet rate based on the position of the image part of the golf ball detected from multiple still image data,
An image processing device that estimates the flight distance based on the estimated head speed and meet rate.
請求項3に記載の画像処理装置であって、
前記飛距離推定手段は、
前記ミート率を推定する際に、
前記推定したヘッドの速度と、予め定めた仮ミート率とを用いて仮飛距離を求め、当該仮飛距離と、複数の静止画像データから検出されたゴルフボールの画像部分の位置の情報とに基づき、ミート率を推定する画像処理装置。
The image processing apparatus according to claim 3.
The flight distance estimation means is
When estimating the meet rate,
The provisional flight distance is obtained using the estimated head speed and the provisional meet rate determined in advance, and the provisional flight distance and the information on the position of the image portion of the golf ball detected from a plurality of still image data are obtained. Based on this, an image processing device that estimates the meet rate.
コンピュータを用い、
取得手段が、ゴルフのショットを、ゴルフボールの打ち出し方向に実質的に平行な方向から撮像した一連のN個の静止画像データを含む動画像データを取得し、
ボール検出手段が、前記取得した動画像データに含まれる静止画像データのそれぞれからゴルフボールの画像部分を検出
飛距離推定手段が、前記検出したゴルフボールの画像部分の位置の情報を用いて飛距離を推定する画像処理方法であって、
前記飛距離推定手段は、複数の前記静止画像データから検出されたゴルフボールの画像部分の位置に基づいて、前記静止画像データの平面における打ち出し角度を推定し、当該推定された打ち出し角度に基づいて飛距離を推定する画像処理方法。
Using a computer
The acquisition means acquires moving image data including a series of N still image data obtained by capturing a golf shot from a direction substantially parallel to the launch direction of the golf ball .
The ball detecting means detects an image portion of a golf ball from each of the still image data included in the acquired moving image data.
The flight distance estimation means is an image processing method for estimating the flight distance using the information on the position of the detected image portion of the golf ball.
The flight distance estimating means estimates the launch angle of the still image data on a plane based on the position of the image portion of the golf ball detected from the plurality of still image data, and is based on the estimated launch angle. An image processing method that estimates the flight distance .
コンピュータを、
ゴルフのショットを、ゴルフボールの打ち出し方向に実質的に平行な方向から撮像した一連のN個の静止画像データを含む動画像データを取得する手段と、
前記取得した動画像データに含まれる静止画像データのそれぞれからゴルフボールの画像部分を検出するボール検出手段と、
前記検出したゴルフボールの画像部分の位置の情報を用いて飛距離を推定する飛距離推定手段と、
として機能させ
前記飛距離推定手段として機能させる際に、コンピュータに、複数の前記静止画像データから検出されたゴルフボールの画像部分の位置に基づいて、前記静止画像データの平面における打ち出し角度を推定させ、当該推定された打ち出し角度に基づいて飛距離を推定させるプログラム。
Computer,
A means for acquiring moving image data including a series of N still image data obtained by capturing a golf shot from a direction substantially parallel to the launch direction of a golf ball .
A ball detecting means for detecting an image portion of a golf ball from each of the still image data included in the acquired moving image data, and a ball detecting means.
A flight distance estimation means for estimating the flight distance using the information on the position of the detected image portion of the golf ball, and
To function as
When functioning as the flight distance estimation means, a computer is made to estimate the launch angle of the still image data in a plane based on the position of an image portion of a golf ball detected from the plurality of still image data, and the estimation is performed. A program that estimates the flight distance based on the launch angle .
JP2019239187A 2019-12-27 2019-12-27 Image processing equipment, image processing methods, and programs Active JP7083334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239187A JP7083334B2 (en) 2019-12-27 2019-12-27 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239187A JP7083334B2 (en) 2019-12-27 2019-12-27 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2021108017A JP2021108017A (en) 2021-07-29
JP7083334B2 true JP7083334B2 (en) 2022-06-10

Family

ID=76968246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239187A Active JP7083334B2 (en) 2019-12-27 2019-12-27 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7083334B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042086A (en) 2008-08-11 2010-02-25 Yokohama Rubber Co Ltd:The Trial hitting system of golf club and trial hitting method of golf club
JP2010155074A (en) 2008-12-04 2010-07-15 Yokohama Rubber Co Ltd:The Method of selecting golf club
JP2013236659A (en) 2012-05-11 2013-11-28 Flovel Co Ltd Analysis system and analysis method of the same
WO2018105290A1 (en) 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042086A (en) 2008-08-11 2010-02-25 Yokohama Rubber Co Ltd:The Trial hitting system of golf club and trial hitting method of golf club
JP2010155074A (en) 2008-12-04 2010-07-15 Yokohama Rubber Co Ltd:The Method of selecting golf club
JP2013236659A (en) 2012-05-11 2013-11-28 Flovel Co Ltd Analysis system and analysis method of the same
WO2018105290A1 (en) 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor

Also Published As

Publication number Publication date
JP2021108017A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
US20220314092A1 (en) Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program
US11354939B2 (en) Tracking of handheld sporting implements using computer vision
KR101078975B1 (en) Sensing device and method used to apparatus for virtual golf simulation
EP2707837A1 (en) Method of analysing a video of sports motion
WO2010073432A1 (en) Image processing device and image processing method
JP5595655B2 (en) Image processing apparatus and image processing method
Semwal et al. Cricket shot detection from videos
CN111369629A (en) Ball return trajectory prediction method based on binocular visual perception of swinging, shooting and hitting actions
CN109101911A (en) A kind of visual analysis method of pair of football match formation variation and flow of personnel
JP7083332B2 (en) Image processing equipment, image processing methods, and programs
JP5468773B2 (en) Image processing apparatus and image processing method
JP7083334B2 (en) Image processing equipment, image processing methods, and programs
JP7083333B2 (en) Image processing equipment, image processing methods, and programs
CN110377033B (en) RGBD information-based small football robot identification and tracking grabbing method
KR101703316B1 (en) Method and apparatus for measuring velocity based on image
JP7198661B2 (en) Object tracking device and its program
CN113763432B (en) Target detection tracking method based on image definition and tracking stability conditions
US20210322852A1 (en) Determining trajectory of a ball from two-dimensional media-content using computer vision
CN111738093A (en) Automatic speed measuring method for curling balls based on gradient characteristics
Malawski Real-Time First Person Perspective Tracking and Feedback System for Weapon Practice Support in Fencing.
CN114612522B (en) Table tennis sport parameter detection method and device and table tennis training auxiliary system
US11769326B2 (en) Systems and methods for the analysis of moving objects
WO2020115520A1 (en) Ball tracking in sport events
TWI775637B (en) Golf swing analysis system, golf swing analysis method and information memory medium
Širmenis et al. Tracking basketball shots–preliminary results

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220531

R150 Certificate of patent or registration of utility model

Ref document number: 7083334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150