JP2002090380A - Velocity measuring device for swinging object - Google Patents

Velocity measuring device for swinging object

Info

Publication number
JP2002090380A
JP2002090380A JP2000278302A JP2000278302A JP2002090380A JP 2002090380 A JP2002090380 A JP 2002090380A JP 2000278302 A JP2000278302 A JP 2000278302A JP 2000278302 A JP2000278302 A JP 2000278302A JP 2002090380 A JP2002090380 A JP 2002090380A
Authority
JP
Japan
Prior art keywords
image
information
swing
time
bat
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000278302A
Other languages
Japanese (ja)
Other versions
JP4647761B2 (en
Inventor
Yuichi Kimura
祐一 木村
Takehiro Kurono
剛弘 黒野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2000278302A priority Critical patent/JP4647761B2/en
Publication of JP2002090380A publication Critical patent/JP2002090380A/en
Application granted granted Critical
Publication of JP4647761B2 publication Critical patent/JP4647761B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a velocity measuring device for a swinging object capable of conducting remote measurement without working on the object. SOLUTION: The swinging region of an object 11 swung by a person 10 is photographed with the passage of time to obtain image information 20, information on the object 11 is extracted from the image information 20 to find the position of a specified measuring point 19 on the object 11, and the swinging velocity of the object 11 as velocity of a measuring point 19 is found based on the variation with time of a position of the measuring point 19.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、スイング物体の速
度測定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for measuring the speed of a swing object.

【0002】[0002]

【従来の技術】近年、スポーツに対して科学的な観点か
らの解析が行われるようになり、バットやラケット等の
人間によりスイングされる物体の速度測定が行われてい
る。
2. Description of the Related Art In recent years, sports have been analyzed from a scientific point of view, and the speed of an object such as a bat and a racket that is swung by a human has been measured.

【0003】これを実現する方法としては、ドップラー
効果を利用した超音波型装置、バットやラケット等にマ
ーカーを設置してこれを追跡するマーカー追跡型装置、
バットやラケット等に速度検出器を直接取り付ける直接
型装置、または、バットやラケット等の軌道上に複数の
光路を設置し、光路遮断の時間差を検出する光遮断型装
置などがある。
[0003] As a method for realizing this, there are an ultrasonic type apparatus utilizing the Doppler effect, a marker tracking type apparatus for placing a marker on a bat or a racket and tracking the marker,
There are a direct type device in which a speed detector is directly attached to a bat, a racket, or the like, or a light blocking type device in which a plurality of optical paths are installed on a track of a bat, a racket, or the like, and a time difference between the light paths is detected.

【0004】[0004]

【発明が解決しようとする課題】しかし、これらの装置
では、バットやラケット等の速度を試合中に測定するこ
とはできない。例えば、ドップラー効果を利用した超音
波型装置は、打者の前方数メートルに設置される必要が
あり、試合中にこのような装置を設置することはルール
上認められない。また、マーカー追跡型装置や、直接型
装置は、バットやラケット等に手を加えるものであり、
このようなバットやラケット等を試合で使用することも
ルール上認められない。さらに、光遮断型装置は、バッ
トやラケット等による光の遮断と、ボールによる光の遮
断との区別が困難であるとともに、バット等をスイング
する選手等の近くに機器を設置する必要があり、試合中
の適用はできない。
However, these devices cannot measure the speed of a bat or racket during a game. For example, an ultrasonic device using the Doppler effect needs to be installed several meters in front of the batter, and such a device is not allowed to be installed during a game according to rules. In addition, marker tracking type devices and direct type devices are those that modify bats and rackets, etc.
Use of such a bat or racket in a game is not allowed under the rules. Furthermore, in the light blocking type device, it is difficult to distinguish between light blocking by a bat or a racket and light blocking by a ball, and it is necessary to install a device near a player swinging a bat or the like, Not applicable during a match.

【0005】本発明は、上記課題に鑑みてなされたもの
であり、物体に何ら手を加えることなく、遠隔測定が可
能なスイング物体の速度測定装置を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a speed measurement apparatus for a swing object that can remotely measure without changing the object.

【0006】[0006]

【課題を解決するための手段】本発明に係るスイング物
体の速度測定装置は、人によりスイングされる物体のス
イング領域を経時的に撮影して画像情報を出力する撮影
手段と、画像情報から物体の情報を抽出する抽出手段
と、抽出された物体の情報に対して所定の測定点を設定
し、その位置を取得する測定点取得手段と、測定点の位
置の経時変化に基づいて測定点の速度を取得する速度取
得手段と、取得された速度を物体のスイング速度として
出力する出力手段とを備えることを特徴とする。
According to the present invention, there is provided an apparatus for measuring the speed of a swing object, comprising: a photographing means for photographing a swing area of an object swung by a person over time and outputting image information; Extracting means for extracting the information of the object, a predetermined measuring point is set for the information of the extracted object, and a measuring point obtaining means for obtaining the position thereof; and It is characterized by comprising speed acquisition means for acquiring the speed, and output means for outputting the acquired speed as the swing speed of the object.

【0007】これにより、物体のスイング領域を経時的
に撮影して画像情報を得、その画像情報から物体情報を
抽出し、その物体情報上の所定の測定点の位置を取得す
るので、その測定点の位置の経時変化に基づいて測定点
の速度としての物体のスイング速度が取得される。
Thus, the swing area of the object is photographed over time to obtain image information, the object information is extracted from the image information, and the position of a predetermined measurement point on the object information is obtained. The swing speed of the object as the speed of the measurement point is obtained based on the temporal change of the position of the point.

【0008】また、抽出手段は、ある時点の画像情報と
これよりも新しい画像情報との間、および、ある時点の
画像情報とこれよりも古い画像情報との間で、各々対応
する画素について差分を行って差分値を得、差分値を所
定のしきい値で2値化して2値化画像を得る差分手段
と、2値化画像同士の論理積をとって論理積画像を得る
論理積計算手段とを備え、論理積画像中の物体情報をあ
る時点の画像情報中から抽出された物体の情報とするこ
とが好ましい。
[0008] Further, the extracting means is configured to calculate the difference between the image information at a certain point in time and the newer image information, and between the image information at a certain point in time and the older image information with respect to the corresponding pixels. And a difference means for binarizing the difference value with a predetermined threshold value to obtain a binarized image, and a logical product calculation for obtaining a logical product image by taking a logical product of the binary images Means is preferably provided, and the object information in the AND image is information of the object extracted from the image information at a certain point in time.

【0009】このように、異なる時間に撮影された2つ
の画像情報の差分を取って2値化することにより、対応
する2つの画素が両方とも背景の画素であれば、その2
つの画素のデータがほぼ同じであるため、2つの画像情
報中の背景情報が2値化画像から除去され、対応する2
つの画素の一方が背景で他方が物体であれば、その2つ
の画素のデータは異なるため、各画像情報中の物体情報
は除去されずに2値化画像に抽出される。さらに、ある
時点の画像情報とこれよりも新しい画像情報との間、お
よび、ある時点の画像情報とこれよりも古い画像情報と
の間で各々取得された隣り合う2値化画像間の論理積を
取ることにより、各2値化画像に含まれる上記ある時点
に撮影された物体情報が論理積画像に抽出される。
As described above, by taking the difference between two pieces of image information photographed at different times and binarizing them, if the corresponding two pixels are both background pixels, the two
Since the data of the two pixels is almost the same, the background information in the two image information is removed from the binarized image and the corresponding 2
If one of the pixels is a background and the other is an object, the data of the two pixels are different, so that the object information in each image information is extracted as a binary image without being removed. Furthermore, the logical product between the adjacent binarized images obtained between the image information at a certain time and the newer image information and between the image information at a certain time and the older image information, respectively. , The object information included in each binarized image and photographed at a certain point in time is extracted as a logical product image.

【0010】また、抽出手段は、画像情報中の影を認識
し、当該影が論理積画像へ抽出されることを防ぐ影除外
手段を含むことが好ましい。場合によっては、画像情報
中に物体の動きに追従する影ができることがあり、この
影は2値化画像や論理積画像に抽出されてしまう。そこ
で、抽出手段において影を認識してこれを除外すること
により、論理積画像から物体の動きに追従する影が除去
され、影をバットと誤認識することが防止される。
It is preferable that the extracting means includes a shadow removing means for recognizing a shadow in the image information and preventing the shadow from being extracted into a logical product image. In some cases, a shadow that follows the movement of the object may be formed in the image information, and this shadow is extracted in a binary image or a logical product image. Therefore, the shadow that follows the movement of the object is removed from the logical product image by recognizing and excluding the shadow by the extraction means, thereby preventing the shadow from being erroneously recognized as a bat.

【0011】また、差分手段は、ある時点の画像情報と
これよりも新しい画像情報との間、および、ある時点の
画像情報とこれよりも古い画像情報との間で、各々対応
する2つの画素の双方について明度値および彩度値の少
なくとも一方が所定値以上であれば、影がないとして当
該対応する2つの画素の各成分毎に差分を行って差分値
を得、対応する2つの画素の少なくとも一方の画素の明
度値および彩度値が所定値未満であれば、影があるとし
て影除外手段が当該対応する2つの画素の色相値に基づ
く差分を行って差分値を得、いずれかの差分値を所定の
しきい値で2値化して2値化画像を得ることが好まし
い。
[0011] Further, the difference means comprises two pixels respectively corresponding to the image information at a certain point in time and the image information newer than this, and between the image information at a certain point in time and the older image information. If at least one of the brightness value and the saturation value is greater than or equal to a predetermined value, it is determined that there is no shadow and a difference value is obtained for each component of the corresponding two pixels to obtain a difference value. If the brightness value and the saturation value of at least one of the pixels are less than the predetermined value, it is determined that there is a shadow, and the shadow removing unit performs a difference based on the hue values of the corresponding two pixels to obtain a difference value. It is preferable to binarize the difference value with a predetermined threshold to obtain a binarized image.

【0012】これにより、対応する2つの画素の少なく
とも一方が影の場合は各画素の色相値で差分され、この
際に2つの画素が、影とされた背景と影とされていない
背景、または、影とされた背景同士であればこの2つの
画素の色相値はほぼ同じであるので影を含むこの背景は
2値化画像から除去され、一方、2つの画素が、影とさ
れた背景と影とされていない物体、影とされていない背
景と影とされた物体、または、影とされた背景と影とさ
れた物体であれば色相値が異なるのでこの物体は2値化
画像に抽出される。
Thus, when at least one of the two corresponding pixels is a shadow, the difference is made based on the hue value of each pixel. At this time, the two pixels are divided into a shadowed background and a non-shadowed background, or If the shaded backgrounds are the same, the hue values of the two pixels are substantially the same, so that the background including the shadow is removed from the binarized image, while the two pixels are the same as the shaded background. If the object is not a shadow, the non-shadowed background and the shadowed object, or the shadowed background and the shadowed object have different hue values, this object is extracted as a binary image. Is done.

【0013】また、抽出手段により抽出された論理積画
像中の物体情報の時系列データを1つの画像に合成して
合成画像を取得する合成手段を備え、測定点取得手段は
当該合成画像上の物体情報に対して処理を行うことが好
ましい。これにより、各時間の論理積画像に対して一々
測定点取得を行うよりも高速に測定点取得が行われる。
The image processing apparatus further includes a synthesizing unit for synthesizing the time-series data of the object information in the logical product image extracted by the extracting unit into one image to obtain a synthesized image. It is preferable to perform processing on the object information. As a result, measurement point acquisition is performed at a higher speed than when measurement point acquisition is performed on the logical product image at each time.

【0014】また、合成手段は、物体情報の時系列デー
タに当該物体情報が撮影された時間情報を付して1つの
画像に合成し、合成画像上において物体情報が撮影され
た時間を各々認識可能とすることが好ましい。これによ
り、1つの画像に合成した場合に、合成画像上の各々の
物体情報の撮影時間が容易に認識され、高速に測定点取
得が行われる。
The combining means combines the time series data of the object information with the time information at which the object information was photographed and combines them into one image, and recognizes the time at which the object information was photographed on the combined image. Preferably it is possible. Thus, when the images are combined into one image, the photographing time of each object information on the combined image is easily recognized, and the measurement points are acquired at high speed.

【0015】また、測定点取得手段は、スイングされる
物体の先端を測定点とすることが好ましい。これによ
り、最高速度となる物体先端の速度がスイング速度とし
て測定される。
Further, it is preferable that the measurement point acquiring means sets a tip of the object to be swung as a measurement point. Thereby, the speed of the tip end of the object that is the highest speed is measured as the swing speed.

【0016】また、測定点取得手段は、抽出された物体
の軸中心線を求める中心線取得手段と、当該中心線と物
体とが重なる点のうち人のいる位置から最も遠方にある
点を物体の先端の測定点として取得する最遠点取得手段
とを備えることが好ましい。これにより、物体先端の測
定点が容易に取得される。
The measurement point obtaining means includes a center line obtaining means for obtaining an axial center line of the extracted object, and a point which is the farthest from the position of the person among points where the center line and the object overlap. It is preferable to include a farthest point acquisition unit that acquires the measurement point as the measurement point at the tip of the point. Thereby, the measurement point at the tip of the object is easily obtained.

【0017】また、出力手段は、さらに測定点取得手段
により取得された測定点の位置の経時変化に基づいて、
物体の測定点の軌跡を出力してもよい。これにより、物
体のスイング軌跡が出力され、例えば、スイングした人
や、コーチ等により、スイング軌跡が認識される。
The output means may further include a time-dependent change in the position of the measurement point acquired by the measurement point acquisition means,
The locus of the measurement point of the object may be output. As a result, the swing trajectory of the object is output, and the swing trajectory is recognized by, for example, a person who swings or a coach.

【0018】また、撮影手段により撮影された画像情報
の所定領域を監視し、所定量以上の変化が発生したとき
に抽出手段を起動し、一定時間後に抽出手段を停止させ
る、スイング検知手段を備えることが好ましい。これに
より、スイング速度の測定が自動的に開始される。
A swing detecting means for monitoring a predetermined area of image information photographed by the photographing means, activating the extracting means when a change of a predetermined amount or more occurs, and stopping the extracting means after a predetermined time; Is preferred. Thereby, the measurement of the swing speed is automatically started.

【0019】また、抽出手段が起動する所定時間前に、
音および光のうち少なくとも一方を発生して抽出手段の
起動タイミングを人に通知する、タイミング通知手段を
備えていてもよい。これにより、スイング速度測定開始
のタイミングが人に通知され、これに合わせて人がスイ
ングをすることが可能とされる。
Further, before a predetermined time before the extraction means is activated,
There may be provided timing notifying means for generating at least one of sound and light and notifying a person of the activation timing of the extracting means. Thereby, the timing of the start of the swing speed measurement is notified to the person, and the person can swing accordingly.

【0020】また、物体がバットであると、バットスイ
ングの速度が測定されることになる。
When the object is a bat, the speed of the bat swing is measured.

【0021】[0021]

【発明の実施の形態】以下、添付図面を参照しながら、
本発明に係るスイング物体の速度測定装置の好適な実施
形態について詳細に説明する。なお、図面の説明におい
て、同一または相当要素には同一の符号を付し、重複す
る説明は省略する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG.
BEST MODE FOR CARRYING OUT THE INVENTION A preferred embodiment of a swing object speed measuring device according to the present invention will be described in detail. In the description of the drawings, the same or corresponding elements will be denoted by the same reference characters, without redundant description.

【0022】図1は、本実施形態のスイング物体の速度
測定装置を示す構成図である。本実施形態におけるスイ
ング物体の速度測定装置1は、打者(人)10がスイン
グするバット(物体)11の速度を測定する装置であ
り、打者10がスイングする領域を経時的に撮影して画
像情報を得る撮影装置(撮影手段)12と、撮影された
画像情報に基づいてスイング速度を取得する解析装置1
5と、解析された結果を表示する表示装置14とを備え
る。
FIG. 1 is a configuration diagram showing a swing object speed measuring apparatus according to the present embodiment. The swing object speed measuring device 1 according to the present embodiment is a device for measuring the speed of a bat (object) 11 on which a batter (person) 10 swings, and images a region where the batter 10 swings with time to obtain image information. Device (photographing means) 12 that obtains the image, and the analyzing device 1 that obtains the swing speed based on the information of the photographed image
5 and a display device 14 for displaying the analyzed result.

【0023】撮影装置12は、打者10の頭上3〜4m
の位置に設置され、図2に示すように、撮影される画像
情報20の中心付近に打者10が位置し、スイングする
ときに打者10の回りを回転するバット11の先端19
(測定点)がその画像情報20の範囲に全て含まれ、さ
らに、投手(図示せず)が画像情報20の図示左方向に
位置するように設定されている。そして、この画像情報
20は、バット11と打者10の他に、背景24であ
る、グランド25、ホームベース22等、さらに場合に
よっては打者10の影23やバット11の影26等を含
んでおり、図1に示すように、信号線16を介して解析
装置15に経時的に入力される。
The photographing device 12 is 3 to 4 m above the batter 10.
2, the batter 10 is located near the center of the image information 20 to be captured, and the tip 19 of the bat 11 rotates around the batter 10 when swinging.
(Measurement points) are all included in the range of the image information 20, and the pitcher (not shown) is set so as to be located to the left of the image information 20 in the drawing. The image information 20 includes, in addition to the bat 11 and the batter 10, the background 24, such as the ground 25, the home base 22, and the like, and in some cases, the shadow 23 of the batter 10 and the shadow 26 of the bat 11. As shown in FIG. 1, the data is sequentially input to the analyzer 15 via the signal line 16.

【0024】解析装置15は、図3のブロック図に示す
ように、CPUである制御装置50を備え、この制御装
置50は、撮影装置12により経時的に撮影された画像
情報20から背景24を除去しバット11を所定時間毎
に抽出するバット抽出手段(抽出手段)31と、抽出さ
れた各時間におけるバット11に時間情報を付加して一
つの画面に合成して合成画面を得る合成手段35と、合
成画面上の各々の時間のバット11に対してその先端1
9を設定し、その位置を取得するバット先端取得手段
(測定値取得手段)36と、取得されたバット11の先
端19の位置の経時変化に基づいてバット11の先端1
9の速度を取得する速度取得手段39と、得られたバッ
ト11の先端19の速度、合成画面およびバット11の
先端19の軌跡等を出力する出力手段40と、撮影装置
12により撮影された画像の一部を監視し、スイングが
開始したと判断したらバット抽出手段31以降の処理を
開始させるスイング検知手段30と、同様な機能を達成
するように構成されている。
As shown in the block diagram of FIG. 3, the analyzing device 15 includes a control device 50 which is a CPU. The control device 50 converts the background 24 from the image information 20 captured by the image capturing device 12 with time. Bat extraction means (extraction means) 31 for removing and extracting the bat 11 at predetermined time intervals, and combining means 35 for adding time information to the extracted bat 11 at each extracted time and combining them into one screen to obtain a combined screen And the tip 1 for the bat 11 at each time on the composite screen
9, a bat tip obtaining means (measurement value obtaining means) 36 for obtaining the position of the bat 11, and the butt 11 tip 1
9, an output unit 40 that outputs the obtained speed of the tip 19 of the bat 11, a synthesized screen, a locus of the tip 19 of the bat 11, and the like, and an image captured by the imaging device 12. Is configured to monitor a part of the swing detection means 30 and to perform the same function as the swing detection means 30 for starting the processing after the bat extraction means 31 when it is determined that the swing has started.

【0025】また、解析装置15は、制御装置50の処
理手順をプログラムの形で格納しているHDD62と、
所定の情報を一時的に記憶するメモリ61と、操作者の
指示を制御装置50に伝えるキーボード64およびマウ
ス63とを備えている。
The analysis device 15 includes an HDD 62 storing the processing procedure of the control device 50 in the form of a program,
The control device 50 includes a memory 61 for temporarily storing predetermined information, a keyboard 64 and a mouse 63 for transmitting an operator's instruction to the control device 50.

【0026】つぎに、HDD62に書き込まれているプ
ログラムに従い実行される解析装置15の処理手順につ
いて図4に示すフロー図を参照して説明する。
Next, the processing procedure of the analyzer 15 executed according to the program written in the HDD 62 will be described with reference to the flowchart shown in FIG.

【0027】最初に、ステップ1(S1)において、ス
イング検知処理を行う(スイング検知手段30)。ま
ず、図2に示すように、撮影装置12により撮影された
画像情報20のうち、特定領域21のデータを取得す
る。この特定領域21は、打者10の背中側のスイング
領域の一部であり、構えている打者10がスイングを開
始したときに一番最初にバット11が通過するところで
ある。そして、特定領域21の最新の画像情報20と一
つ前の時間(所定時間前)の画像情報20との差分計算
を行って、この差分値と所定の基準値とを比較し、この
差分値が所定の基準値以上であればスイングが開始され
たと判断し、図4に示すように、ステップ2(S2)の
バットの抽出処理を開始する。また、差分値が所定の基
準値未満である場合は、スイングがまだ開始されていな
いと判断し、特定領域21の監視を続ける。
First, in step 1 (S1), a swing detecting process is performed (swing detecting means 30). First, as shown in FIG. 2, data of a specific area 21 is acquired from image information 20 captured by the image capturing device 12. The specific area 21 is a part of the swing area on the back side of the batter 10, and is where the bat 11 passes first when the batter 10 starts to swing. Then, a difference between the latest image information 20 of the specific area 21 and the image information 20 of the immediately preceding time (predetermined time) is calculated, and the difference is compared with a predetermined reference value. Is equal to or greater than the predetermined reference value, it is determined that the swing has been started, and as shown in FIG. 4, the bat extraction process in step 2 (S2) is started. If the difference value is smaller than the predetermined reference value, it is determined that the swing has not been started yet, and the monitoring of the specific area 21 is continued.

【0028】これにより、打者10のスイング開始が検
知され、スイング速度の測定が自動的に開始されるよう
になっている。また、差分値が所定の基準値以下の場合
はスイング開始と判断しないので、ノイズ等による誤検
知が防止されている。
Thus, the start of the swing of the batter 10 is detected, and the measurement of the swing speed is automatically started. If the difference value is equal to or smaller than the predetermined reference value, the start of the swing is not determined, so that erroneous detection due to noise or the like is prevented.

【0029】つぎに、ステップ2(S2)において、画
像情報20からバット11の抽出を行う(バット抽出手
段31)。この手順を、図5のフローチャートを参照し
ながら説明する。
Next, in step 2 (S2), the bat 11 is extracted from the image information 20 (bat extracting means 31). This procedure will be described with reference to the flowchart of FIG.

【0030】まず、ステップ11(S11)において、
図6に示すように、最初の時間(t)の画像情報20a
とそのつぎの時間(t+Δt)の画像情報20bを取得
する。これらの画像情報20a,20bは、バット11
a,11bだけでなく、バット11a,11bの影26
a,26b、ホームベース22a,22b、打者10
a,10b、打者10a,10bの影23a,23bお
よびグラント25a,25b等を含んでいる。
First, in step 11 (S11),
As shown in FIG. 6, the image information 20a of the first time (t)
And the image information 20b of the next time (t + Δt). These image information 20a and 20b
a, 11b as well as the shadows 26 of the bats 11a, 11b
a, 26b, home bases 22a, 22b, batter 10
a, 10b, shadows 23a, 23b of the batters 10a, 10b, and grants 25a, 25b.

【0031】つぎに、ステップ12(S12)におい
て、時間(t)と時間(t+Δt)との画像間で対応す
る2つの画素の各色成分のデータを取得する。そして、
ステップ13(S13)において、各々の画素につき明
度値と彩度値とを計算し、2つの画素とも明度値および
彩度値の少なくとも一方が所定値以上であれば、2つの
画素とも影の部分ではないと判断し、ステップ14(S
14)において、対応する2つの画素の各色成分毎に差
分を行い、各々の差分値の絶対値の和をとってその画素
の差分値とし、これを所定のしきい値で2値化する(差
分手段32)。
Next, in step 12 (S12), data of each color component of two pixels corresponding to the image at time (t) and time (t + Δt) is obtained. And
In step 13 (S13), a lightness value and a saturation value are calculated for each pixel, and if at least one of the lightness value and the saturation value is equal to or greater than a predetermined value, the two pixels are shaded. Is not determined, and step 14 (S
In 14), a difference is made for each color component of the two corresponding pixels, the sum of the absolute values of the respective difference values is taken as the difference value of the pixel, and this is binarized with a predetermined threshold value ( Difference means 32).

【0032】これにより、対応する2つの画素が、例え
ば、画像情報20a中のAと画像情報20b中のB、画
像情報20a中のCと画像情報20b中のDのように、
両方とも影ではない背景24の画素であれば、その2つ
の画素の3色成分値はほぼ同じであるために差分・2値
化されて値が“0”になり、これらの背景24が2値化
画像28aから除去される。また、対応する2つの画素
が、たとえば、画像情報20a中のEと画像情報20b
中のFのように、一方がバット11aまたは11bで他
方が影ではない背景24であれば、その2つの画素の3
色成分値は異なるために差分・2値化により値が“1”
となり、2つの画像情報中の各々のバット11a,11
bが2値化画像28aに抽出される。
As a result, two corresponding pixels are represented by, for example, A in the image information 20a and B in the image information 20b, C in the image information 20a, and D in the image information 20b.
If both of the pixels of the background 24 are not shadows, since the three color component values of the two pixels are almost the same, the two pixels are differentially and binarized to have a value of “0”. It is removed from the digitized image 28a. Further, two corresponding pixels are, for example, E in image information 20a and image information 20b.
If one is a bat 11a or 11b and the other is a non-shadow background 24, as in F in FIG.
Since the color component values are different, the value is “1” due to the difference / binarization.
And each bat 11a, 11 in the two pieces of image information
b is extracted into the binarized image 28a.

【0033】一方、ステップ13において、少なくとも
一方の画素の明度値および彩度値が両方とも所定値未満
であれば、その画素は影であると判断し、ステップ15
(S15)において、対応する2つの画素の色相値を各
々計算し、その色相値に基づく差分を行ってその絶対値
をその画素の差分値とし、これを所定のしきい値で2値
化する(影除外手段33)。これにより、対応する2つ
の画素が、例えば、画像情報20a中のGと画像情報2
0b中のHのように、両方とも背景24であって少なく
とも一方が影である場合は、これら2つの画素の色相値
はほぼ同じなので、差分・2値化されて値が“0”にな
り影を含むこの背景24は2値化画像28aから除去さ
れる。一方、対応する2つの画素が、例えば、画像情報
20a中のIと画像情報20b中のJのように、影であ
る背景24と影ではないバット11、影ではない背景2
4と影であるバット11、または、影である背景24と
影であるバット11であれば、これら2つの画素の色相
値は異なるので、差分・2値化により値が“1”となり
バット11が2値化画像28aに抽出される。
On the other hand, if at step 13 both the brightness value and the saturation value of at least one pixel are less than the predetermined value, it is determined that the pixel is a shadow and step 15
In (S15), the hue values of the two corresponding pixels are calculated, and a difference based on the hue values is calculated, the absolute value is set as the difference value of the pixel, and the binarized value is binarized by a predetermined threshold value. (Shadow exclusion means 33). Thereby, the corresponding two pixels are, for example, G in image information 20a and image information 2
When both are the background 24 and at least one of them is a shadow, as in H in 0b, the hue values of these two pixels are almost the same, so that the values are converted to a difference / binarized value to “0”. This background 24 including the shadow is removed from the binarized image 28a. On the other hand, two corresponding pixels are a background 24 which is a shadow, a bat 11 which is not a shadow, and a background 2 which is not a shadow, such as I in the image information 20a and J in the image information 20b.
4 and the bat 11 which is a shadow, or the background 24 which is a shadow and the bat 11 which is a shadow, the hue values of these two pixels are different. Is extracted into the binarized image 28a.

【0034】そしてステップ16(S16)において、
全ての対応する画素について差分・2値化が完了するの
を待つ。このようにして、時間(t)の画像情報20a
と時間(t+Δt)の画像情報20bからそれぞれの時
間におけるバット11a,11bのみが抽出され、グラ
ンド25a,25bや、バット11a,11bの影26
a,26b等の背景24が除去された2値化画像28a
を得る。この2値化画像28aは、バット11a,11
bの画素が“1”という情報を有し、これ以外の部分が
“0”という情報を有している。
Then, in step 16 (S16),
It waits until the difference / binarization is completed for all corresponding pixels. Thus, the image information 20a of the time (t) is obtained.
And only the bats 11a and 11b at each time are extracted from the image information 20b of the time and the time (t + Δt), and the shadows 26 of the grounds 25a and 25b and the bats 11a and 11b are extracted.
a, 26b, etc., from which the background 24 has been removed
Get. The binarized image 28a includes the bats 11a and 11
The pixel b has information “1”, and the other parts have information “0”.

【0035】つぎに、ステップ17(S17)におい
て、さらにそのつぎの時間(t+2Δt)の画像情報2
0cを取得する。そして、ステップ18(S18)〜ス
テップ22(S22)において、前述のステップ12〜
ステップ16までと同様に、時間(t+Δt)の画像情
報20bと時間(t+2Δt)の画像情報20cとの間
で差分処理を行う。これにより、時間(t+Δt)のバ
ット11bおよび時間(t+2Δt)のバット11cが
抽出され、それ以外の背景が除去された2値化画像28
bが得られる。
Next, in step 17 (S17), the image information 2 for the next time (t + 2Δt)
0c is obtained. Then, in steps 18 (S18) to 22 (S22), the above-described steps 12 to
Similar to step 16, the difference processing is performed between the image information 20b at the time (t + Δt) and the image information 20c at the time (t + 2Δt). Thereby, the bat 11b at the time (t + Δt) and the bat 11c at the time (t + 2Δt) are extracted, and the other background image is removed.
b is obtained.

【0036】つぎに、ステップ23(S23)におい
て、これら2つの2値化画像28a,28bの論理積を
演算する(論理積計算手段34)。これにより、2枚の
2値化画像28a,28bから、時間(t+Δt)のバ
ット11bのみが抽出された論理積画像29が得られ
る。
Next, in step 23 (S23), the logical product of these two binarized images 28a and 28b is calculated (logical product calculating means 34). Thus, a logical product image 29 in which only the bat 11b at the time (t + Δt) is extracted from the two binarized images 28a and 28b is obtained.

【0037】そして、ステップ24(S24)におい
て、このようなバット抽出処理を所望の数の時系列デー
タに関して行ったかどうか検査し、行っていない場合に
は、ステップ18に戻って、同様の処理を続ける。
Then, in step 24 (S24), it is checked whether or not such a bat extraction process has been performed for a desired number of time-series data. If not, the process returns to step 18 and the same process is performed. to continue.

【0038】続いて、図4に示すステップ3(S3)に
おいて、得られた論理積画像29中のバット11を1枚
の画像に合成する処理を行う(合成手段35)。まず、
得られた論理積画像29に対して時系列の順番毎に1,
2,・・に相当する番号を付ける。そして、つぎのよう
な方法で合成画像41(図7参照)を得る。すなわち、
画素毎に、全論理積画像29中の対応する画素のデータ
を調査し、その画素のデータとして“1”を有する論理
積画像29が全論理積画像29中一つだけ存在した場合
は、その論理積画像29の上記時系列の番号を合成画像
41の対応する画素のデータとして与え、一方、上記そ
の画素のデータとして“1”を有する論理積画像29が
全論理積画像29中に存在しないまたは2以上(後述の
ノイズ等)存在する場合は、“0”というデータを合成
画像41の対応する画素のデータとして与える。これに
より、各論理積画像29中のバット11bが時間情報を
付与されつつ1つの画像上に合成されて、図7に示すよ
うな、合成画像41を得ることができる。
Subsequently, in step 3 (S3) shown in FIG. 4, a process of synthesizing the bat 11 in the obtained logical product image 29 into one image is performed (synthesizing means 35). First,
For the obtained AND image 29, 1
A number corresponding to 2, ... is given. Then, a composite image 41 (see FIG. 7) is obtained by the following method. That is,
For each pixel, the data of the corresponding pixel in the total logical product image 29 is examined. If only one logical product image 29 having “1” as the pixel data exists in the total logical product image 29, The time series number of the logical product image 29 is given as data of the corresponding pixel of the composite image 41, while the logical product image 29 having “1” as the data of the pixel does not exist in all the logical product images 29. Or, when there are two or more (noise described later), data “0” is given as data of a corresponding pixel of the composite image 41. Thereby, the bat 11b in each AND image 29 is synthesized on one image while adding the time information, and a synthesized image 41 as shown in FIG. 7 can be obtained.

【0039】このように、バット11が合成画像41に
合成されるとともに、この合成画像41はバット11が
撮影された時間情報を有していて、この合成画像41上
のバット11に対して後述のバット11の先端取得処理
が行われるので、個々の論理積画像29に対して一々先
端取得処理をする場合に比して高速に先端の取得を行う
ことが可能となっている。また、“1”という情報を有
する論理積画像29が全論理積画像29中に無いまたは
2以上存在する場合は、合成画像41の対応する画素の
情報として“0”を与え、合成画像41上でバット11
としないので、上記差分手段で除去しきれなかった打者
10等のノイズも除去されるようになっている。
As described above, the bat 11 is combined with the composite image 41, and the composite image 41 has information on the time when the bat 11 was photographed. Is performed, so that it is possible to obtain the front end at a higher speed than in the case where the front end obtaining process is performed on each logical product image 29 one by one. When the logical product image 29 having the information “1” is not present in the total logical product image 29 or exists in two or more, “0” is given as the information of the corresponding pixel of the composite image 41 and Bat 11
Therefore, the noise of the batter 10 and the like that cannot be completely removed by the difference means is also removed.

【0040】つぎに、ステップ4(S4)において、バ
ット先端取得処理を行い、図7に示す合成画像41上の
各時間のバット11d〜11mの先端19d〜19mの
中心位置を取得する(バットの先端取得手段36)。
Next, in step 4 (S4), a bat tip obtaining process is performed to obtain the center positions of the tips 19d to 19m of the bats 11d to 11m at each time on the composite image 41 shown in FIG. Tip acquisition means 36).

【0041】まず、図8のフロー図に示すように、ステ
ップ50(S50)において、図7に示す合成画像41
を最上行から順に合成画像41の底辺に対して水平方向
に一行毎にスキャンしてバット11の画素を探索し、バ
ット11の画素が合成画像41の底辺に対して水平方向
に連続する長さLxを取得する(図9参照)。そして、
ステップ51(S51)において、Lxとバット11の
幅に関連する最大長さLmaxとの大小関係を判定する。
本実施形態では、Lmaxとしてバット11の最大幅の
1.4倍を採用している。もし、LxがLmax以上である
場合(図9(b)のLx3参照)は、合成画像41の底辺
に対して水平に近い状態にバット11が向いている(た
とえば、図7に示す合成画像41のバット11f等)と
判断する。この場合、バット11の軸中心線44とバッ
ト11を水平スキャンする線とが交わらず(図9(b)
のLx3参照)、合成画像41の底辺に対して水平方向の
スキャンではこのバット11の軸中心線44を構成する
点42を取得できないので、ステップ70(S70)に
おいて、この時間のバット11に関しては水平スキャン
による軸中心線44を構成する点42の取得を行わない
ことを設定するとともに、それまでに水平スキャンによ
り取得されたこの時間のバット11の中心点のデータが
あれば破棄する。一方、LxがLmaxよりも小さいとき
(図9(a)のLx1,Lx2参照)は、バット11が合成
画像41の底辺に対して垂直に近い状態(たとえば、図
7に示す合成画像41のバット11dや11e等)であ
ると判断し、ステップ52(S52)に進む。
First, as shown in the flowchart of FIG. 8, in step 50 (S50), the composite image 41 shown in FIG.
Is sequentially scanned from the top row in the horizontal direction with respect to the bottom of the composite image 41 line by line to search for the pixels of the bat 11, and the length of the pixels of the bat 11 continuing in the horizontal direction with respect to the bottom of the composite image 41 Lx is obtained (see FIG. 9). And
In step 51 (S51), it determines the magnitude relationship between the maximum length L max related to the width of the L x and bat 11.
In the present embodiment employs 1.4 times the maximum width of the vat 11 as L max. If L x is L max or more (see L x3 in FIG. 9 (b)), the butt 11 is facing state near horizontal with respect to the base of the composite image 41 (e.g., shown in FIG. 7 The bat 11f of the composite image 41) is determined. In this case, the axis center line 44 of the bat 11 does not intersect with the line for horizontally scanning the bat 11 (FIG. 9B).
Lx3 ), since the point 42 constituting the axis center line 44 of the bat 11 cannot be obtained by scanning in the horizontal direction with respect to the bottom of the composite image 41, the bat 11 at this time is determined in step 70 (S70). Sets that the point 42 forming the axis center line 44 is not obtained by the horizontal scan, and discards any data of the center point of the bat 11 at this time obtained by the horizontal scan until then. On the other hand, (see L x1, L x2 in to FIG. 9 (a)) when L x is smaller than L max, the state nearly vertical relative to the bottom of the butt 11 is the composite image 41 (e.g., synthesis shown in FIG. 7 It is determined that it is the bat 11d or 11e of the image 41), and the process proceeds to step 52 (S52).

【0042】ステップ52では、バット11の最大幅に
関連する最小長さLminとLxとの大小関係を判断する。
本実施形態では、このLminとしては、バット11の最
大幅の0.7倍を採用している。もし、LxがLminより
も小さいときは、バット11の角部を横切る場合(図
(9)のLx1参照)や、ノイズ等によりバット11の一
部が欠落している場合(図10のLx4、Lx5参照)であ
る可能性が高く、この場合Lx上にバット11の軸中心
線44を構成する点42は存在しないため、点の取得は
行わない。一方、LxがLmin以上であるとき(図9
(a)のLx2参照)は、ステップ53(S53)におい
て、このLxの中点を求めその座標をバット11の軸中
心線44を構成する点42としてそのバット11の時間
情報とともに取得する。そして、ステップ54(S5
4)において、合成画像41上の全ての行について各時
間のバット11d〜11mの軸中心線44を構成する点
42の取得を待つ。このようにして、合成画像41の底
辺に対して垂直に近い状態のバット11(たとえば、図
7に示す合成画像41の11d,11e,11g,11
h,11i,11l,11m等)の軸中心線44を構成
する点42の取得が行われる。
In step 52, the magnitude relationship between the minimum length L min and L x related to the maximum width of the bat 11 is determined.
In the present embodiment, 0.7 times the maximum width of the bat 11 is adopted as L min . If L x is is smaller than L min is (see L x1 in FIG. 9) when crossing the corners of the vat 11 and, missing a part of the batt 11 by noise or the like (FIG. 10 L x4 , L x5 ). In this case, no point 42 constituting the axis center line 44 of the bat 11 exists on L x , so no point is acquired. On the other hand, when the L x is greater than or equal to L min (FIG. 9
See L x2 of (a)), in step 53 (S53), and acquires with time information of the batt 11 to the coordinates determined midpoint of the L x as 42 points constituting the axial center line 44 of the bat 11 . Then, step 54 (S5
In 4), the process waits for the acquisition of the point 42 that forms the axis centerline 44 of the bats 11d to 11m at all times for all the rows on the composite image 41. In this way, the bat 11 (for example, 11d, 11e, 11g, 11g of the composite image 41 shown in FIG. 7) is almost perpendicular to the bottom of the composite image 41.
(h, 11i, 11l, 11m, etc.) are obtained.

【0043】つぎに、ステップ55〜ステップ59(S
55〜S59)において、ステップ50〜ステップ54
と同様の手順で、合成画像41を最左列から順に合成画
像41の底辺に対して垂直方向に一列毎にスキャンし
て、主に合成画像41の底辺に対して水平に近い状態の
バット11に関して、軸中心線44を構成する点42を
取得する(図9(b)参照)。このようにして、合成画
像41の底辺に対して垂直に近い状態のバット11(例
えば、図7に示す合成画像41の11e,11f,11
g,11i,11j,11k,11l等)の軸中心線4
4を構成する点42の取得が行われる。なお、合成画像
41の底辺に対して約±45度程度傾いているバット1
1e,11g,11i,11l等は、水平スキャンと垂
直スキャンの両方において軸中心線44を構成する点4
2が取得される。
Next, step 55 to step 59 (S
55 to S59), steps 50 to 54
According to the same procedure as that described above, the combined image 41 is sequentially scanned from the leftmost column to the bottom of the combined image 41 line by line in the vertical direction, and the bat 11 in a state substantially horizontal to the bottom of the combined image 41 is mainly scanned. , A point 42 constituting the axis center line 44 is acquired (see FIG. 9B). In this way, the bat 11 (for example, 11e, 11f, 11f of the composite image 41 shown in FIG.
g, 11i, 11j, 11k, 11l, etc.)
4 are obtained. It should be noted that the bat 1 tilted about ± 45 degrees with respect to the bottom of the composite image 41
1e, 11g, 11i, 11l, etc. are points 4 constituting the axis center line 44 in both the horizontal scan and the vertical scan.
2 is obtained.

【0044】つぎに、ステップ60(S60)におい
て、このようにして得られた各時間のバット11の各々
の軸中心線44を構成する点42を直線近似して軸中心
線44を求める(中心線取得手段37)。そして、ステ
ップ61(S61)において、この軸中心線44と、こ
の時間のバット11とが重なる点のうち、打者10から
最も遠い点を検索し、この点をこの時間におけるバット
11の先端19として取得する(最遠点取得手段3
8)。
Next, in step 60 (S60), the point 42 constituting each axis center line 44 of the bat 11 at each time obtained in this manner is linearly approximated to obtain the axis center line 44 (center). Line acquisition means 37). Then, in step 61 (S61), of the points where the axis center line 44 and the bat 11 at this time overlap, a point farthest from the batter 10 is searched, and this point is set as the tip 19 of the bat 11 at this time. Acquire (farthest point acquisition means 3
8).

【0045】つぎに、図4に示すステップ5(S5)に
おいて、先端19の速度取得を行う(速度取得手段3
9)。ここでは、隣り合う時間のバット11の先端19
の位置(例えば、図7に示す先端19dと先端19e)
からこの間の画面上の移動距離を取得し、これを実際の
距離に換算し、この移動距離と撮影装置12の画像取得
の時間間隔とに基づいて、バット11の先端19の速度
を取得する。
Next, in step 5 (S5) shown in FIG. 4, the speed of the tip 19 is obtained (speed obtaining means 3).
9). Here, the tip 19 of the bat 11 in the adjacent time
(For example, tip 19d and tip 19e shown in FIG. 7)
Then, the moving distance on the screen during this time is acquired, this is converted into an actual distance, and the speed of the tip 19 of the bat 11 is acquired based on this moving distance and the time interval of the image acquisition of the photographing device 12.

【0046】そして、ステップ6(S6)において、結
果の表示を行う(出力手段40)。ここでは、オペレー
タのキーボード64やマウス63による指示に基づい
て、バット11のスイング速度としてのバット11の先
端19の速度の経時変化(図12参照)、合成画像4
1、各時間におけるバット11の先端19を時間順に連
結してして得たバット11の先端19の軌跡(図11参
照)、最高速度等を表示装置14の画面上に出力する。
Then, in step 6 (S6), the result is displayed (output means 40). Here, based on an instruction from the keyboard 64 or the mouse 63 of the operator, a temporal change in the speed of the tip 19 of the bat 11 as the swing speed of the bat 11 (see FIG. 12),
1. The trajectory (see FIG. 11) of the tip 19 of the bat 11 obtained by connecting the tip 19 of the bat 11 at each time in order of time, the maximum speed, and the like are output on the screen of the display device 14.

【0047】以上のように、本実施形態のスイング物体
の速度測定装置によれば、バット11のスイング領域を
経時的に撮影して画像情報20を得、その画像情報20
からバット11を抽出し、そのバット11上の先端19
の位置を取得することにより、その先端19の位置の経
時変化に基づいて先端19の速度としてのバット11の
スイング速度が取得されるので、バット11に何ら手を
加えることなく、遠隔測定が可能となっている。
As described above, according to the swing object velocity measuring apparatus of the present embodiment, image information 20 is obtained by photographing the swing area of the bat 11 with time, and the image information 20 is obtained.
Is extracted from the bat 11 and the tip 19 on the bat 11 is extracted.
, The swing speed of the bat 11 as the speed of the tip 19 is obtained based on the temporal change of the position of the tip 19, so that remote measurement can be performed without any modification to the bat 11. It has become.

【0048】また、ある時点の画像情報20とこれより
も新しい画像情報20との間、および、ある時点の画像
情報20とこれよりも古い画像情報20との間で、各々
対応する画素について差分・2値化を行って2値化画像
28を得、これら2値化画像28同士の論理積をとるこ
とにより論理積画像29中にバット11が抽出されるの
で、各時系列の画像情報20から効率的にバット11を
抽出することが可能となっている。
The difference between the image information 20 at a certain point in time and the image information 20 newer than this, and between the image information 20 at a certain point in time and the image information 20 older than this, for the corresponding pixels, respectively. The bin 11 is obtained by performing binarization, and the bat 11 is extracted in the logical product image 29 by performing a logical product of the binary images 28, so that the image information 20 of each time series is obtained. Bat 11 can be efficiently extracted from the bat 11.

【0049】また、対応する2つの画素の少なくとも一
方が影の場合は各画素の色相値で差分する影除外手段3
3を備えているので、影が論理積画像へ抽出されること
が防止され、影をバット11と誤認識することなくバッ
ト11のみを抽出することが可能となっている。
If at least one of the two corresponding pixels is a shadow, the shadow elimination means 3 which makes a difference based on the hue value of each pixel.
3, the shadow is prevented from being extracted into the logical product image, and only the bat 11 can be extracted without erroneously recognizing the shadow as the bat 11.

【0050】また、抽出された論理積画像29中のバッ
ト11の時系列データを1つの画像に合成する合成手段
35を備え、バットの先端取得手段36は得られた合成
画像41に対して処理を行っているので、各時間の論理
積画像29に対して一々バットの先端の取得を行うより
も高速にバットの先端の取得が行われ、迅速にスイング
速度を計測することが可能になっている。
The bat 11 includes a synthesizing means 35 for synthesizing the time series data of the bat 11 in the extracted logical product image 29 into one image. Is performed, the bat tip is obtained faster than the bat tip is obtained for each AND image 29 at each time, and the swing speed can be measured quickly. I have.

【0051】また、合成画像41は、バット11が撮影
された時間情報を各々付与されていて、バットの先端取
得手段36が合成画像41上で各々のバット11の撮影
時間を容易に認識できるので、さらに迅速にスイング速
度を計測することが可能になっている。
The composite image 41 is provided with information on the time at which the bat 11 was photographed, and the bat tip acquiring means 36 can easily recognize the photographing time of each bat 11 on the composite image 41. It is possible to more quickly measure the swing speed.

【0052】なお、本発明に係るスイング物体の速度測
定装置は、上記実施形態に限定されるものではなく、他
の条件等に応じて種々の変形態様をとることが可能であ
る。例えば、上記実施形態では、影除外手段33を備
え、スイングされるバット11の影26a等を除外して
いるが、ドーム球場等の屋内や曇天時など影がほとんど
発生しない環境では、この影除外手段33を備えていな
くても構わない。
The apparatus for measuring the speed of a swing object according to the present invention is not limited to the above embodiment, but may take various modifications in accordance with other conditions. For example, in the above-described embodiment, the shadow elimination unit 33 is provided to exclude the shadow 26a of the swinging bat 11, and the like. The means 33 need not be provided.

【0053】また、上記実施形態では、スイングされる
バット11の先端19を全て含むような画像情報20を
撮影装置12により取得しているが、これに限られず、
例えば、ホームベース22付近等、バット11の先端1
9が通過する領域の一部を画像情報として取得し、その
部分だけでスイング速度を取得しても構わない。また、
撮影装置20は、打者10の3〜4メートル付近に設置
されているが、これに限られず、バッティングセンター
の打席の天井等打者10により近接した場所や、ドーム
球場の天井等打者10からかなり離れた場所に設置して
も構わず、また、ホームベース22の中に埋め込む等グ
ランド側に設置しても構わない。
Further, in the above embodiment, the image information 20 including the entire tip 19 of the bat 11 to be swung is acquired by the photographing device 12, but is not limited to this.
For example, the tip 1 of the bat 11 such as near the home base 22
A part of the area through which 9 passes may be acquired as image information, and the swing speed may be acquired only from that part. Also,
The photographing device 20 is installed in the vicinity of 3 to 4 meters of the batter 10, but is not limited to this. It may be installed in a place where it is located, or may be installed on the ground side such as embedded in the home base 22.

【0054】また、上記実施形態では、迅速にスイング
速度を計測し得るべく、論理積画像29に抽出されたバ
ット11を一つの画像に合成し、この合成画像41に対
してバット11の先端19の取得を行っているが、これ
に代えて、各々の論理積画像29に対してバット11の
先端19の取得を行っても構わない。
In the above embodiment, the bat 11 extracted in the logical product image 29 is synthesized into one image so that the swing speed can be measured quickly. However, instead of this, the tip 19 of the bat 11 may be obtained for each AND image 29.

【0055】また、上記実施形態では、迅速にスイング
速度を計測し得るべく、各時間の論理積画像29中のバ
ット11に時間情報を付与したうえで一つの画像に合成
することにより、この合成画像41上のバット11の撮
影時間を各々認識可能としているが、これを行なわなく
ても構わない。
In the above-described embodiment, in order to quickly measure the swing speed, the bat 11 in the logical product image 29 at each time is added with time information and then synthesized into one image. Although the shooting time of the bat 11 on the image 41 can be individually recognized, this need not be performed.

【0056】また、上記実施形態では、測定点としてバ
ット11の先端19を採用しているがこれに限られず、
バット11の芯や、根本等、他の部分を測定するように
してもよい。
In the above embodiment, the tip 19 of the bat 11 is used as the measurement point, but the present invention is not limited to this.
Other parts such as the core of the bat 11 and the root may be measured.

【0057】また、上記実施形態では、バットの先端取
得手段36として、まずバット11の軸中心線44を取
得し、その軸中心線44とバット11が重なる点のうち
打者10から最も遠い点を先端19として取得している
が、これに限られず、例えば、単にバットを構成する画
素のうち打者10から最も遠い点を先端19として取得
するようにしてもよい。
In the above embodiment, the bat tip obtaining means 36 first obtains the axis center line 44 of the bat 11, and determines the point farthest from the batter 10 among the points where the axis center line 44 and the bat 11 overlap. Although acquired as the tip 19, the present invention is not limited to this. For example, a point farthest from the batter 10 among pixels constituting the bat may be acquired as the tip 19.

【0058】また、上記実施形態では、軌跡等を表示装
置14に出力しているが、これを表示せず、スイング速
度のみを表示しても構わない。また、必要に応じて、加
速度や角速度等のデータを取得して出力しても構わな
い。
In the above embodiment, the trajectory and the like are output to the display device 14. However, the trajectory and the like may not be displayed, and only the swing speed may be displayed. Further, if necessary, data such as acceleration and angular velocity may be obtained and output.

【0059】また、上記実施形態では、打者10の背後
の特定領域21を監視してスイングの開始を自動的に検
知するスイング検知手段30を採用しているが、特定領
域21はこの場所に限られず、また、画像情報20全体
を監視しても構わない。また、このスイング検知手段3
0を採用しなくても構わず、これに代えて、例えば、音
や光などによりスイング速度測定開始のタイミングを打
者10に知らせるタイミング通知手段70を備えていて
も構わない。これにより、スイング測定開始のタイミン
グが人に通知され、このタイミングに合わせて人がスイ
ングすることが可能となるので、バッティングセンター
等においてスイング検知手段30を省いた安価なスイン
グ速度測定装置を提供することができる。
In the above embodiment, the swing detecting means 30 for monitoring the specific area 21 behind the batter 10 and automatically detecting the start of the swing is employed, but the specific area 21 is not limited to this location. Alternatively, the entire image information 20 may be monitored. In addition, the swing detecting means 3
0 may not be adopted, and instead, a timing notifying unit 70 for notifying the batter 10 of the timing of the start of the swing speed measurement by, for example, sound or light may be provided. Thus, the timing of the start of the swing measurement is notified to the person, and the person can swing in accordance with the timing. Therefore, an inexpensive swing speed measuring device in which the swing detecting means 30 is omitted in a batting center or the like is provided. be able to.

【0060】また、上記実施形態では、スイングされる
物体としてバット11を採用しているがこれに限られ
ず、テニス、バドミントン、卓球等のラケットや、ゴル
フクラブ等でも構わない。
In the above embodiment, the bat 11 is adopted as the object to be swung. However, the present invention is not limited to this, and a racket such as tennis, badminton, table tennis, and a golf club may be used.

【0061】[0061]

【発明の効果】以上説明したように、本発明に係るスイ
ング物体の速度測定装置によれば、物体のスイング領域
を経時的に撮影して画像情報を得、その画像情報から物
体情報を抽出し、その物体上の所定の測定点の位置を取
得することにより、その測定点の位置の経時変化に基づ
いて測定点の速度としての物体のスイング速度が求めら
れるので、物体に何ら手を加えることなく遠隔測定をす
ることが可能なスイング物体の速度測定装置を提供でき
る。
As described above, according to the apparatus for measuring the speed of a swing object according to the present invention, a swing area of the object is photographed over time to obtain image information, and the object information is extracted from the image information. By acquiring the position of a predetermined measurement point on the object, the swing speed of the object as the speed of the measurement point is obtained based on the change over time of the position of the measurement point. It is possible to provide a swing object speed measuring device capable of performing remote measurement without any problem.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態のスイング物体の速度測定装置を示
す構成図である。
FIG. 1 is a configuration diagram illustrating a swing object speed measurement device according to an embodiment.

【図2】図1中の撮影手段により撮影される画像情報を
示す模式図である。
FIG. 2 is a schematic diagram showing image information photographed by photographing means in FIG. 1;

【図3】図1のスイング物体の速度測定装置のブロック
図である。
FIG. 3 is a block diagram of the swing object speed measuring device of FIG. 1;

【図4】図3中の制御装置の処理手順を示すフロー図で
ある。
FIG. 4 is a flowchart showing a processing procedure of a control device in FIG. 3;

【図5】図4中のバット抽出処理の手順を示すフロー図
である。
FIG. 5 is a flowchart showing a procedure of a bat extraction process in FIG. 4;

【図6】図4中のバット抽出処理の方法を示す説明図で
ある。
FIG. 6 is an explanatory diagram showing a method of bat extraction processing in FIG. 4;

【図7】図4中のバット合成処理により得られる合成画
像を示す図である。
FIG. 7 is a diagram showing a combined image obtained by the bat combining process in FIG. 4;

【図8】図4中のバット先端取得処理の手順を示すフロ
ー図である。
FIG. 8 is a flowchart showing a procedure of a bat tip obtaining process in FIG. 4;

【図9】図4中のバット先端取得処理における中心線取
得方法を説明する図であり、(a)は、画像情報の底辺
に対して垂直に近い状態にあるバットの中心線取得方法
を示す図、(b)は、画像情報の底辺に対して水平に近
い状態にあるバットの中心線取得方法を示す図である。
9A and 9B are diagrams illustrating a centerline obtaining method in the bat tip obtaining process in FIG. 4, and FIG. 9A illustrates a bat centerline obtaining method that is nearly perpendicular to the base of image information. FIG. 7B is a diagram illustrating a method of acquiring the center line of the bat that is nearly horizontal with respect to the base of the image information.

【図10】図4中のバット先端取得処理においてノイズ
等により一部が欠落した不完全なバットの中心線取得方
法を示す図である。
FIG. 10 is a diagram illustrating a method of acquiring a center line of an incomplete bat partly missing due to noise or the like in the bat tip acquiring process in FIG. 4;

【図11】図3中の表示手段に表示されるバットの先端
点とその軌跡の画像を示す図である。
11 is a diagram showing an image of a tip point of a bat and its trajectory displayed on the display means in FIG. 3;

【図12】図3中の表示手段に表示されるスイング速度
の経時変化を示す図である。
FIG. 12 is a diagram showing a change over time of a swing speed displayed on a display means in FIG. 3;

【符号の説明】[Explanation of symbols]

1…スイング物体の速度測定装置、10,10a,10
b…打者(人)、11,11a〜11m…バット(物
体)、12…撮影装置(撮影手段)、19,19d〜1
9m…先端(測定点)、20,20a,20b,20c
…画像情報、21…特定領域(所定領域)、28a,2
8b…2値化画像、29…論理積画像、30…スイング
検知手段、31…バット抽出手段(抽出手段)、32…
差分手段、33…影除外手段、34…論理積計算手段、
35…合成手段、36…バットの先端取得手段(測定点
取得手段)、37…中心線取得手段、38…最遠点取得
手段、39…速度取得手段、40…出力手段、41…合
成画像、44…軸中心線、70…タイミング通知手段。
1. Speed measuring device for swing object, 10, 10a, 10
b: batter (person), 11, 11a to 11m: bat (object), 12: photographing device (photographing means), 19, 19d to 1
9m ... tip (measurement point), 20, 20a, 20b, 20c
... image information, 21 ... specific area (predetermined area), 28a, 2
8b ... binarized image, 29 ... logical product image, 30 ... swing detection means, 31 ... bat extraction means (extraction means), 32 ...
Difference means, 33: shadow exclusion means, 34: logical product calculation means,
35 ... combining means, 36 ... bat tip acquiring means (measuring point acquiring means), 37 ... center line acquiring means, 38 ... farthest point acquiring means, 39 ... speed acquiring means, 40 ... output means, 41 ... composed image, 44: axis center line, 70: timing notifying means.

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 人によりスイングされる物体のスイング
領域を経時的に撮影して画像情報を出力する撮影手段
と、 前記画像情報から前記物体の情報を抽出する抽出手段
と、 前記抽出された物体の情報に対して所定の測定点を設定
し、その位置を取得する測定点取得手段と、 前記測定点の位置の経時変化に基づいて前記測定点の速
度を取得する速度取得手段と、 前記取得された速度を前記物体のスイング速度として出
力する出力手段と、 を備えることを特徴とする、スイング物体の速度測定装
置。
1. An image pickup means for photographing a swing area of an object swung by a person with time and outputting image information; an extracting means for extracting information of the object from the image information; A predetermined measurement point is set for the information of the measurement point, a measurement point acquisition means for acquiring the position, a speed acquisition means for acquiring the velocity of the measurement point based on a temporal change of the position of the measurement point, and the acquisition Output means for outputting the set speed as a swing speed of the object, a speed measurement device for the swing object.
【請求項2】 前記抽出手段は、ある時点の前記画像情
報とこれよりも新しい前記画像情報との間、および、前
記ある時点の前記画像情報とこれよりも古い前記画像情
報との間で、各々対応する画素について差分を行って差
分値を得、当該差分値を所定のしきい値で2値化して2
値化画像を得る差分手段と、当該2値化画像同士の論理
積をとって論理積画像を得る論理積計算手段とを備え、
当該論理積画像中の物体情報を前記ある時点の前記画像
情報中から抽出された前記物体の情報とすることを特徴
とする、請求項1に記載のスイング物体の速度測定装
置。
2. The image processing apparatus according to claim 1, wherein the extracting unit is configured to perform a process between the image information at a certain point in time and the newer image information, and between the image information at a certain point in time and the older image information. A difference is obtained for each corresponding pixel to obtain a difference value, and the difference value is binarized by a predetermined threshold value to obtain a binary value.
A difference means for obtaining a binarized image, and a logical product calculating means for obtaining a logical product image by taking a logical product between the binary images,
2. The apparatus according to claim 1, wherein the object information in the AND image is information on the object extracted from the image information at the certain point in time. 3.
【請求項3】 前記抽出手段は、前記画像情報中の影を
認識し、当該影が前記論理積画像へ抽出されることを防
ぐ影除外手段を含むことを特徴とする、請求項2に記載
のスイング物体の速度測定装置。
3. The image processing apparatus according to claim 2, wherein the extracting unit includes a shadow removing unit that recognizes a shadow in the image information and prevents the shadow from being extracted into the AND image. Speed measurement device for swing objects.
【請求項4】 前記差分手段は、ある時点の前記画像情
報とこれよりも新しい前記画像情報との間、および、前
記ある時点の前記画像情報とこれよりも古い前記画像情
報との間で、各々対応する2つの画素の双方について明
度値および彩度値の少なくとも一方が所定値以上であれ
ば、影がないとして当該対応する2つの画素の各成分毎
に差分を行って差分値を得、対応する2つの画素の少な
くとも一方の画素の明度値および彩度値が所定値未満で
あれば、影があるとして前記影除外手段が当該対応する
2つの画素の色相値に基づく差分を行って差分値を得、
いずれかの差分値を所定のしきい値で2値化して2値化
画像を得ることを特徴とする、請求項3に記載のスイン
グ物体の速度測定装置。
4. The difference means, between the image information at a certain time and the newer image information, and between the image information at a certain time and the older image information, If at least one of the brightness value and the saturation value of each of the two corresponding pixels is equal to or more than a predetermined value, it is determined that there is no shadow and a difference is obtained for each component of the corresponding two pixels to obtain a difference value, If the lightness value and the saturation value of at least one of the two corresponding pixels are less than a predetermined value, it is determined that there is a shadow, and the shadow elimination unit performs a difference based on the hue values of the two corresponding pixels to obtain a difference. Value
The swing object velocity measuring apparatus according to claim 3, wherein any one of the difference values is binarized by a predetermined threshold value to obtain a binarized image.
【請求項5】 前記抽出手段により抽出された前記論理
積画像中の前記物体情報の時系列データを1つの画像に
合成して合成画像を取得する合成手段を備え、前記測定
点取得手段は当該合成画像上の物体情報に対して処理を
行うことを特徴とする、請求項2〜4のいずれか1項に
記載のスイング物体の速度測定装置。
5. A synthesizing unit for synthesizing time-series data of the object information in the logical product image extracted by the extracting unit into one image to obtain a synthesized image, wherein the measurement point obtaining unit is configured to The swing object velocity measuring apparatus according to claim 2, wherein processing is performed on object information on the composite image.
【請求項6】 前記合成手段は、前記物体情報の時系列
データに当該物体情報が撮影された時間情報を付して1
つの画像に合成し、前記合成画像上において前記物体情
報が撮影された時間を各々認識可能とすることを特徴と
する、請求項5に記載のスイング物体の速度測定装置。
6. The synthesizing unit adds the time information of the object information to the time-series data of the object information, and
The swing object velocity measuring apparatus according to claim 5, wherein the image is synthesized into two images, and a time when the object information is photographed on the composite image can be recognized.
【請求項7】 前記測定点取得手段は、前記スイングさ
れる物体の先端を測定点とすることを特徴とする、請求
項1〜6のいずれか1項に記載のスイング物体の速度測
定装置。
7. The swing object speed measuring apparatus according to claim 1, wherein the measurement point acquiring unit sets a tip of the object to be swung as a measurement point.
【請求項8】 前記測定点取得手段は、前記抽出された
物体の軸中心線を求める中心線取得手段と、当該中心線
と前記物体とが重なる点のうち前記人のいる位置から最
も遠方にある点を前記物体の先端の測定点として取得す
る最遠点取得手段とを備えることを特徴とする、請求項
7に記載のスイング物体の速度測定装置。
8. The measurement point obtaining means, wherein: a center line obtaining means for obtaining an axis center line of the extracted object; and a point farthest from a position where the person exists among points where the center line and the object overlap. The apparatus for measuring the speed of a swing object according to claim 7, further comprising a farthest point acquisition unit configured to acquire a point as a measurement point at the tip of the object.
【請求項9】 前記出力手段は、さらに前記測定点取得
手段により取得された前記測定点の位置の経時変化に基
づいて、前記物体の測定点の軌跡を出力することを特徴
とする、請求項1〜8のいずれか1項に記載のスイング
物体の速度測定装置。
9. The method according to claim 1, wherein the output unit outputs a locus of the measurement point of the object based on a change with time of the position of the measurement point acquired by the measurement point acquisition unit. The speed measuring device for a swing object according to any one of claims 1 to 8.
【請求項10】 前記撮影手段により撮影された画像情
報の所定領域を監視し、所定量以上の変化が発生したと
きに前記抽出手段を起動し、一定時間後に前記抽出手段
を停止させる、スイング検知手段を備えることを特徴と
する、請求項1〜9のいずれか1項に記載のスイング物
体の速度測定装置。
10. A swing detection, wherein a predetermined area of image information photographed by the photographing means is monitored, the extracting means is activated when a change of a predetermined amount or more occurs, and the extracting means is stopped after a predetermined time. The apparatus for measuring the speed of a swing object according to any one of claims 1 to 9, further comprising means.
【請求項11】 前記抽出手段が起動する所定時間前
に、音および光のうち少なくとも一方を発生して前記抽
出手段の起動タイミングを前記人に通知する、タイミン
グ通知手段を備えることを特徴とする、請求項1〜9の
いずれか1項に記載のスイング物体の速度測定装置。
11. A timing notifying means for generating at least one of sound and light and notifying the person of the start timing of the extracting means to a person at a predetermined time before the extracting means is activated. A speed measurement apparatus for a swing object according to any one of claims 1 to 9.
【請求項12】 前記物体は、バットであることを特徴
とする、請求項1〜11に記載のスイング物体の速度測
定装置。
12. The apparatus according to claim 1, wherein the object is a bat.
JP2000278302A 2000-09-13 2000-09-13 Swing object speed measurement device Expired - Fee Related JP4647761B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000278302A JP4647761B2 (en) 2000-09-13 2000-09-13 Swing object speed measurement device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000278302A JP4647761B2 (en) 2000-09-13 2000-09-13 Swing object speed measurement device

Publications (2)

Publication Number Publication Date
JP2002090380A true JP2002090380A (en) 2002-03-27
JP4647761B2 JP4647761B2 (en) 2011-03-09

Family

ID=18763485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000278302A Expired - Fee Related JP4647761B2 (en) 2000-09-13 2000-09-13 Swing object speed measurement device

Country Status (1)

Country Link
JP (1) JP4647761B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171280A (en) * 2007-01-12 2008-07-24 Nippon Hoso Kyokai <Nhk> Position detection device, method, and program
JP2010127639A (en) * 2008-11-25 2010-06-10 Casio Computer Co Ltd Image processing device, image processing method, and program
JP2011183054A (en) * 2010-03-10 2011-09-22 Shoichiro Taniguchi Apparatus and method for analyzing movement of shooting arrow using bow
JP2012212373A (en) * 2011-03-31 2012-11-01 Casio Comput Co Ltd Image processing device, image processing method and program
JP2012210376A (en) * 2011-03-31 2012-11-01 Casio Computer Co Ltd Image processor, image processing method, and program
JP2013238622A (en) * 2013-08-23 2013-11-28 Casio Comput Co Ltd Display control device, display control method, and program
JP2014128444A (en) * 2012-12-28 2014-07-10 Bridgestone Sports Co Ltd Selection system and selection method of tennis racket
WO2021020813A1 (en) * 2019-07-30 2021-02-04 주식회사 골프존 Detection method for golf club and sensing apparatus using same

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0460880A (en) * 1990-06-29 1992-02-26 Shimizu Corp Moving body discrimination and analysis controlling system
JPH04129579A (en) * 1990-03-22 1992-04-30 Oyo Keisoku Kenkyusho:Kk Action measuring device
JPH06180749A (en) * 1992-12-14 1994-06-28 Toyota Motor Corp Device for monitoring object on road
JPH06323852A (en) * 1993-05-10 1994-11-25 Bridgestone Sports Kk Method for measuring trajectory of ball
JPH07175113A (en) * 1993-12-20 1995-07-14 Kazuhisa Sakai Consecutive photographing camera
JPH07282262A (en) * 1994-04-15 1995-10-27 Mitsubishi Electric Corp Body detection system and control unit equipped with the same
JPH07320035A (en) * 1994-05-30 1995-12-08 Oki Electric Ind Co Ltd Moving body image extracting method
JPH11248724A (en) * 1998-02-26 1999-09-17 Sony Corp Image pickup device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04129579A (en) * 1990-03-22 1992-04-30 Oyo Keisoku Kenkyusho:Kk Action measuring device
JPH0460880A (en) * 1990-06-29 1992-02-26 Shimizu Corp Moving body discrimination and analysis controlling system
JPH06180749A (en) * 1992-12-14 1994-06-28 Toyota Motor Corp Device for monitoring object on road
JPH06323852A (en) * 1993-05-10 1994-11-25 Bridgestone Sports Kk Method for measuring trajectory of ball
JPH07175113A (en) * 1993-12-20 1995-07-14 Kazuhisa Sakai Consecutive photographing camera
JPH07282262A (en) * 1994-04-15 1995-10-27 Mitsubishi Electric Corp Body detection system and control unit equipped with the same
JPH07320035A (en) * 1994-05-30 1995-12-08 Oki Electric Ind Co Ltd Moving body image extracting method
JPH11248724A (en) * 1998-02-26 1999-09-17 Sony Corp Image pickup device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171280A (en) * 2007-01-12 2008-07-24 Nippon Hoso Kyokai <Nhk> Position detection device, method, and program
JP4733651B2 (en) * 2007-01-12 2011-07-27 日本放送協会 Position detection apparatus, position detection method, and position detection program
JP2010127639A (en) * 2008-11-25 2010-06-10 Casio Computer Co Ltd Image processing device, image processing method, and program
JP2011183054A (en) * 2010-03-10 2011-09-22 Shoichiro Taniguchi Apparatus and method for analyzing movement of shooting arrow using bow
JP2012212373A (en) * 2011-03-31 2012-11-01 Casio Comput Co Ltd Image processing device, image processing method and program
JP2012210376A (en) * 2011-03-31 2012-11-01 Casio Computer Co Ltd Image processor, image processing method, and program
JP2014128444A (en) * 2012-12-28 2014-07-10 Bridgestone Sports Co Ltd Selection system and selection method of tennis racket
JP2013238622A (en) * 2013-08-23 2013-11-28 Casio Comput Co Ltd Display control device, display control method, and program
WO2021020813A1 (en) * 2019-07-30 2021-02-04 주식회사 골프존 Detection method for golf club and sensing apparatus using same
KR20210082140A (en) * 2019-07-30 2021-07-02 주식회사 골프존 Sensing method of golf club and sensing device using the same
KR102563102B1 (en) * 2019-07-30 2023-08-03 주식회사 골프존 Sensing method of golf club and sensing device using the same

Also Published As

Publication number Publication date
JP4647761B2 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
US20210000389A1 (en) Information processing device, sensor device, information processing system, and storage medium
US6389368B1 (en) Basketball goal sensor for detecting shots attempted and made
US8659663B2 (en) Video tracking of baseball players to determine the start and end of a half-inning
US9007463B2 (en) Video tracking of baseball players which identifies merged participants based on participant roles
JP2014512903A (en) Sensing device and sensing method used in virtual golf simulation device
US20090017919A1 (en) Detecting contacts during sporting activities etc.
KR101495961B1 (en) System and method of correcting golf pose
JP4647761B2 (en) Swing object speed measurement device
CN105678817A (en) Method for extracting central point of circular image with high speed
CN108079547A (en) image processing apparatus, analysis system, image processing method and recording medium
JP2004334830A (en) Automatic tracking method of golf swing
KR101972526B1 (en) golf swing correcting system
KR20240046425A (en) Systems and methods for evaluating sports ball data
US11077351B2 (en) Measurement and reconstruction of the golf launching scene in 3D
JP2006234485A (en) Method and device for measuring rotation direction and amount of rotation in sphere traveling in space, and sphere suited for measuring rotation direction and amount of rotation when traveling in space
JP2804949B2 (en) Moving image processing method
US20230364468A1 (en) Deep learning method of determining golf swing and golf ball parameters from radar signal and image data
US9754373B2 (en) Methods and apparatus for automated bocce measurement and scoring
WO2015013752A1 (en) Synchronisation of video and audio capture
JPH09215807A (en) Golf club head swing action-measuring method
US10950276B2 (en) Apparatus and method to display event information detected from video data
US20230085920A1 (en) Electronic Home Plate
TWI791307B (en) Method for analyzing basketball movements
KR20180023416A (en) High speed camera sensor system and computer unified screen golf play system, and method thereof
AU2012200201B2 (en) Detecting contacts during sporting activities ETC

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees