JP7248353B1 - ヒッティング解析システム及びヒッティング解析方法 - Google Patents
ヒッティング解析システム及びヒッティング解析方法 Download PDFInfo
- Publication number
- JP7248353B1 JP7248353B1 JP2022025644A JP2022025644A JP7248353B1 JP 7248353 B1 JP7248353 B1 JP 7248353B1 JP 2022025644 A JP2022025644 A JP 2022025644A JP 2022025644 A JP2022025644 A JP 2022025644A JP 7248353 B1 JP7248353 B1 JP 7248353B1
- Authority
- JP
- Japan
- Prior art keywords
- hitting
- ball
- information
- hitter
- detection means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】この発明は、打撃者目線で球体の球筋軌跡とともに、打撃道具Dのスイング軌跡を視覚的に検出及び表示することで、打撃者が用いる打撃道具Dによる球体のヒッティング解析を正確に行うことができる、ヒッティング解析システム及びヒッティング解析方法を提供する。【解決手段】球筋検出手段1で取得した球体Bの球筋情報、打撃者位置検出手段2で取得した打撃者Cの位置情報、及び打撃道具位置検出手段3で取得した打撃道具Dのスイング情報を基にして、打撃者Cによる打撃道具Dの球体インパクト時のヒッティング情報を算出する解析手段4を備える。【選択図】図1
Description
本発明は、野球、テニス、卓球など、球体を打撃道具(バット、ラケット等)で打つヒッティングスポーツに係り、画像解析により自身の打撃姿勢が適切か否かの判断が可能なヒッティング解析システム及びヒッティング解析方法に関する。
野球、テニス、卓球などのヒッティングスポーツでは、個人の感覚で打撃姿勢を習得するためのスキルを必要とし、具体的なスキル確認や比較をすることが難しい。
期待するヒッティングには、複数の要素(打撃道具の位置、打撃者の位置、打撃道具の角度、インパクトのタイミング)が絡んでおり、全ての要素について正確な情報を把握し、ギャップ(理想と現実の差分)を明確にすることが困難である。
情報を把握できない要素としては、対象物となる球体が高速で移動するため、認識してからヒッティング・ポイントまでの球筋を本人の目で見極めることが難しい点が上げられる。
期待するヒッティングには、複数の要素(打撃道具の位置、打撃者の位置、打撃道具の角度、インパクトのタイミング)が絡んでおり、全ての要素について正確な情報を把握し、ギャップ(理想と現実の差分)を明確にすることが困難である。
情報を把握できない要素としては、対象物となる球体が高速で移動するため、認識してからヒッティング・ポイントまでの球筋を本人の目で見極めることが難しい点が上げられる。
また、打撃者のスイングは、球筋を見極めながら行う動作であり、球筋の変化や、動作のブレ等の影響を受け易く、期待するヒッティングになっているか否かの判断(理想と現実の比較)も難しい。
さらに、ヒッティング・ポイントは、球筋とスイングが一致するインパクトの瞬間であり、打撃者自身が正確な情報を把握することが困難である。
個人の感覚で習得されるスキルは、目に見えないため反復練習を繰り返し行うことで得られる目に見えない技であり、習得までに多大な時間を要するとともに、習熟度を表す指標もなく、個人差によるばらつきが生じ、比較、判断が難しい。
また、録画機器を使った解析は、録画設備やそれに特化したシステムが必要になり、システムを備えた場所で実施する必要があり、さらには高額なコストが掛かり、容易に使用できない。
さらに、ヒッティング・ポイントは、球筋とスイングが一致するインパクトの瞬間であり、打撃者自身が正確な情報を把握することが困難である。
個人の感覚で習得されるスキルは、目に見えないため反復練習を繰り返し行うことで得られる目に見えない技であり、習得までに多大な時間を要するとともに、習熟度を表す指標もなく、個人差によるばらつきが生じ、比較、判断が難しい。
また、録画機器を使った解析は、録画設備やそれに特化したシステムが必要になり、システムを備えた場所で実施する必要があり、さらには高額なコストが掛かり、容易に使用できない。
このようなヒッティング解析に係る技術として特許文献1~3が示されている。
特許文献1に示されるスイング分析装置は、複数のセンサ部とホスト端末を含んで構成されている。センサ部は、スイング分析の対象となる運動器具に取り付けられる。本例では、センサ部が、複数の角速度センサ、データ処理部、通信部を含んで構成されている。
そして、このようなスイング分析装置では、テニスラケットの長軸上の位置にテニスボールが当たってジャストミートした場合に長軸回りの回転がほとんど発生しないが、長軸上からずれた位置にテニスボールが当たってミート失敗した場合にインパクトの直後に長軸回りの回転が発生する。
従って、インパクト直後の長軸回りの角速度の変化量から長軸上にテニスボールが当たったか否かを判定することができる。
特許文献1に示されるスイング分析装置は、複数のセンサ部とホスト端末を含んで構成されている。センサ部は、スイング分析の対象となる運動器具に取り付けられる。本例では、センサ部が、複数の角速度センサ、データ処理部、通信部を含んで構成されている。
そして、このようなスイング分析装置では、テニスラケットの長軸上の位置にテニスボールが当たってジャストミートした場合に長軸回りの回転がほとんど発生しないが、長軸上からずれた位置にテニスボールが当たってミート失敗した場合にインパクトの直後に長軸回りの回転が発生する。
従って、インパクト直後の長軸回りの角速度の変化量から長軸上にテニスボールが当たったか否かを判定することができる。
特許文献2に示される野球トレーニングシステムでは、バッター視点でピッチャーの投球を連続撮影する複数のカメラと、該カメラで撮影した映像を投球毎に複数の映像ファイルとして記録する記録装置と、該記録装置に記録された複数映像を同一画面内に同期表示する表示装置と、これらを制御するコントローラとを含む。
そして、この野球トレーニングシステムでは、分析者が、表示画面の分割映像をスロー再生やコマ送り再生しながら、被験者にアドバイスを与えることが可能となる。
また、この野球トレーニングシステムでは、分割同期表示する映像を選択することで、投球種やバッターボックス内の立ち位置の違いによるスイングの差異も識別可能となる。
そして、この野球トレーニングシステムでは、分析者が、表示画面の分割映像をスロー再生やコマ送り再生しながら、被験者にアドバイスを与えることが可能となる。
また、この野球トレーニングシステムでは、分割同期表示する映像を選択することで、投球種やバッターボックス内の立ち位置の違いによるスイングの差異も識別可能となる。
特許文献3に示されるテニス挙動測定方法では、挙動測定用の2台の高速カメラで得たインパクト前後のテニスラケット及びボールの画像に基づく3次元座標系の演算処理をコンピュータで実行することにより、テニスラケット及びボールの挙動にかかる各種数値を算出する。
このとき、上記テニス挙動測定方法では、コンピュータが、テニスラケットの場合と同様にして得られたボールの画像に基づき三次元座標系の演算処理を行い、インパクト前後のボールの速度、入射角度、打出角度、入射方向、打出方向及び反発係数を算出可能としている。
このとき、上記テニス挙動測定方法では、コンピュータが、テニスラケットの場合と同様にして得られたボールの画像に基づき三次元座標系の演算処理を行い、インパクト前後のボールの速度、入射角度、打出角度、入射方向、打出方向及び反発係数を算出可能としている。
ところで、上記特許文献1~3に示されるボールの挙動測定では、打撃者目線でボールの軌跡を検出できないので、実際に打撃を行っている打撃者との間に感覚のズレが生じ、正確なスイング/ヒッティング解析を行うことができないという問題があった。
この発明は、上述した事情に鑑みてなされたものであって、カメラ/位置センサ/携帯端末/解析装置などの機器を使い、打撃者目線で球体の球筋軌跡とともに、バット、ラケット等からなる打撃道具のスイング軌跡を視覚的に検出及び表示することで、打撃者が用いる打撃道具による球体のヒッティング解析を正確に行うことができる、ヒッティング解析システム及びヒッティング解析方法を提供する。
上記課題を解決するために、この発明は以下の手段を提案している。
本発明の第1態様に示すヒッティング解析システムでは、打撃者の頭部又はその付近に装着することにより打撃者目線で球体の球筋を検出する球筋検出手段と、打撃者に装着することにより該打撃者の位置を検出する打撃者位置検出手段と、打撃道具に装着することにより該打撃道具の位置をスイング情報として検出する打撃道具位置検出手段と、これら検出手段で取得した情報に基づき、前記打撃道具による球体インパクト時の情報を算出する解析手段と、を有し、前記解析手段は、前記球筋検出手段で取得した球体の球筋情報、前記打撃者位置検出手段で取得した打撃者の位置情報、及び前記打撃道具位置検出手段で取得した打撃道具のスイング情報を基にして、前記打撃者による前記打撃道具の球体インパクト時のヒッティング情報を算出することを特徴とする。
本発明の第1態様に示すヒッティング解析システムでは、打撃者の頭部又はその付近に装着することにより打撃者目線で球体の球筋を検出する球筋検出手段と、打撃者に装着することにより該打撃者の位置を検出する打撃者位置検出手段と、打撃道具に装着することにより該打撃道具の位置をスイング情報として検出する打撃道具位置検出手段と、これら検出手段で取得した情報に基づき、前記打撃道具による球体インパクト時の情報を算出する解析手段と、を有し、前記解析手段は、前記球筋検出手段で取得した球体の球筋情報、前記打撃者位置検出手段で取得した打撃者の位置情報、及び前記打撃道具位置検出手段で取得した打撃道具のスイング情報を基にして、前記打撃者による前記打撃道具の球体インパクト時のヒッティング情報を算出することを特徴とする。
本発明の第2態様に示すヒッティング解析方法では、打撃者の頭部又はその付近に装着することにより打撃者目線で球体の球筋を検出する球筋検出段階と、打撃者に装着することにより該打撃者の位置を検出する打撃者位置検出段階と、打撃道具に装着することにより該打撃道具の位置をスイング情報として検出する打撃道具位置検出段階と、これら検出段階で取得した情報に基づき、前記打撃道具による球体インパクト時の情報を算出する計算段階と、を有し、前記計算段階は、前記球筋検出段階で取得した球体の球筋情報、前記打撃者位置検出段階で取得した打撃者の位置情報、及び前記打撃道具位置検出段階で取得した打撃道具のスイング情報を基にして、前記打撃者による前記打撃道具の球体インパクト時のヒッティング情報を算出することを特徴とする。
本発明によれば、球体インパクト時のヒッティング情報を、打撃者がその目線で視覚的にシミュレーションすることができ、打撃道具の利用習熟度を高めることが可能となる。
本発明に係るヒッティング解析システム100の最小構成について図1(A)~(C)を参照して説明する。
このヒッティング解析システム100は、図1(A)に示すように球筋検出手段1、打撃者位置検出手段2、打撃道具位置検出手段3及び解析手段4を主な構成要素とする。
このヒッティング解析システム100は、図1(A)に示すように球筋検出手段1、打撃者位置検出手段2、打撃道具位置検出手段3及び解析手段4を主な構成要素とする。
球筋検出手段1は、打撃者Cの頭部又はその付近に装着することにより打撃者目線で球体Bの球筋Aを検出するものである(図1(B)及び(C)参照)。
打撃者位置検出手段2は打撃者Cに装着することにより該打撃者Cの位置を検出するためのものである(図1(B)及び(C)参照)。
打撃道具位置検出手段3は、打撃道具Dに装着することにより該打撃道具Dの位置をスイング情報として検出するためのものである(図1(B)及び(C)参照)。
打撃者位置検出手段2は打撃者Cに装着することにより該打撃者Cの位置を検出するためのものである(図1(B)及び(C)参照)。
打撃道具位置検出手段3は、打撃道具Dに装着することにより該打撃道具Dの位置をスイング情報として検出するためのものである(図1(B)及び(C)参照)。
解析手段4は、これら検出手段1~3で取得した情報に基づき、打撃道具Dによる球体インパクト時のヒッティング情報を算出する。
具体的には、この解析手段4は、球筋検出手段1で取得した球体Bの球筋情報、打撃者位置検出手段2で取得した打撃者Cの位置情報、及び打撃道具位置検出手段3で取得した打撃道具Dのスイング情報を基にして、打撃者Cによる打撃道具Dの球体インパクト時のヒッティング情報を算出する(図1(C)参照)。
なお、これら球筋検出手段1、打撃者位置検出手段2、打撃道具位置検出手段3及び解析手段4間の接続は、図示しない携帯端末などの通信表示手段を用いて行われる。
具体的には、この解析手段4は、球筋検出手段1で取得した球体Bの球筋情報、打撃者位置検出手段2で取得した打撃者Cの位置情報、及び打撃道具位置検出手段3で取得した打撃道具Dのスイング情報を基にして、打撃者Cによる打撃道具Dの球体インパクト時のヒッティング情報を算出する(図1(C)参照)。
なお、これら球筋検出手段1、打撃者位置検出手段2、打撃道具位置検出手段3及び解析手段4間の接続は、図示しない携帯端末などの通信表示手段を用いて行われる。
そして、以上のように構成されたヒッティング解析システム100によれば、球筋検出手段1で取得した球体Bの球筋情報、打撃者位置検出手段2で取得した打撃者Cの位置を示す打撃者位置情報、及び打撃道具位置検出手段3で取得した打撃道具Dのスイング情報を基にして、打撃者Cによる打撃道具Dの球体インパクト時のヒッティング情報を算出することができる。
これにより上記ヒッティング解析システム100では、これら球体Bの球筋情報、打撃者位置情報、及び打撃道具Dのスイング情報を画面表示することで、打撃者Cにより操作される打撃道具Dが、球体Bにインパクトしたか否かのヒッティング情報を正確に算出することができる。
その結果、上記ヒッティング解析システム100では、当該打撃道具Dを利用した球体インパクト時のヒッティング情報を、打撃者Cが視覚的に読み取ることができ、当該打撃道具Dの利用習熟度を高めることが可能となる。
これにより上記ヒッティング解析システム100では、これら球体Bの球筋情報、打撃者位置情報、及び打撃道具Dのスイング情報を画面表示することで、打撃者Cにより操作される打撃道具Dが、球体Bにインパクトしたか否かのヒッティング情報を正確に算出することができる。
その結果、上記ヒッティング解析システム100では、当該打撃道具Dを利用した球体インパクト時のヒッティング情報を、打撃者Cが視覚的に読み取ることができ、当該打撃道具Dの利用習熟度を高めることが可能となる。
(実施形態)
本発明の実施形態に係るヒッティング解析システム101の最小構成について図2~図5を参照して説明する。
このヒッティング解析システム101は、図2及び図3に示すように球筋検出手段11、打撃者位置検出手段12、打撃道具位置検出手段13、通信表示手段14及び解析機器15を主な構成要素とする。
なお、本例ではヒッティング解析するスポーツとして野球が示され、長尺に形成された打撃道具D1としてバット20が用いられている。
本発明の実施形態に係るヒッティング解析システム101の最小構成について図2~図5を参照して説明する。
このヒッティング解析システム101は、図2及び図3に示すように球筋検出手段11、打撃者位置検出手段12、打撃道具位置検出手段13、通信表示手段14及び解析機器15を主な構成要素とする。
なお、本例ではヒッティング解析するスポーツとして野球が示され、長尺に形成された打撃道具D1としてバット20が用いられている。
球筋検出手段11は、打撃者C1の頭部に装着するゴーグル21の左右両側2箇所に位置するカメラ11A,11Aであって、打撃者目線で球体B1の球筋A1(図4(A)参照)を三次元座標で検出する。
打撃者位置検出手段12は打撃者C1に装着することにより該打撃者C1の位置を検出する位置センサ12A,12Bである。位置センサ12Aはゴーグル21の眼鏡中央部に配置され、位置センサ12Bは打撃者C1の腰部に配置される。
打撃道具位置検出手段13は、打撃道具D1に装着することにより該打撃道具D1の位置をスイング情報として検出する位置センサ13A,13Bである。位置センサ13Aは打撃道具D1となるバット20の先端部に位置し、位置センサ13Bは当該バット20の基端部のグリップ端に位置する。
打撃者位置検出手段12は打撃者C1に装着することにより該打撃者C1の位置を検出する位置センサ12A,12Bである。位置センサ12Aはゴーグル21の眼鏡中央部に配置され、位置センサ12Bは打撃者C1の腰部に配置される。
打撃道具位置検出手段13は、打撃道具D1に装着することにより該打撃道具D1の位置をスイング情報として検出する位置センサ13A,13Bである。位置センサ13Aは打撃道具D1となるバット20の先端部に位置し、位置センサ13Bは当該バット20の基端部のグリップ端に位置する。
通信表示手段14はUI(ユーザ・インターフェース)として使用されるものであって、カメラ11A,11A、位置センサ12A,12B/13A,13Bが採取した情報を受信し解析機器15へ送信する。
また、通信表示手段14としてスマートフォン、タブレット端末などの携帯端末22が使用されている。
この携帯端末22では、所定範囲の短距離で無線通信を行う無線手段23を利用して、球筋検出手段11、打撃者位置検出手段12及び打撃道具位置検出手段13で検出したデータを解析機器15に送信するとともに、当該解析機器15を操作するツールとなる。
また、通信表示手段14としてスマートフォン、タブレット端末などの携帯端末22が使用されている。
この携帯端末22では、所定範囲の短距離で無線通信を行う無線手段23を利用して、球筋検出手段11、打撃者位置検出手段12及び打撃道具位置検出手段13で検出したデータを解析機器15に送信するとともに、当該解析機器15を操作するツールとなる。
解析機器15は、これら検出手段1~3で取得した情報に基づき、打撃道具D1による球体インパクト時の情報を算出する演算装置であって、コンピュータにより構成される。
具体的には、解析機器15は、球筋検出手段11で取得した球体B1の球筋情報、打撃者位置検出手段12で取得した打撃者C1の位置情報、及び打撃道具位置検出手段13で取得した打撃道具D1のスイング情報を基にして、打撃者C1による打撃道具D1の球体インパクト時のヒッティング情報を算出する(全体の処理内容は図5のフローチャートを参照して後述する)。
また、この解析機器15で算出された解析結果は、携帯端末22の表示画面22Aに表示される。
具体的には、解析機器15は、球筋検出手段11で取得した球体B1の球筋情報、打撃者位置検出手段12で取得した打撃者C1の位置情報、及び打撃道具位置検出手段13で取得した打撃道具D1のスイング情報を基にして、打撃者C1による打撃道具D1の球体インパクト時のヒッティング情報を算出する(全体の処理内容は図5のフローチャートを参照して後述する)。
また、この解析機器15で算出された解析結果は、携帯端末22の表示画面22Aに表示される。
次に、解析機器15により行われる具体的な処理について図4(A)~(C)を参照して説明する。なお、図4において符号E1は、打撃者C1に対して球体B1を投げる投手である。
まず、解析機器15では、図4(A)の「表示画面1」に示すように、球筋検出手段11のカメラ11A,11Aにより打撃者目線で採取した球筋情報、打撃者位置検出手段12の位置センサ12A,12Bで取得した打撃者Cの打撃者位置情報及び打撃道具位置検出手段13の位置センサ13A,13Bで取得した打撃道具D1のスイング情報を基にして、3次元の座標データからなる軌跡情報(球筋、スイング軌跡)を生成し、ヒッティングに必要な情報の解析/算出を行い、解析結果を時系列にデータベース化して情報を管理する。
具体的には、「球筋」は、カメラ11A,11Aにより打撃者目線で採取した球筋情報から作成され、「スイング軌跡」は打撃道具D1の位置センサ13A,13Bで取得したスイング情報を基に作成されるが、最終的な軌跡情報(球筋、スイング軌跡)は、位置センサ12A,12Bで取得した打撃者Cの打撃者位置情報も参照して合成される。
この軌跡情報(球筋、スイング軌跡)は、携帯端末22の表示画面22A上にて3Dグラフィックスのアニメーション動画により表示される。
具体的には、「球筋」は、カメラ11A,11Aにより打撃者目線で採取した球筋情報から作成され、「スイング軌跡」は打撃道具D1の位置センサ13A,13Bで取得したスイング情報を基に作成されるが、最終的な軌跡情報(球筋、スイング軌跡)は、位置センサ12A,12Bで取得した打撃者Cの打撃者位置情報も参照して合成される。
この軌跡情報(球筋、スイング軌跡)は、携帯端末22の表示画面22A上にて3Dグラフィックスのアニメーション動画により表示される。
また、この解析機器15は、クラウド環境下に設置し、携帯端末22からアクセスして操作される。そして、解析機器15では、受信した情報の解析を行い、解析結果となる軌跡情報(球筋、スイング軌跡)をデータベースで管理するとともに、解析に必要となる情報をシミュレーション・モデルとして登録する。
また、解析機器15では、図4(B)の「表示画面2」に示すように、球筋情報、打撃者位置情報及びスイング情報を、第三者目線に変換した3Dグラフィックスのアニメーション動画で表示を行う。
また、解析機器15では、図4(C)の「表示画面3」に示すように、ヒッティング(インパクト)時の情報を3Dグラフィックスのアニメーションの静止画で表示を行う。このときの表示は、打撃道具D1の芯(理想)とヒッティング・ポイント(現実)の位置を識別できるように色を変えて表示する。
また、解析機器15では、視点の変更による(正面、上空、打者目線等)パノラマ表示を行い、あらゆる角度からインパクト時の位置情報を確認することができる。
また、解析機器15での表示操作は、再生/停止/スローモーション/コマ送り/巻戻し/早送りの操作ができ、また、比較したい情報を選択し、並べて表示(マルチ表示)も行える。
また、解析機器15では、図4(C)の「表示画面3」に示すように、ヒッティング(インパクト)時の情報を3Dグラフィックスのアニメーションの静止画で表示を行う。このときの表示は、打撃道具D1の芯(理想)とヒッティング・ポイント(現実)の位置を識別できるように色を変えて表示する。
また、解析機器15では、視点の変更による(正面、上空、打者目線等)パノラマ表示を行い、あらゆる角度からインパクト時の位置情報を確認することができる。
また、解析機器15での表示操作は、再生/停止/スローモーション/コマ送り/巻戻し/早送りの操作ができ、また、比較したい情報を選択し、並べて表示(マルチ表示)も行える。
なお、解析機器15では、上述した球筋情報を、作成方法、状態に応じて表示色を変更し3パターンで表示する。具体的には、解析機器15では、「(a)目線カメラで採取した情報から球筋を算出する」、「(b)目線カメラで採取できない場合に、過去に蓄積したデータベース等のデータを基にして球筋を合成して作成する」、「(c)ヒッティング後の球筋を作成する」といった処理を行う。
また、解析機器15では、インパクトの瞬間まで、映像情報で対象物となる球体B1を捕らえていた場合に、上記(a)(b)の2パターンの表示をし、さらにスイング開始時のタイミングが分かるように、上記(c)で示す球体位置を残像として、表示する。
また、解析機器15では、インパクトの瞬間まで、映像情報で対象物となる球体B1を捕らえていた場合に、上記(a)(b)の2パターンの表示をし、さらにスイング開始時のタイミングが分かるように、上記(c)で示す球体位置を残像として、表示する。
また、球筋情報として、ストレート/カーブ/シュート/フォークなどの球種、「XXX」 (km/h)で示される球速、「XXX」 rps(revolutions per second)で示される回転数が表示される。
また、打撃道具D1のスイング情報として、インパクト前/後で分けてスイング速度「XXX」 (km/h)、スイング開始からインパクトまでのスイング時間「0.XX」(秒)、及び対象物となる球体B1を認識してからスイング開始までの反応時間「0.XX」 (秒)が表示される。
また、打撃道具D1が対象物となる球体B1に当たるヒッティング情報として、打球速度「XXX」 (km/h)、打球速度と打角度とから算出される飛距離 「XXX」(m)、水平を0度及び垂直を90度としたヒッティング後の打球の角度「XXX」 (度)、 センター方向を0度とした左右の打球の飛方向を示す角度「XX」(度)、打撃道具D1の芯と球体B1とのズレ(距離)を示す芯ズレ「XX.X」(cm)、及びズレのタイミングを示す時間「0.XX」 (秒)(早い:-/遅い:+)が表示される。
また、打撃道具D1のスイング情報として、インパクト前/後で分けてスイング速度「XXX」 (km/h)、スイング開始からインパクトまでのスイング時間「0.XX」(秒)、及び対象物となる球体B1を認識してからスイング開始までの反応時間「0.XX」 (秒)が表示される。
また、打撃道具D1が対象物となる球体B1に当たるヒッティング情報として、打球速度「XXX」 (km/h)、打球速度と打角度とから算出される飛距離 「XXX」(m)、水平を0度及び垂直を90度としたヒッティング後の打球の角度「XXX」 (度)、 センター方向を0度とした左右の打球の飛方向を示す角度「XX」(度)、打撃道具D1の芯と球体B1とのズレ(距離)を示す芯ズレ「XX.X」(cm)、及びズレのタイミングを示す時間「0.XX」 (秒)(早い:-/遅い:+)が表示される。
次に、図5を参照して球体インパクト時のヒッティング情報を獲得するためのフローチャートをステップ(S)毎に説明する。なお、このフローチャートの中でステップS2~S12はヒッティング解析システム101の解析機器15内で実行される。
〔ステップS1〕
打撃者C1にゴーグル21を装着した後、球筋検出手段11のカメラ11A,11A、打撃者位置検出手段12の位置センサ12A,12B及び打撃道具位置検出手段13の位置センサ13A,13Bを、携帯端末22を介して解析機器15に接続する。
打撃者C1にゴーグル21を装着した後、球筋検出手段11のカメラ11A,11A、打撃者位置検出手段12の位置センサ12A,12B及び打撃道具位置検出手段13の位置センサ13A,13Bを、携帯端末22を介して解析機器15に接続する。
〔ステップS2〕
球筋検出手段11のカメラ11A,11Aから出力される画像データに基づき、打撃者C1に対して投手E1が球体B1を投げたか否かを認識し、YESの場合に次のステップS3に進む。
球筋検出手段11のカメラ11A,11Aから出力される画像データに基づき、打撃者C1に対して投手E1が球体B1を投げたか否かを認識し、YESの場合に次のステップS3に進む。
〔ステップS3〕
球筋検出手段11のカメラ11A,11Aにより打撃者目線で採取した球筋情報、打撃者位置検出手段12の位置センサ12A,12Bで取得した打撃者Cの打撃者位置情報及び打撃道具位置検出手段13の位置センサ13A,13Bで取得した打撃道具D1のスイング情報を取り込む。
そして、これら情報を基にして、3次元の座標データからなる軌跡情報(球筋、スイング軌跡)を生成し、ヒッティングに必要な情報の解析/算出を行なう。軌跡情報(球筋、スイング軌跡)は、3次元の座標データに変換し、時系列で情報を管理し、2視点(正面/側面)で捉えた情報を3Dグラフィックスの視覚情報に変換する。
球筋検出手段11のカメラ11A,11Aにより打撃者目線で採取した球筋情報、打撃者位置検出手段12の位置センサ12A,12Bで取得した打撃者Cの打撃者位置情報及び打撃道具位置検出手段13の位置センサ13A,13Bで取得した打撃道具D1のスイング情報を取り込む。
そして、これら情報を基にして、3次元の座標データからなる軌跡情報(球筋、スイング軌跡)を生成し、ヒッティングに必要な情報の解析/算出を行なう。軌跡情報(球筋、スイング軌跡)は、3次元の座標データに変換し、時系列で情報を管理し、2視点(正面/側面)で捉えた情報を3Dグラフィックスの視覚情報に変換する。
〔ステップS4〕
ステップS3にて対象物となる球体B1が非認識か否かを判断し、YESの場合にステップS5に進み、NOの場合にステップS6に進む。
ステップS3にて対象物となる球体B1が非認識か否かを判断し、YESの場合にステップS5に進み、NOの場合にステップS6に進む。
〔ステップS5〕
ステップS3で取得した情報を再分析して、軌跡情報(球筋、スイング軌跡)を生成する。
ステップS3で取得した情報を再分析して、軌跡情報(球筋、スイング軌跡)を生成する。
〔ステップS6〕
軌跡情報(球筋、スイング軌跡)から、ヒッティングに必要な情報として、ヒッティング・ポイント、球速・回転・球種情報、スイング速度、反応時間、スイング時間を算出した後、球筋とスイング軌跡を比較することで、ヒッティング・ポイントが一致するポイントを算出する。
そして、このステップS6にて、球筋とスイング軌跡とが一致したヒッティング・ポイントがあるか否かを判断し、YESの場合にステップS7に進み、NOの場合にステップS8に進む。
軌跡情報(球筋、スイング軌跡)から、ヒッティングに必要な情報として、ヒッティング・ポイント、球速・回転・球種情報、スイング速度、反応時間、スイング時間を算出した後、球筋とスイング軌跡を比較することで、ヒッティング・ポイントが一致するポイントを算出する。
そして、このステップS6にて、球筋とスイング軌跡とが一致したヒッティング・ポイントがあるか否かを判断し、YESの場合にステップS7に進み、NOの場合にステップS8に進む。
〔ステップS7〕
球筋とスイング軌跡とが一致した箇所をヒッティング・ポイントに登録する。
〔ステップS8〕
球筋とスイング軌跡とが一致するポイントがない場合は、両者の距離が最短となるポイントをヒッティング・ポイントにする。このとき、最短距離が設定値(例えば50cm)以下となるYESの場合にステップS9に進み、NOの場合にステップS10に進む。
球筋とスイング軌跡とが一致した箇所をヒッティング・ポイントに登録する。
〔ステップS8〕
球筋とスイング軌跡とが一致するポイントがない場合は、両者の距離が最短となるポイントをヒッティング・ポイントにする。このとき、最短距離が設定値(例えば50cm)以下となるYESの場合にステップS9に進み、NOの場合にステップS10に進む。
〔ステップS9〕
ステップS8で算出した最小距離となるポイントを、ヒッティング・ポイントとして登録する。
〔ステップS10〕
ステップS8で算出した最短距離が大幅に離れているとして解析不能にする。
ステップS8で算出した最小距離となるポイントを、ヒッティング・ポイントとして登録する。
〔ステップS10〕
ステップS8で算出した最短距離が大幅に離れているとして解析不能にする。
〔ステップS11〕
ステップS7及びステップS9で登録したヒッティング・ポイントを表すヒッティング情報を算出して記録する。
なお、ヒッティング情報として、打撃道具D1の位置、打撃道具D1の角度、打撃者C1からの距離等の要素を、座標データから算出して記録する。
ステップS7及びステップS9で登録したヒッティング・ポイントを表すヒッティング情報を算出して記録する。
なお、ヒッティング情報として、打撃道具D1の位置、打撃道具D1の角度、打撃者C1からの距離等の要素を、座標データから算出して記録する。
以下は、ヒッティング情報の要素についての説明である。
打撃道具D1の位置及び角度は、打撃道具D1に装着した位置センサ13A,13B(グリップ端、先端)で取得したヒッティング時の検出データを用いる。打撃者C1から上述したヒッティング・ポイントまでの距離は、打撃者C1に装着した位置センサ12A,12Bで検出した位置とヒッティング・ポイントの位置を比較することで算出する。
上述したヒッティング・ポイント、球筋情報及びスイング情報から球速、スイング速度、反応時間、スイング時間を算出する。
球速については、対象物の単位時間の移動距離からMAX速度とヒッティング前後の速度を算出する。対象物となる球体B1の特異点(マーカや傷、汚れ)を検出し、対象物の回転数を算出する。球種は、球筋情報、球速、回転数から判定する。スイング速度は、打撃道具D1の単位時間の移動距離からMAX速度とヒッティング・ポイントの前後速度を算出する。反応時間については、対象物となる球体B1を認識しスイングを開始するまでの時間とスイング開始からヒッティング・ポイントまでの時間を算出する。ヒッティング後の情報から、ヒッティングによる効果の情報(打球の球速、方向・角度、飛距離)を算出する。
打撃道具D1の位置及び角度は、打撃道具D1に装着した位置センサ13A,13B(グリップ端、先端)で取得したヒッティング時の検出データを用いる。打撃者C1から上述したヒッティング・ポイントまでの距離は、打撃者C1に装着した位置センサ12A,12Bで検出した位置とヒッティング・ポイントの位置を比較することで算出する。
上述したヒッティング・ポイント、球筋情報及びスイング情報から球速、スイング速度、反応時間、スイング時間を算出する。
球速については、対象物の単位時間の移動距離からMAX速度とヒッティング前後の速度を算出する。対象物となる球体B1の特異点(マーカや傷、汚れ)を検出し、対象物の回転数を算出する。球種は、球筋情報、球速、回転数から判定する。スイング速度は、打撃道具D1の単位時間の移動距離からMAX速度とヒッティング・ポイントの前後速度を算出する。反応時間については、対象物となる球体B1を認識しスイングを開始するまでの時間とスイング開始からヒッティング・ポイントまでの時間を算出する。ヒッティング後の情報から、ヒッティングによる効果の情報(打球の球速、方向・角度、飛距離)を算出する。
そして、以上のように構成されたヒッティング解析システム101によれば、球筋検出手段11で取得した球体B1の球筋情報、打撃者位置検出手段12で取得した打撃者C1の位置を示す打撃者位置情報、及び打撃道具位置検出手段13で取得した打撃道具D1のスイング情報を基にして、打撃者C1による打撃道具D1の球体インパクト時のヒッティング情報を算出することができる。
これにより上記ヒッティング解析システム101では、これら球体B1の球筋情報、打撃者位置情報、及び打撃道具D1のスイング情報を画面表示することで、打撃者C1により操作される打撃道具D1が、球体B1にインパクトしたか否かのヒッティング情報を正確に算出することができる。
その結果、上記ヒッティング解析システム101では、当該打撃道具D1を利用した球体インパクト時のヒッティング情報を、打撃者C1が視覚的に読み取ることができ、当該打撃道具D1の利用習熟度を高めることが可能となる。
これにより上記ヒッティング解析システム101では、これら球体B1の球筋情報、打撃者位置情報、及び打撃道具D1のスイング情報を画面表示することで、打撃者C1により操作される打撃道具D1が、球体B1にインパクトしたか否かのヒッティング情報を正確に算出することができる。
その結果、上記ヒッティング解析システム101では、当該打撃道具D1を利用した球体インパクト時のヒッティング情報を、打撃者C1が視覚的に読み取ることができ、当該打撃道具D1の利用習熟度を高めることが可能となる。
より具体的には、上記ヒッティング解析システム101では、球筋情報とスイング情報から、ヒッティング情報を作成し、視覚情報としてデータ化することで、具体的な比較ができるようになる。
また、上記ヒッティング解析システム101では、カメラで採取した映像情報と位置センサの位置情報からヒッティング時の情報(ヒッティング情報:球筋、スイング、ヒッティング・ポイント)を算出するため、正確なスイング情報の記録が可能になり、ギャップ(理想と現実の差分)を明確にすることができる。
また、上記ヒッティング解析システム101では、カメラで採取した映像情報と位置センサの位置情報からヒッティング時の情報(ヒッティング情報:球筋、スイング、ヒッティング・ポイント)を算出するため、正確なスイング情報の記録が可能になり、ギャップ(理想と現実の差分)を明確にすることができる。
また、上記ヒッティング解析システム101では、カメラで撮影した映像情報と位置センサの位置情報から採取した情報から軌跡情報(球筋、スイング軌跡)を作成するため、採取した情報を、全て記録に残すことができる。このため、球筋の変化による影響を受けた場合であっても、過去のデータを参照して正確なスイング情報を得ることができる。
また、上記ヒッティング解析システム101では、インパクト時の情報を、ヒッティング情報としてデータ化し、理想と現実の比較により、差分がギャップ(理想と現実の差分)となり、スイングの問題点や修正ポイントを具体的に認知することができる。
また、上記ヒッティング解析システム101では、打撃者目線で捉えた球筋/スイング情報を視覚情報として確認できるため、体感に近い感覚でスイングの確認ができ、スイングの問題点や癖に気付くことができ、改善に向けた修正ポイント(ギャップの具体化)も明確になる。
また、上記ヒッティング解析システム101では、インパクト時の情報を、ヒッティング情報としてデータ化し、理想と現実の比較により、差分がギャップ(理想と現実の差分)となり、スイングの問題点や修正ポイントを具体的に認知することができる。
また、上記ヒッティング解析システム101では、打撃者目線で捉えた球筋/スイング情報を視覚情報として確認できるため、体感に近い感覚でスイングの確認ができ、スイングの問題点や癖に気付くことができ、改善に向けた修正ポイント(ギャップの具体化)も明確になる。
また、上記ヒッティング解析システム101では、修正ポイントを意識した練習による成果確認がその場で行えるため、効率的な練習ができ、さらにはヒッティング情報をデータ化することで、各種情報が数値化できるため、指標として活用し、個人差によるばらつきをなくした比較/判断が可能になる。
また、解析機器15は、クラウド環境下に置き、携帯端末22からアクセスして使用するため、時間や場所の制限がなくなり、情報の採取、解析、確認を行うことができる。
また、上記ヒッティング解析システム101では、既存機器を組み合わせて全体のシステムを構築することで、開発コストを抑えた安価なシステムの提供ができる。なお、携帯端末22は、スマートフォンやタブレット等を使用することで、設備購入コストを抑え、操作も容易に行うことができる。
また、解析機器15は、クラウド環境下に置き、携帯端末22からアクセスして使用するため、時間や場所の制限がなくなり、情報の採取、解析、確認を行うことができる。
また、上記ヒッティング解析システム101では、既存機器を組み合わせて全体のシステムを構築することで、開発コストを抑えた安価なシステムの提供ができる。なお、携帯端末22は、スマートフォンやタブレット等を使用することで、設備購入コストを抑え、操作も容易に行うことができる。
これにより、上記ヒッティング解析システム101では、解析結果を基にしたシミュレーションによる練習(反応開始タイミング、スイングの確認)や解析(打撃道具変更)が行える機能も持たせることができる。
具体的には、上記ヒッティング解析システム101では、解析機器15上に打撃道具D1の情報(重量、長さ、特徴)をシミュレーション・モデル化し登録することで、打撃道具D1を変更した場合の特徴に合わせたシミュレーションが可能となり、購入検討時の試打が不要になる。
さらには、上記ヒッティング解析システム101では、解析結果を基にしたシミュレーションにより、スイング開始タイミングの習得に向けた練習を個人で実施することができる。
具体的には、上記ヒッティング解析システム101では、解析機器15上に打撃道具D1の情報(重量、長さ、特徴)をシミュレーション・モデル化し登録することで、打撃道具D1を変更した場合の特徴に合わせたシミュレーションが可能となり、購入検討時の試打が不要になる。
さらには、上記ヒッティング解析システム101では、解析結果を基にしたシミュレーションにより、スイング開始タイミングの習得に向けた練習を個人で実施することができる。
なお、上記実施形態では、野球を例に上げて説明したが、テニス、卓球などの打撃道具を利用したスポーツに適用しても良い。
また、打撃者位置検出手段12の位置センサ12A,12B及び打撃道具位置検出手段13の位置センサ13A,13Bは解析結果を参照しながら設置位置を調整すると良い。
また、打撃者位置検出手段12の位置センサ12A,12B及び打撃道具位置検出手段13の位置センサ13A,13Bは解析結果を参照しながら設置位置を調整すると良い。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
本発明は、野球、テニス、卓球など、球体を打撃道具(バット、ラケット等)で打つヒッティングスポーツに係り、画像解析により自身の打撃姿勢が適切か否かの判断が可能なヒッティング解析システム及びヒッティング解析方法に関する。
1 球筋検出手段
2 打撃者位置検出手段
3 打撃道具位置検出手段
4 解析手段
11 球筋検出手段
12 打撃者位置検出手段
13 打撃道具位置検出手段
14 通信表示手段
15 解析機器
20 バット
21 ゴーグル
22 携帯端末
22A 表示画面
100 ヒッティング解析システム
101 ヒッティング解析システム
A 球筋
A1 球筋
B 球体
B1 球体
C 打撃者
C1 打撃者
D 打撃道具
D1 打撃道具
2 打撃者位置検出手段
3 打撃道具位置検出手段
4 解析手段
11 球筋検出手段
12 打撃者位置検出手段
13 打撃道具位置検出手段
14 通信表示手段
15 解析機器
20 バット
21 ゴーグル
22 携帯端末
22A 表示画面
100 ヒッティング解析システム
101 ヒッティング解析システム
A 球筋
A1 球筋
B 球体
B1 球体
C 打撃者
C1 打撃者
D 打撃道具
D1 打撃道具
Claims (6)
- 打撃者の頭部又はその付近に装着することにより打撃者目線で球体の球筋を検出する球筋検出手段と、
打撃者に装着することにより該打撃者の位置を検出する打撃者位置検出手段と、
打撃道具に装着することにより該打撃道具の位置をスイング情報として検出する打撃道具位置検出手段と、
これら検出手段で取得した情報に基づき、前記打撃道具による球体インパクト時の情報を算出する解析手段と、を有し、
前記解析手段は、前記球筋検出手段で取得した球体の球筋情報、前記打撃者位置検出手段で取得した打撃者の位置情報、及び前記打撃道具位置検出手段で取得した打撃道具のスイング情報を基にして、前記打撃者による前記打撃道具の球体インパクト時のヒッティング情報を算出することを特徴とするヒッティング解析システム。 - 前記球筋検出手段、打撃者位置検出手段及び打撃道具位置検出手段で取得した検出データを前記解析手段に送信するとともに、該解析手段での解析結果を表示する携帯端末から構成された通信表示手段がさらに具備されていることを特徴とする請求項1に記載のヒッティング解析システム。
- 前記球筋検出手段は、前記打撃者に装着されたゴーグル上に位置する球体撮像カメラにより構成されていることを特徴とする請求項1又は2のいずれか1項に記載のヒッティング解析システム。
- 前記打撃者位置検出手段は、前記打撃者に装着されたゴーグル上に位置する第1位置検出センサ、及び前記打撃者の腰に装着された第2位置検出センサにより構成されていることを特徴とする請求項1~3のいずれか1項に記載のヒッティング解析システム。
- 前記打撃道具位置検出手段は、長尺に形成された前記打撃道具の先端部及び基端部のグリップ端にそれぞれ設けられていることを特徴とする請求項1~4のいずれか1項に記載のヒッティング解析システム。
- 打撃者の頭部又はその付近に装着することにより打撃者目線で球体の球筋を検出する球筋検出段階と、
打撃者に装着することにより該打撃者の位置を検出する打撃者位置検出段階と、
打撃道具に装着することにより該打撃道具の位置をスイング情報として検出する打撃道具位置検出段階と、
これら検出段階で取得した情報に基づき、前記打撃道具による球体インパクト時の情報を算出する計算段階と、を有し、
前記計算段階は、前記球筋検出段階で取得した球体の球筋情報、前記打撃者位置検出段階で取得した打撃者の位置情報、及び前記打撃道具位置検出段階で取得した打撃道具のスイング情報を基にして、前記打撃者による前記打撃道具の球体インパクト時のヒッティング情報を算出することを特徴とするヒッティング解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022025644A JP7248353B1 (ja) | 2022-02-22 | 2022-02-22 | ヒッティング解析システム及びヒッティング解析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022025644A JP7248353B1 (ja) | 2022-02-22 | 2022-02-22 | ヒッティング解析システム及びヒッティング解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7248353B1 true JP7248353B1 (ja) | 2023-03-29 |
JP2023122150A JP2023122150A (ja) | 2023-09-01 |
Family
ID=85726054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022025644A Active JP7248353B1 (ja) | 2022-02-22 | 2022-02-22 | ヒッティング解析システム及びヒッティング解析方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7248353B1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328579A (ja) | 2003-04-28 | 2004-11-18 | Kuraray Medical Inc | 視点の位置を表示する映像を記録した映像記録媒体 |
JP2008295654A (ja) | 2007-05-30 | 2008-12-11 | Kajiyashiki:Kk | 眼球運動計測によるゴルフ技量評価方法 |
JP2016131782A (ja) | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、検出装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム |
WO2017145996A1 (ja) | 2016-02-26 | 2017-08-31 | 株式会社セガゲームス | バーチャルスポーツシミュレーション装置 |
JP2019187501A (ja) | 2018-04-18 | 2019-10-31 | 美津濃株式会社 | スイング解析システム、およびスイング解析方法 |
US20210149482A1 (en) | 2019-11-15 | 2021-05-20 | Benny Council | Training system and method utilizing a gaze-tracking system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4117604B2 (ja) * | 2002-08-30 | 2008-07-16 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理プログラム格納媒体 |
-
2022
- 2022-02-22 JP JP2022025644A patent/JP7248353B1/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328579A (ja) | 2003-04-28 | 2004-11-18 | Kuraray Medical Inc | 視点の位置を表示する映像を記録した映像記録媒体 |
JP2008295654A (ja) | 2007-05-30 | 2008-12-11 | Kajiyashiki:Kk | 眼球運動計測によるゴルフ技量評価方法 |
JP2016131782A (ja) | 2015-01-21 | 2016-07-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、検出装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム |
WO2017145996A1 (ja) | 2016-02-26 | 2017-08-31 | 株式会社セガゲームス | バーチャルスポーツシミュレーション装置 |
JP2019187501A (ja) | 2018-04-18 | 2019-10-31 | 美津濃株式会社 | スイング解析システム、およびスイング解析方法 |
US20210149482A1 (en) | 2019-11-15 | 2021-05-20 | Benny Council | Training system and method utilizing a gaze-tracking system |
Also Published As
Publication number | Publication date |
---|---|
JP2023122150A (ja) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10092793B1 (en) | Trajectory detection and feedback systems for tennis | |
JP6983172B2 (ja) | スポーツ用品の運動解析を行うための方法及び装置 | |
AU2017331639B2 (en) | A system and method to analyze and improve sports performance using monitoring devices | |
US8998717B2 (en) | Device and method for reconstructing and analyzing motion of a rigid body | |
US9370704B2 (en) | Trajectory detection and feedback system for tennis | |
US10080941B2 (en) | Method, system, and apparatus for analyzing a sporting apparatus | |
JP5960240B2 (ja) | 仮想ゴルフシミュレーション装置に用いられるセンシング装置及びセンシング方法 | |
JP3749072B2 (ja) | ゴルフクラブ選択方法及び選択システム | |
CN101991949B (zh) | 一种基于计算机的虚拟乒乓球运动控制方法及系统 | |
US20130281223A1 (en) | Virtual golf simulation apparatus and method capable of compensation ball flight distance decreasing rate | |
TWI450120B (zh) | 用於高爾夫球適配分析的方法及系統 | |
JP5584961B2 (ja) | ゴルフクラブの試打システムおよびゴルフクラブの試打方法 | |
US20120295677A1 (en) | Apparatus and method for virtual golf simulation | |
JP6768996B2 (ja) | ボールの飛行情報演算装置及びボールの飛行情報演算方法 | |
CN103990279B (zh) | 基于互联网的高尔夫击球模拟方法 | |
JP4271615B2 (ja) | ゴルフクラブヘッドの挙動計測装置 | |
CN104001330B (zh) | 基于互联网的高尔夫击球模拟系统 | |
US20170296869A1 (en) | Display method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium | |
KR101222006B1 (ko) | 실시간으로 골프레슨을 제공하는 방법 및 시스템 | |
JP5521265B2 (ja) | スウィング表示方法およびスウィング表示システム | |
KR101624595B1 (ko) | 골프 스윙 모니터링 시스템과 그에 연동되는 골프 클럽 | |
JP2009045495A (ja) | ゴルフクラブヘッドの挙動計測装置 | |
JP7248353B1 (ja) | ヒッティング解析システム及びヒッティング解析方法 | |
KR20150058111A (ko) | 골프레슨 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프레슨 정보제공을 위한 정보 처리방법 | |
KR20150025833A (ko) | 골프레슨 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프레슨 정보제공을 위한 정보 처리방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230309 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7248353 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |