JP2018085574A - 画像処理装置、解析システム、画像処理方法及びプログラム - Google Patents

画像処理装置、解析システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2018085574A
JP2018085574A JP2016226233A JP2016226233A JP2018085574A JP 2018085574 A JP2018085574 A JP 2018085574A JP 2016226233 A JP2016226233 A JP 2016226233A JP 2016226233 A JP2016226233 A JP 2016226233A JP 2018085574 A JP2018085574 A JP 2018085574A
Authority
JP
Japan
Prior art keywords
display
image
unit
measurement result
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016226233A
Other languages
English (en)
Other versions
JP2018085574A5 (ja
JP6787072B2 (ja
Inventor
量平 山本
Ryohei Yamamoto
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016226233A priority Critical patent/JP6787072B2/ja
Publication of JP2018085574A publication Critical patent/JP2018085574A/ja
Publication of JP2018085574A5 publication Critical patent/JP2018085574A5/ja
Application granted granted Critical
Publication of JP6787072B2 publication Critical patent/JP6787072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】対象者の動きをユーザがより効率的に把握可能な表示を行うこと。【解決手段】解析システムSは、センサユニット1と、撮影装置2と、処理装置3とを備える。処理装置3は、画像取得部357と、センサ情報取得部356と、解析処理部358と、画像生成部359と、簡易表示生成部360とを備える。画像取得部357は、対象者が撮影された画像を取得する。センサ情報取得部356は、対象者の動きをセンサによって計測した計測結果を取得する。画像生成部359は、画像取得部357によって取得された画像を出力部319に表示させる。簡易表示生成部360は、画像生成部359による表示が行われることに先行して、センサ情報取得部356によって取得された計測結果に基づいて、対象者の動きに関する情報を出力部319に表示させる。【選択図】図9

Description

本発明は、画像処理装置、解析システム、画像処理方法及びプログラムに関する。
従来、ゴルフスイングを映像によって解析する様々な手法が開発されている。
例えば、特許文献1では、腰部に取り付けられた加速度センサにより得られた計測データを対応する動画と共に再生することでスイング動作評価を行うことが提案されている。
ところが、特許文献1に記載された技術は、実験室のような大掛かりな設備が必要であり、一般ユーザが気軽に活用することは困難である。
一方、近年、コンシューマー用の高速デジタルカメラ、スマートフォン、モーションセンサといった端末が容易に入手可能となっており、一般のユーザがこれらの端末を練習場に持ち込み、各端末の機能を組み合わせて用いることにより、気軽にゴルフスイングを解析することも可能になっている。
特開2009−050721号公報
しかしながら、コンシューマー用の高速デジタルカメラ、スマートフォン、モーションセンサ等の端末を組み合わせて用いる場合、例えば、それぞれの端末によって情報を取得することは可能であるものの、取得した情報から解析結果を提示する機能が十分なものでないといった課題があった。そのため、スイング等の動作を行った後、ユーザが動作内容を把握するまでに無用な時間や手間を要し、効率的な表示ができるものではなかった。
本発明は、このような状況に鑑みてなされたものであり、対象者の動きをユーザがより効率的に把握可能な表示を行うことを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする。
本発明によれば、対象者の動きをユーザがより効率的に把握可能な表示を行うことができる。
本発明の一実施形態に係る解析システムの構成を示すシステム構成図である。 解析システムの使用形態例を示す模式図である。 センサユニットのハードウェアの構成を示すブロック図である。 撮影装置のハードウェア構成を示すブロック図である。 処理装置のハードウェア構成を示すブロック図である。 センサユニットの機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。 センサユニットの装着状態を示す模式図である。 センサユニットによって検出される情報の例を示す模式図である。 撮影装置の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。 処理装置の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。 リアルタイムモードにおける表示例を示す模式図である。 ワンショットモードにおける表示例を示す模式図である。 ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。 センサユニットが実行する情報検出処理の流れを説明するフローチャートである。 撮影装置が実行する撮影処理の流れを説明するフローチャートである。 処理装置が実行する解析結果表示処理の流れを説明するフローチャートである。 ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。 BOXアニメーションの表示形態例を示す模式図である。
以下、本発明の実施形態について、図面を用いて説明する。
[システム構成]
図1は、本発明の一実施形態に係る解析システムSの構成を示すシステム構成図である。また、図2は、解析システムSの使用形態例を示す模式図である。
図1及び図2に示すように、解析システムSは、センサユニット1と、撮影装置2と、処理装置3と、を含んで構成される。また、処理装置3とセンサユニット1及び撮影装置2とはBluetooth low energy/Bluetooth LE(商標)(以下、「BLE」と称する。)によって通信可能に構成され、撮影装置2とセンサユニット1及び処理装置3とは、Wi−Fi(Wireless Fidelity)によって通信可能に構成される。
センサユニット1は、計測対象に装着され、計測対象の動きをセンシングしてセンサ情報を処理装置3に送信する。本実施形態においては、ゴルフのスイングの動作をする者(以下、「計測対象者P」と称する。)の腰等にセンサユニット1を装着し、当該動作をセンシングする。
撮影装置2は、計測対象を撮影し、計測対象の動きを表す動画のデータを処理装置3に送信する。本実施形態においては、撮影装置2は、ゴルフのスイングの動作をする計測対象者Pの動画を撮影する。
処理装置3は、計測対象に装着したセンサユニット1から取得したセンサ情報を解析し、解析結果(本実施形態においては、計測対象の姿勢変化や移動の状態)を、センサ情報が取得された計測対象の動きを表す動画と併せて表示する。本実施形態においては、処理装置3は、計測対象の解析結果を、計測対象の3次元的な動きを模式的に示す箱型のオブジェクト(計測対象の3次元的な動きを示す指標)によってアニメーション表示する。また、処理装置3は、計測対象の解析結果が表示されるまでの間に、センサ情報に基づいて、計測対象の動きを概略的に表す画像を表示する。
[ハードウェア構成]
図3は、センサユニット1のハードウェアの構成を示すブロック図である。
センサユニット1は、計測対象の動きを検出する各種センサを備えた装置として構成される。
図3に示すように、センサユニット1は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、センサ部116と、入力部117と、出力部118と、記憶部119と、通信部120と、を備えている。なお、センサユニット1は、半導体メモリ等よりなるリムーバブルメディアを装着可能な構成としてもよい。
CPU111は、ROM112に記録されているプログラム、または、記憶部119からRAM113にロードされたプログラムに従って各種の処理を実行する。
RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、センサ部116、入力部117、出力部118、記憶部119及び通信部120が接続されている。
センサ部116は、3軸方向の加速度を測定する3軸加速度センサと、3軸方向の角速度を測定する3軸角速度センサと、3軸方向の地磁気を測定する3軸地磁気センサとを備えている。センサ部116は、予め設定されたサンプリング周期(例えば、0.001秒)毎に、3軸加速度センサ、3軸角速度センサ及び3軸地磁気センサによって3軸方向の加速度、角速度及び地磁気を測定する。センサ部116によって測定された加速度及び角速度のデータは、測定時刻のデータと対応付けて、記憶部119に記憶あるいは処理装置3に送信される。
入力部117は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部118は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する。
記憶部119は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部120は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部120は、BLE(登録商標)によって処理装置3と通信したり、Wi−Fiによって撮影装置2と通信したりする。
図4は、撮影装置2のハードウェア構成を示すブロック図である。
撮影装置2は、画像の撮影機能を備え、例えば、デジタルカメラによって構成される。本実施形態において、撮影装置2は、ディスプレイと分離して撮影機能がユニット化された装置として構成される。
図4に示すように、撮影装置2は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、ドライブ221と、を備えている。
これらのうち、撮像部216、通信部220及びドライブ221以外の構成は、図3において対応する各部分と同様である。
撮像部216は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU211等に適宜供給される。
通信部220は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部220は、BLE(登録商標)によって処理装置3と通信したり、Wi−Fiによって撮影装置2及び処理装置3と通信したりする。
ドライブ221には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ221によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
図5は、処理装置3のハードウェア構成を示すブロック図である。
処理装置3は、情報表示機能を備えた情報処理装置であり、例えば、スマートフォンとして構成される。
図5に示すように、処理装置3は、CPU311と、ROM312と、RAM313と、バス314と、入出力インターフェース315と、撮像部316と、センサ部317と、入力部318と、出力部319と、記憶部320と、通信部321と、ドライブ322と、を備えている。なお、ドライブ322には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア331が適宜装着される。
これらのうち、入力部318、出力部319及び通信部321以外の構成は、図3及び図4において対応する各部分と同様である。
入力部318は、各種釦やタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部319は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
通信部321は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。また、通信部321は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部321は、BLE(登録商標)によってセンサユニット1及び撮影装置2と通信したり、Wi−Fiによって撮影装置2と通信したりする。
[機能的構成]
図6は、センサユニット1の機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。
情報検出処理とは、解析システムSが計測対象の動きを解析する際に、計測対象に装着されたセンサユニット1が計測対象の動きをセンシングする一連の処理である。
情報検出処理が実行される場合、図6に示すように、CPU111において、第1通信制御部151と、第2通信制御部152と、キャリブレーション実行部153と、モード設定部154と、同期制御部155と、検出処理部156と、センサ情報送信制御部157とが機能する。
また、記憶部119の一領域には、センサ情報記憶部171が設定される。
第1通信制御部151は、センサユニット1のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部152は、センサユニット1のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。本実施形態においては、キャリブレーション実行部153は、センサユニット1が計測対象者Pの腰に装着され、ゴルフのスイングを行うための位置にアドレスした姿勢を取った状態を基準とし、この状態で取得されたセンサ情報が基準値とされる。
図7Aは、センサユニット1の装着状態を示す模式図、図7Bはセンサユニット1によって検出される情報の例を示す模式図である。
キャリブレーションが行われる場合、図7Aに示すように、例えば、センサユニット1がベルト等によって計測対象者Pの腰に装着され、計測対象者Pがゴルフのスイングを行うための位置で、ボールに向かいアドレスした姿勢で所定時間(例えば2秒)静止する。このとき、図7Bに示すように、センサユニット1は、3軸加速度センサによって検出される重力方向及び3軸地磁気センサによって検出される方位を基準として、センサ情報(身体の前後方向の傾斜角度、左右方向の傾斜角度及び鉛直軸周りの回転角度)を取得し、取得された各センサ情報をアドレス時の基準値とする。そして、以降、計測対象者Pがスイングを行う際に、センサユニット1において検出される各センサ情報が、所定時間(例えば2秒)以上、アドレス時の基準値に対し、各センサ情報について設定された閾値の範囲内となっている場合に、アドレスの状態であると検出される。
なお、図7Bに示す情報の他、センサユニット1は、3軸加速度センサを備えているため、センサユニット1の移動(平行移動等)についても検出可能であり、3軸地磁気センサを備えているため、センサユニット1が向いている方位についても検出可能である。
モード設定部154は、処理装置3からの指示に応じて、動作のモードを複数用意されたモードのいずれかに設定する。本実施形態において、解析システムSでは、計測対象者Pのライブビュー画像と併せて、センサユニット1によって取得したセンサ情報から生成されたアニメーションを表示するリアルタイムモードと、計測対象者Pのゴルフのスイングの動画に、そのスイングにおいてセンサユニット1によって取得したセンサ情報から生成されたアニメーションを合成して表示するワンショットモードとが用意されている。
同期制御部155は、ワンショットモードに設定された後に、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。センサユニット1及び撮影装置2は、例えば、SNTP(Simple Network Time Protocol)によって基準時刻の同期を行うことができる。
検出処理部156は、センサユニット1がリアルタイムモードに設定されている場合及びワンショットモードに設定されている場合に、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する。なお、センサ情報記憶部171に記憶されたセンサ情報は、取得された時刻から所定時間が経過した場合に順次破棄することとしてもよい。ただし、ワンショットモードにおいて、ゴルフのスイングのアドレスからスイング終了までに取得されたセンサ情報は、少なくとも処理装置3への送信が完了した後に破棄される。
また、検出処理部156は、ワンショットモードにおいて取得したセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを検出する。
また、検出処理部156は、ワンショットモードにおいてアドレスのタイミングを検出した場合及びフォローのタイミングを検出した場合、アドレスのタイミングが検出されたことを示す信号(以下、「アドレス検出信号」と称する。)及びフォローのタイミングが検出されたことを示す信号(以下、「フォロー検出信号」と称する。)を、BLEによって処理装置3に逐次送信する。
さらに、検出処理部156は、ゴルフのスイングの開始から終了まで(以下、適宜「ワンショット」と称する。)の範囲を検出する。本実施形態において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出する。そして、検出処理部156は、検出したワンショットの範囲を示す信号(以下、「ワンショット範囲検出信号」と称する。)を、BLEによって処理装置3に送信する。
センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を処理装置3に送信する制御を行う。本実施形態において、検出処理部156では、例えば、1000サンプル/秒程度でセンサ情報を取得することができる。そして、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、リアルタイムモードにおいては低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に送信し、ワンショットモードにおいては高いサンプリングレート(例えば、240サンプル/秒程度)に変換して処理装置3に送信する。なお、ワンショットモードでは、ワンショットの範囲のセンサ情報が処理装置3に送信される。本実施形態において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、ワンショットの範囲のセンサ情報に先行して処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。
また、センサ情報送信制御部157は、ワンショットモードにおいてセンサ情報を処理装置3に送信する場合、検出処理部156によって検出されたアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを、併せて処理装置3に送信する。
なお、本実施形態において、検出処理部156で取得されたセンサ情報は、各種センサの出力信号をそれぞれフィルタリングすることにより、ノイズの影響を抑制した波形に変換され、センサ情報送信制御部157は、処理結果のセンサ情報が表す波形から取得されるセンサ情報を処理装置3に送信する。
これにより、ノイズの影響によってばらつきが大きいセンサ情報よりも信頼度が高い情報を参照して、計測対象者Pの動きを解析することができる。
次に、撮影装置2の機能的構成について説明する。
図8は、撮影装置2の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。
撮影処理とは、解析システムSが計測対象の動きを解析する際に、センサユニット1によるセンサ情報の取得と同期して、計測対象の動き表す動画を撮影する一連の処理である。
撮影処理が実行される場合、図8に示すように、CPU211において、第1通信制御部251と、第2通信制御部252と、撮影制御部253と、同期制御部254と、動画送信制御部255とが機能する。
また、記憶部219の一領域には、動画データ記憶部271が設定される。
第1通信制御部251は、撮影装置2のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部252は、撮影装置2のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。本実施形態において、Wi−Fiによる通信が行われる場合、撮影装置2がアクセスポイント(AP)となり、他の装置がステーション(ST)となる。
撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示された場合に、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する。また、撮影制御部253は、処理装置3から記録用の動画の撮影が指示された場合に、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する。なお、撮影された記録用の動画は、動画データ記憶部271に記憶される。
同期制御部254は、ワンショットモードに設定された後に、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
動画送信制御部255は、撮影制御部253の制御によって撮影されたライブビュー画像または記録用の動画を処理装置3に送信する。具体的には、動画送信制御部255は、リアルタイムモードにおいて、処理装置3からライブビュー画像の撮影指示が行われた場合、撮影されたライブビュー画像を逐次処理装置3に送信する。また、動画送信制御部255は、ワンショットモードにおいて、処理装置3から記録用の動画の撮影指示が行われた場合、処理装置3から通知された記録用の動画の開始から終了までの範囲(即ち、ワンショットの範囲)を切り出して、処理装置3に送信する。
次に、処理装置3の機能的構成について説明する。
図9は、処理装置3の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。
解析結果表示処理とは、撮影装置2によって撮影された動画に対応する時刻にセンサユニット1によって検出されたセンサ情報を解析して、計測対象者Pの身体の3次元的な動きを模したアニメーションを生成し、撮影装置2によって撮影された動画に合成して表示する一連の処理である。
解析結果表示処理が実行される場合、図9に示すように、CPU311において、第1通信制御部351と、第2通信制御部352と、キャリブレーション管理部353と、モード制御部354と、ワンショット撮影管理部355と、センサ情報取得部356と、画像取得部357と、解析処理部358と、画像生成部359と、簡易表示生成部360と、書き出し処理部361とが機能する。
また、記憶部320の一領域には、動画データ記憶部371と、センサ情報記憶部372と、合成画像記憶部373とが設定される。
第1通信制御部351は、処理装置3のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。本実施形態において、BLEによる通信が行われる場合、処理装置3がマスタとなり、他の装置がスレーブとなる。
第2通信制御部352は、のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。本実施形態において、センサユニット1におけるキャリブレーションは、センサユニット1の起動後、リアルタイムモードあるいはワンショットモードに移行する前に、一度実行される。
モード制御部354は、リアルタイムモードに移行するための操作が行われた場合に、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。また、モード制御部354は、ワンショットモードに移行するための操作が行われた場合に、センサユニット1に対し、ワンショットモードへの移行を指示する。
ワンショット撮影管理部355は、リアルタイムモードにおいて、ワンショットの範囲の動画の撮影を管理する。具体的には、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影を指示する。また、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影の終了を指示する。さらに、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信した場合、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。また、ワンショット撮影管理部355は、ワンショットモードにおいて、センサユニット1からセンサ情報の取得が完了した後、撮影装置2に動画の送信を指示する。
センサ情報取得部356は、リアルタイムモードにおいて、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から逐次取得する。また、センサ情報取得部356は、ワンショットモードにおいて、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のワンショットの範囲のセンサ情報を、BLEによってセンサユニット1から取得する。また、本実施形態において、センサ情報取得部356は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報を取得するのに先行して、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から取得する。
画像取得部357は、リアルタイムモードにおいて、撮影装置2から送信されるライブビュー画像を、Wi−Fiによって逐次取得する。また、画像取得部357は、ワンショットモードにおいて、撮影装置2において記録用の動画が撮影され、ワンショットの範囲が切り出された後に、その切り出された動画を、Wi−Fiによってまとめて取得する。
解析処理部358は、センサユニット1から取得した各種センサ情報を解析し、計測対象者Pの身体の3次元的な動きを模した箱型のオブジェクトによって表されるアニメーション(以下、適宜「BOXアニメーション」と称する。)の時間的な変化を表すデータを生成する。本実施形態において、解析処理部358は、リアルタイムモードにおいては、ライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。また、解析処理部358は、ワンショットモードにおいては、記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。
画像生成部359は、リアルタイムモードにおいて取得されるライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて表示する。
図10は、リアルタイムモードにおける表示例を示す模式図である。
図10に示すように、リアルタイムモードにおいて、画像生成部359は、例えば、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する。なお、計測対象者Pの画像の周囲であって、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションAnを表示することとしてもよい。さらに、画像生成部359は、BOXアニメーションAnに対応するセンサ情報の数値を画像内の所定位置(ここでは左下)に表示する。具体的には、図10に示す例では、身体の前後方向の傾斜角度として「前傾:21度」、鉛直軸周りの回転角度として「回転:15度」、左右方向の傾斜角度として「水平:7度」が表示されている。
また、画像生成部359は、ワンショットモードにおいて取得される記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。以下、このように画像生成部359によって表示される画像を、適宜「解析結果動画」と称する。
図11は、ワンショットモードにおける表示例を示す模式図である。
図11に示すように、ワンショットモードにおいて、画像生成部359は、例えば、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することにより、解析結果動画を表示する。また、本実施形態において、BOXアニメーションAnには、センサユニット1の軸(ここでは上下方向及び左右方向)を示す直線が併せて表示される。センサユニット1の軸は、センサユニット1の動きと共に移動する。また、本実施形態において、ワンショットモードにおける表示例では、表示画面に固定された軸(即ち、絶対座標を表す軸)が併せて表示されている。
なお、BOXアニメーションの時間的な変化は、撮影された計測対象者Pの動画のタイミングと対応付けて表示される。
ワンショットモードにおけるセンサ情報及び計測対象者Pの動画をこのように表示することで、BOXアニメーションによって、計測対象者Pの身体の動きの傾向をわかり易く示すことができると共に、BOXアニメーションには表れ難い身体の状態をセンサ情報によって明確に示すことが可能となる。また、センサユニット1の軸と表示画面に固定された軸とが併せて表示されることで、計測対象者Pの平行移動等も表示することができ、計測対象者Pの身体の動きがより把握し易いものとなる。
簡易表示生成部360は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報に先行して取得した計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。なお、以下、簡易表示生成部360によって表示される一連の画像を、適宜「簡易表示画像」と称する。
ここで、ワンショットモードにおいて、センサユニット1がセンサ情報を取得すると共に、撮影装置2が動画の撮影を行った場合、処理装置3では、初めに、センサ情報取得部356によってセンサユニット1からセンサ情報を取得する。次いで、画像取得部357によって、撮影装置2から記録用の動画のデータを取得する。このとき、画像取得部357は撮影装置2から記録用の動画のデータを取得するためには、データ量が比較的大きいことから、一定の時間を要することとなる。そこで、本実施形態においては、画像取得部357が撮影装置2から記録用の動画のデータの取得を開始した後、簡易表示生成部360が簡易表示画像の表示を行う。そして、簡易表示生成部360は、画像取得部357が撮影装置2から記録用の動画のデータの取得を完了した後、画像生成部359が記録用の動画にBOXアニメーションを合成して表示するまでの間、簡易表示画像の表示を継続する。
図12は、ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。
図12に示すように、簡易表示生成部360は、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各特徴的なポイントを示す予め用意された画像に対し、計測対象者Pのスイングにおいて、対応する特徴的なポイントのセンサ情報の数値を併せて表示する。
なお、簡易表示生成部360が簡易表示画像を表示する場合、各特徴的なポイントの簡易表示画像を所定時間ずつ順次表示し、フォローの簡易表示画像まで表示された後は、トップの簡易表示画像に戻って、循環的に各簡易表示画像を表示することが可能である。
簡易表示画像を表示することにより、一定の意義を有する計測対象者Pの動きに関する情報を先行して提示することができる。
また、図12においてはアドレス時点での計測対象者Pの身体の前後方向及び左右方向の傾斜角度を0として表示を行ってもよく、アドレス時点からの計測対象者の身体の回転角度及び各種傾斜角度の変化量を表示させるように構成してもよい。
書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。なお、書き出し処理部361は、解析結果動画の保存を指示する操作が行われた場合に、解析結果動画の書き出しを実行する。
[動作]
次に、解析システムSの動作を説明する。
図13は、センサユニット1が実行する情報検出処理の流れを説明するフローチャートである。
情報検出処理は、センサユニット1の起動と共に開始される。
ステップS1において、第1通信制御部151は、BLEによってスレーブとして処理装置3と接続する。
ステップS2において、キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。
ステップS3において、キャリブレーション実行部153は、キャリブレーションが完了したことをBLEによって処理装置3に通知する。
ステップS4において、モード設定部154は、処理装置3からの指示に応じて、リアルタイムモードに設定する。
ステップS5において、検出処理部156は、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する処理を開始する。
ステップS6において、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に逐次送信する。
ステップS7において、モード設定部154は、処理装置3からの指示に応じて、ワンショットモードに設定する。
ステップS8において、第2通信制御部152は、Wi−Fiによってステーションとして撮影装置2と接続する。
ステップS9において、同期制御部155は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
ステップS10において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレスのポイントのタイミングを検出して、アドレス検出信号をBLEによって処理装置3に送信する。
ステップS11において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるフォローのポイントのタイミングを検出して、フォロー検出信号をBLEによって処理装置3に送信する。
ステップS12において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出し、ワンショット範囲検出信号を処理装置3に送信する。
ステップS13において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるトップ、ダウンスイング、インパクトの各ポイントのタイミングを逐次検出する。
ステップS14において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによって処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。なお、ステップS13及びステップS14の処理をステップS12よりも先に実行することとしてもよい。
ステップS15において、センサ情報送信制御部157は、ワンショットの範囲のセンサ情報を、高いサンプリングレート(例えば、240サンプル/秒程度)に変換してBLEによって処理装置3に送信する。なお、ワンショットの範囲のセンサ情報を処理装置3に送信する場合、ステップS14において既に送信した特徴的なポイントのセンサ情報を除いて送信することとしてもよい。この場合、同一のセンサ情報が重複して送信されることを抑制できるため、より効率的にセンサ情報を送信することができる。
ステップS15の後、情報検出処理は終了する。
次に、撮影装置2が実行する撮影処理について説明する。
図14は、撮影装置2が実行する撮影処理の流れを説明するフローチャートである。
撮影処理は、入力部217を介して撮影処理の開始を指示する操作が行われることにより開始される。
ステップS21において、第1通信制御部251は、BLEによってスレーブとして処理装置3と接続する。
ステップS22において、第2通信制御部252は、Wi−Fiによってアクセスポイントとして処理装置3と接続する。
ステップS23において、撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示されることに応じて、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する処理を開始する。
ステップS24において、動画送信制御部255は、撮影されたライブビュー画像を処理装置3に逐次送信する。
ステップS25において、第2通信制御部252は、Wi−Fiによってアクセスポイントとしてセンサユニット1と接続する。
ステップS26において、同期制御部254は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
ステップS27において、撮影制御部253は、処理装置3から記録用の動画の撮影が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する処理を開始する。
ステップS28において、撮影制御部253は、処理装置3から記録用の動画の撮影の終了が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影を終了する。
ステップS29において、動画送信制御部256は、処理装置3からワンショットの範囲が通知されることに応じて、記録用の動画のワンショットの範囲を切り出す。
ステップS30において、動画送信制御部256は、処理装置3から動画の送信が指示されることに応じて、ワンショットの範囲が切り出された動画を処理装置3に送信する処理を開始する。
ステップS31において、動画送信制御部256は、ステップS30において開始した動画の送信を完了する。
ステップS31の後、撮影処理は終了する。
次に、処理装置3が実行する解析結果表示処理について説明する。
図15は、処理装置3が実行する解析結果表示処理の流れを説明するフローチャートである。
解析結果表示処理は、入力部318を介して解析結果表示処理の開始を指示する操作が行われることにより開始される。
ステップS41において、第1通信制御部351は、BLEによってマスタとしてセンサユニット1及び撮影装置2と接続する。
ステップS42において、第2通信制御部352は、Wi−Fiによってステーションとして撮影装置2と接続する。
ステップS43において、キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。
ステップS44において、キャリブレーション管理部353は、センサユニット1からキャリブレーションの実行が完了したことの通知をBLEによって受信する。
ステップS45において、モード制御部354は、リアルタイムモードに移行するための操作(リモート撮影の指示)の入力を受け付ける。
ステップS46において、モード制御部354は、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。
ステップS47において、センサ情報取得部356は、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。また、画像取得部357は、撮影装置2から送信されるライブビュー画像を、Wi−Fiによって逐次取得する。
ステップS48において、解析処理部358は、センサユニット1から取得したライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを逐次生成すると共に、画像生成部359は、取得されたライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて逐次表示する。
ステップS49において、モード制御部354は、ワンショットモードに移行するための操作の入力を受け付ける。
ステップS50において、モード制御部354は、BLEによって、センサユニット1に対し、ワンショットモードへの移行を指示する。このとき、モード制御部354は、センサユニット1に撮影装置2のSSID(Service Set IDentifier)を併せて送信する。
ステップS51において、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影を指示する。
ステップS52において、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影の終了を指示する
ステップS53において、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信することに応じて、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。
ステップS54において、センサ情報取得部356は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から受信する。
ステップS55において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。これにより、簡易表示画像が表示される。
ステップS56において、センサ情報取得部356は、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。
ステップS57において、ワンショット撮影管理部355は、撮影装置2から動画を受信する。
ステップS58において、ワンショット撮影管理部355は、撮影装置2から動画の受信が完了したか否かの判定を行う。
撮影装置2から動画の受信が完了していない場合、ステップS58においてNOと判定されて、処理はステップS57に移行する。
一方、撮影装置2から動画の受信が完了した場合、ステップS58においてYESと判定されて、処理はステップS59に移行する。
ステップS59において、解析処理部358は、センサユニット1から取得した記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。
ステップS60において、画像生成部359は、取得された記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。これにより、解析結果動画が表示される。
ステップS61において、書き出し処理部361は、解析結果動画の保存を指示する操作が行われたか否かの判定を行う。
解析結果動画の保存を指示する操作が行われていない場合、ステップS61においてNOと判定されて、解析結果表示処理は終了となる。
一方、解析結果動画の保存を指示する操作が行われた場合、ステップS61においてYESと判定されて、処理はステップS62に移行する。
ステップS62において、書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。
ステップS62の後、解析結果表示処理は終了となる。
このような処理により、解析システムSにおいては、計測対象者Pの身体の動きを計測して得られたセンサ情報と、計測対象者Pの動きを撮影した動画とを時刻を同期させて取得することができる。そして、センサ情報に基づいて、計測対象者Pの身体の3次元的な動きを模したBOXアニメーションを生成し、撮影装置2によって撮影された動画に合成することにより、解析結果動画を表示することができる。
解析結果動画では、計測対象者P自身の動画と、計測対象者Pの3次元的な動きをわかり易く表すBOXアニメーションと、計測対象者Pの身体の動きを計測して得られたセンサ情報とが時刻を同期させて表示される。
そのため、計測対象者Pの動きを撮影した動画のみからでは把握し難い情報を、BOXアニメーションによって直感的かつ容易に把握可能になると共に、時刻を同期させて表示されるセンサ情報によって、より詳細な動きの特徴を明確に把握することが可能となる。また、BOXアニメーションの時間的な変化はセンサ情報と対応付けられているため、BOXアニメーションを参照することによっても、正確な解析結果を把握することが可能となる。
また、解析システムSでは、ワンショットモードにおいて、解析結果動画が表示されることに先行して、計測対象者Pの動きに関する所定の情報を表示することにより、無用な待機時間が生じることを抑制している。
図16は、ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。
図16に示すように、ワンショットモードにおいて、処理装置3は、解析結果動画を表示するためにセンサ情報及び動画を取得する場合、まず、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を取得する(図15のステップS54)そして、計測対象者Pの動きに関する情報を簡易表示画像として表示しながら(図15のステップS55)、ワンショットの範囲のセンサ情報を取得し(ステップS56)、続いて、動画のデータを受信する(図15のステップS57)。そして、動画データの受信が完了し(図5のステップS58:YES)、BOXアニメーションが生成され(図5のステップS59)、解析結果動画の表示が可能となるまでの間(図5のステップS60)、簡易表示画像を継続して表示する。
そのため、処理装置3が動画のデータを取得する時間を単に待つよりも、一定の意義を有する計測対象者Pの動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
また、計測対象者Pの動きに関する情報を先行して提示することで、解析結果動画の生成に必要な最低限の時間に対して、提示した情報がユーザに閲覧される時間帯を付加的に創出することができる。そのため、解析結果動画の生成に費やす時間をより長く確保することが可能となり、より効果的な解析結果動画を提示することも可能となる。
また、解析システムSにおいては、ワンショットモードにおいて、計測対象者Pのアドレスが自動的に検出され、記録用の動画を撮影することができる。
したがって、計測対象者Pは、アドレスしてスイングする、という動作を繰り返すことにより、記録用の動画を簡単な動作によって逐次撮影することができる。
[変形例1]
上述の実施形態において、BOXアニメーションの表示形態は、計測対象者Pの身体の3次元的な動きを模したものであれば、種々の変形を行うことが可能である。
図17は、BOXアニメーションAnの表示形態例を示す模式図である。
図17に示す例では、BOXアニメーションAnの視点として、正面視、上面視、左側面視等、複数の視点を選択可能になっており、図17に示す例では、選択可能な視点のBOXアニメーションAnが画面上部に小サイズで表示されている。
また、BOXアニメーションAnの表示色は、計測対象者Pの身体の3次元的な動きがよりわかり易い色に選択することができる。
図17に示す例では、各視点のBOXアニメーションAnの表示色がそれぞれ異なる色に設定されている。
なお、BOXアニメーションを計測対象者Pの動画に重畳表示する際に、背景の色を検出し、背景の色と同化し難い所定色(例えば、補色系の色等)を選択することとしてもよい。
[変形例2]
上述の実施形態において、リアルタイムモードにおける表示例として、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する場合について説明した。これに対し、リアルタイムモードにおいても、図11に示すワンショットモードの表示例のように、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することとしてもよい。
また、反対に、ワンショットモードにおいても、図10に示すリアルタイムモードの表示例のように、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示してもよい。
[変形例3]
上述の実施形態において、1つのセンサユニット1を計測対象者Pの腰等に装着してセンサ情報を取得するものとして説明したが、これに限られない。即ち、複数のセンサユニット1を計測対象者Pの肩と腰等、複数の身体部位に装着し、これらの身体部位それぞれの動きを表すBOXアニメーションを表示することとしてもよい。
この場合、計測対象者Pの身体部位毎の動きの相違(例えば、肩と腰の捩れ等)も表示することができ、より効果的に計測結果を提示することが可能となる。
また、センサユニット1を装着する身体部位は、腰の他、肩、首、腕、大腿部、頭部等とすることができる。
[変形例4]
上述の実施形態において、ワンショットモードにおける表示例では、計測対象者Pの動きの連続的な動画が表示される。これに対し、計測対象者Pの動きの間欠的な動画を表示することが可能である。
この場合、解析結果動画を生成するための処理負荷が低下し、より早期に解析結果動画を提示することが可能となる。
[変形例5]
上述の実施形態において、BOXアニメーションを計測対象者Pの動画像に透過させて重畳させる場合、その透過度は、目的に応じて種々異なる値を設定することができる。例えば、計測対象者Pが行うべき動きのガイドとして、人型のオブジェクトを表示する場合、計測対象者Pの身体と人型のオブジェクトとの重なりが大きいときは、BOXアニメーションの透過度を上げ(即ち、薄く表示し)、計測対象者Pの身体と人型のオブジェクトとの重なりが小さいときは、BOXアニメーションの透過度を下げる(即ち、濃く表示する)ことが可能である。
これにより、計測対象者Pの動きのガイドを表示する際に、BOXアニメーションをより効果的な形態で表示することができる。
[変形例6]
上述の実施形態において、撮影装置2によってセンサユニット1を装着した計測対象者Pを撮影することにより、センサユニット1の装着位置を自動的に判別することができる。
この場合、リアルタイムモードにおける表示例等で、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションを表示する際に、BOXアニメーションの表示位置を自動的に決定することが可能となる。
以上のように構成される解析システムSは、センサユニット1と、撮影装置2と、処理装置3とを備える。センサユニット1は、対象者に装着され、対象者の動きをセンサによって計測する検出処理部156を備える。撮影装置2は、対象者の画像を撮影する撮影制御部253を備える。処理装置3は、画像取得部357と、センサ情報取得部356と、解析処理部358と、画像生成部359と、簡易表示生成部360とを備える。
画像取得部357は、対象者が撮影された画像を取得する。
センサ情報取得部356は、対象者の動きをセンサによって計測した計測結果を取得する。
画像生成部359は、画像取得部357によって取得された画像を出力部319に表示させる。
簡易表示生成部360は、画像生成部359による表示が行われることに先行して、センサ情報取得部356によって取得された計測結果に基づいて、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像生成部359によって解析結果が表示されるまでの時間を単に待つよりも、一定の意義を有する対象者の動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
したがって、本発明によれば、対象者の動きをユーザがより効率的に把握可能な表示を行うことができる。
画像生成部359は、画像取得部357によって取得された画像と、計測結果とを共に出力部319に表示させる。
したがって、対象者の動きを表す動画と、その動画における動きを行っている際のセンサによる計測結果とを併せて表示することができるため、より効果的な形態で情報を表示することができる。
センサ情報取得部356による計測結果得処理は、画像取得部357による画像の取得処理よりも処理時間が短い。
したがって、より早期に取得可能な計測結果を用いて、取得処理に長い時間を要する画像が取得されるまでの間に、有用な情報を表示することが可能となる。
センサ情報取得部356は、対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を計測結果として取得する。
これにより、より正確な計測結果を取得することができる。
画像取得部357は、対象者を撮影する撮影装置によって撮影された画像を取得する。
これにより、より適切な対象者の画像を撮影することができる。
画像生成部359は、対象者の画像に指標を重ねて表示する。
これにより、対象者の動きと指標の変化とを容易に把握することが可能となる。
センサ情報取得部356は、画像取得部357が画像を取得することに先立って計測結果を取得する。
簡易表示生成部360は、画像取得部357が画像を取得している間に、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像取得部357によって画像が取得されている間の時間を有効に活用することができる。
簡易表示生成部360は、センサ情報取得部356によって取得された計測結果において、特徴的なポイントの計測結果と、当該特徴的なポイントを表す画像とを出力部319に表示させる。
これにより、対象者の動きの特徴を早期に把握することが可能となる。
簡易表示生成部360は、センサ情報取得部356によって取得された計測結果において、時系列における複数の特徴的なポイントについて、特徴的なポイントの計測結果及び特徴的なポイントを表す画像を順に出力部319に表示させる。
これにより、対象者の動き全体の概要を早期に把握することが可能となる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述の実施形態において、処理装置3が簡易表示画像を表示する場合、撮影装置2からの動画の取得及び解析結果動画の生成全体に要する時間を推測し、推測した時間を簡易表示画像の数で分割した時間ずつ、簡易表示画像を順に表示してもよい。これにより、簡易表示画像の表示内容と解析結果動画の表示開始タイミングとの整合を取りつつ、よりわかり易い形態で解析結果を表示することができる。
また、上述の実施形態において、解析システムSをセンサユニット1、撮影装置2及び処理装置3の3つの装置によって構成するものとしたが、これに限られない。例えば、センサユニット1と処理装置3との機能を兼ね備えたスマートフォン等によって、センサユニット1と処理装置3とを一体化した装置として解析システムSを構成してもよい。
また、上述の実施形態において、BOXアニメーションの時間的変化を表示する場合、センサユニット1によって取得されたセンサ情報を基に、加速度の変化等、動きの特徴を色分けあるいは指標を表示する等の表示形態により、識別して表示することとしてもよい。例えば、基準よりも大きい加速度で身体が動いている場合、計測対象者Pの身体を赤色に着色したりすることが可能である。
上述の実施形態において、リアルタイムモードにおける表示例等のように、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションを表示する場合、計測対象者Pにおいてセンサユニット1が装着された身体の位置を引き出し線やマーカーで識別して示すこととしてもよい。また、計測対象者Pにおいてセンサユニット1が装着された身体の位置に、BOXアニメーションを重ねて表示することとしてもよい。
上述の実施形態において、計測対象者Pがスイングを行ったか否かについて、センサ情報により詳細な条件を設定して判定することができる。例えば、鉛直軸周りの回転角度が第1の角度以上、テイクバック方向に回転した場合にトップと判定し、トップから鉛直軸周りに第1の角速度以上で回転した場合にダウンスイングと判定し、鉛直軸周りの回転角度が第2の角度以上、フォロー方向に回転した場合にフォローと判定し、これら全ての条件を充足した場合に、スイングが行われたものと判定することができる。なお、これらの判定条件が充足される時間にもさらに条件を設定してもよい。例えば、各条件が2秒以内に順次充足されること等を条件に設定することができる。
上述の実施形態において、センサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する場合、時系列のデータを時間順に解析して特徴的なポイントを判別することや、特徴的なポイントとして明らかに判別可能なタイミングから時系列を遡って解析して、他の特徴的なポイントを判別することが可能である。
これにより、ゴルフのスイングにおける所定の特徴的なポイントのタイミングをより確実に検出することができる。
上述の実施形態において、簡易表示生成部360が簡易表示画像を表示する場合、解析処理部358によるBOXアニメーションのデータの生成及び画像生成部359による解析結果動画の表示に関する処理をキャンセルさせるキャンセルボタンを表示することとしてもよい。
これにより、簡易表示画像を確認することによって、解析結果動画の生成が不要であると判断された場合に、無用な処理が行われることを抑制することができる。
上述の実施形態において、ワンショットモードで取得したワンショットの範囲のセンサ情報をセンサユニット1から処理装置3に送信する場合、図13のステップS14において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を先行して送信することなく、図13のステップS15において、ワンショットの範囲のセンサ情報全体を処理装置3に送信することとしてもよい。この場合、センサ情報の送信に要する時間を全体として短縮することができる。
上述の実施形態においては、検出処理部156は、ワンショットモードにおいて取得されたセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、波形の変化量が少ない状態から波形が変化し始めたタイミングをアドレスのタイミングとして検出してもよく、一度スイングの範囲を検出し、ダウンスイングのタイミングを検出した後に、該ダウンスイングのタイミングから所定時間遡った時点をアドレスの時点として再設定して、ワンショットの範囲を決めるように構成してもよい。
上述の実施形態において、ゴルフのスイングを行う計測対象者Pにセンサユニット1を装着し、ゴルフのスイングの解析に解析システムSを用いる場合について説明したが、これに限られない。即ち、本発明に係る解析システムSは、野球、テニス、陸上競技等、被写体となるプレーヤーを画角の固定的な位置に撮影可能な各種スポーツ等に用いることができる。例えば、野球の打席でスイングする打者、マウンドで投球するピッチャー、テニスのサーバー、並走するカメラで撮影される短距離走者等を対象として、本発明に係る解析システムSを用いることができる。
また、上述の実施形態では、本発明が適用される処理装置3は、スマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6、8、9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が解析システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6、8、9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4、5のリムーバブルメディア231、331により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア231、331は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図3〜5のROM112、212、312や、図3〜5の記憶部119、219、320に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記第1表示制御手段は、前記画像取得手段によって取得された前記画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする付記1に記載の画像処理装置。
[付記3]
前記計測結果取得手段による計測結果得処理は、前記画像取得手段による前記画像の取得処理よりも処理時間が短いことを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記計測結果取得手段は、前記画像取得手段が前記画像を取得することに先立って前記計測結果を取得し、
前記第2表示制御手段は、前記画像取得手段が前記画像を取得している間に、前記対象者の動きに関する情報を前記表示手段に表示させることを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントの前記計測結果と、当該特徴的なポイントを表す画像とを前記表示手段に表示させることを特徴とする付記1から6のいずれか1つに記載の画像処理装置。
[付記8]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントについて、前記特徴的なポイントの前記計測結果及び前記特徴的なポイントを表す画像を順に前記表示手段に表示させることを特徴とする付記7に記載の画像処理装置。
[付記9]
対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。
[付記10]
画像処理装置が実行する画像処理方法であって、
対象者が撮影された画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記画像取得ステップによって取得された前記画像を表示手段に表示させる第1表示制御ステップと、
前記第1表示制御ステップによる表示が行われることに先行して、前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御ステップと、
を含むことを特徴とする画像処理方法。
[付記11]
画像処理装置を制御するコンピュータに、
対象者が撮影された画像を取得する画像取得機能と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
前記画像取得機能によって取得された前記画像を表示手段に表示させる第1表示制御機能と、
前記第1表示制御機能による表示が行われることに先行して、前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御機能と、
を実現させることを特徴とするプログラム。
S 解析システム,1・・・センサユニット,2・・・撮影装置,3・・・処理装置,111、211、311・・・CPU,112、212、312・・・ROM,113、213、313・・・RAM,114、214、314・・・バス,115、215、315・・・入出力インターフェース,116、317・・・センサ部,117、217、318・・・入力部,118、218、319・・・出力部,119、219、320・・・記憶部,120、220、321・・・通信部,121、322・・・ドライブ,216、316・・・撮像部,231、331・・・リムーバブルメディア,151、251、351・・・第1通信制御部,152、252、352・・・第2通信制御部,153・・・キャリブレーション実行部,154・・・モード設定部,155、254・・・同期制御部,156・・・検出処理部,171、372・・・センサ情報記憶部,253・・・撮影制御部,255・・・動画送信制御部,271、371・・・動画データ記憶部,353・・・キャリブレーション管理部,354・・・モード制御部,355・・・ワンショット撮影管理部,356・・・センサ情報取得部,357・・・画像取得部,358・・・解析処理部,359・・・画像生成部,360・・・簡易表示生成部,361・・・書き出し処理部,373・・・合成画像記憶部

Claims (11)

  1. 対象者が撮影された画像を取得する画像取得手段と、
    前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
    前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
    前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記第1表示制御手段は、前記画像取得手段によって取得された前記画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。
  3. 前記計測結果取得手段による計測結果得処理は、前記画像取得手段による前記画像の取得処理よりも処理時間が短いことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記計測結果取得手段は、前記画像取得手段が前記画像を取得することに先立って前記計測結果を取得し、
    前記第2表示制御手段は、前記画像取得手段が前記画像を取得している間に、前記対象者の動きに関する情報を前記表示手段に表示させることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントの前記計測結果と、当該特徴的なポイントを表す画像とを前記表示手段に表示させることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントについて、前記特徴的なポイントの前記計測結果及び前記特徴的なポイントを表す画像を順に前記表示手段に表示させることを特徴とする請求項7に記載の画像処理装置。
  9. 対象者の画像を撮影する撮影手段を備える撮影装置と、
    前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
    前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
    前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
    前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
    前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、を備える画像処理装置と、
    を含むことを特徴とする解析システム。
  10. 画像処理装置が実行する画像処理方法であって、
    対象者が撮影された画像を取得する画像取得ステップと、
    前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
    前記画像取得ステップによって取得された前記画像を表示手段に表示させる第1表示制御ステップと、
    前記第1表示制御ステップによる表示が行われることに先行して、前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御ステップと、
    を含むことを特徴とする画像処理方法。
  11. 画像処理装置を制御するコンピュータに、
    対象者が撮影された画像を取得する画像取得機能と、
    前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
    前記画像取得機能によって取得された前記画像を表示手段に表示させる第1表示制御機能と、
    前記第1表示制御機能による表示が行われることに先行して、前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御機能と、
    を実現させることを特徴とするプログラム。
JP2016226233A 2016-11-21 2016-11-21 画像処理装置、解析システム、画像処理方法及びプログラム Active JP6787072B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016226233A JP6787072B2 (ja) 2016-11-21 2016-11-21 画像処理装置、解析システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016226233A JP6787072B2 (ja) 2016-11-21 2016-11-21 画像処理装置、解析システム、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018085574A true JP2018085574A (ja) 2018-05-31
JP2018085574A5 JP2018085574A5 (ja) 2019-11-21
JP6787072B2 JP6787072B2 (ja) 2020-11-18

Family

ID=62237707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016226233A Active JP6787072B2 (ja) 2016-11-21 2016-11-21 画像処理装置、解析システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6787072B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029484A (ja) * 2019-08-21 2021-03-01 日本電気株式会社 判定検証システム、判定検証方法およびコンピュータプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084375A (ja) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
JP2009050721A (ja) * 2008-11-25 2009-03-12 Hitachi Metals Ltd スイング動作評価方法、スイング動作評価装置、スイング動作評価システム及びスイング動作評価プログラム
US20100306712A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Gesture Coach
JP2012120579A (ja) * 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
JP2015186531A (ja) * 2014-03-26 2015-10-29 国立大学法人 東京大学 動作情報処理装置、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084375A (ja) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
JP2009050721A (ja) * 2008-11-25 2009-03-12 Hitachi Metals Ltd スイング動作評価方法、スイング動作評価装置、スイング動作評価システム及びスイング動作評価プログラム
US20100306712A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Gesture Coach
JP2012120579A (ja) * 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
JP2015186531A (ja) * 2014-03-26 2015-10-29 国立大学法人 東京大学 動作情報処理装置、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029484A (ja) * 2019-08-21 2021-03-01 日本電気株式会社 判定検証システム、判定検証方法およびコンピュータプログラム

Also Published As

Publication number Publication date
JP6787072B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
US11250247B2 (en) Information processing device, information processing system, and program
CN108079547B (zh) 图像处理装置、分析系统、图像处理方法以及记录介质
JP6213146B2 (ja) 情報処理装置、記録媒体、および情報処理方法
JP6354461B2 (ja) フィードバック提供方法、システム、および解析装置
JP5920264B2 (ja) 画像特定装置、画像特定システム、画像特定方法及びプログラム
JP6447515B2 (ja) 情報処理装置、記録媒体および情報処理方法
JP2014061119A (ja) 画像特定システム、画像特定方法、画像特定装置及びプログラム
US11305171B2 (en) Motion evaluation device using angular speed measured by a wearable sensor
JP2021102075A (ja) 出力装置、出力方法、及び、プログラム
JP6787072B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP7188422B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP2018099416A (ja) 運動解析装置、運動解析方法及びプログラム
JP7069662B2 (ja) 電子機器、評価方法及びプログラム
JP2016123637A (ja) 画像処理装置、画像処理方法及びプログラム
JP7069953B2 (ja) 電子機器、動作データの部分特定方法、及び、プログラム
JP2014064125A (ja) 画像生成装置、画像生成方法及びプログラム
JP6981518B2 (ja) 電子機器、評価方法及びプログラム
TWI618410B (zh) 可影像訊息直播運動系統
JP2016126509A (ja) 報知制御装置、報知制御方法及びプログラム
JP2019162328A (ja) ゴルフクラブ判別装置、ゴルフクラブ判別方法、及びゴルフクラブ判別プログラム
JP2016066994A (ja) 撮像装置、情報送信装置、撮像制御方法、情報送信方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R150 Certificate of patent or registration of utility model

Ref document number: 6787072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150