JP2018085574A - 画像処理装置、解析システム、画像処理方法及びプログラム - Google Patents
画像処理装置、解析システム、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2018085574A JP2018085574A JP2016226233A JP2016226233A JP2018085574A JP 2018085574 A JP2018085574 A JP 2018085574A JP 2016226233 A JP2016226233 A JP 2016226233A JP 2016226233 A JP2016226233 A JP 2016226233A JP 2018085574 A JP2018085574 A JP 2018085574A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- unit
- measurement result
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
例えば、特許文献1では、腰部に取り付けられた加速度センサにより得られた計測データを対応する動画と共に再生することでスイング動作評価を行うことが提案されている。
ところが、特許文献1に記載された技術は、実験室のような大掛かりな設備が必要であり、一般ユーザが気軽に活用することは困難である。
一方、近年、コンシューマー用の高速デジタルカメラ、スマートフォン、モーションセンサといった端末が容易に入手可能となっており、一般のユーザがこれらの端末を練習場に持ち込み、各端末の機能を組み合わせて用いることにより、気軽にゴルフスイングを解析することも可能になっている。
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする。
図1は、本発明の一実施形態に係る解析システムSの構成を示すシステム構成図である。また、図2は、解析システムSの使用形態例を示す模式図である。
図1及び図2に示すように、解析システムSは、センサユニット1と、撮影装置2と、処理装置3と、を含んで構成される。また、処理装置3とセンサユニット1及び撮影装置2とはBluetooth low energy/Bluetooth LE(商標)(以下、「BLE」と称する。)によって通信可能に構成され、撮影装置2とセンサユニット1及び処理装置3とは、Wi−Fi(Wireless Fidelity)によって通信可能に構成される。
センサユニット1は、計測対象に装着され、計測対象の動きをセンシングしてセンサ情報を処理装置3に送信する。本実施形態においては、ゴルフのスイングの動作をする者(以下、「計測対象者P」と称する。)の腰等にセンサユニット1を装着し、当該動作をセンシングする。
図3は、センサユニット1のハードウェアの構成を示すブロック図である。
センサユニット1は、計測対象の動きを検出する各種センサを備えた装置として構成される。
図3に示すように、センサユニット1は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、センサ部116と、入力部117と、出力部118と、記憶部119と、通信部120と、を備えている。なお、センサユニット1は、半導体メモリ等よりなるリムーバブルメディアを装着可能な構成としてもよい。
出力部118は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する。
記憶部119は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部120は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部120は、BLE(登録商標)によって処理装置3と通信したり、Wi−Fiによって撮影装置2と通信したりする。
撮影装置2は、画像の撮影機能を備え、例えば、デジタルカメラによって構成される。本実施形態において、撮影装置2は、ディスプレイと分離して撮影機能がユニット化された装置として構成される。
図4に示すように、撮影装置2は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、ドライブ221と、を備えている。
これらのうち、撮像部216、通信部220及びドライブ221以外の構成は、図3において対応する各部分と同様である。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU211等に適宜供給される。
ドライブ221には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ221によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
処理装置3は、情報表示機能を備えた情報処理装置であり、例えば、スマートフォンとして構成される。
これらのうち、入力部318、出力部319及び通信部321以外の構成は、図3及び図4において対応する各部分と同様である。
出力部319は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
通信部321は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。また、通信部321は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部321は、BLE(登録商標)によってセンサユニット1及び撮影装置2と通信したり、Wi−Fiによって撮影装置2と通信したりする。
図6は、センサユニット1の機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。
情報検出処理とは、解析システムSが計測対象の動きを解析する際に、計測対象に装着されたセンサユニット1が計測対象の動きをセンシングする一連の処理である。
情報検出処理が実行される場合、図6に示すように、CPU111において、第1通信制御部151と、第2通信制御部152と、キャリブレーション実行部153と、モード設定部154と、同期制御部155と、検出処理部156と、センサ情報送信制御部157とが機能する。
また、記憶部119の一領域には、センサ情報記憶部171が設定される。
第2通信制御部152は、センサユニット1のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
キャリブレーションが行われる場合、図7Aに示すように、例えば、センサユニット1がベルト等によって計測対象者Pの腰に装着され、計測対象者Pがゴルフのスイングを行うための位置で、ボールに向かいアドレスした姿勢で所定時間(例えば2秒)静止する。このとき、図7Bに示すように、センサユニット1は、3軸加速度センサによって検出される重力方向及び3軸地磁気センサによって検出される方位を基準として、センサ情報(身体の前後方向の傾斜角度、左右方向の傾斜角度及び鉛直軸周りの回転角度)を取得し、取得された各センサ情報をアドレス時の基準値とする。そして、以降、計測対象者Pがスイングを行う際に、センサユニット1において検出される各センサ情報が、所定時間(例えば2秒)以上、アドレス時の基準値に対し、各センサ情報について設定された閾値の範囲内となっている場合に、アドレスの状態であると検出される。
なお、図7Bに示す情報の他、センサユニット1は、3軸加速度センサを備えているため、センサユニット1の移動(平行移動等)についても検出可能であり、3軸地磁気センサを備えているため、センサユニット1が向いている方位についても検出可能である。
また、検出処理部156は、ワンショットモードにおいて取得したセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを検出する。
なお、本実施形態において、検出処理部156で取得されたセンサ情報は、各種センサの出力信号をそれぞれフィルタリングすることにより、ノイズの影響を抑制した波形に変換され、センサ情報送信制御部157は、処理結果のセンサ情報が表す波形から取得されるセンサ情報を処理装置3に送信する。
これにより、ノイズの影響によってばらつきが大きいセンサ情報よりも信頼度が高い情報を参照して、計測対象者Pの動きを解析することができる。
図8は、撮影装置2の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。
撮影処理とは、解析システムSが計測対象の動きを解析する際に、センサユニット1によるセンサ情報の取得と同期して、計測対象の動き表す動画を撮影する一連の処理である。
撮影処理が実行される場合、図8に示すように、CPU211において、第1通信制御部251と、第2通信制御部252と、撮影制御部253と、同期制御部254と、動画送信制御部255とが機能する。
また、記憶部219の一領域には、動画データ記憶部271が設定される。
第2通信制御部252は、撮影装置2のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。本実施形態において、Wi−Fiによる通信が行われる場合、撮影装置2がアクセスポイント(AP)となり、他の装置がステーション(ST)となる。
動画送信制御部255は、撮影制御部253の制御によって撮影されたライブビュー画像または記録用の動画を処理装置3に送信する。具体的には、動画送信制御部255は、リアルタイムモードにおいて、処理装置3からライブビュー画像の撮影指示が行われた場合、撮影されたライブビュー画像を逐次処理装置3に送信する。また、動画送信制御部255は、ワンショットモードにおいて、処理装置3から記録用の動画の撮影指示が行われた場合、処理装置3から通知された記録用の動画の開始から終了までの範囲(即ち、ワンショットの範囲)を切り出して、処理装置3に送信する。
図9は、処理装置3の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。
解析結果表示処理とは、撮影装置2によって撮影された動画に対応する時刻にセンサユニット1によって検出されたセンサ情報を解析して、計測対象者Pの身体の3次元的な動きを模したアニメーションを生成し、撮影装置2によって撮影された動画に合成して表示する一連の処理である。
解析結果表示処理が実行される場合、図9に示すように、CPU311において、第1通信制御部351と、第2通信制御部352と、キャリブレーション管理部353と、モード制御部354と、ワンショット撮影管理部355と、センサ情報取得部356と、画像取得部357と、解析処理部358と、画像生成部359と、簡易表示生成部360と、書き出し処理部361とが機能する。
また、記憶部320の一領域には、動画データ記憶部371と、センサ情報記憶部372と、合成画像記憶部373とが設定される。
第2通信制御部352は、のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
図10は、リアルタイムモードにおける表示例を示す模式図である。
図10に示すように、リアルタイムモードにおいて、画像生成部359は、例えば、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する。なお、計測対象者Pの画像の周囲であって、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションAnを表示することとしてもよい。さらに、画像生成部359は、BOXアニメーションAnに対応するセンサ情報の数値を画像内の所定位置(ここでは左下)に表示する。具体的には、図10に示す例では、身体の前後方向の傾斜角度として「前傾:21度」、鉛直軸周りの回転角度として「回転:15度」、左右方向の傾斜角度として「水平:7度」が表示されている。
図11は、ワンショットモードにおける表示例を示す模式図である。
図11に示すように、ワンショットモードにおいて、画像生成部359は、例えば、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することにより、解析結果動画を表示する。また、本実施形態において、BOXアニメーションAnには、センサユニット1の軸(ここでは上下方向及び左右方向)を示す直線が併せて表示される。センサユニット1の軸は、センサユニット1の動きと共に移動する。また、本実施形態において、ワンショットモードにおける表示例では、表示画面に固定された軸(即ち、絶対座標を表す軸)が併せて表示されている。
なお、BOXアニメーションの時間的な変化は、撮影された計測対象者Pの動画のタイミングと対応付けて表示される。
図12に示すように、簡易表示生成部360は、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各特徴的なポイントを示す予め用意された画像に対し、計測対象者Pのスイングにおいて、対応する特徴的なポイントのセンサ情報の数値を併せて表示する。
なお、簡易表示生成部360が簡易表示画像を表示する場合、各特徴的なポイントの簡易表示画像を所定時間ずつ順次表示し、フォローの簡易表示画像まで表示された後は、トップの簡易表示画像に戻って、循環的に各簡易表示画像を表示することが可能である。
簡易表示画像を表示することにより、一定の意義を有する計測対象者Pの動きに関する情報を先行して提示することができる。
また、図12においてはアドレス時点での計測対象者Pの身体の前後方向及び左右方向の傾斜角度を0として表示を行ってもよく、アドレス時点からの計測対象者の身体の回転角度及び各種傾斜角度の変化量を表示させるように構成してもよい。
次に、解析システムSの動作を説明する。
図13は、センサユニット1が実行する情報検出処理の流れを説明するフローチャートである。
情報検出処理は、センサユニット1の起動と共に開始される。
ステップS2において、キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。
ステップS4において、モード設定部154は、処理装置3からの指示に応じて、リアルタイムモードに設定する。
ステップS5において、検出処理部156は、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する処理を開始する。
ステップS7において、モード設定部154は、処理装置3からの指示に応じて、ワンショットモードに設定する。
ステップS9において、同期制御部155は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
ステップS13において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるトップ、ダウンスイング、インパクトの各ポイントのタイミングを逐次検出する。
ステップS15の後、情報検出処理は終了する。
図14は、撮影装置2が実行する撮影処理の流れを説明するフローチャートである。
撮影処理は、入力部217を介して撮影処理の開始を指示する操作が行われることにより開始される。
ステップS22において、第2通信制御部252は、Wi−Fiによってアクセスポイントとして処理装置3と接続する。
ステップS24において、動画送信制御部255は、撮影されたライブビュー画像を処理装置3に逐次送信する。
ステップS26において、同期制御部254は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
ステップS28において、撮影制御部253は、処理装置3から記録用の動画の撮影の終了が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影を終了する。
ステップS30において、動画送信制御部256は、処理装置3から動画の送信が指示されることに応じて、ワンショットの範囲が切り出された動画を処理装置3に送信する処理を開始する。
ステップS31において、動画送信制御部256は、ステップS30において開始した動画の送信を完了する。
ステップS31の後、撮影処理は終了する。
図15は、処理装置3が実行する解析結果表示処理の流れを説明するフローチャートである。
解析結果表示処理は、入力部318を介して解析結果表示処理の開始を指示する操作が行われることにより開始される。
ステップS42において、第2通信制御部352は、Wi−Fiによってステーションとして撮影装置2と接続する。
ステップS43において、キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。
ステップS45において、モード制御部354は、リアルタイムモードに移行するための操作(リモート撮影の指示)の入力を受け付ける。
ステップS46において、モード制御部354は、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。
ステップS50において、モード制御部354は、BLEによって、センサユニット1に対し、ワンショットモードへの移行を指示する。このとき、モード制御部354は、センサユニット1に撮影装置2のSSID(Service Set IDentifier)を併せて送信する。
ステップS52において、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影の終了を指示する
撮影装置2から動画の受信が完了していない場合、ステップS58においてNOと判定されて、処理はステップS57に移行する。
一方、撮影装置2から動画の受信が完了した場合、ステップS58においてYESと判定されて、処理はステップS59に移行する。
解析結果動画の保存を指示する操作が行われていない場合、ステップS61においてNOと判定されて、解析結果表示処理は終了となる。
一方、解析結果動画の保存を指示する操作が行われた場合、ステップS61においてYESと判定されて、処理はステップS62に移行する。
ステップS62の後、解析結果表示処理は終了となる。
解析結果動画では、計測対象者P自身の動画と、計測対象者Pの3次元的な動きをわかり易く表すBOXアニメーションと、計測対象者Pの身体の動きを計測して得られたセンサ情報とが時刻を同期させて表示される。
そのため、計測対象者Pの動きを撮影した動画のみからでは把握し難い情報を、BOXアニメーションによって直感的かつ容易に把握可能になると共に、時刻を同期させて表示されるセンサ情報によって、より詳細な動きの特徴を明確に把握することが可能となる。また、BOXアニメーションの時間的な変化はセンサ情報と対応付けられているため、BOXアニメーションを参照することによっても、正確な解析結果を把握することが可能となる。
図16は、ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。
図16に示すように、ワンショットモードにおいて、処理装置3は、解析結果動画を表示するためにセンサ情報及び動画を取得する場合、まず、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を取得する(図15のステップS54)そして、計測対象者Pの動きに関する情報を簡易表示画像として表示しながら(図15のステップS55)、ワンショットの範囲のセンサ情報を取得し(ステップS56)、続いて、動画のデータを受信する(図15のステップS57)。そして、動画データの受信が完了し(図5のステップS58:YES)、BOXアニメーションが生成され(図5のステップS59)、解析結果動画の表示が可能となるまでの間(図5のステップS60)、簡易表示画像を継続して表示する。
そのため、処理装置3が動画のデータを取得する時間を単に待つよりも、一定の意義を有する計測対象者Pの動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
また、計測対象者Pの動きに関する情報を先行して提示することで、解析結果動画の生成に必要な最低限の時間に対して、提示した情報がユーザに閲覧される時間帯を付加的に創出することができる。そのため、解析結果動画の生成に費やす時間をより長く確保することが可能となり、より効果的な解析結果動画を提示することも可能となる。
したがって、計測対象者Pは、アドレスしてスイングする、という動作を繰り返すことにより、記録用の動画を簡単な動作によって逐次撮影することができる。
上述の実施形態において、BOXアニメーションの表示形態は、計測対象者Pの身体の3次元的な動きを模したものであれば、種々の変形を行うことが可能である。
図17は、BOXアニメーションAnの表示形態例を示す模式図である。
図17に示す例では、BOXアニメーションAnの視点として、正面視、上面視、左側面視等、複数の視点を選択可能になっており、図17に示す例では、選択可能な視点のBOXアニメーションAnが画面上部に小サイズで表示されている。
また、BOXアニメーションAnの表示色は、計測対象者Pの身体の3次元的な動きがよりわかり易い色に選択することができる。
図17に示す例では、各視点のBOXアニメーションAnの表示色がそれぞれ異なる色に設定されている。
なお、BOXアニメーションを計測対象者Pの動画に重畳表示する際に、背景の色を検出し、背景の色と同化し難い所定色(例えば、補色系の色等)を選択することとしてもよい。
上述の実施形態において、リアルタイムモードにおける表示例として、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する場合について説明した。これに対し、リアルタイムモードにおいても、図11に示すワンショットモードの表示例のように、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することとしてもよい。
また、反対に、ワンショットモードにおいても、図10に示すリアルタイムモードの表示例のように、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示してもよい。
上述の実施形態において、1つのセンサユニット1を計測対象者Pの腰等に装着してセンサ情報を取得するものとして説明したが、これに限られない。即ち、複数のセンサユニット1を計測対象者Pの肩と腰等、複数の身体部位に装着し、これらの身体部位それぞれの動きを表すBOXアニメーションを表示することとしてもよい。
この場合、計測対象者Pの身体部位毎の動きの相違(例えば、肩と腰の捩れ等)も表示することができ、より効果的に計測結果を提示することが可能となる。
また、センサユニット1を装着する身体部位は、腰の他、肩、首、腕、大腿部、頭部等とすることができる。
上述の実施形態において、ワンショットモードにおける表示例では、計測対象者Pの動きの連続的な動画が表示される。これに対し、計測対象者Pの動きの間欠的な動画を表示することが可能である。
この場合、解析結果動画を生成するための処理負荷が低下し、より早期に解析結果動画を提示することが可能となる。
上述の実施形態において、BOXアニメーションを計測対象者Pの動画像に透過させて重畳させる場合、その透過度は、目的に応じて種々異なる値を設定することができる。例えば、計測対象者Pが行うべき動きのガイドとして、人型のオブジェクトを表示する場合、計測対象者Pの身体と人型のオブジェクトとの重なりが大きいときは、BOXアニメーションの透過度を上げ(即ち、薄く表示し)、計測対象者Pの身体と人型のオブジェクトとの重なりが小さいときは、BOXアニメーションの透過度を下げる(即ち、濃く表示する)ことが可能である。
これにより、計測対象者Pの動きのガイドを表示する際に、BOXアニメーションをより効果的な形態で表示することができる。
上述の実施形態において、撮影装置2によってセンサユニット1を装着した計測対象者Pを撮影することにより、センサユニット1の装着位置を自動的に判別することができる。
この場合、リアルタイムモードにおける表示例等で、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションを表示する際に、BOXアニメーションの表示位置を自動的に決定することが可能となる。
画像取得部357は、対象者が撮影された画像を取得する。
センサ情報取得部356は、対象者の動きをセンサによって計測した計測結果を取得する。
画像生成部359は、画像取得部357によって取得された画像を出力部319に表示させる。
簡易表示生成部360は、画像生成部359による表示が行われることに先行して、センサ情報取得部356によって取得された計測結果に基づいて、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像生成部359によって解析結果が表示されるまでの時間を単に待つよりも、一定の意義を有する対象者の動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
したがって、本発明によれば、対象者の動きをユーザがより効率的に把握可能な表示を行うことができる。
したがって、対象者の動きを表す動画と、その動画における動きを行っている際のセンサによる計測結果とを併せて表示することができるため、より効果的な形態で情報を表示することができる。
したがって、より早期に取得可能な計測結果を用いて、取得処理に長い時間を要する画像が取得されるまでの間に、有用な情報を表示することが可能となる。
これにより、より正確な計測結果を取得することができる。
これにより、より適切な対象者の画像を撮影することができる。
これにより、対象者の動きと指標の変化とを容易に把握することが可能となる。
簡易表示生成部360は、画像取得部357が画像を取得している間に、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像取得部357によって画像が取得されている間の時間を有効に活用することができる。
これにより、対象者の動きの特徴を早期に把握することが可能となる。
これにより、対象者の動き全体の概要を早期に把握することが可能となる。
これにより、ゴルフのスイングにおける所定の特徴的なポイントのタイミングをより確実に検出することができる。
これにより、簡易表示画像を確認することによって、解析結果動画の生成が不要であると判断された場合に、無用な処理が行われることを抑制することができる。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
換言すると、図6、8、9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が解析システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6、8、9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
[付記1]
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記第1表示制御手段は、前記画像取得手段によって取得された前記画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする付記1に記載の画像処理装置。
[付記3]
前記計測結果取得手段による計測結果得処理は、前記画像取得手段による前記画像の取得処理よりも処理時間が短いことを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記計測結果取得手段は、前記画像取得手段が前記画像を取得することに先立って前記計測結果を取得し、
前記第2表示制御手段は、前記画像取得手段が前記画像を取得している間に、前記対象者の動きに関する情報を前記表示手段に表示させることを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントの前記計測結果と、当該特徴的なポイントを表す画像とを前記表示手段に表示させることを特徴とする付記1から6のいずれか1つに記載の画像処理装置。
[付記8]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントについて、前記特徴的なポイントの前記計測結果及び前記特徴的なポイントを表す画像を順に前記表示手段に表示させることを特徴とする付記7に記載の画像処理装置。
[付記9]
対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。
[付記10]
画像処理装置が実行する画像処理方法であって、
対象者が撮影された画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記画像取得ステップによって取得された前記画像を表示手段に表示させる第1表示制御ステップと、
前記第1表示制御ステップによる表示が行われることに先行して、前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御ステップと、
を含むことを特徴とする画像処理方法。
[付記11]
画像処理装置を制御するコンピュータに、
対象者が撮影された画像を取得する画像取得機能と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
前記画像取得機能によって取得された前記画像を表示手段に表示させる第1表示制御機能と、
前記第1表示制御機能による表示が行われることに先行して、前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御機能と、
を実現させることを特徴とするプログラム。
Claims (11)
- 対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする画像処理装置。 - 前記第1表示制御手段は、前記画像取得手段によって取得された前記画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。
- 前記計測結果取得手段による計測結果得処理は、前記画像取得手段による前記画像の取得処理よりも処理時間が短いことを特徴とする請求項1または2に記載の画像処理装置。
- 前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
- 前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
- 前記計測結果取得手段は、前記画像取得手段が前記画像を取得することに先立って前記計測結果を取得し、
前記第2表示制御手段は、前記画像取得手段が前記画像を取得している間に、前記対象者の動きに関する情報を前記表示手段に表示させることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 - 前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントの前記計測結果と、当該特徴的なポイントを表す画像とを前記表示手段に表示させることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントについて、前記特徴的なポイントの前記計測結果及び前記特徴的なポイントを表す画像を順に前記表示手段に表示させることを特徴とする請求項7に記載の画像処理装置。
- 対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。 - 画像処理装置が実行する画像処理方法であって、
対象者が撮影された画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記画像取得ステップによって取得された前記画像を表示手段に表示させる第1表示制御ステップと、
前記第1表示制御ステップによる表示が行われることに先行して、前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御ステップと、
を含むことを特徴とする画像処理方法。 - 画像処理装置を制御するコンピュータに、
対象者が撮影された画像を取得する画像取得機能と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
前記画像取得機能によって取得された前記画像を表示手段に表示させる第1表示制御機能と、
前記第1表示制御機能による表示が行われることに先行して、前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御機能と、
を実現させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016226233A JP6787072B2 (ja) | 2016-11-21 | 2016-11-21 | 画像処理装置、解析システム、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016226233A JP6787072B2 (ja) | 2016-11-21 | 2016-11-21 | 画像処理装置、解析システム、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018085574A true JP2018085574A (ja) | 2018-05-31 |
JP2018085574A5 JP2018085574A5 (ja) | 2019-11-21 |
JP6787072B2 JP6787072B2 (ja) | 2020-11-18 |
Family
ID=62237707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016226233A Active JP6787072B2 (ja) | 2016-11-21 | 2016-11-21 | 画像処理装置、解析システム、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6787072B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021029484A (ja) * | 2019-08-21 | 2021-03-01 | 日本電気株式会社 | 判定検証システム、判定検証方法およびコンピュータプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084375A (ja) * | 1999-09-13 | 2001-03-30 | Atr Media Integration & Communications Res Lab | 動作検証システムおよび非接触マニピュレーションシステム |
JP2009050721A (ja) * | 2008-11-25 | 2009-03-12 | Hitachi Metals Ltd | スイング動作評価方法、スイング動作評価装置、スイング動作評価システム及びスイング動作評価プログラム |
US20100306712A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture Coach |
JP2012120579A (ja) * | 2010-12-06 | 2012-06-28 | Seiko Epson Corp | 運動解析装置 |
JP2015186531A (ja) * | 2014-03-26 | 2015-10-29 | 国立大学法人 東京大学 | 動作情報処理装置、及びプログラム |
-
2016
- 2016-11-21 JP JP2016226233A patent/JP6787072B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084375A (ja) * | 1999-09-13 | 2001-03-30 | Atr Media Integration & Communications Res Lab | 動作検証システムおよび非接触マニピュレーションシステム |
JP2009050721A (ja) * | 2008-11-25 | 2009-03-12 | Hitachi Metals Ltd | スイング動作評価方法、スイング動作評価装置、スイング動作評価システム及びスイング動作評価プログラム |
US20100306712A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture Coach |
JP2012120579A (ja) * | 2010-12-06 | 2012-06-28 | Seiko Epson Corp | 運動解析装置 |
JP2015186531A (ja) * | 2014-03-26 | 2015-10-29 | 国立大学法人 東京大学 | 動作情報処理装置、及びプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021029484A (ja) * | 2019-08-21 | 2021-03-01 | 日本電気株式会社 | 判定検証システム、判定検証方法およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6787072B2 (ja) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11250247B2 (en) | Information processing device, information processing system, and program | |
CN108079547B (zh) | 图像处理装置、分析系统、图像处理方法以及记录介质 | |
JP6213146B2 (ja) | 情報処理装置、記録媒体、および情報処理方法 | |
JP6354461B2 (ja) | フィードバック提供方法、システム、および解析装置 | |
JP5920264B2 (ja) | 画像特定装置、画像特定システム、画像特定方法及びプログラム | |
JP6447515B2 (ja) | 情報処理装置、記録媒体および情報処理方法 | |
JP2014061119A (ja) | 画像特定システム、画像特定方法、画像特定装置及びプログラム | |
US11305171B2 (en) | Motion evaluation device using angular speed measured by a wearable sensor | |
JP2021102075A (ja) | 出力装置、出力方法、及び、プログラム | |
JP6787072B2 (ja) | 画像処理装置、解析システム、画像処理方法及びプログラム | |
JP7188422B2 (ja) | 画像処理装置、解析システム、画像処理方法及びプログラム | |
JP2018099416A (ja) | 運動解析装置、運動解析方法及びプログラム | |
JP7069662B2 (ja) | 電子機器、評価方法及びプログラム | |
JP2016123637A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7069953B2 (ja) | 電子機器、動作データの部分特定方法、及び、プログラム | |
JP2014064125A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP6981518B2 (ja) | 電子機器、評価方法及びプログラム | |
TWI618410B (zh) | 可影像訊息直播運動系統 | |
JP2016126509A (ja) | 報知制御装置、報知制御方法及びプログラム | |
JP2019162328A (ja) | ゴルフクラブ判別装置、ゴルフクラブ判別方法、及びゴルフクラブ判別プログラム | |
JP2016066994A (ja) | 撮像装置、情報送信装置、撮像制御方法、情報送信方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201012 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6787072 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |