JP6897215B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6897215B2
JP6897215B2 JP2017058947A JP2017058947A JP6897215B2 JP 6897215 B2 JP6897215 B2 JP 6897215B2 JP 2017058947 A JP2017058947 A JP 2017058947A JP 2017058947 A JP2017058947 A JP 2017058947A JP 6897215 B2 JP6897215 B2 JP 6897215B2
Authority
JP
Japan
Prior art keywords
image
moving image
moving
time
specific point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017058947A
Other languages
English (en)
Other versions
JP2018163417A (ja
Inventor
加藤 寛之
寛之 加藤
章吾 橋本
章吾 橋本
亮 奥村
亮 奥村
浩良 小川
浩良 小川
英明 松田
英明 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017058947A priority Critical patent/JP6897215B2/ja
Publication of JP2018163417A publication Critical patent/JP2018163417A/ja
Priority to JP2021096455A priority patent/JP7272388B2/ja
Application granted granted Critical
Publication of JP6897215B2 publication Critical patent/JP6897215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、ユーザに装着されるセンサからユーザの動作を検出し、検出した動作に基づいて、撮像された画像に、動作に対応するチャプタ情報を設定する技術が知られている(例えば、特許文献1参照)。
特開2013−188426号公報
しかしながら、特許文献1においては、画像に設定されたチャプタの表示については検討がなされておらず、ユーザの利便性向上の余地が残されていた。
本発明は係る問題に鑑みてなされたものであり、一連の動作を示す動画像の中から表示するフレーム画像をユーザが容易に指定できるようにすることである。
上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
被写体の一連の動作を示す動画像を取得する動画像取得手段と、
前記被写体に装着されたセンサにより計測された前記の一連の動作が行われた時のセンサデータを取得するセンサデータ取得手段と、
前記センサデータ取得手段により取得されたセンサデータから、前記一連の動作に含まれる特定のポイントの時刻を特定する時刻特定手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記時刻特定手段によって特定された特定のポイントの時刻が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
ユーザの指定操作により前記操作用画像における前記特定のポイントの時刻が指定されると、前記動画像の中から前記特定のポイントに対応するフレーム画像を選択する画像選択手段と、
を備え
前記一連の動作を示す動画像は、前記特定のポイントにより複数の部分動作の区間に区切ることが可能な動画像であり、
前記操作用画像は、前記複数の部分動作の区間の区切りごとに角を有する形状であること、を特徴とする。
本発明によれば、一連の動作を示す動画像の中から表示するフレーム画像をユーザが容易に指定することが可能となる。
本実施形態の表示システムの全体構成例を示す図である。 図1のセンサのユーザへの装着態様と3軸の方向を模式的に示す図である。 図1のセンサの機能的構成を示すブロック図である。 図1の撮像装置の機能的構成を示すブロック図である。 図1の画像処理装置の機能的構成を示すブロック図である。 ユーザのゴルフスイング動作におけるZ軸方向の角速度の計測結果を示す図である。 図5のCPUにより実行される動画表示処理Aを示すフローチャートである。 シークバーの例を示す図である。 図5のCPUにより実行される動画表示処理Bを示すフローチャートである。 回転角コントローラーの例を示す図である。
以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。
<第1の実施形態>
[表示システム100の構成]
図1は、本発明の第1の実施形態における表示システム100の全体構成例を示す図である。表示システム100は、図1に示すように、センサ1と、撮像装置2と、画像処理装置3とを備え、各装置は互いに通信接続可能に構成されている。
[センサ1の構成]
センサ1は、図2に示すように、例えば、ユーザUの腰部等に装着され、ユーザUの動作(本実施形態では、ゴルフスイング動作)を計測してセンサデータを取得し、画像処理装置3に送信する。
図3は、センサ1の機能的構成を示すブロック図である。図3に示すように、センサ1は、CPU11、RAM(Random Access Memory)12、記憶部13、操作部14、センサ部15、通信部16、計時部17等を備えて構成され、各部はバス18により接続されている。
CPU11は、記憶部13に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。例えば、CPU11は、操作部14の操作に応じて撮像装置2と時刻同期を行う。また、CPU11は、操作部14の操作に応じてセンサ部15によるユーザUのゴルフスイング動作の計測を開始し、ゴルフスイング動作におけるアドレス(図6参照)が検知されると、通信部16によりアドレス検知信号を画像処理装置3に送信する。また、ゴルフスイング動作におけるフィニッシュ(図6参照)が検知されると、通信部16によりフィニッシュ検知信号を画像処理装置3に送信するとともに、RAM12に記憶されているセンサデータを通信部16により画像処理装置3に送信する。
RAM12は、CPU11に作業用のメモリ空間を提供し、データを一時的に記憶する。例えば、RAM12は、センサ部15により取得された計測結果を時系列に並べて(時刻に対応付けて)センサデータとして記憶する。
記憶部13は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部13には、CPU11で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
操作部14は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU11に出力する。
センサ部15は、図2に示すX軸、Y軸、Z軸の3軸加速度センサ、3軸ジャイロセンサ及び3軸地磁気センサ等を備えて構成され、ユーザUのゴルフスイング動作における3軸方向の加速度、角速度及び地磁気等を計測して、各センサにおける計測結果を示すセンサデータをCPU11に出力する。
通信部16は、撮像装置2や画像処理装置3等の外部機器と通信を行うためのインターフェースを有する。通信部16は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従って外部機器とデータの送受信を行う。
計時部17は、RTC(Real Time Clock)等により構成され、現在時刻を計時してCPU11に出力する。
[撮像装置2の構成]
撮像装置2は、センサ1によるユーザUのゴルフスイング動作の計測と同期してユーザUのゴルフスイング動作を撮影した動画像を取得して画像処理装置3に送信する。
図4は、撮像装置2の機能的構成を示すブロック図である。図4に示すように、撮像装置2は、CPU21、RAM22、記憶部23、操作部24、表示部25、撮像部26、通信部27、計時部28等を備えて構成され、各部はバス29により接続されている。
CPU21は、記憶部23に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。例えば、CPU21は、操作部24の操作に応じてセンサ1と時刻同期を行う。また、CPU21は、通信部27を介して画像処理装置3から撮影が指示されると、動画撮影を開始し、撮影終了が指示されると、動画撮影を終了し、撮影した動画像の画像データを撮影時刻に対応付けて動画ファイルとして通信部27により画像処理装置3に送信する。
RAM22は、CPU21に作業用のメモリ空間を提供し、データを一時的に記憶する。例えば、RAM22は、撮像部26により取得された動画像のフレーム画像を撮影時刻に対応付けて記憶する。
記憶部23は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部23には、CPU21で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
操作部24は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU21に出力する。
表示部25は、LCD(Liquid Crystal Display)等により構成され、CPU21から入力される表示信号の指示に従って、各種表示を行う。
撮像部26は、光学レンズユニット、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ等からなる撮像素子、A/D変換回路等を備えて構成され、光学系を通過した光学像を2次元の画像信号に変換し画像データを取得する。
通信部27は、例えば、センサ1や画像処理装置3等の外部機器と通信を行うためのインターフェースを有する。通信部27は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従って外部機器とデータの送受信を行う。或いは、USB(Universal Serial Bus)等の有線通信規格に従って外部機器とデータの送受信を行うこととしてもよい。
計時部28は、RTC等により構成され、現在時刻を計時してCPU21に出力する。
[画像処理装置3の構成]
画像処理装置3は、撮像装置2から送信された動画像のうち表示するフレーム画像をユーザが指定操作するための操作用画像を表示し、操作用画像上からのユーザ操作に応じて動画像の中から指定されたフレーム画像を表示する装置である。画像処理装置3としては、例えば、スマートフォンやタブレット、PC(Personal Computer)等が適用可能である。
図5は、画像処理装置3の機能的構成を示すブロック図である。図5に示すように、画像処理装置3は、CPU31、RAM32、記憶部33、操作部34、表示部35、第一通信部36、第二通信部37等を備えて構成され、各部はバス38により接続されて構成されている。
CPU31は、記憶部33のプログラム記憶部331に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。
例えば、CPU31は、プログラム記憶部331に記憶されているゴルフスイング表示アプリが動画取得モードで起動されると、センサ1からのアドレス検知信号の受信を待機し、第二通信部37によりセンサ1からのアドレス検知信号を受信すると、撮像装置2に撮影指示を送信する。また、CPU31は、第二通信部37によりセンサ1からのフィニッシュ検知信号を受信すると、撮像装置2に撮影終了指示を送信する。また、CPU31は、第二通信部37によりセンサ1からのセンサデータを受信すると、受信したセンサデータをセンサデータ記憶部332に記憶させ、撮像装置2から動画像の画像データを受信すると、受信した画像データを動画像記憶部333に記憶させる。
また、例えば、CPU31は、ゴルフスイング表示アプリが動画表示モードで起動されると、後述する動画表示処理Aを実行し、表示部35にシークバー(図8参照)を表示させる。また、ユーザによるシークバーの操作に応じて、動画像を構成するフレーム画像の中からフレーム画像を選択して表示部35に表示させる。CPU11は、動画像取得手段、表示制御手段、画像選択手段として機能する。
ここで、シークバーは、動画像の中から表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像である。本実施形態におけるシークバーは、シークバーの時間軸がゴルフスイング動作に含まれる部分動作(バックスイング、ダウンスイング、フォロースルー)のそれぞれに対応する区間に区切られている。
RAM32は、CPU31に作業用のメモリ空間を提供し、データを一時的に記憶する。
記憶部33は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部33には、プログラム記憶部331、センサデータ記憶部332及び動画像記憶部333が設けられている。
プログラム記憶部331には、CPU31で実行されるシステムプログラムやゴルフスイング表示アプリを始めとする各種処理アプリケーションプログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
センサデータ記憶部332には、センサ1から送信されてきたセンサデータが記憶される。例えば、センサデータには、当該センサデータに対応する動画像(すなわち、当該センサデータの表すゴルフスイング動作の計測時にそのゴルフスイング動作を撮影した動画像)と同じ識別IDが付与されて記憶される。
動画像記憶部333には、撮像装置2から送信されてきた動画像の画像データが記憶される。例えば、動画像には、当該動画像に対応するセンサデータ(すなわち、当該動画像の撮影時にゴルフスイング動作を計測したセンサデータ)と同じ識別IDが付与されて記憶される。
さらに、記憶部33には、シークバーの画像が記憶されている。
操作部34は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU31に出力する。また、操作部34は、表示部35の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等による各種操作を検出し、その操作情報をCPU31に出力する。
表示部35は、LCD等により構成され、CPU31からの表示制御信号に従って、画面上に各種表示を行う。
第一通信部36は、無線により基地局又はアクセスポイントを介して移動体通信網を含むインターネット等の通信ネットワークに接続し、通信ネットワークに接続された外部装置との通信を行う。
第二通信部37は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従ってセンサ1や撮像装置2等の外部機器とデータの送受信を行う。或いは、USB(Universal Serial Bus)等の有線通信規格に従って外部機器とデータの送受信を行うこととしてもよい。
[ゴルフスイングの動作]
図6は、ゴルフスイングの一連の動作と、ゴルフスイングの一連の動作時においてセンサ部15により計測されるZ軸周り角速度の一例を示す図である。図6に示すように、ゴルフスイングの一連の動作は、アドレス、トップ、ハーフ、インパクト、フィニッシュの各ポイントを含む。ここで、アドレスはテイクバックを開始する直前、トップはバックスイングからダウンスイングへの切り替えし点、ハーフはダウンスイング中にシャフトが水平になる位置、インパクトはゴルフクラブがボールに当たる瞬間、フィニッシュはフォロースルー後に通常の姿勢に戻る切り替えし点を意味する。フォワードスイング方向を正としてユーザUのZ軸周りの角速度を基準に見た場合、アドレスはゼロ近傍からマイナスへ移行する直前、トップはマイナスからプラスへ転じる点、ハーフは最大値近傍、インパクトは最大値から少し経過した点、フィニッシュはプラスからゼロ近傍もしくはマイナスへ移行する点である。
[表示システム100の動作]
次に、第1の実施形態における表示システム100の動作について説明する。
まず、ゴルフスイングの一連の動画像を取得する動作について説明する。
ユーザUは、センサ1及び撮像装置2を起動させ、所定の操作によりセンサ1と撮像装置2に時刻同期を行わせる。また、ユーザUは、画像処理装置3のゴルフスイング表示アプリを動画取得モードで起動させる。次いで、ユーザUは、撮像装置2のレンズがユーザUを捉える位置に撮像装置2を配置し、センサ1を腰に装着して操作部14を操作して計測開始を指示する。そして、ユーザUは一連のゴルフスイングの動作を行う。
センサ1において、操作部14の操作により計測開始が指示されると、CPU11は、センサ部15によるユーザUのゴルフスイング動作の計測を開始し、アドレス開始が検知されるのを待機する。ここで、図6に示すように、ユーザUがアドレスからトップの姿勢に向けてバックスイングを開始すると、センサ部15の角速度センサから出力されるZ軸周りの角速度が0からマイナスへ変化する。そこで、例えば、センサ部15から出力されたZ軸周りの角速度がマイナス方向に予め定められた閾値(例えば、−0.3[rad/s])以上変化した場合に、CPU11は、アドレス開始が検知されたと判断する。そして、CPU11は、通信部16によりアドレス検知信号を画像処理装置3に送信する。
画像処理装置3において、第二通信部37によりセンサ1からのアドレス検知信号を受信すると、CPU31は、第二通信部37により撮像装置2に撮影開始指示を送信する。
撮像装置2において、通信部27により撮影開始指示を受信すると、CPU21は、撮像部26により所定のフレームレートで動画像の撮影を開始させる。
センサ1において、CPU11は、センサ部15によりフィニッシュが検知されるのを待機する。ここで、図6に示すように、フィニッシュはセンサ部15の角速度センサから出力されるZ軸周りの角速度がプラスからゼロ近傍もしくはマイナスへ移行する点である。
そこで、CPU11は、例えば、アドレス開始の検知後にセンサ部15から出力されたZ軸周りの角速度がプラス方向から所定の閾値(例えば、0.3[rad/s])以下となった場合に、フィニッシュが検知されたと判断する。
センサ部15によりフィニッシュが検知されたと判断した場合、CPU11は、フィニッシュ検知信号を通信部16により画像処理装置3に送信する。また、アドレス開始からフィニッシュまでの間にセンサ部15において取得されたセンサデータを通信部16により画像処理装置3に送信する。
画像処理装置3において、第二通信部37によりセンサ1からのフィニッシュ検知信号を受信すると、CPU31は、第二通信部37により撮像装置2に撮影終了指示を送信する。また、第二通信部37によりセンサ1からのセンサデータを受信すると、データを識別するための識別IDを発行し、発行された識別IDを付与してセンサデータ記憶部332に記憶させる。
撮像装置2において、通信部27により撮影終了指示を受信すると、CPU21は、撮像部26に撮影を終了させ、撮影により取得された動画像の画像データ(フレーム画像)を通信部27により画像処理装置3に送信する。なお、動画像の画像データは、例えば、動画ファイルとして画像処理装置3に送信される。
画像処理装置3において、第二通信部37により撮像装置2から動画像の画像データを受信すると、センサデータに付与したものと同じ識別IDを付与して動画像記憶部333に記憶させる。
画像処理装置3において、動画像記憶部333に記憶された動画像は、ゴルフスイング表示アプリの動作モードを動画表示モードに設定することにより表示させることができる。
図7は、動画表示モードにおいてCPU31とゴルフスイング表示アプリとの協働により実行される動画表示処理Aを示すフローチャートである。以下、図7を参照して動画表示処理Aについて説明する。
まず、CPU31は、動画像記憶部333に記憶されている動画像の一覧を表示部35に表示させ、ユーザによる動画像の選択操作を受け付ける(ステップS1)。
次いで、CPU31は、選択された動画像の画像データを動画像記憶部333から取得する(ステップS2)。
次いで、CPU31は、選択された動画像に対応する(同じ識別IDの)センサデータをセンサデータ記憶部332から取得する(ステップS3)。
次いで、CPU31は、取得したセンサデータの波形を解析して、動画像におけるゴルフスイング動作の各ポイント(アドレス、トップ、インパクト、フィニッシュ)の時刻を特定する(ステップS4)。
次いで、CPU31は、各ポイントの時刻から、動画像におけるゴルフスイング動作の部分動作(バックスイング、ダウンスイング、フォロースルー)の各区間の時間長を算出する(ステップS5)。ここで、アドレスからトップまでがバックスイング区間、トップからインパクトまでがダウンスイング区間、インパクトからフィニッシュまでがフォロースルー区間である。
次いで、CPU31は、記憶部33からシークバーの画像を読み出し、シークバーにおけるゴルフスイング動作の各区間に、計算された時間長を割り当てる(ステップS6)。
そして、CPU31は、動画像のうちアドレスのフレーム画像と、シークバーとを表示部35に表示させる(ステップS7)。
図8(a)〜(c)に、ステップS6において表示部35に表示されるシークバーの例を示す。図8(a)は、棒形状のシークバーを示す図である。図8(b)は、三角形状のシークバーを示す図である。図8(c)は、ゴルフスイング動作の動作イメージを表現した形状のシークバーを示す図である。
図8(a)〜(c)に示すように、シークバーは、ゴルフスイング動作の各区間(バックスイング区間、ダウンスイング区間、フォロースルー区間)に対応する複数の区間に分かれており、各区間の位置及び名称が識別可能に表示されている。また、シークバーには、ゴルフスイング動作における各ポイント(アドレス、トップ、インパクト、フィニッシュ)の位置も識別可能に表示されている。各ポイントは、区間の区切りと重なっている。シークバーには、つまみT1が設けられている。このつまみT1のデフォルト位置はアドレスの位置であり、このつまみT1をユーザが手指やタッチペン又は操作部34の物理キーによる操作により移動させることにより、動画像における表示するフレーム画像の時間軸上の位置を指定することができる。
図8(a)〜(c)に示すように、シークバーにゴルフスイング動作の各区間及び各ポイントが識別可能に表示されていることで、ユーザが、シークバーにおけるトップ、インパクト等のゴルフスイング動作におけるポイントとなる位置や各区間を容易に把握することができ、一連の動画像の中から表示したいフレーム画像の時間軸上の位置をユーザが容易に指定することが可能となる。
また、シークバーが一直線である場合、トップやインパクトなどのポイント(区間の区切り)でつまみT1を止めづらく、所望のフレーム画像が指定しづらい場合があるが、図8(b)に示すように、ポイント(区間の区切り)の位置ごとに角を設けることで、つまみT1をポイントに移動させたいにもかかわらず、ポイントを通り過ぎて次の区間に移動してしまうことを防止することができ、ポイント位置の指定が容易となる。
また、動画像におけるゴルフスイング動作の部分動作の各区間の時間長を算出して、図8(b)に示されるシークバーの各区間の長さに対応付けてユーザによる操作を受け付けるため、例えばゴルフのインパクト動作のような動きが早く、撮影されているフレーム画像数が少ない動作の区間であってもユーザは容易に所望のフレーム画像を指定することが出来る。上述の構成により、単純に部分動作の各区間に含まれる画像枚数とシークバーの各区間の長さとを一致させた表示を行うと、シークバーにおいてインパクトに対応する区間が極端に短くなってしまい、ユーザが選択しづらい表示になるという課題を解決することが出来る。
また、図8(c)に示すように、シークバーをゴルフスイング動作の動作イメージを表現した形状とすることで、直感的に、シークバーにおける各ポイントや各区間の位置をユーザが把握しやすくなり、一連の動画像の中から表示したいフレーム画像の時間軸上の位置をユーザが容易に指定することが可能となる。
次いで、CPU31は、操作部34によりつまみT1の移動操作が検出されたか否かを判断する(ステップS8)。操作部34によるつまみT1の移動操作が検出されていないと判断した場合(ステップS8;NO)、CPU31は、ステップS11に移行する。
操作部34によりつまみT1の移動操作が検出されたと判断した場合(ステップS8;YES)、CPU31は、シークバーにおけるつまみT1の移動先の区間の開始位置からつまみT1の位置までの距離と、移動先の区間に割り当てられた時間長に基づいて、動画像の中からつまみT1の位置に対応するフレーム画像を選択する(ステップS9)。すなわち、CPU31は、ユーザ操作によるシークバーの表示態様の変化(ここでは、つまみT1の位置の変化)に応じて、動画像の中から表示するフレーム画像を選択する。そして、CPU31は、選択したフレーム画像以降の動画像を表示部35に表示させ(ステップS10)、ステップS11に移行する。
ステップS11おいて、CPU31は、操作部34により動画表示の終了指示が検出されたか否かを判断する(ステップS11)。
操作部34により動画表示の終了指示が検出されていないと判断した場合(ステップS11;NO)、CPU31は、ステップS8に戻る。
操作部34により動画表示の終了指示が検出されたと判断した場合(ステップS11;YES)、CPU31は、動画表示処理Aを終了する。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態において、記憶部33には、回転角コントローラー(図10参照)の画像が記憶されている。
その他の第2の実施形態におけるシステム構成、各装置の構成、及び動画取得動作は、第1の実施形態において説明したものと同様であるので説明を援用し、以下、第2の実施形態における動画表示処理(動画表示処理Bとする)について説明する。
図9は、動画表示モードにおいてCPU31とゴルフスイング表示アプリとの協働により実行される動画表示処理Bを示すフローチャートである。以下、図9を参照して動画表示処理Bについて説明する。
まず、CPU31は、動画像記憶部333に記憶されている動画像の一覧を表示部35に表示させ、ユーザによる動画像の選択操作を受け付ける(ステップS21)。
次いで、CPU31は、選択された動画像の画像データを動画像記憶部333から取得する(ステップS22)。
次いで、CPU31は、選択された動画像に対応する(同じ識別IDの)センサデータをセンサデータ記憶部332から取得する(ステップS23)。
次いで、CPU31は、取得したセンサデータの波形を解析して、動画像におけるゴルフスイング動作の各ポイント(アドレス、トップ、インパクト、フィニッシュ)の時刻を特定する(ステップS24)。
次いで、CPU31は、センサデータのZ軸周りの角速度をセンサデータの先頭から積分して動画像の各時刻におけるユーザUの腰のZ軸周りの回転角度を算出する(ステップS25)。
次いで、CPU31は、記憶部33から回転角コントローラーの画像を読み出し、動画像のうちアドレスのフレーム画像と、回転角コントローラーとを表示部35に表示させる(ステップS26)。
図10は、ステップS26において表示部35に表示される回転角コントローラーの一例を示す図である。回転角コントローラーは、選択された動画像のうち表示するフレーム画像におけるユーザUの腰の回転角度をユーザが指定操作するための操作用画像である。回転角コントローラーは、ユーザ操作に応じて回転可能な、例えば、腰をイメージさせる楕円形のコントローラー351と、回転角度の0°、90°、180°(−180°)、−90°を示す軸352と、を含んで構成される。コントローラー351には、基準マーク351aが表示されている。基準マーク351aが0°に一致している位置がコントローラー351の回転角度0°の位置であり、コントローラー351をユーザが回転させることで、動画像のうち、腰をその回転角度だけ回転させたときのフレーム画像を表示するフレーム画像として指定することができる。なお、コントローラー351を時計方向に回転させると、回転角度はマイナス方向に変位し、反時計方向に回転させると回転角度はプラス方向に変位する。図10(a)は、回転角度0°の場合のコントローラー351を示しており、図10(b)は、回転角度−45°の場合のコントローラー351を示している。
このように、表示するフレーム画像におけるユーザUの回転角度を指定するための操作用画像として、ユーザ操作に応じて回転し、回転した角度を回転角度として入力するコントローラー351を表示することで、ユーザが直感的に所望する姿勢のフレーム画像を表示する画像として指定することができる。
次いで、CPU31は、操作部34によりコントローラー351の回転操作が検出されたか否かを判断する(ステップS27)。
コントローラー351の回転操作が検出されていないと判断した場合(ステップS27;NO)、ステップS31に移行する。
コントローラー351の回転操作が検出されたと判断した場合(ステップS27;YES)、CPU31は、コントローラー351の回転角度と回転方向を取得する(ステップS28)。
次いで、CPU31は、取得した回転角度と回転方向に基づいて、動画像の中からフレーム画像を選択する(ステップS29)。
ここで、バックスイング時とダウンスイング時では腰の回転角度が同じになる瞬間があるが、バックスイング時はマイナス方向(時計回り)に回転し、ダウンスイング時はプラス方向(反時計周り)に回転する。したがって、回転角度と回転方向により、動画像の中からユーザにより指定されたフレーム画像を特定することができる。
そして、CPU31は、選択されたフレーム画像以降の動画像を表示部35に表示させ(ステップS30)、ステップS31に移行する。
ステップS31おいて、CPU31は、操作部34により、動画表示の終了指示が検出されたか否かを判断する(ステップS31)。
操作部34により動画表示の終了指示が検出されていないと判断した場合(ステップS31;NO)、CPU31は、ステップS27に戻り、ステップS27〜31の処理を繰り返し実行する。
操作部34により動画表示の終了指示が検出されたと判断した場合(ステップS31;YES)、CPU31は、動画表示処理Bを終了する。
このように、第2の実施形態では、表示するフレーム画像をユーザが指定操作するための操作用画像として回転角コントローラーを表示するので、ユーザが直感的に所望する姿勢のフレーム画像を表示する画像として指定することができる。また、ユーザによるコントローラー351aの回転操作に応じて表示するフレーム画像を切り替えることができるので、ユーザは、コントローラー351aを回転させる速度を調整することで、注目する姿勢の画像を所望の速度で表示して閲覧することが可能となる。
以上、本発明の第1及び第2の実施形態について説明したが、上記実施形態における記述内容は、本発明に係る表示システムの好適な一例であり、これに限定されるものではない。
例えば、上記実施形態においては、センサ1と画像処理装置3が別体である場合を例にとり説明したが、例えば、3軸加速度センサ、3軸ジャイロセンサ及び3軸地磁気センサ等を備えたスマートフォンなど、センサ1と画像処理装置3とが一体的に構成されていることとしてもよい。また、例えば、カメラを備えたスマートフォンなど、撮像装置2と画像処理装置3とが一体的に構成されていることとしてもよい。
また、上記実施形態においては、画像処理装置3の表示部35において操作用画像及び動画像の表示を行うこととしたが、操作用画像及び動画像を別体の表示装置に表示する構成としてもよい。
また、上記第1の実施形態においては、画像処理装置3において動画像が選択された後、動画像に対応するセンサデータを解析して動画像における各ポイントの再生時刻や各区間の時間長を算出することとして説明したが、これらの算出は初めてその動画像が選択されたとき又は予め行っておき、算出された動画像における各ポイントの再生時刻や各区間の時間長を動画像に対応付けて記憶しておくこととしてもよい。そして、動画像が選択された際には、その動画像に対応付けて記憶されている各ポイントの再生時刻や各区間の時間長を読み出してシークバーに割り当てることとしてもよい。
また、上記第2の実施形態においては、画像処理装置3において動画像が選択された後、動画像に対応するセンサデータに基づいて、動画像の各時刻におけるユーザU(被写体)の腰のZ軸周りの回転角度を算出することとしたが、この回転角度の算出は、初めてその動画像が選択されたとき又は予め行っておき、算出された回転角度を動画像に対応付けて記憶しておくこととしてもよい。そして、動画像が選択された際には、その動画像に対応付けて記憶されている各時刻の回転角度を読み出して回転角コントローラーによるフレーム画像の指定に用いてもよい。
また、上記第2の実施形態においては、操作用画像として一つの回転可能なコントローラー151を表示して、コントローラー151の回転操作に応じて動画像からフレーム画像を選択することとして説明したが、例えば、CPU31は、コントローラー151を複数の回転角度で回転させた状態を表す複数の画像(例えば、アドレス、トップ、インパクト、フィニッシュの各ポイントに対応する回転角度でコントローラー151を回転させた状態を表す複数の画像)を操作用画像として表示し、ユーザにより何れかの画像が指定操作されると、指定された画像に対応する回転角度のフレーム画像を表示するフレーム画像として選択することとしてもよい。これにより、表示させたいポイントのフレーム画像をユーザがより簡易な操作で指定することが可能となる。
また、上記実施形態においては、センサ1をユーザUの腰に装着することとして説明したが、これに限定されない。例えば、センサ1は、スマートウォッチのようなリストデバイスであってもよい。また、その他の部位(頭、腕、手首)に装着してもよい。手軽なため、身体に装着することが望ましいが、ゴルフクラブに装着することとしてもよい。また、複数個所にセンサ1を装着してもよい。例えば、腰と背中にセンサ1を装着してもよい。腰と肩の捻転差は各種競技で重要になるパラメータであるため、効果的である。
また、上記実施形態においては、センサ1からセンサデータを直接取得することとしたが、外部のネットワークを介して取得することとしてもよい。
また、上記実施形態においては、センサデータを解析して動画像の各ポイントの時刻や各区間の時間長を算出することとしたが、動画像の各フレーム画像を解析してこれらを算出することとしてもよい。また、動画像の各フレーム画像における腰の回転角度についても同様に、各フレーム画像を解析することにより求めてもよい。
また、上記実施形態においては、本発明をゴルフスイング動作を撮影した動画像を表示する場合を例にとり説明したが、これに限定されず、他の動作、例えば、テニスやゲートボール等のスイング動作を撮影した動画像を表示する場合に適用することもできる。
その他、表示システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
被写体の一連の動作を示す動画像を取得する動画像取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
<請求項2>
前記表示制御手段は、さらに前記一連の動作に含まれる特定のポイントが識別可能に表示された前記操作用画像を前記表示手段に表示させること、
を特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記操作用画像は、前記区間の区切りごとに角を有する形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
前記操作用画像は、前記特定のポイントごとに角を有する形状であること、
を特徴とする請求項2に記載の画像処理装置。
<請求項5>
前記操作用画像は、前記一連の動作の動作イメージを表現した形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
<請求項6>
被写体の回転動作を示す動画像を取得する動画像取得手段と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
<請求項7>
前記操作用画像は、ユーザ操作に応じて回転可能であり、ユーザが当該操作用画像を回転させた角度を前記表示するフレーム画像における前記被写体の回転角度として指定可能であり、
前記画像選択手段は、ユーザによる前記操作用画像の回転操作に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
<請求項8>
前記表示制御手段は、所定の画像を複数の回転角度で回転させた状態を表す複数の画像を前記操作用画像として前記表示手段に表示させ、
前記画像選択手段は、前記操作用画像における前記複数の画像のうちユーザにより指定操作された画像に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
<請求項9>
前記表示制御手段は、前記動画像の中から前記画像選択手段により選択されたフレーム画像を取得して前記表示手段に表示させること、
を特徴とする請求項1〜8のいずれか一項に記載の画像処理装置。
<請求項10>
被写体の一連の動作を示す動画像を取得する工程と、
前記取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる工程と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
<請求項11>
被写体の回転動作を示す動画像を取得する工程と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する工程と、
前記取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる工程と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
<請求項12>
コンピュータを、
被写体の一連の動作を示す動画像を取得する動画像取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
<請求項13>
コンピュータを、
被写体の回転動作を示す動画像を取得する動画像取得手段、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
100 表示システム
1 センサ
11 CPU
12 RAM
13 記憶部
14 操作部
15 センサ部
16 通信部
17 計時部
18 バス
2 撮像装置
21 CPU
22 RAM
23 記憶部
24 操作部
25 表示部
26 撮像部
27 通信部
28 計時部
29 バス
3 画像処理装置
31 CPU
32 RAM
33 記憶部
331 プログラム記憶部
332 センサデータ記憶部
333 動画像記憶部
34 操作部
35 表示部
36 第一通信部
37 第二通信部
38 バス

Claims (5)

  1. 被写体の一連の動作を示す動画像を取得する動画像取得手段と、
    前記被写体に装着されたセンサにより計測された前記の一連の動作が行われた時のセンサデータを取得するセンサデータ取得手段と、
    前記センサデータ取得手段により取得されたセンサデータから、前記一連の動作に含まれる特定のポイントの時刻を特定する時刻特定手段と、
    前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記時刻特定手段によって特定された特定のポイントの時刻が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
    ユーザの指定操作により前記操作用画像における前記特定のポイントの時刻が指定されると、前記動画像の中から前記特定のポイントに対応するフレーム画像を選択する画像選択手段と、
    を備え
    前記一連の動作を示す動画像は、前記特定のポイントにより複数の部分動作の区間に区切ることが可能な動画像であり、
    前記操作用画像は、前記複数の部分動作の区間の区切りごとに角を有する形状であること、
    を特徴とする画像処理装置。
  2. 前記操作用画像は、前記一連の動作の動作イメージを表現した形状であること、
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記動画像の中から前記画像選択手段により選択されたフレーム画像を取得して前記表示手段に表示させること、
    を特徴とする請求項1又は2に記載の画像処理装置。
  4. 被写体の一連の動作を示す動画像を取得する工程と、
    前記被写体に装着されたセンサにより計測された前記の一連の動作が行われた時のセンサデータを取得する工程と、
    前記取得されたセンサデータから、前記一連の動作に含まれる特定のポイントの時刻を特定する工程と、
    前記取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、特定された特定のポイントの時刻が識別可能に表示された前記操作用画像を表示手段に表示させる工程と、
    ユーザの指定操作による前記操作用画像における前記特定のポイントの時刻が指定されると、前記動画像の中から前記特定のポイントに対応するフレーム画像を選択する工程と、
    を含み、
    前記一連の動作を示す動画像は、前記特定のポイントにより複数の部分動作の区間に区切ることが可能な動画像であり、
    前記操作用画像は、前記複数の部分動作の区間の区切りごとに角を有する形状であること、
    を特徴とする画像処理方法。
  5. コンピュータを、
    被写体の一連の動作を示す動画像を取得する動画像取得手段、
    前記被写体に装着されたセンサにより計測された前記の一連の動作が行われた時のセンサデータを取得するセンサデータ取得手段、
    前記センサデータ取得手段により取得されたセンサデータから、前記一連の動作に含まれる特定のポイントの時刻を特定する時刻特定手段、
    前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記時刻特定手段によって特定された特定のポイントの時刻が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段、
    ユーザの指定操作により前記操作用画像における前記特定のポイントの時刻が指定されると、前記動画像の中から前記特定のポイントに対応するフレーム画像を選択する画像選択手段、
    として機能させ、
    前記一連の動作を示す動画像は、前記特定のポイントにより複数の部分動作の区間に区切ることが可能な動画像であり、
    前記操作用画像は、前記複数の部分動作の区間の区切りごとに角を有する形状であることを特徴とするプログラム。
JP2017058947A 2017-03-24 2017-03-24 画像処理装置、画像処理方法及びプログラム Active JP6897215B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017058947A JP6897215B2 (ja) 2017-03-24 2017-03-24 画像処理装置、画像処理方法及びプログラム
JP2021096455A JP7272388B2 (ja) 2017-03-24 2021-06-09 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058947A JP6897215B2 (ja) 2017-03-24 2017-03-24 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021096455A Division JP7272388B2 (ja) 2017-03-24 2021-06-09 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018163417A JP2018163417A (ja) 2018-10-18
JP6897215B2 true JP6897215B2 (ja) 2021-06-30

Family

ID=63860202

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017058947A Active JP6897215B2 (ja) 2017-03-24 2017-03-24 画像処理装置、画像処理方法及びプログラム
JP2021096455A Active JP7272388B2 (ja) 2017-03-24 2021-06-09 画像処理装置、画像処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021096455A Active JP7272388B2 (ja) 2017-03-24 2021-06-09 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (2) JP6897215B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3282957B2 (ja) * 1996-01-18 2002-05-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 座標入力制御装置及び方法
JP3325859B2 (ja) * 1998-07-08 2002-09-17 日本電信電話株式会社 データ入力方法、データ入力装置、およびデータ入力プログラムを格納する記録媒体、ならびに映像データ操作方法、映像データ操作装置、および映像データ操作プログラムを格納する記録媒体
JP5648647B2 (ja) * 2012-03-21 2015-01-07 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6451375B2 (ja) 2015-02-12 2019-01-16 セイコーエプソン株式会社 運動解析方法及びその装置並びに運動解析プログラム
JP2016218764A (ja) * 2015-05-21 2016-12-22 アルパイン株式会社 電子装置、再生制御プログラムおよび再生制御方法
WO2017022286A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理システム、情報処理方法、および記録媒体

Also Published As

Publication number Publication date
JP7272388B2 (ja) 2023-05-12
JP2021144744A (ja) 2021-09-24
JP2018163417A (ja) 2018-10-18

Similar Documents

Publication Publication Date Title
JP5940436B2 (ja) モーションセンサを用いたスイング解析システム、スイング解析方法、およびスイング解析プログラム
KR20150005447A (ko) 운동 해석 장치
KR20140148308A (ko) 운동 해석 장치
US10973463B2 (en) Information processing device
US10512833B2 (en) Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium
CN105125160B (zh) 一种口腔内窥镜检测系统及其检测方法
JP2015077351A (ja) 運動解析方法、運動解析装置および運動解析プログラム
JP7215515B2 (ja) 解析装置、解析方法及びプログラム
JP2015156882A (ja) 運動解析装置及び運動解析システム
CN105242888B (zh) 一种系统控制方法及电子设备
JP2013009917A (ja) 運動解析システム、運動解析プログラム、および、運動解析プログラムを記録した記録媒体
US10286285B2 (en) Display method, display apparatus, motion analysis system, motion analysis program, and recording medium
JP6380733B2 (ja) 運動解析装置、運動解析システム、運動解析方法、運動解析情報の表示方法及びプログラム
KR102553278B1 (ko) 화상 처리 장치, 해석 시스템, 화상 처리 방법 및 프로그램
JP2018008015A (ja) 運動評価装置、運動評価方法及び運動評価プログラム
CN204889937U (zh) 一种口腔内窥镜
JP6897215B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6428815B2 (ja) 運動解析装置、運動解析システムおよび運動解析方法
JP6942958B2 (ja) 運動解析装置、運動解析方法及びプログラム
JP6158986B2 (ja) モーションセンサを用いたスイング解析システム、スイング解析方法、およびスイング解析プログラム
JP2018158052A (ja) 運動解析装置、運動解析システム、運動解析方法及びプログラム
JP7188422B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP6255738B2 (ja) 運動解析装置および運動解析プログラム並びに表示方法
JP6149211B2 (ja) 携帯端末装置、プログラムおよび手ぶれ補正方法
JP2015134008A (ja) 運動解析方法、運動解析装置及び運動解析プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150