JP6213146B2 - 情報処理装置、記録媒体、および情報処理方法 - Google Patents

情報処理装置、記録媒体、および情報処理方法 Download PDF

Info

Publication number
JP6213146B2
JP6213146B2 JP2013221287A JP2013221287A JP6213146B2 JP 6213146 B2 JP6213146 B2 JP 6213146B2 JP 2013221287 A JP2013221287 A JP 2013221287A JP 2013221287 A JP2013221287 A JP 2013221287A JP 6213146 B2 JP6213146 B2 JP 6213146B2
Authority
JP
Japan
Prior art keywords
time
image
images
user
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013221287A
Other languages
English (en)
Other versions
JP2015082817A (ja
Inventor
木村 隆臣
隆臣 木村
英行 松永
英行 松永
功誠 山下
功誠 山下
尚史 深澤
尚史 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013221287A priority Critical patent/JP6213146B2/ja
Priority to US14/917,201 priority patent/US10070046B2/en
Priority to EP14789422.4A priority patent/EP3060317B1/en
Priority to CN201480056983.9A priority patent/CN105658287B/zh
Priority to PCT/JP2014/004979 priority patent/WO2015059874A1/en
Publication of JP2015082817A publication Critical patent/JP2015082817A/ja
Application granted granted Critical
Publication of JP6213146B2 publication Critical patent/JP6213146B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/10Athletes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Description

本開示は、情報処理装置、記録媒体、および情報処理方法に関する。
カメラ、またはカメラを搭載した装置の普及によって、さまざまなシーンでユーザの画像(静止画または動画)を撮影することは、今や一般的である。そのような場合において、画像は、いわゆる決定的瞬間をとらえることを期待されることが多い。例えば、スポーツのプレー中の画像を撮影する場合には、ボールのインパクトの瞬間、跳躍の瞬間、着地の瞬間、技を決めた瞬間など、ユーザが画像として記録したいであろう多くの決定的瞬間がある。このような決定的瞬間を画像として記録するための技術として、例えば、特許文献1には、スルー画像からレリーズの契機となる被写体の表情または動作(ジェスチャー)を検出し、該表情または動作が検出されたときに自動的に本撮影を実行する技術が記載されている。
特開2010−273280号公報
しかしながら、例えばスポーツのプレーは連続するさまざまなモーションから成り立っており、スルー画像から決定的瞬間を特定することは容易ではない。また、表情などとは異なり、決定的瞬間の持続時間はきわめて短いことが多い。このような場合に、例えば特許文献1に記載された技術を適用して、スルー画像から被写体の表情または動作を検出していたのでは、決定的瞬間を正しく検出することは難しい。
そこで、本開示では、被写体の連続するモーションの中から決定的瞬間を正確に特定して画像として抽出することが可能な、新規かつ改良された情報処理装置、記録媒体、および情報処理方法を提案する。
本開示によれば、ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および上記センサデータに対応する時刻情報を受信する通信部と、上記センサデータおよび上記時刻情報に基づいて、上記ユーザまたは上記オブジェクトに所定のモーションパターンが発生した時刻を特定する解析部と、上記特定された時刻に応じて、所定の時間間隔で撮影された上記ユーザまたは上記オブジェクトを含む一連の画像から1または複数の画像を選択する画像選択部とを含む情報処理装置が提供される。
また、本開示によれば、ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および上記センサデータに対応する時刻情報を受信する機能と、上記センサデータおよび上記時刻情報に基づいて、上記ユーザまたは上記オブジェクトに所定のモーションパターンが発生した時刻を特定する機能と、上記特定された時刻に応じて、所定の時間間隔で撮影された上記ユーザまたは上記オブジェクトを含む一連の画像から1または複数の画像を選択する機能とをコンピュータに実現させるためのプログラムが記録された記録媒体が提供される。
また、本開示によれば、ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および上記センサデータに対応する時刻情報を受信することと、上記センサデータおよび上記時刻情報に基づいて、上記ユーザまたは上記オブジェクトに所定のモーションパターンが発生した時刻を特定することと、上記特定された時刻に応じて、所定の時間間隔で撮影された上記ユーザまたは上記オブジェクトを含む一連の画像から1または複数の画像を選択することとを含む情報処理方法が提供される。
以上説明したように本開示によれば、被写体の連続するモーションの中から決定的瞬間を正確に特定して画像として抽出することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るシステムの概略的な構成を示す図である。 本開示の一実施形態に係るスマートフォンの概略的な機能構成を示す図である。 本開示の一実施形態において単一の静止画像を選択する例について説明するための図である。 本開示の一実施形態において連続写真を選択する例について説明するための図である。 本開示の一実施形態において動画像の区間を設定する例について説明するための図である。 本開示の一実施形態において継続的なモーションパターンに基づいて画像を選択する例について説明するための図である。 ショット診断アプリケーションの開始画面を示す図である。 ショット診断アプリケーションの測定中画面を示す図である。 ショット診断アプリケーションの解析中画面を示す図である。 ショット診断アプリケーションの結果画面を示す図である。 ショット診断アプリケーションの連続写真画面を示す図である。 ショット診断アプリケーションの再生コントロール画面を示す図である。 連続写真生成アプリケーションの開始画面を示す図である。 連続写真生成アプリケーションの撮影中画面を示す図である。 連続写真生成アプリケーションの生成中画面を示す図である。 連続写真生成アプリケーションの生成結果画面を示す図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成
2.機能構成
3.画像選択の例
3−1.単一の静止画像を選択する例
3−2.連続写真を選択する例
3−3.動画像の区間を設定する例
3−4.継続的なモーションパターンを検出する例
4.アプリケーションの例
4−1.ショット診断アプリケーション
4−2.連続写真生成アプリケーション
5.ハードウェア構成
6.補足
(1.システム構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、センサ装置100と、スマートフォン200と、カメラ300と、サーバ400とを含む。
センサ装置100は、ユーザまたはユーザに接触するオブジェクトに装着されたセンサである。図示された例において、ユーザはスポーツ(テニス)をプレーしている。この例において、センサ装置100は、例えばユーザが把持しているテニスラケットのグリップ部分に嵌め込まれたり、シャフト部分に巻きつけられる。テニスラケットは、ユーザに接触するオブジェクトである。あるいは、センサ装置100は、腕輪状の形状を有してユーザの手首に装着されてもよい。他の例において、センサ装置100は、ユーザの体の他の部位、例えば腕や足首などに装着されてもよい。また、センサ装置100がテニスラケットのようなオブジェクトに装着される場合、センサ装置100は、オブジェクトは、例えばラケットのような打具、ウェア、シューズ、またはリストバンドのようなスポーツ用具でありうる。この場合、センサ装置100は、オブジェクトに巻きつけられたり、縫い付けられたり、貼りつけられたり、予め内蔵されることによって装着されうる。
例えば、センサ装置100は、ユーザの挙動を示すセンサデータを取得するためのセンサと、センサデータを処理するための処理回路と、スマートフォン200との通信を実行するための通信装置とを備える。センサは、例えば加速度、角速度、振動、温度、時刻、または位置(例えば緯度経度によって表される地表上の位置、またはコートなどに対する相対的な位置)などに関するセンサデータを取得する。処理回路は、必要に応じてセンサデータを前処理する。通信装置は、スマートフォン200との間で例えばBluetooth(登録商標)などの無線通信を実行する。無線通信によって、例えば、センサデータ(処理回路によって前処理されたものを含む)がセンサ装置100からスマートフォン200に送信される。また、無線通信によって、スマートフォン200からセンサ装置100に制御信号が送信されてもよい。この場合、センサおよび/または処理回路は、通信装置によって受信された制御信号に従って動作する。
スマートフォン200は、ユーザによって使用される情報処理端末の例である。図示された例において、スマートフォン200は、スポーツ(テニス)をプレーするユーザの近くに置かれている。ユーザは、例えばプレーの合間にスマートフォン200を使用して、後述するようなプレー支援アプリケーションを利用する。また、スマートフォン200は、ユーザによって使用されていない間、つまりユーザがスポーツをプレーしている最中にも、センサ装置100やカメラ300と連係動作してさまざまな処理を実行しうる。例えば、スマートフォン200は、センサ装置100から受信されたセンサデータに基づいて、カメラ300によって撮影された画像の記録を制御してもよい。また、スマートフォン200は、センサデータに基づいて生成された制御信号をカメラ300に送信することによって、カメラ300の撮影動作を制御してもよい。スマートフォン200はセンサ装置100にも同様に制御信号を送信してもよい。さらに、スマートフォン200は、センサ装置100から受信されたセンサデータやカメラ300によって撮影された画像を、サーバ400にアップロードしてもよい。また、スマートフォン200は、センサ装置100やカメラ300との連係動作に関する処理の一部または全部を、サーバ400に依頼してもよい。
例えば、スマートフォン200は、センサデータや画像に関する処理を実行するためのプロセッサと、センサデータ、画像、および各種の中間データを格納するためのメモリまたはストレージと、ユーザに向けてプレー支援アプリケーションなどの画面を表示するためのディスプレイと、ユーザの操作入力を取得するためのタッチパネルなどの操作手段と、センサ装置100、カメラ300、およびサーバ400との間の通信を実行するための通信装置とを備える。通信装置は、例えば、センサ装置100およびカメラ300とのBluetooth(登録商標)などの無線通信を実行する通信装置と、サーバ400との間のネットワーク通信を実行する通信装置とを含みうる。なお、これらのハードウェア構成によって実現される機能については後述する。また、スマートフォン200を実現しうる情報処理装置のより具体的なハードウェア構成例についても後述する。
カメラ300は、ユーザを被写体として含む画像を撮影することが可能な撮像装置の例である。撮影される画像は、静止画であってもよいし動画であってもよい。図示された例において、カメラ300は、スポーツ(テニス)をプレーするユーザを撮影することが可能な位置、例えばコートサイドなどに配置されている。本実施形態において、カメラ300は、スマートフォン200と連係動作する。例えば、カメラ300は、撮影した画像の一部または全部を、スマートフォン200に送信してもよい。また、例えば、カメラ300は、スマートフォン200から受信される制御信号に従って撮影を実行してもよい。なお、このようなカメラ300とスマートフォン200との連係動作のより具体的な例については後述する。
例えば、カメラ300は、撮像素子と、レンズなどの光学系と、撮像素子および光学系の制御手段と、撮像された画像を一時的または持続的に格納するためのメモリまたはストレージと、撮像された画像を処理するためのプロセッサと、スマートフォン200との通信を実行するための通信装置とを備える。通信装置は、スマートフォン200との間で例えばBluetooth(登録商標)などの無線通信を実行する。無線通信によって、例えば、撮像された画像がカメラ300からスマートフォン200に送信される。また、無線通信によって、スマートフォン200からカメラ300に制御信号が送信されてもよい。この場合、制御手段および/またはプロセッサは、通信装置によって受信された制御信号に従って動作する。なお、カメラ300も、後述する情報処理装置のハードウェア構成によって実現されてもよい。
サーバ400は、スマートフォン200とネットワークを介して通信し、センサデータや画像のアップロードを受け付けたり、スマートフォン200の依頼に応じて処理を実行したりする。例えば、単一のユーザについては、システム10はサーバ400を含まずに完結しうる。一方、複数のユーザが存在する場合、サーバ400にデータや画像がアップロードされることによって、画像をユーザ間で共有したり、複数のユーザのデータに基づいてセンサデータのパターン学習をしたりすることが可能になる。また、サーバ400がスマートフォン200の依頼に応じて処理を実行することによって、スマートフォン200の処理負荷を軽減することができる。
例えば、サーバ400は、センサデータや画像に関する処理やその他のスマートフォン200から依頼された処理などを実行するためのプロセッサと、アップロードされたセンサデータや画像、および各種の中間データを格納するためのメモリまたはストレージと、スマートフォン200との間の通信を実行するための通信装置とを備える1または複数のサーバ装置によって実現される。通信装置は、スマートフォン200との間でネットワーク通信を実行する。上記のように、ネットワーク通信によって、例えばセンサデータや画像がスマートフォン200からサーバ400にアップロードされる。また、ネットワーク通信によって、スマートフォン200がサーバ400に要求したデータや、サーバ400がスマートフォン200の依頼に応じて実行した処理の結果が、サーバ400からスマートフォン200に送信されてもよい。なお、サーバ400を構成するサーバ装置を実現しうる情報処理装置のより具体的なハードウェア構成については後述する。
なお、以上で説明したシステム10の構成は一例にすぎず、他にもさまざまなシステムの構成が可能である。例えば、カメラ300は、スマートフォン200に内蔵されてもよい。この場合、上述したシステム10におけるカメラ300とスマートフォン200と間の無線通信によるデータのやりとりは、スマートフォン200内部のバスなどを介したデータのやりとりに置き換えられる。この場合、スマートフォン200は、撮影機能、処理機能、および通信機能をもつ各種の端末装置、例えばタブレット端末またはゲーム機などに置き換えられてもよい。また、カメラ300とスマートフォン200とが別体である場合、スマートフォン200は、処理機能および通信機能をもつ各種の端末装置、例えば各種のパーソナルコンピュータなどに置き換えられうる。
また、他の例として、上述したスマートフォン200の機能の一部がカメラ300によって実現されてもよい。例えば、センサ装置100はカメラ300と通信し、カメラ300自身が、センサ装置100から受信したセンサデータに基づいて撮影の制御を実行してもよい。この場合、カメラ300が本開示の実施形態に係る情報処理装置でありうる。また、この場合、システム10はスマートフォン200を含まなくてもよい。さらに、カメラ300はサーバ400と通信し、画像を直接サーバ400にアップロードしてもよい。同様に、センサ装置100も、センサデータを直接サーバ400にアップロードしてもよい。この場合、センサ装置100とカメラ300は直接的に通信しなくてもよく、カメラ300はセンサ装置100からサーバ400に送信されたセンサデータに基づいてサーバ400によって制御されうる。この場合は、サーバ400が本開示の実施形態に係る情報処理装置であるともいえる。
(2.機能構成)
図2は、本開示の一実施形態に係るスマートフォンの概略的な機能構成を示す図である。図2を参照すると、スマートフォン200は、送信部201と、受信部203と、センサ装置制御部205と、センサデータ解析部207と、解析結果処理部209と、カメラ制御部211と、画像保持部213と、画像選択部215と、静止画像記録部217と、動画像記録部219と、データ保持部221と、表示制御部223と、表示部225と、時刻情報保持部227とを機能構成として含む。以下、それぞれの機能構成についてさらに説明する。
送信部201および受信部203は、通信装置によって実現される。送信部201は、センサ装置100に制御信号を送信する。制御信号は、例えば、センサデータの検出およびスマートフォン200へのセンサデータの送信を開始/終了するためのコマンドを含んでもよい。また、制御信号は、センサ装置100がセンサデータに関連付ける時刻を調整するためのコマンドを含んでもよい。後述するように、スマートフォン200は、センサ装置100において取得されるセンサデータと、カメラ300が撮影した画像とに基づいて処理を実行するにあたり、これらを時刻を基準にして同期させる。従って、本実施形態では、スマートフォン200が、センサ装置100においてセンサデータに関連付けられる時刻と、カメラ300において画像に関連付けられる時刻とが一致するように、それぞれの装置に時刻を調整するためのコマンドを送信しうる。なお、他の実施形態において、それぞれの装置で関連付けられる時刻によらずにセンサデータと画像とを同期させることが可能である場合には、制御信号は時刻を調整するためのコマンドを含まなくてもよい。受信部203は、センサ装置100から、センサデータと、センサデータに対応する時刻情報とを受信する。
センサ装置制御部205は、プロセッサによって実現される。センサ装置制御部205は、送信部201および受信部203を介して、センサ装置100を制御するとともに、センサ装置100によって提供されるセンサデータおよびセンサデータに対応する時刻情報を取得する。センサ装置制御部205は、受信したセンサデータおよび時刻情報を、センサデータ解析部207に提供する。また、センサ装置制御部205は、送信部201を介してセンサ装置100に送信する時刻調整コマンドに含まれる時刻を、時刻情報保持部227から取得する。
センサデータ解析部207は、プロセッサによって実現される。センサデータ解析部207は、センサ装置制御部205から提供されたセンサデータを解析し、解析結果を解析結果処理部209に提供する。より具体的には、センサデータ解析部207は、センサデータおよびセンサデータに対応する時刻情報に基づいて、センサ装置が装着されたユーザまたはオブジェクトに所定のモーションパターンが発生した時刻を特定する。ここで、所定のモーションパターンは、例えば、センサ装置100が装着されるユーザまたはオブジェクトと他のオブジェクトとのインパクトによって生じるパターンを含みうる。ユーザがスポーツをプレーしている場合の例でいえば、ユーザの体または打具によるボールのインパクトがあった場合に、このようなパターンが発生しうる。
解析結果処理部209は、プロセッサによって実現される。解析結果処理部209は、センサデータ解析部207から取得した解析結果に基づく情報を、カメラ制御部211および/または画像選択部215に提供する。カメラ制御部211には、例えば、解析結果に基づく撮影開始/終了のコマンドが出力されうる。また、画像選択部215には、例えば、解析結果に基づく、画像選択の基準になる時刻を特定する情報が出力されうる。
カメラ制御部211は、プロセッサによって実現される。カメラ制御部211は、解析結果処理部209から取得される情報に基づいてカメラ300を制御するとともに、カメラ300から提供された画像を取得する。例えば、カメラ制御部211は、解析結果処理部209から取得される撮影開始/終了のコマンドに従って、カメラ300に撮影開始/終了のコマンドを送信する。カメラ300は、撮影開始/終了のコマンドに応じて、例えば撮像素子による画像の生成自体を開始/終了してもよい。あるいは、カメラ300は、撮影開始/終了のコマンドに応じて、撮像素子によって生成された画像のスマートフォン200への送信を開始/終了してもよい。また、カメラ300は、撮影開始/終了のコマンドに応じて、カメラ300における画像の記録を開始/終了してもよい。
また、カメラ制御部211は、時刻情報保持部227から取得された時刻に基づいて、カメラ300に時刻調整コマンドを送信する。時刻調整コマンドは、センサ装置100に送信されるものと同様に、カメラ300が画像に関連付ける時刻を調整するためのコマンドである。上述のように、カメラ300に送信される時刻調整コマンドと、センサ装置100に送信される時刻調整コマンドとが、共通する時刻情報保持部227から取得された時刻に基づいて生成されることで、画像とセンサデータとにそれぞれ関連付けられる時刻を一致させることができる。カメラ制御部211がカメラ300から受信する画像には、時刻調整コマンドに従って調整された時刻が関連付けられている。カメラ制御部211は、受信された画像と、画像に関連付けられた時刻とを、画像保持部213に格納する。
画像保持部213は、メモリまたはストレージによって実現される。画像保持部213は、カメラ制御部211がカメラ300から取得した画像を、画像に関連付けられた時刻とともに保持する。ここで、画像保持部213は、連続的な画像を循環的に保持し続ける所定のサイズのバッファとして機能しうる。つまり、画像は、画像保持部213から画像選択部215に提供された後は、例えば容量が所定の閾値を下回った時点で破棄されうる。画像保持部213に格納される画像は、静止画像として扱われても動画像として扱われてもよいが、いずれも場合の所定の間隔(またはフレームレート)で連続的に撮影された画像である。
画像選択部215は、プロセッサによって実現される。画像選択部215は、解析結果処理部209から提供される情報に基づいて、画像保持部213に格納された画像の中から1または複数の画像を選択する。より具体的には、画像選択部215は、センサデータ解析部207によって特定された、ユーザまたはオブジェクトに所定のモーションパターンが発生した時刻に応じて、所定の間隔で撮影されたユーザまたはオブジェクトを含む一連の画像から1または複数の画像を選択する。この場合、画像選択部215は、所定のフレームレートで動画像が構成されるように画像を選択してもよいし、それぞれの画像を独立した静止画像として選択してもよい。なお、画像選択部215による画像選択のより具体的な例については後述する。
静止画像記録部217および動画像記録部219は、プロセッサによって実現される。静止画像記録部217は、画像選択部215によって選択された1または複数の画像を、静止画像として記録する。動画像記録部219は、画像選択部215によって選択された1または複数の画像を、動画像として記録する。静止画像および動画像は、データ保持部221において永続的に記録される。データ保持部221は、メモリまたはストレージによって実現される。
表示制御部223は、プロセッサによって実現される。表示制御部223は、データ保持部221に保持された静止画像または動画像を、表示部225に表示させる。表示部225は、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどによって実現される。静止画像または動画像は、例えばスマートフォン200において提供されるプレー支援アプリケーションに組み込まれて表示されてもよい。また、例えば、静止画像は、ダイジェスト画像やサムネイル画像などとして単体で表示されてもよいし、一連の動作を表す連続写真のように複数が組み合わせて表示されてもよい。
(3.画像選択の例)
上述のように、本実施形態では、例えばセンサ装置100とカメラ300とに共通する時刻情報に基づく時刻調整コマンドが送信されることによって、センサデータと画像との時刻が一致している。これを利用して、さまざまなやり方で画像を選択し、例えばいわゆる決定的瞬間の画像を抽出してユーザに提示することができる。以下では、そのような画像の選択のいくつかの例について、図3〜図6を参照して説明する。
なお、本実施形態において、センサデータおよび画像がスマートフォン200において受信された時刻による同期を採用しないのは、その場合、センサ装置100とスマートフォン200との間、およびカメラ300とスマートフォン200との間での通信による時間の誤差が生じてしまうためである。通信による時間の誤差は、例えば、センサ装置100とカメラ300との間でスマートフォン200までの距離に差があったり、通信方式が相違していたり(例えば、一方はBluetooth(登録商標)で他方はサーバを経由したネットワーク通信の場合)、送受信されるデータ(センサデータと画像データ)の容量に差があったりするような場合に生じうる。
従って、他の実施形態で、例えばセンサ装置およびカメラがスマートフォンからほぼ同じ距離にあったり、通信方式が同一であったりして、通信による時間の誤差を許容できるような場合には、センサデータおよび画像が受信された時刻による同期が採用されてもよい。その場合も、精度がやや低下する(上記の通り許容範囲内である)だけで、同じように以下で説明するような画像の選択を実行することができうる。
(3−1.単一の静止画像を選択する例)
図3は、本開示の一実施形態において単一の静止画像を選択する例について説明するための図である。図3を参照すると、この例では、画像選択部215が、センサデータによって示されるインパクト発生時刻において、単一の画像を静止画像として選択する。インパクト発生時刻は、例えば、センサデータとして取得される加速度センサの検出結果において、高い周波数で大きな振幅の加速度変化が発生した時刻として特定することが可能である。
なお、以下で説明する画像選択の例では、カメラ制御部211によってカメラ300から受信された画像保持部213に一時的に保持される一連の画像に、説明のために01〜18の番号が与えられている。画像01〜18は、所定の時間間隔(フレームレート)で撮影されている。画像の番号自体には意味はなく、例えば、画像01以前、および画像18以降にもカメラ300から画像が受信されていてもよい。
図示された例では、センサデータと画像との時刻を一致させた結果、画像14が、センサデータに基づいて検出されるインパクト発生時刻に撮影された画像として特定される。従って、画像選択部215は、画像14を、インパクトの瞬間をとらえた静止画像として選択する。例えば、テニスでは、サーブ、ストローク、スマッシュなど、ラケットに対するボールのインパクトが発生した瞬間が決定的瞬間である可能性が高い。従って、インパクトの瞬間をとらえた画像14は、決定的瞬間をとらえたベストショットである可能性が高い。
なお、テニスの場合に限らず、他の球技においても、ラケットやバットなどの打具に対するボールのインパクトや、ユーザの体に対するボールのインパクトが発生した瞬間が決定的瞬間である可能性が高い。また、球技以外でも、ユーザの体や用具に対する地面や床などのインパクトが発生した瞬間が決定的瞬間である可能性が高い。従って、多くのケースで、上記のように、センサが装着されたユーザまたはオブジェクトにインパクトが発生した時刻に対応する画像を静止画像として選択することによって、決定的瞬間をとらえたベストショットを得ることができる可能性がある。
(3−2.連続写真を選択する例)
図4は、本開示の一実施形態において連続写真を選択する例について説明するための図である。図4を参照すると、この例では、画像選択部215が、図3の例と同様にセンサデータに基づいて検出されるインパクト発生時刻の前後の所定の区間で撮影された複数の画像を、連続写真を構成する一連の画像として選択する。
図示された例では、センサデータと画像との時刻を一致させた結果、画像14が、センサデータに基づいて検出されるインパクト発生時刻の画像として特定される。画像選択部215は、インパクトの前後でのユーザの動きを示す連続写真を生成するために、インパクトの発生時刻の前後の所定の区間において、一部の画像をスキップしながら複数の画像を選択する。より具体的には、図示された範囲で、画像選択部215は、画像04,08,11,13,14,15,17,・・・を選択している(画像17以降は図示されていないが、同様に選択される)。ここで、画像が選択される所定の区間は、例えば次に説明する動画像の例と同様に、所定の時間によって決定されてもよい。あるいは、区間は、一連の画像の所定の数(つまりフレーム数)によって決定されてもよい。
ここで、画像選択部215は、時間的に等間隔に画像を選択しているわけではない。より具体的には、画像選択部215は、インパクトの瞬間(画像14)から時間的に離れるにつれて、スキップの間隔が長くなるように画像を選択している。例えば、インパクトの瞬間(画像14)の前に選択される画像は、直前に位置する画像13である。そこから過去に向かって、1つスキップして画像11、次は2つスキップして画像08、その次は3つスキップして画像04というように、徐々にスキップの間隔が拡大していく。
例えば、ユーザがラケットでボールを打つ場合、ボールのインパクトの瞬間の前後でユーザおよびラケットのモーションにおける時間あたりの変位が最も大きくなり、インパクトから時間的に離れるにしたがって時間あたりの変位は小さくなる傾向がある。従って、上記のように、画像選択部215がインパクトの瞬間を基準にして不均等な間隔で画像を選択することによって、連続写真として見た場合により自然な画像を選択することができる。
付加的な構成として、画像選択部215は、所定の区間の長さをインパクトの前と後とで異ならせることによって、インパクトの前後で選択される画像の数を異ならせてもよい。図示された例でいえば、画像選択部215は、インパクトの瞬間で1つ(画像14)、インパクトの前で4つ(画像04,08,11,13)の画像を選択しているのに対し、インパクトの後では3つの画像(画像15,17,20(画像20は図示せず))しか選択しなくてもよい。例えば、ユーザがラケットでボールを打つ場合に、インパクトよりも前のモーション(テイクバック)の方が、インパクトよりも後のモーション(フォロースルー)よりも注目される傾向があるとすれば、上記の付加的な構成が有効でありうる。
(3−3.動画像の区間を設定する例)
図5は、本開示の一実施形態において動画像の区間を設定する例について説明するための図である。図5を参照すると、この例では、画像選択部215が、図3の例と同様にセンサデータに基づいて検出されるインパクト発生時刻の前後の所定の区間で撮影された複数の画像を、動画像を構成する一連のフレーム画像として選択する。
図示された例では、センサデータと画像との時刻を一致させた結果、画像14が、センサデータに基づいて検出されるインパクトの発生時刻の画像として特定される。画像選択部215は、インパクトの瞬間を含む動画像を生成するために、画像14を含む所定の区間の画像を、動画像を構成するフレーム画像として選択する。より具体的には、画像選択部215は、インパクトの瞬間の前後、所定の時間tの範囲の画像を、動画像を構成するフレーム画像として選択する。図にはインパクトの瞬間の前しか示されていないが、後についても同様である。あるいは、所定の時間tの代わりに、一連の画像の所定の数(つまりフレーム数)が用いられてもよい。
上述の通り、本実施形態において、画像保持部213は、一連の画像を循環的に記録する所定のサイズのバッファとして機能しうる。静止画像記録部217や動画像記録部219が、画像選択部215によって選択された画像をバッファから読み出してデータ保存部に永続的に記録することによって、限られたサイズのバッファを使用しながら、決定的瞬間をとらえた動画像を逃さずに保存することができる。この例は、例えばプレー時間全体の画像を一旦保存し、事後的に画像解析などを実施して決定的瞬間の区間を探索する場合に比べて、バッファのサイズが少なくて済み、また長時間の動画像に対する画像解析のような負荷が高い処理を実行しなくてもよいという点で有利である。
なお、付加的な構成として、画像選択部215は、図4の例における付加的な構成と同様に、インパクトの瞬間の前と後とで、動画像の区間を決定するための所定の時間tの値を異ならせてもよい。
(3−4.継続的なモーションパターンを検出する例)
図6は、本開示の一実施形態において継続的なモーションパターンに基づいて画像を選択する例について説明するための図である。図6を参照すると、この例では、画像選択部215が、センサデータから検出される継続的なモーションパターンの開始時刻および/または終了時刻に基づいて決定される区間で撮影された複数の画像を、動画像を構成する一連のフレーム画像として選択する。
本実施形態では、センサデータ解析部207によって検出される所定のモーションパターンに、インパクトによって生じるパターンとともに、またはこれに代えて、インパクトに先行して生じる、またはインパクトに後続して生じる継続的なモーションパターンが含まれうる。図示された例では、例えばセンサデータとして取得される加速度センサの検出結果において、ユーザまたはオブジェクト(ラケットなど)に発生する継続的なモーションに対応するパターンを定義することができる。継続的なモーションは、ある程度の時間的長さをもっている点で、インパクトのような瞬間的なモーションとは異なる。継続的なモーションとしては、例えば、ラケットによるボールのインパクトの前に発生する「テイクバック」や、インパクトの後に発生する「フォロースルー」のように、インパクトに関連して発生するモーションが含まれうる。このようなモーションに対応するモーションパターンを、本明細書では継続的なモーションパターンという。
図示された例では、センサデータ解析部207によって検出された、インパクトに先行して生じる「テイクバック」のモーションパターンの開始時刻から、インパクトに後続して生じる「フォロースルー」のモーションパターンの終了時刻までを所定の区間に設定し、この区間で撮影された一連のフレーム画像が画像選択部215によって選択される。この場合、画像選択部215には、インパクトの瞬間を時刻として特定する情報が必ずしも与えられなくてもよい。
上記の例に示されるような、継続的なモーションパターンの開始時刻または終了時刻に基づく所定の区間の決定は、例えば、図4に示した例のような連続写真を構成する一連の画像の選択にも適用可能である。インパクトの前後に発生する継続的なモーションパターンを利用して画像を選択することによって、例えば、所定の時間やフレーム数に基づいて所定の区間を決定する場合に比べて、インパクトに関連する意味のある区間の画像をより正確に抽出することができる。
また、インパクトのような瞬間的なモーションパターンとは異なり、継続的なモーションパターンの場合は、パターンに沿ったモーションがある程度の時間にわたって継続している場合に、センサデータ解析部207がリアルタイムでモーションパターンの開始を判定することが可能である。それゆえ、例えば、インパクトに先立って発生する継続的なモーションパターン(例えばテイクバック)の開始がリアルタイムで検出された時点で、解析結果処理部209がカメラ制御部211に提供する情報に基づいて、撮影を開始したり、撮影された画像のスマートフォン200への送信を開始するように、カメラ300を制御することが可能である。
また、継続的なモーションパターンの場合、パターンに沿ったモーションがある程度の時間にわたって継続している時点で、モーションが発生していること自体は特定されうる。従って、センサデータ解析部207は、パターンに沿ったモーションが終了したことによって、モーションパターンの終了についてもリアルタイムで判定することが可能である。それゆえ、例えば、インパクトに後続して発生する継続的なモーションパターン(例えばフォロースルー)の終了がリアルタイムで検出された時点で、解析結果処理部209がカメラ制御部211に提供する情報に基づいて、撮影を終了したり、撮影された画像のスマートフォン200への送信を終了するように、カメラ300を制御することも可能である。
なお、モーションパターンの終了時のカメラ300の制御については、開始時ほどにはリアルタイム性が求められない(多少の遅れが許容されうる)ため、継続的なモーションパターン以外、例えばインパクトによる瞬間的なモーションパターンについても、同様の処理が可能でありうる。つまり、インパクトによるモーションパターンの終了が検出された時点で、撮影を終了したり、撮影された画像のスマートフォン200への送信を終了するように、カメラ300を制御してもよい。ただし、インパクトに後続するモーション(例えばフォロースルー)にも意味がある場合も多いため、瞬間的なモーションパターンの場合は、モーションパターンが終了してから所定の時間が経過した後に、モーションパターン終了時のカメラ300の制御を実行してもよい。
例えば図3〜図5に示された例では、センサデータに基づいてインパクトの瞬間が検出された後に、インパクトの瞬間の時刻に基づいて1または複数の画像が検出された。インパクトの瞬間の検出だけに基づいてこのような処理を実現するためには、少なくともカメラ300が継続的に撮影を実行し、撮影された一連の画像が一時的に画像保持部213、またはカメラ300に蓄積されている必要がある。しかしながら、例えばカメラ300やスマートフォン200のバッテリー消費の節減が必要とされるような場合、継続的に撮影や送信を実行するのは好ましくはない。上記のようにインパクトの瞬間に先行または後続するモーションに対応するモーションパターンをセンサデータに基づいて検出することができれば、モーションパターンの検出に応じて撮影や送信を開始/終了させることができ、バッテリー消費を節減することができる。また、他の例として、カメラ300が高解像度と低解像度との2種類の画像を撮像可能である(例えば、カメラ300が複数の撮像素子を備えてもよいし、撮像された画像に対する画像処理が切り替えられてもよい)場合に、モーションパターンの検出に応じて、スマートフォン200に提供する画像を低解像度の画像から高解像度の画像へと切り替えてもよい。
なお、モーションパターンは、インパクトとは独立して検出されてもよい。例えば、スポーツなどにおけるインパクトを伴わない所定のモーションでもモーションパターンが定義可能である場合、画像選択部215は、モーションパターンの開始および終了の時刻を基準にして1または複数の画像を検索してもよい。
なお、上記の説明では、センサデータの例として加速度センサの検出結果を例示したが、これとともに、またはこれに代えて、ジャイロセンサや角速度センサの検出結果がセンサデータとして利用されてもよい。また、(スポーツには限らない)ユーザの動作の種類によっては、地磁気センサや気圧センサ、音センサ、光センサなども利用されうる。
(4.アプリケーションの例)
次に、本開示の一実施形態におけるアプリケーションの例について、図7〜図16を参照して説明する。以下で説明するアプリケーションの画面は、例えば、スマートフォン200の表示制御部223によって表示部225に表示される。
(4−1.ショット診断アプリケーション)
まず、図7〜図12を参照して、テニスのショット診断アプリケーションの例について説明する。
図7は、ショット診断アプリケーションの開始画面を示す図である。図7を参照すると、画面2000は、スマートフォン200のディスプレイに表示される。画面2000は、スルー画像2010と、測定開始ボタン2020と、センサ波形2030と、情報ボタン2040とを含む。
スルー画像2010は、カメラ300によってリアルタイムで撮影されている画像である。この例において、カメラ300は、コートサイドの所定の位置に据え付けられ、サーブを打つユーザを含む画像を撮影している。あるいは、カメラ300がスマートフォン200に内蔵される場合、スマートフォン200が三脚などによってコートサイドの所定の位置に配置されていてもよい。コートまたはユーザとの位置関係が所定の関係になるようにカメラ300を配置することによって、画像に基づくユーザのショットの診断が可能になる。
測定開始ボタン2020は、ショット診断のための測定を開始するためのボタンである。例えば、測定開始ボタン2020がタッチパネルを介して押下された場合に、センサ装置100におけるセンサデータの取得およびセンサデータのスマートフォン200への送信が開始されるように、スマートフォン200がセンサ装置100を制御してもよい。センサ波形2030は、例えば視覚的な効果のために表示される。測定が開始されていない時点では、センサ波形2030には波形が表示されなくてもよい。情報ボタン2040は、ショット診断アプリケーションに関するマニュアルやチュートリアルなどの情報を表示させるためのボタンである。
図8は、ショット診断アプリケーションの測定中画面を示す図である。図7に示した開始画面において測定開始ボタン2020が押下されると、測定が開始される。測定中の画面2000には、スルー画像2010と、センサ波形2030と、キャンセルボタン2050と、測定時間表示2060とが含まれる。
センサ波形2030は、実際にセンサ装置100のセンサによって検出されたセンサデータに基づく波形を表示してもよいが、図示された例では、センサデータに基づいてボールのインパクトが検出された場合に、インパクトを表す波形がセンサ波形2030として表示される。つまり、センサ波形2030は、センサデータの変化を示す模式的な波形であってもよい。キャンセルボタン2050を押下することによって、ユーザは測定を中止することが可能である。また、測定時間表示2060は、測定開始ボタン2020が押下されて測定が開始されてからの経過時間を示す。
図9は、ショット診断アプリケーションの解析中画面を示す図である。図8に示した測定中画面が表示されている状態で、ユーザがショット(サーブ)を実行すると、自動的に測定が終了され、解析が開始される。このとき、スマートフォン200では、センサデータ解析部207によるセンサデータの解析によって、ショットによるボールのインパクトの発生が検出される。センサデータ解析部207は、例えば、インパクトが発生した時刻を基準にして解析対象区間を設定し、ショットに関するさまざまな情報、例えば、スイングスピードや、ボールスピード、ボーススピンなどの情報を抽出する。図2には示していないが、センサデータ解析部207は、センサデータに加えて、カメラ制御部211によってカメラ300から取得された画像を解析に使用してもよい。
センサデータ解析部207による解析が実行されている間は、図9に示される画面2100が表示される。画面2100には、プログレスバー2110と、キャンセルボタン2120と、背景画像2130とが含まれる。プログレスバー2110は、解析の進行状況を示す。キャンセルボタン2120を押下することによって、ユーザは解析を中止させることが可能である。背景画像2130は、例えば、図示されているように後述するようなショット前後の連続写真であってもよいし、ショットの瞬間をとらえた単一の画像であってもよい。
図10は、ショット診断アプリケーションの結果画面を示す図である。図10を参照すると、画面2200は、ショット画像2210と、ショット情報2220と、ショット位置表示2230と、全ショット表示ボタン2240とを含む。
ショット画像2210は、ショットの様子を表す画像である。ショット画像2210は、静止画像であってもよいし、動画像であってもよい。ショット画像2210は、ボール軌跡表示2250を含みうる。ボール軌跡表示2250は、例えば、画像選択部215がセンサデータに基づいて選択した、ショットによるボールのインパクト前後の所定の区間の画像に基づいて、ショット時のボールの軌跡を連続的に表現したものである。ボール軌跡表示2250は、ショット開始時からショット終了時までのすべてが同時に表示されてもよいし、アニメーションとして徐々に表示されてもよい。
ショット情報2220は、図示された例では、スイングスピード、ボールスピード、およびボールスピンを含む。これらの情報は、例えば、カメラ300によって撮影された画像の解析に基づいて算出されてもよいし、センサ装置100によって取得されたセンサデータに基づいて算出されてもよいし、これらの両方に基づいて算出されてもよい。また、ショット情報2220として表示される項目は図示された例には限られず、ショットパワーなど他の項目が表示されてもよい。
ショット位置表示2230は、ラケットの画像とともに、ボールのインパクトが発生したラケットの位置を表示する。インパクト位置は、例えば、インパクト時にラケットに生じた振動のパターンを、センサ装置100によって検出されたセンサデータに基づいて識別することによって推定可能である。全ショット表示ボタン2240は、以前に解析された他のショットを含む、すべてのショットの情報を表示する画面への遷移のためのボタンである。
図11は、ショット診断アプリケーションの連続写真画面を示す図である。図11を参照すると、画面2300には、連続写真2310と、ショット情報2220と、ショット位置表示2230と、全ショット表示ボタン2240とが含まれる。例えば、図10に示した結果画面において、ショット情報2220などの結果情報表示部分を左にフリックすることで、画面2300が表示されうる。画面2300において、結果情報表示部分を右にフリックすることで、表示が結果画面に戻ってもよい。ショット情報2220、ショット位置表示2230、および全ショット表示ボタン2240は、図10に示した画面2200と同様の表示である。連続写真2310については、連続写真生成アプリケーションについての説明で後述する。つまり、ショット診断アプリケーションの連続写真画面は、図10に示した結果画面と、後述する連続写真とを合成した画面である。
図12は、ショット診断アプリケーションの再生コントロール画面を示す図である。図12を参照すると、画面2400には、ショット画像2210と、ショット情報2220と、ショット位置表示2230と、全ショット表示ボタン2240と、再生コントロール2410とが含まれる。例えば、図10に示した結果画面において、ショット画像2210をタップすることで、画面2400が表示されうる。画面2400において、再びショット画像2210をタップすることで、表示が結果画面に戻ってもよい。画面2400では、再生コントロール2410を介した操作によって、ショット画像2210の再生を制御することが可能である。再生コントロール2410は、例えば通常の再生コントロールのように開始、停止、シークなどの操作を可能にするものであってもよいし、その一部が制限されたものであってもよい。例えば、再生コントロール2410は、ショット画像2210の一時停止、再開、コマ送り、および動画像の先頭へのジャンプの操作だけを可能にするものであってもよい。
以上で説明したようなショット診断アプリケーションでは、測定の終了と解析の開始が、ユーザによるショットの実行に応じて自動的に制御される。従って、ユーザは、測定を開始するための操作をした後は、通常通りプレーを続行することができる。解析に使用される画像がセンサデータに基づいて画像選択部215によって自動的に選択される結果、解析対象区間がショットによるインパクトの前後に限定されるため、迅速に解析の結果を得ることができる。なお、他の例では、センサデータ解析部207によるモーションパターンの検出結果に基づいて、測定がユーザの操作によらずに自動的に開始されてもよい。
(4−2.連続写真生成アプリケーション)
次に、図13〜図16を参照して、連続写真生成アプリケーションの例について説明する。
図13は、連続写真生成アプリケーションの開始画面を示す図である。図13を参照すると、画面2500は、スルー画像2510と、撮影開始ボタン2520と、センサ波形2530と、情報ボタン2540とを含む。
スルー画像2510は、カメラ300によってリアルタイムで撮影されている画像である。ショット診断アプリケーションの場合と異なり、この例では、カメラ300の設置位置は任意である。カメラ300がスマートフォン200に内蔵される場合、スマートフォン200が三脚などによってコートサイドの任意の位置に配置されていてもよい。あるいは、カメラ300またはスマートフォン200は、テニスをプレーしているユーザとは異なるユーザによって把持されていてもよい。
撮影開始ボタン2520は、撮影を開始するためのボタンである。例えば、撮影開始ボタン2520がタッチパネルを介して押下された場合に、センサ装置100におけるセンサデータの取得およびセンサデータのスマートフォン200への送信が開始されるように、スマートフォン200がセンサ装置100を制御してもよい。なお、後述するように、連続写真を構成する複数の画像は、センサデータに基づいて画像選択部215によって選択されるため、撮影開始ボタン2520が押下された時点でのスルー画像2510は、必ずしも連続写真には含まれない。センサ波形2530は、ショット解析アプリケーションの場合と同様に、例えば視覚的な効果のために表示される。情報ボタン2540は、連続写真生成アプリケーションに関するマニュアルやチュートリアルなどの情報を表示させるためのボタンである。
図14は、連続写真生成アプリケーションの撮影中画面を示す図である。図13に示した開始画面において撮影開始ボタン2520が押下されると、撮影の準備状態が開始される。撮影の準備状態では、ユーザによってショットが実行された場合には、ショットの前後の画像から連続写真を生成できるように、センサ装置100がセンサデータを取得し、センサデータがスマートフォン200に送信される。撮影の準備状態での画面2500には、スルー画像2510と、センサ波形2530と、キャンセルボタン2550と、撮影時間表示2560とが含まれる。キャンセルボタン2550を押下することによって、ユーザは撮影を中止することが可能である。また、撮影時間表示2560は、撮影開始ボタン2520が押下されてからの経過時間を示す。
図15は、連続写真生成アプリケーションの生成中画面を示す図である。図15を参照すると、画面2600は、プログレスバー2610を含む。図14に示した撮影中画面が表示されている状態で、ユーザがショット(サーブ)を実行すると、自動的に撮影が終了され、連続写真の生成が開始される。このとき、スマートフォン200では、センサデータ解析部207によるセンサデータの解析によって、ショットによるボールのインパクトの発生が検出される。画像選択部215は、例えば、インパクトが発生した時刻を基準にして連続写真の区間を設定し、区間内から複数の画像を選択して連続写真を生成する。上述のように連続写真の生成のために選択される画像の時間的間隔は、不均一であってもよい。また、センサデータ解析部207は、さらに、センサデータの解析によってインパクトの前後に付随するモーションパターンを検出し、画像選択部215は、これらのモーションパターンの開始または終了の時刻に応じて連続写真の区間を設定してもよい。
図16は、連続写真生成アプリケーションの生成結果画面を示す図である。図16を参照すると、画面2700は、連続写真2710を含む。
連続写真2710は、画像選択部215が上記のような処理によって選択した複数の画像から、プレーしているユーザの領域を同じサイズで切り出し、切り出された画像を配列することによって生成される。図示された例では左から右へと時系列が進行する連続写真が例示されているが、連続写真の例はこのようなものには限られず、例えば上下に2段以上にわたって写真が配列されたり、左右に配列する写真の数が図示された例よりも多かったり少なかったりしてもよい。
以上で説明したような連続写真生成アプリケーションでは、撮影の終了と連続写真生成の開始が、ユーザによるショットの実行に応じて自動的に制御される。従って、ユーザは、撮影を開始するための操作をした後は、通常通りプレーを続けることができる。連続写真を構成する画像が、センサデータに基づいて画像選択部215によって自動的に選択される結果、ショットの前後をとらえた連続写真を迅速に生成することができる。
(5.ハードウェア構成)
次に、図17を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図17は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるスマートフォン、カメラ、およびサーバを実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(6.補足)
本開示の実施形態は、例えば、上記で説明したような情報処理装置(スマートフォン、カメラ、またはサーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信する通信部と、
前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定する解析部と、
前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から1または複数の画像を選択する画像選択部と
を備える情報処理装置。
(2)前記一連の画像は所定のサイズのバッファに循環的に記録され、
前記情報処理装置は、前記選択された1または複数の画像を前記バッファから読み出して永続的に記録する画像記録部をさらに備える、前記(1)に記載の情報処理装置。
(3)前記所定のモーションパターンは、継続的なモーションパターンを含み、
前記解析部は、前記継続的なモーションパターンの開始をリアルタイムで検出し、
前記情報処理装置は、前記継続的なモーションパターンが開始した場合に前記一連の画像の撮影または提供を開始するように撮像装置を制御する制御部をさらに備える、前記(1)または(2)に記載の情報処理装置。
(4)前記解析部は、前記所定のモーションパターンの終了をリアルタイムで検出し、
前記情報処理装置は、前記所定のモーションパターンが終了した場合に前記一連の画像の撮影または提供を終了するように撮像装置を制御する制御部をさらに備える、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)前記所定のモーションパターンは、前記ユーザまたは前記オブジェクトと他のオブジェクトとのインパクトによって生じるパターンを含む、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記画像選択部は、前記特定された時刻に撮影された画像を選択する、前記(5)に記載の情報処理装置。
(7)前記画像選択部は、前記特定された時刻の前後の所定の区間で撮影された複数の画像を選択する、前記(5)または(6)に記載の情報処理装置。
(8)前記所定の区間の長さは、所定の時間または前記一連の画像の所定の数によって決定される、前記(7)に記載の情報処理装置。
(9)前記所定のモーションパターンは、前記インパクトに先行して生じるモーションパターン、または前記インパクトに後続して生じるモーションパターンをさらに含み、
前記所定の区間は、前記先行して生じるモーションパターンの開始時刻、または前記後続して生じるモーションパターンの終了時刻に応じて決定される、前記(7)に記載の情報処理装置。
(10)前記所定の区間の長さは、前記インパクトの前と後とで異なる、前記(7)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記画像選択部は、前記所定の区間において一部の画像をスキップしながら複数の画像を選択し、前記特定された時刻から時間的に離れるほど、前記スキップの間隔を長くする、前記(7)〜(10)のいずれか1項に記載の情報処理装置。
(12)ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信する機能と、
前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定する機能と、
前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から1または複数の画像を選択する機能と
をコンピュータに実現させるためのプログラムが記録された記録媒体。
(13)ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信することと、
前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定することと、
前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から1または複数の画像を選択することと
を含む情報処理方法。
10 システム
100 センサ装置
200 スマートフォン
201 送信部
203 受信部
205 センサ装置制御部
207 センサデータ解析部
209 解析結果処理部
211 カメラ制御部
213 画像保持部
215 画像選択部
217 静止画像記録部
219 動画像記録部
221 データ保持部
223 表示制御部
225 表示部
227 時刻情報保持部
300 カメラ
400 サーバ

Claims (9)

  1. ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信する通信部と、
    前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定する解析部と、
    前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から複数の画像を選択する画像選択部と、
    を備え、
    前記所定のモーションパターンは、前記ユーザまたは前記オブジェクトと他のオブジェクトとのインパクトによって生じるパターンを含み、
    前記画像選択部は、前記特定された時刻の前後の所定の区間で撮影された複数の画像の一部をスキップしながら複数の画像を選択し、前記特定された時刻から時間的に離れるほど、前記スキップの間隔を長くする、
    情報処理装置。
  2. 前記一連の画像は所定のサイズのバッファに循環的に記録され、
    前記情報処理装置は、前記選択された複数の画像を前記バッファから読み出して永続的に記録する画像記録部をさらに備える、請求項1に記載の情報処理装置。
  3. 前記所定のモーションパターンは、継続的なモーションパターンを含み、
    前記解析部は、前記継続的なモーションパターンの開始をリアルタイムで検出し、
    前記情報処理装置は、前記継続的なモーションパターンが開始した場合に前記一連の画像の撮影または提供を開始するように撮像装置を制御する制御部をさらに備える、請求項1又は2に記載の情報処理装置。
  4. 前記解析部は、前記所定のモーションパターンの終了をリアルタイムで検出し、
    前記情報処理装置は、前記所定のモーションパターンが終了した場合に前記一連の画像の撮影または提供を終了するように撮像装置を制御する制御部をさらに備える、請求項1又は2に記載の情報処理装置。
  5. 前記所定の区間の長さは、所定の時間または前記一連の画像の所定の数によって決定される、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記所定のモーションパターンは、前記インパクトに先行して生じるモーションパターン、または前記インパクトに後続して生じるモーションパターンをさらに含み、
    前記所定の区間は、前記先行して生じるモーションパターンの開始時刻、または前記後続して生じるモーションパターンの終了時刻に応じて決定される、請求項に記載の情報処理装置。
  7. 前記所定の区間の長さは、前記インパクトの前と後とで異なる、請求項1〜6のいずれか1項に記載の情報処理装置。
  8. ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信する機能と、
    前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定する機能と、
    前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から複数の画像を選択する機能と
    をコンピュータに実現させるためのプログラムであって、
    前記所定のモーションパターンは、前記ユーザまたは前記オブジェクトと他のオブジェクトとのインパクトによって生じるパターンを含み、
    前記複数の画像を選択する機能は、前記特定された時刻の前後の所定の区間で撮影された複数の画像の一部をスキップしながら前記複数の画像を選択し、前記特定された時刻から時間的に離れるほど、前記スキップの間隔を長くする、プログラムが記録された記録媒体。
  9. ユーザまたはユーザに接触するオブジェクトに装着されたセンサからのセンサデータ、および前記センサデータに対応する時刻情報を受信することと、
    前記センサデータおよび前記時刻情報に基づいて、前記ユーザまたは前記オブジェクトに所定のモーションパターンが発生した時刻を特定することと、
    前記特定された時刻に応じて、所定の時間間隔で撮影された前記ユーザまたは前記オブジェクトを含む一連の画像から複数の画像を選択することと
    を含む情報処理方法であって、
    前記所定のモーションパターンは、前記ユーザまたは前記オブジェクトと他のオブジェクトとのインパクトによって生じるパターンを含み、
    前記複数の画像の選択は、前記特定された時刻の前後の所定の区間で撮影された複数の画像の一部をスキップしながら前記複数の画像を選択し、前記特定された時刻から時間的に離れるほど、前記スキップの間隔を長くする、
    情報処理方法。
JP2013221287A 2013-10-24 2013-10-24 情報処理装置、記録媒体、および情報処理方法 Active JP6213146B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013221287A JP6213146B2 (ja) 2013-10-24 2013-10-24 情報処理装置、記録媒体、および情報処理方法
US14/917,201 US10070046B2 (en) 2013-10-24 2014-09-29 Information processing device, recording medium, and information processing method
EP14789422.4A EP3060317B1 (en) 2013-10-24 2014-09-29 Information processing device, recording medium, and information processing method
CN201480056983.9A CN105658287B (zh) 2013-10-24 2014-09-29 信息处理装置、记录介质和信息处理方法
PCT/JP2014/004979 WO2015059874A1 (en) 2013-10-24 2014-09-29 Information processing device, recording medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221287A JP6213146B2 (ja) 2013-10-24 2013-10-24 情報処理装置、記録媒体、および情報処理方法

Publications (2)

Publication Number Publication Date
JP2015082817A JP2015082817A (ja) 2015-04-27
JP6213146B2 true JP6213146B2 (ja) 2017-10-18

Family

ID=51794937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221287A Active JP6213146B2 (ja) 2013-10-24 2013-10-24 情報処理装置、記録媒体、および情報処理方法

Country Status (5)

Country Link
US (1) US10070046B2 (ja)
EP (1) EP3060317B1 (ja)
JP (1) JP6213146B2 (ja)
CN (1) CN105658287B (ja)
WO (1) WO2015059874A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101515372B1 (ko) * 2014-02-25 2015-04-29 (주) 알디텍 영상 신호와 무선 센서 신호의 동기화 시스템 및 방법
JP2016036680A (ja) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム
JP6819042B2 (ja) * 2016-01-14 2021-01-27 ソニー株式会社 撮像制御装置、撮像制御方法、プログラム
JP2017126935A (ja) * 2016-01-15 2017-07-20 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US9928403B2 (en) * 2016-02-09 2018-03-27 Molecular Devices, Llc System and method for image analysis of multi-dimensional data
WO2018068321A1 (en) * 2016-10-14 2018-04-19 SZ DJI Technology Co., Ltd. System and method for moment capturing
JP2020188426A (ja) * 2019-05-17 2020-11-19 富士ゼロックス株式会社 システム、プログラム
US10728378B1 (en) * 2019-10-01 2020-07-28 GM Global Technology Operations LLC Crash detection using smartphone sensor data
EP4093023A4 (en) 2020-02-27 2023-03-01 Fujitsu Limited INFORMATION PROCESSING PROGRAM, DEVICE AND METHOD
JP7429887B2 (ja) * 2020-03-09 2024-02-09 パナソニックIpマネジメント株式会社 球技映像解析装置、球技映像解析方法、及び、コンピュータプログラム
JP7444238B2 (ja) 2020-03-18 2024-03-06 富士通株式会社 情報処理プログラム、装置、及び方法
CN112717362A (zh) * 2020-04-15 2021-04-30 融梦科技发展(北京)有限公司 用于测量活动表现的系统和方法及其用途
JP7156356B2 (ja) * 2020-12-23 2022-10-19 ソニーグループ株式会社 制御装置、制御方法、プログラム
JPWO2022215116A1 (ja) 2021-04-05 2022-10-13

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6537076B2 (en) * 2001-02-16 2003-03-25 Golftec Enterprises Llc Method and system for presenting information for physical motion analysis
JP4494837B2 (ja) * 2003-12-26 2010-06-30 Sriスポーツ株式会社 ゴルフスウィング診断システム
JP4289326B2 (ja) * 2005-06-09 2009-07-01 ソニー株式会社 情報処理装置および方法、撮影装置、並びにプログラム
US20070143130A1 (en) * 2005-12-20 2007-06-21 Xstream Instructions, Ltd. Network of instruction stations
US8055469B2 (en) * 2006-03-03 2011-11-08 Garmin Switzerland Gmbh Method and apparatus for determining the attachment position of a motion sensing apparatus
US8408982B2 (en) * 2007-05-24 2013-04-02 Pillar Vision, Inc. Method and apparatus for video game simulations using motion capture
JP2010239169A (ja) * 2007-08-08 2010-10-21 Panasonic Corp 撮像装置
US8628453B2 (en) * 2008-12-05 2014-01-14 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
JP2010273280A (ja) 2009-05-25 2010-12-02 Nikon Corp 撮像装置
US9035776B2 (en) * 2011-01-20 2015-05-19 At&T Intellectual Property I, L.P. Wireless monitoring of safety helmets
EP3403700A1 (en) * 2011-06-06 2018-11-21 System Instruments Co., Ltd. Training apparatus
JP5994306B2 (ja) * 2012-03-15 2016-09-21 ソニー株式会社 情報処理装置、情報処理システムおよびプログラム
JP5867432B2 (ja) 2013-03-22 2016-02-24 ソニー株式会社 情報処理装置、記録媒体および情報処理システム

Also Published As

Publication number Publication date
CN105658287A (zh) 2016-06-08
EP3060317B1 (en) 2020-07-15
CN105658287B (zh) 2018-03-23
US10070046B2 (en) 2018-09-04
WO2015059874A1 (en) 2015-04-30
US20160205317A1 (en) 2016-07-14
EP3060317A1 (en) 2016-08-31
JP2015082817A (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6213146B2 (ja) 情報処理装置、記録媒体、および情報処理方法
US11250247B2 (en) Information processing device, information processing system, and program
JP6610689B2 (ja) 情報処理装置、情報処理方法及び記録媒体
US11247114B2 (en) Information processing device, storage medium, and information processing method
JP6354461B2 (ja) フィードバック提供方法、システム、および解析装置
JP6447515B2 (ja) 情報処理装置、記録媒体および情報処理方法
JP5920264B2 (ja) 画像特定装置、画像特定システム、画像特定方法及びプログラム
US20170001071A1 (en) Sport training equipment
JP2013236659A (ja) 解析システムおよびその解析方法
KR20180057543A (ko) 화상 처리 장치, 해석 시스템, 화상 처리 방법 및 프로그램
KR101802783B1 (ko) 골프 스윙 표시 방법, 이를 수행하는 모바일 장치 및 이를 포함하는 골프 스윙 분석 시스템
JP7188422B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP6787072B2 (ja) 画像処理装置、解析システム、画像処理方法及びプログラム
JP2017022727A (ja) 情報処理装置、情報処理システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170904

R151 Written notification of patent or utility model registration

Ref document number: 6213146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250