JP2017022727A - Information processing device, information processing system, and program - Google Patents

Information processing device, information processing system, and program Download PDF

Info

Publication number
JP2017022727A
JP2017022727A JP2016162657A JP2016162657A JP2017022727A JP 2017022727 A JP2017022727 A JP 2017022727A JP 2016162657 A JP2016162657 A JP 2016162657A JP 2016162657 A JP2016162657 A JP 2016162657A JP 2017022727 A JP2017022727 A JP 2017022727A
Authority
JP
Japan
Prior art keywords
information
event
sensor
user
play
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016162657A
Other languages
Japanese (ja)
Inventor
英行 松永
Hideyuki Matsunaga
英行 松永
功誠 山下
Katsuaki Yamashita
功誠 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016162657A priority Critical patent/JP2017022727A/en
Publication of JP2017022727A publication Critical patent/JP2017022727A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To further precisely determine a state of play in sport by a user.SOLUTION: An information processing device comprises: a sensor information acquisition section for acquiring sensor information which shows a behavior of a user; an event information generation section for detecting occurrence of an event in response to the sensor information and generating event information corresponding to the event; and a control section for extracting a scene in response to the event information from an image obtained by imaging the user.SELECTED DRAWING: Figure 3

Description

本開示は、情報処理装置、情報処理システムおよびプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing system, and a program.

スポーツの上達のためには、自らのプレーを客観的に分析し、改善のための意識をもってプレーすることが重要である。そのために、例えば、プレーを静止画像や動画として録画し、プレー後にその静止画像や動画を視聴して、改善点などを把握することが広く行われている。このような静止画像や動画は、他人に撮影してもらう場合もあるが、ユーザ自身が撮影する、いわゆる自分撮りである場合も多い。   To improve sports, it is important to analyze your own play objectively and play with a sense of improvement. For this reason, for example, it is widely performed to record a play as a still image or a moving image, and to view the still image or the moving image after the play to grasp improvement points. Such still images and moving images may be taken by other people, but are often so-called self-portraits taken by the user himself / herself.

このような場合に、例えば、静止画像や動画のコンテンツの中から、特定のユーザが映っている部分や、ユーザが特定のプレーをしている部分を抽出できれば、短い時間でプレーを振り返り、改善点を把握することができる。つまり、コンテンツからユーザの所望のシーンを自動的に検出することができれば、コンテンツの検索性が向上し、プレーの上達のためにコンテンツを効率的に活用することができる。   In such a case, for example, if a part where a specific user is shown or a part where the user is playing is extracted from the content of a still image or video, the play can be looked back and improved in a short time. The point can be grasped. In other words, if the user's desired scene can be automatically detected from the content, the searchability of the content can be improved, and the content can be efficiently used to improve play.

コンテンツからユーザの所望のシーンを自動的に検出する技術は、例えばプロスポーツの中継のような商用のコンテンツでは既に提案されている。例えば、特許文献1には、コンテンツの画像や音声の特徴量に基づく学習によって、ユーザの興味の対象となるシーン(ハイライトシーン)を自動的に検出する技術が記載されている。   Techniques for automatically detecting a user's desired scene from content have already been proposed for commercial content such as professional sports broadcasts. For example, Patent Literature 1 describes a technique for automatically detecting a scene (highlight scene) that is a target of user's interest by learning based on content images and audio feature quantities.

特開2011−223287号公報JP 2011-223287 A

しかしながら、上記の特許文献1に記載のような技術を、ユーザが自身のスポーツの上達のために撮影したコンテンツに適用することは、容易ではない。上記の技術では、例えばサッカーの試合のコンテンツの場合、フィールドのラインやボールの軌跡を示す画像の特徴量や、ホイッスルや歓声を示す音声の特徴量を抽出して学習し、ハイライトシーンを検出する。ところが、ユーザが撮影したコンテンツの場合、プレーする場所が様々であり、またホイッスルや歓声もない場合が多い。さらに、例えばコートから出たボールを拾いに行っている間など、明らかに不要なシーンもコンテンツに含まれている。従って、商用のコンテンツと同じように特徴量の学習をすることは難しく、また効率的ではない。   However, it is not easy to apply the technique as described in Patent Document 1 to content that the user has photographed to improve his / her own sport. With the above technology, for example, in the case of content of a soccer game, image feature quantities indicating field lines and ball trajectories, and voice feature quantities indicating whistles and cheers are extracted and learned to detect highlight scenes. To do. However, in the case of content photographed by the user, there are various places to play, and there are often no whistles or cheers. Furthermore, obviously unnecessary scenes are included in the content, for example, while the player has been picking up the ball from the court. Therefore, it is difficult and inefficient to learn the feature amount as in commercial content.

それゆえ、例えばユーザが自身のスポーツの上達のために撮影したようなコンテンツについて、上記の技術とは異なる手法によってユーザの所望のシーンを検出する技術が求められていた。そこで、本開示では、ユーザによるスポーツのプレーの状態をより的確に把握することが可能な、新規かつ改良された情報処理装置、情報処理システムおよびプログラムを提案する。   Therefore, there has been a demand for a technique for detecting a user's desired scene by using a method different from the technique described above, for example, for content that the user has taken to improve his / her own sport. Therefore, the present disclosure proposes a new and improved information processing apparatus, information processing system, and program capable of more accurately grasping the state of sports play by a user.

本開示によれば、ユーザの挙動を示すセンサ情報を取得するセンサ情報取得部と、前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成するイベント情報生成部と、前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する制御部と、を備える情報処理装置が提供される。   According to the present disclosure, a sensor information acquisition unit that acquires sensor information indicating user behavior, an event information generation unit that detects the occurrence of an event based on the sensor information, and generates event information corresponding to the event, And a control unit that extracts a scene based on the event information from an image of the user.

また、本開示によれば、ユーザの挙動を示すセンサ情報を取得するセンサ、および前記センサ情報を送信する通信部を有するセンサ装置と、前記センサ装置から前記センサ情報を受信する通信部、前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成するイベント情報生成部、および前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する制御部、を有する情報処理装置とを含む情報処理システムが提供される。   According to the present disclosure, a sensor that acquires sensor information indicating a user's behavior, a sensor device that includes a communication unit that transmits the sensor information, a communication unit that receives the sensor information from the sensor device, and the sensor Information processing comprising: an event information generation unit that detects occurrence of an event based on information and generates event information corresponding to the event; and a control unit that extracts a scene based on the event information from an image of the user An information processing system including the apparatus is provided.

また、本開示によれば、ユーザの挙動を示すセンサ情報を取得する機能と、前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成する機能と、前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する機能と、をコンピュータに実現させるためのプログラムが提供される。   Further, according to the present disclosure, a function of acquiring sensor information indicating a user's behavior, a function of detecting occurrence of an event based on the sensor information, and generating event information corresponding to the event, A program for causing a computer to realize a function of extracting a scene from a captured image based on the event information is provided.

本技術において、プレーイベントは、スポーツのプレーにおいて何らかの意味を有する動作の単位として定義される。詳しくは後述するが、例えばテニスであれば、「コート内での移動」、「スイング」、「ジャンプ」、「ボールを打つ」といったようなプレーイベントが定義されうる。かかるプレーイベントの発生が検出され、検出されたプレーイベントに対応するプレーイベント情報が生成されることによって、ユーザによるスポーツのプレー状態を、例えばユーザにとって何らかの意味を有する動作を単位として把握することが可能である。   In the present technology, a play event is defined as a unit of action that has some meaning in sports play. As will be described in detail later, for example, in the case of tennis, play events such as “movement in the court”, “swing”, “jump”, and “hit the ball” can be defined. By detecting the occurrence of such a play event and generating play event information corresponding to the detected play event, it is possible to grasp the play state of the sport by the user, for example, by an operation having some meaning for the user. Is possible.

以上説明したように本開示によれば、ユーザによるスポーツのプレーの状態をより的確に把握することができる。   As described above, according to the present disclosure, it is possible to more accurately grasp the state of sports play by the user.

本開示の第1の実施形態に係る情報処理システムの概要を示す図である。It is a figure showing an outline of an information processing system concerning a 1st embodiment of this indication. 本開示の第1の実施形態における撮像装置の設置例について説明するための図である。It is a figure for demonstrating the example of installation of the imaging device in 1st Embodiment of this indication. 本開示の第1の実施形態に係るセンサ装置および撮像装置の概略的な機能構成を示すブロック図である。2 is a block diagram illustrating a schematic functional configuration of a sensor device and an imaging device according to a first embodiment of the present disclosure. FIG. 本開示の第1の実施形態におけるプレーイベント検出の例を示す図である。It is a figure showing an example of play event detection in a 1st embodiment of this indication. 本開示の第1の実施形態で生成されるプレーイベント情報の例を示す図である。It is a figure showing an example of play event information generated in a 1st embodiment of this indication. 本開示の第1の実施形態で生成されるプレーイベントの詳細情報の例を示す図である。It is a figure which shows the example of the detailed information of the play event produced | generated in 1st Embodiment of this indication. 本開示の第1の実施形態で生成されるプレーイベントの詳細情報としてスイングの種類を設定する例について説明するための図である。6 is a diagram for describing an example in which a swing type is set as detailed information of a play event generated in the first embodiment of the present disclosure. FIG. 本開示の第1の実施形態におけるプレーイベント情報の利用の例を示す図である。It is a figure showing an example of use of play event information in a 1st embodiment of this indication. 本開示の第1の実施形態において、所定のプレーイベントの区間でプレー画像を撮像するための処理フローの例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow for capturing a play image in a predetermined play event section in the first embodiment of the present disclosure. 本開示の第1の実施形態において、撮像された動画にチャプタを設定するための処理フローの例を示す図である。In the first embodiment of the present disclosure, it is a diagram illustrating an example of a processing flow for setting a chapter in a captured moving image. 本開示の第2の実施形態に係るシステムの概要を示す図である。It is a figure showing an outline of a system concerning a 2nd embodiment of this indication. 本開示の第2の実施形態に係るセンサ装置および通知装置の概略的な機能構成を示すブロック図である。FIG. 6 is a block diagram illustrating a schematic functional configuration of a sensor device and a notification device according to a second embodiment of the present disclosure. 本開示の第2の実施形態で設定される通知DBの例を示す図である。It is a figure showing an example of notice DB set up in a 2nd embodiment of this indication. 本開示の第2の実施形態において、ユーザに通知情報を提供するための処理フローの例を示す図である。FIG. 10 is a diagram illustrating an example of a processing flow for providing notification information to a user in the second embodiment of the present disclosure. 本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。It is a figure showing an example of hardware constitutions of a sensor device concerning an embodiment of this indication. 本開示の実施形態に係る情報処理装置のハードウェア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of the information processing apparatus which concerns on embodiment of this indication.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1−1.システム構成
1−2.装置構成
1−3.プレーイベント検出の例
1−4.プレーイベント情報の例
1−5.プレーイベント情報の利用の例
1−6.処理フローの例
1−7.実施形態のまとめ
2.第2の実施形態
2−1.システム構成
2−2.装置構成
2−3.通知DBの例
2−4.処理フローの例
2−5.実施形態のまとめ
3.第3の実施形態
4.他の実施形態
5.ハードウェア構成
6.補足
The description will be made in the following order.
1. 1. First embodiment 1-1. System configuration 1-2. Device configuration 1-3. Example of play event detection 1-4. Example of play event information 1-5. Example of use of play event information 1-6. Example of processing flow 1-7. Summary of Embodiments 2. Second embodiment 2-1. System configuration 2-2. Device configuration 2-3. Example of notification DB 2-4. Example of processing flow 2-5. Summary of Embodiments 2. 3. Third embodiment Other Embodiments 5. Hardware configuration Supplement

(1.第1の実施形態)
まず、図1〜図10を参照して、本開示の第1の実施形態について説明する。本開示の第1の実施形態では、プレーイベント情報が、プレー画像の撮像や付加情報設定に利用される。
(1. First embodiment)
First, a first embodiment of the present disclosure will be described with reference to FIGS. In the first embodiment of the present disclosure, play event information is used for capturing a play image and setting additional information.

(1−1.システム構成)
図1は、本開示の第1の実施形態に係る情報処理システムの概要を示す図である。情報処理システム10は、センサ装置100と、撮像装置200と、サーバ300とを含む。
(1-1. System configuration)
FIG. 1 is a diagram illustrating an overview of an information processing system according to the first embodiment of the present disclosure. The information processing system 10 includes a sensor device 100, an imaging device 200, and a server 300.

(センサ装置)
センサ装置100は、スポーツをプレーしているユーザ、またはユーザが使用するスポーツ用具に装着される。センサ装置100をユーザに装着する場合、例えば、図示しているようにセンサ装置100を腕輪状の形状にして、ユーザの体に直接装着してもよい。また、センサ装置100をスポーツ用具(例えばテニスの場合、ラケット、ウェア、シューズ、リストバンドなど)に装着する場合、センサ装置100をシャフト部分などに巻きつけたり、布地に縫い付けたり、貼り付けたり、また予め用具に内蔵したりしてもよい。
(Sensor device)
The sensor device 100 is attached to a user who is playing sports or sports equipment used by the user. When the sensor device 100 is worn by the user, for example, the sensor device 100 may be shaped like a bracelet as shown in the figure and directly worn on the user's body. In addition, when the sensor device 100 is mounted on a sports equipment (for example, in the case of tennis, racket, wear, shoes, wristband, etc.) Moreover, you may incorporate in a tool previously.

ここで、センサ装置100は、スポーツをプレーするユーザの挙動を示すセンサ情報を取得する。センサ情報によって示されるユーザの挙動は、例えば、ユーザや用具の物理的な運動(位置、速度、加速度など)でありうる。かかるセンサ情報を取得するために、例えば、センサ装置100は、少なくとも1つのセンサを有する。センサは、例えば加速度、角速度、振動、温度、時刻、または位置(例えば緯度経度によってあらわされる地表上の位置、またはコートなどに対する相対的な位置)などを検出する。センサ装置100は、例えばこのようにして取得されたセンサ情報を、撮像装置200に送信する。   Here, the sensor device 100 acquires sensor information indicating the behavior of a user who plays sports. The user's behavior indicated by the sensor information can be, for example, a physical motion (position, velocity, acceleration, etc.) of the user or tool. In order to acquire such sensor information, for example, the sensor device 100 includes at least one sensor. The sensor detects, for example, acceleration, angular velocity, vibration, temperature, time, or position (for example, a position on the ground surface represented by latitude and longitude, or a position relative to a court). For example, the sensor device 100 transmits the sensor information acquired in this way to the imaging device 200.

(撮像装置)
撮像装置200は、スポーツのプレー画像を撮像する。プレー画像は、少なくともその一部にスポーツをプレーしているユーザが映っている画像であり、静止画像または動画でありうる。撮像装置200は、例えばユーザがスポーツをプレーしているコートなどの周辺に設置されて、プレー画像を撮像する。このとき、撮像装置200は、センサ装置100から受信したセンサ情報に基づいて、ユーザがプレーしているスポーツにおけるプレーイベントの発生を検出し、プレーイベントに対応するプレーイベント情報を生成し、このプレーイベント情報に基づいてプレー画像の撮像を制御する。撮像装置200は、撮像したプレー画像をサーバ300にアップロードしてもよい。
(Imaging device)
The imaging device 200 captures a sport play image. A play image is an image in which a user who is playing sports is shown at least in part, and can be a still image or a moving image. The imaging device 200 is installed around a court where a user is playing sports, for example, and captures a play image. At this time, the imaging device 200 detects the occurrence of a play event in the sport in which the user is playing based on the sensor information received from the sensor device 100, and generates play event information corresponding to the play event. Based on the event information, the shooting of the play image is controlled. The imaging device 200 may upload the captured play image to the server 300.

ここで、例えば、撮像装置200は、プレーイベント情報に基づいてプレー画像の撮像開始または撮像終了の少なくとも一方を決定する。これによって、例えば、ユーザが予め指定したプレーイベントのシーンだけを含むプレー画像が生成されうる。また、例えば、撮像装置200は、プレーイベント情報に基づいてプレー画像にチャプタ情報などの付加情報を設定する。これによって、例えば、ユーザがプレー画像を視聴するときに、所望のプレーイベントのシーンを検索することが容易になる。   Here, for example, the imaging apparatus 200 determines at least one of imaging start or imaging end of the play image based on the play event information. Thereby, for example, a play image including only a scene of a play event designated in advance by the user can be generated. Further, for example, the imaging apparatus 200 sets additional information such as chapter information in the play image based on the play event information. Accordingly, for example, when a user views a play image, it is easy to search for a scene of a desired play event.

また、撮像装置200は、複数設置されていてもよい。図示された例では、3台の撮像装置200a〜200cが設置されている。このような場合、撮像装置200a〜200cによって撮像されたプレー画像は、プレーイベント情報に基づいて選別されてもよい。より具体的には、例えば、撮像装置200a〜200cは、それぞれがセンサ装置100からセンサ情報を受信してプレーイベント情報を生成し、それに基づいて各々の撮像を制御してもよい。また、撮像装置200a〜200cのうちのいずれかがセンサ装置100からセンサ情報を受信し、その装置がホストとなって、他の装置での撮像を制御してもよい。これによって、例えば、それぞれのプレーイベントについて最も適切なアングルを有する撮像装置200でプレー画像が撮像される。あるいは、それぞれの撮像装置200で撮像されたプレー画像から、それぞれのプレーイベントについて最も適切なアングルの画像が選択される。   In addition, a plurality of imaging devices 200 may be installed. In the illustrated example, three imaging devices 200a to 200c are installed. In such a case, the play images captured by the imaging devices 200a to 200c may be selected based on the play event information. More specifically, for example, each of the imaging devices 200a to 200c may receive sensor information from the sensor device 100 to generate play event information, and control each imaging based on the information. In addition, any of the imaging devices 200a to 200c may receive sensor information from the sensor device 100, and the device may serve as a host to control imaging with other devices. Thereby, for example, a play image is picked up by the image pickup apparatus 200 having the most appropriate angle for each play event. Alternatively, an image having the most appropriate angle for each play event is selected from the play images captured by the respective imaging devices 200.

さらに、撮像装置200は、図示された例における撮像装置200aのように、スポーツがプレーされているコートなどを俯瞰的に撮像するものを含んでもよい。この場合、撮像装置200aは、センサ装置としても機能しうる。例えば、撮像装置200aは、撮像した画像、または画像を解析して取得されたユーザのコート内などでの位置情報を、センサ情報として撮像装置200b,200cに提供してもよい。   Furthermore, the imaging device 200 may include a device that takes a bird's-eye view of a court where sports are played, such as the imaging device 200a in the illustrated example. In this case, the imaging device 200a can also function as a sensor device. For example, the imaging device 200a may provide the captured images or position information in the user's court acquired by analyzing the images as sensor information to the imaging devices 200b and 200c.

なお、上記の例では3台の撮像装置200が設置されるが、他の実施形態では撮像装置200が1台であってもよく、2台であってもよく、また4台以上であってもよい。   In the above example, three imaging devices 200 are installed. However, in other embodiments, the imaging device 200 may be one, two, or four or more. Also good.

(サーバ装置)
サーバ300は、撮像装置200が撮像したプレー画像を録画コンテンツとして取得しうる。サーバ300は、取得したプレー画像を蓄積し、クライアント400によるダウンロードに供してもよい。このようにして、ユーザは、自らのプレー画像を、プレー後に自宅などで視聴することができる。なお、上記で説明した撮像装置200の機能のうち、実際にプレー画像を撮像する機能以外は、サーバ300によって代行されてもよい。つまり、サーバは、撮像装置200だけではなくセンサ装置100とも通信し、センサ装置100から受信したセンサ情報に基づいて撮像装置200を制御してもよい。
(Server device)
The server 300 can acquire a play image captured by the imaging apparatus 200 as recorded content. The server 300 may store the acquired play image and provide it for download by the client 400. In this way, the user can view his / her play image at home after play. Note that, among the functions of the imaging apparatus 200 described above, the server 300 may perform the functions other than the function of actually capturing a play image. That is, the server may communicate not only with the imaging device 200 but also with the sensor device 100 and control the imaging device 200 based on sensor information received from the sensor device 100.

(撮像装置の設置方法の例)
図2は、本開示の第1の実施形態における撮像装置の設置例について説明するための図である。上述のように、本実施形態では、スポーツをプレーするユーザの画像を撮像する撮像装置200が設けられる。かかる撮像装置200は、例えば図示された撮像装置200a1のように、クレイドルに固定されたデジタルカメラであってもよい。また、撮像装置200は、図示された撮像装置200a2のように、撮像機能を有する携帯電話(スマートフォン)がクレイドルに固定されたものであってもよい。さらに、撮像装置200は、図示された撮像装置200a3のように、全方位カメラモジュールであってもよい。
(Example of how to install the imaging device)
FIG. 2 is a diagram for describing an installation example of the imaging device according to the first embodiment of the present disclosure. As described above, in the present embodiment, the imaging device 200 that captures an image of a user who plays sports is provided. Such an imaging apparatus 200 may be a digital camera fixed to a cradle, for example, as illustrated in the imaging apparatus 200a1. Further, the imaging apparatus 200 may be a mobile phone (smartphone) having an imaging function fixed to a cradle like the illustrated imaging apparatus 200a2. Furthermore, the imaging apparatus 200 may be an omnidirectional camera module, as illustrated in the imaging apparatus 200a3.

例えばテニスの場合、こうした撮像装置200は、図示されているようにコートの支柱に取り付けられてもよい。支柱のコートに対する相対的な位置は決まっているため、支柱に取り付けられた撮像装置200の画像からは、プレーヤのコート内での位置を識別することが比較的容易である。また、撮像装置200が広角レンズを用いていたり、撮像装置200a3のような全方位カメラであるような場合、支柱に取り付けることでコート全面を俯瞰することが可能である。   For example, in the case of tennis, such an imaging device 200 may be attached to a court post as shown. Since the relative position of the support with respect to the court is determined, it is relatively easy to identify the position of the player in the court from the image of the imaging device 200 attached to the support. When the imaging apparatus 200 uses a wide-angle lens or is an omnidirectional camera such as the imaging apparatus 200a3, it is possible to look down on the entire coat surface by attaching it to a support.

このように、撮像装置200を適切に配置することで、動画の解析による打球の結果の判定や、プレーヤの動きの判定が可能である。かかる撮像装置200によって取得された画像、または当該画像の解析結果の情報も、ユーザの挙動を示すセンサ情報として、プレーイベントの検出を実行する撮像装置200によって利用されてもよい。   As described above, by appropriately arranging the imaging device 200, it is possible to determine the result of the hit ball by analyzing the moving image and to determine the movement of the player. The image acquired by the imaging apparatus 200 or information on the analysis result of the image may also be used by the imaging apparatus 200 that detects a play event as sensor information indicating the user's behavior.

(1−2.装置構成)
図3は、本開示の第1の実施形態に係るセンサ装置および撮像装置の概略的な機能構成を示すブロック図である。
(1-2. Device configuration)
FIG. 3 is a block diagram illustrating a schematic functional configuration of the sensor device and the imaging device according to the first embodiment of the present disclosure.

(センサ装置)
センサ装置100は、センサ110と、前処理部120と、通信部130とを含む。なお、これらの機能を実現するためのハードウェア構成については後述する。
(Sensor device)
The sensor device 100 includes a sensor 110, a preprocessing unit 120, and a communication unit 130. A hardware configuration for realizing these functions will be described later.

センサ110は、例えば加速度、角速度、振動、温度、時刻、または位置などを検出する。より具体的には、センサ110は、例えば加速度センサ、角速度センサ、振動センサ、温度センサ、時計、またはGPS(Global Positioning System)受信機などを含みうる。また、上述のように撮像装置200がセンサ装置としても機能する場合、センサ110は、ユーザのコート内などでの位置情報を取得するための画像を撮像する撮像部でありうる。   The sensor 110 detects, for example, acceleration, angular velocity, vibration, temperature, time, or position. More specifically, the sensor 110 may include, for example, an acceleration sensor, an angular velocity sensor, a vibration sensor, a temperature sensor, a clock, or a GPS (Global Positioning System) receiver. Further, when the imaging device 200 also functions as a sensor device as described above, the sensor 110 may be an imaging unit that captures an image for acquiring position information in a user's court or the like.

前処理部120は、センサ110によって検出されたデータの前処理を実行する。前処理は、例えば、検出されたデータの増幅や、閾値以下のデータのフィルタリングなどでありうる。また、センサ110が撮像部である場合、前処理部120で、ユーザの位置を特定するための画像処理が実行されてもよい。なお、センサ110の種類によっては、データが必ずしも前処理部120を経由せずに通信部130に供給される場合もある。   The preprocessing unit 120 performs preprocessing of data detected by the sensor 110. The preprocessing can be, for example, amplification of detected data, filtering of data below a threshold value, or the like. Further, when the sensor 110 is an imaging unit, the preprocessing unit 120 may execute image processing for specifying the position of the user. Depending on the type of sensor 110, data may be supplied to the communication unit 130 without necessarily passing through the preprocessing unit 120.

通信部130は、前処理部120(またはセンサ110)から提供されたデータを、センサ情報として撮像装置200に向けて送信する通信モジュールである。センサ情報の送信には、例えば無線通信が用いられる。通信方式は特に限定されないが、例えば撮像装置200がセンサ装置100の近くにある場合には、Bluetooth(登録商標)や無線LAN(Local Area Network)などが用いられうる。また、撮像装置200がセンサ装置100から離れていたり、センサ情報をサーバ300に送信したりする場合には、インターネットなどが用いられてもよい。   The communication unit 130 is a communication module that transmits data provided from the preprocessing unit 120 (or the sensor 110) to the imaging apparatus 200 as sensor information. For example, wireless communication is used for transmitting the sensor information. The communication method is not particularly limited. For example, when the imaging device 200 is near the sensor device 100, Bluetooth (registered trademark), a wireless LAN (Local Area Network), or the like can be used. Further, when the imaging apparatus 200 is away from the sensor apparatus 100 or transmits sensor information to the server 300, the Internet or the like may be used.

(撮像装置)
撮像装置200は、通信部210と、解析部220と、制御部230と、撮像部240とを含む。なお、これらの機能を実現するためのハードウェア構成については後述する。
(Imaging device)
The imaging apparatus 200 includes a communication unit 210, an analysis unit 220, a control unit 230, and an imaging unit 240. A hardware configuration for realizing these functions will be described later.

通信部210は、センサ装置100から送信されたセンサ情報を受信する通信モジュールである。センサ装置100について説明したように、センサ情報の送受信には、例えばBluetooth(登録商標)や無線LANなどの近距離無線通信が用いられてもよい。通信部210は、受信したセンサ情報を解析部220に提供する。なお、本実施形態では、この通信部210が、センサ情報を取得するセンサ情報取得部にあたる。他の例として、センサ情報取得部は、別途設けられた通信装置から、あるいは撮像装置200の他の部分から内部的にセンサ情報を取得するインターフェースであってもよい。   The communication unit 210 is a communication module that receives sensor information transmitted from the sensor device 100. As described for the sensor device 100, short-range wireless communication such as Bluetooth (registered trademark) or wireless LAN may be used for transmission and reception of sensor information. The communication unit 210 provides the received sensor information to the analysis unit 220. In the present embodiment, the communication unit 210 corresponds to a sensor information acquisition unit that acquires sensor information. As another example, the sensor information acquisition unit may be an interface that acquires sensor information internally from a separately provided communication device or from another part of the imaging device 200.

解析部220は、通信部210から提供されたセンサ情報を解析し、解析結果を制御部230に提供する。解析部220は、プレーイベント情報生成部221を含む。プレーイベント情報生成部221は、センサ情報に基づいてスポーツにおけるプレーイベントの発生を検出し、プレーイベントに対応するプレーイベント情報を生成する。   The analysis unit 220 analyzes the sensor information provided from the communication unit 210 and provides the analysis result to the control unit 230. The analysis unit 220 includes a play event information generation unit 221. The play event information generation unit 221 detects the occurrence of a play event in sports based on the sensor information, and generates play event information corresponding to the play event.

ここで、上述のように、プレーイベントは、スポーツのプレーにおいて何らかの意味を有する動作の単位として定義される。例えば、テニスの場合であれば、「コート内での移動」、「スイング」、「ジャンプ」、「ボールを打つ」といったようなプレーイベントが定義されうる。プレーイベント情報生成部221は、予め定義されたプレーイベントの発生を、機械学習やパターン認識などを用いたセンサ情報の解析によって検出する。さらに、プレーイベント情報生成部221は、発生したことが検出されたプレーイベントについて、例えば必要に応じてセンサ情報をさらに参照して当該プレーイベントに関する詳細な情報を付加して、プレーイベント情報を生成する。なお、プレーイベントの検出や、プレーイベント情報の具体的な例については、後述する。   Here, as described above, a play event is defined as a unit of action having some meaning in sports play. For example, in the case of tennis, play events such as “movement on the court”, “swing”, “jump”, and “hit the ball” can be defined. The play event information generation unit 221 detects the occurrence of a predefined play event by analyzing sensor information using machine learning or pattern recognition. Further, the play event information generation unit 221 generates play event information by adding detailed information regarding the play event, for example, by further referring to the sensor information as necessary for the play event detected to have occurred. To do. A specific example of play event detection and play event information will be described later.

制御部230は、解析部220から提供された解析結果であるプレーイベント情報に基づいて、撮像装置200の動作を制御する。本実施形態において、制御部230は、撮像制御部231と、チャプタ設定部232とを含む。   The control unit 230 controls the operation of the imaging apparatus 200 based on play event information that is an analysis result provided from the analysis unit 220. In the present embodiment, the control unit 230 includes an imaging control unit 231 and a chapter setting unit 232.

撮像制御部231は、プレーイベント情報に基づいて、撮像部240によるプレー画像の撮像を制御する。例えば、撮像制御部231は、撮像部240による、動画像であるプレー画像の撮像開始または撮像終了の少なくともいずれかを、プレーイベント情報に基づいて決定する。より具体的には、撮像制御部231は、所定のプレーイベントの発生が検出された場合に、当該プレーイベントの区間についてプレー画像が撮像されるように撮像部240を制御する。   The imaging control unit 231 controls the imaging of the play image by the imaging unit 240 based on the play event information. For example, the imaging control unit 231 determines at least one of imaging start and imaging end of the play image, which is a moving image, by the imaging unit 240 based on the play event information. More specifically, when the occurrence of a predetermined play event is detected, the imaging control unit 231 controls the imaging unit 240 so that a play image is captured for the play event section.

また、撮像制御部231は、複数の撮像装置によって撮像されるプレー画像を、プレーイベント情報に基づいて選別してもよい。上述のように、複数の撮像装置200によってプレー画像が撮像される場合、それぞれの撮像装置200の撮像制御部231は、検出されたプレーイベントについて、自装置のアングルが適切である場合に、撮像部240にプレー画像を撮像させてもよい。また、いずれかの撮像装置200の撮像制御部231が、プレーイベントについて最も適切なアングルを有する撮像装置200でプレー画像が撮像されるように、他の撮像装置200の撮像部240を制御してもよい。あるいは、いずれかの撮像装置200の撮像制御部231によって、それぞれの撮像装置200で撮像されたプレー画像から、それぞれのプレーイベントについて最も適切なアングルの画像が選択されてもよい。   Further, the imaging control unit 231 may select play images captured by a plurality of imaging devices based on play event information. As described above, when a play image is picked up by a plurality of image pickup devices 200, the image pickup control unit 231 of each image pickup device 200 picks up an image when the angle of the own device is appropriate for the detected play event. You may make the part 240 image a play image. Further, the imaging control unit 231 of any imaging device 200 controls the imaging unit 240 of another imaging device 200 so that a play image is captured by the imaging device 200 having the most appropriate angle for the play event. Also good. Alternatively, the image control unit 231 of any of the image capturing apparatuses 200 may select an image with the most appropriate angle for each play event from the play images captured by the respective image capturing apparatuses 200.

一方、チャプタ設定部232は、プレーイベント情報に基づいて、撮像部240によって撮像されたプレー画像に、プレーイベントに対応するチャプタ情報を設定する。チャプタ情報は、プレー画像が動画像である場合に、当該動画像の再生区間を例えば再生時間によって定義する情報である。チャプタ情報が設定されることによって、ユーザは、プレー画像を視聴する際に、チャプタ単位で再生をスキップしたり、また戻ったりすることができる。従って、所望のプレーイベントの部分にジャンプしたり、そのプレーイベント部分を繰り返し視聴したりといったことが可能である。   On the other hand, the chapter setting unit 232 sets chapter information corresponding to the play event in the play image captured by the imaging unit 240 based on the play event information. The chapter information is information that defines a playback section of a moving image based on, for example, a playback time when the play image is a moving image. By setting the chapter information, the user can skip reproduction or return in units of chapters when viewing the play image. Therefore, it is possible to jump to a desired play event portion or repeatedly watch the play event portion.

なお、本実施形態では、このチャプタ設定部232が、プレー画像に付加情報を設定する付加情報設定部にあたる。他の例として、付加情報設定部は、プレー画像の特定のプレーイベントに対応する区間、あるいはその前の区間に、プレーイベントを示すキャプションを表示するための情報をプレー画像に付加してもよい。また、例えば、付加情報設定部は、プレー画像が静止画像である場合に、当該静止画像にプレーイベントを示すキャプションの情報を付加してもよい。   In the present embodiment, the chapter setting unit 232 corresponds to an additional information setting unit that sets additional information for a play image. As another example, the additional information setting unit may add, to the play image, information for displaying a caption indicating the play event in a section corresponding to a specific play event of the play image, or in a section before that. . For example, when the play image is a still image, the additional information setting unit may add caption information indicating a play event to the still image.

撮像部240は、画像を撮像するための撮像素子やレンズ、およびそれらの駆動回路などを含む。撮像部240は、制御部230の制御に従ってプレー画像を撮像する。撮像されたプレー画像のデータは、例えば通信部210からサーバ300(図2には示していない)に送信されてもよい。あるいは、撮像されたプレー画像のデータは、撮像装置200の記憶装置に蓄積されてもよい。   The imaging unit 240 includes an imaging element and a lens for capturing an image, a drive circuit thereof, and the like. The imaging unit 240 captures a play image under the control of the control unit 230. The captured play image data may be transmitted from the communication unit 210 to the server 300 (not shown in FIG. 2), for example. Alternatively, the captured play image data may be stored in the storage device of the imaging device 200.

(1−3.プレーイベント検出の例)
図4は、本開示の第1の実施形態におけるプレーイベント検出の例を示す図である。図示された例では、撮像装置200のプレーイベント情報生成部221が、テニスのスイングを、ユーザが使用するラケットの振動をセンサ情報として用いて検出する。
(1-3. Example of play event detection)
FIG. 4 is a diagram illustrating an example of play event detection according to the first embodiment of the present disclosure. In the illustrated example, the play event information generation unit 221 of the imaging device 200 detects a tennis swing using vibration of a racket used by the user as sensor information.

図示された例において、スイングは、テイクバック、フォワードスイング、インパクト、ポストインパクト、およびフォロースルーの動作からなるものとする。本実施形態では、「スイング」のプレーイベントは、このテイクバックからフォロースルーまでの一連の動作として定義される。例示的な振動波形に示されるように、このときのラケットの振動は、インパクトの動作時に発生し、ポストインパクトの動作の間に減衰する。   In the illustrated example, the swing is made up of takeback, forward swing, impact, post impact, and follow-through operations. In the present embodiment, a “swing” play event is defined as a series of actions from takeback to follow-through. As shown in the exemplary vibration waveform, the racket vibration at this time occurs during the impact operation and attenuates during the post-impact operation.

この場合、プレーイベント情報生成部221は、まず、インパクトの区間で発生するラケットの振動を、ラケットに装着されたセンサ装置100に含まれる振動センサ(センサ110)によるセンサ情報によって検出する。プレーイベント情報生成部221は、その後の振動の減衰波形をも考慮して、この振動がスイングを表すものであることを特定する。つまり、ここで、プレーイベント情報生成部221は、プレーイベント「スイング」が発生したことを検出する。   In this case, the play event information generation unit 221 first detects the vibration of the racket generated in the impact section based on the sensor information by the vibration sensor (sensor 110) included in the sensor device 100 attached to the racket. The play event information generation unit 221 specifies that this vibration represents a swing in consideration of the subsequent attenuation waveform of the vibration. That is, here, the play event information generation unit 221 detects that a play event “swing” has occurred.

さらに、プレーイベント情報生成部221は、振動の発生時点をインパクトの開始時点とし、そこから3〜5ミリ秒の区間をインパクトとし、その前後にテイクバック、フォワードスイング、ポストインパクト、およびフォロースルーの区間を定義する。これらの区間の全体が、プレーイベント「スイング」の区間である。プレーイベント情報生成部221は、これらの区間の開始および終了の時刻を、後述するプレーイベント情報に含めてもよい。   Further, the play event information generation unit 221 sets the vibration occurrence time as the start time of impact, and sets the section of 3 to 5 milliseconds as impact, and takes back, forward swing, post impact, and follow-through before and after that Define the interval. The whole of these sections is the section of the play event “swing”. The play event information generation unit 221 may include the start and end times of these sections in play event information described later.

ここで、テイクバック、フォワードスイング、インパクト、ポストインパクト、およびフォロースルーの各区間の長さは、例えば、一般的なスイングのデータからあらかじめ設定されていてもよい。設定値は、例えば固定値であってもよいし、振動の振幅や長さに応じた相対的な値であってもよい。   Here, the length of each section of takeback, forward swing, impact, post impact, and follow-through may be set in advance from, for example, general swing data. The set value may be a fixed value, for example, or may be a relative value according to the amplitude or length of vibration.

(1−4.プレーイベント情報の例)
図5は、本開示の第1の実施形態で生成されるプレーイベント情報の例を示す図である。図示された例において、プレーイベント情報は、センサ装置ID、開始時刻、終了時刻、プレーイベント種類、および詳細情報を含む。
(1-4. Example of play event information)
FIG. 5 is a diagram illustrating an example of play event information generated in the first embodiment of the present disclosure. In the illustrated example, the play event information includes a sensor device ID, a start time, an end time, a play event type, and detailed information.

センサ装置IDは、プレーイベントを検出する基になったセンサ情報を送信したセンサ装置100を識別するための情報である。例えば、複数のプレーヤがそれぞれセンサ装置100を装着し、複数のユーザの挙動を示すセンサ情報が通信部210によって受信される場合、これらのセンサ装置100をセンサ装置IDによって識別することで、プレーイベントに対応するユーザを特定することができる。ID情報には、例えばセンサ装置100のMAC(Media Access Control)アドレスなどが用いられてもよい。なお、センサ装置100が1台しかない場合には、センサ装置IDの情報は省略されてもよい。   The sensor device ID is information for identifying the sensor device 100 that has transmitted the sensor information that is the basis for detecting the play event. For example, when a plurality of players wear the sensor device 100 and sensor information indicating the behavior of a plurality of users is received by the communication unit 210, the play event is identified by identifying these sensor devices 100 by the sensor device ID. Can be identified. For example, a MAC (Media Access Control) address of the sensor device 100 may be used as the ID information. In addition, when there is only one sensor device 100, information on the sensor device ID may be omitted.

開始時刻および終了時刻の情報は、プレーイベントの開始と終了の時刻を特定する。例えば、図4に示す「スイング」のプレーイベントであれば、テイクバックの始点とフォロースルーの終点との時刻が、それぞれ開始時刻および終了時刻として記録されうる。この例のように、プレーイベントは秒単位、またはミリ秒単位で発生しうるため、開始時刻および終了時刻は少なくとも秒単位、好ましくはミリ秒単位で記録されることが望ましい。開始時刻および終了時刻は、例えば、センサ装置100側でセンサ情報を送信するときに付加される時刻情報に基づいて特定されてもよいし、また撮像装置200側でセンサ情報を受信するときに付加される時刻情報に基づいて特定されてもよい。   The start time and end time information specifies the start and end times of the play event. For example, in the case of the “swing” play event shown in FIG. 4, the times of the start point of the takeback and the end point of the follow-through can be recorded as the start time and the end time, respectively. As in this example, since a play event can occur in units of seconds or milliseconds, it is desirable that the start time and end time be recorded at least in units of seconds, preferably in units of milliseconds. The start time and the end time may be specified based on time information added when sensor information is transmitted on the sensor device 100 side, or added when sensor information is received on the imaging device 200 side, for example. It may be specified based on the time information.

プレーイベント種類は、プレーイベントの種類を示す情報である。例えば、テニスの場合、「コート内での移動」、「スイング」、「ジャンプ」、「ボールを打つ」、・・・といったようなプレーイベントの種類が設定されうる。この場合、例えば、「ジャンプ」しながら「スイング」して「ボールを打つ」、といったように、重複した区間について複数の種類のプレーイベントが設定される場合もある。なお、プレーイベントの種類は、スポーツの種目や、プレーヤの嗜好によって様々に設定されうる。   The play event type is information indicating the type of play event. For example, in the case of tennis, types of play events such as “movement on the court”, “swing”, “jump”, “hit the ball”,. In this case, for example, a plurality of types of play events may be set for overlapping sections, such as “swing” and “hit the ball” while “jumping”. Note that the type of play event can be set in various ways depending on the sport event and the preference of the player.

詳細情報は、各プレーイベントの内容をさらに詳細に記述する情報である。詳細情報の例について、続いて図6を参照してさらに説明する。   The detailed information is information describing the details of each play event in more detail. An example of detailed information will be further described with reference to FIG.

図6は、本開示の第1の実施形態で生成されるプレーイベントの詳細情報の例を示す図である。図示された例では、テニスで生成される「コート内での移動」、「スイング」、「ジャンプ」、「ボールを打つ」という4つの種類のプレーイベントについて、プレーイベント情報に設定されうる詳細情報が示されている。   FIG. 6 is a diagram illustrating an example of detailed information of a play event generated in the first embodiment of the present disclosure. In the example shown in the figure, detailed information that can be set in the play event information for four types of play events generated by tennis, such as “movement in the court”, “swing”, “jump”, and “hit the ball”. It is shown.

例えば、「コート内での移動」のプレーイベントであれば、詳細情報としてGPS情報(緯度経度)が記録される。GPS情報は、例えば、移動の始点と終点とを示す情報として記録されてもよい。なお、こうした情報は、例えば準天頂衛星の利用などによってGPSの精度が向上すれば現実的に取得可能である。   For example, in the case of a play event of “move on the court”, GPS information (latitude and longitude) is recorded as detailed information. For example, the GPS information may be recorded as information indicating a start point and an end point of movement. Such information can be acquired practically if the accuracy of GPS is improved by using, for example, a quasi-zenith satellite.

また、「スイング」のプレーイベントでは、スイングの種類が詳細情報として記録される。スイングの種類の検出については、この後図7を参照して説明する。「ジャンプ」のプレーイベントでは、GPS情報(緯度経度)が、ジャンプをした位置の情報として記録される。「ボールを打つ」のプレーイベントでは、ラケットにボールが当たった位置が詳細情報として記録される。ボールの当たった位置から、スイートスポット率(ボールがスイートスポット(ボールを打ったときのラケットの振動が最小になる位置など)に当たった率)が算出されて、詳細情報として記録されてもよい。なお、ボールの当たった位置は、例えばラケットの振動の情報から検出することが可能である。   In the “swing” play event, the type of swing is recorded as detailed information. The detection of the type of swing will be described later with reference to FIG. In the “jump” play event, GPS information (latitude and longitude) is recorded as information on the position where the jump was made. In the “hit the ball” play event, the position where the ball hits the racket is recorded as detailed information. The sweet spot rate (the rate at which the ball hits the sweet spot (such as the position where the racket vibration is minimized when the ball is hit)) is calculated from the position hit by the ball and may be recorded as detailed information. . The position where the ball has hit can be detected from, for example, racket vibration information.

このように、各プレーイベントについて詳細情報を設定することによって、例えば、プレーイベント情報を利用してプレー画像の撮像を制御する場合に、ユーザの所望に応じた細やかな制御が可能になる。また、プレー画像にプレーイベントに関する付加情報を設定する場合に、単にイベントの種類だけではなく様々な情報を付加することが可能になり、例えばユーザのスポーツの上達に役立てることができる。   In this way, by setting detailed information for each play event, for example, when shooting of a play image is controlled using the play event information, fine control according to the user's desire is possible. In addition, when setting additional information related to a play event in a play image, it is possible to add not only the type of event but also various information, which can be useful for improving the user's sport, for example.

なお、例えば「コート外に球を拾いに行った」、「休憩」、「歓談」などのように、プレー画像としては不要なプレーイベントも設定されうる(例えばその部分ではプレー画像の撮像を中止したり、プレー画像の再生時にその部分をスキップしたりできるようにするため)。例えばこのようなプレーイベントでは、詳細情報は設定されなくてもよい。   For example, an unnecessary play event may be set as a play image, such as “I went to pick up a ball outside the court”, “Break”, “Chat”, etc. Or that part can be skipped during playback of the play image). For example, in such a play event, detailed information may not be set.

図7は、本開示の第1の実施形態で生成されるプレーイベントの詳細情報としてスイングの種類を設定する例について説明するための図である。図示された例では、センサ装置100aが、ラケットのシャフト部分に装着されている。センサ装置100aは、センサ110としてx軸、y軸、z軸の各方向について加速度を検出することが可能な3軸の加速度センサを有する。   FIG. 7 is a diagram for describing an example in which a swing type is set as detailed information of a play event generated in the first embodiment of the present disclosure. In the illustrated example, the sensor device 100a is attached to the shaft portion of the racket. The sensor device 100a includes a three-axis acceleration sensor that can detect acceleration in each of the x-axis, y-axis, and z-axis directions as the sensor 110.

この場合、ユーザがラケットをスイングすると、スイングの種類に特有の波形が加速度の時系列データに現れる。例えば、フォアハンドストロークとサーブとの特徴は、図示されているように現れる(なお、センサ装置100aの取り付け位置、および加速度センサの性能などによって、必ずしも図示したような波形が観察されるとは限らない)。このような加速度の時系列データをベクトル特徴化し、予め登録しておいた識別辞書と照合することによって、スイングの種別を識別することが可能である。識別には、一般的な機械学習の方法を用いればよい。例えば、k−NN法やサポートベクターマシンなどを用いることが可能である。なお、スイングの種類としては、例えばフォアハンドストローク、フォアハンドボレー、フォアハンドスライス、バックハンドストローク、バックハンドスライス、バックハンドボレー、サーブ、スマッシュなどが挙げられる。   In this case, when the user swings the racket, a waveform specific to the type of swing appears in the time series data of acceleration. For example, the features of the forehand stroke and the serve appear as shown (note that the waveform shown in the figure is not necessarily observed depending on the mounting position of the sensor device 100a and the performance of the acceleration sensor). ). It is possible to identify the type of swing by vectorizing such time series data of acceleration and collating it with an identification dictionary registered in advance. A general machine learning method may be used for identification. For example, a k-NN method or a support vector machine can be used. Examples of types of swing include forehand stroke, forehand volley, forehand slice, backhand stroke, backhand slice, backhand volley, serve, and smash.

このようにして、プレーイベント「スイング」の詳細情報に、スイング種別を設定することが可能である。詳細情報は、この他にも、ユーザの所望に応じて、公知の各種の技術を使って取得される情報を含みうる。   In this way, it is possible to set the swing type in the detailed information of the play event “swing”. In addition to this, the detailed information may include information acquired using various known techniques according to the user's request.

(1−5.プレーイベント情報の利用の例)
図8は、本開示の第1の実施形態におけるプレーイベント情報の利用の例を示す図である。図示された例では、ユーザAおよびユーザBによってテニスがプレーされる。ユーザAおよびユーザBは、いずれもセンサ装置100を装着している。1台の撮像装置200が、プレーの模様をプレー画像として撮像する。
(1-5. Example of using play event information)
FIG. 8 is a diagram illustrating an example of use of play event information according to the first embodiment of the present disclosure. In the illustrated example, tennis is played by user A and user B. Both user A and user B wear the sensor device 100. One imaging device 200 captures a play pattern as a play image.

この場合、例えば、撮像装置200は、ユーザAおよびユーザBのそれぞれについて、スイングの機会ごとにプレーイベント情報を生成しうる。図では、生成されるプレーイベント情報が、ユーザAおよびユーザBのそれぞれについて時系列で示されている。プレーイベントに記載されているのは、詳細情報として特定されたスイングの種類である。   In this case, for example, the imaging apparatus 200 can generate play event information for each swing opportunity for the user A and the user B. In the figure, the generated play event information is shown in time series for each of user A and user B. What is described in the play event is the type of swing specified as detailed information.

このようにプレーイベント情報がユーザごとに設定されることによって、例えば、ユーザAおよびユーザBのプレーが交互に映っているプレー画像から、ユーザAまたはユーザBのプレーを抽出または検索することが可能である。また、詳細情報としてスイングの種類が設定されていることによって、例えば、ユーザA、ユーザBにかかわらず、ストローク(ボレー、サーブなどでもよい)を映したシーンを抽出または検索することも可能である。また、プレーイベント「スイング」に、ボールの当たった位置などの他の詳細情報が設定されている場合には、それを基にしてプレー画像のシーンを抽出または検索してもよい。   Thus, by setting the play event information for each user, for example, it is possible to extract or search the play of the user A or the user B from the play image in which the play of the user A and the user B is shown alternately. It is. Also, by setting the type of swing as the detailed information, for example, it is possible to extract or search a scene showing a stroke (may be volley, serve, etc.) regardless of user A or user B. . When other detailed information such as the position where the ball hits is set in the play event “swing”, a scene of the play image may be extracted or searched based on the detailed information.

(1−6.処理フローの例)
(撮像制御)
図9は、本開示の第1の実施形態において、所定のプレーイベントの区間でプレー画像を撮像するための処理フローの例を示す図である。
(1-6. Example of processing flow)
(Imaging control)
FIG. 9 is a diagram illustrating an example of a processing flow for capturing a play image in a predetermined play event section according to the first embodiment of the present disclosure.

まず、センサ装置100において、センサ110がユーザの挙動を検出する(ステップS101)。ここで、検出される値は、例えば加速度センサ、角速度センサ、もしくは振動センサなどの計測値、またはGPSによって受信される位置情報(緯度、経度)でありうる。   First, in the sensor device 100, the sensor 110 detects a user's behavior (step S101). Here, the detected value may be, for example, a measurement value such as an acceleration sensor, an angular velocity sensor, or a vibration sensor, or position information (latitude, longitude) received by GPS.

次に、前処理部120が、センサ110によって検出された検出値が所定の閾値以上であるか否かを判定する(ステップS103)。例えば検出値が加速度センサ、角速度センサ、または振動センサなどの計測値である場合、前処理部120は、検出値の大きさまたは振幅などが所定の閾値以上であるか否かを判定してもよい。なお、判定に用いられる検出値は、所定の増幅処理を経たものであってもよい。一方、例えば検出値がGPSによる位置情報である場合、前処理部120は、以前の位置情報と新たに検出された位置情報とを比較し、その間の距離が所定の閾値以上であるか否かを判定してもよい。   Next, the preprocessing unit 120 determines whether or not the detection value detected by the sensor 110 is equal to or greater than a predetermined threshold (step S103). For example, when the detected value is a measured value such as an acceleration sensor, an angular velocity sensor, or a vibration sensor, the preprocessing unit 120 may determine whether the magnitude or amplitude of the detected value is equal to or greater than a predetermined threshold value. Good. Note that the detection value used for the determination may have undergone a predetermined amplification process. On the other hand, for example, when the detected value is GPS position information, the preprocessing unit 120 compares the previous position information with the newly detected position information, and determines whether or not the distance therebetween is a predetermined threshold value or more. May be determined.

ステップS103において、検出値が所定の閾値以上である場合、通信部130が、撮像装置200に向けてセンサ情報を送信する。ここで送信されるセンサ情報には、ステップS101で検出された検出値に加えて、他のセンサによる検出値や時刻情報が付加されていてもよい。例えば、センサ110である加速度センサが所定の閾値以上の値を検出した場合、加速度センサの検出値とともに、GPS受信機が取得したユーザの位置や、検出値が取得された時刻の情報が付加された情報が、通信部130から撮像装置200に向けて送信されてもよい。   In step S <b> 103, when the detected value is greater than or equal to a predetermined threshold value, the communication unit 130 transmits sensor information to the imaging device 200. In addition to the detection value detected in step S101, the detection value and time information by other sensors may be added to the sensor information transmitted here. For example, when the acceleration sensor that is the sensor 110 detects a value that is equal to or greater than a predetermined threshold value, information on the position of the user acquired by the GPS receiver and the time at which the detection value is acquired is added together with the detection value of the acceleration sensor. The information may be transmitted from the communication unit 130 to the imaging device 200.

一方、ステップS103において、検出値が所定の閾値以上ではない場合、通信部130はセンサ情報を送信せず、センサ装置100は再びユーザの挙動の検出に戻る(ステップS101)。このように、検出値が所定の閾値以上ではない場合にはセンサ情報を送信しないことによって、通信に伴うセンサ装置100の消費電力を節約することができる。また、不要なセンサ情報を送信しないことで、撮像装置200における解析の処理負荷が不必要に高くなることを防ぐこともできる。   On the other hand, if the detected value is not greater than or equal to the predetermined threshold value in step S103, the communication unit 130 does not transmit the sensor information, and the sensor device 100 returns to detecting the user's behavior again (step S101). As described above, when the detected value is not equal to or greater than the predetermined threshold value, the power consumption of the sensor device 100 associated with communication can be saved by not transmitting the sensor information. Further, by not transmitting unnecessary sensor information, it is possible to prevent the analysis processing load in the imaging apparatus 200 from becoming unnecessarily high.

次に、撮像装置200において、通信部210が、センサ装置100から送信されたセンサ情報を受信する(ステップS107)。通信部210は、受信したセンサ情報を解析部220に提供する。センサ装置100側でセンサ情報に時刻情報が付加されていない場合、この時点で時刻情報が付加されてもよい。   Next, in the imaging device 200, the communication unit 210 receives the sensor information transmitted from the sensor device 100 (step S107). The communication unit 210 provides the received sensor information to the analysis unit 220. When the time information is not added to the sensor information on the sensor device 100 side, the time information may be added at this point.

次に、解析部220のプレーイベント情報生成部221が、受信されたセンサ情報から、有効なプレーイベントが発生したか否かを判定する(ステップS109)。上述のように、本実施形態において、プレーイベント情報生成部221は、予め定義されたプレーイベントについて、センサ情報の特徴を認識しており、それに基づいてセンサ情報からプレーイベントの発生を検出する。   Next, the play event information generation unit 221 of the analysis unit 220 determines whether a valid play event has occurred from the received sensor information (step S109). As described above, in the present embodiment, the play event information generation unit 221 recognizes the characteristics of sensor information for a predefined play event, and detects the occurrence of the play event from the sensor information based on the feature.

なお、ここでいう「有効なプレーイベント」は、単に予め定義されたプレーイベントではなく、その中で有効なものとして指定されたプレーイベントを意味してもよい。例えばテニスの場合、「コート外にボールを拾いに行く」というプレーイベントが定義されてもよいが、これは例えば撮像された画像を視聴するユーザにとって有効なプレーイベントではない。従って、プレーイベント情報生成部221は、センサ情報の特徴から、予め定義された「コート外にボールを拾いに行く」というプレーイベントの発生を検出するが、当該イベントを有効なプレーイベントではないと判定してもよい。   The “valid play event” referred to here may not be a play event defined in advance, but may mean a play event designated as valid in the play event. For example, in the case of tennis, a play event “going to pick up a ball outside the court” may be defined, but this is not a play event that is effective for a user who views a captured image, for example. Therefore, the play event information generation unit 221 detects the occurrence of a predefined play event “going to pick up the ball outside the court” from the characteristics of the sensor information, but the event is not a valid play event. You may judge.

ステップS109において、有効なプレーイベントが発生したと判定された場合、制御部230の撮像制御部231が、プレーイベントの開始時刻から、撮像部240によるプレー画像の撮像を開始させる(ステップS111)。ここで、実際のプレーイベントの開始からプレーイベントの発生が検出されるまでの時間差が考慮されてもよい。その場合、撮像部240は継続的に撮像を実行し、撮像された画像をバッファメモリに一時的に記録しており、撮像制御部231は、バッファメモリに格納された画像のうち、プレーイベントの開始時刻以降の画像をプレー画像として記録してもよい。   If it is determined in step S109 that a valid play event has occurred, the imaging control unit 231 of the control unit 230 starts imaging the play image by the imaging unit 240 from the start time of the play event (step S111). Here, a time difference from the start of the actual play event until the occurrence of the play event is detected may be considered. In that case, the imaging unit 240 continuously performs imaging and temporarily records the captured image in the buffer memory, and the imaging control unit 231 selects a play event from the images stored in the buffer memory. Images after the start time may be recorded as a play image.

例えば、プレーイベント「スイング」が、図4の例でいう「インパクト」のタイミングで検出されたとする。この場合、撮像制御部231は、「インパクト」の時刻を基準にしてその前に定義された「フォワードスイング」および「テイクバック」の区間まで遡って、バッファメモリに格納されている画像を記録する。   For example, it is assumed that the play event “swing” is detected at the timing of “impact” in the example of FIG. In this case, the imaging control unit 231 records the image stored in the buffer memory retroactively to the “forward swing” and “takeback” sections defined before the “impact” time as a reference. .

その後、撮像制御部231は、プレーイベントの終了時刻で撮像部240によるプレー画像の撮像を終了する(ステップS113)。プレーイベントの終了は、例えば上記のステップS101〜S109と同様にしてセンサ情報から判定されてもよいし、またプレーイベントの種類などによって、プレーイベントの開始から所定時間後がプレーイベントの終了として特定されてもよい。   Thereafter, the imaging control unit 231 ends the imaging of the play image by the imaging unit 240 at the end time of the play event (step S113). The end of the play event may be determined from the sensor information, for example, in the same manner as in steps S101 to S109 described above, and after a predetermined time from the start of the play event is specified as the end of the play event depending on the type of the play event. May be.

(チャプタ設定)
図10は、本開示の第1の実施形態において、撮像された動画にチャプタを設定するための処理フローの例を示す図である。
(Chapter setting)
FIG. 10 is a diagram illustrating an example of a processing flow for setting a chapter in a captured moving image according to the first embodiment of the present disclosure.

この例において、プレーイベントを検出するステップ(ステップS101〜S109)は、上記で図9を参照して説明した例と同様である。   In this example, the steps for detecting a play event (steps S101 to S109) are the same as the example described above with reference to FIG.

ステップS109において、有効なプレーイベントが発生したと判定された場合、制御部230のチャプタ設定部232が、撮像部240によって撮像されているプレー画像のプレーイベント開始時刻に対応する位置に、プレーイベントの開始を示すチャプタ属性を記録する(ステップS211)。   If it is determined in step S109 that a valid play event has occurred, the chapter setting unit 232 of the control unit 230 has a play event at a position corresponding to the play event start time of the play image captured by the imaging unit 240. The chapter attribute indicating the start of is recorded (step S211).

その後、チャプタ設定部232は、撮像されているプレー画像のプレーイベント終了時刻に対応する位置に、プレーイベントの終了を示すチャプタ属性を記録する(ステップS213)。プレーイベントの終了は、例えば上記のステップS101〜S109と同様にしてセンサ情報から判定されてもよいし、またプレーイベントの種類などによって、プレーイベントの開始から所定時間後がプレーイベントの終了として特定されてもよい。   Thereafter, the chapter setting unit 232 records a chapter attribute indicating the end of the play event at a position corresponding to the play event end time of the captured play image (step S213). The end of the play event may be determined from the sensor information, for example, in the same manner as in steps S101 to S109 described above, and after a predetermined time from the start of the play event is specified as the end of the play event depending on the type of the play event. May be.

(1−7.実施形態のまとめ)
以上、本開示の第1の実施形態について説明した。本実施形態では、例えば、撮像装置200によるプレー画像の撮像を、センサ情報に基づいて生成されるプレーイベント情報に従って制御することによって、いわゆる自分撮りの場合などに、ユーザが撮像の制御のための操作に手を煩わされることなく所望のプレー画像を撮像することが可能である。また、予め振り返りたいプレーイベントを、有効なプレーイベントとして予め設定しておけば、所望の部分だけが予め抽出されたプレー画像を自動的に生成することも可能である。また、そのような設定をしなくても、球拾いのような明らかに不要なシーンについては自動的にプレー画像から除外することができる。これによって、プレー画像全体の容量も削減され、例えば撮像装置200からサーバ300にプレー画像をアップロードするような場合に通信時間の短縮が可能である。
(1-7. Summary of Embodiment)
Heretofore, the first embodiment of the present disclosure has been described. In the present embodiment, for example, by controlling the shooting of the play image by the imaging device 200 according to the play event information generated based on the sensor information, the user can control the shooting in the case of so-called selfie. It is possible to take a desired play image without bothering the operation. Further, if a play event to be looked back in advance is set in advance as an effective play event, it is possible to automatically generate a play image in which only a desired portion is extracted in advance. Even without such setting, scenes that are clearly unnecessary, such as picking up a ball, can be automatically excluded from the play image. As a result, the capacity of the entire play image is also reduced. For example, when the play image is uploaded from the imaging device 200 to the server 300, the communication time can be shortened.

また、例えば、撮像装置200によって撮像される画像に、センサ情報から検出されるプレーイベントの情報に従ってチャプタなどを設定することによって、生成されたプレー画像における検索性が著しく向上する。また、チャプタがプレーイベントに従って設定されているために、ユーザがプレー画像を視聴する際に、自らのプレーの中の所望の部分だけを再生するといったことも容易である。   Further, for example, by setting a chapter or the like in the image captured by the imaging device 200 according to the information of the play event detected from the sensor information, the searchability in the generated play image is remarkably improved. Further, since the chapter is set according to the play event, it is easy for the user to reproduce only a desired part in his / her play when viewing the play image.

上記の本実施形態の説明では、主にテニスの例について説明したが、スポーツの種目はテニスには限られない。本実施形態は、例えば野球にも適用できる。野球の場合、センサ装置100は、例えばユーザ自身、またはバットやグローブなどの用具に装着されうる。検出されたプレーイベントに対応してプレー画像が撮像されたり、チャプタが設定されたりするのは、上記のテニスの例と同じである。野球の場合、攻撃にしても守備にしても、1人のユーザがプレーする機会は限られるため、本実施形態を適用して所望のシーンの抽出または検索を容易にすることには大きな利点がある。   In the above description of the present embodiment, the example of tennis has been mainly described, but the sporting event is not limited to tennis. This embodiment can also be applied to baseball, for example. In the case of baseball, the sensor device 100 can be mounted on, for example, the user himself or a tool such as a bat or a glove. A play image is captured or a chapter is set corresponding to the detected play event, as in the above example of tennis. In the case of baseball, whether it is an attack or a defensive, the opportunity for one user to play is limited. Therefore, applying this embodiment to facilitate the extraction or search of a desired scene has a great advantage. is there.

また、本実施形態は、バッティングセンターやゴルフ練習場に適用することも可能である。例えば、バットやゴルフクラブのような打具にセンサ装置100を装着し、プレーイベントとしてよいショットとそうではないショットとを識別し、よいショットの動画を抽出してユーザに提供することが考えられる。   Moreover, this embodiment can also be applied to a batting center or a golf driving range. For example, it is conceivable to attach the sensor device 100 to a hitting tool such as a bat or a golf club, identify a shot that is good as a play event and a shot that is not so, extract a video of the good shot, and provide it to the user. .

なお、上記の例に限らず、本実施形態は、ユーザが画像によって自らのプレーを振り返る可能性がある、スポーツのあらゆる局面において有用である。   Note that the present embodiment is not limited to the above example, and is useful in all aspects of sports in which the user may look back on his or her play with images.

(2.第2の実施形態)
次に、図11〜図14を参照して、本開示の第2の実施形態について説明する。本開示の第2の実施形態では、プレーイベント情報が、プレーに関する情報をユーザに通知するために利用される。
(2. Second Embodiment)
Next, a second embodiment of the present disclosure will be described with reference to FIGS. In the second embodiment of the present disclosure, play event information is used to notify the user of information related to play.

(2−1.システム構成)
図11は、本開示の第2の実施形態に係るシステムの概要を示す図である。情報処理システム20は、センサ装置500と、通知装置600とを含む。
(2-1. System configuration)
FIG. 11 is a diagram illustrating an overview of a system according to the second embodiment of the present disclosure. The information processing system 20 includes a sensor device 500 and a notification device 600.

センサ装置500は、上記の第1の実施形態におけるセンサ装置100と同様に、スポーツをプレーしているユーザに装着される。センサ装置500は、センサ情報を取得して通知装置600に送信するだけではなく、通知装置600から通知情報を受信して、これをユーザに向けて出力する。   The sensor device 500 is worn by a user who is playing sports, like the sensor device 100 in the first embodiment. The sensor device 500 not only acquires sensor information and transmits it to the notification device 600 but also receives notification information from the notification device 600 and outputs it to the user.

通知装置600は、センサ装置500から提供されたセンサ情報からプレーイベント情報を生成し、これに基づいてユーザへの通知情報を生成し、センサ装置500に送信する。なお、プレーイベント情報の生成について、通知装置600は第1の実施形態における撮像装置200と同様である。通知装置600は、通信機能と情報処理機能を有する装置であれば、どのような装置であってもよい。図示された例では、携帯電話(スマートフォン)が通知装置600として用いられている。   The notification device 600 generates play event information from the sensor information provided from the sensor device 500, generates notification information to the user based on this, and transmits the notification information to the sensor device 500. In addition, about the production | generation of play event information, the notification apparatus 600 is the same as that of the imaging device 200 in 1st Embodiment. The notification device 600 may be any device as long as it has a communication function and an information processing function. In the illustrated example, a mobile phone (smart phone) is used as the notification device 600.

(2−2.装置構成)
図12は、本開示の第2の実施形態に係るセンサ装置および通知装置の概略的な機能構成を示すブロック図である。
(2-2. Device configuration)
FIG. 12 is a block diagram illustrating a schematic functional configuration of a sensor device and a notification device according to the second embodiment of the present disclosure.

(センサ装置)
センサ装置500は、センサ110と、前処理部120と、通信部530と、通知出力部540とを含む。なお、これらの機能を実現するためのハードウェア構成については後述する。また、センサ110および前処理部120については、上記の第1の実施形態と同様の構成であるため、詳細な説明を省略する。
(Sensor device)
The sensor device 500 includes a sensor 110, a preprocessing unit 120, a communication unit 530, and a notification output unit 540. A hardware configuration for realizing these functions will be described later. Further, since the sensor 110 and the preprocessing unit 120 have the same configuration as that of the first embodiment, detailed description thereof is omitted.

通信部530は、第1の実施形態の通信部130とほぼ同様の構成を有するが、通知装置600にセンサ情報を送信するだけではなく、通知装置600から通知情報を受信するのにも用いられる点が異なる。   The communication unit 530 has substantially the same configuration as the communication unit 130 of the first embodiment, but is used not only to transmit sensor information to the notification device 600 but also to receive notification information from the notification device 600. The point is different.

通知出力部540は、通信部530が受信した通知情報を、ユーザに向けて出力する。通知出力部540は、例えば、スピーカ541と、表示装置542とを含んでもよい。スピーカ541は、通知情報を音声によってユーザに向けて出力する。表示装置542は、通知情報を画像としてユーザに向けて出力する。スピーカ541と表示装置542とは、例えば通知情報の種類によっていずれかが選択されて用いられてもよく、また併用されてもよい。また、通知出力部540は、LEDランプなどの点灯部や、ユーザ自身や用具に振動を与えるバイブレータなどを含んでもよい。   The notification output unit 540 outputs the notification information received by the communication unit 530 toward the user. The notification output unit 540 may include, for example, a speaker 541 and a display device 542. The speaker 541 outputs the notification information to the user by voice. The display device 542 outputs the notification information as an image toward the user. For example, one of the speaker 541 and the display device 542 may be selected and used depending on the type of notification information, or may be used in combination. In addition, the notification output unit 540 may include a lighting unit such as an LED lamp, a vibrator that vibrates the user himself / her and the tool, and the like.

なお、通知情報は、必ずしもセンサ装置500から出力されなくてもよく、別途の表示装置やスピーカによって出力されてもよいが、本実施形態の適用場面としてユーザが個人的にスポーツをプレーしている場面が多く考えられることを鑑みると、センサ装置500から通知情報を出力するのが合理的な方法の1つである。   Note that the notification information does not necessarily have to be output from the sensor device 500 and may be output by a separate display device or speaker. However, as an application scene of the present embodiment, the user is playing sports personally. Considering that many scenes can be considered, outputting notification information from the sensor device 500 is one of the rational methods.

(通知装置)
通知装置600は、通信部610と、解析部220と、通知情報生成部650と、通知DB660と、登録部670とを含む。なお、これらの機能を実現するためのハードウェア構成については後述する。また、解析部220については、上記の第1の実施形態と同様の構成であるため、詳細な説明を省略する。
(Notification device)
The notification device 600 includes a communication unit 610, an analysis unit 220, a notification information generation unit 650, a notification DB 660, and a registration unit 670. A hardware configuration for realizing these functions will be described later. Further, the analysis unit 220 has the same configuration as that of the first embodiment, and thus detailed description thereof is omitted.

通信部610は、第1の実施形態の通信部210とほぼ同様の構成を有するが、センサ装置500からセンサ情報を受信するだけではなく、センサ装置500に通知情報を送信するのにも用いられる点が異なる。   The communication unit 610 has substantially the same configuration as the communication unit 210 of the first embodiment, but is used not only to receive sensor information from the sensor device 500 but also to transmit notification information to the sensor device 500. The point is different.

通知情報生成部650は、解析部220から提供された解析結果であるプレーイベント情報に基づいて、ユーザに向けた通知情報を生成する。通知情報は、例えばユーザが予めプレーイベントに関連付けて通知DB660に登録した情報でありうる。この場合、通知情報生成部650は、例えばプレーイベントの種類をマッチングさせることによって、発生したプレーイベントが通知情報生成の対象になるか否かを判定する。通知情報生成の対象になるプレーイベントが発生した場合、通知情報生成部650は、通知DB660に登録されている情報に従って通知情報を生成し、通信部610を介してセンサ装置500に送信する。通知情報生成部650は、通知情報の生成のために、プレーイベント情報に加えて通信部610が受信したセンサ情報を用いてもよい。なお、通知DB660に登録される情報の例については後述する。   The notification information generation unit 650 generates notification information for the user based on the play event information that is the analysis result provided from the analysis unit 220. The notification information may be information registered in the notification DB 660 by the user in advance in association with the play event, for example. In this case, the notification information generation unit 650 determines whether or not the generated play event is a notification information generation target by matching the types of play events, for example. When a play event that is a target of notification information generation occurs, the notification information generation unit 650 generates notification information according to information registered in the notification DB 660 and transmits the notification information to the sensor device 500 via the communication unit 610. The notification information generation unit 650 may use sensor information received by the communication unit 610 in addition to the play event information in order to generate notification information. An example of information registered in the notification DB 660 will be described later.

登録部670は、通知DB660に登録される情報を追加または修正するための操作入力部である。例えば、登録部670は、通知装置600の表示部や操作部を用いて、通知DB660の登録内容を設定するためのGUI(Graphical User Interface)をユーザに提供してもよい。   The registration unit 670 is an operation input unit for adding or correcting information registered in the notification DB 660. For example, the registration unit 670 may use a display unit or an operation unit of the notification device 600 to provide a user with a GUI (Graphical User Interface) for setting registration contents of the notification DB 660.

(2−3.通知DBの例)
図13は、本開示の第2の実施形態で設定される通知DBの例を示す図である。図示された例では、「リマインド(サーブ)」、「リマインド(休憩)」、「成功確認」の3つの通知に関する情報が示されている。
(2-3. Notification DB example)
FIG. 13 is a diagram illustrating an example of a notification DB set in the second embodiment of the present disclosure. In the illustrated example, information regarding three notifications “remind (serve)”, “remind (break)”, and “success confirmation” is shown.

例えば、「リマインド(サーブ)」の通知は、ユーザがサーブを1回失敗し、次のサーブをする場合に実行される。通知DB660には、このケースを特定するための条件が、例えば(1)プレーイベント「スイング」が発生し、(2)当該「スイング」の詳細情報にある「スイング種別」が「サーブ」であり、(3)同詳細情報にある「ボールが当たった位置」がスイートスポット以外であり、(4)センサ情報によって示されるユーザの位置が引き続きサービスライン付近にある、というように設定される。通知情報生成部650は、プレーイベント情報およびセンサ情報に基づいて上記の条件が満たされたと判定された場合、スピーカ541から「トスを丁寧に上げること」という音声出力をさせるための通知情報をセンサ装置500に送信する。   For example, the notification “remind (serve)” is executed when the user fails to serve once and performs the next serve. In the notification DB 660, for example, (1) a play event “swing” occurs, and (2) the “swing type” in the detailed information of the “swing” is “serve”. (3) The “position where the ball hits” in the detailed information is other than the sweet spot, and (4) the position of the user indicated by the sensor information continues to be in the vicinity of the service line. When it is determined that the above condition is satisfied based on the play event information and the sensor information, the notification information generation unit 650 detects notification information for causing the speaker 541 to output a voice “raise the toss carefully”. To device 500.

また、「リマインド(休憩)」の通知は、ユーザがプレーを開始して60分間継続した場合に実行される。通知DBには、このケースを特定するための条件が、例えば(1)「休憩」以外の何らかのプレーイベントが以前に発生し、(2)その後プレーイベント「休憩」が発生せず、(3)最初のプレーイベントの発生から所定の時間(60分)が経過した、というように設定される。通知情報生成部650は、プレーイベント情報およびセンサ情報に基づいて上記の条件が満たされたと判定された場合、LEDを点滅させ、バイブレータを振動させるための通知情報をセンサ装置500に送信する。   The notification of “remind (break)” is executed when the user starts playing and continues for 60 minutes. In the notification DB, the conditions for specifying this case are, for example, (1) some play event other than “break” has occurred before, (2) the play event “break” has not occurred, and (3) A predetermined time (60 minutes) has elapsed since the occurrence of the first play event. When it is determined that the above condition is satisfied based on the play event information and the sensor information, the notification information generation unit 650 transmits the notification information for blinking the LED and vibrating the vibrator to the sensor device 500.

さらに、「成功確認」の通知は、ユーザがストロークの際にラケットのスイートスポットでボールを打った場合に実行される。通知DBには、このケースを特定するための条件が、例えば(1)プレーイベント「スイング」が発生し、(2)当該「スイング」の詳細情報にある「スイング種別」が「ストローク」であり、(3)同詳細情報にある「ボールが当たった位置」がスイートスポットである、というように設定される。通知情報生成部650は、プレーイベント情報に基づいて上記の条件が満たされたと判定された場合、表示装置542に「Good!」という文字を表示させるための通知情報をセンサ装置500に送信する。   Further, the notification of “success confirmation” is executed when the user hits the ball at the sweet spot of the racket during the stroke. In the notification DB, for example, the conditions for specifying this case are (1) a play event “swing” occurs, and (2) “swing type” in the detailed information of the “swing” is “stroke”. (3) The “position where the ball hits” in the detailed information is set as a sweet spot. When it is determined that the above condition is satisfied based on the play event information, the notification information generation unit 650 transmits notification information for causing the display device 542 to display the characters “Good!” To the sensor device 500.

(2−4.処理フローの例)
図14は、本開示の第2の実施形態において、ユーザに通知情報を提供するための処理フローの例を示す図である。
(2-4. Example of processing flow)
FIG. 14 is a diagram illustrating an example of a processing flow for providing notification information to a user in the second embodiment of the present disclosure.

この例において、プレーイベントを検出するステップ(ステップS101〜S109)は、上記で図9を参照して説明した第1の実施形態の例と同様である。   In this example, the steps for detecting a play event (steps S101 to S109) are the same as in the example of the first embodiment described above with reference to FIG.

ステップS109において、有効なプレーイベントが発生したと判定された場合、通知装置600の通知情報生成部650は、発生したプレーイベントと通知DB660に登録された情報とをマッチングする(ステップS311)。上述のように、ここでのマッチングには、直前のステップS109で検出されたプレーイベントの情報だけではなく、それまでに検出されたプレーイベントの情報や、ステップS107で受信されたセンサ情報も用いられうる。   If it is determined in step S109 that a valid play event has occurred, the notification information generation unit 650 of the notification device 600 matches the generated play event with information registered in the notification DB 660 (step S311). As described above, not only the play event information detected in the immediately preceding step S109 but also the play event information detected so far and the sensor information received in step S107 are used for matching here. Can be.

ステップS311において、通知DB660に格納された通知条件とのマッチングが発生した場合、通知情報生成部650は、通信部610を介して、センサ装置500に通知情報を送信する(ステップS313)。ここで送信される通知情報は、例えば、通知に使用するデバイス(スピーカ541、表示装置542など)を特定する通知デバイス情報と、通知の具体的な動作を示す通知アクション情報とを含みうる。   When matching with the notification conditions stored in the notification DB 660 occurs in step S311, the notification information generation unit 650 transmits the notification information to the sensor device 500 via the communication unit 610 (step S313). The notification information transmitted here may include, for example, notification device information for specifying a device (speaker 541, display device 542, etc.) used for notification, and notification action information indicating a specific operation of notification.

次に、センサ装置500において、通信部530が通知情報を受信する(ステップS315)。通信部530は、受信した通知情報を通知出力部540に提供する。通知出力部540は、提供された通知情報に従って、適切な通知デバイスを選択し、通知アクションを実行する(ステップS317)。   Next, in the sensor device 500, the communication unit 530 receives notification information (step S315). The communication unit 530 provides the received notification information to the notification output unit 540. The notification output unit 540 selects an appropriate notification device according to the provided notification information, and executes a notification action (step S317).

(2−5.実施形態のまとめ)
以上、本開示の第2の実施形態について説明した。本実施形態では、例えば、スポーツのプレー中に、ユーザが予め意図していたタイミングで適切な通知が提供される。従って、ユーザが、プレー前に認識していたプレーの改善点などを、プレーに集中しがちなプレー中のタイミングであっても思い出すことができる。
(2-5. Summary of Embodiment)
Heretofore, the second embodiment of the present disclosure has been described. In the present embodiment, for example, during sports play, an appropriate notification is provided at a timing intended by the user in advance. Therefore, it is possible to remember the improvement points of the play that the user has recognized before the play even at the time of play during which the user tends to concentrate on the play.

また、プレーに集中すると、休憩を取ることも忘れがちになるが、例えば休憩を1つのプレーイベントとして検出し、これが検出されない状態が長く続いた場合に休憩を促す通知をユーザに提供することで、熱中症などの事故を防ぐこともできる。   Also, if you concentrate on playing, it is easy to forget to take a break. For example, by detecting a break as one play event and providing a notification that prompts the user for a break when this has not been detected for a long time, It can also prevent accidents such as heat stroke.

本実施形態は、このように、スポーツをプレー中のユーザに適切な情報を提供することで、スポーツの上達、または安全なプレーといったことを実現するものである。従って、本実施形態も、上記のテニスの例に限られず、あらゆる種目のスポーツに適用可能である。   In this way, the present embodiment realizes improvement of sports or safe play by providing appropriate information to a user who is playing sports. Therefore, the present embodiment is not limited to the example of tennis described above, and can be applied to all types of sports.

(3.第3の実施形態)
次に、本開示の第3の実施形態について説明する。本開示の第3の実施形態では、例えばゴルフのようなコースを回るスポーツにおいて、プレーイベント情報を生成する。
(3. Third embodiment)
Next, a third embodiment of the present disclosure will be described. In the third embodiment of the present disclosure, play event information is generated in a sport that goes around a course such as golf.

本実施形態では、例えばユーザが使用する用具(ゴルフクラブなど)のインパクト時の振動を検出したセンサ情報に基づいて、ボールを打ったこと(ショット)がプレーイベントとして検出される。プレーイベント「ショット」の詳細情報には、例えばGPS情報によって位置情報が設定される。   In the present embodiment, for example, hitting a ball (shot) is detected as a play event based on sensor information that detects vibration at the time of impact of a tool (such as a golf club) used by the user. In the detailed information of the play event “shot”, position information is set by GPS information, for example.

この位置情報によって、例えば、ショットがどこでされたかを識別することが可能である。これによって、例えばゴルフの場合であれば、何番ホールでのショットか、ティーショット、バンカーショットなどの特定の位置からのショットか、グリーン上でのパットか、といったことを識別することができる。このような識別の結果をもとに、例えば上記の第1の実施形態のように、プレー画像の撮像を制御したり、プレー画像にチャプタ情報を付加したりすれば、ユーザが後で自らのプレーを振り返るときに有益である。   With this position information, for example, it is possible to identify where the shot was made. Thus, for example, in the case of golf, it is possible to identify whether the shot is in a hole number, a shot from a specific position such as a tee shot or a bunker shot, or a putt on the green. Based on the result of such identification, for example, as in the first embodiment described above, if shooting of a play image is controlled or chapter information is added to the play image, the user can later Useful when looking back at play.

また、連続するショットの位置の間の距離として、ボールの飛距離を算出することも可能である。例えば、ボールの飛距離ごとにプレー画像を分類したり、ショットの位置とボールの飛距離との関係からショットが成功であったか失敗であったかを判別したりしてもよい。また、通知情報として、同じホール内でのショットの位置をつなげたボールの軌跡をゴルフコースの地図にマッピングした画像を生成して、ユーザに提示してもよい。   It is also possible to calculate the ball flight distance as the distance between successive shot positions. For example, the play image may be classified for each ball flight distance, or whether the shot was successful or unsuccessful may be determined from the relationship between the shot position and the ball flight distance. Further, as the notification information, an image in which the trajectory of the ball connecting the positions of shots in the same hole is mapped to the map of the golf course may be generated and presented to the user.

(4.他の実施形態)
上記の実施形態は、ユーザが自身のプレーを画像などで振り返る、またはユーザが自身のプレーに関する通知を受け取る、といったように、スポーツをプレーするユーザ自身に利益があるものであったが、本開示の実施形態はこのような例には限定されない。
(4. Other embodiments)
While the above embodiments have been beneficial to users who play sports, such as users looking back on their play with images, etc., or users receiving notifications about their play, the present disclosure The embodiment is not limited to such an example.

例えば、上記の第1の実施形態のように、特定のプレーイベントの部分だけを切り出した、またはプレーイベントごとにチャプタなどが設定されたプレー画像を、スポーツをプレーするユーザ以外のユーザ、例えば子供をテニススクールに通わせる親(もちろん、テニス以外のスクールでもよいし、スクールではなくサークル活動などでもよい)などに提供してもよい。この場合、親は、プレー画像の自分の子供が映っている部分だけを視聴したり、また容易に検索したりすることができ、スクールでの子供の様子をより短い時間で的確に把握することができる。   For example, as in the first embodiment described above, a play image in which only a part of a specific play event is cut out or a chapter or the like is set for each play event is used as a user other than a user who plays sports, for example, a child May be provided to parents who can attend a tennis school (of course, a school other than tennis may be used, or a club activity may be used instead of a school). In this case, the parent can watch only the portion of the play image where his / her child is shown, or can easily search for it, and can accurately grasp the state of the child at school in a shorter time. Can do.

(5.ハードウェア構成)
つづいて、図15および図16を参照して、本開示の実施形態に係るセンサ装置および情報処理装置(撮像装置、通知装置などに対応する)を実現するためのハードウェア構成の例について説明する。
(5. Hardware configuration)
Subsequently, an example of a hardware configuration for realizing the sensor device and the information processing device (corresponding to an imaging device, a notification device, and the like) according to the embodiment of the present disclosure will be described with reference to FIGS. 15 and 16. .

(センサ装置)
図15は、本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。センサ装置800は、本開示の実施形態に係るセンサ装置、例えば上記で説明したセンサ装置100やセンサ装置500を実現しうる。
(Sensor device)
FIG. 15 is a diagram illustrating an example of a hardware configuration of the sensor device according to the embodiment of the present disclosure. The sensor device 800 may realize the sensor device according to the embodiment of the present disclosure, for example, the sensor device 100 or the sensor device 500 described above.

センサ装置800は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、振動センサ・アンプ804と、ユーザインターフェース805と、外部記憶装置806と、通信装置807と、画像・音声出力装置808とを含みうる。これらの要素は、例えばバスによって相互に接続される。   The sensor device 800 includes a CPU (Central Processing Unit) 801, a ROM (Read Only Memory) 802, a RAM (Random Access Memory) 803, a vibration sensor / amplifier 804, a user interface 805, an external storage device 806, A communication device 807 and an image / audio output device 808 may be included. These elements are connected to each other by, for example, a bus.

CPU801、ROM802、およびRAM803は、例えば外部記憶装置806に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU801、ROM802、およびRAM803によって、例えば、センサ装置800全体の制御や、上記の例でいう前処理部120の機能の一部が実現されうる。   The CPU 801, the ROM 802, and the RAM 803 realize various functions in software by reading and executing program instructions recorded in the external storage device 806, for example. In the embodiment of the present disclosure, the CPU 801, the ROM 802, and the RAM 803 can realize, for example, control of the entire sensor device 800 and some of the functions of the preprocessing unit 120 in the above example.

振動センサ・アンプ804は、上記の実施形態の機能構成ではセンサ110に対応する。なお、センサ装置800は、加速度センサ、角速度センサ、温度センサ、時計、またはGPS受信機などをさらに有してもよい。   The vibration sensor / amplifier 804 corresponds to the sensor 110 in the functional configuration of the above embodiment. Sensor device 800 may further include an acceleration sensor, an angular velocity sensor, a temperature sensor, a clock, a GPS receiver, or the like.

ユーザインターフェース805は、センサ装置800へのユーザの操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。ユーザの操作は、例えば、センサ装置からのセンサ情報の送信の開始や終了を指示するものであってもよく、また通知情報が提供された場合に、その出力の停止を指示するものであってもよい。   The user interface 805 is an input device such as a button or a touch panel that accepts a user operation on the sensor device 800. The user's operation may be, for example, instructing the start or end of transmission of sensor information from the sensor device, or instructing to stop the output when notification information is provided. Also good.

外部記憶装置806は、センサ装置800に関する各種の情報を記憶する。外部記憶装置806には、例えば、CPU801、ROM802、およびRAM803にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、また振動センサ・アンプ804などのセンサによって取得されたデータが一時的にキャッシュされてもよい。センサ装置800がユーザ自身やスポーツ用具に装着されることを考慮すると、外部記憶装置806としては、例えば半導体メモリなどの衝撃に強いものを使用することが望ましい。   The external storage device 806 stores various types of information regarding the sensor device 800. The external storage device 806 may store, for example, program instructions for causing the CPU 801, the ROM 802, and the RAM 803 to realize functions in software, and data acquired by a sensor such as the vibration sensor / amplifier 804 is temporarily stored. May be cached automatically. Considering that the sensor device 800 is attached to the user himself / herself or sports equipment, it is desirable to use an external storage device 806 that is resistant to impact, such as a semiconductor memory.

通信装置807は、上記の実施形態の機能構成では通信部130,530に対応する。通信装置807は、例えばBluetooth(登録商標)や無線LANなどの近距離無線通信によって後述する情報処理装置900と通信する。また、情報処理装置900がネットワーク上のサーバ装置である場合、通信装置807は、インターネットなどのネットワークを介して情報処理装置900と通信してもよい。   The communication device 807 corresponds to the communication units 130 and 530 in the functional configuration of the above embodiment. The communication device 807 communicates with an information processing device 900 described later by short-range wireless communication such as Bluetooth (registered trademark) or wireless LAN. When the information processing apparatus 900 is a server apparatus on a network, the communication apparatus 807 may communicate with the information processing apparatus 900 via a network such as the Internet.

画像・音声出力装置808は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。画像・音声出力装置808は、例えば、LCD(Liquid Crystal Display)などの表示装置、またはスピーカやヘッドホンなどの音声出力装置などでありうる。画像・音声出力装置808は、上記の実施形態の機能構成では通知出力部540に対応する。なお、センサ装置800は、LEDランプなどの点灯部や、ユーザ自身や用具に振動を与えるバイブレータなどを出力部としてさらに有してもよい。   The image / sound output device 808 is configured by a device capable of visually or audibly notifying acquired information to the user. The image / sound output device 808 can be, for example, a display device such as an LCD (Liquid Crystal Display) or a sound output device such as a speaker or headphones. The image / sound output device 808 corresponds to the notification output unit 540 in the functional configuration of the above embodiment. The sensor device 800 may further include a lighting unit such as an LED lamp, a vibrator that vibrates the user himself / herself or a tool, and the like as an output unit.

(情報処理装置)
図16は、本開示の実施形態に係る情報処理装置のハードウェア構成の例を示す図である。情報処理装置900は、本開示の実施形態に係る情報処理装置、例えば上記で説明した撮像装置200や通知装置600を実現しうる。
(Information processing device)
FIG. 16 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the embodiment of the present disclosure. The information processing apparatus 900 can realize the information processing apparatus according to the embodiment of the present disclosure, for example, the imaging apparatus 200 and the notification apparatus 600 described above.

情報処理装置900は、CPU901と、ROM902と、RAM903と、ユーザインターフェース905と、外部記憶装置906と、通信装置907と、画像・音声出力装置908とを含みうる。これらの要素は、例えばバスによって相互に接続される。   The information processing apparatus 900 can include a CPU 901, a ROM 902, a RAM 903, a user interface 905, an external storage device 906, a communication device 907, and an image / audio output device 908. These elements are connected to each other by, for example, a bus.

CPU901、ROM902、およびRAM903は、例えば外部記憶装置906に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU901、ROM902、およびRAM903によって、例えば、情報処理装置900全体の制御や、上記の例でいう解析部220、制御部230、および通知情報生成部650などの機能が実現されうる。   The CPU 901, the ROM 902, and the RAM 903 realize various functions in software by reading and executing program instructions recorded in the external storage device 906, for example. In the embodiment of the present disclosure, the CPU 901, the ROM 902, and the RAM 903 realize, for example, control of the entire information processing apparatus 900 and functions such as the analysis unit 220, the control unit 230, and the notification information generation unit 650 in the above example. Can be done.

ユーザインターフェース905は、情報処理装置900へのユーザの操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。ユーザインターフェース905は、例えば、上記の例でいう登録部670の機能を実現しうる。   The user interface 905 is an input device such as a button or a touch panel that accepts user operations on the information processing apparatus 900. The user interface 905 can realize, for example, the function of the registration unit 670 in the above example.

外部記憶装置906は、情報処理装置900に関する各種の情報を記憶する。外部記憶装置906には、例えば、CPU901、ROM902、およびRAM903にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、また通信装置907が受信したセンサ情報が一時的にキャッシュされてもよい。また、外部記憶装置906には、プレーイベント情報やセンサ情報のログが蓄積されてもよい。さらに、外部記憶装置906には、上記の例でいう通知DB660が格納されてもよい。   The external storage device 906 stores various types of information regarding the information processing device 900. For example, the CPU 901, the ROM 902, and the RAM 903 may store program instructions for realizing functions in software, and the sensor information received by the communication device 907 is temporarily cached in the external storage device 906. Also good. Also, the external storage device 906 may store a log of play event information and sensor information. Furthermore, the notification DB 660 in the above example may be stored in the external storage device 906.

画像・音声出力装置908は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。画像・音声出力装置908は、例えば、LCDなどの表示装置、またはスピーカやヘッドホンなどの音声出力装置などでありうる。画像・音声出力装置908は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。   The image / sound output device 908 is configured by a device capable of visually or audibly notifying acquired information to the user. The image / audio output device 908 can be, for example, a display device such as an LCD, or an audio output device such as a speaker or headphones. The image / sound output device 908 outputs the result obtained by the processing of the information processing device 900 as a video such as text or image, or as a sound or sound.

(6.補足)
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(6. Supplement)
The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、上記の実施形態では、センサ装置と情報処理装置とを含む情報処理システムについて説明したが、本開示の実施形態は、例えば、情報処理装置の機能の少なくとも一部を実現するネットワーク上のサーバ(複数の装置の機能の集合として実現されるものを含む)、コンピュータにこれらの装置の機能を実現させるためのプログラム、およびかかるプログラムが記録された記録媒体などをも含む。   For example, in the above-described embodiment, the information processing system including the sensor device and the information processing device has been described. However, the embodiment of the present disclosure is, for example, a server on a network that realizes at least a part of the functions of the information processing device. (Including those realized as a set of functions of a plurality of devices), a program for causing a computer to realize the functions of these devices, and a recording medium on which such programs are recorded.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)スポーツをプレーするユーザの挙動を示すセンサ情報を取得するセンサ情報取得部と、
前記センサ情報に基づいて前記スポーツにおけるプレーイベントの発生を検出し、該プレーイベントに対応するプレーイベント情報を生成するプレーイベント情報生成部と
を備える情報処理装置。
(2)前記プレーイベント情報に基づいて前記ユーザに向けた通知情報を生成する通知情報生成部をさらに備える、前記(1)に記載の情報処理装置。
(3)前記通知情報は、前記ユーザが予め前記プレーイベントに関連付けて登録した情報である、前記(2)に記載の情報処理装置。
(4)前記通知情報生成部は、前記センサ情報にさらに基づいて前記通知情報を生成する、前記(2)または(3)に記載の情報処理装置。
(5)前記プレーイベント情報に基づいて前記スポーツのプレー画像の撮像を制御する撮像制御部をさらに備える、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)前記撮像制御部は、動画像である前記プレー画像の撮像開始または撮像終了の少なくともいずれかを前記プレーイベント情報に基づいて決定する、前記(5)に記載の情報処理装置。
(7)前記撮像制御部は、複数の撮像装置によって撮像される前記プレー画像を前記プレーイベント情報に基づいて選別する、前記(5)または(6)に記載の情報処理装置。
(8)前記プレーイベント情報に基づいて前記スポーツのプレー画像に付加情報を設定する付加情報設定部をさらに備える、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)前記付加情報設定部は、動画像である前記プレー画像に前記プレーイベントに対応するチャプタ情報を設定する、前記(8)に記載の情報処理装置。
(10)センサ情報取得部は、前記ユーザまたは前記ユーザが使用するスポーツ用具に装着される外部装置から前記センサ情報を受信する通信部である、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記プレーイベント情報に基づいて前記ユーザに向けた通知情報を生成する通知情報生成部をさらに備え、
前記通信部は、前記通知情報を前記外部装置に送信する、前記(10)に記載の情報処理装置。
(12)前記センサ情報取得部は、前記スポーツをプレーする複数のユーザの挙動を示す前記センサ情報を取得し、
前記プレーイベント情報生成部は、前記プレーイベントの対応するユーザを特定する情報を含む、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13) スポーツをプレーするユーザの挙動を示すセンサ情報を取得するセンサ、および
前記センサ情報を送信する通信部
を有するセンサ装置と、
前記センサ装置から前記センサ情報を受信する通信部、および
前記センサ情報に基づいて前記スポーツにおけるプレーイベントの発生を検出し、該プレーイベントに対応するプレーイベント情報を生成するプレーイベント情報生成部
を有する情報処理装置と
を含む情報処理システム。
(14)前記情報処理装置は、前記プレーイベント情報に基づいて前記ユーザに向けた通知情報を生成する通知情報生成部をさらに有し、
前記情報処理装置の通信部は、前記通知情報を前記センサ装置に送信し、
前記センサ装置の通信部は、前記通知情報を前記情報処理装置から受信し、
前記センサ装置は、前記通知情報を前記ユーザに向けて出力する出力部をさらに有し、前記ユーザまたは前記ユーザが使用するスポーツ用具に装着される、前記(13)に記載の情報処理システム。
(15)スポーツをプレーするユーザの挙動を示すセンサ情報を取得する機能と、
前記センサ情報に基づいて前記スポーツにおけるプレーイベントの発生を検出し、該プレーイベントに対応するプレーイベント情報を生成する機能と
をコンピュータに実現させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1) a sensor information acquisition unit that acquires sensor information indicating the behavior of a user who plays sports;
An information processing apparatus comprising: a play event information generation unit that detects occurrence of a play event in the sport based on the sensor information and generates play event information corresponding to the play event.
(2) The information processing apparatus according to (1), further including a notification information generation unit that generates notification information for the user based on the play event information.
(3) The information processing apparatus according to (2), wherein the notification information is information that the user registers in advance in association with the play event.
(4) The information processing apparatus according to (2) or (3), wherein the notification information generation unit generates the notification information further based on the sensor information.
(5) The information processing apparatus according to any one of (1) to (4), further including an imaging control unit that controls imaging of a play image of the sport based on the play event information.
(6) The information processing apparatus according to (5), wherein the imaging control unit determines at least one of imaging start and imaging end of the play image that is a moving image based on the play event information.
(7) The information processing device according to (5) or (6), wherein the imaging control unit selects the play image captured by a plurality of imaging devices based on the play event information.
(8) The information processing apparatus according to any one of (1) to (7), further including an additional information setting unit that sets additional information to the play image of the sport based on the play event information.
(9) The information processing apparatus according to (8), wherein the additional information setting unit sets chapter information corresponding to the play event in the play image that is a moving image.
(10) The sensor information acquisition unit is any one of the items (1) to (9), which is a communication unit that receives the sensor information from the user or an external device attached to a sports equipment used by the user. The information processing apparatus described in 1.
(11) A notification information generation unit that generates notification information for the user based on the play event information is further provided.
The information processing apparatus according to (10), wherein the communication unit transmits the notification information to the external apparatus.
(12) The sensor information acquisition unit acquires the sensor information indicating behaviors of a plurality of users who play the sport,
The information processing apparatus according to any one of (1) to (11), wherein the play event information generation unit includes information for specifying a user corresponding to the play event.
(13) A sensor device having sensor information indicating behavior of a user who plays sports, and a communication unit that transmits the sensor information;
A communication unit that receives the sensor information from the sensor device; and a play event information generation unit that detects occurrence of a play event in the sport based on the sensor information and generates play event information corresponding to the play event. An information processing system including an information processing device.
(14) The information processing apparatus further includes a notification information generation unit that generates notification information for the user based on the play event information,
The communication unit of the information processing device transmits the notification information to the sensor device,
The communication unit of the sensor device receives the notification information from the information processing device,
The information processing system according to (13), wherein the sensor device further includes an output unit that outputs the notification information to the user, and is attached to the user or a sports equipment used by the user.
(15) a function of acquiring sensor information indicating the behavior of a user who plays sports;
A program for causing a computer to realize a function of detecting occurrence of a play event in the sport based on the sensor information and generating play event information corresponding to the play event.

10,20 情報処理システム
100,500 センサ装置
110 センサ
130,530 通信部
200 撮像装置
210 通信部
220 解析部
221 プレーイベント情報生成部
230 制御部
231 撮像制御部
232 チャプタ設定部
240 撮像部
300 サーバ
540 通知出力部
541 スピーカ
542 表示装置
600 通知装置
610 通信部
650 通知情報生成部
660 通知DB
670 登録部
DESCRIPTION OF SYMBOLS 10,20 Information processing system 100,500 Sensor apparatus 110 Sensor 130,530 Communication part 200 Imaging device 210 Communication part 220 Analysis part 221 Play event information generation part 230 Control part 231 Imaging control part 232 Chapter setting part 240 Imaging part 300 Server 540 Notification output unit 541 Speaker 542 Display device 600 Notification device 610 Communication unit 650 Notification information generation unit 660 Notification DB
670 Registration Department

Claims (13)

ユーザの挙動を示すセンサ情報を取得するセンサ情報取得部と、
前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成するイベント情報生成部と、
前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する制御部と、
を備える情報処理装置。
A sensor information acquisition unit that acquires sensor information indicating a user's behavior;
An event information generation unit that detects the occurrence of an event based on the sensor information and generates event information corresponding to the event;
A controller that extracts a scene based on the event information from an image of the user,
An information processing apparatus comprising:
前記イベント情報に基づいて前記ユーザに向けた通知情報を生成する通知情報生成部をさらに備える、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a notification information generation unit that generates notification information for the user based on the event information. 前記通知情報は、前記ユーザが予め前記イベントに関連付けて登録した情報である、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the notification information is information registered in advance by the user in association with the event. 前記通知情報生成部は、前記センサ情報にさらに基づいて前記通知情報を生成する、請求項2または3に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the notification information generation unit generates the notification information further based on the sensor information. 前記イベント情報に基づいて前記画像に付加情報を設定する付加情報設定部をさらに備える、請求項1〜4のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 4, further comprising an additional information setting unit that sets additional information in the image based on the event information. 前記付加情報設定部は、動画像である前記画像に前記イベントに対応するチャプタ情報を設定する、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the additional information setting unit sets chapter information corresponding to the event in the image that is a moving image. 前記センサ情報取得部は、前記ユーザまたは前記ユーザが使用するスポーツ用具に装着
される外部装置から前記センサ情報を受信する通信部である、請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the sensor information acquisition unit is a communication unit that receives the sensor information from an external device attached to the user or a sports equipment used by the user.
前記イベント情報に基づいて前記ユーザに向けた通知情報を生成する通知情報生成部をさらに備え、
前記通信部は、前記通知情報を前記外部装置に送信する、請求項7に記載の情報処理装置。
A notification information generating unit that generates notification information for the user based on the event information;
The information processing apparatus according to claim 7, wherein the communication unit transmits the notification information to the external apparatus.
前記センサ情報取得部は、複数のユーザの挙動を示す前記センサ情報を取得し、
前記イベント情報生成部は、前記イベントの対応するユーザを特定する情報を含む、請求項1〜8のいずれか一項に記載の情報処理装置。
The sensor information acquisition unit acquires the sensor information indicating the behavior of a plurality of users,
The information processing apparatus according to claim 1, wherein the event information generation unit includes information that specifies a user corresponding to the event.
前記イベントはスポーツに関するプレーイベントであり、前記イベント情報はスポーツに関するプレーイベント情報である、請求項1〜9のいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the event is a play event related to sports, and the event information is play event information related to sports. 前記シーンは、スポーツをプレーするユーザの前記画像から抽出されたプレー画像である、請求項10に記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the scene is a play image extracted from the image of a user who plays sports. ユーザの挙動を示すセンサ情報を取得するセンサ、および
前記センサ情報を送信する通信部
を有するセンサ装置と、
前記センサ装置から前記センサ情報を受信する通信部、
前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成するイベント情報生成部、および
前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する制御部、
を有する情報処理装置と
を含む情報処理システム。
A sensor device that has sensor information indicating user behavior, and a communication unit that transmits the sensor information; and
A communication unit for receiving the sensor information from the sensor device;
An event information generation unit that detects the occurrence of an event based on the sensor information and generates event information corresponding to the event; and a control unit that extracts a scene based on the event information from an image of the user,
An information processing system including:
ユーザの挙動を示すセンサ情報を取得する機能と、
前記センサ情報に基づいてイベントの発生を検出し、該イベントに対応するイベント情報を生成する機能と、
前記ユーザを撮像した画像から前記イベント情報に基づきシーンを抽出する機能と、
をコンピュータに実現させるためのプログラム。
A function to acquire sensor information indicating user behavior;
A function of detecting the occurrence of an event based on the sensor information and generating event information corresponding to the event;
A function of extracting a scene based on the event information from an image of the user,
A program to make a computer realize.
JP2016162657A 2016-08-23 2016-08-23 Information processing device, information processing system, and program Pending JP2017022727A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016162657A JP2017022727A (en) 2016-08-23 2016-08-23 Information processing device, information processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016162657A JP2017022727A (en) 2016-08-23 2016-08-23 Information processing device, information processing system, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012058421A Division JP5994306B2 (en) 2012-03-15 2012-03-15 Information processing apparatus, information processing system, and program

Publications (1)

Publication Number Publication Date
JP2017022727A true JP2017022727A (en) 2017-01-26

Family

ID=57890024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016162657A Pending JP2017022727A (en) 2016-08-23 2016-08-23 Information processing device, information processing system, and program

Country Status (1)

Country Link
JP (1) JP2017022727A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018220948A1 (en) 2017-06-02 2018-12-06 ソニー株式会社 Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154996A (en) * 1995-12-06 1997-06-17 Tokico Ltd Swing analyzer
JP2005110850A (en) * 2003-10-06 2005-04-28 Hitachi Metals Ltd Body movement evaluating method, swing motion evaluating method, and body movement measuring system
JP2010097562A (en) * 2008-10-20 2010-04-30 Hitachi Ltd Work information processor, program and work information processing method
JP2011000367A (en) * 2009-06-22 2011-01-06 Yamaha Corp Music reproduction control device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154996A (en) * 1995-12-06 1997-06-17 Tokico Ltd Swing analyzer
JP2005110850A (en) * 2003-10-06 2005-04-28 Hitachi Metals Ltd Body movement evaluating method, swing motion evaluating method, and body movement measuring system
JP2010097562A (en) * 2008-10-20 2010-04-30 Hitachi Ltd Work information processor, program and work information processing method
JP2011000367A (en) * 2009-06-22 2011-01-06 Yamaha Corp Music reproduction control device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018220948A1 (en) 2017-06-02 2018-12-06 ソニー株式会社 Information processing device, information processing method, and program
KR20200015890A (en) 2017-06-02 2020-02-13 소니 주식회사 Information processing device, information processing method and program
JPWO2018220948A1 (en) * 2017-06-02 2020-05-21 ソニー株式会社 Information processing apparatus, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5994306B2 (en) Information processing apparatus, information processing system, and program
US10607349B2 (en) Multi-sensor event system
KR101954959B1 (en) Feedback signals from image data of athletic performance
JP6720594B2 (en) System, method and apparatus for monitoring sports equipment and its users
US10121065B2 (en) Athletic attribute determinations from image data
US8968100B2 (en) Sports training apparatus and method
US20190134488A1 (en) System for collecting data for golf
EP3060317B1 (en) Information processing device, recording medium, and information processing method
JP6354461B2 (en) Feedback providing method, system, and analysis apparatus
JP2017022727A (en) Information processing device, information processing system, and program
JP2015208622A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829