JP7300668B2 - Play analysis device and play analysis method - Google Patents

Play analysis device and play analysis method Download PDF

Info

Publication number
JP7300668B2
JP7300668B2 JP2019089822A JP2019089822A JP7300668B2 JP 7300668 B2 JP7300668 B2 JP 7300668B2 JP 2019089822 A JP2019089822 A JP 2019089822A JP 2019089822 A JP2019089822 A JP 2019089822A JP 7300668 B2 JP7300668 B2 JP 7300668B2
Authority
JP
Japan
Prior art keywords
play
analysis
situation
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019089822A
Other languages
Japanese (ja)
Other versions
JP2020185061A (en
JP2020185061A5 (en
Inventor
優麻 片山
純子 上田
康治 井村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019089822A priority Critical patent/JP7300668B2/en
Priority to PCT/JP2020/018460 priority patent/WO2020230677A1/en
Publication of JP2020185061A publication Critical patent/JP2020185061A/en
Publication of JP2020185061A5 publication Critical patent/JP2020185061A5/ja
Application granted granted Critical
Publication of JP7300668B2 publication Critical patent/JP7300668B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、スポーツのプレイ分析装置、及び、プレイ分析方法に関する。 The present disclosure relates to a sports play analysis device and a play analysis method.

従来より、バレーボール分析ソフトウェアとして「Data Volley」が知られている。Data Volleyはこのソフトウェアに精通したアナリストによって使用され、当該アナリストが、主観的判断に基づいて、チームの選手の状況を示すデータをData Volleyに入力する。 "Data Volley" is known as volleyball analysis software. Data Volley is used by analysts familiar with the software, who enter data into Data Volley that describes the condition of the team's players based on subjective judgment.

特許文献1には、アナリストの操作性を向上させたスカウティングシステムが開示されている。具体的には、特許文献1には、画像解析を用いて各選手の位置情報を取得し、入力された選手状況と、各選手のそれぞれの位置情報と、所望のシーンの静止画像とを関連付けて記憶装置にデータベースを構築し、各選手の各位置、所望のシーンの静止画像、選手状況を表示することが開示されている。この発明により、スコアラー(アナリスト)のトレーニングが必要であり、各選手の位置情報が視覚による主観的判断により入力されているためにデータ精度が低いというData Volleyのソフトウェアの問題点を解決できる。 Patent Literature 1 discloses a scouting system with improved operability for analysts. Specifically, in Patent Document 1, the position information of each player is acquired using image analysis, and the input player situation, each position information of each player, and a still image of a desired scene are associated. It is disclosed that a database is constructed in a storage device by means of a player, and each player's position, a still image of a desired scene, and the player's situation are displayed. This invention solves the problems of Data Volley's software that the training of scorers (analysts) is required and the data accuracy is low because each player's position information is input by visual and subjective judgment.

また、従来のバレーボール分析ソフトウェアは、サーブに対するレシーブのシーンを撮影した映像を順次取り込み、各選手の技能評価を入力し、各選手のレシーブ回数及びレシーブ成功率等を集計及び表示する。ユーザ(チームの監督等)は、この集計結果を見て、チームの強み及び弱みを分析する。 In addition, conventional volleyball analysis software sequentially captures images of receiving scenes for serves, inputs skill evaluations of each player, and aggregates and displays the number of times each player has received, success rate of receiving, and the like. A user (such as a team manager) analyzes the team's strengths and weaknesses by looking at the aggregated results.

特開2004-351097号公報JP 2004-351097 A

Xina CHENG, Norikazu IKOMA, Masaaki HONDA and Takeshi IKENAGA "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, VOL.E94-A, NO.1 JANUARY 2011Xina CHENG, Norikazu IKOMA, Masaaki HONDA and Takeshi IKENAGA "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, VOL.E94-A, NO.1 JANUARY 2011

上述のような従来の技術では、例えば、セッターのトスの瞬間の画像を順次取り込み、各選手の技能評価を入力することで、各選手の各位置、所望のシーンの静止画像、プレイ状況等を表示できる。しかし、各選手の技能評価等に基づき得られた分析結果(分析情報や分析画像)から、当該分析対象のシーンを直ちに確認することは困難である。 In the above-described conventional technology, for example, by sequentially capturing images at the moment of the setter's toss and inputting the skill evaluation of each player, each position of each player, a still image of a desired scene, the play situation, etc. can be displayed. However, it is difficult to immediately confirm the scene to be analyzed from the analysis results (analysis information and analysis images) obtained based on the skill evaluation of each player.

本開示の目的は、スポーツのプレイ分析結果から、当該分析対象のシーンを直ちに確認できるプレイ分析装置及びプレイ分析方法を提供することにある。 An object of the present disclosure is to provide a play analysis device and a play analysis method that can immediately confirm a scene to be analyzed from sports play analysis results.

本開示の一態様に係るプレイ分析装置は、スポーツのプレイを分析してプレイ分析画像の生成処理を行うプレイ分析装置であって、プレイ映像を用いて選手のプレイを分析してプレイ情報を生成するプレイ分析部と、前記プレイ情報に基づき、前記プレイ分析画像として、前記スポーツにおける共通のアクション種別に関する前記選手のプレイ状況を表わす複数の状況画像を生成して表示装置に表示する分析画像生成部と、少なくとも1つの前記状況画像を選択するユーザの操作にしたがって、前記状況画像に対応するプレイ映像を再生する映像再生部と、を備える。 A play analysis device according to an aspect of the present disclosure is a play analysis device that analyzes a sports play and generates a play analysis image, and analyzes a player's play using a play video to generate play information. and an analysis image generation unit for generating, as the play analysis image, a plurality of situation images representing the play situation of the player regarding common action types in the sport based on the play information and displaying them on a display device. and a video reproduction unit that reproduces a play video corresponding to the situation image in accordance with a user's operation for selecting at least one of the situation images.

本開示の一態様に係るプレイ分析方法は、コンピュータがプログラムを実行することにより、スポーツのプレイを分析してプレイ分析画像の生成処理を行うプレイ分析方法であって、プレイ映像を用いて選手のプレイを分析してプレイ情報を生成し、前記プレイ情報に基づき、前記プレイ分析画像として、前記スポーツにおける共通のアクション種別に関する前記選手のプレイ状況を表わす複数の状況画像を生成して表示装置に表示し、少なくとも1つの前記状況画像を選択するユーザの操作にしたがって、前記状況画像に対応するプレイ映像を再生する。 A play analysis method according to an aspect of the present disclosure is a play analysis method in which a computer executes a program to analyze a sports play and generate a play analysis image. Play analysis is performed to generate play information, and based on the play information, as the play analysis image, a plurality of situation images representing the player's play situation regarding common action types in the sport are generated and displayed on a display device. Then, according to the user's operation for selecting at least one of the situation images, play video corresponding to the situation image is reproduced.

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by systems, devices, methods, integrated circuits, computer programs, or recording media. may be realized by any combination of

本開示によれば、スポーツのプレイ分析結果から、当該分析対象のシーンを直ちに確認できる。 According to the present disclosure, it is possible to immediately confirm the analysis target scene from the sports play analysis result.

実施の形態に係るプレイ分析システムの概要を示す図である。It is a figure which shows the outline|summary of the play analysis system which concerns on embodiment. 実施の形態に係るプレイ分析装置の構成の例を示す図である。It is a figure which shows the example of a structure of the play analysis apparatus which concerns on embodiment. 実施の形態に係るプレイ分析装置が生成するUI(User Interface)の例を示す図である。It is a figure which shows the example of UI (User Interface) which the play analysis apparatus which concerns on embodiment produces|generates. 実施の形態に係るプレイ情報の例を示す図である。It is a figure which shows the example of the play information which concerns on embodiment. 実施の形態に係るトスのプレイ分析画像の一例を示す図である。FIG. 10 is a diagram showing an example of a toss play analysis image according to the embodiment; 実施の形態に係るサーブのプレイ分析画像の一例を示す図である。It is a figure which shows an example of the play analysis image of the serve which concerns on embodiment. 実施の形態に係るサーブの他のプレイ分析画像の一例を示す図である。FIG. 12 is a diagram showing an example of another play analysis image of serve according to the embodiment; 実施の形態に係るトスのプレイ映像の連続再生の一例を示す図である。FIG. 10 is a diagram showing an example of continuous reproduction of play videos of a toss according to the embodiment; 実施の形態に係るサーブのプレイ映像の同時再生の一例を示す図である。FIG. 10 is a diagram showing an example of simultaneous playback of play videos of a serve according to the embodiment; 実施の形態に係るプレイ映像再生処理を示すフローチャートである。7 is a flowchart showing play video reproduction processing according to the embodiment; 実施の形態の変形例に係るプレイ分析装置の分析対象として適用可能なスポーツの一例を示す図である。It is a figure which shows an example of the sport applicable as analysis object of the play analysis apparatus which concerns on the modification of embodiment. 実施の形態の変形例に係るプレイ分析装置の分析対象として適用可能なスポーツの一例を示す図である。It is a figure which shows an example of the sport applicable as analysis object of the play analysis apparatus which concerns on the modification of embodiment. 実施の形態の変形例に係るスキーのプレイ分析画像の一例を示す図である。FIG. 11 is a diagram showing an example of a ski play analysis image according to a modification of the embodiment; 実施の形態の変形例に係るスキーのプレイ映像の同時再生の一例を示す図である。FIG. 11 is a diagram showing an example of simultaneous playback of ski play videos according to a modification of the embodiment; 本開示の実施の形態に係るハードウェア構成の例を示す図である。It is a figure showing an example of hardware constitutions concerning an embodiment of this indication.

以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

(実施の形態)
<プレイ分析システム>
まず、図1を参照しながら、一実施の形態に係るプレイ分析システムの概要について説明する。
(Embodiment)
<Play analysis system>
First, an overview of a play analysis system according to one embodiment will be described with reference to FIG.

プレイ分析システム1は、スポーツを撮影したプレイ映像を分析し、当該分析結果に基づくプレイ映像を再生するシステムである。スポーツは、球技であってもよいし、球技でなくてもよい。球技に用いられる移動体は、典型的にはボールであるが、バドミントンに用いられるシャトル等であってもよい。本実施の形態では、球技の1つであるバレーボールを例に説明する。ただし、プレイ分析システム1は、サッカー、野球、卓球、バスケットボール、テニス、ラグビー、アメリカンフットボール、ラクロス、又はバドミントン等の球技全般や、スキー、スキージャンプ、陸上競技、柔道等の球技以外のスポーツに適用可能である。また、プレイ分析システム1は、アイスホッケーのパック、カーリングのストーン、アーチェリーの矢、陸上競技のやり、ハンマー等、「球」の概念に当てはまらない形状の移動体にも適用可能である。すなわち、プレイ分析システム1は、複数人から構成されるチームや個人がアクションを行うことにより点数又は勝敗が決定されるスポーツであれば、どのようなスポーツにも適用可能である。 The play analysis system 1 is a system that analyzes a play video of a sport and reproduces the play video based on the analysis result. A sport may or may not be a ball game. A moving body used in ball games is typically a ball, but may be a shuttle or the like used in badminton. In this embodiment, volleyball, which is one of the ball games, will be described as an example. However, the play analysis system 1 is applicable to general ball games such as soccer, baseball, table tennis, basketball, tennis, rugby, American football, lacrosse, or badminton, as well as sports other than ball games such as skiing, ski jumping, track and field, and judo. It is possible. The play analysis system 1 can also be applied to moving bodies that do not fit the concept of "sphere", such as ice hockey pucks, curling stones, archery arrows, track and field spears, and hammers. In other words, the play analysis system 1 can be applied to any sport in which scores or wins and losses are determined by actions of a team composed of a plurality of people or individuals.

プレイ分析システム1は、複数のカメラ3(3A、3B、3C、3D)と、表示装置4と、入力装置5と、プレイ分析装置100と、を備える。 The play analysis system 1 includes a plurality of cameras 3 (3A, 3B, 3C, 3D), a display device 4, an input device 5, and a play analysis device 100.

複数のカメラ3は、それぞれ異なる位置に設置される。例えば、図1に示すように、各カメラ3は、高所からコート10を異なる視点(画角)で撮影できる位置に設置される。なお、図1ではカメラ3が4台であるが、本実施の形態はこれに限られず、カメラ3は、2台以上であれば何台でもよい。2台以上のカメラ3を用いることにより、ボールの3次元位置を算出できる。 A plurality of cameras 3 are installed at different positions. For example, as shown in FIG. 1, each camera 3 is installed at a position where the court 10 can be photographed from a different viewpoint (angle of view) from a high place. Although the number of cameras 3 is four in FIG. 1, the present embodiment is not limited to this, and the number of cameras 3 may be any number as long as it is two or more. By using two or more cameras 3, the three-dimensional position of the ball can be calculated.

各カメラ3は、プレイ分析装置100と有線又は無線を介して通信可能に接続されている。各カメラ3は、球技中の状況を撮影し、撮影画像を生成する。そして、各カメラ3は、複数の撮影画像から動画フレーム201(図2参照)を生成する。そして、各カメラ3は、動画フレーム201をプレイ分析装置100へ送信する。動画フレーム201は、複数の撮影画像が、例えば、MP4、H.264、H.265、又は、Motion JPEG等の規格に基づいて圧縮されたものであってよい。 Each camera 3 is communicably connected to the play analysis device 100 via wire or wireless. Each camera 3 captures the situation during the ball game and generates a captured image. Then, each camera 3 generates a moving image frame 201 (see FIG. 2) from a plurality of captured images. Each camera 3 then transmits the video frame 201 to the play analysis device 100 . The moving image frame 201 is composed of a plurality of photographed images, for example, MP4, H.264, etc. 264, H. H.265, or compressed based on a standard such as Motion JPEG.

表示装置4は、プレイ分析装置100と有線又は無線を介して通信可能に接続されており、プレイ分析装置100から出力される画像を表示する。表示装置4は、例えば、液晶ディスプレイ又は有機ELディスプレイ等である。 The display device 4 is communicably connected to the play analysis device 100 via a wire or wirelessly, and displays an image output from the play analysis device 100 . The display device 4 is, for example, a liquid crystal display or an organic EL display.

入力装置5は、プレイ分析装置100と有線又は無線を介して通信可能に接続されており、ユーザからの操作を受け付け、その操作情報をプレイ分析装置100へ送信する。入力装置5は、例えば、キーボード、マウス、マイク及び/又はタッチパネル等である。なお、入力装置5及び表示装置4は一体型の装置であってもよい。 The input device 5 is communicably connected to the play analysis device 100 via a wire or wirelessly, receives an operation from the user, and transmits the operation information to the play analysis device 100 . The input device 5 is, for example, a keyboard, mouse, microphone and/or touch panel. Note that the input device 5 and the display device 4 may be an integrated device.

プレイ分析装置100は、各カメラ3が撮影した動画フレームを用いて、ボールに対してアクションを行った選手を特定する。バレーボールの場合、ボールに対して行われるアクションには、サーブ、レセプション、ディグ、トス、アタック、及びブロック等がある。以下、ボールに対してアクションを行った選手を、「アクター」と表現する場合がある。 The play analysis device 100 uses the moving image frames captured by each camera 3 to identify the player who performed the action on the ball. In volleyball, actions performed on the ball include serves, receptions, digs, tosses, attacks, and blocks. Hereinafter, a player who performs an action on the ball may be referred to as an "actor".

なお、本実施の形態では、図1に示すように、コート10の面の中心点を原点Oとし、コート10の面と平行かつネット11と平行な軸をX軸、コート10の面と平行かつネット11と垂直な軸をY軸、コート10の面と垂直な軸をZ軸とする。X軸は、審判12から離れる方向を正方向、審判12に近づく方向を負方向とする。Y軸は、審判12から見て左方向を正方向、右方向を負方向とする。Z軸は、コート10の面から離れる方向を正方向とする。つまりZ軸の座標は、コート10の面からの高さに相当する。 In the present embodiment, as shown in FIG. 1, the center point of the surface of the court 10 is the origin O, the axis parallel to the surface of the court 10 and parallel to the net 11 is the X axis, and the surface of the court 10 is parallel. The axis perpendicular to the net 11 is the Y-axis, and the axis perpendicular to the surface of the court 10 is the Z-axis. Regarding the X-axis, the direction away from the referee 12 is the positive direction, and the direction closer to the referee 12 is the negative direction. As for the Y-axis, the left direction as viewed from the referee 12 is the positive direction, and the right direction is the negative direction. The positive direction of the Z-axis is the direction away from the surface of the court 10 . That is, the Z-axis coordinate corresponds to the height from the court 10 surface.

<プレイ分析装置>
次に、図2を参照しながら、プレイ分析装置100について説明する。
<Play analysis device>
Next, the play analysis device 100 will be described with reference to FIG.

プレイ分析装置100は、映像受信部101と、プレイ分析部102と、UI制御部103と、分析画像生成部104と、映像再生部105と、記憶部106とを備える。 The play analysis device 100 includes a video reception unit 101 , a play analysis unit 102 , a UI control unit 103 , an analysis image generation unit 104 , a video reproduction unit 105 and a storage unit 106 .

映像受信部101は、各カメラ3A~3Dから送信される動画フレーム201を受信し、記憶部106に格納する。 The video receiving unit 101 receives moving image frames 201 transmitted from each of the cameras 3A to 3D and stores them in the storage unit 106. FIG.

プレイ分析部102は、複数の連続する動画フレーム201で構成されるプレイ映像を用いて選手のプレイを分析し、選手のプレイ状況を表わすプレイ情報202を生成する。そして、プレイ分析部102は、プレイ情報202を記憶部106に格納する。なお、プレイ分析部102の詳細については後述する。 The play analysis unit 102 analyzes a player's play using a play video composed of a plurality of continuous video frames 201, and generates play information 202 representing the player's play situation. The play analysis unit 102 then stores the play information 202 in the storage unit 106 . Details of the play analysis unit 102 will be described later.

UI制御部103は、図3に示すようなUI2000を生成し、表示装置4に表示する。また、UI制御部103は、入力装置5を通じて、UI2000に対する操作を受け付ける。 The UI control unit 103 generates a UI 2000 as shown in FIG. 3 and displays it on the display device 4. FIG. Also, the UI control unit 103 receives an operation on the UI 2000 through the input device 5 .

分析画像生成部104は、分析対象に選択された選手のプレイ状況を表わす状況画像2110を生成する。そして、分析画像生成部104は、状況画像2110を含むプレイ分析画像2100を生成し、UI2000に表示する。なお、プレイ分析画像2100及び分析画像生成部104の詳細については後述する。 The analysis image generation unit 104 generates a situation image 2110 representing the play situation of the player selected for analysis. The analysis image generation unit 104 then generates a play analysis image 2100 including the situation image 2110 and displays it on the UI 2000 . Details of the play analysis image 2100 and the analysis image generator 104 will be described later.

映像再生部105は、プレイ分析画像2100の状況画像2110を選択するユーザの操作にしたがって、当該選択された状況画像2110に対応するプレイ映像2200をUI2000上で再生する。また、映像再生部105は、プレイ映像2200の再生時間を設定するユーザの操作にしたがって、再生時間を調整することができ、設定された再生時間は設定値として保持しておくことができる。映像再生部105は、カメラ3A~3Dが撮影中のリアルタイム映像や、過去のプレイの録画映像を、プレイ映像2200として再生する機能を有していてもよい。なお、映像再生部105の詳細については後述する。 The video reproduction unit 105 reproduces the play video 2200 corresponding to the selected situation image 2110 on the UI 2000 according to the user's operation to select the situation image 2110 of the play analysis image 2100 . In addition, the video playback unit 105 can adjust the playback time according to the user's operation for setting the playback time of the play video 2200, and can hold the set playback time as a set value. The video reproducing unit 105 may have a function of reproducing real-time video being captured by the cameras 3A to 3D and recorded video of past play as the play video 2200. FIG. Details of the video reproduction unit 105 will be described later.

<プレイ分析部の詳細>
次に、プレイ分析部102の詳細について説明する。
<Details of play analysis department>
Next, the details of the play analysis unit 102 will be described.

まず、プレイ分析部102は、記憶部106に格納された複数の動画フレーム201に対して、例えば非特許文献1に開示されている手法を適用し、動画フレーム201が撮影された時刻(以下「フレーム時刻」という)におけるボールの3次元位置(x,y,z)及び速度を算出する。そして、プレイ分析部102は、フレーム時刻とボールの3次元位置と速度とを対応付けてボール軌跡情報203を生成し、記憶部106に格納する。 First, the play analysis unit 102 applies the method disclosed in Non-Patent Document 1, for example, to a plurality of moving image frames 201 stored in the storage unit 106, and determines the time at which the moving image frame 201 was shot (hereinafter referred to as " Calculate the three-dimensional position (x, y, z) and velocity of the ball at the "frame time"). Then, the play analysis unit 102 associates the frame time with the three-dimensional position and speed of the ball to generate the ball trajectory information 203 and stores it in the storage unit 106 .

また、プレイ分析部102は、ボール軌跡情報203から、ボールに対するアクションが発生したか否かを判定する。例えば、プレイ分析部102は、ボール軌跡情報203に含まれるフレーム時刻毎のボールの3次元位置及び速度からボールの軌跡を算出する。そして、プレイ分析部102は、その算出したボールの軌跡変化が所定の条件に合致した場合、ボールに対するアクションが発生したと判定する。プレイ分析部102は、アクションが発生したと判定した場合、アクションが発生したフレーム時刻(以下「アクションフレーム時刻」という)と、その発生したアクションの種別とを対応付けてアクション情報204を生成し、記憶部106に格納する。 Also, the play analysis unit 102 determines from the ball trajectory information 203 whether or not an action has occurred with respect to the ball. For example, the play analysis unit 102 calculates the trajectory of the ball from the three-dimensional position and velocity of the ball for each frame time included in the ball trajectory information 203 . Then, the play analysis unit 102 determines that an action on the ball has occurred when the calculated change in the trajectory of the ball satisfies a predetermined condition. When the play analysis unit 102 determines that an action has occurred, the play analysis unit 102 generates action information 204 by associating the frame time when the action occurred (hereinafter referred to as "action frame time") with the type of the action that occurred, Stored in the storage unit 106 .

なお、プレイ分析部102は、ボールの軌跡変化、ボールの3次元位置及び速度、並びに、スポーツのルール等に基づいて、アクション種別を判定してもよい。バレーボールのアクション種別には、サーブ、レセプション(サーブに対するレシーブ)、ディグ(アタックに対するレシーブ)、トス、アタック、及びブロック等がある。例えば、プレイ分析部102は、解析開始から初めて検出されたボールの軌跡がY軸方向(図1に示すコートの長辺方向)の移動成分を有し、当該Y軸方向のボールの速度成分が所定の範囲内である場合、アクション種別を「サーブ」と判定する。他の例として、プレイ分析部102は、「サーブ」後にボールの軌跡がY軸においてネット11の存在する座標を跨ぎ、かつ、ボールの3次元位置の変化が下降から上昇に転じた場合(すなわち、Z軸方向の座標の変化がプラスに転じた場合)、アクション種別を「レセプション」と判定する。バレーボールのルール上、「サーブ」を受けるアクションは「レセプション」であるので、このようなルールに基づく判定を行うことにより、「レセプション」と「ディグ」を区別できる。 Note that the play analysis unit 102 may determine the action type based on changes in the trajectory of the ball, the three-dimensional position and speed of the ball, sports rules, and the like. Action types in volleyball include serve, reception (receiving on serve), digging (receiving on attack), toss, attack, and block. For example, the play analysis unit 102 determines that the trajectory of the ball detected for the first time from the start of the analysis has a movement component in the Y-axis direction (long side direction of the court shown in FIG. 1), and the velocity component of the ball in the Y-axis direction is If it is within the predetermined range, the action type is determined as "serve". As another example, the play analysis unit 102 determines that the trajectory of the ball straddles the coordinates of the net 11 on the Y-axis after the "serve" and the change in the three-dimensional position of the ball changes from falling to rising (i.e. , when the change in the coordinate in the Z-axis direction turns positive), the action type is determined to be "reception". According to the rules of volleyball, the action of receiving a "serve" is a "reception", so making decisions based on such rules makes it possible to distinguish between a "reception" and a "dig".

同様に、プレイ分析部102は、ボールの軌跡変化や選手の動き等が所定の条件に合致する場合に、スポーツのルールに準じた判定基準によって他のアクション種別を判定する。 Similarly, the play analysis unit 102 determines another action type based on determination criteria according to sports rules when the change in the trajectory of the ball, the movement of the player, and the like match predetermined conditions.

なお、上記では、3次元の情報を用いてアクションの発生を判定しているが、2次元又は1次元の情報を用いてアクションの発生を判定してもよい。例えば、上述した条件で「サーブ」の発生を判定する場合、X軸方向とZ軸方向の情報を用いずに、解析開始の時刻とY軸方向の情報のみから判定可能である。 In the above description, three-dimensional information is used to determine whether an action has occurred. However, two-dimensional or one-dimensional information may be used to determine whether an action has occurred. For example, when judging the occurrence of a "serve" under the above conditions, it is possible to make the judgment only from the analysis start time and the information in the Y-axis direction without using the information in the X-axis direction and the Z-axis direction.

プレイ分析部102は、記憶部106に格納されている複数の動画フレーム201の中から、アクション情報204に含まれるアクションフレーム時刻に対応する動画フレームと、当該アクションフレーム時刻の近傍のフレーム時刻に対応する動画フレームとを、アクションフレームとして選択する。次に、プレイ分析部102は、アクションフレームから選手(人物)が撮影されている領域(以下「選手領域」という)を検出する。例えば、プレイ分析部102は、競技中の複数の選手画像をディープラーニングによって学習させた選手検出用のモデル(ニューラルネットワーク)を用いて、検出領域内から選手領域を検出する。そして、プレイ分析部102は、アクションフレームから、アクターのユニフォーム番号を認識する。例えば、プレイ分析部102は、複数の選手のユニフォームの数字画像をディープラーニングによって学習させたユニフォーム番号検出用のモデル(ニューラルネットワーク)を用いて、検出領域内から、アクターのユニフォーム番号を認識する。次に、プレイ分析部102は、アクションフレーム時刻と、認識したアクターのユニフォーム番号とを対応付けてアクター情報205を生成し、記憶部106に格納する。 The play analysis unit 102 selects, from among the plurality of video frames 201 stored in the storage unit 106, the video frame corresponding to the action frame time included in the action information 204 and the frame time near the action frame time. Select the video frame to be used as the action frame. Next, the play analysis unit 102 detects an area in which the player (person) is captured (hereinafter referred to as "player area") from the action frame. For example, the play analysis unit 102 detects a player area from within the detection area using a player detection model (neural network) obtained by learning a plurality of player images during a game by deep learning. Then, the play analysis unit 102 recognizes the actor's uniform number from the action frame. For example, the play analysis unit 102 recognizes the actor's uniform number from within the detection area using a uniform number detection model (neural network) learned by deep learning from numerical images of uniforms of a plurality of players. Next, the play analysis unit 102 generates actor information 205 by associating the action frame time with the uniform number of the recognized actor, and stores the generated actor information 205 in the storage unit 106 .

そして、プレイ分析部102は、ボール軌跡情報203と、アクション情報204と、アクター情報205とを対応付けて、プレイ情報202を生成し、記憶部106に格納する。例えば、アクション情報204においてアクションフレーム時刻Tとアクション種別「アタック」とが対応付けられており、アクター情報205においてアクションフレーム時刻Tとアクターのユニフォーム番号「14」とが対応付けられている場合、プレイ分析部102は、図4に示すようなプレイ情報202を生成する。すなわち、プレイ分析部102は、図4に示すように、ボール軌跡情報203のフレーム時刻Tに対して、アクション種別「アタック」と、アクターのユニフォーム番号「14」とを対応付けたプレイ情報202を生成する。これにより、ユーザ又は他の装置は、プレイ情報202を用いて、フレーム時刻Tにおいて、ユニフォーム番号「14」の選手(アクター)が、3次元位置(x,y,z)のボールに対して、速度「S(km/h)」の「アタック」を行ったことを知ることができる。 The play analysis unit 102 associates the ball trajectory information 203 , the action information 204 , and the actor information 205 to generate play information 202 and stores it in the storage unit 106 . For example, when the action information 204 associates the action frame time T with the action type "attack", and the actor information 205 associates the action frame time T with the actor's uniform number "14", the play The analysis unit 102 generates play information 202 as shown in FIG. That is, as shown in FIG. 4, the play analysis unit 102 generates play information 202 in which the action type "attack" and the uniform number "14" of the actor are associated with the frame time T of the ball trajectory information 203. Generate. As a result, the user or other device uses the play information 202 to determine whether the player (actor) with the uniform number “14” is at the ball at the three-dimensional position (x T , y T , z T ) at the frame time T. On the other hand, it can be known that the "attack" of the speed " ST (km/h)" has been performed.

<プレイ分析画像>
次に、図5~図7を参照して、プレイ分析画像2100の具体例として、トスのプレイ分析画像2100A及びサーブのプレイ分析画像2100Bについて説明する。
<Play analysis image>
Next, as specific examples of the play analysis images 2100, a toss play analysis image 2100A and a serve play analysis image 2100B will be described with reference to FIGS.

図5に示すように、トスのプレイ分析画像2100Aは、分析対象の選手(典型的にはセッター)のトスのプレイを分析するための画像である。トスのプレイ分析画像2100Aは、対象選手側のコートのフロントゾーンを基準とする。なお、このフロントゾーンは、ユーザの操作によって、任意の領域(例えば、既定のフロントゾーン+1m分の拡張範囲)を設定することができる。図6に示すように、サーブのプレイ分析画像2100Bは、分析対象の選手(典型的にはセッター以外の選手)のサーブのプレイを分析するための画像である。サーブのプレイ分析画像2100Bは、コート全体を基準とする。なお、ユーザは、プレイ分析画像2100のカーソルボタン2120を操作し、コートに対するプレイ分析画像2100の領域を回転(反転、90度回転等)させることができる。 As shown in FIG. 5, the toss play analysis image 2100A is an image for analyzing the toss play of the analysis target player (typically the setter). The toss play analysis image 2100A is based on the front zone of the target player's court. Note that this front zone can be set to an arbitrary area (for example, the extension range of the default front zone + 1 m) by the user's operation. As shown in FIG. 6, the serve play analysis image 2100B is an image for analyzing the serve play of a player to be analyzed (typically, a player other than the setter). The play analysis image 2100B of the serve is based on the entire court. Note that the user can operate the cursor button 2120 of the play analysis image 2100 to rotate (invert, rotate 90 degrees, etc.) the area of the play analysis image 2100 with respect to the court.

<分析画像生成部の詳細>
次に、分析画像生成部104の詳細について説明する。
<Details of analysis image generator>
Next, the details of the analysis image generation unit 104 will be described.

まず、分析画像生成部104は、トスのプレイ分析画像2100Aを生成する場合、記憶部106から、ユニホーム番号が分析対象の選手の番号であり、かつ、アクション種別が「トス」であるプレイ情報202を取得する。次に、分析画像生成部104は、その取得したプレイ情報202のボール座標から、分析対象の選手がトスを行った位置を特定する。そして、分析画像生成部104は、図5に示すように、対象選手がトスを行った位置に、円形の状況画像2110A(2110)を配置したプレイ分析画像2100Aを生成する。 First, when generating the toss play analysis image 2100A, the analysis image generation unit 104 generates the play information 202 whose uniform number is the number of the analysis target player and whose action type is “toss” from the storage unit 106. to get Next, the analysis image generation unit 104 identifies the position where the analysis target player performed the toss from the ball coordinates of the acquired play information 202 . Then, as shown in FIG. 5, the analysis image generation unit 104 generates a play analysis image 2100A in which a circular situation image 2110A (2110) is arranged at the position where the target player performed the toss.

また、分析画像生成部104は、サーブのプレイ分析画像2100Bを生成する場合、記憶部106から、ユニホーム番号が分析対象の選手の番号であり、かつ、アクション種別が「サーブ」であるプレイ情報202を取得する。次に、分析画像生成部104は、その取得したプレイ情報202のボール座標から、分析対象の選手がサーブしたボールの軌跡を特定する。そして、分析画像生成部104は、図6に示すように、対象選手がサーブしたボールの軌跡に、線状の状況画像2110B(2110)を配置したプレイ分析画像2100Bを生成する。 Further, when generating a play analysis image 2100B of a serve, the analysis image generation unit 104 retrieves from the storage unit 106 the play information 202 whose uniform number is the number of the player to be analyzed and whose action type is "serve". to get Next, the analysis image generation unit 104 identifies the trajectory of the ball served by the analysis target player from the ball coordinates of the acquired play information 202 . Then, as shown in FIG. 6, the analysis image generation unit 104 generates a play analysis image 2100B in which a linear situation image 2110B (2110) is arranged on the trajectory of the ball served by the target player.

以上のようなトスやサーブのプレイ分析画像2100から、ユーザは、対象選手のトスやサーブのプレイを視覚的に把握及び分析することができる。なお、トスの状況画像2110Aは、トスを行った位置の他に、トスのプレイ状況を表わすような表示形態であってもよい。トスのプレイ状況には、例えば、トスの種類、トス時のボールの速度、トス時のボールの高さ、及び、トス時のボールの移動距離がある。また、サーブの状況画像2110Bは、ボールの軌跡の他に、サーブのプレイ状況を表わすような表示形態であってもよい。サーブのプレイ状況には、例えば、サーブの種類、サーブのボールの速度や打点の高さがある。トスやサーブのプレイ状況を表わす表示形態には、例えば、形、色、サイズ、複数の形状の組み合わせがある。また、図7に示すように、コート10を横から見た状況で、サーブがネット11の上方を通過する形態のサーブのプレイ分析画像2100B(2100)を生成するようにしてもよい。 From the play analysis image 2100 of the toss and serve described above, the user can visually grasp and analyze the play of the target player's toss and serve. It should be noted that the toss situation image 2110A may be displayed in a form that represents the play situation of the toss, in addition to the position where the toss was made. Toss play conditions include, for example, the type of toss, the speed of the ball during the toss, the height of the ball during the toss, and the movement distance of the ball during the toss. Further, the serve situation image 2110B may have a display form that represents the play situation of the serve other than the trajectory of the ball. The play status of the serve includes, for example, the type of serve, the speed of the ball of the serve, and the height of the hitting point. Examples of display forms that represent the play status of a toss or serve include shape, color, size, and a combination of multiple shapes. Further, as shown in FIG. 7, a play analysis image 2100B (2100) of a serve in which the serve passes over the net 11 when the court 10 is viewed from the side may be generated.

なお、トスやサーブのプレイ分析画像2100は、ユーザが次の操作を行うことによって表示されてよい。
(ステップS11)ユーザがUI2000上のトス分析ボタン(図示せず)又はサーブ分析ボタン(図示せず)を押下すると、UI制御部103は、選手のリストを表示する。
(ステップS12)ユーザが、その表示された選手のリストから、トス又はサーブ分析対象の選手を選択する。
(ステップS13)分析画像生成部104は、その選択された対象選手に関する複数のプレイ情報202を、記憶部106から取得する。トスのプレイ分析画像2100Aを表示する場合、分析画像生成部104は、その取得したプレイ情報202から、アクション種別がトスのプレイ情報202を抽出する。そして、分析画像生成部104は、その抽出したプレイ情報202のボール座標をトスが行われた位置として特定し、トスのプレイ分析画像2100Aを生成する。一方、サーブのプレイ分析画像2100Bを表示する場合、分析画像生成部104は、その取得したプレイ情報202から、アクション種別がサーブのプレイ情報202を抽出する。そして、分析画像生成部104は、その抽出したプレイ情報202のボール座標をサーブ時のボールの軌跡として特定し、サーブのプレイ分析画像2100Bを生成する。
(ステップS14)分析画像生成部104は、UI2000上に、その生成したトスのプレイ分析画像2100A又はサーブのプレイ分析画像2100Bを表示する。
Note that the play analysis image 2100 for toss and serve may be displayed by the user performing the following operation.
(Step S11) When the user presses a toss analysis button (not shown) or a serve analysis button (not shown) on the UI 2000, the UI control unit 103 displays a list of players.
(Step S12) The user selects a player for toss or serve analysis from the displayed list of players.
(Step S<b>13 ) The analysis image generation unit 104 acquires a plurality of pieces of play information 202 regarding the selected target player from the storage unit 106 . When displaying the toss play analysis image 2100</b>A, the analysis image generation unit 104 extracts the play information 202 whose action type is toss from the acquired play information 202 . Then, analysis image generating section 104 identifies the ball coordinates of the extracted play information 202 as the position where the toss was performed, and generates play analysis image 2100A of the toss. On the other hand, when displaying the serve play analysis image 2100B, the analysis image generation unit 104 extracts the play information 202 whose action type is serve from the acquired play information 202 . Then, the analysis image generating unit 104 identifies the ball coordinates of the extracted play information 202 as the trajectory of the ball during the serve, and generates a serve play analysis image 2100B.
(Step S<b>14 ) The analysis image generation unit 104 displays the generated play analysis image 2100</b>A for the toss or the play analysis image 2100</b>B for the serve on the UI 2000 .

<映像再生部の詳細>
次に、映像再生部105の詳細について説明する。
<Details of the video playback part>
Next, details of the video playback unit 105 will be described.

まず、プレイ分析画像2100がUI2000上に表示されている状態において、ユーザがUI2000に対する所定の操作を行うと、映像再生部105は、例えば、UI2000上に再生時間設定ボタン(図示せず)を表示する。そして、ユーザが再生時間設定ボタンを押下すると、映像再生部105は、設定可能な再生時間のリスト(図示せず)を表示する。リストに表示する再生時間には、例えば、対象選手がボールに接触した瞬間、ボールに接触する前の所定時間、ボールに接触した後の所定時間、ボールに接触する前後を含む所定時間、及び、分析対象のアクションを含むラリー全体がある。なお、ユーザが再生時間を秒単位で設定できるようにしてもよい。また、ユーザが再生時間を設定せずに、例えば、選択アクションから次アクションまでの自動的な再生時間をデフォルトとして保持することや、ユーザの好みの再生時間をアクション毎にデフォルトとして保持することで、ユーザ操作を不要とすることができる。 First, when the user performs a predetermined operation on the UI 2000 while the play analysis image 2100 is displayed on the UI 2000, the video playback unit 105 displays, for example, a playback time setting button (not shown) on the UI 2000. do. Then, when the user presses the playback time setting button, the video playback unit 105 displays a list (not shown) of settable playback times. The playback time displayed in the list includes, for example, the moment the target player touches the ball, a predetermined time before contact with the ball, a predetermined time after contact with the ball, a predetermined time including before and after contact with the ball, and There is an entire rally with actions to be analyzed. Note that the user may be allowed to set the playback time in units of seconds. Also, without setting the playback time by the user, for example, the automatic playback time from the selected action to the next action can be held as a default, or the user's favorite playback time can be held as a default for each action. , may require no user operation.

ユーザが再生時間を設定した後、所定の状況画像2110に対する操作を行うと、映像再生部105は、この操作に対応したプレイ映像2200を、ユーザが設定した再生時間だけ再生する。また、ユーザが再生時間を設定しない場合には、映像再生部105は、直前に実施した再生と同じ再生時間でプレイ映像2200を再生する。なお、映像再生部105にユーザが再生時間を設定できる機能を設けずに、プレイ映像2200を常に同じ時間だけ再生するようにしてもよい。 After the user sets the playback time, when the user performs an operation on the predetermined situation image 2110, the video playback unit 105 plays back the play video 2200 corresponding to this operation for the playback time set by the user. Also, when the user does not set the playback time, the video playback unit 105 plays back the play video 2200 with the same playback time as the previous playback. Note that the play video 2200 may always be played back for the same length of time without providing the video playback unit 105 with a function that allows the user to set the playback time.

例えば、映像再生部105は、図5に示すように、トスのプレイ分析画像2100Aが表示されている状態において、ユーザUが1個の状況画像2110Aを選択する単数選択操作P1を行うと、状況画像2110Aの生成に用いたプレイ情報202を特定する。単数選択操作P1には、ユーザUの指やスタイラスによるタップ操作や所定時間の接触操作、あるいは、マウスを用いたクリック操作がある。なお、単数選択操作P1が行われたときに、選択された状況画像2110Aの表示形態を変更して、所定の状況画像2110Aが選択されたか否かをユーザが容易に確認できるようにしてもよい。変更する表示形態としては、色、サイズ、線種、これらの組み合わせがある。 For example, as shown in FIG. 5, when the user U performs a single selection operation P1 to select one situation image 2110A in a state where the toss play analysis image 2100A is displayed, the video playback unit 105 The play information 202 used to generate the image 2110A is specified. The single selection operation P1 includes a tap operation with a finger or a stylus of the user U, a contact operation for a predetermined time, or a click operation using a mouse. Note that when the single selection operation P1 is performed, the display form of the selected situation image 2110A may be changed so that the user can easily confirm whether or not the predetermined situation image 2110A has been selected. . The display form to be changed includes color, size, line type, and combinations thereof.

次に、映像再生部105は、その特定したプレイ情報202に基づいて、トスが行われたフレーム時刻を認識する。そして、映像再生部105は、その認識したフレーム時刻に基づいて、プレイ映像2200を再生する。 Next, based on the specified play information 202, the video playback unit 105 recognizes the frame time at which the toss was performed. Then, the video reproducing unit 105 reproduces the play video 2200 based on the recognized frame time.

また、映像再生部105は、図5に示すように、ユーザUが複数の状況画像2110Aを選択する第1の複数選択操作P2を行うと、単数選択操作P1時と同様に、各状況画像2110Aに対応するトスが行われたフレーム時刻を認識する。第1の複数選択操作P2には、ユーザUの指やスタイラスやカーソルによって、各状況画像2110Aの少なくとも一部を囲むエリア選択操作がある。なお、第1の複数選択操作P2が行われたときに、選択エリアを示すループ状の選択エリアマークMC1を表示させたり、選択された状況画像2110Aの表示形態を変更したりすることで、所定の状況画像2110Aが選択されたか否かをユーザが容易に確認できるようにしてもよい。変更する表示形態としては、色、サイズ、線種、これらの組み合わせがある。 Further, as shown in FIG. 5, when the user U performs the first multiple selection operation P2 of selecting a plurality of situation images 2110A, the video reproduction unit 105 reproduces each situation image 2110A similarly to the single selection operation P1. Recognize the frame time at which the toss corresponding to The first multiple selection operation P2 includes an area selection operation of surrounding at least part of each situation image 2110A with the user U's finger, stylus, or cursor. Note that when the first multiple selection operation P2 is performed, by displaying a loop-shaped selection area mark MC1 indicating the selection area or by changing the display form of the selected situation image 2110A, a predetermined The user may be able to easily check whether or not the situation image 2110A of is selected. The display form to be changed includes color, size, line type, and combinations thereof.

そして、映像再生部105は、その認識したフレーム時刻に基づいて、各状況画像2110Aに対応するプレイ映像2200を1つずつ連続再生する。例えば、映像再生部105は、図8に示すように、2個の状況画像2110Aに対応するプレイ映像2200を1つずつ連続して再生する。 Then, based on the recognized frame time, the video reproducing unit 105 continuously reproduces the play video 2200 corresponding to each situation image 2110A one by one. For example, as shown in FIG. 8, the video playback unit 105 successively plays play videos 2200 corresponding to two situation images 2110A one by one.

また、映像再生部105は、図6に示すように、サーブのプレイ分析画像2100Bが表示されている状態において、ユーザUが1個の状況画像2110Bを選択する単数選択操作P1を行うと、トスのプレイ映像2200を再生する場合と同様に、その状況画像2110Bに対応するサーブのプレイ映像2200を再生する。 Further, as shown in FIG. 6, when the user U performs a single selection operation P1 of selecting one situation image 2110B in a state where the play analysis image 2100B of the serve is displayed, the video reproduction unit 105 performs a toss. The play video 2200 of the serve corresponding to the situation image 2110B is reproduced in the same manner as in the case of reproducing the play video 2200 of .

また、映像再生部105は、ユーザUが複数の状況画像2110Bを選択する第2の複数選択操作P3を行うと、各状況画像2110Bに対応するサーブが行われたフレーム時刻を認識する。第2の複数選択操作P3には、複数の状況画像2110Bに対して所定間隔で行うタップ操作やクリック操作がある。タップ操作には、ユーザUの指やスタイラスを用いることができ、クリック操作には、マウスを用いることができる。なお、第2の複数選択操作P3が行われたときに、選択された状況画像2110Bの表示形態を変更したりすることで、所定の状況画像2110Bが選択されたか否かをユーザが容易に確認できるようにしてもよい。変更する表示形態としては、色、サイズ、線種、これらの組み合わせがある。図6では、線を太くする構成を例示する。 Also, when the user U performs the second multiple selection operation P3 of selecting a plurality of situation images 2110B, the video playback unit 105 recognizes the frame time at which the serve corresponding to each situation image 2110B is performed. The second multiple selection operation P3 includes a tap operation and a click operation performed on a plurality of situation images 2110B at predetermined intervals. A finger or a stylus of the user U can be used for the tap operation, and a mouse can be used for the click operation. By changing the display form of the selected situation image 2110B when the second multiple selection operation P3 is performed, the user can easily confirm whether or not the predetermined situation image 2110B has been selected. You may make it possible. The display form to be changed includes color, size, line type, and combinations thereof. FIG. 6 illustrates a configuration for thickening lines.

そして、映像再生部105は、その認識したフレーム時刻に基づいて、各状況画像2110Bに対応するプレイ映像2200を並べて同時再生する。例えば、映像再生部105は、図9に示すように、2個の状況画像2110Bに対応するプレイ映像2200を左右に並べて同時に再生する。この同時再生においては、2個の再生対象映像でアクションが起こった瞬間を基準として、同時再生させる。このように、アクションが起こった瞬間を基準として、2個の再生対象映像を同時再生する場合、例えば、選択アクションの瞬間の2秒前から次アクションの1秒後までを再生時間に設定すると、再生対象映像の再生終了タイミングが異なる場合がある。
また、2個の再生対象映像の再生時間が異なる場合などに、比較対象の片方の動画をスロー再生、またはクイック再生させて開始から終了までのタイミングを揃えてもよい。これにより、より明確に選手の姿勢の差分を比較することができる。スロー再生、クイック再生の速度比率はアクション速度の差を明確にするために画面上に明示してもよい。このような再生形態をとることで、例えば、バレーボールでトスからアタックまでを比較する際に、アタックの瞬間の姿勢はよいが、そこまで至る時間が長くかかっているためブロックにつかまっているといったプレイ状況を把握することが可能となる。
Then, based on the recognized frame time, the video reproducing unit 105 arranges and simultaneously reproduces the play video 2200 corresponding to each situation image 2110B. For example, as shown in FIG. 9, the video reproduction unit 105 arranges the play videos 2200 corresponding to the two situation images 2110B horizontally and reproduces them simultaneously. In this simultaneous reproduction, the two images to be reproduced are reproduced simultaneously with reference to the moment when an action occurs in the two images to be reproduced. In this way, when two playback target videos are played back simultaneously with reference to the moment when an action occurs, for example, if the playback time is set from 2 seconds before the moment of the selected action to 1 second after the next action, The reproduction end timing of the reproduction target video may be different.
Also, when the playback times of two videos to be played are different, one of the videos to be compared may be played back slowly or quickly to match the timing from the start to the end. This makes it possible to more clearly compare differences in player postures. The speed ratio between slow playback and quick playback may be clearly displayed on the screen to clarify the difference in action speed. By adopting such a playback form, for example, when comparing from toss to attack in volleyball, the posture at the moment of the attack is good, but it takes a long time to reach that point, so the play is held on to the block. It is possible to grasp the situation.

なお、トス及びサーブに関する単数選択操作P1は、1個の状況画像2110の少なくとも一部を囲むエリア選択操作であってもよい。トス及びサーブに関する単数選択操作P1は、同じであってもよいし、違っていてもよい。第1の複数選択操作P2及び第2の複数選択操作P3のうち少なくとも一方は、状況画像2110をそれぞれ1個ずつ所定間隔で囲む操作であってもよい。トスの状況画像2110Aに対する第2の複数選択操作P2が行われたときに、プレイ映像2200を並べて同時再生してもよいし、連続再生してもよい。サーブの状況画像2110Bに対する第1の複数選択操作P3が行われたときに、プレイ映像2200を連続再生してもよい。プレイ映像2200の同時再生は、プレイ映像2200を上下に並べてもよいし、例えば2つのプレイ映像2200のうち一方を半透明にして、他方の映像に重ねて同時に再生してもよい。 Note that the single selection operation P1 for toss and serve may be an area selection operation surrounding at least part of one situation image 2110 . The single-choice operation P1 for toss and serve may be the same or different. At least one of the first multiple selection operation P2 and the second multiple selection operation P3 may be an operation of enclosing one situation image 2110 at a predetermined interval. When the second multiple selection operation P2 is performed on the toss situation image 2110A, the play videos 2200 may be displayed side by side and reproduced simultaneously, or may be reproduced continuously. The play video 2200 may be continuously reproduced when the first multiple selection operation P3 is performed on the serving situation image 2110B. The play videos 2200 may be played back simultaneously by arranging the play videos 2200 vertically, or by making one of the two play videos 2200 translucent and superimposing it on the other video and playing it back simultaneously.

<処理フロー>
次に、図10に示すフローチャートを参照しながら、プレイ分析装置100におけるプレイ映像再生処理フローについて説明する。
<Processing flow>
Next, the play video reproduction processing flow in the play analysis device 100 will be described with reference to the flowchart shown in FIG.

まず、プレイ分析部102は、記憶部106に格納された動画フレーム201を用いて、プレイ情報202を生成し、記憶部106に格納する(S1)。 First, the play analysis unit 102 generates play information 202 using the moving image frames 201 stored in the storage unit 106, and stores the play information 202 in the storage unit 106 (S1).

分析画像生成部104は、ユーザの操作にしたがって、分析対象の選手及びアクション種別を認識する(S2)。そして、分析画像生成部104は、分析対象の選手及びアクション種別に対応するプレイ分析画像2100を生成して、UI2000に表示する(S3)。 The analysis image generation unit 104 recognizes the player to be analyzed and the type of action according to the user's operation (S2). Then, the analysis image generation unit 104 generates a play analysis image 2100 corresponding to the analysis target player and action type, and displays it on the UI 2000 (S3).

映像再生部105は、ユーザの操作にしたがって、プレイ映像2200の再生時間を設定する(S4)なお、この再生時間の設定は、省略することができる。その場合、予め設定されたデフォルトの再生時間が読み出されて自動的に設定される。このデフォルトの再生時間は、ユーザの操作にしたがって、設定変更することができる。次に、映像再生部105は、ユーザの状況画像2110の選択操作を認識する(S5)。次に、映像再生部105は、S5において認識した選択操作に基づいて、再生対象のプレイ映像2200と、再生形態(複数のプレイ映像2200を再生する場合には、連続再生又は同時再生)とを特定する(S6)。そして、映像再生部105は、プレイ映像2200を、S6において特定した再生形態、かつ、S4において設定した再生時間で再生する(S7)。そして、フローは、処理を終了する(END)。 The video playback unit 105 sets the playback time of the play video 2200 according to the user's operation (S4).The setting of the playback time can be omitted. In that case, a preset default playback time is read out and automatically set. This default playback time can be changed according to the user's operation. Next, the video playback unit 105 recognizes the selection operation of the situation image 2110 by the user (S5). Next, the video playback unit 105 selects the play video 2200 to be played and the playback mode (continuous playback or simultaneous playback when playing multiple play videos 2200) based on the selection operation recognized in S5. Specify (S6). Then, the video reproduction unit 105 reproduces the play video 2200 in the reproduction mode specified in S6 and in the reproduction time set in S4 (S7). Then, the flow ends (END).

<実施形態のまとめ>
本実施の形態では、プレイ分析装置100は、カメラ3A~3Dから動画フレーム201を受信し、複数の動画フレーム201で構成されるプレイ映像2200を用いて選手のプレイを分析し、プレイ情報202を生成する。次に、プレイ分析装置100は、プレイ情報202に基づき、プレイ状況を表わす状況画像2110を生成して表示装置4に表示する。そして、プレイ分析装置100は、状況画像2110を選択するユーザUの操作にしたがって、状況画像2110に対応するプレイ映像2200を再生する。例えば、プレイ分析装置100は、ユーザUが1個の状況画像2110Aを選択する単数選択操作P1を行うと、当該状況画像2110Aに対応するプレイ映像2200を再生する。
<Summary of embodiment>
In this embodiment, play analysis device 100 receives video frames 201 from cameras 3A to 3D, analyzes a player's play using play video 2200 composed of a plurality of video frames 201, and obtains play information 202. Generate. Next, play analysis device 100 generates situation image 2110 representing the play situation based on play information 202 and displays it on display device 4 . Then, the play analysis device 100 reproduces the play video 2200 corresponding to the situation image 2110 according to the operation of the user U who selects the situation image 2110 . For example, when the user U performs a single selection operation P1 for selecting one situation image 2110A, the play analysis device 100 reproduces the play video 2200 corresponding to the situation image 2110A.

これにより、ユーザUは、スポーツのプレイ分析結果を示す状況画像2110の選択操作の後、当該分析対象のプレイ映像2200を直ちに確認できる。 As a result, the user U can immediately check the play video 2200 to be analyzed after performing the selection operation of the situation image 2110 indicating the sports play analysis result.

また、本実施の形態では、プレイ分析装置100は、プレイ映像2200の再生時間を設定するユーザの操作にしたがって、プレイ映像2200の再生時間を調整する。 Further, in the present embodiment, play analysis device 100 adjusts the playback time of play video 2200 according to the user's operation for setting the playback time of play video 2200 .

これにより、ユーザUは、自身が確認したいプレイシーンを選択的に確認できる。 Thereby, the user U can selectively check the play scene that he/she wants to check.

また、本実施の形態では、プレイ分析装置100は、複数の状況画像2110を含むエリア選択を行うユーザUの第1の複数選択操作P2にしたがって、複数の状況画像2110のそれぞれに対応するプレイ映像2200を連続再生する。 Further, in the present embodiment, play analysis device 100 selects an area including a plurality of situation images 2110 according to first multiple selection operation P2 by user U who selects an area including a plurality of situation images 2110. 2200 is played continuously.

これにより、ユーザUは、第1の複数選択操作P2を行うだけの簡単な操作で、複数のプレイ映像2200を連続的に確認できる。また、第1の複数選択操作P2として、複数の状況画像2110を囲む操作を適用すれば、ユーザUは、1回の簡単な操作を行うだけで、複数のプレイ映像2200を確認できる。 Thereby, the user U can continuously confirm the plurality of play videos 2200 by a simple operation of performing the first multiple selection operation P2. Further, if an operation surrounding a plurality of situation images 2110 is applied as the first multiple selection operation P2, the user U can confirm a plurality of play videos 2200 by performing one simple operation.

また、本実施の形態では、プレイ分析装置100は、複数の状況画像2110を個々に選択するユーザの第2の複数選択操作P3にしたがって、複数の状況画像2110のそれぞれに対応するプレイ映像2200を同時再生する。 Further, in the present embodiment, play analysis device 100 generates play video 2200 corresponding to each of a plurality of situation images 2110 according to second multiple selection operation P3 by the user for individually selecting a plurality of situation images 2110. Simultaneous playback.

これにより、ユーザUは、第2の複数選択操作P3を行うだけの簡単な操作で、複数のプレイ映像2200を同時に確認できる。また、ユーザUは、複数のプレイ映像2200のプレイにおける違いを比較でき、プレイの良かった点や悪かった点を容易に把握できる。また、サーブに関する線状の状況画像2110Bのように、最大長さが所定値以上の状況画像2110を表示する場合においては、第2の複数選択操作P3としてタップ操作を適用すれば、状況画像2110を囲む操作と比べて、操作範囲を小さくすることができる。 As a result, the user U can simultaneously check a plurality of play videos 2200 with a simple operation of performing the second multiple selection operation P3. In addition, the user U can compare the differences in the plays of the plurality of play videos 2200, and can easily grasp the good points and bad points of the plays. Further, when displaying a situation image 2110 having a maximum length equal to or greater than a predetermined value, such as the linear situation image 2110B related to the serve, if a tap operation is applied as the second multiple selection operation P3, the situation image 2110 can be displayed. The operation range can be reduced compared to the operation surrounding the .

(実施の形態の変形例)
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、以上に例示した具体例を様々に変形、変更してもよい。
(Modification of Embodiment)
Although specific examples of the present disclosure have been described in detail above, these are only examples, and the specific examples illustrated above may be variously modified and changed.

例えば、分析対象のスポーツとして、技の内容を状況画像として表示できるものには、図11に示すものが例示できる。図11に示す技は、上記実施の形態の図5に示すように、円形や多角形等の状況画像の表示形態によって、技の種別や技をかけたときの状況等を表わすことができる。また、分析対象のスポーツとして、グラフ形式の状況画像を用いることができるものには、図12に示すものが例示できる。図12に示す技は、上記実施の形態の図6に示すように、例えば、線の表示形態によって、移動体や選手の移動軌跡、あるいは、水流や風向き等のプレイ環境等を表わすことができる。なお、図11や図12に示す内容の状況画像を分析画像生成部104が生成するために、プレイ分析部102は、各種スポーツの内容に応じたプレイ情報202を生成すればよい。 For example, as a sport to be analyzed, the one shown in FIG. 11 can be exemplified as a sport that can display the content of a technique as a situation image. As shown in FIG. 5 of the above-described embodiment, the technique shown in FIG. 11 can represent the type of technique, the situation when the technique is performed, etc. by the display form of the situation image such as circular or polygonal. Also, as sports to be analyzed, the one shown in FIG. 12 can be exemplified as a situation image in a graph format. As shown in FIG. 6 of the above-described embodiment, the technique shown in FIG. 12 can represent, for example, the movement trajectory of a moving object or a player, or the play environment such as water flow or wind direction, by means of a line display form. . Note that the play analysis unit 102 may generate the play information 202 corresponding to the contents of various sports so that the analysis image generation unit 104 generates the situation images having the contents shown in FIGS. 11 and 12 .

また、図12に示すようなスポーツにおいて、状況画像として、選手の移動軌跡をグラフ形式で表わしたものを用いる場合、映像再生部105は、移動軌跡の一部を選択するユーザの操作にしたがって、当該選択された移動軌跡の一部に対応するプレイ映像2200を再生してもよい。 Also, in a sport as shown in FIG. 12, when using a situation image in which the trajectory of movement of a player is expressed in a graph format, the video playback unit 105 selects a part of the trajectory of movement according to the user's operation. A play video 2200 corresponding to a portion of the selected movement trajectory may be reproduced.

具体的には、まず、分析画像生成部104は、プレイ情報202に基づいて、図13に示すように、スキーの回転種目における選手の滑走状況を示す線状の状況画像2110C,2110D(2110)と、フラッグマークMFとを配置したプレイ分析画像2100C(2100)をUI2000上に表示する。この状態で、ユーザUが状況画像2110C,2110Dの一部を選択する第1の一部選択操作P4を行うと、映像再生部105は、当該選択された一部に対応する滑走区間RS1のフレーム時刻を認識する。第1の一部選択操作P4には、ユーザUの指やスタイラスやカーソルによって、状況画像2110C,2110Dの一部を囲むエリア選択操作がある。なお、第1の一部選択操作P4が行われたときに、選択エリアを示すループ状の選択エリアマークMC1を表示させたり、状況画像2110C,2110D上の選択部分の表示形態を変更したりすることで、選択範囲をユーザが容易に確認できるようにしてもよい。変更する表示形態としては、色、サイズ、線種、これらの組み合わせがある。そして、映像再生部105は、図14に示すように、第1の一部選択操作P4で選択された滑走区間RS1のプレイ映像2200を並べて同時再生する。 Specifically, first, based on the play information 202, the analysis image generating unit 104 generates linear situation images 2110C and 2110D (2110) showing the skiing situation of the player in the ski rotation event, as shown in FIG. , and a flag mark MF are displayed on the UI 2000 . In this state, when the user U performs a first partial selection operation P4 for selecting a part of the situation images 2110C and 2110D, the video playback unit 105 reproduces the frame of the skiing section RS1 corresponding to the selected part. Recognize time. The first partial selection operation P4 includes an area selection operation of enclosing a portion of the situation images 2110C and 2110D with the user U's finger, stylus, or cursor. Note that when the first partial selection operation P4 is performed, a loop-shaped selection area mark MC1 indicating the selection area is displayed, or the display form of the selection portion on the situation images 2110C and 2110D is changed. By doing so, the user may be able to easily check the selection range. The display form to be changed includes color, size, line type, and combinations thereof. Then, as shown in FIG. 14, the video reproducing unit 105 arranges and simultaneously reproduces the play videos 2200 of the skiing section RS1 selected by the first partial selection operation P4.

また、映像再生部105は、図13に示すプレイ分析画像2100C,2100Dが表示されている状態において、第1の一部選択操作P4とは異なる第2の一部選択操作P5を認識する。第2の一部選択操作P5には、状況画像2110C,2110Dの一部をなぞるなぞり操作がある。なお、第2の一部選択操作P5が行われたときに、なぞられた軌跡を示すなぞりマークMC2を表示させたり、状況画像2110C,2110D上の選択部分の表示形態を変更したりすることで、選択範囲をユーザが容易に確認できるようにしてもよい。そして、映像再生部105は、なぞられた滑走区間のプレイ映像2200を連続再生する。 Further, the video reproducing unit 105 recognizes a second partial selection operation P5 different from the first partial selection operation P4 in a state where the play analysis images 2100C and 2100D shown in FIG. 13 are displayed. The second partial selection operation P5 includes a tracing operation of tracing a part of the situation images 2110C and 2110D. Note that, when the second partial selection operation P5 is performed, by displaying a tracing mark MC2 indicating the traced trajectory or by changing the display form of the selected portion on the situation images 2110C and 2110D, , the selection range may be easily confirmed by the user. Then, the video reproducing unit 105 continuously reproduces the play video 2200 of the traced running section.

なお、プレイ分析画像2100C,2100Dが表示されている状態において、第1の一部選択操作P4を認識した場合に、プレイ映像2200を連続再生してもよいし、第2の一部選択操作P5を認識した場合に、プレイ映像2200を同時再生してもよい。 In the state where the play analysis images 2100C and 2100D are displayed, when the first partial selection operation P4 is recognized, the play video 2200 may be continuously reproduced, or the second partial selection operation P5 may be performed. is recognized, the play video 2200 may be played back simultaneously.

以上のように、第1の一部選択操作P4や第2の一部選択操作P5に基づき特定された選手の移動区間のみを、プレイ映像2200の再生対象にすることにより、ユーザUは、自身が確認したいプレイシーンを選択的に確認できる。 As described above, by making play video 2200 to be reproduced only in the movement section of the player specified based on the first partial selection operation P4 and the second partial selection operation P5, the user U can You can selectively check the play scene you want to check.

上記実施の形態や変形例において、まとめて選択できる状況画像2110は、同じスポーツの複数の異なるプレイ映像2200における共通のアクション種別の分析結果であってよい。例えば、分析対象のスポーツがバレーボールの場合、まとめて選択できる状況画像2110は、上述のとおり、複数の異なるプレイ映像2200における共通のアクション種別「トス」の分析結果であってよい。アクション種別「サーブ」、「レセプション」、「アタック」及び「ブロック」についても同様である。また、例えば、分析対象のスポーツが「スキーの回転種目」の場合、まとめて選択できる状況画像2110は、上述のとおり、複数の異なるプレイ映像2200における共通のアクション種別「ターン」の分析結果であってよい。また、例えば、分析対象のスポーツがフィギュアスケートの場合、まとめて選択できる状況画像2110は、複数の異なるプレイ映像2200における共通のアクション種別「ルッツ」の分析結果であってよい。これにより、ユーザは、共通のアクション種別の複数の異なるプレイ映像2200を、容易に比較再生できる。 In the above embodiments and modifications, the situation images 2110 that can be collectively selected may be analysis results of common action types in a plurality of different play videos 2200 of the same sport. For example, if the sport to be analyzed is volleyball, the situation images 2110 that can be collectively selected may be analysis results of the common action type "toss" in a plurality of different play videos 2200, as described above. The same applies to the action types "serve", "reception", "attack" and "block". Further, for example, when the sport to be analyzed is the “ski spin event”, the situation images 2110 that can be collectively selected are the analysis results of the common action type “turn” in the plurality of different play videos 2200, as described above. you can Further, for example, when the sport to be analyzed is figure skating, the situation images 2110 that can be collectively selected may be analysis results of the common action type “Lutz” in a plurality of different play videos 2200 . Thereby, the user can easily compare and reproduce a plurality of different play videos 2200 of a common action type.

なお、上記実施の形態や変形例において、1つのプレイ分析画像2100に基づき再生される複数のプレイ映像2200は、違う選手のプレイであってもよいし、同じ選手あるいは違う選手の異なる試合でのプレイであってもよいし、異なるアクション種別のプレイであってもよい。
また、例えば、分析対象のスポーツがバレーボールの場合、サーブやアタックなどの種別でプレイ映像2200を再生する場合に、ボールの移動軌跡を表わす動線画像を重畳することができる。このように、実際の映像に動線画像(単色の実線、点線、ハイライト線、影付き動線など)を重ね合わせることで、再生映像に対して演出効果が得られ、映像を視聴するユーザは、サーブやアタックなどのプレイ全体の状況を瞬時に把握することができる。
In the above embodiments and modifications, the plurality of play videos 2200 reproduced based on one play analysis image 2100 may be the plays of different players, or the same player or different players in different games. It may be a play, or it may be a play of a different action type.
Further, for example, when the sport to be analyzed is volleyball, when the play video 2200 is played back for types such as serve and attack, it is possible to superimpose a flow line image representing the movement trajectory of the ball. In this way, by superimposing flow line images (single-color solid lines, dotted lines, highlight lines, shadowed flow lines, etc.) on the actual video, it is possible to obtain a dramatic effect on the reproduced video, and the user can see the video. can instantly grasp the situation of the whole play such as serve and attack.

以上、本開示に係る実施形態について図面を参照して詳述してきたが、上述したプレイ分析装置100の機能は、コンピュータプログラムにより実現され得る。 As described above, the embodiments according to the present disclosure have been described in detail with reference to the drawings, and the functions of the play analysis device 100 described above can be realized by a computer program.

図15は、各装置の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ3100は、キーボード又はマウス、タッチパッドなどの入力装置3101、ディスプレイ又はスピーカーなどの出力装置3102、CPU(Central Processing Unit)3103、GPU(Graphics Processing Unit)3104、ROM(Read Only Memory)3105、RAM(Random Access Memory)3106、ハードディスク装置又はSSD(Solid State Drive)などの記憶装置3107、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置3108、ネットワークを介して通信を行う送受信装置3109を備え、各部はバス3110により接続される。 FIG. 15 is a diagram showing the hardware configuration of a computer that realizes the functions of each device by a program. This computer 3100 includes an input device 3101 such as a keyboard, mouse, or touch pad, an output device 3102 such as a display or speaker, a CPU (Central Processing Unit) 3103, a GPU (Graphics Processing Unit) 3104, a ROM (Read Only Memory) 3105, Read information from storage media such as RAM (Random Access Memory) 3106, hard disk drive or SSD (Solid State Drive) 3107, DVD-ROM (Digital Versatile Disk Read Only Memory) or USB (Universal Serial Bus) memory A reading device 3108 and a transmitting/receiving device 3109 for communicating via a network are provided, and each unit is connected by a bus 3110 .

そして、読取装置3108は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置3107に記憶させる。あるいは、送受信装置3109が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置3107に記憶させる。 Then, the reading device 3108 reads the program from the recording medium recording the program for realizing the functions of the respective devices, and stores the program in the storage device 3107 . Alternatively, the transmitting/receiving device 3109 communicates with a server device connected to the network, and causes the storage device 3107 to store the program for realizing the functions of the above devices downloaded from the server device.

そして、CPU3103が、記憶装置3107に記憶されたプログラムをRAM3106にコピーし、そのプログラムに含まれる命令をRAM3106から順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU 3103 copies the program stored in the storage device 3107 to the RAM 3106, sequentially reads out instructions included in the program from the RAM 3106, and executes them, thereby realizing the functions of the respective devices.

上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiments is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them. Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Also, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if an integration technology that replaces the LSI appears due to advances in semiconductor technology or another technology derived from it, that technology may naturally be used to integrate the functional blocks. Application of biotechnology, etc. is possible.

本開示の一態様は、スポーツを分析するためのシステムに有用である。 One aspect of the present disclosure is useful in systems for analyzing sports.

1 プレイ分析システム
3(3A,3B,3C,3D) カメラ
4 表示装置
5 入力装置
100 プレイ分析装置
101 映像受信部
102 プレイ分析部
103 UI制御部
104 分析画像生成部
105 映像再生部
106 記憶部
201 動画フレーム
202 プレイ情報
203 ボール軌跡情報
204 アクション情報
205 アクター情報
2100,2100A,2100B,2100C プレイ分析画像
2110,2110A,2110B,2110C,2110D 状況画像
2200 プレイ映像
MC1 選択エリアマーク
MC2 なぞりマーク
P1 単数選択操作
P2 第1の複数選択操作
P3 第2の複数選択操作
P4 第1の一部選択操作
P5 第2の一部選択操作
1 play analysis system 3 (3A, 3B, 3C, 3D) camera 4 display device 5 input device 100 play analysis device 101 video reception unit 102 play analysis unit 103 UI control unit 104 analysis image generation unit 105 video reproduction unit 106 storage unit 201 Movie frame 202 Play information 203 Ball trajectory information 204 Action information 205 Actor information 2100, 2100A, 2100B, 2100C Play analysis images 2110, 2110A, 2110B, 2110C, 2110D Situation image 2200 Play image MC1 Selection area mark MC2 Tracing mark P1 Single selection operation P2 First multiple selection operation P3 Second multiple selection operation P4 First partial selection operation P5 Second partial selection operation

Claims (7)

スポーツのプレイを分析してプレイ分析画像の生成処理を行うプレイ分析装置であって、
プレイ映像を用いて選手のプレイを分析してプレイ情報を生成するプレイ分析部と、
前記プレイ情報に基づき、前記プレイ分析画像として、前記スポーツにおける共通のアクション種別に関する前記選手のプレイ状況を表わす複数の状況画像を生成して表示装置に表示する分析画像生成部と、
少なくとも1つの前記状況画像を選択するユーザの操作にしたがって、前記状況画像に対応するプレイ映像を再生する映像再生部と、
を備える、プレイ分析装置。
A play analysis device that analyzes a sports play and generates a play analysis image,
a play analysis unit that analyzes the player's play using the play video and generates play information;
an analysis image generation unit that generates, as the play analysis image, a plurality of situation images representing the play situation of the player regarding a common action type in the sport based on the play information and displays them on a display device;
a video reproducing unit that reproduces a play video corresponding to the situation image in accordance with a user's operation for selecting at least one of the situation images;
A play analysis device.
前記映像再生部は、ユーザが設定可能な前記プレイ映像の再生時間に基づいて、前記プレイ映像の再生時間を調整する、
請求項1に記載のプレイ分析装置。
The video playback unit adjusts the playback time of the play video based on the playback time of the play video that can be set by the user.
The play analysis device according to claim 1.
前記スポーツは、バレーボールであり、
前記共通のアクション種別は、トス又はサーブである、
請求項1に記載のプレイ分析装置。
the sport is volleyball,
the common action type is toss or serve;
The play analysis device according to claim 1 .
前記映像再生部は、複数の前記状況画像を含むエリア選択を行うユーザの操作にしたがって、前記複数の状況画像のそれぞれに対応するプレイ映像を連続再生する、
請求項1から3のいずれか1項に記載のプレイ分析装置。
The video reproduction unit continuously reproduces the play video corresponding to each of the plurality of situation images in accordance with a user's operation for selecting an area including the plurality of situation images.
The play analysis device according to any one of claims 1 to 3 .
前記映像再生部は、複数の前記状況画像を個々に選択するユーザの操作にしたがって、前記複数の状況画像のそれぞれに対応するプレイ映像を同時再生する、
請求項1から4のいずれか1項に記載のプレイ分析装置。
The video reproduction unit simultaneously reproduces the play video corresponding to each of the plurality of situation images in accordance with a user's operation of individually selecting the plurality of situation images.
The play analysis device according to any one of claims 1 to 4 .
前記状況画像は、選手の移動軌跡をプレイ状況として表わし、
前記映像再生部は、前記移動軌跡の一部を選択するユーザの操作にしたがって、前記選択された移動軌跡の一部に対応するプレイ映像を再生する、
請求項1から5のいずれか1項に記載のプレイ分析装置。
The situation image represents the movement trajectory of the player as a play situation,
The video reproduction unit reproduces a play video corresponding to the selected part of the movement trajectory in accordance with a user's operation for selecting the part of the movement trajectory.
The play analysis device according to any one of claims 1 to 5 .
コンピュータがプログラムを実行することにより、スポーツのプレイを分析してプレイ分析画像の生成処理を行うプレイ分析方法であって、
プレイ映像を用いて選手のプレイを分析してプレイ情報を生成し、
前記プレイ情報に基づき、前記プレイ分析画像として、前記スポーツにおける共通のアクション種別に関する前記選手のプレイ状況を表わす複数の状況画像を生成して表示装置に表示し、
少なくとも1つの前記状況画像を選択するユーザの操作にしたがって、前記状況画像に対応するプレイ映像を再生する、
プレイ分析方法。
A play analysis method in which a computer executes a program to analyze a sports play and generate a play analysis image,
Analyze the player's play using the play video to generate play information,
generating, as the play analysis image, a plurality of situation images representing the play situation of the player regarding a common action type in the sport based on the play information and displaying them on a display device;
playing back a play video corresponding to the situation image in accordance with a user's operation to select at least one of the situation images;
Play analysis method.
JP2019089822A 2019-05-10 2019-05-10 Play analysis device and play analysis method Active JP7300668B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019089822A JP7300668B2 (en) 2019-05-10 2019-05-10 Play analysis device and play analysis method
PCT/JP2020/018460 WO2020230677A1 (en) 2019-05-10 2020-05-01 Play analysis apparatus and play analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089822A JP7300668B2 (en) 2019-05-10 2019-05-10 Play analysis device and play analysis method

Publications (3)

Publication Number Publication Date
JP2020185061A JP2020185061A (en) 2020-11-19
JP2020185061A5 JP2020185061A5 (en) 2022-05-13
JP7300668B2 true JP7300668B2 (en) 2023-06-30

Family

ID=73220842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089822A Active JP7300668B2 (en) 2019-05-10 2019-05-10 Play analysis device and play analysis method

Country Status (2)

Country Link
JP (1) JP7300668B2 (en)
WO (1) WO2020230677A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000044449A1 (en) 1999-01-29 2000-08-03 Scale Inc. Time-series data processing device and method
JP2006122646A (en) 2004-09-30 2006-05-18 Hiroshima Univ Information processing method, information processing device, scouting system, information processing program, and computer-readable recording medium
JP2007252697A (en) 2006-03-24 2007-10-04 Hiroshima Univ Play data collection and analysis system and data collection and analysis program for volleyball game
US20150018990A1 (en) 2012-02-23 2015-01-15 Playsight Interactive Ltd. Smart-court system and method for providing real-time debriefing and training services of sport games
US20180032858A1 (en) 2015-12-14 2018-02-01 Stats Llc System and method for predictive sports analytics using clustered multi-agent data

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339009A (en) * 1998-05-26 1999-12-10 Sony Corp Analytic data generating device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000044449A1 (en) 1999-01-29 2000-08-03 Scale Inc. Time-series data processing device and method
JP2006122646A (en) 2004-09-30 2006-05-18 Hiroshima Univ Information processing method, information processing device, scouting system, information processing program, and computer-readable recording medium
JP2007252697A (en) 2006-03-24 2007-10-04 Hiroshima Univ Play data collection and analysis system and data collection and analysis program for volleyball game
US20150018990A1 (en) 2012-02-23 2015-01-15 Playsight Interactive Ltd. Smart-court system and method for providing real-time debriefing and training services of sport games
US20180032858A1 (en) 2015-12-14 2018-02-01 Stats Llc System and method for predictive sports analytics using clustered multi-agent data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋茂樹 ほか,バレーボール映像における選手及びボールの追跡とそのイベント推定への応用,映像情報メディア学会技術報告,日本,(社)映像情報メディア学会,2010年03月10日,Vol.34, No.6,p.17-21,[ISSN]1342-6893, 特にあらまし, 本文, 図2-3, 表1 を参照。

Also Published As

Publication number Publication date
JP2020185061A (en) 2020-11-19
WO2020230677A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
US11049258B2 (en) Stereoscopic image capture with performance outcome prediction in sporting environments
US20210106893A1 (en) Virtual environment construction apparatus, video presentation apparatus, model learning apparatus, optimal depth decision apparatus, methods for the same, and program
JP7289080B2 (en) Ball game video analysis device and ball game video analysis method
US10269390B2 (en) Game video processing systems and methods
JP2023054333A (en) Athletic training system and method
US20180137363A1 (en) System for the automated analisys of a sporting match
US20140301600A1 (en) True space tracking of axisymmetric object flight using diameter measurement
Suda et al. Prediction of volleyball trajectory using skeletal motions of setter player
WO2020235339A1 (en) Play analyzing device, and play analyzing method
JP2021023401A (en) Information processing apparatus, information processing method, and program
JP7437652B2 (en) Ball game video analysis device, ball game video analysis system, ball game video analysis method, and computer program
JP7113335B2 (en) Play analysis device and play analysis method
WO2020255948A1 (en) Play analysis device, play analysis method, and computer program
JP7113336B2 (en) Play analysis device and play analysis method
JP7300668B2 (en) Play analysis device and play analysis method
WO2020071092A1 (en) Play analysis device and play analysis method
JP7289054B2 (en) Play analysis device, play analysis method, and computer program
KR20150006624A (en) Interactive sports events information service system
JP7296546B2 (en) Play analysis device and play analysis method
JP2021157406A (en) Ball game video analysis device, ball game video analysis method, and computer program
Gade et al. The (Computer) Vision of Sports: Recent Trends in Research and Commercial Systems for Sport Analytics
US20240087072A1 (en) Live event information display method, system, and apparatus
JP2022173865A (en) Play analysis device, play analysis method, and, computer program
JP2019041951A (en) Player position visualization apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R151 Written notification of patent or utility model registration

Ref document number: 7300668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151