JP7296546B2 - Play analysis device and play analysis method - Google Patents

Play analysis device and play analysis method Download PDF

Info

Publication number
JP7296546B2
JP7296546B2 JP2018189166A JP2018189166A JP7296546B2 JP 7296546 B2 JP7296546 B2 JP 7296546B2 JP 2018189166 A JP2018189166 A JP 2018189166A JP 2018189166 A JP2018189166 A JP 2018189166A JP 7296546 B2 JP7296546 B2 JP 7296546B2
Authority
JP
Japan
Prior art keywords
action
play
player
ball
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018189166A
Other languages
Japanese (ja)
Other versions
JP2020054746A (en
Inventor
康治 井村
純子 上田
優麻 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018189166A priority Critical patent/JP7296546B2/en
Priority to PCT/JP2019/036972 priority patent/WO2020071155A1/en
Publication of JP2020054746A publication Critical patent/JP2020054746A/en
Application granted granted Critical
Publication of JP7296546B2 publication Critical patent/JP7296546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Description

本開示は、球技のプレイ分析装置、及び、プレイ分析方法に関する。 The present disclosure relates to a ball game play analysis device and a play analysis method.

従来より、バレーボール分析ソフトウェアとして「Data Volley」が知られている。Data Volleyはこのソフトウェアに精通したアナリストによって使用され、当該アナリストが、主観的判断に基づいて、チームの選手の状況を示すデータをData Volleyに入力する。 "Data Volley" is known as volleyball analysis software. Data Volley is used by analysts familiar with the software, who enter data into Data Volley that describes the condition of the team's players based on subjective judgment.

特許文献1には、アナリストの操作性を向上させたスカウティングシステムが開示されている。具体的には、特許文献1には、画像解析を用いて各選手の位置情報を取得し、入力された選手状況、各選手のそれぞれの位置情報、所望のシーンの静止画像とを関連付けて記憶装置にデータベースを構築し、各選手の各位置、所望のシーンの静止画像、選手状況を表示することが開示されている。この発明により、スコアラー(アナリスト)のトレーニングが必要であり、各選手の位置情報が視覚による主観的判断により入力されているためにデータ精度が低いというData Volleyのソフトウェアの問題点を解決できる。 Patent Literature 1 discloses a scouting system with improved operability for analysts. Specifically, in Patent Document 1, the position information of each player is acquired using image analysis, and the input player situation, each position information of each player, and a still image of a desired scene are stored in association with each other. It discloses building a database in the device to display each player's position, a still image of the desired scene, and the player's situation. This invention solves the problems of Data Volley's software that the training of scorers (analysts) is required and the data accuracy is low because each player's position information is input by visual and subjective judgment.

また、従来のバレーボール分析ソフトウェアは、サーブに対するレシーブのシーンを撮影した映像を順次取り込み、各選手の技能評価を入力し、各選手のレシーブ回数及びレシーブ成功率等を集計及び表示する。ユーザ(チームの監督等)は、この集計結果を見て、チームの強み及び弱みを分析する。 In addition, conventional volleyball analysis software sequentially captures images of receiving scenes for serves, inputs skill evaluations of each player, and aggregates and displays the number of times each player has received, success rate of receiving, and the like. A user (such as a team manager) analyzes the team's strengths and weaknesses by looking at the aggregated results.

特開2004-351097号公報JP 2004-351097 A

Xina CHENG, Norikazu IKOMA, Masaaki HONDA and Takeshi IKENAGA "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, VOL.E94-A, NO.1 JANUARY 2011Xina CHENG, Norikazu IKOMA, Masaaki HONDA and Takeshi IKENAGA "Multi-view 3D Ball Tracking with Abrupt Motion Adaptive System Model, Anti-occlusion Observation and Spatial Density based Recovery in Sports Analysis", IEICE TRANS. FUNDAMENTALS, VOL.E94-A, NO.1 JANUARY 2011

バレーボール等の球技を分析するユーザは、特定の選手の特定のアクション(例えばバレーボールにおけるセッターのトス)を詳細に分析したいことがある。しかし、従来の技術では、このような詳細な分析が困難である。 A user analyzing a ball game such as volleyball may wish to analyze in detail a particular action of a particular player (eg, a setter's toss in volleyball). However, with conventional techniques, such detailed analysis is difficult.

本開示の目的は、球技における特定の選手の特定のアクションを詳細に分析できるプレイ分析装置及び方法を提供することにある。 An object of the present disclosure is to provide a play analysis apparatus and method capable of analyzing in detail specific actions of specific players in ball games.

本開示の一態様に係るプレイ分析装置は、球技のプレイを分析するプレイ分析装置であって、複数のカメラによって撮影された複数のプレイ映像を用いて、前記球技の移動体の軌跡を算出し、前記移動体の軌跡の変化に基づいて、前記球技に関するアクション、当該アクションを行った選手、及び当該選手が当該アクションを行った位置を検出し、当該アクション、当該選手、及び当該位置を対応付けたプレイ情報を生成する球技映像解析部と、特定のアクションを行った対象選手の複数の前記プレイ情報を取得し、それら複数の前記プレイ情報から前記特定のアクションの実行位置および状態がコートのゾーン画像上に集約されて示されるプレイ分析画像を生成するプレイ分析部と、を備え、前記プレイ分析部は、前記プレイ分析画像において、前記特定のアクションが行われた各位置に、前記特定のアクションの前記状態として複数の属性画像を配置し、前記属性画像は、前記特定のアクションに関する種別、前記特定のアクションに関するボールの速度、前記特定のアクションに関する前記ボールの高さ、及び、前記特定のアクションに伴う距離のうちの少なくとも2つの属性情報を表す。 A play analysis device according to one aspect of the present disclosure is a play analysis device that analyzes a play of a ball game, and calculates a trajectory of a moving object in the ball game using a plurality of play videos captured by a plurality of cameras. , detecting an action related to the ball game, the player who performed the action, and the position at which the player performed the action, based on changes in the trajectory of the moving body, and correlating the action, the player, and the position. a ball game video analysis unit that generates play information, and a plurality of pieces of play information of a target player who has performed a specific action; and a play analysis unit that generates a play analysis image aggregated and shown on the image, wherein the play analysis unit adds the specific action to each position where the specific action is performed in the play analysis image. and a plurality of attribute images are arranged as the state of the attribute images, the attribute images are the type related to the specific action, the speed of the ball related to the specific action, the height of the ball related to the specific action, and the specific action represents at least two attribute information of the distances associated with .

本開示の一態様に係るプレイ分析方法は、球技のプレイを分析するプレイ分析方法であって、複数のカメラによって撮影された複数のプレイ映像を用いて、前記球技の移動体の軌跡を算出し、前記移動体の軌跡の変化に基づいて、前記球技に関するアクション、当該アクションを行った選手、及び当該選手が当該アクションを行った位置を検出し、当該アクション、当該選手、及び当該位置を対応付けたプレイ情報を生成し、特定のアクションを行った対象選手の複数の前記プレイ情報を取得し、それら複数の前記プレイ情報から前記特定のアクションの実行位置および状態がコートのゾーン画像上に集約されて示されるプレイ分析画像を生成し、前記プレイ分析画像において、前記特定のアクションが行われた各位置に、前記特定のアクションの前記状態として複数の属性画像を配置し、前記属性画像は、前記特定のアクションに関する種別、前記特定のアクションに関するボールの速度、前記特定のアクションに関する前記ボールの高さ、及び、前記特定のアクションに伴う距離のうちの少なくとも2つの属性情報を表す。 A play analysis method according to an aspect of the present disclosure is a play analysis method for analyzing a play of a ball game, in which the trajectory of a moving object in the ball game is calculated using a plurality of play videos captured by a plurality of cameras. , detecting an action related to the ball game, the player who performed the action, and the position at which the player performed the action, based on changes in the trajectory of the moving body, and correlating the action, the player, and the position. A plurality of pieces of play information of a target player who has performed a specific action are acquired, and from the plurality of pieces of play information, execution positions and states of the specific actions are aggregated on a zone image of the court. a plurality of attribute images as the state of the specific action at each position where the specific action is performed in the play analysis image, and It represents at least two pieces of attribute information of a type related to a specific action, a ball speed related to the specific action, a height of the ball related to the specific action, and a distance associated with the specific action.

なお、これらの包括的または具体的な態様は、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by devices, methods, integrated circuits, computer programs, or recording media, and any of the systems, devices, methods, integrated circuits, computer programs, and recording media may be implemented. may be implemented in any combination.

本開示によれば、球技における特定の選手の特定のアクションを詳細に分析できる。 According to the present disclosure, specific actions of specific players in ball games can be analyzed in detail.

実施の形態1に係る球技映像解析システムの概要を示す図である。1 is a diagram showing an overview of a ball game video analysis system according to Embodiment 1; FIG. 実施の形態1に係る球技映像解析装置の構成の例を示す図である。1 is a diagram showing an example of the configuration of a ball game video analysis device according to Embodiment 1; FIG. 実施の形態1に係るプレイ情報の例を示す図である。4 is a diagram showing an example of play information according to Embodiment 1; FIG. 実施の形態1に係る検出領域及びアクター領域の一例を示す図である。4 is a diagram showing an example of a detection region and an actor region according to Embodiment 1; FIG. 実施の形態1に係る検出領域及びアクター領域の他の一例を示す図である。FIG. 4 is a diagram showing another example of detection regions and actor regions according to Embodiment 1; 実施の形態1に係る同一選手判定処理において同一の選手と判定される場合の図である。FIG. 10 is a diagram for a case where the same player is determined in the same player determination process according to Embodiment 1; 実施の形態1に係る同一選手判定処理において異なる選手と判定される場合の図である。FIG. 10 is a diagram showing a case where different players are determined in the identical player determination process according to Embodiment 1; 実施の形態1に係るアクション判定処理を示すフローチャートである。4 is a flowchart showing action determination processing according to Embodiment 1; 実施の形態1に係るアクター認識処理を示すフローチャートである。4 is a flowchart showing actor recognition processing according to Embodiment 1; 実施の形態2に係るプレイ分析システムの構成例を示す図である。FIG. 10 is a diagram showing a configuration example of a play analysis system according to Embodiment 2; FIG. 実施の形態2に係るプレイ分析装置の構成例を示す図である。FIG. 11 is a diagram showing a configuration example of a play analysis device according to Embodiment 2; 実施の形態2に係るプレイ分析装置が生成するUI(User Interface)の例を示す図である。FIG. 10 is a diagram showing an example of a UI (User Interface) generated by the play analysis device according to Embodiment 2; 実施の形態2に係るトスのプレイ分析画像の例を示す図である。FIG. 10 is a diagram showing an example of a toss play analysis image according to the second embodiment; 実施の形態2に係るプレイ情報リストの例を示す図である。FIG. 10 is a diagram showing an example of a play information list according to Embodiment 2; FIG. 実施の形態2に係るスコア情報リストの例を示す図である。FIG. 10 is a diagram showing an example of a score information list according to Embodiment 2; FIG. 実施の形態2に係るプレイ情報の修正手順を説明するための第1の図である。FIG. 11 is a first diagram for explaining a procedure for correcting play information according to Embodiment 2; 実施の形態2に係るプレイ情報の修正手順を説明するための第2の図である。FIG. 10 is a second diagram for explaining the play information correction procedure according to the second embodiment; 実施の形態2に係るプレイ情報の修正手順を説明するための第3の図である。FIG. 13 is a third diagram for explaining the play information correction procedure according to the second embodiment; 本開示の実施の形態に係るハードウェア構成の例を示す図である。It is a figure showing an example of hardware constitutions concerning an embodiment of this indication.

以下、図面を適宜参照して、本発明の実施の形態について、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 It should be noted that the accompanying drawings and the following description are provided for a thorough understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter.

(実施の形態1)
<球技映像解析システム>
まず、図1を参照しながら、一実施の形態に係る球技映像解析システムの概要について説明する。
(Embodiment 1)
<Ball game video analysis system>
First, an overview of a ball game video analysis system according to one embodiment will be described with reference to FIG.

球技映像解析システム1は、球技を撮影した映像を解析し、球技に用いられる移動体に対してアクションを行った選手を認識するシステムである。球技に用いられる移動体は、典型的にはボールであるが、バドミントンに用いられるシャトル等であってもよい。本実施の形態では、球技の1つであるバレーボールを例に説明する。ただし、球技映像解析システム1は、サッカー、野球、卓球、バスケットボール、テニス、ラグビー、アメリカンフットボール、ラクロス、又はバドミントンなど、様々な球技に適用可能である。また、球技映像解析システム1は、アイスホッケーのパック等、「球」の概念に当てはまらない形状の移動体にも適用可能である。すなわち、球技映像解析システム1は、複数人から構成されるチームが移動体に対するアクションを行うことにより点数又は勝敗が決定される競技であれば、どのような競技にも適用可能である。 The ball game video analysis system 1 is a system that analyzes video of a ball game and recognizes a player who has taken an action on a moving object used in the ball game. A moving body used in ball games is typically a ball, but may be a shuttle or the like used in badminton. In this embodiment, volleyball, which is one of the ball games, will be described as an example. However, the ball game video analysis system 1 can be applied to various ball games such as soccer, baseball, table tennis, basketball, tennis, rugby, American football, lacrosse, and badminton. Also, the ball game video analysis system 1 can be applied to a moving object having a shape that does not correspond to the concept of a "ball", such as an ice hockey puck. In other words, the ball game video analysis system 1 can be applied to any game as long as the score or victory or defeat is determined by a team composed of a plurality of players performing actions on a moving object.

球技映像解析システム1は、複数のカメラ3(3A、3B、3C、3D)と、表示装置4と、入力装置5と、球技映像解析装置100と、を備える。 A ball game video analysis system 1 includes a plurality of cameras 3 ( 3 A, 3 B, 3 C, 3 D), a display device 4 , an input device 5 and a ball game video analysis device 100 .

複数のカメラ3は、それぞれ異なる位置に設置される。例えば、図1に示すように、各カメラ3は、高所からコート10を異なる視点(画角)で撮影できる位置に設置される。なお、図1ではカメラ3が4台であるが、本実施の形態はこれに限られず、カメラ3は、2台以上であれば何台でもよい。2台以上のカメラ3を用いることにより、ボールの3次元位置を算出できる A plurality of cameras 3 are installed at different positions. For example, as shown in FIG. 1, each camera 3 is installed at a position where the court 10 can be photographed from a different viewpoint (angle of view) from a high place. Although the number of cameras 3 is four in FIG. 1, the present embodiment is not limited to this, and the number of cameras 3 may be any number as long as it is two or more. By using two or more cameras 3, the three-dimensional position of the ball can be calculated.

各カメラ3は、球技映像解析装置100と有線又は無線を介して通信可能に接続されている。各カメラ3は、球技中の状況を撮影し、撮影画像を生成する。そして、各カメラ3は、複数の撮影画像から動画フレーム201(図2参照)を生成する。そして、各カメラ3は、動画フレーム201を球技映像解析装置100へ送信する。動画フレーム201は、複数の撮影画像が、例えば、MP4、H.264、H.265、又は、Motion JPEG等の規格に基づいて圧縮されたものであってよい。 Each camera 3 is communicably connected to the ball game video analysis device 100 via a cable or wirelessly. Each camera 3 captures the situation during the ball game and generates a captured image. Then, each camera 3 generates a moving image frame 201 (see FIG. 2) from a plurality of captured images. Then, each camera 3 transmits the video frame 201 to the ball game video analysis device 100 . The moving image frame 201 is composed of a plurality of photographed images, for example, MP4, H.264, etc. 264, H. H.265, or compressed based on a standard such as Motion JPEG.

表示装置4は、球技映像解析装置100と有線又は無線を介して通信可能に接続されており、球技映像解析装置100から出力される画像を表示する。表示装置4は、例えば、液晶ディスプレイ又は有機ELディスプレイ等である。 The display device 4 is communicably connected to the ball game video analysis device 100 via a cable or wirelessly, and displays an image output from the ball game video analysis device 100 . The display device 4 is, for example, a liquid crystal display or an organic EL display.

入力装置5は、球技映像解析装置100と有線又は無線を介して通信可能に接続されており、ユーザからの操作を受け付け、その操作情報を球技映像解析装置100へ送信する。入力装置5は、例えば、キーボード、マウス、マイク及び/又はタッチパネル等である。なお、入力装置5及び表示装置4は一体型の装置であってもよい。 The input device 5 is communicably connected to the ball game video analysis device 100 via a cable or wirelessly, receives an operation from the user, and transmits the operation information to the ball game video analysis device 100 . The input device 5 is, for example, a keyboard, mouse, microphone and/or touch panel. Note that the input device 5 and the display device 4 may be an integrated device.

球技映像解析装置100は、各カメラ3が撮影した動画フレームを用いて、ボールに対してアクションを行った選手を特定する。バレーボールの場合、ボールに対して行われるアクションには、サーブ、レセプション、ディグ、トス、アタック、及びブロック等がある。以下、ボールに対してアクションを行った選手を、「アクター」と表現する場合がある。 The ball game video analysis device 100 uses the video frames captured by each camera 3 to identify the player who performed the action on the ball. In volleyball, actions performed on the ball include serves, receptions, digs, tosses, attacks, and blocks. Hereinafter, a player who performs an action on the ball may be referred to as an "actor".

なお、本実施の形態では、図1に示すように、コート10の面の中心点を原点Oとし、コート10の面と平行かつネット11と平行な軸をX軸、コート10の面と平行かつネット11と垂直な軸をY軸、コート10の面と垂直な軸をZ軸とする。X軸は、審判12から離れる方向を正方向、審判12に近づく方向を負方向とする。Y軸は、審判12から見て左方向を正方向、右方向を負方向とする。Z軸は、コート10の面から離れる方向を正方向とする。つまりZ軸の座標zは、コート10の面からの高さに相当する。 In the present embodiment, as shown in FIG. 1, the center point of the surface of the court 10 is the origin O, the axis parallel to the surface of the court 10 and parallel to the net 11 is the X axis, and the surface of the court 10 is parallel. The axis perpendicular to the net 11 is the Y-axis, and the axis perpendicular to the surface of the court 10 is the Z-axis. Regarding the X-axis, the direction away from the referee 12 is the positive direction, and the direction closer to the referee 12 is the negative direction. As for the Y-axis, the left direction as viewed from the referee 12 is the positive direction, and the right direction is the negative direction. The positive direction of the Z-axis is the direction away from the surface of the court 10 . That is, the Z-axis coordinate z corresponds to the height from the surface of the court 10 .

<球技映像解析装置>
次に、図2を参照しながら、球技映像解析装置100について説明する。
<Ball game video analysis device>
Next, the ball game video analysis device 100 will be described with reference to FIG.

球技映像解析装置100は、映像受信部101と、軌跡算出部102と、アクション判定部103と、アクションフレーム選択部104と、検出領域設定部105と、選手検出部106と、番号認識部107と、結果出力部108と、記憶部109とを有する。 The ball game video analysis device 100 includes a video reception unit 101, a trajectory calculation unit 102, an action determination unit 103, an action frame selection unit 104, a detection area setting unit 105, a player detection unit 106, and a number recognition unit 107. , a result output unit 108 and a storage unit 109 .

映像受信部101は、各カメラ3A~3Dから送信される動画フレーム201を受信し、記憶部109に格納する。 The video receiving unit 101 receives moving image frames 201 transmitted from each of the cameras 3A to 3D and stores them in the storage unit 109. FIG.

軌跡算出部102は、記憶部109に格納された複数の動画フレーム201に対して、例えば非特許文献1に開示されている手法を適用し、動画フレーム201が撮影された時刻(以下「フレーム時刻」という)におけるボールの3次元位置(x,y,z)及び速度を算出する。そして、軌跡算出部102は、フレーム時刻とボールの3次元位置と速度とを対応付けてボール軌跡情報202を生成し、記憶部109に格納する。 The trajectory calculation unit 102 applies the method disclosed in Non-Patent Document 1, for example, to a plurality of moving image frames 201 stored in the storage unit 109, and calculates the time when the moving image frame 201 was shot (hereinafter referred to as “frame time ”), the three-dimensional position (x, y, z) and velocity of the ball are calculated. Then, the trajectory calculation unit 102 generates ball trajectory information 202 by associating the frame time with the three-dimensional position and speed of the ball, and stores the generated ball trajectory information 202 in the storage unit 109 .

アクション判定部103は、ボール軌跡情報202から、ボールに対するアクションが発生したか否かを判定する。アクション判定部103は、アクションが発生したと判定した場合、アクションが発生したフレーム時刻(以下「アクションフレーム時刻」という)と、その発生したアクションの種別とを対応付けてアクション情報203を生成し、記憶部109に格納する。なお、アクション判定部103の詳細については後述する。 The action determination unit 103 determines from the ball trajectory information 202 whether or not an action has occurred with respect to the ball. When the action determination unit 103 determines that an action has occurred, the action determination unit 103 generates action information 203 by associating the frame time when the action occurred (hereinafter referred to as "action frame time") with the type of the action that occurred. Stored in the storage unit 109 . Details of the action determination unit 103 will be described later.

アクションフレーム選択部104は、記憶部109に格納されている複数の動画フレーム201の中から、アクション情報203に含まれるアクションフレーム時刻に対応する動画フレームと、当該アクションフレーム時刻の近傍のフレーム時刻に対応する動画フレームとを、アクションフレームとして選択する。なお、アクションフレーム選択部104の詳細については後述する。 The action frame selection unit 104 selects, from among the plurality of video frames 201 stored in the storage unit 109, the video frame corresponding to the action frame time included in the action information 203 and the frame time near the action frame time. Select the corresponding video frame as the action frame. Details of the action frame selection unit 104 will be described later.

検出領域設定部105は、アクションフレーム選択部104によって選択されたアクションフレームに対して、選手の検出が行われる領域である検出領域を設定する。なお、検出領域設定部105の詳細については後述する。 The detection area setting unit 105 sets a detection area, which is an area where player detection is performed, for the action frame selected by the action frame selection unit 104 . Details of the detection area setting unit 105 will be described later.

選手検出部106は、検出領域設定部105によって設定された検出領域内の画像から、選手が撮影されている領域(以下「選手領域」という)を検出する。そして、選手検出部106は、複数の選手領域を検出した場合、アクションを行った選手(アクター)が撮影されている選手領域を、アクター領域として選択する。なお、選手検出部106の詳細については後述する。 The player detection unit 106 detects an area in which the player is captured (hereinafter referred to as “player area”) from the image within the detection area set by the detection area setting unit 105 . When the player detection unit 106 detects a plurality of player areas, the player detection unit 106 selects the player area in which the player (actor) who performed the action is captured as the actor area. Details of the player detection unit 106 will be described later.

番号認識部107は、選手検出部106によって検出されたアクター領域内の画像から、アクターのユニフォーム番号を認識する。そして、番号認識部107は、アクションフレーム時刻と、その認識したアクターのユニフォーム番号とを対応付けてアクター情報204を生成し、記憶部109に格納する。なお、番号認識部107の詳細については後述する。 The number recognition unit 107 recognizes the actor's uniform number from the image within the actor area detected by the player detection unit 106 . The number recognition unit 107 then associates the action frame time with the uniform number of the recognized actor to generate actor information 204 and stores it in the storage unit 109 . Details of the number recognition unit 107 will be described later.

結果出力部108は、ボール軌跡情報202と、アクション情報203と、アクター情報204とを対応付けて、プレイ情報205を生成し、記憶部109に格納する。例えば、アクション情報203においてアクションフレーム時刻Tとアクション種別「アタック」とが対応付けられており、アクター情報204においてアクションフレーム時刻Tとアクターのユニフォーム番号「14」とが対応付けられている場合、結果出力部108は、図3に示すようなプレイ情報205を生成する。すなわち、結果出力部108は、図3に示すように、ボール軌跡情報202のフレーム時刻Tに対して、アクション種別「アタック」と、アクターのユニフォーム番号「14」とを対応付けたプレイ情報205を生成する。これにより、ユーザ又は他の装置は、プレイ情報205を用いて、フレーム時刻Tにおいて、ユニフォーム番号「14」の選手(アクター)が、3次元位置(x,y,z)のボールに対して、速度「S(km/h)」の「アタック」を行ったことを知ることができる。 The result output unit 108 associates the ball trajectory information 202 , the action information 203 , and the actor information 204 to generate play information 205 and stores it in the storage unit 109 . For example, in the action information 203, the action frame time T and the action type "attack" are associated, and in the actor information 204, the action frame time T and the actor's uniform number "14" are associated. The output unit 108 generates play information 205 as shown in FIG. That is, as shown in FIG. 3, the result output unit 108 generates play information 205 in which the action type "attack" and the uniform number "14" of the actor are associated with the frame time T of the ball trajectory information 202. Generate. As a result, the user or other device uses the play information 205 so that the player (actor) with the uniform number “14” at the frame time T will hit the ball at the three-dimensional position (x T , y T , z T ). On the other hand, it can be known that the "attack" of the speed " ST (km/h)" has been performed.

<アクション判定部の詳細>
次に、アクション判定部103の詳細について説明する。
<Details of the action determination part>
Next, the details of the action determination unit 103 will be described.

アクション判定部103は、ボール軌跡情報202に含まれるフレーム時刻毎のボールの3次元位置及び速度からボールの軌跡を算出する。そして、アクション判定部103は、その算出したボールの軌跡変化が所定の条件に合致した場合、ボールに対するアクションが発生したと判定する。そして、アクション判定部103は、アクションが発生したと判定した場合、その条件に合致したフレーム時刻を、アクションフレーム時刻とする。 The action determination unit 103 calculates the trajectory of the ball from the three-dimensional position and velocity of the ball for each frame time included in the ball trajectory information 202 . Then, when the calculated change in the trajectory of the ball satisfies a predetermined condition, the action determination unit 103 determines that an action has occurred with respect to the ball. When the action determination unit 103 determines that an action has occurred, the action determination unit 103 sets the frame time that matches the condition as the action frame time.

なお、アクション判定部103は、ボールの軌跡変化、ボールの3次元位置及び速度、並びに、球技のルール等に基づいて、アクション種別を判定してもよい。バレーボールのアクション種別には、サーブ、レセプション(サーブに対するレシーブ)、ディグ(アタックに対するレシーブ)、トス、アタック、及びブロック等がある。例えば、アクション判定部103は、解析開始から初めて検出されたボールの軌跡がY軸方向(図1に示すコートの長辺方向)の移動成分を有し、当該Y軸方向のボールの速度成分が所定の範囲内である場合、アクション種別を「サーブ」と判定する。他の例として、アクション判定部103は、「サーブ」後にボールの軌跡がY軸においてネット11の存在する座標を跨ぎ、かつ、ボールの3次元位置の変化が下降から上昇に転じた場合(すなわち、Z軸方向の座標の変化がプラスに転じた場合)、アクション種別を「レセプション」と判定する。バレーボールのルール上、「サーブ」を受けるアクションは「レセプション」であるので、このようなルールに基づく判定を行うことにより、「レセプション」と「ディグ」を区別できる。 Note that the action determination unit 103 may determine the type of action based on changes in the trajectory of the ball, the three-dimensional position and speed of the ball, ball game rules, and the like. Action types in volleyball include serve, reception (receiving on serve), digging (receiving on attack), toss, attack, and block. For example, the action determination unit 103 determines that the trajectory of the ball detected for the first time from the start of the analysis has a movement component in the Y-axis direction (long side direction of the court shown in FIG. 1), and the velocity component of the ball in the Y-axis direction is If it is within the predetermined range, the action type is determined as "serve". As another example, the action determination unit 103 determines that the trajectory of the ball straddles the coordinates of the net 11 on the Y-axis after the "serve" and the change in the three-dimensional position of the ball changes from falling to rising (that is, , when the change in the coordinate in the Z-axis direction turns positive), the action type is determined to be "reception". According to the rules of volleyball, the action of receiving a "serve" is a "reception", so making decisions based on such rules makes it possible to distinguish between a "reception" and a "dig".

同様に、アクション判定部103は、ボールの軌跡変化等が所定の条件に合致する場合に、競技のルールに準じた判定基準によって他のアクション種別を判定する。 Similarly, the action determination unit 103 determines another action type based on the determination criteria according to the rules of the game when the change in the trajectory of the ball or the like satisfies a predetermined condition.

なお、上記では、3次元の情報を用いてアクションの発生を判定しているが、2次元又は1次元の情報を用いてアクションの発生を判定しても良い。例えば、上述した条件で「サーブ」の発生を判定する場合、X軸方向とZ軸方向の情報を用いずに、解析開始の時刻とY軸方向の情報のみから判定可能である。 In the above description, three-dimensional information is used to determine whether an action has occurred, but two-dimensional or one-dimensional information may be used to determine whether an action has occurred. For example, when judging the occurrence of a "serve" under the above conditions, it is possible to make the judgment only from the analysis start time and the information in the Y-axis direction without using the information in the X-axis direction and the Z-axis direction.

また、アクション判定部103は、アクションフレーム時刻及びアクション種別に、さらに、当該アクションフレーム時刻に対応するボールの3次元位置を対応付けてアクション情報203を生成してもよい。ボールの3次元位置の情報が、後述するアクションフレーム選択部104等において使用されるためである。 Further, the action determination unit 103 may generate the action information 203 by associating the action frame time and the action type with the three-dimensional position of the ball corresponding to the action frame time. This is because the information on the three-dimensional position of the ball is used in the action frame selection unit 104 and the like, which will be described later.

<アクションフレーム選択部の詳細>
次に、アクションフレーム選択部104の詳細について説明する。
<Details of the action frame selection part>
Next, the details of the action frame selection unit 104 will be described.

アクションフレーム選択部104は、まず、アクションフレーム時刻に対応するボールの3次元位置に近い方の少なくとも2つのカメラ3を選択する。例えば、アクションフレーム選択部104は、ボールのy座標が0以上の場合(図1のコート10の左側にボールがある場合)、カメラ3Aと3Bを選択し、ボールのy座標が0未満の場合(図1のコート10の右側にボールがある場合)、カメラ3Cと3Dを選択する。これにより、選手のユニフォームのユニフォーム番号を撮影している可能性の高いカメラ3が選択される。 The action frame selection unit 104 first selects at least two cameras 3 closer to the three-dimensional position of the ball corresponding to the action frame time. For example, the action frame selection unit 104 selects the cameras 3A and 3B when the y-coordinate of the ball is 0 or more (when the ball is on the left side of the court 10 in FIG. 1), and selects the cameras 3A and 3B when the y-coordinate of the ball is less than 0. If the ball is on the right side of court 10 in FIG. 1, select cameras 3C and 3D. As a result, the camera 3 that is highly likely to capture the uniform number of the player's uniform is selected.

また、アクションフレーム選択部104は、上述で選択した各カメラ3の動画フレーム201から、アクション情報203のアクションフレーム時刻Tに対応する動画フレーム201と、アクションフレーム時刻Tよりも前方のフレーム時刻(例えばフレーム時刻T-3)に対応する動画フレーム201と、アクションフレーム時刻Tよりも後方のフレーム時刻(例えばフレーム時刻T+3)に対応する動画フレーム201とをアクションフレームとして選択する。 Further, the action frame selection unit 104 selects the video frame 201 corresponding to the action frame time T in the action information 203 from the video frames 201 of each camera 3 selected above, and the frame time preceding the action frame time T (for example, A video frame 201 corresponding to frame time T-3) and a video frame 201 corresponding to a frame time later than action frame time T (for example, frame time T+3) are selected as action frames.

このように、複数のアクションフレームを選択することにより、仮に1つのアクションフレームにおいてアクターのユニフォーム番号が認識できなかったとしても、他のアクションフレームにおいてアクターのユニフォーム番号を認識できる場合がある。すなわち、アクターのユニフォーム番号を認識できる可能性が高まる。 By selecting a plurality of action frames in this way, even if an actor's uniform number cannot be recognized in one action frame, the actor's uniform number may be recognized in other action frames. That is, the possibility of recognizing the actor's uniform number increases.

また、このように、2フレーム以上離れている動画フレーム201をアクションフレームとして選択することにより、仮に1つのアクションフレームにおいてアクターのユニフォーム番号が認識できなかったとしても、他のアクションフレームではアクターの姿勢が変化しており、アクターのユニフォーム番号を認識できる場合がある。すなわち、アクターのユニフォーム番号を認識できる可能性が高まる。 In this way, by selecting the moving image frame 201 that is separated by two frames or more as an action frame, even if the actor's uniform number cannot be recognized in one action frame, the posture of the actor can be recognized in the other action frames. has changed and may recognize the actor's uniform number. That is, the possibility of recognizing the actor's uniform number increases.

なお、アクションフレームとして選択される動画フレームを2フレーム以上離すことは、あくまでも一例に過ぎない。アクターの姿勢が変化しており、かつ、アクターが撮影されている可能性の高いフレームを複数抽出することができるのであれば、3フレーム以上離れた動画フレーム201または1フレームしか離れていない動画フレーム201を、アクションフレームとして抽出してもよい。ただし、アクションフレーム時刻Tから離れ過ぎると、アクションを行ったアクターが動画フレーム201から外れてしまう可能性が高まる。したがって、例えば、60fpsの動画に対応する動画フレーム201の場合、フレームを離す間隔は、10フレーム程度を上限とすることが好ましい。 It should be noted that separating the moving image frames selected as action frames by two frames or more is merely an example. If it is possible to extract a plurality of frames in which the posture of the actor has changed and the actor is highly likely to be filmed, the video frame 201 that is three or more frames away or the video frame that is only one frame away 201 may be extracted as an action frame. However, if the action frame time T is too far away, the actor who performed the action is more likely to be out of the video frame 201 . Therefore, for example, in the case of the moving image frame 201 corresponding to the moving image of 60 fps, it is preferable that the upper limit of the frame interval is about 10 frames.

また、アクションフレーム選択部104は、動画フレームの元となる動画のフレームレートの高低に応じて、アクションフレーム時刻Tから何フレーム離れている動画フレーム201を、アクションフレームとして抽出するかを決定してもよい。例えば、60fpsの2フレームは30fpsの1フレームに相当するので、アクションフレーム選択部104は、60fpsの場合は2フレーム離れた動画フレーム201を、30fpsの場合は1フレーム離れた動画フレーム201を選択する。これにより、fpsが異なっていても同程度の実時間に対応する動画フレーム201をアクションフレームとして抽出できる。 Also, the action frame selection unit 104 determines how many frames of the moving image frame 201 separated from the action frame time T are to be extracted as the action frame according to the frame rate of the moving image that is the source of the moving image frame. good too. For example, two frames at 60 fps correspond to one frame at 30 fps, so the action frame selection unit 104 selects the video frame 201 that is two frames away for 60 fps, and the video frame 201 that is one frame away for 30 fps. . As a result, moving image frames 201 corresponding to approximately the same real time can be extracted as action frames even if the fps are different.

また、アクションフレーム選択部104は、アクション判定部103が判定したアクションの種類に応じて、何フレーム以上離れている動画フレーム201を、アクションフレームとして選択するかを切り替えてもよい。球技では様々なアクションが行われるため、アクターの姿勢の変わり易さはアクションによって異なる。そのため、姿勢が大きく変わるアクションについて選択されたアクションフレーム同士が離れ過ぎていると、アクターが撮影されていない動画フレーム201が、アクションフレームとして選択されるおそれがある。一方、姿勢が変わりにくいアクションについて選択されたアクションフレーム同士が近すぎると、ほぼ同じ姿勢のアクターが撮影されている動画フレーム201が、アクションフレームとして選択されてしまい、全てのアクションフレームにおいてユニフォーム番号が認識できないおそれがある。そこで、アクションフレーム選択部104は、アクターの姿勢の変化が大きいアクションほど、アクションフレーム時刻Tに近い動画フレーム201を、アクションフレームとして選択し、アクターの姿勢の変化が小さいアクションほど、アクションフレーム時刻Tから離れている動画フレーム201を、アクションフレームとして選択する。これにより、上記のような問題を軽減できる。 Also, the action frame selection unit 104 may switch whether or not to select the moving image frame 201 separated by how many frames or more as the action frame according to the type of action determined by the action determination unit 103 . Since various actions are performed in ball games, the ease with which an actor's posture changes depends on the action. Therefore, if the action frames selected for an action that greatly changes the posture are too far apart from each other, the moving image frame 201 in which the actor is not captured may be selected as the action frame. On the other hand, if the action frames selected for an action whose posture is difficult to change are too close to each other, the moving image frame 201 in which the actor in almost the same posture is shot will be selected as the action frame, and all the action frames will have uniform numbers. It may not be recognized. Therefore, the action frame selection unit 104 selects a video frame 201 closer to the action frame time T as an action frame for an action with a larger change in the actor's posture, and selects a video frame 201 closer to the action frame time T for an action with a smaller change in the actor's posture. A video frame 201 away from is selected as an action frame. As a result, the above problems can be alleviated.

また、球技映像解析装置100は、何フレーム以上離れている動画フレーム201をアクションフレームとして選択すべきかの設定を、ユーザから手動で受け付けても良い。同じアクションであっても、アクターの姿勢の変化の大きさを、自動で完全に予想することは難しいため、ユーザの判断によってアクションフレームの選択基準を変更できることは、有益である。 Also, the ball game video analysis apparatus 100 may manually accept a setting from the user as to whether the moving image frame 201 separated by more than one frame should be selected as an action frame. Even for the same action, it is difficult to automatically and completely predict the degree of change in the actor's posture. Therefore, it is useful to be able to change the action frame selection criteria according to the user's judgment.

なお、アクションフレーム選択部104が、アクションフレーム時刻Tよりも前方又は後方のフレーム時刻に対応する動画フレーム201をアクションフレームとして選択する処理を行わない構成であったとしても、本実施の形態は実現可能である。また、アクションフレーム選択部104は、より多くの動画フレーム201をアクションフレームとして選択しても良いし、より少ない動画フレーム201をアクションフレームとして選択しても良い。また、アクションフレーム選択部104は、アクションフレーム時刻Tよりも前方及び後方のフレーム時刻から均等に動画フレームを選択するのではなく、前方又は後方の一方のフレーム時刻のみに対応するアクションフレームを選択してもよい。 Note that even if the action frame selection unit 104 does not select the moving image frame 201 corresponding to the frame time before or after the action frame time T as the action frame, the present embodiment can be realized. It is possible. Also, the action frame selection unit 104 may select more video frames 201 as action frames, or may select fewer video frames 201 as action frames. In addition, the action frame selection unit 104 does not evenly select moving image frames from the frame times before and after the action frame time T, but selects action frames corresponding to only one frame time before or after the action frame time T. may

<検出領域設定部の詳細>
次に、検出領域設定部105の詳細について説明する。
<Details of the detection area setting part>
Next, details of the detection area setting unit 105 will be described.

検出領域設定部105は、アクションフレーム選択部104によって選択された各アクションフレームに対して、アクションフレーム時刻Tにおけるボールの3次元位置に応じた検出領域を設定する。次に、図4及び図5を参照しながら、バレーボールにおける検出領域の設定について説明する。 Detection region setting unit 105 sets a detection region according to the three-dimensional position of the ball at action frame time T for each action frame selected by action frame selection unit 104 . Next, the setting of detection areas in volleyball will be described with reference to FIGS. 4 and 5. FIG.

検出領域設定部105は、アクションフレーム時刻Tにおけるボールの座標z(高さ)が所定の閾値(例えば2m)以上である場合、図4に示すように、ボールの画像301Aが検出領域300Aの上辺(上端)中央に位置するように、アクションフレームに対して検出領域300Aを設定する。ボールの座標z(高さ)が所定の閾値以上の場合、ボールの下にアクターが存在する可能性が高いからである。なお、検出領域300Aは、ボールの画像301Aが厳密な上辺中央から1~数ピクセルずれた位置に設定されても良い。本明細書における「上辺中央」は、このような位置も含むものとする。 When the coordinate z (height) of the ball at the action frame time T is equal to or greater than a predetermined threshold value (for example, 2 m), the detection region setting unit 105 sets the ball image 301A to the upper side of the detection region 300A as shown in FIG. (Upper end) A detection area 300A is set for the action frame so as to be positioned in the center. This is because when the coordinate z (height) of the ball is equal to or greater than a predetermined threshold, there is a high possibility that an actor exists under the ball. Note that the detection area 300A may be set at a position where the ball image 301A is shifted from the exact center of the upper side by one to several pixels. The "center of the upper side" in this specification includes such a position.

一方、検出領域設定部105は、アクションフレーム時刻Tにおけるボールの座標z(高さ)が所定の閾値(例えば2m)未満である場合、図5に示すように、ボールの画像301Bが検出領域300Bの中心に位置するように、アクションフレームに対して検出領域300Bを設定する。ボールの座標z(高さ)が所定の閾値未満の場合、ボールの近傍にアクターが存在する可能性が高いからである。なお、検出領域300Bは、ボールの画像301Bが厳密な中心から1~数ピクセルずれた位置に設定されても良い。本明細書における「中心」は、このような位置も含むものとする。 On the other hand, when the coordinate z (height) of the ball at the action frame time T is less than a predetermined threshold value (for example, 2 m), the detection area setting unit 105 changes the ball image 301B to the detection area 300B as shown in FIG. A detection area 300B is set with respect to the action frame so as to be positioned at the center of . This is because when the coordinate z (height) of the ball is less than a predetermined threshold, there is a high possibility that the actor exists in the vicinity of the ball. Note that the detection area 300B may be set at a position shifted from the exact center of the ball image 301B by one to several pixels. The "center" in this specification shall also include such a position.

このように、検出領域設定部105において検出領域300を設定し、選手検出部106において検出領域300内からアクター領域400を検出することにより、アクションフレーム全体からアクター領域を検出するよりも、処理負荷が低減し、延いては処理時間が短縮する。これにより、球技映像解析装置100は、ほぼリアルタイムでアクターのユニフォーム番号を認識でき得る。 In this way, by setting the detection area 300 in the detection area setting unit 105 and detecting the actor area 400 from within the detection area 300 in the player detection unit 106, the processing load can be reduced rather than detecting the actor area from the entire action frame. is reduced, which in turn shortens the processing time. As a result, the ball game video analysis apparatus 100 can recognize the actor's uniform number almost in real time.

なお、検出領域300のサイズは、競技中の選手がカメラ3に最も近づいた場合に当該選手が動画フレームに占めるサイズよりも、少し大きいことが好ましい。競技中の選手は、足を大きく開いたり、スライディングしたりなど、多様な姿勢をとり、また、フレーム間における移動距離も大きいためである。 It should be noted that the size of the detection area 300 is preferably slightly larger than the size occupied by the player in the video frame when the player is closest to the camera 3 during the competition. This is because athletes during the competition take various postures, such as opening their legs wide and sliding, and the movement distance between frames is large.

<選手検出部の詳細>
次に、選手検出部106の詳細について説明する。
<Details of player detection unit>
Next, details of the player detection unit 106 will be described.

まず、選手検出部106は、各検出領域300内から、選手(人物)が撮影されている領域(以下「選手領域」という)を検出する。例えば、選手検出部106は、競技中の複数の選手画像をディープラーニングによって学習させた選手検出用のモデル(ニューラルネットワーク)を用いて、検出領域300内から選手領域を検出する。 First, the player detection unit 106 detects a region in which a player (person) is photographed (hereinafter referred to as “player region”) from each detection region 300 . For example, the player detection unit 106 detects a player region from within the detection region 300 using a player detection model (neural network) obtained by learning a plurality of player images during a game by deep learning.

次に、選手検出部106は、その検出した選手領域の中から、アクターが撮影されている選手領域を、アクター領域として選択する。例えば、選手検出部106は、検出した選手領域が1つである場合、当該選手領域をアクター領域400として選択し、検出した選手領域が複数である場合、次の(A1)及び(A2)によって、1つの選手領域をアクター領域400として選択する。 Next, the player detection unit 106 selects a player area in which the actor is photographed from the detected player areas as an actor area. For example, if one player area is detected, the player detection unit 106 selects the player area as the actor area 400, and if there are multiple detected player areas, , select one player area as the actor area 400 .

(A1)複数の選手領域を、アクションフレーム時刻Tのアクションフレームから検出した場合、選手検出部106は、3次元空間上において、アクションフレーム時刻Tにおけるボールの3次元位置と最も近い選手領域を、アクター領域400として選択する。 (A1) When a plurality of player regions are detected from the action frame at action frame time T, the player detection unit 106 selects the player region closest to the three-dimensional position of the ball at action frame time T in the three-dimensional space as Actor region 400 is selected.

(A2)複数の選手領域を、アクションフレーム時刻Tの前方(例えばフレーム時刻T-3)又は後方(例えばフレーム時刻T+3)のアクションフレームから検出した場合、3次元空間上において、上記(A1)で選択したアクター領域400と最も近い選手領域を、アクター領域400として選択する (A2) When a plurality of player areas are detected from an action frame before (eg, frame time T−3) or after (eg, frame time T+3) action frame time T, in the three-dimensional space, the above (A1) Select the player area closest to the selected actor area 400 as the actor area 400

なお、選手検出部106は、アクター領域400におけるアクターの姿勢を推定し、カメラ3に背中を向けている姿勢と推定した場合、当該アクター領域400を残し、他の姿勢と推定した場合、当該アクター領域400を破棄してもよい。これにより、ユニフォーム番号500が撮影されているアクター領域400が残り、ユニフォーム番号500が撮影されていないアクター領域400が破棄されるので、番号認識部107における番号の誤認識が低減する。 Note that the player detection unit 106 estimates the posture of the actor in the actor region 400, and leaves the actor region 400 when it is estimated that the posture is facing the camera 3. Region 400 may be discarded. As a result, the actor regions 400 in which the uniform number 500 is photographed remain, and the actor regions 400 in which the uniform number 500 is not photographed are discarded.

<<同一選手判定>>
なお、選手検出部106は、上記のように各アクションフレームから検出したアクター領域400について、それらのアクター領域400が同一の選手のものであるか否かを判定してもよい。以下、この判定処理を「同一選手判定処理」と呼ぶ。
<<Same Player Judgment>>
Note that the player detection unit 106 may determine whether the actor regions 400 detected from each action frame as described above belong to the same player. Hereinafter, this determination process will be referred to as "same player determination process".

次に、図6A、図6Bを参照しながら、同一選手判定処理の一例について説明する。図6Aは、同一選手と判定される場合の図であり、図6Bは、異なる選手と判定される場合の図である。 Next, an example of same-player determination processing will be described with reference to FIGS. 6A and 6B. FIG. 6A is a diagram showing a case where the players are determined to be the same player, and FIG. 6B is a diagram showing a case where the players are determined to be different players.

まず、選手検出部106は、図6Aに示すように、カメラ3Aの位置から、当該カメラ3Aがフレーム時刻tに撮影したアクションフレームから検出したアクター領域400Cの上辺中央401Aの位置へ延びるベクトル線402Aを算出する。同様に、選手検出部106は、図6Aに示すように、カメラ3Bの位置から、当該カメラ3Bがフレーム時刻tに撮影したアクションフレームから検出したアクター領域400Dの上辺中央401Bの位置へ延びるベクトル線402Bを算出する。 First, as shown in FIG. 6A, the player detection unit 106 detects a vector line 402A extending from the position of the camera 3A to the position of the upper side center 401A of the actor region 400C detected from the action frame captured by the camera 3A at frame time t. Calculate Similarly, as shown in FIG. 6A, the player detection unit 106 detects a vector line extending from the position of the camera 3B to the position of the upper side center 401B of the actor region 400D detected from the action frame captured by the camera 3B at frame time t. 402B is calculated.

次に、選手検出部106は、ベクトル線402Aとベクトル線402Bとの最小距離403Aが所定の閾値未満である場合、アクター領域400Cとアクター領域400Dとは同一の選手のものであると判定し、当該最小距離403Aが所定の閾値以上である場合、アクター領域400Cとアクター領域400Dとは異なる選手のものであると判定する。例えば、図6Aの場合、最小距離403Aが所定の閾値未満であるので、選手検出部106は、アクター領域400Cとアクター領域400Dとは同一の選手のものであると判定する。一方、図6Bの場合、最小距離403Bが所定の閾値以上であるので、選手検出部106は、アクター領域400Dとアクター領域400Eとは異なる選手のものであると判定する。 Next, when the minimum distance 403A between the vector line 402A and the vector line 402B is less than a predetermined threshold, the player detection unit 106 determines that the actor region 400C and the actor region 400D belong to the same player, When the minimum distance 403A is equal to or greater than a predetermined threshold, it is determined that the actor areas 400C and 400D belong to different players. For example, in the case of FIG. 6A, since the minimum distance 403A is less than the predetermined threshold, the player detection unit 106 determines that the actor areas 400C and 400D belong to the same player. On the other hand, in the case of FIG. 6B, since the minimum distance 403B is equal to or greater than the predetermined threshold, the player detection unit 106 determines that the actor areas 400D and 400E belong to different players.

この判定について、以下、より詳細に説明する。 This determination will be described in more detail below.

同一の選手の同一の部位は、同一の3次元座標に存在する。そのため、図6Aのように、カメラ3A、3Bの3次元座標が異なっていたとしても、ベクトル線402Aと402Bは理想的には一点(同一の選手の同一の部位)で交わることになる。アクター領域400Cおよび400Dの抽出の精度によっては、多少ベクトル線がずれることはあり得るものの、同一の人物が検出されている限り、ベクトル線402Aと402Bとが極端に離れる可能性は低い。そこで、選手検出部106は、ベクトル線402Aと402Bの最短距離が閾値未満である場合には、アクター領域400Cとアクター領域400Dとは同一の選手のものであると判定する。 The same part of the same player exists on the same three-dimensional coordinates. Therefore, as shown in FIG. 6A, even if the three-dimensional coordinates of the cameras 3A and 3B are different, the vector lines 402A and 402B ideally intersect at one point (same part of the same player). Although the vector lines may deviate slightly depending on the accuracy of extraction of the actor regions 400C and 400D, the possibility of the vector lines 402A and 402B being extremely separated is low as long as the same person is detected. Therefore, when the shortest distance between vector lines 402A and 402B is less than a threshold, player detection unit 106 determines that actor region 400C and actor region 400D belong to the same player.

一方、図6Bのように、アクター領域400Dと400Eで異なる選手が検出されている場合、同一であるかのように見える部位(401Bと401C)は3次元空間内では明らかに異なる座標に存在する。その結果、ベクトル線402Bと402Cは互いにねじれの位置を通過し、ベクトル線間の最小距離403Bは、同一の選手が検出されている場合よりも明らかに大きくなる。そこで、選手検出部106は、ベクトル線402Bと402Cの最短距離が閾値以上である場合には、アクター領域400Dとアクター領域400Eとは異なる選手のものであると判定する。例えば、図6Bではアクター領域400Dではユニフォーム番号「13」の選手が検出され、アクター領域400Eではユニフォーム番号「13」の手前に存在し、より背の高い「33」の選手が検出されている。この場合、ベクトル線402Cはベクトル線402BよりもZ軸方向において明らかに高い位置を通過する。そのため、ベクトル線402Bとベクトル線402Cの間の最短距離は大きくなり、アクター領域400Dとアクター領域400Eとで異なる選手が検出されていることが分かる。 On the other hand, as shown in FIG. 6B, when different players are detected in actor regions 400D and 400E, parts (401B and 401C) that appear to be the same exist at clearly different coordinates in the three-dimensional space. . As a result, vector lines 402B and 402C pass through a position that is skewed to each other, and the minimum distance 403B between vector lines is clearly greater than if the same player were being detected. Therefore, when the shortest distance between the vector lines 402B and 402C is equal to or greater than a threshold, the player detection unit 106 determines that the actor regions 400D and 400E belong to different players. For example, in FIG. 6B, a player with uniform number "13" is detected in actor area 400D, and a taller player with uniform number "33" is detected in actor area 400E. In this case, the vector line 402C passes through a position clearly higher in the Z-axis direction than the vector line 402B. Therefore, the shortest distance between the vector line 402B and the vector line 402C increases, indicating that different players are detected in the actor areas 400D and 400E.

なお、選手検出部106は、同一の選手のものであると判定したアクター領域400を残し、異なる選手のものであると判定したアクター領域400を破棄してもよい。これにより、異なる選手がアクター領域400として誤検出される可能性が低減するので、番号認識部107において、互いに異なるユニフォーム番号500が認識される可能性が低減する。すなわち、アクターのユニフォーム番号500の認識精度が向上する。 Note that the player detection unit 106 may leave the actor regions 400 determined to belong to the same player and discard the actor regions 400 determined to belong to a different player. This reduces the possibility that a different player is erroneously detected as the actor area 400, so that the number recognition unit 107 reduces the possibility that different uniform numbers 500 are recognized. That is, the recognition accuracy of the uniform number 500 of the actor is improved.

<番号認識部の詳細>
次に、番号認識部107の詳細について説明する。
<Details of the number recognition part>
Next, the details of the number recognition unit 107 will be described.

番号認識部107は、各アクター領域400から、アクターのユニフォーム番号500を認識する。例えば、番号認識部107は、複数の選手のユニフォームの数字画像をディープラーニングによって学習させたユニフォーム番号検出用のモデル(ニューラルネットワーク)を用いて、アクター領域400内から、アクターのユニフォーム番号500を認識する。 The number recognition unit 107 recognizes the actor's uniform number 500 from each actor area 400 . For example, the number recognition unit 107 recognizes the actor's uniform number 500 from within the actor area 400 using a uniform number detection model (neural network) that has been trained by deep learning on the number images of the uniforms of a plurality of players. do.

なお、番号認識部107は、各アクター領域400から認識したユニフォーム番号500が一致しない場合、多数決によってアクターのユニフォーム番号500を決定してよい。例えば、6つのアクター領域400から認識したユニフォーム番号500のうち、4つのユニフォーム番号が「13」、2つのユニフォーム番号が「10」であった場合、番号認識部107は、一致した数が4つと最も多いユニフォーム番号「13」を、アクターのユニフォーム番号500に決定する。 If the uniform numbers 500 recognized from each actor area 400 do not match, the number recognition unit 107 may determine the actor's uniform number 500 by majority vote. For example, if four of the uniform numbers 500 recognized from the six actor areas 400 are "13" and two are "10", the number recognition unit 107 determines that the number of matches is four. The uniform number "13" with the largest number is determined as the uniform number 500 of the actor.

また、番号認識部107は、まず、アクター領域400から番号の画像領域を検出し、次に、その検出した画像領域から番号自体を認識する、という2段階で処理を行ってもよい。 Further, the number recognition unit 107 may perform processing in two steps, first detecting the image area of the number from the actor area 400 and then recognizing the number itself from the detected image area.

また、番号認識部107は、各アクター領域400について、認識されたユニフォーム番号の候補の確からしさを示す尤度(例えば0以上~1以下の値)を算出し、尤度を加算した結果が最も大きな候補を、アクターのユニフォーム番号と決定しても良い。上述した多数決の場合、認識した番号の確からしさは、決定に影響を与えないため、1つのアクター領域400から認識されたユニフォーム番号「16」が90%正しいものであり、2つのアクター領域400から認識されたユニフォーム番号「10」が30%正しいものであったとしても、正しいユニフォーム番号は、「10」と決定されてしまう。一方、このように尤度を考慮した決定を行うことによって、認識した番号の確からしさを、番号の決定に反映することができる。 In addition, the number recognition unit 107 calculates the likelihood (for example, a value of 0 or more to 1 or less) indicating the likelihood of the recognized uniform number candidate for each actor region 400, and the result of adding the likelihood is the highest. A large candidate may be determined to be the actor's uniform number. In the majority case described above, the likelihood of the number recognized does not affect the decision, so the uniform number "16" recognized from one actor region 400 is 90% correct, and from two actor regions 400 Even if the recognized uniform number "10" is 30% correct, the correct uniform number is determined to be "10". On the other hand, by making a decision taking likelihood into consideration in this way, the likelihood of the recognized number can be reflected in the decision of the number.

<処理フロー>
次に、球技映像解析装置100における処理フローについて説明する。処理フローは、アクション判定処理と、アクター認識処理とに大別される。
<Processing flow>
Next, a processing flow in the ball game video analysis apparatus 100 will be described. The processing flow is roughly divided into action determination processing and actor recognition processing.

<<アクション判定処理>>
次に、図7に示すフローチャートを参照しながら、アクション判定処理について説明する。
<<Action Judgment Processing>>
Next, action determination processing will be described with reference to the flowchart shown in FIG.

映像受信部101は、カメラ3A~3Dから送信される動画フレーム201を受信し、記憶部109に格納する(S101)。軌跡算出部102は、記憶部109に格納された複数の動画フレーム201から、各フレーム時刻におけるボールの3次元位置及び速度を算出し、ボール軌跡情報202を生成する(S102)。 The video receiving unit 101 receives moving image frames 201 transmitted from the cameras 3A to 3D and stores them in the storage unit 109 (S101). The trajectory calculation unit 102 calculates the three-dimensional position and velocity of the ball at each frame time from the plurality of moving image frames 201 stored in the storage unit 109, and generates ball trajectory information 202 (S102).

アクション判定部103は、ボール軌跡情報202から、ボールに対するアクションが発生したか否かを判定する(S103)。アクションが未発生と判定した場合(S103:NO)、フローはS101に戻る。アクションが発生したと判定した場合(S103:YES)、アクション判定部103は、アクション情報203を生成し(S104)、アクター認識処理のスレッドを生成する(S105)。そして、フローは、S101に戻る。 The action determination unit 103 determines whether or not an action has occurred with respect to the ball from the ball trajectory information 202 (S103). If it is determined that no action has occurred (S103: NO), the flow returns to S101. When it is determined that an action has occurred (S103: YES), the action determination unit 103 generates action information 203 (S104) and generates a thread for actor recognition processing (S105). Then the flow returns to S101.

<<アクター認識処理>>
次に、図8に示すフローチャートを参照しながら、アクター認識処理について説明する。当該アクター認識処理は、図7のS105において生成されるスレッドの処理に相当する。
<<Actor recognition processing>>
Next, the actor recognition processing will be described with reference to the flowchart shown in FIG. The actor recognition process corresponds to the thread process generated in S105 of FIG.

アクションフレーム選択部104は、アクション情報203に含まれるボールの3次元位置と、カメラ3の位置とに基づいて、少なくとも2つのカメラ3を選択する(S201)。 The action frame selection unit 104 selects at least two cameras 3 based on the three-dimensional position of the ball and the positions of the cameras 3 included in the action information 203 (S201).

次に、アクションフレーム選択部104は、S201で選択した各カメラ3の動画フレーム201から、アクションフレーム時刻に対応するアクションフレームと、当該アクションフレーム時刻の前後のフレーム時刻に対応するアクションフレームとを選択する(S202)。 Next, the action frame selection unit 104 selects an action frame corresponding to the action frame time and action frames corresponding to frame times before and after the action frame time from the video frames 201 of each camera 3 selected in S201. (S202).

次に、検出領域設定部105は、S202で選択された各アクションフレームに対して、検出領域300を設定する(S203)。 Next, the detection area setting unit 105 sets the detection area 300 for each action frame selected in S202 (S203).

次に、選手検出部106は、S203で設定された各検出領域300から、選手領域を検出する(S204)。そして、選手検出部106は、S204で検出した各選手領域の中から、アクター領域400を選択する(S205)。そして、選手検出部106は、S201で選択された各カメラ3のアクター領域400を用いて、同一選手判定処理を行う(S206)。なお、当該同一選手判定処理は省略されてもよい。 Next, the player detection unit 106 detects a player area from each detection area 300 set in S203 (S204). Then, the player detection unit 106 selects the actor area 400 from among the player areas detected in S204 (S205). Then, the player detection unit 106 uses the actor area 400 of each camera 3 selected in S201 to perform same player determination processing (S206). Note that the same player determination process may be omitted.

次に、番号認識部107は、各アクター領域400からユニフォーム番号500を認識し、アクターのユニフォーム番号500を決定する(S207)。なお、番号認識部107は、認識したユニフォーム番号500が一致しない場合、上述の通り、最も多いユニフォーム番号500をアクターのユニフォーム番号500に決定する。 Next, the number recognition unit 107 recognizes the uniform number 500 from each actor area 400 and determines the uniform number 500 of the actor (S207). When the recognized uniform numbers 500 do not match, the number recognition unit 107 determines the uniform number 500 having the largest number as the uniform number 500 of the actor, as described above.

次に、番号認識部107は、アクションフレーム時刻Tと、S207で検出したアクターのユニフォーム番号500とを対応付けたアクター情報204を生成し、記憶部109に格納する(S208)。そして、フローは、処理を終了する(END)。 Next, the number recognition unit 107 generates actor information 204 that associates the action frame time T with the uniform number 500 of the actor detected in S207, and stores it in the storage unit 109 (S208). Then, the flow ends (END).

このように、球技映像解析装置100は、アクション判定処理を繰り返し実行し、アクションが発生したと判定した場合に、アクター認識処理のスレッドを生成し、アクターのユニフォーム番号500を認識する。これにより、アクター認識処理は、ボールに対するアクションが発生した場合にのみ実行されるので、球技映像解析装置100の処理負荷を低減できる。 In this way, the ball game video analysis apparatus 100 repeatedly executes action determination processing, and when it is determined that an action has occurred, generates a thread for actor recognition processing and recognizes the uniform number 500 of the actor. As a result, the actor recognition process is executed only when an action has occurred with respect to the ball, so the processing load on the ball game video analysis apparatus 100 can be reduced.

<実施の形態1のまとめ>
実施の形態1では、球技映像解析装置100は、カメラ3A~3Dから動画フレーム201を受信し、それら受信した複数の動画フレーム201から、ボールの軌跡を算出し、その算出したボールの軌跡変化に基づいて、ボールに対して選手によるアクションが発生したか否かを判定し、アクションが発生した場合、複数の動画フレーム201の中から、当該アクションが発生したタイミングにおける動画フレームをアクションフレームとして選択し、当該アクションフレームからアクションを行った選手(アクター)を、例えばユニフォーム番号500によって認識する。
<Summary of Embodiment 1>
In Embodiment 1, ball game video analysis apparatus 100 receives moving image frames 201 from cameras 3A to 3D, calculates the trajectory of the ball from the plurality of received moving image frames 201, and calculates changes in the calculated trajectory of the ball. Based on this, it is determined whether or not an action has occurred by the player with respect to the ball, and if an action has occurred, the video frame at the timing when the action has occurred is selected from among the plurality of video frames 201 as an action frame. , the player (actor) who performed the action from the action frame is recognized by uniform number 500, for example.

これにより、球技を撮影した動画フレームに基づいて、ボールに対してアクションを行った選手(アクター)を特定できる。 This makes it possible to identify the player (actor) who performed the action on the ball based on the moving image frame of the ball game.

また、実施の形態1では、上記アクションフレームに対して、アクションが発生したタイミングにおけるボールの3次元位置に応じた検出領域300を設定し、その検出領域300からアクターが撮影されているアクター領域400を検出し、そのアクター領域400から、アクターを認識してもよい。 Further, in Embodiment 1, a detection area 300 corresponding to the three-dimensional position of the ball at the timing when the action occurs is set in the action frame, and an actor area 400 in which the actor is photographed from the detection area 300 is set. may be detected and actors may be recognized from the actor domain 400 .

これにより、アクターの検出処理が、検出領域300内に限定して行われ、ユニフォーム番号500の認識処理が、アクター領域400内に限定して行われる。したがって、動画フレーム全体に対してアクターの検出処理及びユニフォーム番号の認識処理を行う場合と比較して、処理負荷を低減できる。よって、球技映像解析装置100は、ほぼリアルタイムでアクターを認識でき得る。 As a result, the actor detection process is performed only within the detection area 300 , and the uniform number 500 recognition process is performed only within the actor area 400 . Therefore, the processing load can be reduced compared to the case where the actor detection process and the uniform number recognition process are performed on the entire moving image frame. Therefore, the ball game video analysis apparatus 100 can recognize the actor almost in real time.

(実施の形態2)
実施の形態2では、実施の形態1で説明した球技映像解析装置100が生成したプレイ情報205を利用して選手のプレイを分析するプレイ分析システムについて説明する。なお、実施の形態1と共通の構成要素については、同じ参照符号を付与して説明を省略する。
(Embodiment 2)
Embodiment 2 describes a play analysis system that analyzes a player's play using the play information 205 generated by the ball game video analysis apparatus 100 described in Embodiment 1. FIG. Constituent elements common to those in the first embodiment are denoted by the same reference numerals, and descriptions thereof are omitted.

図9は、プレイ分析システム2の構成例を示す。プレイ分析システム2は、複数のカメラ3A,3B,3C,3Dと、球技映像解析装置100と、プレイ分析装置1000と、プレイ情報DB1100と、プレイ情報管理装置1200と、表示装置1300と、入力装置1400とを備える。カメラ3A~3D及び球技映像解析装置100については、実施の形態1にて説明した通りである。 FIG. 9 shows a configuration example of the play analysis system 2. As shown in FIG. The play analysis system 2 includes a plurality of cameras 3A, 3B, 3C, 3D, a ball game video analysis device 100, a play analysis device 1000, a play information DB 1100, a play information management device 1200, a display device 1300, and an input device. 1400. The cameras 3A to 3D and the ball game video analysis device 100 are as described in the first embodiment.

球技映像解析装置100と、プレイ分析装置1000と、プレイ情報管理装置1200とは、有線又は無線のネットワークで接続されている。また、プレイ情報管理装置1200とプレイ情報DB1100とは所定のケーブルで接続されている。なお、プレイ情報DB1100は、プレイ情報管理装置1200内の記憶装置(図示せず)に内蔵されてもよい。また、プレイ分析装置1000と、表示装置1300及び入力装置1400とは、所定のケーブル又は無線I/Fで接続されている。 The ball game video analysis device 100, the play analysis device 1000, and the play information management device 1200 are connected via a wired or wireless network. Also, the play information management device 1200 and the play information DB 1100 are connected by a predetermined cable. Note that the play information DB 1100 may be built in a storage device (not shown) within the play information management device 1200 . Also, the play analysis device 1000, the display device 1300 and the input device 1400 are connected by a predetermined cable or wireless I/F.

プレイ情報DB1100は、球技映像解析装置100にて生成されたプレイ情報205をデータベースとして管理する。プレイ情報管理装置1200は、球技映像解析装置100にて生成されたプレイ情報205を、プレイ情報DB1100に登録する。また、プレイ情報管理装置1200は、プレイ分析装置1000からの指示に基づき、プレイ情報DB1100からプレイ情報205を取得したり、プレイ情報DB1100内のプレイ情報205を修正したりする。 The play information DB 1100 manages the play information 205 generated by the ball game video analysis device 100 as a database. The play information management device 1200 registers the play information 205 generated by the ball game video analysis device 100 in the play information DB 1100 . Also, the play information management device 1200 acquires the play information 205 from the play information DB 1100 or corrects the play information 205 in the play information DB 1100 based on instructions from the play analysis device 1000 .

プレイ分析装置1000は、プレイ情報DB1100内のプレイ情報205に基づいて、球技のプレイの分析に関するUI2000(図11参照)を生成し、表示装置1300(例えば液晶ディスプレイ)に表示する。また、プレイ分析装置1000は、入力装置1400(例えばマウス等)を通じてUI2000に対して行われた操作に基づいて、プレイ情報205に関する処理を実行する。なお、プレイ分析装置1000と、表示装置1300と、入力装置1400とは、一体型の装置であってもよい。この場合、表示装置1300と入力装置1400とは、例えば、タッチパネルディスプレイのように、入力と表示を兼ねる装置であってもよい。 The play analysis device 1000 generates a UI 2000 (see FIG. 11) relating to ball game play analysis based on the play information 205 in the play information DB 1100, and displays it on the display device 1300 (for example, a liquid crystal display). Also, the play analysis device 1000 executes processing related to the play information 205 based on an operation performed on the UI 2000 through the input device 1400 (for example, a mouse or the like). Note that the play analysis device 1000, the display device 1300, and the input device 1400 may be an integrated device. In this case, the display device 1300 and the input device 1400 may be devices that serve both as input and display, such as touch panel displays.

以下では、球技がバレーボールの場合を例に説明する。しかし、実施の形態2は、バレーボールに限られず、卓球又はバドミントン等、様々な球技に適用可能である。 A case where the ball game is volleyball will be described below as an example. However, Embodiment 2 is not limited to volleyball, and can be applied to various ball games such as table tennis or badminton.

図10は、プレイ分析装置1000の構成例を示す。図11は、プレイ分析装置1000が生成するUI2000の例を示す。 FIG. 10 shows a configuration example of a play analysis device 1000. As shown in FIG. FIG. 11 shows an example of UI 2000 generated by play analysis device 1000 .

プレイ分析装置1000は、UI制御部1001と、映像制御部1002と、プレイ情報制御部1003と、スコア情報制御部1004と、プレイ分析部1005とを有する。 The play analysis device 1000 has a UI control section 1001 , a video control section 1002 , a play information control section 1003 , a score information control section 1004 and a play analysis section 1005 .

UI制御部1001は、UI2000を生成し、表示装置1300に表示する。また、UI制御部1001は、入力装置1400を通じて、UI2000に対する操作を受け付ける。 A UI control unit 1001 generates a UI 2000 and displays it on the display device 1300 . Also, the UI control unit 1001 receives an operation for the UI 2000 through the input device 1400 .

映像制御部1002は、UI2000上に、球技のプレイ映像2100を表示する。プレイ映像2100は、カメラ3A~3Dが撮影中のリアルタイム映像であってもよいし、過去のプレイの録画映像であってもよい。なお、ユーザからカメラの切替指示を受けた場合、映像制御部1002は、その切替先のカメラによって撮影されたプレイ映像2100を表示する。 The image control unit 1002 displays a ball game play image 2100 on the UI 2000 . The play image 2100 may be a real-time image being captured by the cameras 3A to 3D, or may be a recorded image of past play. Note that when receiving a camera switching instruction from the user, the video control unit 1002 displays the play video 2100 captured by the switching destination camera.

プレイ情報制御部1003は、1ラリー中に生成されたプレイ情報205の内容を時系列に並べ、プレイ情報リスト2200としてUI2000上に表示する。なお、プレイ情報制御部1003及びプレイ情報リスト2200の詳細については後述する。 The play information control unit 1003 arranges the contents of the play information 205 generated during one rally in chronological order and displays them as a play information list 2200 on the UI 2000 . Details of the play information control unit 1003 and the play information list 2200 will be described later.

スコア情報制御部1004は、スコア情報の内容を時系列に並べ、スコア情報リスト2300としてUI2000上に表示する。1つのスコア情報には、1ラリー後の自分のチームのスコアと相手のチームのスコアとが含まれている。また、1つのスコア情報には、当該ラリー中に生成された1以上のプレイ情報205が対応付けられている。なお、スコア情報制御部1004及びスコア情報リスト2300の詳細については後述する。 The score information control unit 1004 arranges the contents of the score information in chronological order and displays them on the UI 2000 as a score information list 2300 . One piece of score information includes the score of one's own team and the score of the opponent's team after one rally. One piece of score information is associated with one or more pieces of play information 205 generated during the rally. Details of the score information control unit 1004 and the score information list 2300 will be described later.

プレイ分析部1005は、分析対象に選択された選手のプレイの分析結果を示す画像であるプレイ分析画像2400(図12参照)を生成し、UI2000上に表示する。なお、プレイ分析部1005の詳細については後述する。 The play analysis unit 1005 generates a play analysis image 2400 (see FIG. 12), which is an image showing the analysis result of the play of the player selected for analysis, and displays it on the UI 2000. FIG. Details of the play analysis unit 1005 will be described later.

<プレイ分析画像>
次に、図12を参照して、トスのプレイ分析画像2400について説明する。トスのプレイ分析画像2400は、分析対象の選手(典型的にはセッター)のトスのプレイを分析するための画像である。
<Play analysis image>
Next, a toss play analysis image 2400 will be described with reference to FIG. The toss play analysis image 2400 is an image for analyzing the toss play of the analysis target player (typically the setter).

トスのプレイ分析画像2400は、対象選手側のコートのフロントゾーンを基準とする。なお、ユーザは、カーソルボタン2410を操作し、コートに対するプレイ分析画像2400の領域を移動させることができる。 The toss play analysis image 2400 is based on the front zone of the target player's side of the court. Note that the user can operate the cursor button 2410 to move the area of the play analysis image 2400 for the court.

プレイ分析部1005は、プレイ情報DB1100から、アクター番号が分析対象の選手の番号であり、かつ、アクション種別が「トス」であるプレイ情報205を取得する。そして、プレイ分析部1005は、その取得したプレイ情報205のボール座標から、分析対象の選手がトスを行った位置を特定する。 The play analysis unit 1005 acquires from the play information DB 1100 the play information 205 in which the actor number is the number of the player to be analyzed and the action type is "toss". Then, the play analysis unit 1005 identifies the position where the analysis target player performed the toss from the ball coordinates of the acquired play information 205 .

プレイ分析部1005は、トスのプレイ分析画像2400において、対象選手がトスを行った位置に属性画像2401を配置する。属性画像2401は、例えば、円とバーとを含む形状であり、円の色とバーの長さとによって、トスに関する複数の異なる属性情報を視覚的に表現する。トスに関する属性情報には、例えば、トスの種類、トス時のボールの速度、トス時のボールの高さ、及び、トス時のボールの移動距離がある。 The play analysis unit 1005 arranges the attribute image 2401 at the position where the target player performed the toss in the play analysis image 2400 of the toss. The attribute image 2401 has, for example, a shape including a circle and a bar, and visually expresses a plurality of different attribute information regarding the toss by the color of the circle and the length of the bar. The toss-related attribute information includes, for example, the type of toss, the speed of the ball during the toss, the height of the ball during the toss, and the movement distance of the ball during the toss.

・内円2402の色は、トスの種類を示す。例えば、水色が右側へのトス、赤色が後方へのトス、黄色が左側へのトス、桃色がクイック、青色が2アタックを示す。なお、図12では、色の違いを、塗りつぶしパターンの違いで表現している。
・内円2402の領域を除いた外円2403の色は、トス時のボールの速度を示す。例えば、緑色が20km/h以下、黄色が20~25km/h、赤色が25km/h以上を示す。なお、図12では、色の違いを、塗りつぶしパターンの違いで表現している。
・外円2403のサイズ(直径)は、トス時のボールの高さを示す。例えば、小さい外円が2m未満、中程度の外円が2~3m未満、大きい外円が3m以上を示す。
・バー2404の長さは、トス時のボールの移動距離を示す。例えば、長いバーが4m以上、中程度のバーが2~4m未満、短いバーが2m未満を示す。なお、バー2404の長さは、トス時のボールの移動距離に限らず、トスに伴って取得される距離、例えば、トスに連動する動作であるアタック位置のネットからの距離であってもよい。
- The color of the inner circle 2402 indicates the type of toss. For example, light blue indicates a toss to the right, red indicates a toss to the back, yellow indicates a toss to the left, pink indicates a quick, and blue indicates a two-attack. In addition, in FIG. 12, the difference in color is represented by the difference in filling pattern.
- The color of the outer circle 2403 excluding the area of the inner circle 2402 indicates the speed of the ball during the toss. For example, green indicates 20 km/h or less, yellow indicates 20 to 25 km/h, and red indicates 25 km/h or more. In addition, in FIG. 12, the difference in color is represented by the difference in filling pattern.
- The size (diameter) of the outer circle 2403 indicates the height of the ball when tossed. For example, a small outer circle is less than 2 m, a medium outer circle is less than 2-3 m, and a large outer circle is 3 m or more.
- The length of the bar 2404 indicates the distance traveled by the ball during the toss. For example, a long bar is 4 m or more, a medium bar is 2 to less than 4 m, and a short bar is less than 2 m. Note that the length of the bar 2404 is not limited to the distance the ball moves during the toss, but may be the distance acquired along with the toss, for example, the distance from the net of the attack position, which is an action linked to the toss. .

これにより、ユーザは、トスのプレイ分析画像2400から、対象選手のトスのプレイを視覚的に把握及び分析することができる。なお、上述のトスのプレイ分析画像2400の説明は、トス以外のアクションにも適用できる。例えば、内円2402の色がアタックの種類を示し、外円2403の色がアタック時のボールの速度を示し、外円2403のサイズがアタック時のボールの高さを示し、バー2404の長さがアタック時のボールの移動距離を示してもよい。 This allows the user to visually grasp and analyze the toss play of the target player from the toss play analysis image 2400 . Note that the above description of the play analysis image 2400 for toss can also be applied to actions other than toss. For example, the color of the inner circle 2402 indicates the type of attack, the color of the outer circle 2403 indicates the speed of the ball during the attack, the size of the outer circle 2403 indicates the height of the ball during the attack, and the length of the bar 2404. may indicate the distance traveled by the ball when attacking.

なお、トスのプレイ分析画像2400は、ユーザが次の操作を行うことによって表示されてよい。
(ステップS11)ユーザがUI2000上のトス分析ボタン(図示せず)を押下すると、UI制御部1001は、選手のリストを表示する。
(ステップS12)ユーザが、その表示された選手のリストから、トス分析対象の選手を選択する。
(ステップS13)プレイ分析部1005は、その選択された対象選手に関する複数のプレイ情報205を、プレイ情報DB1100から取得する。そして、プレイ分析部1005は、その取得したプレイ情報205から、トスの属性情報を特定し、トスのプレイ分析画像2400を生成する。
(ステップS14)プレイ分析部1005は、UI2000上に、その生成したトスのプレイ分析画像2400を表示する。
Note that the toss play analysis image 2400 may be displayed when the user performs the following operation.
(Step S11) When the user presses a toss analysis button (not shown) on the UI 2000, the UI control unit 1001 displays a player list.
(Step S12) The user selects a toss analysis target player from the displayed list of players.
(Step S<b>13 ) The play analysis unit 1005 acquires a plurality of pieces of play information 205 regarding the selected target player from the play information DB 1100 . Then, the play analysis unit 1005 identifies the toss attribute information from the acquired play information 205 and generates a toss play analysis image 2400 .
(Step S<b>14 ) The play analysis unit 1005 displays the generated play analysis image 2400 of the toss on the UI 2000 .

<プレイ情報リスト>
次に、図13を参照して、プレイ情報リスト2200について説明する。
<Play information list>
Next, the play information list 2200 will be described with reference to FIG.

プレイ情報リスト2200は、上述のとおり、1ラリー中に生成されたプレイ情報205の内容を時系列に並べて表示したものである。プレイ情報リスト2200は、プレイ情報205毎に、再生ボタン2201と、チーム2202と、選手番号2203と、アクション2204とを有する。 As described above, the play information list 2200 displays the contents of the play information 205 generated during one rally arranged in chronological order. The play information list 2200 has a play button 2201 , a team 2202 , a player number 2203 and an action 2204 for each play information 205 .

再生ボタン2201は、当該再生ボタン2201が対応付けられているプレイ情報205に係るプレイ映像2100を再生するためのボタンである。ユーザが再生ボタン2201の押下すると、映像制御部1002は、当該再生ボタン2201に対応するプレイ情報205のフレーム時刻の近傍のプレイ映像2100を再生する。これにより、ユーザは、プレイ情報205に対応する選手のプレイを簡単に確認することができる。 The play button 2201 is a button for playing back the play video 2100 associated with the play information 205 associated with the play button 2201 . When the user presses the play button 2201 , the video control unit 1002 plays the play video 2100 near the frame time of the play information 205 corresponding to the play button 2201 . Thereby, the user can easily check the play of the player corresponding to the play information 205 .

チーム2202は、アクション2204を行った選手が、自分のチームと相手のチームとの何れであるかを示す。例えば、「a」は自分のチーム、「e」は相手のチームを表す。また、チーム2202はボタンになっており、プレイ情報制御部1003は、当該チーム2202が押下された場合、修正用に「a」と「e」のボタンを表示する。 Team 2202 indicates whether the player who performed action 2204 is his team or the opponent's team. For example, "a" represents your team and "e" represents the opponent's team. Also, the team 2202 is a button, and the play information control unit 1003 displays buttons "a" and "e" for correction when the team 2202 is pressed.

選手番号2203は、アクション2204を行った選手の番号(背番号)を示す。また、選手番号2203はボタンになっており、プレイ情報制御部1003は、当該選手番号2203が押下された場合、選手番号の修正用のボタンを表示する。選手番号の修正用のボタンは、数字を入力するためのボタンであってよい。或いは、選手番号の修正用のボタンは、チームに登録されている選手の番号のリストであってもよい。 The player number 2203 indicates the number (uniform number) of the player who performed the action 2204 . Also, the player number 2203 is a button, and when the player number 2203 is pressed, the play information control unit 1003 displays a button for correcting the player number. The button for correcting the player number may be a button for inputting numbers. Alternatively, the player number correction button may be a list of player numbers registered in the team.

アクション2204は、アクションの種別を示す。例えば、「S」はサーブ、「R」はレセプション、「E」はトス、「A」はアタック、「D」はディグ、「B」はブロックを示す。また、アクション2204はボタンになっており、プレイ情報制御部1003は、当該アクション2204が押下されると、修正用に、「S」、「R」、「E」、「A」、「D」及び「B」のボタンを表示する(図16、図17参照)。 Action 2204 indicates the type of action. For example, "S" for serve, "R" for reception, "E" for toss, "A" for attack, "D" for dig, and "B" for block. Also, the action 2204 is a button, and when the action 2204 is pressed, the play information control unit 1003 selects "S", "R", "E", "A", "D" for correction. and "B" buttons are displayed (see FIGS. 16 and 17).

例えば、図13に示すプレイ情報リスト2200の1行目は、自分のチーム(「a」)の背番号「10」の選手が、レセプション「R」を行ったことを示す。 For example, the first line of the play information list 2200 shown in FIG. 13 indicates that the player with uniform number "10" of his team ("a") held a reception "R".

<スコア情報リスト>
次に、図14を参照して、スコア情報リスト2300について説明する。
<Score information list>
Next, the score information list 2300 will be described with reference to FIG.

スコア情報リスト2300は、上述のとおり、1セットにおける各ラリーに対応するスコア情報の内容を時系列に並べて表示したものである。スコア情報リスト2300は、スコア情報毎に、再生ボタン2301と、スコア2302と、チェックボックス2303とを有する。 As described above, the score information list 2300 displays the contents of the score information corresponding to each rally in one set arranged in chronological order. The score information list 2300 has a play button 2301, a score 2302, and a check box 2303 for each piece of score information.

再生ボタン2301は、当該再生ボタン2301が対応付けられているスコア情報に係るプレイ映像2100を再生するためのボタンである。ユーザが再生ボタン2301の押下すると、映像制御部1002は、当該再生ボタン2301に対応するラリーのプレイ映像2100を再生する。 The play button 2301 is a button for playing back the play video 2100 related to the score information associated with the play button 2301 . When the user presses the play button 2301 , the video control unit 1002 plays the rally play video 2100 corresponding to the play button 2301 .

スコア2302は、ラリー後の自分のチームと相手のチームのスコアを示す。また、スコア2302は選択(クリック)可能になっており、当該スコア2302が選択された場合、スコア情報制御部1004は、当該スコア2302のラリー(スコア情報)に対応付けられているプレイ情報リスト2200を表示する。 A score 2302 indicates the scores of the own team and the opponent's team after the rally. In addition, the score 2302 can be selected (clicked), and when the score 2302 is selected, the score information control unit 1004 displays the play information list 2200 associated with the rally (score information) of the score 2302. display.

チェックボックス2303は、ユーザがスコア単位でラリーに対するチェックをオン及びオフするためのものである。例えば、試合中などのリアルタイム状況では、プレイ情報リスト2200の内容(チーム2202、選手番号2203、アクション2204)に誤りを発見しても、次のラリーがすぐに始まってしまうため、或るラリーを後で再検証(修正)したい場合に備えて、ユーザは、当該ラリーに対応するチェックボックス2303をオン(識別情報の入力)にして、プレイ情報リスト2200の内容が暫定状態にあることを識別できるようにする。これにより、ユーザは、後で、チェックボックス2303をオンにしたラリーをまとめて再検証できる。例えば、スコア情報制御部1004が、ユーザからの指示に応じて、チェックボックス2303がオンになっているラリーのみを限定して表示することにより、ユーザは、効率的に修正作業を行える。また、チェックボックス2303の数は、1つに限られない。例えば、図14に示すように、1つのスコア情報に対して、用途別に2以上のチェックボックスが設けられてもよい。 Check boxes 2303 are for the user to turn on and off checks for rallies by score. For example, in a real-time situation such as during a game, even if an error is found in the contents of the play information list 2200 (team 2202, player number 2203, action 2204), the next rally will start immediately. The user can identify that the contents of the play information list 2200 are in a provisional state by turning on the check box 2303 (input of identification information) corresponding to the rally in preparation for re-verification (correction) later. make it This allows the user to later collectively re-verify the rallies for which the check boxes 2303 have been turned on. For example, the score information control unit 1004 restricts and displays only the rallies for which the check box 2303 is turned on according to an instruction from the user, so that the user can perform correction work efficiently. Also, the number of check boxes 2303 is not limited to one. For example, as shown in FIG. 14, two or more check boxes may be provided for one piece of score information for each application.

<プレイ情報の修正>
次に、図15、図16及び図17を参照して、プレイ情報205の修正手順について説明する。なお、当該修正手順は一例であり、他の手順による修正も可能である。
<Correction of play information>
Next, a procedure for correcting the play information 205 will be described with reference to FIGS. 15, 16 and 17. FIG. It should be noted that the correction procedure is only an example, and correction by other procedures is also possible.

(ステップS21)ユーザは、ラリー中にリアルタイムに更新されるプレイ情報リスト2200を見ながら、当該ラリーに係るプレイ情報205について修正が必要と判断した場合、次の操作を行う。すなわち、ユーザは、スコア情報リスト2300における当該ラリーのスコア2302に対応するチェックボックス2303をオンにする。 (Step S21) While viewing the play information list 2200 that is updated in real time during the rally, the user performs the following operation when determining that the play information 205 related to the rally needs to be corrected. That is, the user turns on the check box 2303 corresponding to the score 2302 of the rally in the score information list 2300 .

(ステップS22)図15に示すように、ユーザは、1セット終了後又は試合終了後に、チェックボックス2303をオンにしたスコア2302を選択する。 (Step S22) As shown in FIG. 15, the user selects the score 2302 with the check box 2303 turned on after one set or match is finished.

(ステップS23)図15に示すように、スコア情報制御部1004は、ステップS22にて選択されたスコア2302(スコア情報)に関連付けられているプレイ情報リスト2200を表示する。 (Step S23) As shown in FIG. 15, the score information control section 1004 displays the play information list 2200 associated with the score 2302 (score information) selected in step S22.

(ステップS24)図16に示すように、ユーザは、プレイ情報リスト2200から、修正対象のアクション2204(例えば「A」)を押下する。 (Step S24) As shown in FIG. 16, the user presses an action 2204 (for example, "A") to be corrected from the play information list 2200. FIG.

(ステップS25)図16に示すように、プレイ情報制御部1003は、アクション2204の押下を検出し、アクションに関する修正用のボタン2210を表示する。 (Step S25) As shown in FIG. 16, the play information control unit 1003 detects pressing of the action 2204, and displays a button 2210 for correcting the action.

(ステップS26)ユーザは、図17に示すように、修正用のボタン2210の中から、修正後のアクションに対応するボタン(例えば「E」)を選択する。 (Step S26) As shown in FIG. 17, the user selects a button (for example, "E") corresponding to the action after correction from among the buttons 2210 for correction.

(ステップS27)プレイ情報制御部1003は、ステップS26にて選択された修正用のボタン(例えば「E」)に対応するアクションで、プレイ情報205を修正する。例えば、図17に示すように、プレイ情報205における修正前のアクション2204「A」を、修正後のアクション2204「E」に修正する。 (Step S27) The play information control unit 1003 corrects the play information 205 with an action corresponding to the correction button (for example, "E") selected in step S26. For example, as shown in FIG. 17, an action 2204 "A" before correction in the play information 205 is corrected to an action 2204 "E" after correction.

以上の手順によれば、プレイ情報205の誤りを簡単に修正することができる。なお、修正対象はアクション2204に限られず、チーム2202及び選手番号2203も、同様に修正できる。また、修正の有無にかかわらず、チェックボックス2303がオン状態にあるプレイ情報205の確認が終了すると、これに連動して、チェックボックス2303の状態をオフにしてもよい。 According to the above procedure, errors in the play information 205 can be easily corrected. Note that the correction target is not limited to the action 2204, and the team 2202 and player number 2203 can also be corrected in the same way. In addition, regardless of whether or not the check box 2303 is corrected, when the play information 205 whose check box 2303 is in the on state is confirmed, the state of the check box 2303 may be turned off in conjunction with this.

<実施の形態2のまとめ>
実施の形態2では、プレイ分析装置1000は、複数のプレイ情報205を用いて、特定の選手が特定のアクションを行った各位置を示すプレイ分析画像2400を生成するプレイ分析部1005を備える。なお、プレイ情報205は、球技映像解析装置100によって生成されたものであってよい。例えば、球技映像解析装置100は、複数のカメラ3A~3Dによって撮影された複数のプレイ映像を用いて、球技の移動体(ボール)の軌跡を算出し、当該移動体の軌跡の変化に基づいて、球技に関するアクション、当該アクションを行った選手、及び当該選手が当該アクションを行った位置を検出し、当該アクション、当該選手、及び当該位置を対応付けたプレイ情報205を生成する。
<Summary of Embodiment 2>
In Embodiment 2, the play analysis device 1000 includes a play analysis unit 1005 that uses a plurality of pieces of play information 205 to generate a play analysis image 2400 showing each position where a specific player has performed a specific action. Note that the play information 205 may be generated by the ball game video analysis device 100 . For example, the ball game video analysis device 100 calculates the trajectory of a moving body (ball) in a ball game using a plurality of play videos captured by a plurality of cameras 3A to 3D, and based on changes in the trajectory of the moving body , an action related to the ball game, the player who performed the action, and the position where the player performed the action are detected, and play information 205 is generated in which the action, the player, and the position are associated with each other.

これにより、プレイ分析画像2400には特定の選手が特定のアクションを行った各位置が表示されるので、ユーザは、プレイ分析画像2400から、当該特定の選手の特定のアクションを詳細に分析することができる。 As a result, since the play analysis image 2400 displays each position where the specific player performed the specific action, the user can analyze the specific action of the specific player in detail from the play analysis image 2400. can be done.

また、実施の形態2では、プレイ分析装置1000は、複数のプレイ情報205に含まれる選手とアクションの情報を時系列に並べて表示するプレイ情報制御部1003を備える。プレイ情報205は、球技映像解析装置100によって生成されたものであってよい。例えば、球技映像解析装置100は、複数のカメラ3A~3Dによって撮影された複数のプレイ映像を用いて、球技の移動体の軌跡を算出し、当該移動体の軌跡の変化に基づいて、球技に関するアクションと、当該アクションを行った選手とを検出し、当該アクションと当該選手とを対応付けたプレイ情報205を生成する。 Further, in Embodiment 2, the play analysis device 1000 includes a play information control unit 1003 that arranges and displays information on players and actions included in a plurality of pieces of play information 205 in chronological order. The play information 205 may be generated by the ball game video analysis device 100 . For example, the ball game video analysis device 100 calculates the trajectory of the moving body of the ball game using a plurality of play videos captured by the plurality of cameras 3A to 3D, and based on changes in the trajectory of the moving body, An action and the player who performed the action are detected, and play information 205 in which the action and the player are associated is generated.

これにより、プレイ分析装置1000は、球技映像解析装置100によって自動的に生成される複数のプレイ情報205に含まれる選手とアクションの情報(プレイ情報リスト2200)を表示することができる。よって、ユーザは、煩雑な操作を行うことなく、球技中に各選手が行ったプレイを確認することができる。 As a result, the play analysis device 1000 can display the player and action information (play information list 2200 ) included in the pieces of play information 205 automatically generated by the ball game video analysis device 100 . Therefore, the user can check the play performed by each player during the ball game without performing complicated operations.

また、プレイ情報制御部1003は、リアルタイムでスコアに対応付けて少なくとも1つのプレイ情報205に含まれる選手及びアクションの情報を時系列に並べて表示し、チェックボックス2303を用いて、スコア単位でその表示した選手及びアクションの情報が暫定状態にあることを後で識別できるようにする。 In addition, the play information control unit 1003 displays the information of the players and actions included in at least one piece of the play information 205 in association with the score in real time, arranging them in chronological order, and using the check boxes 2303, displays the information in score units. It will be possible to later identify that the player and action information that has been played is in a provisional state.

これにより、プレイ分析装置1000は、自動的に生成された複数のプレイ情報205に含まれる選手及びアクションの情報(プレイ情報リスト2200)に対する検証が複数存在するような場合でも、後で一括して確認できる。よって、ユーザは、自動的に生成されたプレイ情報205の内容が誤っている場合、その誤りを簡単かつ効率的に確認して修正できる。 As a result, the play analysis device 1000 can collectively perform the verification later even when there are multiple verifications of the player and action information (play information list 2200) included in the multiple pieces of automatically generated play information 205. I can confirm. Therefore, when the contents of the automatically generated play information 205 are incorrect, the user can easily and efficiently confirm and correct the error.

以上、本開示に係る実施形態について図面を参照して詳述してきたが、上述した各装置100、1000、1200の機能は、コンピュータプログラムにより実現され得る。 The embodiments according to the present disclosure have been described above in detail with reference to the drawings, and the functions of the devices 100, 1000, and 1200 described above can be realized by computer programs.

図18は、各装置の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ3100は、キーボード又はマウス、タッチパッドなどの入力装置3101、ディスプレイ又はスピーカーなどの出力装置3102、CPU(Central Processing Unit)3103、GPU(Graphics Processing Unit)3104、ROM(Read Only Memory)3105、RAM(Random Access Memory)3106、ハードディスク装置又はSSD(Solid State Drive)などの記憶装置3107、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置3108、ネットワークを介して通信を行う送受信装置3109を備え、各部はバス3110により接続される。 FIG. 18 is a diagram showing the hardware configuration of a computer that implements the functions of each device by a program. This computer 3100 includes an input device 3101 such as a keyboard, mouse, or touch pad, an output device 3102 such as a display or speaker, a CPU (Central Processing Unit) 3103, a GPU (Graphics Processing Unit) 3104, a ROM (Read Only Memory) 3105, Read information from storage media such as RAM (Random Access Memory) 3106, hard disk drive or SSD (Solid State Drive) 3107, DVD-ROM (Digital Versatile Disk Read Only Memory) or USB (Universal Serial Bus) memory A reading device 3108 and a transmitting/receiving device 3109 for communicating via a network are provided, and each unit is connected by a bus 3110 .

そして、読取装置3108は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置3107に記憶させる。あるいは、送受信装置3109が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置3107に記憶させる。 Then, the reading device 3108 reads the program from the recording medium recording the program for realizing the functions of the respective devices, and stores the program in the storage device 3107 . Alternatively, the transmitting/receiving device 3109 communicates with a server device connected to the network, and causes the storage device 3107 to store the program for realizing the functions of the above devices downloaded from the server device.

そして、CPU3103が、記憶装置3107に記憶されたプログラムをRAM3106にコピーし、そのプログラムに含まれる命令をRAM3106から順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU 3103 copies the program stored in the storage device 3107 to the RAM 3106, sequentially reads out instructions included in the program from the RAM 3106, and executes them, thereby realizing the functions of the respective devices.

上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiments is typically implemented as an LSI, which is an integrated circuit. These may be made into one chip individually, or may be made into one chip so as to include part or all of them. Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、又は、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Also, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if an integration technology that replaces the LSI appears due to advances in semiconductor technology or another derived technology, the technology may naturally be used to integrate the functional blocks. Application of biotechnology, etc. is possible.

本開示の一態様は、球技を分析するためのシステムに有用である。 One aspect of the present disclosure is useful in systems for analyzing ball games.

1 球技映像解析システム
2 プレイ分析システム
3A,3B,3C,3D カメラ
4、1300 表示装置
5、1400 入力装置
100 球技映像解析装置
101 映像受信部
102 軌跡算出部
103 アクション判定部
104 アクションフレーム選択部
105 検出領域設定部
106 選手検出部
107 番号認識部
108 結果出力部
109 記憶部
201 動画フレーム
202 ボール軌跡情報
203 アクション情報
204 アクター情報
205 プレイ情報
1000 プレイ分析装置
1001 UI制御部
1002 映像制御部
1003 プレイ情報制御部
1004 スコア情報制御部
1005 プレイ分析部
1100 プレイ情報DB
1200 プレイ情報管理装置
2000 UI
2100 プレイ映像
2200 プレイ情報リスト
2300 スコア情報リスト
2400 プレイ分析画像
1 ball game video analysis system 2 play analysis system 3A, 3B, 3C, 3D cameras 4, 1300 display device 5, 1400 input device 100 ball game video analysis device 101 video reception unit 102 trajectory calculation unit 103 action determination unit 104 action frame selection unit 105 Detection area setting unit 106 player detection unit 107 number recognition unit 108 result output unit 109 storage unit 201 video frame 202 ball trajectory information 203 action information 204 actor information 205 play information 1000 play analysis device 1001 UI control unit 1002 video control unit 1003 play information Control unit 1004 Score information control unit 1005 Play analysis unit 1100 Play information DB
1200 play information management device 2000 UI
2100 play video 2200 play information list 2300 score information list 2400 play analysis image

Claims (4)

球技のプレイを分析するプレイ分析装置であって、
複数のカメラによって撮影された複数のプレイ映像を用いて、前記球技の移動体の軌跡を算出し、前記移動体の軌跡の変化に基づいて、前記球技に関するアクション、当該アクションを行った選手、及び当該選手が当該アクションを行った位置を検出し、当該アクション、当該選手、及び当該位置を対応付けたプレイ情報を生成する球技映像解析部と、
特定のアクションを行った対象選手の複数の前記プレイ情報を取得し、それら複数の前記プレイ情報から前記特定のアクションの実行位置および状態がコートのゾーン画像上に集約されて示されるプレイ分析画像を生成するプレイ分析部と、を備え、
前記プレイ分析部は、前記プレイ分析画像において、前記特定のアクションが行われた各位置に、前記特定のアクションの前記状態として複数の属性画像を配置し、
前記属性画像は、前記特定のアクションに関する種別、前記特定のアクションに関するボールの速度、前記特定のアクションに関する前記ボールの高さ、及び、前記特定のアクションに伴う距離のうちの少なくとも2つの属性情報を表す、
プレイ分析装置。
A play analysis device for analyzing a play of a ball game,
A trajectory of the moving body in the ball game is calculated using a plurality of play videos captured by a plurality of cameras, and based on changes in the trajectory of the moving body, an action related to the ball game, the player who performed the action, and a ball game video analysis unit that detects the position where the player performs the action and generates play information that associates the action, the player, and the position;
A plurality of pieces of play information of a target player who has performed a specific action is acquired, and a play analysis image is generated in which the execution position and state of the specific action are aggregated and shown on a zone image of the court from the plurality of pieces of play information. a play analysis unit that generates ;
The play analysis unit arranges a plurality of attribute images as the state of the specific action at each position where the specific action is performed in the play analysis image,
The attribute image includes at least two pieces of attribute information of a type related to the specific action, a speed of the ball related to the specific action, a height of the ball related to the specific action, and a distance associated with the specific action. show,
Play analysis equipment.
前記属性画像は、円とバーの形状を有し、当該円とバーの態様によって前記複数の属性情報を表す、
請求項1に記載のプレイ分析装置。
The attribute image has the shape of a circle and a bar, and represents the plurality of attribute information in the form of the circle and the bar.
The play analysis device according to claim 1 .
前記球技はバレーボールであり、前記特定のアクションはトスであり、
前記円の色が前記トスに関する種別を表し、
前記円の外周の色が前記トスに関する前記ボールの速度を表し、
前記外周の幅が前記トスに関する前記ボールの高さを示し、
前記バーの長さが前記トスに関する前記ボールの移動距離を表す、
請求項2に記載のプレイ分析装置。
the ball game is volleyball, the specific action is toss,
The color of the circle represents the type of the toss,
the color of the circumference of the circle represents the velocity of the ball with respect to the toss;
the width of the perimeter indicates the height of the ball with respect to the toss;
the length of the bar represents the distance traveled by the ball with respect to the toss;
The play analysis device according to claim 2 .
球技のプレイを分析するプレイ分析方法であって、
複数のカメラによって撮影された複数のプレイ映像を用いて、前記球技の移動体の軌跡を算出し、
前記移動体の軌跡の変化に基づいて、前記球技に関するアクション、当該アクションを行った選手、及び当該選手が当該アクションを行った位置を検出し、
当該アクション、当該選手、及び当該位置を対応付けたプレイ情報を生成し、
特定のアクションを行った対象選手の複数の前記プレイ情報を取得し、それら複数の前記プレイ情報から前記特定のアクションの実行位置および状態がコートのゾーン画像上に集約されて示されるプレイ分析画像を生成し、
前記プレイ分析画像において、前記特定のアクションが行われた各位置に、前記特定のアクションの前記状態として複数の属性画像を配置し、
前記属性画像は、前記特定のアクションに関する種別、前記特定のアクションに関するボールの速度、前記特定のアクションに関する前記ボールの高さ、及び、前記特定のアクションに伴う距離のうちの少なくとも2つの属性情報を表す、
プレイ分析方法。
A play analysis method for analyzing the play of a ball game, comprising:
calculating the trajectory of the moving object of the ball game using a plurality of play videos taken by a plurality of cameras;
Detecting an action related to the ball game, the player who performed the action, and the position where the player performed the action, based on changes in the trajectory of the moving object;
Generate play information that associates the action, the player, and the position,
A plurality of pieces of play information of a target player who has performed a specific action is acquired, and a play analysis image is generated in which the execution position and state of the specific action are aggregated and shown on a zone image of the court from the plurality of pieces of play information. generate and
arranging a plurality of attribute images as the state of the specific action at each position where the specific action is performed in the play analysis image;
The attribute image includes at least two pieces of attribute information of a type related to the specific action, a speed of the ball related to the specific action, a height of the ball related to the specific action, and a distance associated with the specific action. show,
Play analysis method.
JP2018189166A 2018-10-04 2018-10-04 Play analysis device and play analysis method Active JP7296546B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018189166A JP7296546B2 (en) 2018-10-04 2018-10-04 Play analysis device and play analysis method
PCT/JP2019/036972 WO2020071155A1 (en) 2018-10-04 2019-09-20 Play analysis device and play analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018189166A JP7296546B2 (en) 2018-10-04 2018-10-04 Play analysis device and play analysis method

Publications (2)

Publication Number Publication Date
JP2020054746A JP2020054746A (en) 2020-04-09
JP7296546B2 true JP7296546B2 (en) 2023-06-23

Family

ID=70055897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018189166A Active JP7296546B2 (en) 2018-10-04 2018-10-04 Play analysis device and play analysis method

Country Status (2)

Country Link
JP (1) JP7296546B2 (en)
WO (1) WO2020071155A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122646A (en) 2004-09-30 2006-05-18 Hiroshima Univ Information processing method, information processing device, scouting system, information processing program, and computer-readable recording medium
JP2007252697A (en) 2006-03-24 2007-10-04 Hiroshima Univ Play data collection and analysis system and data collection and analysis program for volleyball game
US20150018990A1 (en) 2012-02-23 2015-01-15 Playsight Interactive Ltd. Smart-court system and method for providing real-time debriefing and training services of sport games
US20150131845A1 (en) 2012-05-04 2015-05-14 Mocap Analytics, Inc. Methods, systems and software programs for enhanced sports analytics and applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006122646A (en) 2004-09-30 2006-05-18 Hiroshima Univ Information processing method, information processing device, scouting system, information processing program, and computer-readable recording medium
JP2007252697A (en) 2006-03-24 2007-10-04 Hiroshima Univ Play data collection and analysis system and data collection and analysis program for volleyball game
US20150018990A1 (en) 2012-02-23 2015-01-15 Playsight Interactive Ltd. Smart-court system and method for providing real-time debriefing and training services of sport games
US20150131845A1 (en) 2012-05-04 2015-05-14 Mocap Analytics, Inc. Methods, systems and software programs for enhanced sports analytics and applications

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
井高 悠斗ほか,コート上の直線を利用するバスケットボール競技撮影時のカメラ姿勢の計測,映像情報メディア学会技術報告,日本,映像情報メディア学会,2016年12月05日, Vol.40, No.43,第13-16ページ
池永 剛,[チュートリアル講演]映像センサを用いたスポーツ情報解析,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2017年01月17日,第116巻, 第344号,p.25-30,ISSN 0913-5685, 特に3.追跡システム, 4.動作検出システム, 図1を参照。
高橋茂樹 ほか,バレーボール映像における選手及びボールの追跡とそのイベント推定への応用,映像情報メディア学会技術報告,日本,(社)映像情報メディア学会,2010年03月10日,Vol.34, No.6,p.17-21,[ISSN]1342-6893, 特にあらまし, 本文, 図2-3, 表1 を参照。

Also Published As

Publication number Publication date
JP2020054746A (en) 2020-04-09
WO2020071155A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7289080B2 (en) Ball game video analysis device and ball game video analysis method
US10776616B2 (en) Tracking of handheld sporting implements using computer vision
US9473748B2 (en) Video tracking of baseball players to determine the end of a half-inning
US9007463B2 (en) Video tracking of baseball players which identifies merged participants based on participant roles
US11040287B2 (en) Experience-oriented virtual baseball game apparatus and virtual baseball game control method using the same
JP6249706B2 (en) Information processing apparatus, information processing method, and program
US11087638B2 (en) System and method for analysing sports performance data
WO2020235339A1 (en) Play analyzing device, and play analyzing method
JP6488295B2 (en) Video processing method and video processing apparatus
JP6677319B2 (en) Sports motion analysis support system, method and program
JP7113335B2 (en) Play analysis device and play analysis method
JP7113336B2 (en) Play analysis device and play analysis method
JP7345108B2 (en) Play analysis device, play analysis method, and computer program
US11638068B2 (en) Mobile entity tracking device and method for tracking mobile entity
WO2020071092A1 (en) Play analysis device and play analysis method
JP7296546B2 (en) Play analysis device and play analysis method
JP7289054B2 (en) Play analysis device, play analysis method, and computer program
CN110314368B (en) Auxiliary method, device, equipment and readable medium for billiard ball hitting
JP7300668B2 (en) Play analysis device and play analysis method
US11900678B2 (en) System for tracking, locating and calculating the position of an object in a game involving moving objects
US20240046763A1 (en) Live event information display method, system, and apparatus
CN114041172A (en) Multi-camera jersey number identification

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R151 Written notification of patent or utility model registration

Ref document number: 7296546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151