JP7429887B2 - Ball game video analysis device, ball game video analysis method, and computer program - Google Patents

Ball game video analysis device, ball game video analysis method, and computer program Download PDF

Info

Publication number
JP7429887B2
JP7429887B2 JP2020039760A JP2020039760A JP7429887B2 JP 7429887 B2 JP7429887 B2 JP 7429887B2 JP 2020039760 A JP2020039760 A JP 2020039760A JP 2020039760 A JP2020039760 A JP 2020039760A JP 7429887 B2 JP7429887 B2 JP 7429887B2
Authority
JP
Japan
Prior art keywords
reference frame
frame image
image
video
ball game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020039760A
Other languages
Japanese (ja)
Other versions
JP2021140643A5 (en
JP2021140643A (en
Inventor
純子 上田
優麻 齋藤
康治 井村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020039760A priority Critical patent/JP7429887B2/en
Priority to PCT/JP2021/006501 priority patent/WO2021182081A1/en
Publication of JP2021140643A publication Critical patent/JP2021140643A/en
Publication of JP2021140643A5 publication Critical patent/JP2021140643A5/ja
Application granted granted Critical
Publication of JP7429887B2 publication Critical patent/JP7429887B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、球技映像解析装置、球技映像解析方法、及び、コンピュータプログラムに関する。 The present disclosure relates to a ball game video analysis device, a ball game video analysis method, and a computer program.

従来、バレーボール分析ソフトウェアとして「Data Volley」が市販され、このソフトウェアに精通したアナリストの主観的判断に基づいて、チームの選手の状況をデータ化する技術が知られている。 BACKGROUND ART Conventionally, "Data Volley" has been commercially available as volleyball analysis software, and a technique is known that converts the status of players on a team into data based on the subjective judgment of an analyst familiar with this software.

近年では、アナリストの操作に頼ることなく、コートを見下ろす四隅にそれぞれカメラを設置し、これら4台のカメラを同期させてプレイを撮影した映像を取り込み、ボールの動きを追跡して、当該ボールの3次元の位置情報を求め、同時に選手の背番号やプレイに含まれるアクションの種類(サーブ、レセプション、ディグ、トス、アタック、ブロック)に関する解析データを出力する技術が知られている(特許文献1)。 In recent years, cameras have been installed in each of the four corners overlooking the court, and these four cameras are synchronized to capture footage of the play, track the movement of the ball, and detect the ball, without relying on analysts' operations. There is a known technology that obtains three-dimensional positional information of a player and simultaneously outputs analysis data regarding the player's jersey number and the type of action included in the play (serve, reception, dig, toss, attack, block) (Patent Document 1).

国際公開第2019/225415号International Publication No. 2019/225415

特許文献1によれば、コートを見下ろす四隅に、同スペックの高性能な専用カメラがそれぞれ設置され、各専用カメラで撮影された映像はすべて同期して取り込まれるように構成されている。 According to Patent Document 1, high-performance dedicated cameras with the same specs are installed at each of the four corners overlooking the court, and the video captured by each dedicated camera is configured to be captured in synchronization.

ところで、専用カメラではなく、身近に存在するカメラ(例えばスマートフォン及びタブレットといった携帯端末に搭載されたカメラ)を用いて、簡易な球技映像解析装置を構成し、球技の練習(例えばバレーボールのサーブの練習)に活用したいという要望がある。しかし、専用カメラではない場合、球技映像解析に用いられるカメラ間の性能などの違いにより、球技に係る移動体(例えばボール)の移動軌跡を特定できないという問題があった。 By the way, a simple ball game video analysis device can be configured using a camera that is nearby (for example, a camera installed in a mobile terminal such as a smartphone or tablet) instead of a dedicated camera, and can be used to practice a ball game (for example, practicing a volleyball serve). ), there is a desire to use it for However, if the camera is not a dedicated camera, there is a problem in that the movement trajectory of a moving object (for example, a ball) related to a ball game cannot be identified due to differences in performance between cameras used for ball game video analysis.

本開示の目的は、球技映像解析に特化した専用カメラを用いることなく、身近に存在するカメラを用いて球技に係る移動体の移動軌跡を特定できる技術を提供することにある。 An object of the present disclosure is to provide a technology that can identify the movement trajectory of a moving object related to a ball game using a nearby camera without using a dedicated camera specialized for ball game video analysis.

本開示に係る球技映像解析装置は、球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信する受信部と、前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成する基準フレーム特定部と、第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を特定する解析部と、を備え、前記基準フレーム特定部は、前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、前記解析部は、前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける。 A ball game video analysis device according to the present disclosure includes a receiving unit that receives a first video and a second video that are taken from different positions of a person's action toward a moving object used in a ball game; A reference frame image, which is a frame image in which a specific sub-action constituting the action was shot, is identified from each of the second videos, and a first reference frame image, which is the reference frame image identified from the first video, is identified. a reference frame specifying unit that generates synchronization difference information that is information indicating a time difference between a reference frame image and a second reference frame image that is the reference frame image identified from the second moving image; an analysis unit that corrects a synchronization difference between frame images between the first video and the second video based on the synchronization information and identifies a movement trajectory of the moving body, and the reference frame identification unit generates and outputs a reference frame confirmation UI that presents the first reference frame image and the second reference frame image to the user, and the analysis unit extracts the reference frame image from the reference frame confirmation UI. If a user's instruction not to change is received, the synchronization difference information is confirmed, and if a user's instruction to change the reference frame image is received from the reference frame confirmation UI, the first reference frame is fixed. The image and candidate images of the second reference frame image are extracted, and a user operation for selecting the reference frame image from the candidate images is accepted.

本開示に係る球技映像解析方法は、装置が、球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信し、前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成し、第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を特定し、前記基準フレーム画像を特定する際、前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける。 In the ball game video analysis method according to the present disclosure, a device receives a first video and a second video that are taken from different positions of a person's action toward a moving object used in a ball game, and A reference frame image, which is a frame image in which a specific sub-action constituting the action was shot, is identified from each of the second videos, and a first reference frame image, which is the reference frame image identified from the first video, is identified. Generate synchronization difference information that is information indicating a time difference between a reference frame image and a second reference frame image that is the reference frame image identified from the second video, and When correcting the synchronization deviation of the frame images with the second moving image based on the synchronization deviation information, specifying the movement trajectory of the moving body, and specifying the reference frame image, the first reference frame image and If a reference frame confirmation UI that presents the second reference frame image to the user is generated and output, and a user's instruction not to change the reference frame image is received from the reference frame confirmation UI, the synchronization error occurs. When the information is determined and a user instruction to change the reference frame image is received from the reference frame confirmation UI, candidate images of the first reference frame image and the second reference frame image are extracted. , accepts a user's operation to select the reference frame image from the candidate images.

本開示に係るコンピュータプログラムは、球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信し、前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成し、第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を解析し、前記基準フレーム画像を特定する際、前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける。 A computer program according to the present disclosure receives a first video and a second video taken from different positions of a person's action on a moving object used in a ball game, and receives a first video and a second video taken from different positions, and compares the first video and the second video. From each, specify a reference frame image that is a frame image in which a specific sub-action constituting the action was photographed, and identify a first reference frame image that is the reference frame image identified from the first video and the Synchronization difference information, which is information indicating a time difference between the second reference frame image, which is the reference frame image specified from the second video, is generated, and synchronization difference information between the first video and the second video is generated. When correcting the synchronization difference between the frame images based on the synchronization information, analyzing the movement trajectory of the moving object, and identifying the reference frame image, the first reference frame image and the second reference frame image are corrected based on the synchronization difference information. generating and outputting a reference frame confirmation UI that presents a frame image to a user, and when receiving an instruction from the user not to change the reference frame image from the reference frame confirmation UI, determining the synchronization shift information; When a user's instruction to change the reference frame image is received from the reference frame confirmation UI, candidate images of the first reference frame image and the second reference frame image are extracted, and candidate images are extracted from the candidate images. A user operation for selecting the reference frame image is accepted.

なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, a device, a method, an integrated circuit, a computer program, or a recording medium, and any of the systems, devices, methods, integrated circuits, computer programs, and recording media may be implemented. It may be realized by any combination.

本開示によれば、自動的に特定した基準フレーム画像の確認および変更を行う基準フレーム確認用UIを用いて、球技映像解析に特化した専用カメラを用いることなく、身近に存在するカメラを用いて球技に係る移動体の移動軌跡を特定できる。 According to the present disclosure, by using a reference frame confirmation UI that confirms and changes automatically identified reference frame images, a nearby camera can be used without using a dedicated camera specialized for ball game video analysis. It is possible to identify the movement trajectory of a moving object related to a ball game.

本実施の形態に係る球技映像解析システムの構成例を示す図A diagram showing a configuration example of a ball game video analysis system according to the present embodiment ボールの位置の特定方法を説明するための図Diagram to explain how to locate the ball 球技映像解析装置の構成例を示すブロック図Block diagram showing a configuration example of a ball game video analysis device 基準フレーム画像の特定方法を説明するための図Diagram for explaining how to identify a reference frame image 事前作業の一例を示すフローチャートFlowchart showing an example of preliminary work 事前作業に関する処理の一例を示すシーケンスチャートSequence chart showing an example of processing related to preliminary work 図6において基準フレーム画像を変更する旨の操作が行われた場合の事前作業に関する処理の一例を示すシーケンスチャートSequence chart showing an example of processing related to preliminary work when an operation to change the reference frame image is performed in FIG. 6 基準フレーム確認用UI(User Interface)の詳細例を示す図Diagram showing a detailed example of the reference frame confirmation UI (User Interface) 基準フレーム変更用UIの詳細例を示す図Diagram showing a detailed example of the reference frame change UI 解析結果の表示例を示す図Diagram showing an example of displaying analysis results 本開示に係る球技映像解析装置の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図A diagram showing the hardware configuration of a computer that implements the functions of the ball game video analysis device according to the present disclosure through a program. 本開示に係る第1の形態端末、第2の形態端末及び表示端末の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図A diagram showing the hardware configuration of a computer that implements the functions of a first form terminal, a second form terminal, and a display terminal according to the present disclosure by a program.

以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。 Embodiments of the present disclosure will be described in detail below with appropriate reference to the drawings. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters and redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter of the claims.

(本実施の形態)
<球技映像解析システムの構成>
図1は、本実施の形態に係る球技映像解析システムの構成例を示す図である。
(This embodiment)
<Configuration of ball game video analysis system>
FIG. 1 is a diagram showing an example of the configuration of a ball game video analysis system according to the present embodiment.

球技映像解析システム10は、球技を撮影した映像を解析し、当該球技に用いられる移動体の軌跡を解析するシステムである。本実施の形態では、球技の1つであるバレーボールを例に説明する。ただし、球技映像解析システム10は、バレーボールに限らず、サッカー、野球、卓球、バスケットボール、テニス、ラグビー、アメリカンフットボール、ラクロス、バドミントン、又はアイスホッケー等、様々な球技に適用可能である。また、球技映像解析システム10が対象とする移動体は、典型的にはボールである。ただし、球技映像解析システム10が対象とする移動体は、ボールに限らず、例えばバドミントンのシャトル又はアイスホッケーのパックといった「球」の概念に当てはまらない形状のものであってもよい。 The ball game video analysis system 10 is a system that analyzes a video shot of a ball game and analyzes the trajectory of a moving object used in the ball game. In this embodiment, volleyball, which is one of the ball games, will be explained as an example. However, the ball game video analysis system 10 is applicable not only to volleyball but also to various ball games such as soccer, baseball, table tennis, basketball, tennis, rugby, American football, lacrosse, badminton, or ice hockey. Further, the moving object targeted by the ball game video analysis system 10 is typically a ball. However, the moving object targeted by the ball game video analysis system 10 is not limited to a ball, and may be of a shape that does not fit the concept of a "ball", such as a badminton shuttle or an ice hockey puck, for example.

球技映像解析システム10は、第1の携帯端末20A、第2の携帯端末20B、表示端末30、及び、球技映像解析装置100を備える。第1の携帯端末20A、第2の携帯端末20B、表示端末30、及び、球技映像解析装置100は、通信ネットワークNを通じて互いに情報を送受信できる。通信ネットワークNは、例えば、無線通信網(無線LAN(Local Area Network)、4G、5G等)、インターネット網、又は、それらの組み合わせによって構成される。 The ball game video analysis system 10 includes a first mobile terminal 20A, a second mobile terminal 20B, a display terminal 30, and a ball game video analysis device 100. The first mobile terminal 20A, the second mobile terminal 20B, the display terminal 30, and the ball game video analysis device 100 can send and receive information to and from each other through the communication network N. The communication network N is configured by, for example, a wireless communication network (wireless LAN (Local Area Network), 4G, 5G, etc.), an Internet network, or a combination thereof.

第1の携帯端末20A及び第2の携帯端末20Bは、カメラを備える無線通信端末である。第1の携帯端末20A及び第2の携帯端末20Bの例は、携帯電話、スマートフォン、タブレット又はモバイルPC等である。 The first mobile terminal 20A and the second mobile terminal 20B are wireless communication terminals equipped with a camera. Examples of the first mobile terminal 20A and the second mobile terminal 20B are a mobile phone, a smartphone, a tablet, a mobile PC, or the like.

第1の携帯端末20A及び第2の携帯端末20Bは、球技を行う人物(以下「プレイヤー」という)のアクションを撮影する。本実施の形態では、プレイヤーのアクションの1つであるバレーボールのサーブを例に説明する。ただし、プレイヤーのアクションは、バレーボールのサーブに限らず、ディグ、レセプション、トス、アタック、ブロック等であってもよい。あるいは、球技を行う人物のアクションは、バレーボール以外の上記スポーツにおける特定のアクションであってもよい。 The first mobile terminal 20A and the second mobile terminal 20B photograph the actions of a person (hereinafter referred to as a "player") playing a ball game. In this embodiment, a volleyball serve, which is one of the player's actions, will be explained as an example. However, the player's action is not limited to a volleyball serve, but may also be a dig, a reception, a toss, an attack, a block, etc. Alternatively, the action of a person playing a ball game may be a specific action in the above sports other than volleyball.

第1の携帯端末20A及び第2の携帯端末20Bは、例えば、プレイヤーのサーブの練習を、互いに異なる方向から動画で撮影し、それぞれ、第1の動画201A及び第2の動画201Bを生成する。例えば、図1に示すように、第1の携帯端末20Aはプレイヤーを右後方から撮影し、第2の携帯端末20Bはプレイヤーを左後方から撮影する。 The first mobile terminal 20A and the second mobile terminal 20B, for example, take videos of a player's serve practice from different directions, and generate a first video 201A and a second video 201B, respectively. For example, as shown in FIG. 1, the first mobile terminal 20A photographs the player from the rear right, and the second mobile terminal 20B photographs the player from the rear left.

第1の携帯端末20A及び第2の携帯端末20Bは、それぞれ、生成した第1の動画201A及び第2の動画201Bを、通信ネットワークNを通じて、球技映像解析装置100に送信する。 The first mobile terminal 20A and the second mobile terminal 20B transmit the generated first video 201A and second video 201B to the ball game video analysis device 100 via the communication network N, respectively.

表示端末30は、球技映像解析装置100による解析結果を表示する。なお、解析結果の表示例については後述する(図10参照)。表示端末30の例は、携帯電話、スマートフォン、タブレット又はモバイルPC等である。表示端末30は、第3の携帯端末と読み替えられてもよい。なお、解析結果を表示する表示端末30を別途設ける構成を例示したが、第1の携帯端末20A、第2の携帯端末20Bのいずれかを、解析結果を表示する端末として利用してもよい。 The display terminal 30 displays the analysis results by the ball game video analysis device 100. Note that a display example of the analysis results will be described later (see FIG. 10). Examples of the display terminal 30 are a mobile phone, a smartphone, a tablet, or a mobile PC. The display terminal 30 may be read as a third mobile terminal. Although a configuration in which the display terminal 30 for displaying the analysis results is separately provided has been illustrated, either the first mobile terminal 20A or the second mobile terminal 20B may be used as a terminal for displaying the analysis results.

球技映像解析装置100は、第1の携帯端末20A及び第2の携帯端末20Bからそれぞれ受信した第1の動画201A及び第2の動画201Bに基づいて、3次元空間におけるボールの移動軌跡を解析する。3次元空間におけるボールの移動軌跡は、ボールの3次元座標を時系列に並べることで生成できる。 The ball game video analysis device 100 analyzes the movement trajectory of the ball in three-dimensional space based on the first video 201A and second video 201B received from the first mobile terminal 20A and the second mobile terminal 20B, respectively. . The movement trajectory of the ball in the three-dimensional space can be generated by arranging the three-dimensional coordinates of the ball in time series.

時刻tのボールの3次元座標は、図2に示すように、第1の動画201Aの中の時刻tのフレーム画像F1と、第2の動画201Bの中の時刻tのフレーム画像F2から算出できる。すなわち、図2に示すように、第1の携帯端末20A(のカメラ)の位置U1からフレーム画像F1におけるボールの位置B1へ伸ばしたベクトルV1と、第2の携帯端末20B(のカメラ)の位置U2からフレーム画像F2におけるボールの位置B2へ伸ばしたベクトルV2との交点が、ボールの3次元座標Paとなる。 As shown in FIG. 2, the three-dimensional coordinates of the ball at time t can be calculated from the frame image F1 at time t in the first video 201A and the frame image F2 at time t in the second video 201B. . That is, as shown in FIG. 2, a vector V1 extending from the position U1 of (the camera of) the first mobile terminal 20A to the position B1 of the ball in the frame image F1 and the position of (the camera of the second mobile terminal 20B) The intersection with the vector V2 extending from U2 to the ball position B2 in the frame image F2 becomes the three-dimensional coordinate Pa of the ball.

ここで、第1の携帯端末20Aが第1の動画201Aの各フレーム画像に付与したタイムコード(時刻情報)と、第2の携帯端末20Bが第2の動画201Bの各フレーム画像に付与したタイムコードとが完全に正確な時刻ならば、時刻tのタイムコードが付与されたフレーム画像F1、F2を用いて、上述の方法でボールの3次元座標を正確に特定できる。 Here, the time code (time information) that the first mobile terminal 20A gives to each frame image of the first video 201A, and the time code that the second mobile terminal 20B gives to each frame image of the second video 201B. If the time code is completely accurate, the three-dimensional coordinates of the ball can be accurately specified using the above-described method using the frame images F1 and F2 to which the time code of time t has been added.

しかし、特許文献1に示すような球技映像解析に特化した専用カメラではなく、携帯端末に搭載されたカメラのような汎用的なカメラを用いる場合、第1の携帯端末20A及び第2の携帯端末20Bは、必ずしも正確なタイムコードを付与できるとは限らない。以下、その理由を説明する。 However, when using a general-purpose camera such as a camera mounted on a mobile terminal rather than a dedicated camera specialized for ball game video analysis as shown in Patent Document 1, the first mobile terminal 20A and the second mobile The terminal 20B is not necessarily able to provide an accurate time code. The reason for this will be explained below.

球技に係るスポーツのボールは高速に移動するため、ボールの3次元位置を特定するためには、例えば30fps以上の高フレームレートで撮影し、第1の携帯端末20Aが撮影したフレーム画像と第2の携帯端末20Bが撮影したフレーム画像との間にミリ秒単位の同期精度が求められる。 Since the ball in sports related to ball games moves at high speed, in order to identify the three-dimensional position of the ball, it is necessary to shoot at a high frame rate of 30 fps or higher, for example, and combine the frame image shot by the first mobile terminal 20A with the second frame image. Synchronization precision in milliseconds is required between the frame image captured by the mobile terminal 20B.

ここで、NTP(Network Time Protocol)を使用して第1の携帯端末20A及び第2の携帯端末20Bの内部クロックを同期させることが考えられる。しかし、NTPの同期精度は秒単位であるため、第1の携帯端末20Aの内部クロックと第2の携帯端末20Bの内部クロックとの間にミリ秒単位の同期ずれが生じる可能性がある。よって、この方法では、高速に移動するボールの3次元座標を十分な精度で特定できない場合がある。 Here, it is possible to synchronize the internal clocks of the first mobile terminal 20A and the second mobile terminal 20B using NTP (Network Time Protocol). However, since the synchronization accuracy of NTP is on the order of seconds, there is a possibility that a synchronization difference on the order of milliseconds will occur between the internal clock of the first mobile terminal 20A and the internal clock of the second mobile terminal 20B. Therefore, with this method, the three-dimensional coordinates of a ball moving at high speed may not be specified with sufficient accuracy.

または、GPS(Global Positioning System)といった衛星測位システムを使用して第1の携帯端末20A及び第2の携帯端末20Bの内部クロックを同期させることが考えられる。しかし、この方法では、GPS機能を搭載していない携帯端末のカメラは使用できなくなってしまう。また、屋内施設等においてGPS信号が受信できない場合に、第1の携帯端末20Aの内部クロックと第2の携帯端末20Bの内部クロックとの間に同期ずれが生じてしまう可能性がある。よって、この方法では、高速に移動するボールの3次元座標を十分な精度で特定できない場合がある。 Alternatively, it is possible to synchronize the internal clocks of the first mobile terminal 20A and the second mobile terminal 20B using a satellite positioning system such as GPS (Global Positioning System). However, with this method, the camera of a mobile terminal that does not have a GPS function cannot be used. Furthermore, if a GPS signal cannot be received in an indoor facility or the like, there is a possibility that a synchronization difference will occur between the internal clock of the first mobile terminal 20A and the internal clock of the second mobile terminal 20B. Therefore, with this method, the three-dimensional coordinates of a ball moving at high speed may not be specified with sufficient accuracy.

または、第1の携帯端末20A及び/又は第2の携帯端末20Bがタイムコードを付与する際に、同期ずれが発生してしまう可能性がある。例えば、第1の携帯端末20Aよりも第2の携帯端末20Bの処理性能が低い場合は、携帯端末20Bのタイムコード付与の処理負荷が大きく、全体的に第1の携帯端末20Aよりも少し遅いタイムコードを付与してしまう可能性がある。この場合、フレーム画像F1とフレーム画像F2のタイムコードが同じであっても、フレーム画像F2は、実際にはフレーム画像F1よりも少し以前に撮影されたものになることがある。この少し以前に撮影されたフレーム画像F2では、ボールの位置がB3となり、図2に示すように、ボールの3次元座標もPbにずれてしまう。よって、算出されるボールの移動軌跡もずれてしまう。 Alternatively, when the first mobile terminal 20A and/or the second mobile terminal 20B assigns a time code, a synchronization error may occur. For example, if the processing performance of the second mobile terminal 20B is lower than that of the first mobile terminal 20A, the processing load of time code assignment on the mobile terminal 20B is large, and overall it is a little slower than the first mobile terminal 20A. There is a possibility that a time code will be added. In this case, even if the time codes of frame image F1 and frame image F2 are the same, frame image F2 may actually be photographed a little earlier than frame image F1. In the frame image F2 taken a little earlier, the ball is positioned at B3, and as shown in FIG. 2, the three-dimensional coordinates of the ball also shift to Pb. Therefore, the calculated movement trajectory of the ball also deviates.

そこで、本実施の形態に係る球技映像解析装置100は、第1の携帯端末20Aと第2の携帯端末20Bとの間のフレーム画像の同期ずれを特定する機能を有する。そして、球技映像解析装置100は、その特定した同期ずれを考慮してボールの移動軌跡を算出する。これにより、特許文献1に示すような球技映像解析に特化した専用カメラではなく、携帯端末に搭載されたカメラのような汎用的なカメラを用いても、ボールの移動軌跡を算出できる。以下、詳細に説明する。 Therefore, the ball game video analysis device 100 according to the present embodiment has a function of identifying the synchronization shift of frame images between the first mobile terminal 20A and the second mobile terminal 20B. Then, the ball game video analysis device 100 calculates the movement trajectory of the ball in consideration of the identified synchronization deviation. As a result, the movement trajectory of the ball can be calculated using a general-purpose camera such as a camera mounted on a mobile terminal, rather than a dedicated camera specialized for ball game video analysis as shown in Patent Document 1. This will be explained in detail below.

<球技映像解析装置の構成>
図3は、本実施の形態に係る球技映像解析装置100の構成例を示すブロック図である。
<Configuration of ball game video analysis device>
FIG. 3 is a block diagram showing a configuration example of ball game video analysis device 100 according to the present embodiment.

球技映像解析装置100は、動画受信部101、画像変換部102、基準フレーム特定部103、基準フレーム変更部104、解析部105、及び、結果表示部106を備える。 The ball game video analysis device 100 includes a moving image receiving section 101 , an image converting section 102 , a reference frame specifying section 103 , a reference frame changing section 104 , an analyzing section 105 , and a result display section 106 .

動画受信部101は、第1の携帯端末20Aから第1の動画201Aを受信し、第2の携帯端末20Bから第2の動画201Bを受信する。動画のフォーマットの例は、MPEG4、TSファイル、H.264、H.265等である。第1の動画201Aを構成する各フレーム画像には、第1の携帯端末20Aによってタイムコードが付与されている。第2の動画201Bを構成する各フレーム画像には、第2の携帯端末20Bによってタイムコードが付与されている。図1にて説明したとおり、第1の動画201A及び第2の動画201Bには、例えば、プレイヤーがサーブを打つシーンが撮影される。 The video receiving unit 101 receives the first video 201A from the first mobile terminal 20A, and receives the second video 201B from the second mobile terminal 20B. Examples of video formats are MPEG4, TS file, H. 264, H. It is 265 mag. Each frame image constituting the first moving image 201A is given a time code by the first mobile terminal 20A. A time code is given to each frame image constituting the second moving image 201B by the second mobile terminal 20B. As described with reference to FIG. 1, the first video 201A and the second video 201B include, for example, a scene in which a player hits a serve.

画像変換部102は、第1の動画201Aの各フレーム画像を静止画に変換し、第1のフレーム画像群202Aを生成する。画像変換部102は、第2の動画201Bの各フレーム画像を静止画に変換し、第2のフレーム画像群202Bを生成する。静止画のフォーマットの例は、JPEG、GIF、TIFF等である。 The image conversion unit 102 converts each frame image of the first moving image 201A into a still image, and generates a first frame image group 202A. The image conversion unit 102 converts each frame image of the second moving image 201B into a still image, and generates a second frame image group 202B. Examples of still image formats include JPEG, GIF, and TIFF.

基準フレーム特定部103は、第1のフレーム画像群202A及び第2のフレーム画像群202Bの中から、それぞれ、フレーム同期のための基準となるフレーム画像(以下「基準フレーム画像」という)を特定する。以下、第1のフレーム画像群202Aの中から特定された基準フレーム画像を第1の基準フレーム画像といい、第2のフレーム画像群202Bの中から特定された基準フレーム画像を第2の基準フレーム画像という。 The reference frame identifying unit 103 identifies frame images (hereinafter referred to as "reference frame images") that serve as a reference for frame synchronization from the first frame image group 202A and the second frame image group 202B, respectively. . Hereinafter, the reference frame image specified from the first frame image group 202A will be referred to as a first reference frame image, and the reference frame image specified from the second frame image group 202B will be referred to as a second reference frame. It's called an image.

基準フレーム特定部103は、アクションを構成する特定のサブアクションが撮影されたフレーム画像を、基準フレーム画像として特定する。例えば、基準フレーム特定部103は、サーブ(アクション)の一連の動作が撮影されたフレーム画像群のうち、サーブを打った手がボールに当たった瞬間(サブアクション)が撮影されたフレーム画像を、基準フレーム画像として特定する。次に、図4を参照して、基準フレーム画像を特定する方法の一例を説明する。 The reference frame identifying unit 103 identifies a frame image in which a specific sub-action constituting an action is photographed as a reference frame image. For example, the reference frame specifying unit 103 selects a frame image in which a moment when the hand that hits the serve (sub-action) hits the ball among a group of frame images in which a series of movements of a serve (action) is captured. Specify as the reference frame image. Next, an example of a method for specifying a reference frame image will be described with reference to FIG. 4.

図4に示すように、基準フレーム特定部103は、第1のフレーム画像群202Aに対してボールの検出領域211Aを設定する。基準フレーム特定部103は、第2のフレーム画像群202Bに対してボールの検出領域211Bを設定する。これにより、ボールの検出領域が小さくなるので、ボールの検出処理に要する時間を短縮できる。なお、当該ボールの検出領域の設定は行われなくてもよい。 As shown in FIG. 4, the reference frame specifying unit 103 sets a ball detection area 211A for the first frame image group 202A. The reference frame specifying unit 103 sets a ball detection area 211B for the second frame image group 202B. This reduces the ball detection area, so the time required for ball detection processing can be shortened. Note that the detection area for the ball does not need to be set.

基準フレーム特定部103は、公知の方法によって、第1のフレーム画像群202Aの各フレーム画像からボールを検出する。例えば、基準フレーム特定部103は、パターンマッチングによってフレーム画像からボールを検出する。あるいは、基準フレーム特定部103は、ボール検出用に予め学習されたディープラーニングを用いて、フレーム画像からボールを検出する。基準フレーム特定部103は、同様に、第2のフレーム画像群202Bの各フレーム画像からもボールを検出する。 The reference frame specifying unit 103 detects a ball from each frame image of the first frame image group 202A using a known method. For example, the reference frame identifying unit 103 detects a ball from a frame image by pattern matching. Alternatively, the reference frame identifying unit 103 detects a ball from the frame image using deep learning learned in advance for ball detection. The reference frame identifying unit 103 similarly detects a ball from each frame image of the second frame image group 202B.

基準フレーム特定部103は、第1のフレーム画像群202Aの各フレーム画像から検出したボールの位置に基づいて、ボールの2次元の移動軌跡を算出する。そして、基準フレーム特定部103は、そのボールの2次元の移動軌跡の変化に基づいて、第1の基準フレーム画像を特定する。例えば、基準フレーム特定部103は、次のS11~S13の処理により第1の基準フレーム画像を特定する。 The reference frame specifying unit 103 calculates a two-dimensional movement trajectory of the ball based on the position of the ball detected from each frame image of the first frame image group 202A. Then, the reference frame identifying unit 103 identifies the first reference frame image based on the change in the two-dimensional movement trajectory of the ball. For example, the reference frame identifying unit 103 identifies the first reference frame image through the following processes S11 to S13.

(S11)基準フレーム特定部103は、第1のフレーム画像群202Aから、ボールのX方向の移動量が所定の閾値以上である(つまりボールが横方向に大きく移動した)第1のフレーム画像を抽出する。これにより、サーブを打った手がボールに当たった直後の、ボールがネット方向に飛んでいる第1のフレーム画像を抽出できる。 (S11) The reference frame identification unit 103 selects a first frame image in which the amount of movement of the ball in the X direction is greater than or equal to a predetermined threshold (that is, the ball has moved significantly in the horizontal direction) from the first frame image group 202A. Extract. As a result, it is possible to extract the first frame image in which the ball is flying toward the net immediately after the hand that hits the serve hits the ball.

(S12)基準フレーム特定部103は、S11で抽出した第1のフレーム画像より以前の一定期間に含まれる複数の第1のフレーム画像のうち、ボールのY軸方向の移動量が所定の閾値以上変化し、かつ、S11で抽出した第1のフレーム画像に最も近い第1のフレーム画像を特定する。これにより、サーブのために投げ上げられたボールが上昇中又は落下中である複数の第1のフレーム画像のうち、サーブを打った手がボールに当たった瞬間の第1のフレーム画像を特定できる。 (S12) The reference frame specifying unit 103 determines that among a plurality of first frame images included in a certain period before the first frame image extracted in S11, the amount of movement of the ball in the Y-axis direction is greater than or equal to a predetermined threshold. The first frame image that has changed and is closest to the first frame image extracted in S11 is identified. This makes it possible to identify the first frame image at the moment when the hand that served the ball hit the ball, among the multiple first frame images in which the ball is rising or falling after being thrown up for a serve. .

(S13)基準フレーム特定部103は、S12で特定した第1のフレーム画像を、第1の基準フレーム画像とする。 (S13) The reference frame identifying unit 103 sets the first frame image identified in S12 as the first reference frame image.

基準フレーム特定部103は、上記と同様の処理により、第2の基準フレーム画像を特定する。そして、基準フレーム特定部103は、第1の基準フレーム画像に対応するタイムコード(以下「第1の基準タイムコード」という)と、第2の基準フレーム画像に対応するタイムコード(以下「第2の基準タイムコード」という)とを、同期ずれ情報203に書き込む。 The reference frame identifying unit 103 identifies the second reference frame image by the same process as described above. Then, the reference frame specifying unit 103 extracts a time code corresponding to the first reference frame image (hereinafter referred to as "first reference time code") and a time code corresponding to the second reference frame image (hereinafter referred to as "second reference time code"). "Reference time code") is written in the synchronization difference information 203.

なお、基準フレーム特定部103は、サーブとは異なるアクション及びサブアクションによって基準フレーム画像を特定してもよい。例えば、基準フレーム特定部103は、プレイヤーのアタック(又はディグ、レセプション、トス、ブロック等)を行った手がボールに当たった瞬間が撮影されているフレーム画像を、基準フレーム画像としてもよい。 Note that the reference frame identifying unit 103 may identify the reference frame image using an action and sub-action different from serve. For example, the reference frame specifying unit 103 may use a frame image captured at the moment when the player's hand attacking (or digging, receiving, tossing, blocking, etc.) hits the ball as the reference frame image.

また、基準フレーム特定部103は、第1の基準タイムコードから第2の基準タイムコードを差し引いた値(以下「同期時間差」という)を、同期ずれ情報203に書き込んでもよい。この同期ずれ情報203に書き込まれた同期時間差は、第1の携帯端末20Aと第2の携帯端末20Bとの間のフレーム画像の同期ずれの大きさに相当する。例えば、同期時間差がほぼ0の場合、第1の携帯端末20Aが付与するタイムコードと、第2の携帯端末20Bが付与するタイムコードとは、ほとんどずれない傾向にあることを示す。同期時間差が正値の場合、第2の携帯端末20Bが付与するタイムコードは、第1の携帯端末20Aが付与するタイムコードよりも遅れる傾向にあることを示す。同期時間差が負値の場合、第1の携帯端末20Aが付与するタイムコードは、第2の携帯端末20Bが付与するタイムコードよりも遅れる傾向にあることを示す。 Further, the reference frame specifying unit 103 may write a value obtained by subtracting the second reference time code from the first reference time code (hereinafter referred to as “synchronization time difference”) to the synchronization shift information 203. The synchronization time difference written in this synchronization shift information 203 corresponds to the magnitude of the synchronization shift of frame images between the first mobile terminal 20A and the second mobile terminal 20B. For example, when the synchronization time difference is approximately 0, this indicates that the time code provided by the first mobile terminal 20A and the time code provided by the second mobile terminal 20B tend to be almost the same. If the synchronization time difference is a positive value, this indicates that the time code provided by the second mobile terminal 20B tends to be later than the time code provided by the first mobile terminal 20A. If the synchronization time difference is a negative value, this indicates that the time code provided by the first mobile terminal 20A tends to be later than the time code provided by the second mobile terminal 20B.

図3の説明に戻る。 Returning to the explanation of FIG. 3.

基準フレーム特定部103が上述した方法によって自動的に特定した基準フレーム画像は、必ずしも正しい基準フレーム画像であるとは限らない。そこで、基準フレーム特定部103は、ユーザが基準フレーム画像を確認するためのUI(User Interface)(以下「基準フレーム確認用UI」という)310を提供する。なお、基準フレーム確認用UI310の詳細については後述する(図8参照)。 The reference frame image automatically identified by the reference frame specifying unit 103 using the method described above is not necessarily the correct reference frame image. Therefore, the reference frame specifying unit 103 provides a UI (User Interface) 310 (hereinafter referred to as "reference frame confirmation UI") for the user to confirm the reference frame image. Note that details of the reference frame confirmation UI 310 will be described later (see FIG. 8).

基準フレーム変更部104は、ユーザが基準フレーム画像を変更するためのUI(以下「基準フレーム変更用UI」という)320を提供する。なお、基準フレーム変更用UI320の詳細については後述する(図9参照)。基準フレーム変更部104は、基準フレーム変更用UI320を通じて基準フレーム画像が変更された場合、その変更された基準フレーム画像に基づいて、同期ずれ情報203を変更する。 The reference frame changing unit 104 provides a UI (hereinafter referred to as "reference frame changing UI") 320 for the user to change the reference frame image. Note that details of the reference frame change UI 320 will be described later (see FIG. 9). When the reference frame image is changed through the reference frame change UI 320, the reference frame changing unit 104 changes the synchronization shift information 203 based on the changed reference frame image.

解析部105は、例えばプレイヤーによるサーブのアクションを撮影した第1の動画201A及び第2の動画201Bから、同期ずれ情報203を用いて、アクションに係るボールの3次元空間における移動軌跡を特定し、そのボールの移動軌跡を示す情報を含む解析結果情報204を生成する。なお、解析部105が解析対象とする第1の動画201A及び第2の動画201Bは、上述した同期ずれ情報203を生成するために撮影された第1の動画201A及び第2の動画201Bと異なるものであってよい。 The analysis unit 105 uses the synchronization difference information 203 from a first video 201A and a second video 201B that capture a serve action by a player, for example, to identify a movement trajectory of a ball in a three-dimensional space related to the action, Analysis result information 204 including information indicating the movement trajectory of the ball is generated. Note that the first video 201A and second video 201B that are analyzed by the analysis unit 105 are different from the first video 201A and second video 201B that were shot to generate the synchronization difference information 203 described above. It can be anything.

例えば、解析部105は、事前にキャリブレーション処理により求めた第1の携帯端末20A及び第2の携帯端末20Bの各々のカメラパラメータ(世界座標をカメラ画像に変換するための透視投影変換行列による)と、第1のフレーム画像におけるボールの位置と、同期ずれ情報203によって補正された、当該第1のフレーム画像に同期する第2のフレーム画像におけるボールの位置とに基づいて、当該第1のフレーム画像及び第2のフレーム画像が撮影されたタイミングにおけるボールの3次元座標を特定する。解析部105は、このように特定したボールの3次元座標を時系列に並べることにより、3次元空間におけるボールの移動軌跡を特定する。解析部105は、その特定したボールの移動軌跡を示す情報を含む解析結果情報204を生成する。これにより、球技映像解析に特化した専用カメラではなく、携帯端末に搭載されたカメラを用いても、十分な精度で3次元空間におけるボールの移動軌跡を解析できる。 For example, the analysis unit 105 calculates each camera parameter of the first mobile terminal 20A and the second mobile terminal 20B (based on a perspective projection transformation matrix for converting world coordinates into a camera image) obtained in advance through calibration processing. , the position of the ball in the first frame image, and the position of the ball in the second frame image that is synchronized with the first frame image, which is corrected by the synchronization difference information 203. The three-dimensional coordinates of the ball at the timing when the image and the second frame image were photographed are identified. The analysis unit 105 specifies the movement trajectory of the ball in the three-dimensional space by arranging the three-dimensional coordinates of the ball identified in this way in chronological order. The analysis unit 105 generates analysis result information 204 including information indicating the movement trajectory of the identified ball. As a result, the movement trajectory of a ball in three-dimensional space can be analyzed with sufficient accuracy even when a camera mounted on a mobile terminal is used instead of a dedicated camera specialized for ball game video analysis.

結果表示部106は、解析結果情報204を、例えば表示端末30に表示させる。なお、結果表示部106は、第1の携帯端末20A及び/又は第2の携帯端末20Bに解析結果情報204を表示させてもよい。 The result display unit 106 displays the analysis result information 204 on, for example, the display terminal 30. Note that the result display unit 106 may display the analysis result information 204 on the first mobile terminal 20A and/or the second mobile terminal 20B.

<事前作業>
図5は、事前作業の一例を示すフローチャートである。事前作業とは、解析部105によって本番のアクションの解析を行う前に行われる作業であり、例えば、同期ずれ情報203を生成するために行われる作業である。
<Preliminary work>
FIG. 5 is a flowchart showing an example of preliminary work. The preliminary work is work performed before the analysis unit 105 analyzes the actual action, and is, for example, work performed to generate the synchronization difference information 203.

ユーザは、プレイヤー及びボールを互いに異なる方向から撮影できる位置に第1の携帯端末20A及び第2の携帯端末20Bをそれぞれ設置する(S101)。 The user installs the first mobile terminal 20A and the second mobile terminal 20B at positions where they can photograph the player and the ball from different directions (S101).

ユーザは、第1の携帯端末20A及び第2の携帯端末20Bをペアリングする(S102)。ペアリングの情報は、球技映像解析装置100へ送信されてよい。 The user pairs the first mobile terminal 20A and the second mobile terminal 20B (S102). Pairing information may be transmitted to the ball game video analysis device 100.

ユーザは、第1の携帯端末20A及び第2の携帯端末20Bに対して、事前作業に係る撮影の開始を指示する(S103)。これにより、第1の携帯端末20A及び第2の携帯端末20Bは、撮影を開始する。 The user instructs the first mobile terminal 20A and the second mobile terminal 20B to start photographing related to the preliminary work (S103). Thereby, the first mobile terminal 20A and the second mobile terminal 20B start photographing.

プレイヤーはサーブを打つ(S104)。これにより、第1の携帯端末20A及び第2の携帯端末20Bは、それぞれ、プレイヤーがサーブを打ってボールが飛んでいく第1の動画201A及び第2の動画201Bを撮影できる。なお、ユーザとプレイヤーは同一人物であってもよい。 The player hits a serve (S104). Thereby, the first mobile terminal 20A and the second mobile terminal 20B can respectively photograph a first video 201A and a second video 201B in which the player hits a serve and the ball flies. Note that the user and the player may be the same person.

ユーザは、第1の携帯端末20A及び第2の携帯端末20Bに対して、事前作業に係る撮影の停止を指示する(S105)。第1の携帯端末20A及び第2の携帯端末20Bは、それぞれ、撮影の停止の指示を受け、第1の動画201A及び第2の動画201Bを球技映像解析装置100へ送信する。球技映像解析装置100は、第1の動画201Aから第1の基準フレーム画像を、第2の動画201Bから第2の基準フレーム画像を特定し、基準フレーム確認用UI310を表示端末30に表示させる。 The user instructs the first mobile terminal 20A and the second mobile terminal 20B to stop photographing related to the preliminary work (S105). The first mobile terminal 20A and the second mobile terminal 20B each receive the instruction to stop shooting, and transmit the first video 201A and the second video 201B to the ball game video analysis device 100. The ball game video analysis device 100 specifies the first reference frame image from the first video 201A and the second reference frame image from the second video 201B, and displays the reference frame confirmation UI 310 on the display terminal 30.

ユーザは、表示端末30に表示された基準フレーム確認用UI310から、第1の基準フレーム画像及び第2の基準フレーム画像を確認する(S106)。ユーザは、例えば、基準フレーム画像を変更する場合、基準フレーム確認用UI310を通じて、球技映像解析装置100に対して、基準フレーム画像の変更を指示する。この場合、球技映像解析装置100は、基準フレーム変更用UI320を表示端末30に表示させる。 The user checks the first reference frame image and the second reference frame image from the reference frame confirmation UI 310 displayed on the display terminal 30 (S106). For example, when changing the reference frame image, the user instructs the ball game video analysis device 100 to change the reference frame image through the reference frame confirmation UI 310. In this case, the ball game video analysis device 100 displays the reference frame change UI 320 on the display terminal 30.

なお、上記のS103、S105における撮影の開始及び停止の指示は、どちらか一方の携帯端末から行うことができてよい。例えば、第1の携帯端末20Aから撮影の開始及び停止の指示が行われた場合、この撮影の開始及び指示は、球技映像解析装置100を介して、第2の携帯端末20Bに自動で送信されてよい。 Note that instructions to start and stop photographing in S103 and S105 above may be given from either one of the mobile terminals. For example, when an instruction to start and stop shooting is given from the first mobile terminal 20A, the instruction to start and stop shooting is automatically transmitted to the second mobile terminal 20B via the ball game video analysis device 100. It's fine.

ユーザは、表示端末30に表示された基準フレーム変更用UI320を操作して、基準フレーム画像を変更する(S107)。なお、S106及びS107の詳細については後述する(図7、図8参照)。 The user operates the reference frame change UI 320 displayed on the display terminal 30 to change the reference frame image (S107). Note that details of S106 and S107 will be described later (see FIGS. 7 and 8).

以上の処理により、球技映像解析装置100は、ユーザによって確認及び修正された第1の基準フレーム画像及び第2の基準フレーム画像に基づいて、同期ずれ情報203を生成できる。 Through the above processing, the ball game video analysis device 100 can generate the synchronization shift information 203 based on the first reference frame image and the second reference frame image that have been confirmed and corrected by the user.

<事前作業に関する処理>
図6は、事前作業に関する処理の一例を示すシーケンスチャートである。図6は、図5におけるS106~S107の詳細な説明に相当する。
<Processing related to preliminary work>
FIG. 6 is a sequence chart showing an example of processing related to preliminary work. FIG. 6 corresponds to detailed explanation of S106 to S107 in FIG. 5.

動画受信部101は、第1の携帯端末20Aから第1の動画201Aを受信し(S201)、第2の携帯端末20Bから第2の動画201Bを受信する(S202)。 The video receiving unit 101 receives the first video 201A from the first mobile terminal 20A (S201), and receives the second video 201B from the second mobile terminal 20B (S202).

画像変換部102は、第1の動画201Aから第1のフレーム画像群202Aを生成し、第2の動画201Bから第2のフレーム画像群202Bを生成する(S203)。 The image conversion unit 102 generates a first frame image group 202A from the first moving image 201A, and generates a second frame image group 202B from the second moving image 201B (S203).

基準フレーム特定部103は、第1のフレーム画像群202Aの中から、アクションを構成する特定のサブアクションが撮影された第1の基準フレーム画像を探索する(S204)。例えば、基準フレーム特定部103は、前述のように、ボールの2次元(X方向、Y方向)の移動軌跡の変化に基づいて、プレイヤーのサーブを打った手がボールに当たった瞬間が撮影された第1の基準フレーム画像を探索する。 The reference frame identifying unit 103 searches the first frame image group 202A for a first reference frame image in which a specific sub-action constituting an action has been photographed (S204). For example, as described above, the reference frame specifying unit 103 photographs the moment when the player's serve hand hits the ball based on changes in the two-dimensional (X direction, Y direction) movement trajectory of the ball. A first reference frame image is searched for.

基準フレーム特定部103は、上記同様、第2のフレーム画像群202Bの中から、第2の基準フレーム画像を探索する(S205)。このとき、基準フレーム特定部103は、第1の基準フレーム画像のタイムコードから所定時間遡ったタイムコード以降の第2のフレーム画像群202Bを、第2の基準フレーム画像の探索範囲としてよい。これにより、第2のフレーム画像群202Bのすべてを探索範囲とする場合と比較して、探索に要する時間を短縮できる。 Similarly to the above, the reference frame identifying unit 103 searches for the second reference frame image from the second frame image group 202B (S205). At this time, the reference frame specifying unit 103 may set the second frame image group 202B after a time code that is a predetermined time back from the time code of the first reference frame image as the search range for the second reference frame image. Thereby, the time required for the search can be shortened compared to the case where the entire second frame image group 202B is set as the search range.

基準フレーム特定部103は、第1の基準フレーム画像のタイムコード(第1の基準タイムコード)、及び、第2の基準フレーム画像のタイムコード(第2の基準タイムコード)を、同期ずれ情報203に書き込む(S206)。 The reference frame specifying unit 103 uses the time code of the first reference frame image (first reference time code) and the time code of the second reference frame image (second reference time code) as synchronization shift information 203. (S206).

基準フレーム変更部104は、第1の基準フレーム画像及び第2の基準フレーム画像、並びに、基準フレーム確認用UI310を表示するための情報を、表示端末30に送信する(S207)。 The reference frame changing unit 104 transmits the first reference frame image, the second reference frame image, and information for displaying the reference frame confirmation UI 310 to the display terminal 30 (S207).

表示端末30は、第1の基準フレーム画像、第2の基準フレーム画像、及び、基準フレーム確認用UI310を表示する(S208)。なお、基準フレーム確認用UI310の詳細については後述する(図8参照)。 The display terminal 30 displays the first reference frame image, the second reference frame image, and the reference frame confirmation UI 310 (S208). Note that details of the reference frame confirmation UI 310 will be described later (see FIG. 8).

S208にて表示された基準フレーム確認用UI310に対して、ユーザが、基準フレーム画像を変更しない旨の操作を行った場合、表示端末30は、変更なしを示す指示情報を球技映像解析装置100に送信する(S209)。 When the user performs an operation to the effect that the reference frame image is not changed on the reference frame confirmation UI 310 displayed in S208, the display terminal 30 sends instruction information indicating no change to the ball game video analysis device 100. Send (S209).

基準フレーム変更部104は、変更なしを示す指示情報を受信した場合、S206にて書き込まれた同期ずれ情報203の内容を確定する(S210)。そして、球技映像解析装置100は本処理を終了する。 When the reference frame changing unit 104 receives instruction information indicating no change, it determines the contents of the synchronization shift information 203 written in S206 (S210). Then, the ball game video analysis device 100 ends this process.

図7は、図6において基準フレーム画像を変更する旨の操作が行われた場合の事前作業に関する処理の一例を示すシーケンスチャートである。 FIG. 7 is a sequence chart illustrating an example of processing related to preliminary work when an operation to change the reference frame image in FIG. 6 is performed.

S208にて表示された基準フレーム確認用UI310に対して、ユーザが基準フレーム画像を変更する旨の操作を行った場合、表示端末30は、変更ありを示す指示情報を、球技映像解析装置100に送信する(S221)。 When the user performs an operation to change the reference frame image on the reference frame confirmation UI 310 displayed in S208, the display terminal 30 sends instruction information indicating that the reference frame image has been changed to the ball game video analysis device 100. Send (S221).

基準フレーム変更部104は、変更ありを示す指示情報を受信した場合、次の処理を行う。すなわち、基準フレーム変更部104は、第1のフレーム画像群202Aから、S204で探索した第1の基準フレーム画像の前後に撮影された複数の第1のフレーム画像を抽出し、それら抽出した複数の第1のフレーム画像を、第1の基準フレーム画像の候補とする。 When the reference frame changing unit 104 receives instruction information indicating that there is a change, the reference frame changing unit 104 performs the following process. That is, the reference frame changing unit 104 extracts a plurality of first frame images taken before and after the first reference frame image searched in S204 from the first frame image group 202A, and The first frame image is set as a candidate for the first reference frame image.

同様に、基準フレーム変更部104は、第2のフレーム画像群202Bから、S205で探索した第2の基準フレーム画像の前後に撮影された複数の第2のフレーム画像を抽出し、それら抽出した複数の第2のフレーム画像を、第2の基準フレーム画像の候補とする。そして、基準フレーム変更部104は、複数の第1の候補フレームの候補とこれらのタイムコード、複数の第2の基準フレーム画像の候補とこれらのタイムコード、及び、基準フレーム変更用UI320を表示するための情報を、表示端末30に送信する(S222)。 Similarly, the reference frame changing unit 104 extracts a plurality of second frame images taken before and after the second reference frame image searched in S205 from the second frame image group 202B, and The second frame image is set as a candidate for the second reference frame image. Then, the reference frame change unit 104 displays the plurality of first candidate frame candidates and their time codes, the plurality of second reference frame image candidates and their time codes, and the reference frame change UI 320. information is transmitted to the display terminal 30 (S222).

表示端末30は、基準フレーム変更用UI320を表示する(S223)。なお、基準フレーム変更用UI320の詳細については後述する(図9参照)。 The display terminal 30 displays the reference frame change UI 320 (S223). Note that details of the reference frame change UI 320 will be described later (see FIG. 9).

ユーザは、S223にて表示された基準フレーム変更用UI320を操作して、複数の第1の基準フレーム画像の候補の中から、変更後の第1の基準フレーム画像を選択し、複数の第2の基準フレーム画像の候補の中から、変更後の第2の基準フレーム画像を選択する(S224)。 The user operates the reference frame change UI 320 displayed in S223 to select the changed first reference frame image from among the plurality of first reference frame image candidates, and selects the changed first reference frame image from among the plurality of first reference frame image candidates. The changed second reference frame image is selected from among the reference frame image candidates (S224).

表示端末30は、S224にて選択された、変更後の第1の基準フレーム画像のタイムコード(以下「変更後の第1の基準タイムコード」という)、及び/又は、変更後の第2の基準フレーム画像のタイムコード(以下「変更後の第2の基準タイムコード」という)を、球技映像解析装置100に送信する(S225)。 The display terminal 30 displays the time code of the first reference frame image after the change selected in S224 (hereinafter referred to as the "first reference time code after the change") and/or the time code of the second reference frame image after the change. The time code of the reference frame image (hereinafter referred to as the "changed second reference time code") is transmitted to the ball game video analysis device 100 (S225).

基準フレーム変更部104は、表示端末30から受信した、変更後の第1の基準タイムコード、及び/又は、変更後の第2の基準タイムコードを、同期ずれ情報203に上書きし、当該同期ずれ情報203の内容を確定する(S226)。これにより、基準フレーム特定部103によって自動的に生成された同期ずれ情報203の内容が、基準フレーム変更部104を通じてユーザによって変更された基準フレーム画像のタイムコードにて上書きされる。そして、球技映像解析装置100は本処理を終了する。 The reference frame changing unit 104 overwrites the synchronization difference information 203 with the changed first reference time code and/or the changed second reference time code received from the display terminal 30, and removes the synchronization difference. The contents of the information 203 are determined (S226). As a result, the contents of the synchronization difference information 203 automatically generated by the reference frame specifying unit 103 are overwritten with the time code of the reference frame image changed by the user through the reference frame changing unit 104. Then, the ball game video analysis device 100 ends this process.

<基準フレーム確認用UIの詳細>
図8は、基準フレーム確認用UIの詳細例を示す図である。
<Details of UI for checking reference frame>
FIG. 8 is a diagram showing a detailed example of the reference frame confirmation UI.

図8に示すように、基準フレーム確認用UI310は、第1の画像表示領域210A、第2の画像表示領域210B、OKボタン312、変更ボタン313、及び、やり直しボタン314を含む。なお、基準フレーム確認用UI310は、変更ボタン313又はやり直しボタン314の何れか一方を含まなくてもよい。 As shown in FIG. 8, the reference frame confirmation UI 310 includes a first image display area 210A, a second image display area 210B, an OK button 312, a change button 313, and a redo button 314. Note that the reference frame confirmation UI 310 does not need to include either the change button 313 or the redo button 314.

表示端末30は、第1の画像表示領域210Aに、図6のS207にて球技映像解析装置100から送信された第1の基準フレーム画像を表示する。表示端末30は、第2の画像表示領域210Bに、図6のS207にて球技映像解析装置100から送信された第2の基準フレーム画像を表示する。図8に示すように、第1の画像表示領域210Aと第2の画像表示領域210Bは、左右に並べて配置されてよい。ただし、第1の画像表示領域210Aと第2の画像表示領域210Bの配置態様は、左右に並べられる配置に限られない。例えば、第1の画像表示領域210Aと第2の画像表示領域210Bは、別々のウィンドウとして表示されてもよい。 The display terminal 30 displays the first reference frame image transmitted from the ball game video analysis device 100 in S207 of FIG. 6 in the first image display area 210A. The display terminal 30 displays the second reference frame image transmitted from the ball game video analysis device 100 in S207 of FIG. 6 in the second image display area 210B. As shown in FIG. 8, the first image display area 210A and the second image display area 210B may be arranged side by side. However, the manner in which the first image display area 210A and the second image display area 210B are arranged is not limited to being arranged side by side. For example, the first image display area 210A and the second image display area 210B may be displayed as separate windows.

表示端末30は、OKボタン312が押下された場合、図6のS209における変更なしを示す指示情報を、球技映像解析装置100に送信する。ユーザは、第1の画像表示領域210Aに表示された第1の基準フレーム画像と、第2の画像表示領域210Bに表示された第2の基準フレーム画像とのいずれもが、正しくサブアクションが撮影された画像である場合、OKボタン312を押下してよい。これにより、図6のS210に示すように、同期ずれ情報203の内容が確定される。 When the OK button 312 is pressed, the display terminal 30 transmits instruction information indicating no change in S209 of FIG. 6 to the ball game video analysis device 100. The user can confirm that both the first reference frame image displayed in the first image display area 210A and the second reference frame image displayed in the second image display area 210B are captured by the subaction correctly. If the image is an image that has been edited, the OK button 312 may be pressed. Thereby, as shown in S210 of FIG. 6, the contents of the synchronization difference information 203 are determined.

表示端末30は、変更ボタン313が押下された場合、図7のS221における変更ありを示す指示情報を、球技映像解析装置100に送信する。ユーザは、第1の画像表示領域210Aに表示された第1の基準フレーム画像と、第2の画像表示領域210Bに表示された第2の基準フレーム画像とのうちの少なくとも一方が、正しくサブアクションが撮影された画像でない場合、変更ボタン313を押下してよい。これにより、図7のS223に示すように、表示端末30には、基準フレーム変更用UI320が表示される。 When the change button 313 is pressed, the display terminal 30 transmits instruction information indicating that there is a change in S221 of FIG. 7 to the ball game video analysis device 100. The user can correctly determine whether at least one of the first reference frame image displayed in the first image display area 210A and the second reference frame image displayed in the second image display area 210B is a subaction. If the image is not a photographed image, the change button 313 may be pressed. Thereby, as shown in S223 in FIG. 7, the reference frame change UI 320 is displayed on the display terminal 30.

表示端末30は、やり直しボタン314が押下された場合、事前作業のやり直しを示す指示情報を球技映像解析装置100に送信する。この指示を受信した場合、球技映像解析装置100、第1の携帯端末20A及び第2の携帯端末20Bは、図5のS103から事前作業をやり直す。例えば、S104のサーブに失敗した場合、第1の基準フレーム画像及び/又は第2の基準フレーム画像が明らかにプレイヤーによるサーブのボールとは別のボール(例えば床に転がっているボールや他のプレイヤーが練習中のボール等)を認識したものである場合、ユーザは、やり直しボタン314を押下してよい。 When the redo button 314 is pressed, the display terminal 30 transmits instruction information indicating redo of the preliminary work to the ball game video analysis device 100. When receiving this instruction, the ball game video analysis device 100, the first mobile terminal 20A, and the second mobile terminal 20B redo the preliminary work from S103 in FIG. 5. For example, if the serve in S104 fails, the first reference frame image and/or the second reference frame image clearly shows a ball other than the ball served by the player (for example, a ball lying on the floor or another player). If the user recognizes a ball being practiced (such as a ball being practiced), the user may press the redo button 314.

なお、第1の基準フレーム画像には、S204にて探索された第1の基準フレーム画像の直前の3枚の第1のフレーム画像と、当該第1の基準フレームの直後の3枚の第1のフレーム画像とが含まれてよい。この場合、第1の基準フレーム画像は、S204にて探索された第1の基準フレーム画像も含めて、合計7枚となる。同様に、第2の基準フレーム画像には、S205にて探索された第2の基準フレーム画像の直前の3枚の第2のフレーム画像と、当該第2の基準フレーム画像の直後の3枚の第2のフレーム画像とが含まれてよい。この場合、第2の基準フレーム画像は、S205にて探索された第2の基準フレーム画像も含めて、合計7枚となる。 Note that the first reference frame images include three first frame images immediately before the first reference frame image searched in S204, and three first frame images immediately after the first reference frame. The frame image may be included. In this case, there are a total of seven first reference frame images, including the first reference frame image searched in S204. Similarly, the second reference frame image includes three second frame images immediately before the second reference frame image searched in S205 and three second frame images immediately after the second reference frame image. A second frame image may be included. In this case, there are a total of seven second reference frame images, including the second reference frame image searched in S205.

この場合、表示端末30は、第1の画像表示領域210A及び第2の画像表示領域210Bにおいて、それぞれ、7枚の第1の基準フレーム画像、及び、7枚の第2の基準フレーム画像を、同期させて連続的に表示してもよい。 In this case, the display terminal 30 displays seven first reference frame images and seven second reference frame images in the first image display area 210A and the second image display area 210B, respectively. It may be synchronized and displayed continuously.

なお、上記の7枚は一例であり、複数の第1及び第2の基準フレーム画像の枚数はいくつであってもよい。また、複数の第1及び第2の基準フレーム画像は、1フレームずつ連続する場合に限られず、所定のフレーム間隔でスキップされたものであってもよい。 Note that the above seven images are just an example, and the number of the plurality of first and second reference frame images may be any number. Further, the plurality of first and second reference frame images are not limited to being consecutive one frame at a time, and may be skipped at predetermined frame intervals.

これにより、ユーザは、1枚の第1の基準フレーム画像と第2の基準フレーム画像との間の同期を確認するだけでなく、複数枚の第1の基準フレーム画像と第2の基準フレーム画像との間の同期を容易に確認することができる。 This allows the user to not only check the synchronization between one first reference frame image and the second reference frame image, but also to check the synchronization between the first reference frame image and the second reference frame image. You can easily check the synchronization between

なお、図8に示した基準フレーム確認用UI310を表示端末30へ表示する例を示したが、この基準フレーム確認用UI310を、第1の携帯端末20A又は第2の携帯端末20Bのいずれか一方に表示させてもよい。あるいは、第1の基準フレーム画像に対する基準フレーム確認用UI310を第1の携帯端末20Aに表示させ、第2の基準フレーム画像に対する基準フレーム確認用UI310を第2の携帯端末20Bに表示させてもよい。 Although an example has been shown in which the reference frame confirmation UI 310 shown in FIG. 8 is displayed on the display terminal 30, this reference frame confirmation UI 310 may be displayed on either the first mobile terminal 20A or the second mobile terminal 20B. may be displayed. Alternatively, the reference frame confirmation UI 310 for the first reference frame image may be displayed on the first mobile terminal 20A, and the reference frame confirmation UI 310 for the second reference frame image may be displayed on the second mobile terminal 20B. .

<基準フレーム変更用UIの詳細>
図9は、基準フレーム変更用UIの詳細例を示す図である。
<Details of UI for changing reference frame>
FIG. 9 is a diagram showing a detailed example of the reference frame change UI.

図9に示すように、基準フレーム変更用UI320は、第1の画像表示領域210A、第2の画像表示領域210B、OKボタン322、及び、戻りボタン323を含む。さらに、基準フレーム変更用UI320は、第1の画像表示領域210Aに対応する、1フレーム戻りボタン324A、Nフレーム戻りボタン325A、1フレーム進みボタン326A、Nフレーム進みボタン327Aを含む。ここで、Nは2以上の予め定められた整数である。さらに、基準フレーム変更用UI320は、第2の画像表示領域210Bに対応する、1フレーム戻りボタン324B、Nフレーム戻りボタン325B、1フレーム進みボタン326B、Nフレーム進みボタン327Bを含む。 As shown in FIG. 9, the reference frame change UI 320 includes a first image display area 210A, a second image display area 210B, an OK button 322, and a return button 323. Furthermore, the reference frame change UI 320 includes a 1 frame return button 324A, an N frame return button 325A, a 1 frame advance button 326A, and an N frame advance button 327A, which correspond to the first image display area 210A. Here, N is a predetermined integer of 2 or more. Further, the reference frame change UI 320 includes a 1 frame return button 324B, an N frame return button 325B, a 1 frame advance button 326B, and an N frame advance button 327B, which correspond to the second image display area 210B.

表示端末30は、戻りボタン323が押下された場合、図8に示す基準フレーム確認用UI310の表示に戻る。 When the return button 323 is pressed, the display terminal 30 returns to displaying the reference frame confirmation UI 310 shown in FIG. 8 .

表示端末30は、1フレーム戻りボタン324Aが押下された場合、第1の画像表示領域210Aに表示中の第1の基準フレーム画像の候補よりも1フレーム以前の第1の基準フレーム画像の候補を、第1の画像表示領域210Aに表示する。なお、第2の画像表示領域210Bに対応する1フレーム戻りボタン324Bについても同様である。 When the one-frame return button 324A is pressed, the display terminal 30 displays a first reference frame image candidate that is one frame earlier than the first reference frame image candidate currently displayed in the first image display area 210A. , is displayed in the first image display area 210A. Note that the same applies to the one-frame return button 324B corresponding to the second image display area 210B.

表示端末30は、Nフレーム戻りボタン325Aが押下された場合、第1の画像表示領域210Aに表示中の第1の基準フレーム画像の候補よりもNフレーム以前の第1の基準フレーム画像の候補を、第1の画像表示領域210Aに表示する。なお、第2の画像表示領域210Bに対応するNフレーム戻りボタン325Bについても同様である。 When the N frame return button 325A is pressed, the display terminal 30 displays a first reference frame image candidate that is N frames earlier than the first reference frame image candidate currently displayed in the first image display area 210A. , is displayed in the first image display area 210A. Note that the same applies to the N frame return button 325B corresponding to the second image display area 210B.

表示端末30は、1フレーム進みボタン326Aが押下された場合、第1の画像表示領域210Aに表示中の第1の基準フレーム画像の候補よりも1フレーム以後の第1の基準フレーム画像の候補を、第1の画像表示領域210Aに表示する。なお、第2の画像表示領域210Bに対応する1フレーム進みボタン326Bについても同様である。 When the advance one frame button 326A is pressed, the display terminal 30 selects a first reference frame image candidate one frame later than the first reference frame image candidate currently displayed in the first image display area 210A. , is displayed in the first image display area 210A. Note that the same applies to the advance one frame button 326B corresponding to the second image display area 210B.

表示端末30は、Nフレーム進みボタン327Aが押下された場合、第1の画像表示領域210Aに表示中の第1の基準フレーム画像の候補よりもNフレーム以後の第1の基準フレーム画像の候補を、第1の画像表示領域210Aに表示する。なお、第2の画像表示領域210Bに対応するNフレーム進みボタン327Bについても同様である。 When the N frame advance button 327A is pressed, the display terminal 30 selects a first reference frame image candidate N frames later than the first reference frame image candidate currently displayed in the first image display area 210A. , is displayed in the first image display area 210A. Note that the same applies to the advance N frame button 327B corresponding to the second image display area 210B.

ユーザは、第1の画像表示領域210A及び第2の画像表示領域210Bのいずれにも、正しくサブアクションが撮影された画像が表示されるように、上述した各ボタン324A~327A、324B~327Bを操作してよい。 The user presses each of the above-mentioned buttons 324A to 327A and 324B to 327B so that the image in which the subaction has been correctly captured is displayed in both the first image display area 210A and the second image display area 210B. You can operate it.

表示端末30は、OKボタン322が押下された場合、第1の画像表示領域210Aに表示中の第1の基準フレーム画像の候補のタイムコード(変更後の第1の基準タイムコード)、及び、第2の画像表示領域210Bに表示中の第2の基準フレーム画像の候補のタイムコード(変更後の第2の基準タイムコード)を、球技映像解析装置100へ送信する。この処理は、図7のS225に相当する。ユーザは、第1の画像表示領域210A及び第2の画像表示領域210Bのいずれにも正しくサブアクションが撮影された画像が表示されるように操作した後、OKボタン322を押下してよい。 When the OK button 322 is pressed, the display terminal 30 displays the time code of the candidate for the first reference frame image being displayed in the first image display area 210A (the first reference time code after the change), and The time code of the candidate for the second reference frame image being displayed in the second image display area 210B (the changed second reference time code) is transmitted to the ball game video analysis device 100. This process corresponds to S225 in FIG. The user may press the OK button 322 after performing an operation such that an image in which the sub-action has been correctly captured is displayed in both the first image display area 210A and the second image display area 210B.

<解析結果画面>
図10は、解析結果の表示例を示す図である。
<Analysis result screen>
FIG. 10 is a diagram showing a display example of the analysis results.

第1の携帯端末20A及び第2の携帯端末20Bは、プレイヤーのサーブの練習を撮影し、それぞれ、第1の動画201A及び第2の動画201Bを生成及び送信する。なお、この第1の動画201A及び第2の動画201Bは、事前作業のために撮影された第1の動画201A及び第2の動画201Bとは異なるものであってよい。 The first mobile terminal 20A and the second mobile terminal 20B photograph the player's serve practice, and generate and transmit a first video 201A and a second video 201B, respectively. Note that the first video 201A and the second video 201B may be different from the first video 201A and the second video 201B shot for preliminary work.

解析部105は、サーブの練習が撮影された第1の動画201A及び第2の動画201Bとの間のフレーム画像の同期ずれを同期ずれ情報203に基づいて補正した上で、ボールの移動軌跡を解析し、解析結果情報204を生成する。例えば、同期ずれ情報203において、第2の基準タイムコードが第1の基準タイムコードよりも以後である場合、解析部105は、第2の基準タイムコードと第1の基準タイムコードとの間の差分時間の分、第1の動画201Aの各フレーム画像を遅らせる補正を行った上で、第1の動画201の各フレーム画像と第2の動画201Bの各フレーム画像とを同期させて、ボールの移動軌跡を解析する。これにより、第2の携帯端末20Bによるタイムコード付与の遅れが補正され、十分な精度のボールの移動軌跡を算出できる。 The analysis unit 105 corrects the synchronization difference of the frame images between the first video 201A and the second video 201B in which serve practice is shot based on the synchronization difference information 203, and then calculates the movement trajectory of the ball. The analysis result information 204 is generated. For example, in the synchronization difference information 203, if the second reference time code is later than the first reference time code, the analysis unit 105 analyzes the difference between the second reference time code and the first reference time code. After making corrections to delay each frame image of the first video 201A by the difference time, each frame image of the first video 201 and each frame image of the second video 201B are synchronized, and the ball is Analyze the movement trajectory. As a result, the delay in assigning the time code by the second mobile terminal 20B is corrected, and the movement trajectory of the ball can be calculated with sufficient accuracy.

結果表示部106は、解析結果情報204に基づく解析結果画面330を、表示端末30に表示させる。例えば、解析結果画面330には、図10に示すように、第1の動画201A又は第2の動画201Bの再生に対して、解析結果情報204が示すボールの移動軌跡331が重畳表示されてよい。加えて、解析結果画面330には、手で打たれたボールが手から離れた瞬間のボールの高さ及び速度が表示されてもよい。加えて、解析結果画面330には、ボールがネット上を通過する瞬間のボールの高さ及び速度が表示されてもよい。 The result display unit 106 causes the display terminal 30 to display an analysis result screen 330 based on the analysis result information 204. For example, as shown in FIG. 10, on the analysis result screen 330, the movement trajectory 331 of the ball indicated by the analysis result information 204 may be displayed superimposed on the playback of the first video 201A or the second video 201B. . In addition, the analysis result screen 330 may display the height and speed of the ball hit by the hand at the moment it leaves the hand. In addition, the analysis result screen 330 may display the height and speed of the ball at the moment the ball passes over the net.

これにより、プレイヤーは、解析結果画面330から、サーブのときの体の動きに加えて、そのサーブによるボールの移動軌跡を詳細に確認できる。 This allows the player to check in detail the movement of the ball during the serve as well as the movement trajectory of the ball due to the serve from the analysis result screen 330.

なお、上述では、事前作業として、予め同期調整用の動画を撮影し、同期調整及び確認を行ってから、解析処理用の動画を撮影して、ボールの軌跡等が重畳された動画を解析結果として表示させる例を説明した。しかし、本実施の形態は、同期調整用の動画と解析処理用の動画とを区別することなく、例えば、最初に撮影した動画において、連続して同期調整と解析処理とを行う構成であってもよい。さらに、同期ずれの検出を自動化し、順次撮影した動画に対する解析処理を行う中、任意のタイミングで同期調整を実行するようにしてもよい。 In addition, in the above, as a preliminary work, a video for synchronization adjustment is taken in advance, synchronization adjustment and confirmation is performed, and then a video is taken for analysis processing, and the video with the trajectory of the ball etc. superimposed is used as the analysis result. An example of displaying this is explained. However, in the present embodiment, the synchronization adjustment and analysis processing are performed continuously on the first video shot, for example, without distinguishing between the video for synchronization adjustment and the video for analysis processing. Good too. Furthermore, detection of synchronization deviation may be automated and synchronization adjustment may be performed at any timing while performing analysis processing on sequentially shot videos.

<変形例>
上述では、フレーム同期のずれを示す情報として、第1の携帯端末20Aが第1のフレーム画像に付与した第1のタイムコードと、第2の携帯端末20Bが第2のフレーム画像に付与した第2のタイムコードとを用いる例を説明した。しかし、フレーム同期のずれを示す情報は、タイムコードに限られない。
<Modified example>
In the above description, the first time code added to the first frame image by the first mobile terminal 20A and the second time code added to the second frame image by the second mobile terminal 20B are used as information indicating the frame synchronization deviation. An example using the time code No. 2 has been explained. However, information indicating a shift in frame synchronization is not limited to time codes.

例えば、フレーム同期のずれを示す情報として、第1の携帯端末20Aが生成した第1の動画201Aにおける第1のフレーム画像のフレーム番号(以下「第1のフレーム番号」という)と、第2の携帯端末20Bが生成した第2の動画201Bにおけるフレーム画像(以下「第2のフレーム番号」という)とを用いてもよい。この場合、基準フレーム特定部103は、第1の基準フレーム画像の第1のフレーム番号(以下「第1の基準フレーム番号」という)と、第2の基準フレーム画像の第2のフレーム番号(以下「第2の基準フレーム番号」という)とを、同期ずれ情報203に書き込んでよい。そして、基準フレーム変更部104は、基準フレーム変更用UI320を通じて選択された、変更後の第1の基準フレーム画像のフレーム番号(以下「変更後の第1の基準フレーム番号」という)、及び/又は、変更後の第2の基準フレーム画像のフレーム番号(以下「変更後の第2の基準フレーム番号」という)を、同期ずれ情報203に上書きしてもよい。 For example, as information indicating a frame synchronization shift, the frame number of the first frame image (hereinafter referred to as "first frame number") in the first video 201A generated by the first mobile terminal 20A, and the frame number of the first frame image in the first video 201A generated by the first mobile terminal 20A, A frame image (hereinafter referred to as "second frame number") in the second moving image 201B generated by the mobile terminal 20B may be used. In this case, the reference frame identifying unit 103 identifies the first frame number (hereinafter referred to as "first reference frame number") of the first reference frame image and the second frame number (hereinafter referred to as "first reference frame number") of the second reference frame image. (referred to as “second reference frame number”) may be written in the synchronization difference information 203. Then, the reference frame changing unit 104 selects the frame number of the changed first reference frame image (hereinafter referred to as "the changed first reference frame number") selected through the reference frame changing UI 320, and/or , the frame number of the changed second reference frame image (hereinafter referred to as “changed second reference frame number”) may be overwritten on the synchronization shift information 203.

<ハードウェア構成>
以上、本開示に係る実施形態について図面を参照して詳述した。なお、上述した第1の携帯端末20A、第2の携帯端末20B、表示端末30、及び、球技映像解析装置100の機能は、コンピュータプログラムにより実現され得る。
<Hardware configuration>
The embodiments according to the present disclosure have been described above in detail with reference to the drawings. Note that the functions of the first mobile terminal 20A, the second mobile terminal 20B, the display terminal 30, and the ball game video analysis device 100 described above can be realized by a computer program.

図11は、球技映像解析装置100の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。 FIG. 11 is a diagram showing the hardware configuration of a computer that implements the functions of the ball game video analysis device 100 by a program.

このコンピュータ1000Aは、キーボード又はマウス、タッチパッドなどの入力装置1001、ディスプレイ又はスピーカーなどの出力装置1002、CPU(Central Processing Unit)1003、GPU(Graphics Processing Unit)1004、ROM(Read Only Memory)1005、RAM(Random Access Memory)1006、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリなどの記憶装置1007、DVD-ROM(Digital Versatile Disk Read Only Memory)又はUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1008、通信ネットワークNを介して有線又は無線にて通信を行う送受信装置1009を備え、各部は、バス1010により接続される。 This computer 1000A includes an input device 1001 such as a keyboard, mouse, or touch pad, an output device 1002 such as a display or speakers, a CPU (Central Processing Unit) 1003, a GPU (Graphics Processing Unit) 1004, a ROM (Read Only Memory) 1005, RAM (Random Access Memory) 1006, storage device 1007 such as HDD (Hard Disk Drive), SSD (Solid State Drive) or flash memory, DVD-ROM (Digital Versatile Disk Read Only Memory) or USB (Universal Serial Bus) memory, etc. A reading device 1008 that reads information from a recording medium, and a transmitting/receiving device 1009 that communicates by wire or wirelessly via a communication network N are provided, and each part is connected by a bus 1010.

そして、読取装置1008は、上記各装置の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1007に記憶させる。あるいは、送受信装置1009が、通信ネットワークNに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各装置の機能を実現するためのプログラムを記憶装置1007に記憶させる。 Then, the reading device 1008 reads the program from the recording medium recording the program for realizing the functions of each of the above devices, and stores the program in the storage device 1007. Alternatively, the transmitting/receiving device 1009 communicates with a server device connected to the communication network N, and causes the storage device 1007 to store programs downloaded from the server device to implement the functions of each of the devices described above.

そして、CPU1003が、記憶装置1007に記憶されたプログラムをRAM1006にコピーし、そのプログラムに含まれる命令をRAM1006から順次読み出して実行することにより、上記各装置の機能が実現される。 Then, the CPU 1003 copies the program stored in the storage device 1007 to the RAM 1006, and sequentially reads out and executes instructions included in the program from the RAM 1006, thereby realizing the functions of each of the devices described above.

図12は、第1の携帯端末20A、第2の携帯端末20B及び表示端末30の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。なお、図11にて説明済みの構成要素については、同じ参照符号を付して説明を省略する場合がある。 FIG. 12 is a diagram showing the hardware configuration of a computer that implements the functions of the first mobile terminal 20A, the second mobile terminal 20B, and the display terminal 30 using programs. Note that the components already explained in FIG. 11 may be given the same reference numerals and the explanation will be omitted.

このコンピュータ1000Bは、入力装置1001、出力装置1002、CPU1003、GPU1004、ROM1005、RAM1006、記憶装置1007、読取装置1008、送受信装置1009、カメラ装置1011を備え、各部は、バス1010により接続される。 This computer 1000B includes an input device 1001, an output device 1002, a CPU 1003, a GPU 1004, a ROM 1005, a RAM 1006, a storage device 1007, a reading device 1008, a transmitting/receiving device 1009, and a camera device 1011, and each part is connected by a bus 1010.

カメラ装置1011は、撮像素子を備え、撮像画像(動画及び静止画)を生成する。生成された撮像画像は記憶装置1007に記憶される。記憶装置1007に記憶された撮像画像は、送受信装置1009及び通信ネットワークNを通じて外部のサーバ等に送信されてよい。 The camera device 1011 includes an image sensor and generates captured images (moving images and still images). The generated captured image is stored in the storage device 1007. The captured image stored in the storage device 1007 may be transmitted to an external server or the like via the transmitting/receiving device 1009 and the communication network N.

上記の実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiment is typically realized as an LSI, which is an integrated circuit. These may be integrated into one chip individually, or may be integrated into one chip including some or all of them. Although it is referred to as an LSI here, it may also be called an IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。 Furthermore, if an integrated circuit technology that replaces LSI emerges due to advancements in semiconductor technology or other derived technology, then of course the functional blocks may be integrated using that technology.

(本開示のまとめ)
本開示に係る、球技映像解析装置(100)は、球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画(201A)及び第2の動画(201B)を受信する受信部(101)と、第1の動画及び前記第2の動画の各々から、アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、第1の動画から特定された基準フレーム画像である第1の基準フレーム画像と第2の動画から特定された基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報(203)を生成する基準フレーム特定部(103)と、第1の動画と第2の動画との間のフレーム画像の同期ずれを同期ずれ情報に基づいて補正し、移動体の移動軌跡を特定する解析部(105)と、を備える。
(Summary of this disclosure)
A ball game video analysis device (100) according to the present disclosure receives a first video (201A) and a second video (201B) that are taken from different positions of a person's action on a moving object used in a ball game. (101), from each of the first moving image and the second moving image, specifying a reference frame image that is a frame image in which a specific sub-action constituting the action is photographed; synchronization shift information (203) that is information indicating a time difference between a first reference frame image that is a reference frame image identified from the second moving image and a second reference frame image that is a reference frame image identified from the second video; a reference frame identification unit (103) that generates a frame image, and an analysis unit that corrects synchronization deviation of frame images between the first moving image and the second moving image based on the synchronization deviation information and identifies the movement trajectory of the moving object. (105).

この構成によれば、特定のサブアクションが撮影された第1の基準フレーム画像と第2の基準フレーム画像との間の時間のずれを示す同期ずれ情報が生成される。よって、第1の動画及び第2の動画を撮影したカメラが、球技映像解析に特化した専用カメラでなかったとしても、同期ずれ情報に基づいて、第1の動画及び第2の動画との間のフレーム画像の同期ずれを補正できるので、十分な精度で移動体の移動軌跡を特定できる。 According to this configuration, synchronization shift information indicating the time shift between the first reference frame image and the second reference frame image in which a specific sub-action is photographed is generated. Therefore, even if the camera that shot the first video and the second video is not a dedicated camera specialized for ball game video analysis, the difference between the first video and the second video can be determined based on the synchronization information. Since the synchronization deviation between frame images can be corrected, the trajectory of the moving body can be specified with sufficient accuracy.

また、基準フレーム特定部(103)は、第1の基準フレーム画像及び第2の基準フレーム画像をユーザに提示する基準フレーム確認用UI(310)を生成及び出力してよい。 Further, the reference frame identification unit (103) may generate and output a reference frame confirmation UI (310) that presents the first reference frame image and the second reference frame image to the user.

この構成によれば、ユーザは基準フレーム確認用UIを通じて、第1の基準フレーム画像及び第2の基準フレーム画像を確認できるので、誤った基準フレーム画像によって同期ずれ情報が生成されることを防止できる。 According to this configuration, since the user can check the first reference frame image and the second reference frame image through the reference frame confirmation UI, it is possible to prevent out-of-synchronization information from being generated due to an incorrect reference frame image. .

また、基準フレーム確認用UI(310)を通じてユーザから基準フレームの変更の指示を受信した場合、ユーザが第1の基準フレーム画像及び/又は第2の基準フレーム画像を変更するための基準フレーム変更用UI(320)を生成及び出力する基準フレーム変更部(104)、をさらに備えてよい。 Further, when an instruction to change the reference frame is received from the user through the reference frame confirmation UI (310), the reference frame change instruction for the user to change the first reference frame image and/or the second reference frame image is provided. It may further include a reference frame changing unit (104) that generates and outputs the UI (320).

この構成によれば、ユーザは基準フレーム変更用UI(320)を通じて、第1の基準フレーム画像及び/又は第2の基準フレーム画像を変更できるので、正しい基準フレーム画像によって同期ずれ情報を生成できる。 According to this configuration, the user can change the first reference frame image and/or the second reference frame image through the reference frame change UI (320), so that the synchronization information can be generated using the correct reference frame image.

また、基準フレーム特定部(103)は、第1の動画(201A)及び第2の動画(201B)の再撮影を行うか否かの指示を受け付ける基準フレーム確認用UI(310)を生成及び出力してよい。 In addition, the reference frame identification unit (103) generates and outputs a reference frame confirmation UI (310) that receives an instruction as to whether to reshoot the first video (201A) and the second video (201B). You may do so.

この構成によれば、ユーザは基準フレーム確認用UIを通じて、基準フレーム画像を特定するための第1の動画及び第2の動画を再撮影できるので、誤った基準フレーム画像によって同期ずれ情報が生成されることを防止できる。 According to this configuration, the user can reshoot the first video and second video for identifying the reference frame image through the reference frame confirmation UI, so that synchronization deviation information is not generated due to an incorrect reference frame image. This can be prevented.

また、第1の動画及び第2の動画は、それぞれ、カメラ及び無線通信装置を備えた第1の携帯端末(20A)及び第2の携帯端末(20B)にて撮影されたものであってよい。 Further, the first video and the second video may be taken by a first mobile terminal (20A) and a second mobile terminal (20B) each equipped with a camera and a wireless communication device. .

この構成によれば、球技映像解析に特化した専用カメラではなく、第1の携帯端末及び第2の携帯端末を用いて、十分な精度で移動体の移動軌跡を解析できる。 According to this configuration, the movement trajectory of the moving body can be analyzed with sufficient accuracy using the first mobile terminal and the second mobile terminal, rather than a dedicated camera specialized for ball game video analysis.

また、球技映像解析装置(100)は、第1の基準フレーム画像及び第2の基準フレーム画像、並びに、解析部(105)による解析の結果を示す情報を、第3の携帯端末(30)に出力する結果表示部(106)をさらに備えてよい。 The ball game video analysis device (100) also sends the first reference frame image, the second reference frame image, and information indicating the results of the analysis by the analysis unit (105) to the third mobile terminal (30). It may further include a result display section (106) for output.

この構成によれば、解析の結果を示す情報が、第3の携帯端末(30)に表示されるので、ユーザは、第1の携帯端末(20A)及び第2の携帯端末(20B)を人物のアクションの撮影用に設置し、第1の携帯端末及び第2の携帯端末に触れることなく、第3の携帯端末(30)から解析の結果を示す情報を確認できる。 According to this configuration, the information indicating the analysis result is displayed on the third mobile terminal (30), so the user can move the first mobile terminal (20A) and the second mobile terminal (20B) to information indicating the analysis results can be confirmed from the third mobile terminal (30) without touching the first mobile terminal and the second mobile terminal.

また、球技はバレーボールであり、移動体は前記バレーボールのボールであり、アクションはバレーボールのサーブであり、サブアクションはサーブを行った人物の手がボールに当たった瞬間であってよい。 Further, the ball game may be volleyball, the moving object may be the volleyball ball, the action may be a volleyball serve, and the subaction may be the moment when the hand of the person who served hits the ball.

この構成によれば、サーブを行った人物の手がボールに当たった瞬間が撮影されたフレーム画像を、基準フレーム画像として特定できる。よって、第1の動画及び第2の動画を撮影したカメラが、球技映像解析に特化した専用カメラでなかったとしても、バレーボールのボールの移動軌跡を十分な精度で特定できる。 According to this configuration, a frame image captured at the moment when the hand of the person who served the ball hits the ball can be specified as the reference frame image. Therefore, even if the camera that captured the first video and the second video is not a dedicated camera specialized for ball game video analysis, the movement trajectory of the volleyball ball can be specified with sufficient accuracy.

以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。 Although the embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalent examples within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each component in the embodiments described above may be arbitrarily combined without departing from the spirit of the invention.

本開示の技術は、移動体を用いたスポーツの解析に利用可能である。 The technology of the present disclosure can be used to analyze sports using moving objects.

10 球技映像解析システム
20A 第1の携帯端末
20B 第2の携帯端末
30 表示端末
100 球技映像解析装置
101 動画受信部
102 画像変換部
103 基準フレーム特定部
104 基準フレーム変更部
105 解析部
106 結果表示部
201A 第1の動画
201B 第2の動画
202A 第1のフレーム画像群
202B 第2のフレーム画像群
203 同期ずれ情報
204 解析結果情報
210A 第1の画像表示領域
210B 第2の画像表示領域
211A、211B ボールの検出領域
310 基準フレーム確認用UI
312 OKボタン
313 変更ボタン
314 やり直しボタン
320 基準フレーム変更用UI
322 OKボタン
323 戻るボタン
324A、324B 1フレーム戻りボタン
325A、325B Nフレーム戻りボタン
326A、326B 1フレーム進みボタン
327A、327B Nフレーム進みボタン
330 解析結果画面
331 ボールの移動軌跡
1000A、1000B コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 GPU
1005 ROM
1006 RAM
1007 記憶装置
1008 読取装置
1009 送受信装置
1010 バス
1011 カメラ装置
10 Ball game video analysis system 20A First mobile terminal 20B Second mobile terminal 30 Display terminal 100 Ball game video analysis device 101 Video reception section 102 Image conversion section 103 Reference frame identification section 104 Reference frame change section 105 Analysis section 106 Result display section 201A First video 201B Second video 202A First frame image group 202B Second frame image group 203 Synchronization shift information 204 Analysis result information 210A First image display area 210B Second image display area 211A, 211B Ball Detection area 310 Reference frame confirmation UI
312 OK button 313 Change button 314 Redo button 320 UI for changing reference frame
322 OK button 323 Back button 324A, 324B 1 frame return button 325A, 325B N frame return button 326A, 326B 1 frame advance button 327A, 327B N frame advance button 330 Analysis result screen 331 Ball movement trajectory 1000A, 1000B Computer 1001 Input device 1002 Output device 1003 CPU
1004 GPU
1005 ROM
1006 RAM
1007 Storage device 1008 Reading device 1009 Transmitting/receiving device 1010 Bus 1011 Camera device

Claims (7)

球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信する受信部と、
前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成する基準フレーム特定部と、
第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を特定する解析部と、を備え、
前記基準フレーム特定部は、
前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、
前記解析部は、
前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、
前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける、
球技映像解析装置。
a receiving unit that receives a first video and a second video captured from different positions of a person's action on a moving object used in a ball game;
From each of the first moving image and the second moving image, a reference frame image that is a frame image in which a specific sub-action constituting the action is photographed is specified, and the reference frame image specified from the first moving image is Generate synchronization shift information that is information indicating a time difference between a first reference frame image that is a frame image and a second reference frame image that is the reference frame image specified from the second moving image. a reference frame identification section;
an analysis unit that corrects a synchronization difference between frame images between a first video and a second video based on the synchronization information and identifies a movement trajectory of the moving body ;
The reference frame specifying unit includes:
generating and outputting a reference frame confirmation UI that presents the first reference frame image and the second reference frame image to the user;
The analysis section includes:
When receiving a user instruction not to change the reference frame image from the reference frame confirmation UI, confirming the synchronization deviation information;
When a user's instruction to change the reference frame image is received from the reference frame confirmation UI, candidate images of the first reference frame image and the second reference frame image are extracted, and candidate images are extracted from the candidate images. accepting a user operation to select the reference frame image;
Ball game video analysis device.
前記基準フレーム特定部は、前記第1の動画及び前記第2の動画の再撮影を行うか否かの指示を受け付ける前記基準フレーム確認用UIを生成及び出力する、
請求項1に記載の球技映像解析装置。
The reference frame identification unit generates and outputs the reference frame confirmation UI that receives an instruction as to whether to reshoot the first video and the second video.
The ball game video analysis device according to claim 1.
前記第1の動画及び前記第2の動画は、それぞれ、カメラ及び無線通信装置を備えた第1の携帯端末及び第2の携帯端末にて撮影されたものである、
請求項1または2のいずれか1項に記載の球技映像解析装置。
The first moving image and the second moving image are respectively shot by a first mobile terminal and a second mobile terminal equipped with a camera and a wireless communication device.
The ball game video analysis device according to claim 1 or 2 .
前記第1の基準フレーム画像及び前記第2の基準フレーム画像、並びに、前記解析部による解析の結果を示す情報を、第3の携帯端末に出力する結果表示部、をさらに備えた、
請求項3に記載の球技映像解析装置。
Further comprising a result display unit that outputs the first reference frame image, the second reference frame image, and information indicating the results of analysis by the analysis unit to a third mobile terminal.
The ball game video analysis device according to claim 3 .
前記球技はバレーボールであり、
前記移動体は前記バレーボールのボールであり、
前記アクションは前記バレーボールのサーブであり、
前記サブアクションは前記サーブを行った前記人物の手が前記ボールに当たった瞬間である、
請求項1から4のいずれか1項に記載の球技映像解析装置。
the ball game is volleyball;
The moving object is the volleyball ball,
The action is the serve of the volleyball,
The sub-action is the moment when the hand of the person who served the serve hits the ball;
The ball game video analysis device according to any one of claims 1 to 4 .
装置が、
球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信し、
前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成し、
第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を特定し、
前記基準フレーム画像を特定する際、
前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、
前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、
前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける、
球技映像解析方法。
The device is
Receive a first video and a second video that are taken from different positions of a person's action on a moving object used in a ball game,
From each of the first moving image and the second moving image, a reference frame image that is a frame image in which a specific sub-action constituting the action is photographed is specified, and the reference frame image specified from the first moving image is Generate synchronization shift information that is information indicating a time difference between a first reference frame image that is a frame image and a second reference frame image that is the reference frame image specified from the second moving image. ,
Correcting a synchronization difference between frame images between a first video and a second video based on the synchronization information, and identifying a movement trajectory of the moving object;
When identifying the reference frame image,
generating and outputting a reference frame confirmation UI that presents the first reference frame image and the second reference frame image to the user;
When receiving a user instruction not to change the reference frame image from the reference frame confirmation UI, confirming the synchronization deviation information;
When a user's instruction to change the reference frame image is received from the reference frame confirmation UI, candidate images of the first reference frame image and the second reference frame image are extracted, and candidate images are extracted from the candidate images. accepting a user operation to select the reference frame image;
Ball game video analysis method.
球技に用いられる移動体に対する人物のアクションを互いに異なる位置から撮影した第1の動画及び第2の動画を受信し、
前記第1の動画及び前記第2の動画の各々から、前記アクションを構成する特定のサブアクションが撮影されたフレーム画像である基準フレーム画像を特定し、前記第1の動画から特定された前記基準フレーム画像である第1の基準フレーム画像と前記第2の動画から特定された前記基準フレーム画像である第2の基準フレーム画像との間の時間のずれを示す情報である同期ずれ情報を生成し、
第1の動画と第2の動画との間のフレーム画像の同期ずれを前記同期ずれ情報に基づいて補正し、前記移動体の移動軌跡を解析し、
前記基準フレーム画像を特定する際、
前記第1の基準フレーム画像及び前記第2の基準フレーム画像をユーザに提示する基準フレーム確認用UIを生成及び出力し、
前記基準フレーム確認用UIから前記基準フレーム画像を変更しない旨のユーザの指示を受信した場合、前記同期ずれ情報を確定させ、
前記基準フレーム確認用UIから前記基準フレーム画像を変更する旨のユーザの指示を受信した場合、前記第1の基準フレーム画像および前記第2の基準フレーム画像の候補画像を抽出し、前記候補画像から前記基準フレーム画像を選択するユーザの操作を受け付ける、
処理をコンピュータに実行させる、コンピュータプログラム。
Receive a first video and a second video that are taken from different positions of a person's action on a moving object used in a ball game,
From each of the first moving image and the second moving image, a reference frame image that is a frame image in which a specific sub-action constituting the action is photographed is specified, and the reference frame image specified from the first moving image is Generate synchronization shift information that is information indicating a time difference between a first reference frame image that is a frame image and a second reference frame image that is the reference frame image specified from the second moving image. ,
Correcting the synchronization deviation of frame images between the first video and the second video based on the synchronization information, and analyzing the movement trajectory of the moving object;
When identifying the reference frame image,
generating and outputting a reference frame confirmation UI that presents the first reference frame image and the second reference frame image to the user;
When receiving a user instruction not to change the reference frame image from the reference frame confirmation UI, confirming the synchronization deviation information;
When a user's instruction to change the reference frame image is received from the reference frame confirmation UI, candidate images of the first reference frame image and the second reference frame image are extracted, and candidate images are extracted from the candidate images. accepting a user operation to select the reference frame image;
A computer program that causes a computer to perform a process.
JP2020039760A 2020-03-09 2020-03-09 Ball game video analysis device, ball game video analysis method, and computer program Active JP7429887B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020039760A JP7429887B2 (en) 2020-03-09 2020-03-09 Ball game video analysis device, ball game video analysis method, and computer program
PCT/JP2021/006501 WO2021182081A1 (en) 2020-03-09 2021-02-19 Ball game video analysis device, ball game video analysis method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020039760A JP7429887B2 (en) 2020-03-09 2020-03-09 Ball game video analysis device, ball game video analysis method, and computer program

Publications (3)

Publication Number Publication Date
JP2021140643A JP2021140643A (en) 2021-09-16
JP2021140643A5 JP2021140643A5 (en) 2023-03-01
JP7429887B2 true JP7429887B2 (en) 2024-02-09

Family

ID=77668770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020039760A Active JP7429887B2 (en) 2020-03-09 2020-03-09 Ball game video analysis device, ball game video analysis method, and computer program

Country Status (2)

Country Link
JP (1) JP7429887B2 (en)
WO (1) WO2021182081A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199557A (en) 2007-02-16 2008-08-28 Nec Corp Stream synchronization reproducing system, stream synchronization reproducing apparatus, synchronous reproduction method, and program for synchronous reproduction
WO2019225415A1 (en) 2018-05-21 2019-11-28 パナソニックIpマネジメント株式会社 Ball game video analysis device and ball game video analysis method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6213146B2 (en) * 2013-10-24 2017-10-18 ソニー株式会社 Information processing apparatus, recording medium, and information processing method
JP6704606B2 (en) * 2018-08-24 2020-06-03 独立行政法人日本スポーツ振興センター Judgment system and judgment method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199557A (en) 2007-02-16 2008-08-28 Nec Corp Stream synchronization reproducing system, stream synchronization reproducing apparatus, synchronous reproduction method, and program for synchronous reproduction
WO2019225415A1 (en) 2018-05-21 2019-11-28 パナソニックIpマネジメント株式会社 Ball game video analysis device and ball game video analysis method

Also Published As

Publication number Publication date
JP2021140643A (en) 2021-09-16
WO2021182081A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7289080B2 (en) Ball game video analysis device and ball game video analysis method
US20100194892A1 (en) Video processing device, video processing method, and program
JP6720587B2 (en) Video processing device, video processing method, and video processing program
US20070064975A1 (en) Moving object measuring apparatus, moving object measuring system, and moving object measurement
EP3514761A1 (en) Casting a ray projection from a perspective view
WO2020235339A1 (en) Play analyzing device, and play analyzing method
WO2019070011A1 (en) Mobile entity tracking device and method for tracking mobile entity
JP7437652B2 (en) Ball game video analysis device, ball game video analysis system, ball game video analysis method, and computer program
JP7429887B2 (en) Ball game video analysis device, ball game video analysis method, and computer program
KR101701632B1 (en) Determination method and device
JP7345108B2 (en) Play analysis device, play analysis method, and computer program
KR101802783B1 (en) Method of displaying golf swing and mobile device for performing the same and golf swing analyzing system having the mobile device
JP7113335B2 (en) Play analysis device and play analysis method
JP7113336B2 (en) Play analysis device and play analysis method
KR102454801B1 (en) Apparatus, method and recording medium storing command for determining video for sports broadcasting
US10950276B2 (en) Apparatus and method to display event information detected from video data
WO2021192768A1 (en) Ballgame video analysis device, ballgame video analysis method, and computer program
EP3836012B1 (en) A device, computer program and method for determining handball performed by a player
WO2020071092A1 (en) Play analysis device and play analysis method
JP6941769B2 (en) Video splitting method, video splitting device and video processing system
JP6303525B2 (en) Extraction program, method, and apparatus, and baseball video meta information creation apparatus, method, and program
JP7296546B2 (en) Play analysis device and play analysis method
JP7300668B2 (en) Play analysis device and play analysis method
WO2023106201A1 (en) Play analysis device, play analysis method, and computer-readable storage medium
JP2021150668A (en) Analysis information correction device, analysis information correction method, and computer program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R151 Written notification of patent or utility model registration

Ref document number: 7429887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151