JP6853528B2 - Video processing programs, video processing methods, and video processing equipment - Google Patents

Video processing programs, video processing methods, and video processing equipment Download PDF

Info

Publication number
JP6853528B2
JP6853528B2 JP2016208821A JP2016208821A JP6853528B2 JP 6853528 B2 JP6853528 B2 JP 6853528B2 JP 2016208821 A JP2016208821 A JP 2016208821A JP 2016208821 A JP2016208821 A JP 2016208821A JP 6853528 B2 JP6853528 B2 JP 6853528B2
Authority
JP
Japan
Prior art keywords
video
detected
objects
frame
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016208821A
Other languages
Japanese (ja)
Other versions
JP2018072939A (en
Inventor
一成 大内
一成 大内
俊信 中洲
俊信 中洲
小林 大祐
大祐 小林
田中 孝
孝 田中
陽美 山田
陽美 山田
義満 青木
義満 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Toshiba Digital Solutions Corp
Original Assignee
Keio University
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Toshiba Digital Solutions Corp filed Critical Keio University
Priority to JP2016208821A priority Critical patent/JP6853528B2/en
Publication of JP2018072939A publication Critical patent/JP2018072939A/en
Application granted granted Critical
Publication of JP6853528B2 publication Critical patent/JP6853528B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

実施形態は、映像処理プログラム、映像処理方法、及び映像処理装置に関する。 The embodiment relates to a video processing program, a video processing method, and a video processing apparatus.

スポーツの試合映像を解析することにより、選手やボールの追跡を行う映像処理装置、映像処理方法、及び映像処理プログラムが知られている。このような映像処理装置は、例えば過去複数フレームの位置情報に基づいて現在のフレームにおけるボールの位置を予測して、その周辺領域を探索する。しかしこのような方法では、当該領域においてボールが見つからない場合に対応することが困難であった。 A video processing device, a video processing method, and a video processing program for tracking a player or a ball by analyzing a sports game video are known. Such a video processing device predicts the position of the ball in the current frame based on the position information of a plurality of frames in the past, and searches the peripheral region thereof. However, with such a method, it is difficult to deal with the case where the ball is not found in the area.

特開2004−46647号公報Japanese Unexamined Patent Publication No. 2004-46647 国際公開第2015/190071号International Publication No. 2015/190071

スポーツの試合映像からボールや選手を画像認識で検出して追跡し、その移動軌跡を二次元フィールド上にマッピングすることが可能な映像処理装置、映像処理方法、及び映像処理プログラムを提供する。 Provided are a video processing device, a video processing method, and a video processing program capable of detecting and tracking a ball or a player by image recognition from a sports game video and mapping the movement locus on a two-dimensional field.

実施形態の映像処理プログラムは、スポーツを撮影した映像を処理するためにコンピュータに、映像から第1物体と、第1物体と異なる複数の第2物体とを検出させ、検出された第1物体、及び複数の第2物体の位置を推定させることを映像におけるフレーム毎に繰り返し、あるフレームにおいて第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、第1物体の近傍に位置する第2物体が第1物体を保持しているとみなす。複数の第2物体は、第3及び第4物体を含む。第3物体が第1物体を保持しているとみなして追跡されている際に第3物体と第4物体とが近接した場合に、第4物体も第1物体を保持しているとみなして追跡され、映像における第1時間経過後に第3物体の移動速度と第4物体の移動速度とが比較され、第3及び第4物体のうち移動速度が速い方の追跡が継続され、移動速度が遅い方の追跡が停止される。 The image processing program of the embodiment causes a computer to detect a first object and a plurality of second objects different from the first object from the image in order to process an image obtained by shooting a sport, and the detected first object, And the position of a plurality of second objects is estimated for each frame in the video, and when the first object cannot be detected in a certain frame, it is located in the vicinity of the first object in the frame before the frame. It is considered that the second object holds the first object. The plurality of second objects include third and fourth objects. If the third object and the fourth object are close to each other while the third object is being tracked by assuming that it holds the first object, it is considered that the fourth object also holds the first object. It is tracked, and after the lapse of the first time in the video, the moving speed of the third object and the moving speed of the fourth object are compared, and the tracking of the third and fourth objects having the faster moving speed is continued, and the moving speed is increased. The slower tracking is stopped.

第1実施形態に係る映像処理装置のブロック図。The block diagram of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る映像処理装置の備えるプログラムを示す図。The figure which shows the program provided in the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る映像処理装置の備えるプロセッサの機能ブロック図。The functional block diagram of the processor provided in the video processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る映像処理装置の分析対象のスポーツにおけるフィールドの一例を示す図。The figure which shows an example of the field in the sports of the analysis target of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係るメインプログラムのフローチャート。The flowchart of the main program which concerns on 1st Embodiment. 第1実施形態に係る分析プログラムのフローチャート。The flowchart of the analysis program which concerns on 1st Embodiment. 第1実施形態に係るフィールド検出プログラムのフローチャート。The flowchart of the field detection program which concerns on 1st Embodiment. 第1実施形態に係るフィールド検出プログラムにおけるフィールドの検出結果を示す図。The figure which shows the detection result of the field in the field detection program which concerns on 1st Embodiment. 図7が示す映像の表示領域と二次元フィールドの対応を示す図。The figure which shows the correspondence between the display area of the image shown in FIG. 7 and a two-dimensional field. 第1実施形態に係る物体検出プログラムのフローチャート。The flowchart of the object detection program which concerns on 1st Embodiment. 第1実施形態に係る物体検出プログラムにおける物体の検出結果を示す図。The figure which shows the detection result of the object in the object detection program which concerns on 1st Embodiment. 図10が示す映像の表示領域及び物体と二次元フィールドとの対応を示す図。FIG. 10 is a diagram showing a display area of an image shown in FIG. 10 and a correspondence between an object and a two-dimensional field. 第1実施形態に係る物体位置推定プログラムのフローチャート。The flowchart of the object position estimation program which concerns on 1st Embodiment. 第1実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 1st Embodiment. 第1実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 1st Embodiment. 第2実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明するフローチャート。The flowchart explaining the setting method of the ball holder in the object position estimation program which concerns on 2nd Embodiment. 第2実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 2nd Embodiment. 第2実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 2nd Embodiment. 第2実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 2nd Embodiment. 第2実施形態に係る物体位置推定プログラムにおけるボール保持者の設定方法を説明する図。The figure explaining the setting method of the ball holder in the object position estimation program which concerns on 2nd Embodiment. 第3実施形態に係るプレー種別判別プログラムのフローチャート。The flowchart of the play type discrimination program which concerns on 3rd Embodiment. 第3実施形態に係るプレー種別判別プログラムにおけるプレー種別の判別方法を説明する図。The figure explaining the play type discrimination method in the play type discrimination program which concerns on 3rd Embodiment. 第3実施形態に係るプレー種別判別プログラムにおけるプレー種別の判別方法を説明する図。The figure explaining the play type discrimination method in the play type discrimination program which concerns on 3rd Embodiment. 第3実施形態に係るプレー種別判別プログラムにおけるプレー種別の判別方法を説明する図。The figure explaining the play type discrimination method in the play type discrimination program which concerns on 3rd Embodiment. 第3実施形態に係るプレー種別判別プログラムにおけるプレー種別の判別結果を示す図。The figure which shows the discrimination result of the play type in the play type discrimination program which concerns on 3rd Embodiment. 第4実施形態に係るシーン分割プログラムのフローチャート。The flowchart of the scene division program which concerns on 4th Embodiment. 第4実施形態に係るシーン分割プログラムにおけるシーンの分割方法を説明する図。The figure explaining the scene division method in the scene division program which concerns on 4th Embodiment. 第4実施形態に係るシーン分割プログラムにおけるシーンの分割結果を示す図。The figure which shows the division result of the scene in the scene division program which concerns on 4th Embodiment. 第5実施形態に係る再生プログラムの実行結果を示す図。The figure which shows the execution result of the reproduction program which concerns on 5th Embodiment. 第5実施形態に係る再生プログラムにおける映像表示のオプション機能を説明する図。The figure explaining the optional function of video display in the reproduction program which concerns on 5th Embodiment. 第5実施形態に係る再生プログラムにおけるフィールド表示のオプション機能を説明する図。The figure explaining the optional function of the field display in the reproduction program which concerns on 5th Embodiment. 変形例に係る映像処理装置を説明する図。The figure explaining the image processing apparatus which concerns on a modification.

以下に、実施形態について図面を参照して説明する。参照される図面は模式的なものである。以下の説明において、同一の機能及び構成を有する要素については、共通する参照符号を付す。参照符号を構成する数字の後のアルファベットは、同じ数字を含んだ参照符号によって参照され、且つ同様の構成を有する要素同士を区別するために使用される。同じ数字を含んだ参照符号で示される要素を相互に区別する必要がない場合、これらの要素は数字のみを含んだ参照符号により参照される。 Hereinafter, embodiments will be described with reference to the drawings. The referenced drawings are schematic. In the following description, elements having the same function and configuration are designated by a common reference numeral. The alphabet after the numbers that make up the reference code is used to distinguish between elements that are referenced by a reference code that contains the same number and have a similar structure. If it is not necessary to distinguish between the elements represented by the reference code containing the same number, these elements are referred to by the reference code containing only the number.

[1]第1実施形態
以下に、第1実施形態に係る映像処理装置について説明する。
[1] First Embodiment The video processing apparatus according to the first embodiment will be described below.

[1−1]構成
[1−1−1]装置構成
まず、図1を用いて映像処理装置の全体構成について説明する。図1には映像処理装置のブロック図が示されている。図1に示すように映像処理装置1は、プロセッサ(CPU)10、ランダムアクセスメモリ(RAM)11、読み出し専用メモリ(ROM)12、記憶部13、及びディスプレイ14を備えている。
[1-1] Configuration [1-1-1] Device Configuration First, the overall configuration of the video processing device will be described with reference to FIG. FIG. 1 shows a block diagram of the video processing apparatus. As shown in FIG. 1, the video processing device 1 includes a processor (CPU) 10, a random access memory (RAM) 11, a read-only memory (ROM) 12, a storage unit 13, and a display 14.

CPU10は、映像処理装置1全体の動作を制御する。例えばCPU10は、ユーザーによる操作や外部の図示せぬホスト機器からの命令に応答して、後述する映像処理に用いるプログラムを実行する。またCPU10は、記憶部13のメモリ空間を管理する。 The CPU 10 controls the operation of the entire video processing device 1. For example, the CPU 10 executes a program used for video processing described later in response to an operation by a user or an instruction from an external host device (not shown). The CPU 10 also manages the memory space of the storage unit 13.

RAM11は、CPU10の作業領域として使用されるメモリである。RAM11としては、例えばDRAM等の半導体メモリが使用される。 The RAM 11 is a memory used as a work area of the CPU 10. As the RAM 11, a semiconductor memory such as a DRAM is used.

ROM12は、制御用のプログラムや制御データ等が予め記憶された不揮発性のメモリである。ROM12は、例えばBIOS(Basic Input/Output System)を保持する。 The ROM 12 is a non-volatile memory in which control programs, control data, and the like are stored in advance. The ROM 12 holds, for example, a BIOS (Basic Input / Output System).

記憶部13は、ユーザーが解析に使用する映像ファイルや、映像処理によって生成されたデータを記憶する。また記憶部13は、映像処理に用いる種々のプログラムや、プログラムに関連するデータを保持する。記憶部13に保持されたプログラムは、映像処理装置1が当該プログラムを実行する際に読み出され、RAM11に展開される。記憶部13としては、例えばSSD(Solid State Drive)や、ハードディスクドライブが使用される。尚、記憶部13はデータを記憶することが可能であれば良く、記憶部13としてその他の記憶媒体を使用しても良い。 The storage unit 13 stores a video file used for analysis by the user and data generated by video processing. Further, the storage unit 13 holds various programs used for video processing and data related to the programs. The program held in the storage unit 13 is read out when the video processing device 1 executes the program, and is expanded in the RAM 11. As the storage unit 13, for example, an SSD (Solid State Drive) or a hard disk drive is used. The storage unit 13 may store data as long as it can store data, and other storage media may be used as the storage unit 13.

ディスプレイ14は、CPU10が種々のプログラムに対応するGUI(Graphical User Interface)等を表示する。例えばディスプレイ14は、映像処理の結果を再生するために使用される。 The display 14 displays a GUI (Graphical User Interface) or the like corresponding to various programs by the CPU 10. For example, the display 14 is used to reproduce the result of video processing.

尚、以上で説明した映像処理装置1の構成はあくまで一例であり、その他の構成であっても良い。例えば、映像処理装置1が記憶部13及びディスプレイ14を備えていなくても良い。この場合、映像処理装置1には、記憶部13及びディスプレイ14がそれぞれ外部接続される。 The configuration of the video processing device 1 described above is merely an example, and other configurations may be used. For example, the video processing device 1 does not have to include the storage unit 13 and the display 14. In this case, the storage unit 13 and the display 14 are externally connected to the video processing device 1, respectively.

また、以上の説明において、映像処理に用いるプログラムが記憶部13に記憶されている場合を例に説明したが、これに限定されない。例えば、映像処理装置1が実行するプログラムを、図示せぬネットワーク上のサーバーに保持させても良い。この場合、映像処理装置1が映像処理を実行する際に、種々のプログラムがネットワーク上のサーバーから映像処理装置1に配信される。そして種々のプログラムを受信した映像処理装置1は、これらのプログラムをRAM11に展開して、映像処理を実行する。 Further, in the above description, the case where the program used for the video processing is stored in the storage unit 13 has been described as an example, but the present invention is not limited to this. For example, the program executed by the video processing device 1 may be stored in a server on a network (not shown). In this case, when the video processing device 1 executes the video processing, various programs are distributed from the server on the network to the video processing device 1. Then, the video processing device 1 that has received the various programs expands these programs in the RAM 11 and executes the video processing.

[1−1−2]プログラム構成
次に、図2を用いて映像処理に用いるプログラムの構成について説明する。図2には、映像処理時にRAM11に展開される種々のプログラムが示されている。図2に示すように映像処理を実行する場合にRAM11には、メインプログラム20、分析プログラム21、再生プログラム27、及びディスプレイデータ28が展開される。
[1-1-2] Program Configuration Next, the configuration of the program used for video processing will be described with reference to FIG. FIG. 2 shows various programs developed in the RAM 11 during video processing. As shown in FIG. 2, when the video processing is executed, the main program 20, the analysis program 21, the reproduction program 27, and the display data 28 are expanded in the RAM 11.

メインプログラム20は、映像処理装置1において映像ファイルの分析処理と、分析処理により得られた分析データの再生処理とを選択的に実行するためのソフトウェアである。以下の説明において映像ファイルは、例えばスポーツの中継等に使用された試合映像であり、動画データ及び音声データを含むものとする。尚、本映像処理に対応する映像ファイルのフォーマットは特に限定されない。 The main program 20 is software for selectively executing the analysis processing of the video file and the reproduction processing of the analysis data obtained by the analysis processing in the video processing device 1. In the following description, the video file is, for example, a game video used for broadcasting sports, etc., and includes video data and audio data. The format of the video file corresponding to this video processing is not particularly limited.

分析プログラム21は、種々のプログラムを実行することによって映像ファイルを分析するプログラムである。分析プログラム21は、フィールド検出プログラム22、物体検出プログラム23、物体位置推定プログラム24、プレー種別判別プログラム25、及びシーン分割プログラム26を含んでいる。尚、この分析プログラム21の構成はこれに限定されない。例えば、分析プログラム21が1つのプログラムにより構成されていても良く、プログラム毎に分かれていなくても良い。 The analysis program 21 is a program that analyzes a video file by executing various programs. The analysis program 21 includes a field detection program 22, an object detection program 23, an object position estimation program 24, a play type determination program 25, and a scene division program 26. The configuration of the analysis program 21 is not limited to this. For example, the analysis program 21 may be composed of one program, and may not be divided for each program.

分析プログラム21を実行することにより、CPU10は、図3に示すように例えばフィールド検出部30、第1物体検出部31A、第2物体検出部31B、チーム種別判別部32、物体位置推定部33、移動方向推定部34、移動速度推定部35、プレー種別判別部36、特定音検出部37、及びシーン分割部38として機能する。尚、本例ではCPU10の処理毎に名称を変更して説明するが、CPU10は同時に複数の処理を実行することも可能である。 By executing the analysis program 21, the CPU 10 has, for example, a field detection unit 30, a first object detection unit 31A, a second object detection unit 31B, a team type determination unit 32, and an object position estimation unit 33, as shown in FIG. It functions as a movement direction estimation unit 34, a movement speed estimation unit 35, a play type determination unit 36, a specific sound detection unit 37, and a scene division unit 38. In this example, the name is changed for each process of the CPU 10, but the CPU 10 can execute a plurality of processes at the same time.

フィールド検出部30は、CPU10がフィールド検出プログラム22を実行することにより実現され、動画に表示されているフィールド領域を検出する。物体検出部31及びチーム種別判別部32は、CPU10が物体検出プログラム23を実行することにより実現される。第1物体検出部31Aは、動画に表示されている人物を検出する。第2物体検出部31Bは、動画に表示されているボールを検出する。チーム種別判別部32は、動画に表示されている人物の種別を判別する。物体位置推定部33は、物体位置推定プログラム24を実行することにより実現され、フィールド、人物、及びボールの検出結果から、選手及びボールの移動軌跡を推定する。移動方向推定部34、移動速度推定部35、及びプレー種別判別部36は、プレー種別判別プログラム25を実行することにより実現される。移動方向推定部34は、フィールド、人物及びボールの検出結果から、人物及びボールの移動方向を推定する。移動速度推定部35は、フィールド、人物、及びボールの検出結果から、人物及びボールの移動速度を推定する。プレー種別判別部36は、フィールド、人物、及びボールの検出結果から、映像ファイルの各時点におけるプレーの種別を判別する。特定音検出部37及びシーン分割部38は、CPU10がシーン分割プログラム26を実行することにより実現される。特定音検出部37は、音声データから審判のホイッスル音等の特定音を検出する。シーン分割部38は、特定音検出部37が特定音を検出したタイミングに基づいて、映像ファイルのシーンを分割する。 The field detection unit 30 is realized by the CPU 10 executing the field detection program 22, and detects the field area displayed in the moving image. The object detection unit 31 and the team type determination unit 32 are realized by the CPU 10 executing the object detection program 23. The first object detection unit 31A detects a person displayed in the moving image. The second object detection unit 31B detects the ball displayed in the moving image. The team type determination unit 32 determines the type of the person displayed in the moving image. The object position estimation unit 33 is realized by executing the object position estimation program 24, and estimates the movement loci of the player and the ball from the detection results of the field, the person, and the ball. The movement direction estimation unit 34, the movement speed estimation unit 35, and the play type determination unit 36 are realized by executing the play type determination program 25. The moving direction estimation unit 34 estimates the moving direction of the person and the ball from the detection results of the field, the person and the ball. The movement speed estimation unit 35 estimates the movement speed of the person and the ball from the detection results of the field, the person, and the ball. The play type determination unit 36 determines the type of play at each time point of the video file from the detection results of the field, the person, and the ball. The specific sound detection unit 37 and the scene division unit 38 are realized by the CPU 10 executing the scene division program 26. The specific sound detection unit 37 detects a specific sound such as a whistle sound of a referee from the voice data. The scene division unit 38 divides the scene of the video file based on the timing when the specific sound detection unit 37 detects the specific sound.

再生プログラム27は、分析された映像ファイルの再生処理を実行するプログラムである。再生処理には、例えば分析された映像ファイルと、関連付けられた分析データとが使用される。尚、再生処理に映像ファイルと分析データとを用いる場合を例に挙げているが、これに限定されない。例えば、分析データ自体に映像ファイルの動画データ及び音声データを含ませることによって、分析データのみで再生処理を実行することも可能である。 The playback program 27 is a program that executes playback processing of the analyzed video file. For the reproduction process, for example, the analyzed video file and the associated analysis data are used. The case where the video file and the analysis data are used for the reproduction process is given as an example, but the present invention is not limited to this. For example, by including the moving image data and the audio data of the video file in the analysis data itself, it is possible to execute the reproduction process only with the analysis data.

ディスプレイデータ28は、各種プログラムに関連付けられた画像ファイルを含む。例えばCPU10は、各種プログラムを実行した場合にディスプレイデータ28内の対応する画像ファイルをディスプレイ14に表示する。 The display data 28 includes image files associated with various programs. For example, the CPU 10 displays the corresponding image file in the display data 28 on the display 14 when various programs are executed.

<フィールドの一例>
以上で説明された映像処理装置1を用いて分析されるスポーツとしては、例えばラグビーが挙げられる。以下の説明では、ラグビーの試合映像を映像処理装置1によって分析する場合を例に使用する。本例に用いるラグビーのフィールド構成を図4に示す。
<Example of field>
Examples of the sport analyzed by using the video processing device 1 described above include rugby. In the following description, a case where a rugby game video is analyzed by the video processing device 1 will be used as an example. The field configuration of the rugby used in this example is shown in FIG.

図4に示すようにラグビーのフィールドFLDには、ゴールライン40A及び40B、ハーフウェイライン41、10メートルライン42A及び42B、22メートルライン43A及び43B、タッチライン44A及び44B、5メートルライン45A及び45B、並びに15メートルライン46A及び46Bが設けられる。そしてゴールライン40A及び40B上にはそれぞれ、ゴールポスト47A及び47Bが設置される。 As shown in FIG. 4, the field FLD of rugby includes goal lines 40A and 40B, halfway lines 41, 10-meter lines 42A and 42B, 22-meter lines 43A and 43B, touch lines 44A and 44B, and 5-meter lines 45A and 45B. , And 15 meter lines 46A and 46B are provided. Goal posts 47A and 47B are installed on the goal lines 40A and 40B, respectively.

フィールドFLD全体のサイズは、タッチライン44A及び44B間が70メートル以内、ゴールライン40A及び40B間が100メートル以内に設定される。尚、フィールドFLD内のラインのうち、ハーフウェイライン41と10メートルライン42との間隔は試合会場に依らず一定であり、ハーフウェイライン41と22メートルライン43との間隔は試合会場に依らず一定である。同様に、タッチライン44と5メートルライン45との間隔試合会場に依らず一定であり、タッチライン44と15メートルライン46との間隔は試合会場に依らず一定である。 The size of the entire field FLD is set within 70 meters between the touch lines 44A and 44B and within 100 meters between the goal lines 40A and 40B. Of the lines in the field FLD, the distance between the halfway line 41 and the 10-meter line 42 is constant regardless of the match venue, and the distance between the halfway line 41 and the 22-meter line 43 does not depend on the match venue. It is constant. Similarly, the distance between the touch line 44 and the 5-meter line 45 is constant regardless of the match venue, and the distance between the touch line 44 and the 15-meter line 46 is constant regardless of the match venue.

[1−2]動作
[1−2−1]メインプログラム20
次に、図5を用いてメインプログラム20に基づいた映像処理装置1の動作について説明する。図5には、メインプログラム20による映像処理装置1の動作フローチャートが示されている。図5に示すようにまずCPU10は、ユーザーに動作の選択を要求する(ステップS10)。このときユーザーは、例えば“分析処理”と“再生処理”のいずれかを選択することが出来る。
[1-2] Operation [1-2-1] Main program 20
Next, the operation of the video processing device 1 based on the main program 20 will be described with reference to FIG. FIG. 5 shows an operation flowchart of the video processing device 1 by the main program 20. As shown in FIG. 5, the CPU 10 first requests the user to select an operation (step S10). At this time, the user can select, for example, either "analysis processing" or "regeneration processing".

映像処理装置1がユーザーからの分析処理命令を受け付けると、CPU10はユーザーに分析処理を実行する映像ファイルの選択を要求する。そして映像処理装置1がユーザーによる映像ファイルの選択を受け付けると(ステップS11)、CPU10は分析プログラム21を実行して映像ファイルを分析する(ステップS12)。この映像ファイルの分析方法の詳細については後述する。映像ファイルの分析が終了すると、CPU10は得られた分析データを映像ファイルに関連付けて記憶部13に保存し(ステップS13)、メインプログラム20による処理を終了する。 When the video processing device 1 receives the analysis processing command from the user, the CPU 10 requests the user to select a video file to execute the analysis processing. Then, when the video processing device 1 accepts the selection of the video file by the user (step S11), the CPU 10 executes the analysis program 21 to analyze the video file (step S12). The details of the analysis method of this video file will be described later. When the analysis of the video file is completed, the CPU 10 associates the obtained analysis data with the video file and saves it in the storage unit 13 (step S13), and ends the process by the main program 20.

一方で、映像処理装置1がユーザーからの再生処理命令を受け付けると、CPU10はユーザーに再生処理を実行する分析データの選択を要求する。そして映像処理装置1がユーザーによる分析データの選択を受け付けると(ステップS14)、CPU10は再生プログラム27を実行して映像ファイルの分析結果を表示する(ステップS15)。この分析結果の表示方法の具体例については後述する。分析データの表示が終了すると、CPU10はメインプログラム20による処理を終了する。 On the other hand, when the video processing device 1 receives a playback processing command from the user, the CPU 10 requests the user to select analysis data for executing the playback processing. Then, when the video processing device 1 accepts the user's selection of analysis data (step S14), the CPU 10 executes the playback program 27 and displays the analysis result of the video file (step S15). A specific example of the method of displaying the analysis result will be described later. When the display of the analysis data is completed, the CPU 10 ends the process by the main program 20.

尚、以上で説明したメインプログラム20による動作は一例であり、これに限定されない。例えば、ユーザーが分析したい映像ファイルを選択すると、CPU10が分析プログラム21を実行して、続けて再生プログラム27を実行するようにしても良い。このように映像処理装置1は、分析したい映像ファイルを選択するだけで当該映像ファイルの分析結果を続けて表示させることも可能である。 The operation by the main program 20 described above is an example, and is not limited to this. For example, when the user selects a video file to be analyzed, the CPU 10 may execute the analysis program 21 and subsequently execute the playback program 27. In this way, the video processing device 1 can continuously display the analysis result of the video file simply by selecting the video file to be analyzed.

[1−2−2]分析プログラム21
次に、分析プログラム21に基づいた映像処理装置1の動作について説明する。分析プログラム21が実行されると、CPU10がフィールド検出プログラム22、物体検出プログラム23、及び物体位置推定プログラム24を実行して、フィールド検出部30、物体検出部31、及び物体位置推定部33として機能する。この分析処理における映像処理装置1の全体的な動作フローチャートが図6に示されている。尚、個々のステップの詳細については後述する。
[1-2-2] Analysis program 21
Next, the operation of the video processing apparatus 1 based on the analysis program 21 will be described. When the analysis program 21 is executed, the CPU 10 executes the field detection program 22, the object detection program 23, and the object position estimation program 24, and functions as the field detection unit 30, the object detection unit 31, and the object position estimation unit 33. To do. The overall operation flowchart of the video processing apparatus 1 in this analysis processing is shown in FIG. The details of each step will be described later.

図6に示すように、まずフィールド検出部30が試合映像からフィールド領域を検出する(ステップS20)。そしてフィールド検出部30は、検出したフィールド領域が対応するフィールド全体からみた座標の情報を算出して、物体検出部31及び物体位置推定部33に送信する(図示せず)。また物体検出部31は、試合映像から選手及びボールを検出する(ステップS21)。このとき物体検出部31は、フィールド検出部30からの座標情報と、選手及びボールの映像上の位置から、選手及びボールのフィールド上の座標を確定する。そして物体位置推定部33は、物体検出部31が確定させた選手及びボールの座標情報を受けて、選手及びボールをそれぞれ追跡する(ステップS22)。このステップS20〜S22における動作は、本分析処理において継続して実行される。 As shown in FIG. 6, the field detection unit 30 first detects the field area from the match video (step S20). Then, the field detection unit 30 calculates the coordinate information seen from the entire field corresponding to the detected field area and transmits it to the object detection unit 31 and the object position estimation unit 33 (not shown). Further, the object detection unit 31 detects the player and the ball from the game video (step S21). At this time, the object detection unit 31 determines the coordinates of the player and the ball on the field from the coordinate information from the field detection unit 30 and the positions of the player and the ball on the image. Then, the object position estimation unit 33 receives the coordinate information of the player and the ball determined by the object detection unit 31 and tracks the player and the ball, respectively (step S22). The operations in steps S20 to S22 are continuously executed in this analysis process.

試合進行に伴い物体検出部31は、ボールが選手の陰に隠れる等の影響によってボールを見失うことがある(ステップS23)。このとき物体位置推定部33は、物体検出部31がボールを見失ったことを検知する。そして物体位置推定部33は、物体検出部31がボールを見失った位置に対して例えば直近にいる選手をボール保持者とみなして追跡する(ステップS24)。 As the game progresses, the object detection unit 31 may lose sight of the ball due to the influence of the ball being hidden behind the player (step S23). At this time, the object position estimation unit 33 detects that the object detection unit 31 has lost sight of the ball. Then, the object position estimation unit 33 tracks, for example, a player who is closest to the position where the object detection unit 31 has lost sight of the ball as a ball holder (step S24).

その後、物体検出部31がボール保持者の近傍でボールを再検出すると(ステップS25)、物体位置推定部33はボールが再検出されたことを検知する。そして物体位置推定部33は、ボール保持者の移動軌跡からボールの位置を推定する(ステップS26)。具体的には、ボールを見失っていた期間におけるボールの移動軌跡を、例えばボール保持者と同じであるとみなす。 After that, when the object detection unit 31 rediscovers the ball in the vicinity of the ball holder (step S25), the object position estimation unit 33 detects that the ball has been rediscovered. Then, the object position estimation unit 33 estimates the position of the ball from the movement locus of the ball holder (step S26). Specifically, the movement trajectory of the ball during the period when the ball is lost is regarded as the same as, for example, the ball holder.

このように映像処理装置1は、試合映像でボールが検出されない期間が存在していても、試合中のボールの位置を連続的に把握することが出来る。以下に、本分析処理を実現するためのフィールド検出部30、物体検出部31、チーム種別判別部32、及び物体位置推定部33による映像処理装置1の詳細な動作の一例を順に説明する。 In this way, the image processing device 1 can continuously grasp the position of the ball during the match even if there is a period during which the ball is not detected in the match video. Hereinafter, an example of detailed operations of the image processing apparatus 1 by the field detection unit 30, the object detection unit 31, the team type determination unit 32, and the object position estimation unit 33 for realizing this analysis processing will be described in order.

<フィールド検出部30>
まず、図7及び図8を用いてフィールド検出プログラム22に基づいた映像処理装置1の詳細な動作について説明する。図7にはフィールド検出プログラム22による映像処理装置1の動作フローチャートが示され、図8にはフィールド検出プログラム22による分析の対象となるフィールド映像の一例が示されている。
<Field detection unit 30>
First, the detailed operation of the video processing apparatus 1 based on the field detection program 22 will be described with reference to FIGS. 7 and 8. FIG. 7 shows an operation flowchart of the image processing device 1 by the field detection program 22, and FIG. 8 shows an example of the field image to be analyzed by the field detection program 22.

図7に示すようにまずフィールド検出部30は、動画データからフィールド検出処理を実行するフレームを選択する(ステップS30)。このとき選択されるフレームは、例えば選択された動画データの1フレーム目に対応する。 As shown in FIG. 7, the field detection unit 30 first selects a frame for executing the field detection process from the moving image data (step S30). The frame selected at this time corresponds to, for example, the first frame of the selected moving image data.

次にフィールド検出部30は、当該フレームの映像VTRからフィールド領域を抽出する(ステップS31)。フィールド領域は、例えばフィールドの色に基づいて映像VTRから抽出される。このフィールドの色情報はユーザーが予め設定しても良いし、フィールド検出部30が映像VTRにおいて広範囲を占める色をフィールドの色とみなしても良い。またフィールド検出部30は、緑色の面積が大きい領域をフィールドとしてみなしても良い。 Next, the field detection unit 30 extracts a field area from the video VTR of the frame (step S31). The field area is extracted from the video VTR, for example, based on the color of the field. The color information of this field may be preset by the user, or a color occupying a wide range in the video VTR by the field detection unit 30 may be regarded as the color of the field. Further, the field detection unit 30 may consider a region having a large green area as a field.

次にフィールド検出部30は、映像VTRからラインを検出する(ステップS32)。具体的には、例えばステップS31において抽出されたフィールド領域内を、フィールドの色でマスクする。これによりフィールド領域内の前景が抽出され、フィールド検出部30は前景からフィールド領域内のラインを検出することが可能となる。図8に示す例においてフィールド検出部30は、横方向に延びるラインL1及びL2と、縦方向に延びるラインL3及びL4とを検出している。以下の説明において、ラインL1が映像VTRの外周部に接する領域のことを端部E1及びE2と呼び、ラインL2が映像VTRの外周部に接する領域のことを端部E3及びE4と呼ぶ。 Next, the field detection unit 30 detects a line from the video VTR (step S32). Specifically, for example, the inside of the field area extracted in step S31 is masked with the color of the field. As a result, the foreground in the field area is extracted, and the field detection unit 30 can detect the line in the field area from the foreground. In the example shown in FIG. 8, the field detection unit 30 detects the lines L1 and L2 extending in the horizontal direction and the lines L3 and L4 extending in the vertical direction. In the following description, the regions where the line L1 is in contact with the outer peripheral portion of the video VTR are referred to as end portions E1 and E2, and the regions where the line L2 is in contact with the outer peripheral portion of the video VTR are referred to as end portions E3 and E4.

次にフィールド検出部30は、映像VTRに表示された領域の座標演算処理を実行する(ステップS33)。座標演算処理は、映像VTRに表示されたフィールド領域がフィールド全体のどの座標に対応するのかを関連付ける処理である。例えば、図8に示すようにラインL1〜L4が検出された場合、まずフィールド検出部30はラインL1〜L4がフィールド内のどのラインに対応するかを判別する。 Next, the field detection unit 30 executes the coordinate calculation process of the area displayed on the video VTR (step S33). The coordinate calculation process is a process of associating which coordinates of the entire field the field area displayed on the video VTR corresponds to. For example, when lines L1 to L4 are detected as shown in FIG. 8, the field detection unit 30 first determines which line in the field the lines L1 to L4 correspond to.

具体的にはフィールド検出部30は、例えば検出されたラインの間隔や、ラインの線種を確認することによって検出されたラインの種別を確定させる。図8に示す例の場合フィールド検出部30は、例えば横方向に延びるラインL1及びL2が実線であることから、ラインL1及びL2がそれぞれタッチライン44A及び44Bであることを判別する。またフィールド検出部30は、縦方向に延びるラインL3が実線であり、ラインL4が破線であることと、ラインL3とラインL4の間隔から、ラインL3が22メートルライン43Aであり、ラインL4が10メートルライン42Aであることを判別する。 Specifically, the field detection unit 30 determines the type of the detected line by checking, for example, the interval between the detected lines and the line type of the line. In the case of the example shown in FIG. 8, the field detection unit 30 determines that the lines L1 and L2 are the touch lines 44A and 44B, respectively, because the lines L1 and L2 extending in the lateral direction are solid lines, for example. Further, in the field detection unit 30, the line L3 is a 22-meter line 43A and the line L4 is 10 because the line L3 extending in the vertical direction is a solid line and the line L4 is a broken line and the distance between the line L3 and the line L4. It is determined that the line is the metric line 42A.

そしてフィールド検出部30は、判別したラインL1〜L4の情報と、映像VTRの表示領域の情報とから、映像VTRに表示された領域が、フィールド全体のどの座標に対応するのかを演算する。図8に示す映像VTRに対して座標演算処理を実行した場合、図9に示すような情報が得られる。図9に示すように二次元フィールドFLD内には、映像VTRの端部E1〜E4を順に繋いだ領域が示され、映像領域外が斜線でマスクされている。ここで二次元フィールドFLDとは、フィールド全体が表示されたフィールドの画像のことを示している。そしてフィールド検出部30は、このように関連付けられた映像VTRの座標データを記憶部13に保存する。 Then, the field detection unit 30 calculates which coordinates of the entire field the area displayed on the video VTR corresponds to from the information of the discriminated lines L1 to L4 and the information of the display area of the video VTR. When the coordinate calculation process is executed on the video VTR shown in FIG. 8, the information shown in FIG. 9 can be obtained. As shown in FIG. 9, in the two-dimensional field FLD, a region connecting the ends E1 to E4 of the video VTR in order is shown, and the outside of the video region is masked with diagonal lines. Here, the two-dimensional field FLD indicates an image of a field in which the entire field is displayed. Then, the field detection unit 30 stores the coordinate data of the video VTR associated in this way in the storage unit 13.

次にフィールド検出部30は、これまで処理を実行したフレームが最後のフレームであるかどうかを確認する(ステップS34)。処理を実行したフレームが最後のフレームに該当しなかった場合(ステップS34、NO)、フィールド検出部30はステップ20に戻り、続くフレームを選択して同様の処理を実行する。一方で、処理を実行したフレームが最後のフレームに該当した場合(ステップS34、YES)、フィールド検出部30はフィールド検出プログラム22の実行を終了する。 Next, the field detection unit 30 confirms whether or not the frame that has been processed so far is the last frame (step S34). If the frame in which the process is executed does not correspond to the last frame (step S34, NO), the field detection unit 30 returns to step 20, selects a subsequent frame, and executes the same process. On the other hand, when the frame in which the processing is executed corresponds to the last frame (step S34, YES), the field detection unit 30 ends the execution of the field detection program 22.

尚、上記説明におけるラインの判別方法はあくまで一例であり、これに限定されない。例えば、フィールドFLD内に設けられたフラグを認識することによってタッチライン44を判別するようにしても良いし、ゴールポスト47A及び47Bを認識することによってゴールライン40A及び40B上を判別するようにしても良い。 The line determination method in the above description is merely an example, and is not limited thereto. For example, the touch line 44 may be discriminated by recognizing a flag provided in the field FLD, or the goal lines 40A and 40B may be discriminated by recognizing the goal posts 47A and 47B. Is also good.

また、上記説明においてフレーム毎にフィールド検出処理を実行した場合を例に説明したが、これに限定されない。例えばフィールド検出部30は、フィールドを検出した後の処理において、続くフレームとの映像の差分を確認することによりフィールド及びラインを判別しても良い。 Further, in the above description, the case where the field detection process is executed for each frame has been described as an example, but the present invention is not limited to this. For example, the field detection unit 30 may discriminate between the field and the line by checking the difference in the image from the subsequent frame in the processing after the field is detected.

<物体検出部31及びチーム種別判別部32>
次に、図10及び図11を用いて物体検出プログラム23に基づいた映像処理装置1の詳細な動作について説明する。図10には物体検出プログラム23による映像処理装置1の動作フローチャートが示され、図11には物体検出プログラム23による分析の対象となる試合映像の一例が示されている。
<Object detection unit 31 and team type determination unit 32>
Next, the detailed operation of the image processing apparatus 1 based on the object detection program 23 will be described with reference to FIGS. 10 and 11. FIG. 10 shows an operation flowchart of the image processing device 1 by the object detection program 23, and FIG. 11 shows an example of a game image to be analyzed by the object detection program 23.

図10に示すようにまず物体検出部31は、動画データから物体検出処理を実行するフレームを選択する(ステップS40)。このとき選択されるフレームは、例えば選択された映像VTRの1フレーム目に対応する。 As shown in FIG. 10, the object detection unit 31 first selects a frame for executing the object detection process from the moving image data (step S40). The frame selected at this time corresponds to, for example, the first frame of the selected video VTR.

次に物体検出部31は、当該フレームの映像VTRからフィールド上の物体を抽出する(ステップS41)。このステップS41における画像処理は、図7を用いて説明したステップS32における画像処理と同様であり、フィールド領域内の前景を抽出することにより物体を検出する。 Next, the object detection unit 31 extracts an object on the field from the video VTR of the frame (step S41). The image processing in step S41 is the same as the image processing in step S32 described with reference to FIG. 7, and the object is detected by extracting the foreground in the field area.

次に物体検出部31は、フィールド領域内の前景として抽出された物体が人物であるか、ボールであるかを判別する(ステップS42)。具体的には、図11に示すように第1物体検出部31Aが選手P1〜P8を判別し、第2物体検出部31BがボールBLを判別する。また第1物体検出部31Aは、選手が複数人接触しているような状況を確認した場合、その複数の選手の塊を密集HDとして認識する。この密集HDは、ラグビーの場合スクラム、ラック、モール等に対応している。 Next, the object detection unit 31 determines whether the object extracted as the foreground in the field area is a person or a ball (step S42). Specifically, as shown in FIG. 11, the first object detection unit 31A determines the players P1 to P8, and the second object detection unit 31B determines the ball BL. Further, when the first object detection unit 31A confirms a situation in which a plurality of athletes are in contact with each other, the first object detection unit 31A recognizes the mass of the plurality of athletes as dense HD. In the case of rugby, this dense HD is compatible with scrums, racks, malls, and the like.

そしてチーム種別判別部32が、抽出した選手の色情報からチーム種別を判別する(ステップS43)。具体的にはチーム種別判別部32が、例えば選手P1〜P8が検出された矩形の領域において、似た特徴の色情報を有する人物をグループ分けする。図11に示す例では選手P1〜P4が黒色のユニフォームを身につけ、選手P5〜P8が白色のユニフォームを身につけていることから、チーム種別判別部32は選手P1〜P4をAチームに分類し、選手P5〜P8をBチームに分類する。 Then, the team type determination unit 32 determines the team type from the extracted player color information (step S43). Specifically, the team type determination unit 32 groups persons having color information having similar characteristics, for example, in a rectangular area in which players P1 to P8 are detected. In the example shown in FIG. 11, since players P1 to P4 wear black uniforms and players P5 to P8 wear white uniforms, the team type determination unit 32 classifies players P1 to P4 into team A. , Players P5 to P8 are classified into Team B.

次に物体検出部31は、フィールド上に検出された物体の座標を算出する(ステップS34)。具体的には、フィールド検出プログラム22によって得られたフィールド領域の座標情報に基づいて、第1物体検出部31Aが選手P1〜P8及び密集HDの二次元フィールドFLD上における座標を算出し、第2物体検出部31BがボールBLの二次元フィールドFLD上における座標を算出する。図11に示す映像VTRに対して座標演算処理を実行した場合、図12に示すような情報が得られる。図12に示すように二次元フィールドFLD内には、選手P1〜P4が黒丸で示され、選手P5〜P8が白丸で示され、密集HDが破線の円で示され、ボールBLが楕円で示されている。そして物体検出部31は、このように関連付けられた選手P1〜P8、密集HD、及びボールBLの情報を記憶部13に保存する。 Next, the object detection unit 31 calculates the coordinates of the object detected on the field (step S34). Specifically, based on the coordinate information of the field area obtained by the field detection program 22, the first object detection unit 31A calculates the coordinates of the athletes P1 to P8 and the dense HD on the two-dimensional field FLD, and the second The object detection unit 31B calculates the coordinates of the ball BL on the two-dimensional field FLD. When the coordinate calculation process is executed on the video VTR shown in FIG. 11, the information shown in FIG. 12 can be obtained. As shown in FIG. 12, in the two-dimensional field FLD, the players P1 to P4 are indicated by black circles, the athletes P5 to P8 are indicated by white circles, the dense HD is indicated by a broken line circle, and the ball BL is indicated by an ellipse. Has been done. Then, the object detection unit 31 stores the information of the players P1 to P8, the dense HD, and the ball BL associated in this way in the storage unit 13.

次に物体検出部31は、これまで処理を実行したフレームが最後のフレームであるかどうかを確認する(ステップS45)。処理を実行したフレームが最後のフレームに該当しなかった場合(ステップS45、NO)、ステップ40に戻り、物体検出部31は続くフレームを選択して同様の処理を実行する。一方で、処理を実行したフレームが最後のフレームに該当した場合(ステップS45、YES)、物体検出部31は物体検出プログラム23の実行を終了する。 Next, the object detection unit 31 confirms whether or not the frame that has been processed so far is the last frame (step S45). If the frame in which the process is executed does not correspond to the last frame (step S45, NO), the process returns to step 40, and the object detection unit 31 selects the following frame and executes the same process. On the other hand, when the frame in which the processing is executed corresponds to the last frame (step S45, YES), the object detection unit 31 ends the execution of the object detection program 23.

尚、以上で説明したステップS41において第2物体検出部31Bは、例えば予め登録されたボールの大きさ、形状、及び色情報に基づいてボールを探索して検出する。このボールの情報は、ユーザーによって入力されても良いし、ユーザーが幾つかのメーカー、型番等の情報を選択して、プリセットされたデータが参照されるようにしても良い。 In step S41 described above, the second object detection unit 31B searches for and detects the ball based on, for example, the size, shape, and color information of the ball registered in advance. The information of this ball may be input by the user, or the user may select some information such as a manufacturer and a model number so that the preset data can be referred to.

また、以上の説明において第1物体検出部31Aが複数の選手の塊を密集HDとして認識する場合を例に説明したが、第1物体検出部31Aが密集とみなす人数は2人以上に限定されず、任意の人数に設定することが出来る。 Further, in the above description, the case where the first object detection unit 31A recognizes a mass of a plurality of athletes as dense HD has been described as an example, but the number of people regarded as dense by the first object detection unit 31A is limited to two or more. It can be set to any number of people.

また、以上で説明したステップS31及びS32において、第1物体検出部31Aが検出する人物としては、選手以外にも主審、線審、リザーブの選手等が検出されることがある。この場合に第1物体検出部31Aは、例えば主審及び線審がAチーム及びBチームの選手と異なる色情報を有することと、当該グループに属する物体の人数等から、主審及び線審を判別することが出来る。また、第1物体検出部31Aは、例えばフィールド領域のうちタッチライン44より外側にいる人物をその時点でプレーをしていない選手であるとみなすことによって、リザーブの選手を判別することが出来る。 Further, in steps S31 and S32 described above, as the person detected by the first object detection unit 31A, a referee, a linesmen, a reserve player, or the like may be detected in addition to the player. In this case, the first object detection unit 31A can determine the referee and the linesmen from, for example, that the referee and the linesmen have different color information from the players of the A team and the B team, and the number of objects belonging to the group. You can. Further, the first object detection unit 31A can determine the reserve player by, for example, considering a person outside the touch line 44 in the field area as a player who is not playing at that time.

また、上記説明においてフレーム毎に物体検出処理を実行した場合を例に説明したが、これに限定されない。例えば物体検出部31は、物体を検出した後の処理において、続くフレームとの映像の差分を確認することにより選手及びボールを判別しても良い。 Further, in the above description, the case where the object detection process is executed for each frame has been described as an example, but the present invention is not limited to this. For example, the object detection unit 31 may discriminate between the player and the ball by checking the difference in the image from the subsequent frame in the processing after detecting the object.

<物体位置推定部33>
次に、図13を用いて物体位置推定プログラム24に基づいた映像処理装置1の詳細な動作について説明する。図13には、物体位置推定プログラム24による映像処理装置1の動作フローチャートが示されている。
<Object position estimation unit 33>
Next, the detailed operation of the image processing apparatus 1 based on the object position estimation program 24 will be described with reference to FIG. FIG. 13 shows an operation flowchart of the video processing device 1 by the object position estimation program 24.

図13に示すようにまず物体位置推定部33は、動画データから物体位置推定処理を実行するフレームを選択する(ステップS50)。次に物体位置推定部33は、物体検出プログラム23によって算出された選手及びボールの座標情報を参照して追跡する(ステップS51)。 As shown in FIG. 13, the object position estimation unit 33 first selects a frame for executing the object position estimation process from the moving image data (step S50). Next, the object position estimation unit 33 tracks by referring to the coordinate information of the player and the ball calculated by the object detection program 23 (step S51).

次に物体位置推定部33は、当該フレームの映像VTRにおいて、ボールが検出されたかどうかを確認する(ステップS52)。 Next, the object position estimation unit 33 confirms whether or not a ball has been detected in the video VTR of the frame (step S52).

ステップS52においてボールが検出されなかった場合(ステップS52、NO)、物体位置推定部33は、ボール保持者が設定されているかどうかを確認する(ステップS53)。ボール保持者が設定されていない場合(ステップS53、NO)、物体位置推定部33は、ボールを見失った場所に最も近い選手をボール保持者とみなしてボール保持者情報を付与する(ステップS54)。そして物体位置推定部33は、ステップS53においてボール保持者が設定されていなかった場合(ステップS53、YES)と、ステップS54の処理後に、ステップS56に移行する。 When the ball is not detected in step S52 (step S52, NO), the object position estimation unit 33 confirms whether or not the ball holder is set (step S53). When the ball holder is not set (step S53, NO), the object position estimation unit 33 considers the player closest to the place where the ball is lost as the ball holder and gives the ball holder information (step S54). .. Then, when the ball holder is not set in step S53 (step S53, YES), the object position estimation unit 33 shifts to step S56 after the processing of step S54.

ステップS52においてボールが検出された場合(ステップS52、YES)、物体位置推定部33は、ボール保持者設定がされている場合にはその設定を解除して、当該選手のボール保持者としての追跡を停止する(ステップS55)。つまり選手に付与されたボール保持者情報は、ボールが再検出された時点で解除される。そして物体位置推定部33は、ステップS55の処理後に、ステップS56に移行する
ステップS55において物体位置推定部33は、これまで処理を実行したフレームが最後のフレームであるかどうかを確認する(ステップS55)。
When the ball is detected in step S52 (step S52, YES), the object position estimation unit 33 cancels the ball holder setting if it is set, and tracks the player as the ball holder. Is stopped (step S55). That is, the ball holder information given to the player is released when the ball is rediscovered. Then, the object position estimation unit 33 shifts to step S56 after the processing of step S55. In step S55, the object position estimation unit 33 confirms whether or not the frame that has been processed so far is the last frame (step S55). ).

処理を実行したフレームが最後のフレームに該当しなかった場合(ステップS56、NO)、ステップS50に戻り、物体検出部31は続くフレームを選択して、同様の処理を実行する。 If the frame in which the process is executed does not correspond to the last frame (step S56, NO), the process returns to step S50, and the object detection unit 31 selects the following frame and executes the same process.

処理を実行したフレームが最後のフレームに該当した場合(ステップS56、YES)、物体位置推定部33はボール保持者の情報から、動画データにおけるボールの位置を推定する(ステップS57)。そして物体位置推定部33は、推定した選手及びボールの移動軌跡の情報を記憶部13に保存して、物体位置推定プログラム24の実行を終了する。 When the frame in which the process is executed corresponds to the last frame (step S56, YES), the object position estimation unit 33 estimates the position of the ball in the moving image data from the information of the ball holder (step S57). Then, the object position estimation unit 33 stores the estimated information on the movement locus of the player and the ball in the storage unit 13, and ends the execution of the object position estimation program 24.

以上で説明した物体位置推定プログラムによってボール保持者が設定される状況の具体例を、図14及び図15を用いて説明する。 Specific examples of the situation in which the ball holder is set by the object position estimation program described above will be described with reference to FIGS. 14 and 15.

図14は、見失う前のボールBL付近に密集HDがない場合の一例である。図14の(1)には選手P1及びP2が示され、選手P1がボールBLを保持している状況が示されている。この状況から、選手P1が保持していたボールBLが映像から見えなくなったと仮定する。すると図14の(2)に示すように、物体位置推定部33は、見失ったボールBLの直近にいた選手P1にボール保持者情報を付与し、選手P1をボール保持者として追跡する。 FIG. 14 is an example in the case where there is no dense HD in the vicinity of the ball BL before being lost. (1) of FIG. 14 shows players P1 and P2, and shows a situation in which player P1 holds the ball BL. From this situation, it is assumed that the ball BL held by the player P1 disappears from the image. Then, as shown in (2) of FIG. 14, the object position estimation unit 33 adds the ball holder information to the player P1 who was in the immediate vicinity of the lost ball BL, and tracks the player P1 as the ball holder.

図15は見失う前のボールBL付近に密集HDがある場合の一例である。図15の(1)にはAチームの選手P1〜P3、Bチームの選手P4〜P6、及び密集HDが示され、選手P1がボールBLを保持している状況が示されている。この状況から、選手P1が保持していたボールBLが映像から見えなくなったと仮定する。すると図15の(2)に示すように、物体位置推定部33は、見失ったボールBLの付近にあった密集HDにボール保持者情報を付与し、密集HDをボール保持者として追跡する。 FIG. 15 is an example of a case where there is a dense HD in the vicinity of the ball BL before it is lost. In FIG. 15 (1), players P1 to P3 of team A, players P4 to P6 of team B, and dense HD are shown, and a situation in which player P1 holds the ball BL is shown. From this situation, it is assumed that the ball BL held by the player P1 disappears from the image. Then, as shown in (2) of FIG. 15, the object position estimation unit 33 adds the ball holder information to the dense HD near the lost ball BL, and tracks the dense HD as the ball holder.

このようにボール保持者情報を付与する対象は、見失ったボール付近の密集HDの有無によって変更してもよい。尚、本例における「付近」の指定する範囲は、任意の数値に設定することが出来る。 The target to which the ball holder information is given in this way may be changed depending on the presence or absence of dense HD in the vicinity of the lost ball. The range specified by "near" in this example can be set to any numerical value.

[1−3]第1実施形態の効果
ラグビー等のスポーツにおける試合映像では、ボールが選手やボール付近に形成された密集(スクラム、モール、ラック等)の陰に隠れて見えなくなることがある。
[1-3] Effect of the first embodiment In a game image in sports such as rugby, the ball may be hidden behind a player or a crowd (scrum, maul, rack, etc.) formed near the ball and cannot be seen.

そこで第1実施形態に係る映像処理装置1は、スポーツの試合映像の分析処理において、ボールを見失った場合にボール保持者を設定して追跡する。具体的には、物体検出部31が常にボール及び選手の検出を実行して、物体検出部31がボールを検出できない場合に、物体位置推定部33が最後にボールを検出した位置に最も近い選手に対してボール保持者情報を付与して追跡する。そして物体位置推定部33は、設定したボール保持者情報を、物体検出部31がボールを再検出するまで維持する。 Therefore, the video processing device 1 according to the first embodiment sets and tracks the ball holder when the ball is lost in the analysis processing of the sports game video. Specifically, when the object detection unit 31 constantly detects the ball and the player and the object detection unit 31 cannot detect the ball, the player closest to the position where the object position estimation unit 33 last detected the ball. The ball holder information is given to the ball and the ball is tracked. Then, the object position estimation unit 33 maintains the set ball holder information until the object detection unit 31 re-detects the ball.

これにより物体位置推定部33は、物体検出部31が検知できなかったボールの軌跡を補間することが出来る。言い換えると物体位置推定部33は、ボールを見失った際にボール保持者を追跡することによって、ボールの移動軌跡を連続的に把握することが可能となる。つまり第1実施形態に係る映像処理装置1は、スポーツの試合映像の分析処理におけるボールの追跡精度を向上することが出来る。 As a result, the object position estimation unit 33 can interpolate the trajectory of the ball that the object detection unit 31 could not detect. In other words, the object position estimation unit 33 can continuously grasp the movement locus of the ball by tracking the ball holder when the ball is lost. That is, the video processing device 1 according to the first embodiment can improve the tracking accuracy of the ball in the analysis processing of the sports game video.

また、第1実施形態に係る映像処理装置1は、ボール保持者を設定することによって、見失ったボールを探索する領域を狭くすることが出来る。具体的には、映像から見えなくなったボールは、近くにいた選手(ボール保持者)が保持している可能性が高く、ボール保持者の近傍から再検出される可能性が高い。つまり映像処理装置1は、物体検出部31Aがボール保持者情報を参照して、ボール保持者情報が付与された選手の近傍からボールを探すことによって、ボールの検出精度を向上し、且つボールを検出する速度を早くすることが出来る。 Further, the video processing device 1 according to the first embodiment can narrow the area for searching for a lost ball by setting a ball holder. Specifically, the ball that disappears from the image is likely to be held by a nearby player (ball holder), and is likely to be rediscovered from the vicinity of the ball holder. That is, the image processing device 1 improves the ball detection accuracy and improves the ball detection accuracy by the object detection unit 31A referring to the ball holder information and searching for the ball from the vicinity of the player to which the ball holder information is given. The detection speed can be increased.

[2]第2実施形態
次に、第2実施形態に係る映像処理装置1について説明する。第2実施形態に係る映像処理装置1は、第1実施形態で説明した映像処理装置1において、複数のボール保持者を設定するものである。
[2] Second Embodiment Next, the video processing device 1 according to the second embodiment will be described. The video processing device 1 according to the second embodiment sets a plurality of ball holders in the video processing device 1 described in the first embodiment.

[2−1]動作
まず、図16を用いて物体位置推定プログラム24に基づいた映像処理装置1の動作において、ボール保持者を複数設定する場合について説明する。図16には、図13におけるステップS50〜S56のループが繰り返されている間に、映像処理装置1が追加で処理する動作のフローチャートが示されている。
[2-1] Operation First, in the operation of the image processing device 1 based on the object position estimation program 24 with reference to FIG. 16, a case where a plurality of ball holders are set will be described. FIG. 16 shows a flowchart of an operation in which the video processing apparatus 1 additionally processes while the loop of steps S50 to S56 in FIG. 13 is repeated.

物体位置推定部33は、ボール保持者の付近を選手が通過した場合に図16に示す動作を実行する。具体的には物体位置推定部33は、ボール保持者の付近を選手が通過した選手に対して、追加でボール保持者情報を付与する(ステップS60)。つまりステップS60の動作が実行されると、複数のボール保持者が存在する状況になる。 The object position estimation unit 33 executes the operation shown in FIG. 16 when the player passes near the ball holder. Specifically, the object position estimation unit 33 additionally adds the ball holder information to the player who has passed the vicinity of the ball holder (step S60). That is, when the operation of step S60 is executed, there is a situation in which a plurality of ball holders exist.

物体位置推定プログラム24の進行に伴い、見失っていたボールが再検出されると(ステップS61)、物体位置推定部33はボール保持者が複数存在した期間のボール保持者情報を修正する(ステップS62)。具体的には、物体位置推定部33は当該期間において、実際にボールを保持していたと推測されるボール保持者以外の選手のボール保持者としての履歴を消去する。そして物体位置推定部33は、図13を用いて説明した物体位置推定処理を継続する。このようにボール保持者を複数設定する状況の具体例が、図17に示されている。 When the lost ball is rediscovered as the object position estimation program 24 progresses (step S61), the object position estimation unit 33 corrects the ball holder information during the period when a plurality of ball holders exist (step S62). ). Specifically, the object position estimation unit 33 erases the history of a player other than the ball holder who is presumed to have actually held the ball during the period as a ball holder. Then, the object position estimation unit 33 continues the object position estimation process described with reference to FIG. A specific example of a situation in which a plurality of ball holders are set in this way is shown in FIG.

図17は、一人のボール保持者が他の選手と交差する場合の一例である。図17の(1)には選手P1及びP2が示され、選手P1にボール保持者情報が付与されている状況が示されている。この状況から、選手P2が選手P1の付近を通過する。すると図17の(2)に示すように、物体位置推定部33は、ボール保持者である選手P1と交差した選手P2に対してもボール保持者情報を付与し、選手P1と選手P2の両選手をボール保持者として追跡する。そして続く状況において選手P2の付近からボールBLが再検出されると、物体位置推定部33は(2)以降におけるボール保持者は選手P2であると推定する。つまり物体位置推定部33は(1)〜(2)の期間におけるボール保持者が選手P1であり、(2)以降におけるボール保持者が選手P2であるとみなせるため、ボールBLの軌跡が図17の(3)に示す破線のような軌跡であると推測することが出来る。 FIG. 17 is an example of a case where one ball holder intersects with another player. (1) of FIG. 17 shows players P1 and P2, and shows a situation in which player P1 is given ball holder information. From this situation, player P2 passes near player P1. Then, as shown in (2) of FIG. 17, the object position estimation unit 33 also assigns the ball holder information to the player P2 who intersects with the player P1 who is the ball holder, and both the player P1 and the player P2. Track the player as the ball holder. Then, when the ball BL is re-detected from the vicinity of the player P2 in the following situation, the object position estimation unit 33 estimates that the ball holder after (2) is the player P2. That is, since the object position estimation unit 33 can consider that the ball holder during the period (1) to (2) is the player P1 and the ball holder after (2) is the player P2, the trajectory of the ball BL is shown in FIG. It can be inferred that the locus is as shown by the broken line shown in (3).

以上のように物体位置推定部33は、複数のボール保持者情報から正しいボール保持者情報を抽出することが出来る。尚、映像処理装置1は、複数のボール保持者からボール保持者の候補を絞る方法として、図18〜図20に示すような方法を適用してもよい。 As described above, the object position estimation unit 33 can extract the correct ball holder information from the plurality of ball holder information. The video processing device 1 may apply the methods shown in FIGS. 18 to 20 as a method of narrowing down the candidates for the ball holders from a plurality of ball holders.

図18に示す方法は、複数のボール保持者の速度情報から正しいボール保持者を推測するものである。図18の(1)には選手P1及びP2が示され、選手P1及びP2の両方共にボール保持者情報が付与されている状況が示されている。この状況から、移動速度推定部35が選手P1と選手P2の速度を算出し、物体位置推定部33が選手P1と選手P2の速度を比較する。そして物体位置推定部33は、例えば選手P1の方が選手P2よりも移動速度が早いことを検知すると、図18の(2)に示すように選手P2に対してボール保持者としての追跡を停止する。尚、物体位置推定部33が速度を比較する方法としては、移動速度推定部35が選手P1と選手P2の具体的な速度を算出することにより比較しても良いが、これに限定されない。例えば、移動速度推定部35が選手P1と選手P2との相対的な速度の関係を物体位置推定部33に通知することにより、物体位置推定部33がボール保持者の候補を絞るようにしても良い。また、物体位置推定部33が複数のボール保持者の移動速度を比較するタイミングは、複数のボール保持者が発生してから所定の時間経過後とされる。この所定の時間を指定するフレーム数は適宜変更することが可能である。また、物体位置推定部33は、複数のボール保持者の移動速度の差がある閾値を超えた場合に、ボール保持者の候補を限定するようにしても良い。 The method shown in FIG. 18 is for estimating the correct ball holder from the velocity information of a plurality of ball holders. (1) of FIG. 18 shows players P1 and P2, and shows a situation in which ball holder information is given to both players P1 and P2. From this situation, the moving speed estimation unit 35 calculates the speeds of the athlete P1 and the athlete P2, and the object position estimation unit 33 compares the speeds of the athlete P1 and the athlete P2. Then, when the object position estimation unit 33 detects, for example, that the player P1 has a faster movement speed than the player P2, the object position estimation unit 33 stops tracking the player P2 as a ball holder as shown in (2) of FIG. To do. As a method for the object position estimation unit 33 to compare the speeds, the movement speed estimation unit 35 may compare by calculating the specific speeds of the athlete P1 and the athlete P2, but the comparison is not limited to this. For example, even if the moving speed estimation unit 35 notifies the object position estimation unit 33 of the relative speed relationship between the player P1 and the player P2, the object position estimation unit 33 narrows down the candidates for the ball holder. good. Further, the timing at which the object position estimation unit 33 compares the moving speeds of the plurality of ball holders is set to be after a predetermined time has elapsed after the occurrence of the plurality of ball holders. The number of frames that specify this predetermined time can be changed as appropriate. Further, the object position estimation unit 33 may limit the candidates for the ball holders when the difference in the moving speeds of the plurality of ball holders exceeds a certain threshold value.

図19に示す方法は、複数のボール保持者のその後のプレーから正しいボール保持者を推測するものである。図19の(1)にはAチームの選手P1及びP2と、Bチームの選手P3及びP4が示され、選手P1と選手P2にボール保持者情報が付与されている状況が示されている。この状況から、Aチームの選手P1とBチームの選手P3とが接触して密集HDを形成されると、物体位置推定部33は、図19の(2)に示すようにボール保持者である選手P1が形成した密集HDをボール保持者とみなし、選手P2に対してボール保持者としての追跡を停止する。 The method shown in FIG. 19 is to infer the correct ball holder from the subsequent play of the plurality of ball holders. FIG. 19 (1) shows players P1 and P2 of team A and players P3 and P4 of team B, and shows a situation in which player P1 and player P2 are given ball holder information. From this situation, when the player P1 of the A team and the player P3 of the B team come into contact with each other to form a dense HD, the object position estimation unit 33 is a ball holder as shown in (2) of FIG. The dense HD formed by the player P1 is regarded as the ball holder, and the tracking of the player P2 as the ball holder is stopped.

図20に示す方法は、密集を起点として複数のボール保持者が発生した場合における正しいボール保持者を推測するものである。図20の(1)にはAチームの選手P1及びP2と、Bチームの選手P3及びP4と、密集HD1が示され、選手P1と密集HD1にボール保持者情報が付与されている状況が示されている。この状況から、Aチームの選手P1とBチームの選手P3とが接触して密集HDを形成されると、物体位置推定部33は、図20の(2)に示すようにボール保持者である選手P1が新たに形成した密集HD2をボール保持者とみなし、密集HD1に対してボール保持者としての追跡を停止する。 The method shown in FIG. 20 is for estimating the correct ball holder when a plurality of ball holders are generated starting from the density. (1) of FIG. 20 shows the players P1 and P2 of the A team, the players P3 and P4 of the B team, and the dense HD1, and shows the situation where the ball holder information is given to the players P1 and the dense HD1. Has been done. From this situation, when the player P1 of the A team and the player P3 of the B team come into contact with each other to form a dense HD, the object position estimation unit 33 is a ball holder as shown in (2) of FIG. The dense HD2 newly formed by the player P1 is regarded as a ball holder, and the tracking of the dense HD1 as a ball holder is stopped.

[2−2]第2実施形態の効果
第2実施形態に係る映像処理装置1は、物体位置推定部33がボール保持者付近を通過した選手にもボール保持者情報を付与することにより、一時的に複数のボール保持者を追跡する。そしてボールが再検出された場合に、複数のボール保持者が設定されていた期間におけるボール保持者情報を修正する。
[2-2] Effect of Second Embodiment In the video processing device 1 according to the second embodiment, the object position estimation unit 33 temporarily assigns ball holder information to a player who has passed near the ball holder. Track multiple ball holders. Then, when the ball is rediscovered, the ball holder information in the period set by the plurality of ball holders is corrected.

これにより第2実施形態に係る映像処理装置1は、第1実施形態よりもボールの追跡精度を向上することが出来、物体検出部31が見失ったボールを再検出する精度を向上することが出来る。そして第2実施形態に係る映像処理装置1は、試合中のより精確なボールの軌跡を把握することが出来る。 As a result, the video processing device 1 according to the second embodiment can improve the tracking accuracy of the ball as compared with the first embodiment, and can improve the accuracy of re-detecting the lost ball by the object detection unit 31. .. Then, the video processing device 1 according to the second embodiment can grasp a more accurate trajectory of the ball during the game.

[3]第3実施形態
次に、第3実施形態に係る映像処理装置1について説明する。第3実施形態に係る映像処理装置1は、第1実施形態で説明した映像処理装置1において、分析プログラム21を実行する際にさらにプレー種別判別プログラム25を実行するものである。
[3] Third Embodiment Next, the video processing device 1 according to the third embodiment will be described. The video processing device 1 according to the third embodiment further executes the play type determination program 25 when the analysis program 21 is executed in the video processing device 1 described in the first embodiment.

[3−1]動作
まず、図21を用いてプレー種別判別プログラム25に基づいた映像処理装置1の動作について説明する。図21には、プレー種別判別プログラム25による映像処理装置1の動作フローチャートが示されている。
[3-1] Operation First, the operation of the video processing device 1 based on the play type determination program 25 will be described with reference to FIG. FIG. 21 shows an operation flowchart of the video processing device 1 by the play type determination program 25.

図21に示すようにまずプレー種別判別部36は、動画データからプレー種別判別処理を実行するフレームを選択する(ステップS70)。 As shown in FIG. 21, the play type determination unit 36 first selects a frame for executing the play type determination process from the moving image data (step S70).

次にプレー種別判別部36は、物体検出プログラム23によって識別された物体の種別を確認する(ステップS71)。具体的には、検出された物体のうち選手とボールとを確認する。尚、ボールが検出されなかった場合には、物体位置推定プログラム24の分析結果からボール保持者情報を取得する。 Next, the play type determination unit 36 confirms the type of the object identified by the object detection program 23 (step S71). Specifically, among the detected objects, the player and the ball are confirmed. If the ball is not detected, the ball holder information is acquired from the analysis result of the object position estimation program 24.

次にプレー種別判別部36は、移動方向推定部34が算出した物体の移動速度を確認し(ステップS72)、さらに移動速度推定部35が算出した物体の移動方向を確認する(ステップS73)。そしてプレー種別判別部36は、物体検出部31が検出した物体の位置情報と、確認した物体の移動方向及び移動速度とから、その時点におけるプレー種別を判別する(ステップS74)。ここでプレー種別判別部36が判別するプレーの種別としては、例えば“ラン”、“パス”、及び“キック”が挙げられる。 Next, the play type determination unit 36 confirms the movement speed of the object calculated by the movement direction estimation unit 34 (step S72), and further confirms the movement direction of the object calculated by the movement speed estimation unit 35 (step S73). Then, the play type determination unit 36 determines the play type at that time from the position information of the object detected by the object detection unit 31 and the moving direction and moving speed of the confirmed object (step S74). Here, examples of the type of play determined by the play type determination unit 36 include "run", "pass", and "kick".

“ラン”の判定基準は、例えば図22に示す条件に設定される。図22には、選手P1及びP2が示され、選手P1がボールBLを保持している状況が示されている。そして選手P1と選手P2は、敵陣の方向に走っている。この状況においてプレー種別判別部36は、選手P1とボールBLが略同じ速度且つ略同じ方向に移動していることを認識して、プレーの種別が“ラン”であると判定する。 The criterion for "run" is set to the conditions shown in FIG. 22, for example. FIG. 22 shows players P1 and P2, and shows a situation in which player P1 holds the ball BL. And player P1 and player P2 are running in the direction of the enemy team. In this situation, the play type determination unit 36 recognizes that the player P1 and the ball BL are moving at substantially the same speed and in substantially the same direction, and determines that the play type is “run”.

“パス”の判定基準は、例えば図23に示す条件に設定される。図23には、選手P1及びP2が示され、選手P1が選手P2に向かってボールBLをパスしている状況が示されている。この状況においてプレー種別判別部36は、選手P1から離れたボールBLがオフサイドライン50より後方を移動していることを認識して、プレーの種別が“パス”であると判定する。 The criterion for "pass" is set to the conditions shown in FIG. 23, for example. FIG. 23 shows players P1 and P2, showing a situation in which player P1 is passing the ball BL toward player P2. In this situation, the play type determination unit 36 recognizes that the ball BL away from the player P1 is moving behind the offside line 50, and determines that the play type is "pass".

“キック”の判定基準は、例えば図24に示す条件に設定される。図24には、選手P1及びP2が示され、選手P1が走り込んできた選手P2の前方に向かってボールBLをキックしている状況が示されている。この状況においてプレー種別判別部36は、選手P1から離れたボールBLがオフサイドライン50より前方を移動していることを認識して、プレーの種別が“キック”であると判定する。 The criterion for "kick" is set to the conditions shown in FIG. 24, for example. FIG. 24 shows players P1 and P2, and shows a situation in which player P1 is kicking the ball BL toward the front of player P2 who has run into it. In this situation, the play type determination unit 36 recognizes that the ball BL away from the player P1 is moving ahead of the offside line 50, and determines that the play type is “kick”.

以上のようにプレー種別判別部36はその時点におけるプレー種別を判別して、判別したプレー種別の情報を記憶部13に保存する。プレー種別判別プログラム25を実行することにより得られた情報は、例えば図25に示すように記録される。図25には、プレー種別判別プログラム25による分析結果を示すテーブルの一例が示されている。 As described above, the play type determination unit 36 determines the play type at that time, and stores the determined play type information in the storage unit 13. The information obtained by executing the play type determination program 25 is recorded as shown in FIG. 25, for example. FIG. 25 shows an example of a table showing the analysis results by the play type determination program 25.

図25に示すプレー種別判別プログラム25の分析結果では、プレー種別が変化する時点のフレーム数が記録されている。例えば、動画データのフレーム数が60の時点で、プレー種別が“キック”となっている。そしてフレーム数が“420”の時点で、プレー種別が“ラン”に変わっている。このような場合、フレーム数が“60”から“420”までの期間は、プレー種別が“キック”であったことを示している。続くフレームにおけるプレー種別についても同様である。尚、プレー種別判別プログラム25の分析結果の記録方法はこれに限定されず、例えば全てのフレームにおいて、対応するプレー種別を記録するようにしても良い。 In the analysis result of the play type determination program 25 shown in FIG. 25, the number of frames at the time when the play type changes is recorded. For example, when the number of frames of the moving image data is 60, the play type is “kick”. And when the number of frames is "420", the play type is changed to "run". In such a case, the period from "60" to "420" in the number of frames indicates that the play type was "kick". The same applies to the play type in the following frame. The method of recording the analysis result of the play type determination program 25 is not limited to this, and for example, the corresponding play type may be recorded in all frames.

そして物体検出部31は、これまで処理を実行したフレームが最後のフレームであるかどうかを確認する(ステップS75)。処理を実行したフレームが最後のフレームに該当しなかった場合(ステップS75、NO)、ステップ70に戻り、プレー種別判別部36は続くフレームを選択して同様の処理を実行する。一方で、処理を実行したフレームが最後のフレームに該当した場合(ステップS75、YES)、プレー種別判別部36はプレー種別判別プログラム25の実行を終了する。 Then, the object detection unit 31 confirms whether or not the frame that has been processed so far is the last frame (step S75). If the frame in which the process is executed does not correspond to the last frame (step S75, NO), the process returns to step 70, and the play type determination unit 36 selects the following frame and executes the same process. On the other hand, when the frame in which the processing is executed corresponds to the last frame (step S75, YES), the play type determination unit 36 ends the execution of the play type determination program 25.

尚、以上で説明した“パス”及び“キック”の判別する方法として、さらに移動速度の情報を使用することも可能である。例えば、“キック”の速度は“パス”の速度よりも速いことが予想されることから、選手から離れたボールBLの移動速度に対して所定の閾値を設定する。そして、例えばボールの速度が当該閾値より高い場合に“キック”と判定し、当該閾値以下の場合に“パス”と判定する。これにより、プレー種別判別部36は“パス”及び“キック”の判定精度を向上することが出来る。 It is also possible to use information on the moving speed as a method for discriminating between the "pass" and the "kick" described above. For example, since the speed of the "kick" is expected to be faster than the speed of the "pass", a predetermined threshold value is set for the moving speed of the ball BL away from the player. Then, for example, when the speed of the ball is higher than the threshold value, it is determined as "kick", and when it is equal to or less than the threshold value, it is determined as "pass". As a result, the play type determination unit 36 can improve the determination accuracy of the "pass" and the "kick".

[3−2]第3実施形態の効果
第3実施形態に係る映像処理装置1は、移動方向推定部34及び移動速度推定部35により算出されたボールの移動方向及び移動速度に基づいて、プレー種別判別部36が試合映像の各時点におけるプレーの種別を自動で判定する。これにより第3実施形態に係る映像処理装置1は、ユーザーが試合映像を分析する負荷を軽減することが出来る。
[3-2] Effect of Third Embodiment The video processing device 1 according to the third embodiment plays based on the moving direction and moving speed of the ball calculated by the moving direction estimating unit 34 and the moving speed estimating unit 35. The type determination unit 36 automatically determines the type of play at each time point in the match video. As a result, the video processing device 1 according to the third embodiment can reduce the load on the user to analyze the game video.

[4]第4実施形態
次に、第4実施形態に係る映像処理装置1について説明する。第4実施形態に係る映像処理装置1は、第1実施形態で説明した映像処理装置1において、分析プログラム21を実行する際にさらにシーン分割プログラム26を実行するものである。
[4] Fourth Embodiment Next, the video processing device 1 according to the fourth embodiment will be described. The video processing device 1 according to the fourth embodiment further executes the scene division program 26 when the analysis program 21 is executed in the video processing device 1 described in the first embodiment.

[4−1]動作
まず、図26を用いてシーン分割プログラム26に基づいた映像処理装置1の動作について説明する。図26には、シーン分割プログラム26による映像処理装置1の動作フローチャートが示されている。
[4-1] Operation First, the operation of the video processing device 1 based on the scene division program 26 will be described with reference to FIG. FIG. 26 shows an operation flowchart of the video processing device 1 by the scene division program 26.

図26に示すようにまず特定音検出部37は、映像ファイルにおける音声データを解析する(ステップS80)。具体的には特定音検出部37は、例えば音声データの開始から終了までの音声の波形を確認する。そして特定音検出部37は、解析した音声データにおいて特定音が検出されたかどうかを確認する(ステップS81)。この特定音としては、例えば試合中に用いられる審判のホイッスル音が挙げられ、特定音検出部37はホイッスル音に対応する特定周波数の音を検出する。 As shown in FIG. 26, the specific sound detection unit 37 first analyzes the audio data in the video file (step S80). Specifically, the specific sound detection unit 37 confirms, for example, the waveform of the voice from the start to the end of the voice data. Then, the specific sound detection unit 37 confirms whether or not the specific sound is detected in the analyzed voice data (step S81). Examples of this specific sound include a whistle sound of a referee used during a game, and the specific sound detection unit 37 detects a sound having a specific frequency corresponding to the whistle sound.

特定音が検出された場合(ステップS81、YES)、特定音検出部37は、特定音が検出された時点に対応する動画データのフレーム数をシーン分割部38に通知する。すると通知を受けたシーン分割部38は、当該フレームを基準として映像ファイルのシーンを分割する(ステップS82)。ここで「シーン」とは一つのプレーの区切りを示し、具体的にはホイッスル音によって区切られた映像の期間を示している。 When the specific sound is detected (step S81, YES), the specific sound detection unit 37 notifies the scene division unit 38 of the number of frames of the moving image data corresponding to the time when the specific sound is detected. Then, the scene division unit 38 that receives the notification divides the scene of the video file with reference to the frame (step S82). Here, the "scene" indicates a break of one play, and specifically, a period of the image separated by the whistle sound.

ステップS81において特定音が検出されなかった場合(ステップS81、NO)、又はステップS82におけるシーン分割処理が終了した後に、特定音検出部37は音声の解析が全て終了したかどうかを確認する(ステップS83)。ここで音声の解析が終了していなかった場合(ステップS83、NO)、ステップS80に戻り、特定音検出部37及びシーン分割部38により同様の処理が繰り返される。一方で、音声の解析が終了した場合(ステップS83、YES)、特定音検出部37はシーン分割プログラム26の実行を終了する。 When the specific sound is not detected in step S81 (step S81, NO), or after the scene division process in step S82 is completed, the specific sound detection unit 37 confirms whether or not all the sound analysis is completed (step). S83). If the sound analysis is not completed (step S83, NO), the process returns to step S80, and the same process is repeated by the specific sound detection unit 37 and the scene division unit 38. On the other hand, when the sound analysis is completed (step S83, YES), the specific sound detection unit 37 ends the execution of the scene division program 26.

以上で説明したシーン分割処理の具体例が図27に示されている。図27には、映像ファイルの進行状態と、時間軸とが表示されている。 A specific example of the scene division process described above is shown in FIG. 27. In FIG. 27, the progress state of the video file and the time axis are displayed.

図27に示すように時刻t0において試合の映像が開始し、時刻t1において試合開始のホイッスル音を特定音検出部37が検出する。するとシーン分割部38は、時刻t1において映像ファイルのシーンを分割する。以降も同様に、特定音検出部37が特定音を検出した時刻t2及びt3において、シーン分割部38が映像ファイルを分割する。図27に示す例では、時刻t3と時刻t4との間の情報は省略され、時刻t4において試合終了のホイッスルを特定音検出部37が検出する。そして、時刻t5において映像が終了している。このような処理によって映像ファイルは、図27に示すようにシーン1〜シーンn(nは5以上の整数)に分割される。 As shown in FIG. 27, the video of the match starts at time t0, and the whistle sound of the start of the match is detected by the specific sound detection unit 37 at time t1. Then, the scene division unit 38 divides the scene of the video file at time t1. Similarly, thereafter, the scene dividing unit 38 divides the video file at the times t2 and t3 when the specific sound detecting unit 37 detects the specific sound. In the example shown in FIG. 27, the information between the time t3 and the time t4 is omitted, and the specific sound detection unit 37 detects the whistle at the end of the game at the time t4. Then, the video ends at time t5. By such processing, the video file is divided into scenes 1 to n (n is an integer of 5 or more) as shown in FIG. 27.

そして分割されたシーンは、分析プログラム21終了後にユーザーがタグ情報を付与することが出来る。分割されたシーンに対してタグ情報を付与した場合の一例が、図28に示されている。図28に示すようにタグ情報は、シーン毎に付与される。タグ情報としては、例えば試合開始や試合終了等の情報や、スクラム、ラインアウト、トライ等のプレー種別の情報が使用される。 Then, the user can add tag information to the divided scenes after the analysis program 21 ends. FIG. 28 shows an example in which tag information is added to the divided scenes. As shown in FIG. 28, tag information is added for each scene. As the tag information, for example, information such as the start and end of the game and information on the play type such as scrum, lineout, and try are used.

尚、特定音検出部37が検出する特定音の情報は、ユーザーによって直接指定された特定の周波数を用いても良い。また特定音の情報として、ユーザーによって選択されたホイッスルのメーカー、型番等の情報に基づいて、プリセットされた周波数情報が使用されるようにしても良い。 The specific sound information detected by the specific sound detection unit 37 may use a specific frequency directly specified by the user. Further, as the information of the specific sound, the preset frequency information may be used based on the information such as the whistle manufacturer and model number selected by the user.

[4−2]第4実施形態の効果
第4実施形態に係る映像処理装置1は、特定音検出部37が試合映像から特定音を検出したタイミングに基づいて、シーン分割部38が試合映像のシーンを自動で分割する。これにより第3実施形態に係る映像処理装置1は、試合映像におけるプレーの区切りを簡便に構造化することが出来、ユーザーが試合映像を分析する負荷を軽減することが出来る。
[4-2] Effect of Fourth Embodiment In the video processing device 1 according to the fourth embodiment, the scene division unit 38 of the game video is based on the timing when the specific sound detection unit 37 detects the specific sound from the game video. Divide the scene automatically. As a result, the video processing device 1 according to the third embodiment can easily structure the division of play in the game video, and can reduce the load on the user to analyze the game video.

[5]第5実施形態
次に、第5実施形態に係る映像処理装置1について説明する。第5実施形態に係る映像処理装置1は、第1〜第4実施形態で説明した映像処理装置1における分析結果を表示する再生プログラム27の実行例である。
[5] Fifth Embodiment Next, the video processing apparatus 1 according to the fifth embodiment will be described. The video processing device 1 according to the fifth embodiment is an execution example of the reproduction program 27 that displays the analysis result in the video processing device 1 described in the first to fourth embodiments.

[5−1]動作
まず、図29を用いて再生プログラム27に基づいた映像処理装置1の動作について説明する。図29には、再生プログラム27によりディスプレイ14上に表示される画面の一例が示されている。
[5-1] Operation First, the operation of the video processing device 1 based on the reproduction program 27 will be described with reference to FIG. 29. FIG. 29 shows an example of a screen displayed on the display 14 by the reproduction program 27.

図29に示すように再生プログラム27が実行されると、ディスプレイ14上には例えば映像表示領域60、映像コントロール部61、フィールド表示領域62、タグ選択領域63、及びサムネイル領域64が表示される。 When the playback program 27 is executed as shown in FIG. 29, for example, a video display area 60, a video control unit 61, a field display area 62, a tag selection area 63, and a thumbnail area 64 are displayed on the display 14.

映像表示領域60は、分析された動画データを表示する領域である。この領域60においてCPU10は、ユーザーによる設定に基づいて分析プログラム21による物体の検出結果をオーバーレイ表示させることが出来る。このオーバーレイ表示の設定としては、例えば物体の種別毎に、検出した選手の位置を示す枠の大きさ、形状、色等が指定される。 The video display area 60 is an area for displaying the analyzed moving image data. In this area 60, the CPU 10 can overlay display the detection result of the object by the analysis program 21 based on the setting by the user. As the overlay display setting, for example, the size, shape, color, and the like of the frame indicating the position of the detected player are specified for each type of object.

映像コントロール部61には、映像表示領域60において再生する映像をコントロールするボタンが表示されている。CPU10は、ユーザーによって映像コントロール部61における再生ボタン、一時停止ボタン、停止ボタン、及びプログレスバーが操作されたことを検知すると、領域60に表示された映像に対して各ボタンに対応する動作を適用する。 The image control unit 61 displays a button for controlling the image to be reproduced in the image display area 60. When the CPU 10 detects that the play button, pause button, stop button, and progress bar in the video control unit 61 have been operated by the user, the CPU 10 applies an operation corresponding to each button to the video displayed in the area 60. To do.

フィールド表示領域62は、分析プログラム21の分析結果を表示する領域である。具体的には、領域62には二次元フィールドが表示され、領域60で表示している時刻において選手、密集、及びボールが位置する座標にアイコンを表示する。この領域62における選手、密集、及びボールの表示方法としては、領域60と同様に、物体の種別毎にアイコンの大きさ、形状、色等を指定することが出来る。またCPU10は、領域60に表示されているフィールド領域を、領域62に示しても良い。この場合CPU10は、例えば図9に示すように映像の領域外をマスクして表示させる。 The field display area 62 is an area for displaying the analysis result of the analysis program 21. Specifically, a two-dimensional field is displayed in the area 62, and icons are displayed at the coordinates where the players, the crowd, and the ball are located at the time displayed in the area 60. As a method of displaying players, crowds, and balls in this area 62, the size, shape, color, and the like of the icon can be specified for each type of object, as in the area 60. Further, the CPU 10 may indicate the field area displayed in the area 60 in the area 62. In this case, the CPU 10 masks and displays the outside of the image area as shown in FIG. 9, for example.

タグ選択領域63は、分析プログラム21実行後にユーザーが付与したタグ情報を表示する領域である。CPU10は、ユーザーによって領域63に表示されたタグ情報が選択されたことを検知すると、選択されたタグ情報に対応するシーンのサムネイルをサムネイル領域64に表示させる。尚、CPU10は、サムネイル領域64に表示された複数のサムネイルに対して、そのシーンの開始時刻をオーバーレイ表示させても良い。そしてCPU10は、ユーザーによって、領域64におけるサムネイルのいずれかが選択されたことを検知すると、そのサムネイルに対応するシーンの映像を領域60に表示する。 The tag selection area 63 is an area for displaying tag information given by the user after the analysis program 21 is executed. When the CPU 10 detects that the tag information displayed in the area 63 has been selected by the user, the CPU 10 causes the thumbnail area 64 to display thumbnails of the scenes corresponding to the selected tag information. The CPU 10 may overlay the start time of the scene on the plurality of thumbnails displayed in the thumbnail area 64. Then, when the CPU 10 detects that one of the thumbnails in the area 64 is selected by the user, the CPU 10 displays the image of the scene corresponding to the thumbnail in the area 60.

尚、CPU10は、ユーザーによる設定に基づいて、図30に示すようにライン及びグリッドを映像表示領域60上にオーバーレイ表示させることが出来る。図30は、図8で示した映像に対してライン及びグリッドをオーバーレイ表示させた場合の一例である。本例においてCPU10は、10メートルライン42A、22メートルライン43A、5メートルライン45及び45B、並びに15メートルライン46A及び46Bに異なるラインをオーバーレイ表示して、フィールドの縦方向及び横方向にそれぞれグリッドGDをオーバーレイ表示している。またCPU10は、ラインの種類毎にオーバーレイ表示させるラインの線種、太さ、及び色等を変更することが可能であり、同様にグリッドの線種、太さ、色、表示間隔等も変更することが可能である。 The CPU 10 can overlay the lines and grids on the video display area 60 as shown in FIG. 30 based on the settings made by the user. FIG. 30 is an example in which lines and grids are overlaid on the image shown in FIG. In this example, the CPU 10 overlays different lines on the 10-meter line 42A, the 22-meter line 43A, the 5-meter line 45 and 45B, and the 15-meter line 46A and 46B, and grids GD in the vertical and horizontal directions of the field, respectively. Is displayed as an overlay. Further, the CPU 10 can change the line type, thickness, color, etc. of the line to be overlaid for each line type, and similarly change the line type, thickness, color, display interval, etc. of the grid. It is possible.

また、CPU10は、ユーザーによる設定に基づいて、図31に示すようにフィールド表示領域62上に選手及びボールの軌跡を表示させることが出来る。図31は、図12で示した例に対して選手及びボールBLの移動軌跡TRを追加して、フィールド表示領域62に表示させた場合の一例である。図31に示すようにCPU10は、フィールド表示領域62上に選手P1〜P8、及びボールBLの軌跡TRを表示させることが出来る。またCPU10は、物体の種別毎に軌跡TRの線種、太さ、色等を変更することが可能である。本例において選手P1〜P8の軌跡TRは実線の矢印で示され、ボールBLに対応する軌跡TRは破線の矢印で示されている。さらにCPU10は、この移動軌跡TRについて、現在表示しているフレームから過去何フレーム分表示させるかを、任意の期間に設定することが出来る。 Further, the CPU 10 can display the loci of the player and the ball on the field display area 62 as shown in FIG. 31 based on the setting by the user. FIG. 31 is an example in which the movement locus TR of the player and the ball BL is added to the example shown in FIG. 12 and displayed in the field display area 62. As shown in FIG. 31, the CPU 10 can display the locus TRs of the players P1 to P8 and the ball BL on the field display area 62. Further, the CPU 10 can change the line type, thickness, color, etc. of the locus TR for each type of object. In this example, the locus TR of the players P1 to P8 is indicated by a solid arrow, and the locus TR corresponding to the ball BL is indicated by a broken line arrow. Further, the CPU 10 can set the number of past frames to be displayed from the currently displayed frame for the movement locus TR in an arbitrary period.

尚、図31において密集HDに含まれた選手が省略されているが、CPU10は密集HDに含まれた選手を省略せずに表示することも出来る。この場合にCPU10は、例えば密集HDを示す破線の円の中に、選手を示す黒丸及び白丸を表示させる。 Although the players included in the dense HD are omitted in FIG. 31, the CPU 10 can display the players included in the dense HD without omitting them. In this case, the CPU 10 displays, for example, a black circle and a white circle indicating a player in a broken line circle indicating dense HD.

また、上記説明において二次元フィールドに分析結果を表示させた場合を例に説明したが、これに限定されない。例えば、フィールド全体を3Dの斜視図で表現し、同様の情報を表示させるようにしても良い。 Further, in the above description, the case where the analysis result is displayed in the two-dimensional field has been described as an example, but the present invention is not limited to this. For example, the entire field may be represented by a 3D perspective view to display similar information.

[5−2]第5実施形態の効果
第5実施形態に係る映像処理装置1は、試合映像と、第1〜第4実施形態における試合映像の分析結果とを併せて表示することが出来る。具体的には映像処理装置1は、試合映像と、試合映像に対応する時刻における選手及びボール等の情報をマッピングした二次元フィールドとを同時に表示することが出来る。また映像処理装置1は、表示している試合映像にグリッド等をオーバーレイ表示させることが出来、さらに二次元フィールド上にマッピングした選手及びボールに対して移動軌跡を表示することが出来る。
[5-2] Effect of Fifth Embodiment The video processing device 1 according to the fifth embodiment can display the match video and the analysis result of the match video in the first to fourth embodiments together. Specifically, the video processing device 1 can simultaneously display the game video and the two-dimensional field in which information such as players and balls at the time corresponding to the game video is mapped. Further, the image processing device 1 can overlay the displayed game image with a grid or the like, and can further display the movement trajectory for the player and the ball mapped on the two-dimensional field.

これにより第5実施形態に係る映像処理装置1は、ユーザーが試合映像からプレー要因を分析することを助けることが出来るため、ユーザーのチーム強化などに寄与する試合映像の分析時間を大幅に短縮することが出来る。 As a result, the video processing device 1 according to the fifth embodiment can help the user analyze the play factors from the game video, so that the analysis time of the game video that contributes to the strengthening of the user's team is significantly shortened. Can be done.

また、第5実施形態に係る映像処理装置1では、一覧表示されたシーンのサムネイル画像から、ユーザーが所望のシーンを選択して再生することが出来る。これにより第5実施形態に係る映像処理装置1は、ユーザーが参照したいシーンを容易に見つけ出すことが出来るため、ユーザーが試合映像を分析する効率を向上することが出来る。 Further, in the video processing device 1 according to the fifth embodiment, the user can select and play back a desired scene from the thumbnail images of the scenes displayed in the list. As a result, the video processing device 1 according to the fifth embodiment can easily find the scene that the user wants to refer to, so that the efficiency of analyzing the game video by the user can be improved.

[6]変形例等
上記実施形態の映像処理プログラムは、スポーツを撮影した映像を処理するためにコンピュータに、映像から第1物体<BL、図11>と、第1物体と異なる複数の第2物体<P1-P8、図11>とを検出させ、検出された第1物体、及び複数の第2物体の位置を推定させることを映像におけるフレーム毎に繰り返し、あるフレームにおいて第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、第1物体の近傍に位置する第2物体が第1物体を保持しているとみなす<ボール保持者、図14>。
[6] Modifications, etc. The video processing program of the above embodiment uses a computer to process a video of a sport, from the video to a first object <BL, FIG. 11>, and a plurality of second objects different from the first object. It is possible to detect the object <P1-P8, FIG. 11> and estimate the positions of the detected first object and a plurality of second objects for each frame in the video, and detect the first object in a certain frame. If not, it is considered that the second object located in the vicinity of the first object holds the first object in the frame before the frame <ball holder, FIG. 14>.

これにより、スポーツの試合映像から検出したボールを追跡し続けることが可能な映像処理プログラムを提供することが出来る。 This makes it possible to provide a video processing program capable of continuously tracking the ball detected from the sports game video.

尚、上記実施形態において、映像処理装置1によって映像処理を実行する場合を例に説明したが、これに限定されない。例えばユーザーは、図32に示すようにクラウドサービスを利用することによって映像処理を実行しても良い。図32には、ユーザーの所有するコンピュータPCと、クラウドサービスに利用されるサーバーSVと、コンピュータPCとサーバーSVとの間を接続する通信ネットワークNWが示されている。この場合、上記実施形態において説明した映像処理に用いるプログラムはサーバーSV側で管理される。そしてユーザーは通信ネットワークNWを介してサーバーSVにアクセスし、分析したい試合映像のファイルをサーバーSV側にアップロードすることによって、上記実施形態で説明した処理を実行することが出来る。尚、クラウドサービスの利用方法はこれに限定されず、種々の利用方法が考えられる。例えば、映像処理において、実行するプログラムをユーザーのコンピュータPCとサーバーSV側とで分担して処理するようにしても良い。 In the above embodiment, the case where the video processing is executed by the video processing device 1 has been described as an example, but the present invention is not limited to this. For example, the user may execute the video processing by using the cloud service as shown in FIG. 32. FIG. 32 shows a communication network NW that connects a computer PC owned by a user, a server SV used for a cloud service, and the computer PC and the server SV. In this case, the program used for the video processing described in the above embodiment is managed on the server SV side. Then, the user can access the server SV via the communication network NW and upload the file of the game video to be analyzed to the server SV side to execute the process described in the above embodiment. The usage method of the cloud service is not limited to this, and various usage methods can be considered. For example, in video processing, the program to be executed may be shared between the user's computer PC and the server SV side for processing.

また、上記実施形態において、映像処理装置1の映像処理を映像ファイルの開始から終了までの全てを対象とした場合を例に説明したが、これに限定されない。例えば、映像処理装置1は、ユーザーによって設定された任意の期間に基づいて、当該期間のみ分析処理を実行するようにしても良い。 Further, in the above embodiment, the case where the video processing of the video processing device 1 is targeted for all from the start to the end of the video file has been described as an example, but the present invention is not limited to this. For example, the video processing apparatus 1 may execute the analysis process only during the period based on an arbitrary period set by the user.

また、上記実施形態において、各種映像処理がソフトウェアで実行される場合を例に説明したが、これに限定されない。例えば、一部の処理を専用のハードウェアにより実現しても良いし、全ての処理を専用のハードウェアにより実現しても良い。例えば、映像処理において、フィールド検出部30として機能する回路や、物体検出部31として機能する回路を利用することが可能である。その他の処理についても同様である。これらのハードウェアは、映像処理装置1に内蔵されていても良いし、外部接続により利用しても良い。 Further, in the above embodiment, the case where various video processes are executed by software has been described as an example, but the present invention is not limited to this. For example, some processes may be realized by dedicated hardware, or all processes may be realized by dedicated hardware. For example, in video processing, it is possible to use a circuit that functions as a field detection unit 30 and a circuit that functions as an object detection unit 31. The same applies to other processes. These hardwares may be built in the video processing device 1 or may be used by an external connection.

また、上記実施形態において、各種プログラムの説明に用いたフローチャートは一例であり、これに限定されない。例えば、各フローチャートにおける処理は、可能な限り処理の順番を入れ替えることが可能である。例えば、図13を用いて説明したステップS57の処理は、ステップS55とステップS56の間に実行されても良い。 Further, in the above embodiment, the flowchart used for explaining the various programs is an example, and the present invention is not limited to this. For example, the order of the processes in each flowchart can be changed as much as possible. For example, the process of step S57 described with reference to FIG. 13 may be executed between steps S55 and S56.

また、上記実施形態において、ボールを検出出来なくなった直後にボール保持者を設定する場合を例に説明したが、これに限定されない。例えば、動画からボールを検出出来ない期間が所定のフレーム数以上に達した場合に、ボール保持者の設定をするようにしても良い。また、ボールが検出出来なくなった時点の前後で所定のフレーム数ボールが検出されていた場合に、その前後でボールが検出された位置から、現在のフレームにおけるボールの位置を線形補間することも出来る。 Further, in the above embodiment, the case where the ball holder is set immediately after the ball cannot be detected has been described as an example, but the present invention is not limited to this. For example, when the period during which the ball cannot be detected from the moving image reaches a predetermined number of frames or more, the ball holder may be set. Further, when a predetermined number of frames are detected before and after the time when the ball cannot be detected, the position of the ball in the current frame can be linearly interpolated from the position where the ball is detected before and after that. ..

また、上記実施形態において、各種プログラムは可能な限り平行して実行することが可能である。また、各種プログラムが共通の情報を取得する必要がある場合、当該情報をプログラム間で共有することも出来る。また、上記実施形態において説明したフィールド検出方法、物体検出方法はあくまで一例であり、これに限定されない。フィールド、選手、ボールを検出することが出来れば、それぞれ異なる方法を用いても良い。 Further, in the above embodiment, various programs can be executed in parallel as much as possible. Further, when it is necessary for various programs to acquire common information, the information can be shared between the programs. Further, the field detection method and the object detection method described in the above embodiment are merely examples, and are not limited thereto. Different methods may be used as long as the field, player, and ball can be detected.

また、上記実施形態において、「色情報」とは、例えば色ヒストグラムのことを示している。つまりチーム種別判別部32は、例えば検出した各選手の色ヒストグラムから、特定の波形を検出することによって、グループ分けをすることが出来る。 Further, in the above embodiment, the "color information" indicates, for example, a color histogram. That is, the team type determination unit 32 can group by detecting a specific waveform from the detected color histogram of each player, for example.

尚、本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

1…映像処理装置、10…CPU、11…RAM、12…ROM、13…記憶部、14…ディスプレイ、20…メインプログラム、21…分析プログラム、22…フィールド検出プログラム、23…物体検出プログラム、24…物体位置推定プログラム、25…プレー種別判別プログラム、26…シーン分割プログラム、27…再生プログラム、28…ディスプレイデータ、30…フィールド検出部、31…物体検出部、32…チーム種別判別部、33…物体位置推定部、34…移動方向推定部、35…移動速度推定部、36…プレー種別判別部、37…特定音検出部、38…シーン分割部。 1 ... Video processing device, 10 ... CPU, 11 ... RAM, 12 ... ROM, 13 ... Storage unit, 14 ... Display, 20 ... Main program, 21 ... Analysis program, 22 ... Field detection program, 23 ... Object detection program, 24 ... Object position estimation program, 25 ... Play type determination program, 26 ... Scene division program, 27 ... Playback program, 28 ... Display data, 30 ... Field detection unit, 31 ... Object detection unit, 32 ... Team type determination unit, 33 ... Object position estimation unit, 34 ... movement direction estimation unit, 35 ... movement speed estimation unit, 36 ... play type determination unit, 37 ... specific sound detection unit, 38 ... scene division unit.

Claims (14)

スポーツを撮影した映像を処理するためにコンピュータに、
前記映像から第1物体を検出させ、
前記映像から、前記第1物体と異なる複数の第2物体を検出させ、
前記検出された第1物体の位置、及び前記検出された複数の第2物体の位置を推定させることを、前記映像におけるフレーム毎に繰り返し、
あるフレームにおいて前記第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、前記第1物体の近傍に位置する第2物体が前記第1物体を保持しているとみな
前記複数の第2物体は、第3及び第4物体を含み、
前記第3物体が前記第1物体を保持しているとみなして追跡している際に前記第3物体と前記第4物体とが近接した場合に、前記第4物体も前記第1物体を保持しているとみなして追跡させ、前記映像における第1時間経過後に前記第3物体の移動速度と前記第4物体の移動速度とを比較させ、前記第3及び第4物体のうち移動速度が速い方の追跡を継続させ、移動速度が遅い方の追跡を停止させる、映像処理プログラム。
To computer to process footage of sports,
The first object is detected from the image,
A plurality of second objects different from the first object are detected from the video.
Estimating the position of the detected first object and the positions of the plurality of detected second objects is repeated for each frame in the video.
If it can not detect the first object in a certain frame, the previous frame of the frame, all with the second object located in the vicinity of the first object is holding the first object,
The plurality of second objects include third and fourth objects.
When the third object and the fourth object are close to each other when the third object is being tracked assuming that the third object is holding the first object, the fourth object also holds the first object. The moving speed of the third object is compared with the moving speed of the fourth object after the lapse of the first time in the video, and the moving speed of the third and fourth objects is faster. A video processing program that keeps track of one and stops tracking the slower one.
スポーツを撮影した映像を処理するためにコンピュータに、
前記映像から第1物体を検出させ、
前記映像から、前記第1物体と異なる複数の第2物体を検出させ、
前記検出された第1物体の位置、及び前記検出された複数の第2物体の位置を推定させることを、前記映像におけるフレーム毎に繰り返し、
あるフレームにおいて前記第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、前記第1物体の近傍に位置する第2物体が前記第1物体を保持しているとみな
前記複数の第2物体は、第3及び第4物体を含み、
前記第3物体が前記第1物体を保持しているとみなされた後に前記第3物体と前記第4物体とが接触した場合に、前記第3物体と前記第4物体とを含む密集が前記第1物体を保持しているとみなす、映像処理プログラム。
To computer to process footage of sports,
The first object is detected from the image,
A plurality of second objects different from the first object are detected from the video.
Estimating the position of the detected first object and the positions of the plurality of detected second objects is repeated for each frame in the video.
If it can not detect the first object in a certain frame, the previous frame of the frame, all with the second object located in the vicinity of the first object is holding the first object,
The plurality of second objects include third and fourth objects.
When the third object and the fourth object come into contact with each other after the third object is considered to hold the first object, the density including the third object and the fourth object becomes said. A video processing program that considers the first object to be held.
前記第1物体を保持しているとみなされた前記第2物体を、後続するフレームにおいて、次に前記第1物体が検出されるまで前記第1物体を保持しているものとして追跡させる、請求項1又は請求項2に記載の映像処理プログラム。 A claim that causes the second object, which is deemed to hold the first object, to be tracked as holding the first object in a subsequent frame until the next detection of the first object. The video processing program according to claim 1 or 2. 前記第1物体を検出出来なくなる前のフレームにおいて、前記複数の第2物体のうち前記第1物体に最も近い第2物体が、前記第1物体を保持しているとみなされる、請求項1乃至請求項3のいずれかに記載の映像処理プログラム。 In previous frame can not be detected with the first object, wherein the plurality of nearest second object to the first object of the second object is considered to be holding the first object, to claim 1 The video processing program according to any one of claims 3. 前記第1物体が検出出来なくなった場合に、前記第1物体の近傍に位置する前記第2物体を探索するフレームは、前記第1物体が検出出来なくなる直前のフレームである、請求項1乃至請求項のいずれかに記載の映像処理プログラム。 Claims 1 to claim that the frame for searching for the second object located in the vicinity of the first object when the first object cannot be detected is a frame immediately before the first object cannot be detected. Item 4. The video processing program according to any one of items 4. 前記複数の第2物体の色情報に基づいてグループ分けさせる、請求項1乃至請求項のいずれかに記載の映像処理プログラム。 The video processing program according to any one of claims 1 to 5 , which is grouped based on the color information of the plurality of second objects. 前記映像に表示されたフィールド領域を検出させ、
前記フィールド領域と、二次元で示されたフィールド全体との座標の対応を算出させ、
前記第1物体と前記複数の第2物体の前記フィールド全体における座標を算出させ、
前記フィールド全体の画像、前記第1物体の位置、及び前記複数の第2物体の位置を、表示部に表示させる、請求項1乃至請求項のいずれかに記載の映像処理プログラム。
The field area displayed in the image is detected, and the field area is detected.
The correspondence between the coordinates of the field area and the entire field shown in two dimensions is calculated.
The coordinates of the first object and the plurality of second objects in the entire field are calculated.
The video processing program according to any one of claims 1 to 6 , wherein an image of the entire field, a position of the first object, and a position of the plurality of second objects are displayed on a display unit.
前記第1物体、前記第2物体、及び前記第1物体を保持する前記第2物体の移動軌跡に基づき、前記スポーツにおけるプレー種別を判別させる、請求項1乃至請求項のいずれかに記載の映像処理プログラム。 The method according to any one of claims 1 to 7 , wherein the type of play in the sport is determined based on the movement locus of the first object, the second object, and the second object holding the first object. Video processing program. 前記第1物体の移動速度及び移動方向に基づき、プレー種別を判別させる、請求項に記載の映像処理プログラム。 The video processing program according to claim 8 , wherein a play type is determined based on the moving speed and moving direction of the first object. 記第1物体と前記第2物体とのそれぞれの移動軌跡を異なる特徴の線で表示部に表示させる、請求項1乃至請求項9のいずれかに記載の映像処理プログラム。 On the display unit of each of the movement locus of the previous SL the second object to the first object in a line of different features, the image processing program according to any one of claims 1 to 9. 前記映像における音声において第1の音を検出させ、
前記第1の音を検出したタイミングに基づいて前記映像のシーンを分割させる、請求項1乃至請求項10のいずれかに記載の映像処理プログラム。
The first sound is detected in the sound in the video,
The video processing program according to any one of claims 1 to 10 , wherein the scene of the video is divided based on the timing at which the first sound is detected.
前記分割させたシーン毎にタグ情報を付与させ、
前記タグ情報に基づいたインデックスを表示部に表示させ、
前記インデックスを選択する信号を受信すると、前記選択されたインデックスに対応するシーンの情報を一覧表示させる、請求項11に記載の映像処理プログラム。
Tag information is added to each of the divided scenes.
An index based on the tag information is displayed on the display unit, and the index is displayed on the display unit.
The video processing program according to claim 11 , wherein when the signal for selecting the index is received, the information of the scene corresponding to the selected index is displayed in a list.
スポーツを撮影した映像において、前記映像から第1物体を検出し、
前記映像から、前記第1物体と異なる複数の第2物体を検出し、
前記検出された第1物体の位置、及び前記検出された複数の第2物体の位置を推定させることを、前記映像におけるフレーム毎に繰り返し、
あるフレームにおいて前記第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、前記第1物体の近傍に位置する第2物体が前記第1物体を保持しているとみな
前記複数の第2物体に含まれた第3物体が前記第1物体を保持しているとみなして追跡している際に、前記第3物体と、前記複数の第2物体に含まれた第4物体とが近接した場合に、前記第4物体も前記第1物体を保持しているとみなして追跡させ、前記映像における第1時間経過後に前記第3物体の移動速度と前記第4物体の移動速度とを比較させ、前記第3及び第4物体のうち移動速度が速い方の追跡を継続させ、移動速度が遅い方の追跡を停止させる、映像処理方法。
In the video of sports, the first object is detected from the video.
A plurality of second objects different from the first object are detected from the video,
Estimating the position of the detected first object and the positions of the plurality of detected second objects is repeated for each frame in the video.
If it can not detect the first object in a certain frame, the previous frame of the frame, all with the second object located in the vicinity of the first object is holding the first object,
When the third object included in the plurality of second objects is being tracked assuming that the first object is held, the third object and the second object included in the plurality of second objects are included. When the four objects are close to each other, the fourth object is also regarded as holding the first object and tracked, and after the lapse of the first time in the video, the moving speed of the third object and the movement speed of the fourth object An image processing method for comparing with a moving speed, continuing tracking of the third and fourth objects having a faster moving speed, and stopping tracking of the slower moving speed.
スポーツを撮影した映像において、前記映像から第1物体を検出する第1物体検出部と、
前記映像から、前記第1物体と異なる複数の第2物体を検出する第2物体検出部と、
前記検出された第1物体の位置、及び前記検出された複数の第2物体の位置を推定することを、前記映像におけるフレーム毎に繰り返す位置推定部と
を具備し、
前記位置推定部は、あるフレームにおいて前記第1物体検出部が前記第1物体を検出出来なかった場合に、当該フレームの前のフレームにおいて、前記第1物体の近傍に位置する第2物体が前記第1物体を保持しているとみな
前記位置推定部は、前記複数の第2物体に含まれた第3物体が前記第1物体を保持しているとみなして追跡している際に、前記第3物体と、前記複数の第2物体に含まれた第4物体とが近接した場合に、前記第4物体も前記第1物体を保持しているとみなして追跡し、前記映像における第1時間経過後に前記第3物体の移動速度と前記第4物体の移動速度とを比較し、前記第3及び第4物体のうち移動速度が速い方の追跡を継続し、移動速度が遅い方の追跡を停止する、映像処理装置。
In the video of sports, the first object detection unit that detects the first object from the video,
A second object detection unit that detects a plurality of second objects different from the first object from the video,
It is provided with a position estimation unit that repeats estimating the position of the detected first object and the positions of the plurality of detected second objects for each frame in the video.
In the position estimation unit, when the first object detection unit cannot detect the first object in a certain frame, the second object located in the vicinity of the first object in the frame before the frame is the second object. everyone and the holding the first object,
The position estimation unit considers that the third object included in the plurality of second objects holds the first object and tracks the third object, and the third object and the plurality of second objects. When the fourth object included in the object is in close proximity, the fourth object is also regarded as holding the first object and tracked, and the moving speed of the third object after the lapse of the first time in the video. An image processing device that compares the moving speed of the fourth object with the moving speed of the fourth object, continues tracking of the third and fourth objects having a faster moving speed, and stops tracking of the slower moving speed of the third and fourth objects.
JP2016208821A 2016-10-25 2016-10-25 Video processing programs, video processing methods, and video processing equipment Active JP6853528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016208821A JP6853528B2 (en) 2016-10-25 2016-10-25 Video processing programs, video processing methods, and video processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208821A JP6853528B2 (en) 2016-10-25 2016-10-25 Video processing programs, video processing methods, and video processing equipment

Publications (2)

Publication Number Publication Date
JP2018072939A JP2018072939A (en) 2018-05-10
JP6853528B2 true JP6853528B2 (en) 2021-03-31

Family

ID=62111603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208821A Active JP6853528B2 (en) 2016-10-25 2016-10-25 Video processing programs, video processing methods, and video processing equipment

Country Status (1)

Country Link
JP (1) JP6853528B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6649231B2 (en) 2016-11-18 2020-02-19 株式会社東芝 Search device, search method and program
JP7451130B2 (en) * 2019-10-07 2024-03-18 キヤノン株式会社 Control device, control system, control method, and program
CN111104925B (en) * 2019-12-30 2022-03-11 上海商汤临港智能科技有限公司 Image processing method, image processing apparatus, storage medium, and electronic device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172583A (en) * 2004-12-15 2006-06-29 Sony Corp Reproducing device, reproducing method, recording device, recording medium, program storage medium, and program
JP6267961B2 (en) * 2012-08-10 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image providing method and transmitting apparatus
JP6249706B2 (en) * 2013-09-30 2017-12-20 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2018072939A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6419830B2 (en) System, method and apparatus for image retrieval
JP6158446B2 (en) Object selection and tracking for display segmentation and video frame clustering
Chen et al. Ball tracking and 3D trajectory approximation with applications to tactics analysis from single-camera volleyball sequences
US10384125B2 (en) Information processing program and information processing method
KR101484844B1 (en) Apparatus and method for privacy masking tool that provides real-time video
JP6649231B2 (en) Search device, search method and program
US20170203185A1 (en) Playbook processor
KR20150020526A (en) Automatic digital curation and tagging of action videos
JP6853528B2 (en) Video processing programs, video processing methods, and video processing equipment
JP2007281858A (en) Animation editing device
TWI537872B (en) Method for generating three-dimensional information from identifying two-dimensional images.
KR20190005765A (en) Image processing apparatus, image processing method thereof and program
US11250633B2 (en) Image processing apparatus, display method, and non-transitory computer-readable storage medium, for displaying a virtual viewpoint image including an object at different points in time
CN104618656A (en) Information processing method and electronic equipment
JP6706577B2 (en) Correction confirmation method and correction confirmation device
EP2982132A1 (en) Video processing system and method
RU2609071C2 (en) Video navigation through object location
US8587667B2 (en) Beyond field-of-view tracked object positional indicators for television event directors and camera operators
JP4546762B2 (en) Video event discriminating learning data generating device and program thereof, and video event discriminating device and program thereof
JP6218296B1 (en) Video playback device, video playback method, program thereof, and recording medium
JP2016048852A (en) Determination program, method, and device
KR20150142747A (en) User gesture-based video play apparatus and operation method thereof
JP7332047B2 (en) Tracking Devices, Tracking Systems, Tracking Methods, and Programs
JP2021061535A5 (en)
JP2008022142A (en) Method, apparatus and program for detecting pitching event, and computer-readable recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20161124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20161128

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210303

R150 Certificate of patent or registration of utility model

Ref document number: 6853528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150