JP2023161440A - Video processing device, control method for the same, and program - Google Patents

Video processing device, control method for the same, and program Download PDF

Info

Publication number
JP2023161440A
JP2023161440A JP2022071835A JP2022071835A JP2023161440A JP 2023161440 A JP2023161440 A JP 2023161440A JP 2022071835 A JP2022071835 A JP 2022071835A JP 2022071835 A JP2022071835 A JP 2022071835A JP 2023161440 A JP2023161440 A JP 2023161440A
Authority
JP
Japan
Prior art keywords
tracking target
tracked
processing device
video
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022071835A
Other languages
Japanese (ja)
Inventor
康平 佐藤
Kohei Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022071835A priority Critical patent/JP2023161440A/en
Publication of JP2023161440A publication Critical patent/JP2023161440A/en
Pending legal-status Critical Current

Links

Images

Abstract

To continue tracking a tracking target with high accuracy even when the tracking target is hidden by an overlap with another object.SOLUTION: An imaging processing device is for controlling a viewing direction with respect to a second imaging apparatus capable of making the viewing direction changeable on the basis of a video from a first imaging apparatus capturing an overhead video of the entire court where a sporting event is held. The imaging processing device has a detection unit and a control unit. The detection unit is for detecting an object in a video received from the first imaging apparatus. The control unit is for estimating a position of an object to be tracked after its movement on the basis of a movement vector of the object to be tracked among objects detected by the detection unit and controlling the second imaging apparatus so that the estimated position is located within the angle of view. The control unit has a determination unit and a setting unit. The determination unit is for determining an object that blocks the object to be tracked on the basis of the positional relationship of objects detected from the previous frame when it is determined that the object to be tracked is not included among objects detected in the current frame of a video received from the first imaging apparatus. The setting unit is for setting the object determined by the determination unit as an object to be tracked instead of the object to be tracked.SELECTED DRAWING: Figure 1

Description

本発明は、映像処理装置及びその制御方法及びプログラムに関するものである。 The present invention relates to a video processing device, a control method thereof, and a program.

スポーツ映像の自動撮影は、省人化などの観点から近年注目されている。自動撮影とは、スポーツシーン全体を俯瞰するカメラとは別に、パン動作やチルト動作、ズーム動作をしてプレイの詳細を追跡するカメラを自動で制御する技術である。対象のスポーツによって画角の決め方は様々であるが、バスケットボールやサッカーといった球技の接触スポーツではボール位置をもとに画角を決めることが多い。 Automatic shooting of sports videos has been attracting attention in recent years from the perspective of saving labor. Automatic shooting is a technology that automatically controls cameras that pan, tilt, and zoom to track the details of a play, in addition to the camera that provides an overview of the entire sports scene. There are various ways to determine the angle of view depending on the sport in question, but in contact sports such as basketball and soccer, the angle of view is often determined based on the position of the ball.

自動で追跡対象を追い続けるためには、俯瞰映像を入力とした認識技術が利用されることが多い。しかし、その一方で、このようなスポーツシーンでは、プレイヤーの重なりなどによって、俯瞰映像からボールが捉えられなくなることもある。カメラマンによる操作では、このようなシーンにおいてはボール位置を推測して画角を決定している。しかし、自動撮影における認識技術では、このような俯瞰映像からボールが捉えられなくなるシーンでは、ボール座標位置が「不明」となり、画角の自動決定に必要な情報が欠損することになる。 In order to automatically keep track of a tracked target, recognition technology that uses overhead video as input is often used. However, on the other hand, in such sports scenes, the ball may not be visible from an overhead view due to overlapping players. In such a scene, the camera operator determines the angle of view by estimating the ball position. However, with the recognition technology used in automatic shooting, in such scenes where the ball cannot be captured from an overhead image, the coordinate position of the ball becomes "unknown" and the information necessary for automatically determining the angle of view is missing.

特許文献1では、認識された各対象物の領域を組み合わせ領域と、過去情報との差分領域を基にして、重なりを加味した評価を行うことで自動追跡を行っている。特許文献2では、対象物の重なりが発生した前後の特徴の変化に基づいて、不審人物候補を判定して重なりが発生した場所を出力する。 In Patent Document 1, automatic tracking is performed by performing an evaluation that takes into account overlap based on a combined area of each recognized target object and a difference area with past information. In Patent Document 2, a suspicious person candidate is determined based on changes in characteristics before and after the overlap of objects occurs, and a location where the overlap occurs is output.

特許6787075号公報Patent No. 6787075 特開2020-88687号公報JP2020-88687A

しかしながら上述した従来技術で、スポーツ映像の自動撮影を行おうとする場合に、以下のような課題が存在する。まず、特許文献1では、認識対象のサイズに大きな差があると、大きいほうの対象物の変化が組み合わせ領域の評価値に大きく影響してしまうため、ボールのような比較的小さな物体を追跡するときは精度良く追跡することができない。また、特許文献2では、重なりが発生した前後の特徴の変化を評価するため、隠れている間は対象物の位置推定を行うことができない。よって、この技術はスポーツ映像のリアルタイム配信には適さない。 However, when trying to automatically shoot a sports video using the above-mentioned conventional technology, the following problems exist. First, in Patent Document 1, if there is a large difference in the size of the recognition target, changes in the larger target will greatly affect the evaluation value of the combination area, so relatively small objects such as balls are tracked. Sometimes it is not possible to track accurately. Further, in Patent Document 2, since changes in features before and after the occurrence of overlap are evaluated, the position of the object cannot be estimated while it is hidden. Therefore, this technology is not suitable for real-time distribution of sports videos.

本発明はこのような問題に鑑みてなされたものであり、複数のサイズの異なる対象物の認識を行っていて、追跡対象が重なりなどによって隠れてしまった場合においても、追跡対象の位置を推定することができる。 The present invention has been made in view of these problems, and even if a plurality of objects of different sizes are being recognized and the tracked target is hidden due to overlapping, etc., the position of the tracked target can be estimated. can do.

この課題を解決するため、例えば本発明の映像処理装置は以下の構成を備える。すなわち、
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段とを有する。
In order to solve this problem, for example, the video processing device of the present invention has the following configuration. That is,
An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.

本発明によれば、追跡対象が他の物体との重なりなどによって隠れてしまった場合においても、高い精度で追跡対象の追跡を継続することができる。 According to the present invention, even if the tracked target is hidden due to overlapping with another object, it is possible to continue tracking the tracked target with high accuracy.

第1の実施形態に係る画像処理装置の一例を示す図。FIG. 1 is a diagram showing an example of an image processing device according to a first embodiment. 第1の実施形態に係る画像処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing the configuration of an image processing device according to a first embodiment. 第1の実施形態における処理手順を示すフローチャート。(a)画像処理装置全体の処理手順(b)追跡対象が検出できていない場合の処理手順5 is a flowchart showing a processing procedure in the first embodiment. (a) Processing procedure for the entire image processing device (b) Processing procedure when the tracking target cannot be detected 第1の実施形態に係る俯瞰映像の一例を示す図。FIG. 3 is a diagram illustrating an example of an overhead video according to the first embodiment. 第1の実施形態に係る物体検出処理の結果を示す図。FIG. 3 is a diagram showing results of object detection processing according to the first embodiment. 第1の実施形態に係る物体検出処理の出力結果情報を示す図。FIG. 3 is a diagram showing output result information of object detection processing according to the first embodiment. 第1の実施形態に係る追跡対象が検出できていない場合の座標更新処理を説明するための図。FIG. 3 is a diagram for explaining coordinate update processing when a tracking target has not been detected according to the first embodiment. 第2の実施形態における処理手順を示すフローチャート。(a)画像処理装置全体の処理手順(b)追跡対象が検出できている場合の処理手順7 is a flowchart showing a processing procedure in the second embodiment. (a) Processing procedure for the entire image processing device (b) Processing procedure when the tracking target is detected 第2の実施形態に係る追跡対象が検出できている、かつ追跡対象の所定範囲内に他のクラスが存在する場合の座標更新処理を説明するための図。FIG. 7 is a diagram for explaining coordinate update processing when a tracking target has been detected and another class exists within a predetermined range of the tracking target according to the second embodiment. 第2の実施形態に係る追跡対象が検出できている、かつ追跡対象の所定範囲内に他のクラスが存在しない場合の座標更新処理を説明するための図。FIG. 7 is a diagram for explaining coordinate update processing when a tracking target has been detected and no other class exists within a predetermined range of the tracking target according to the second embodiment. 第3の実施形態に係る処理手順を示すフローチャート。7 is a flowchart showing a processing procedure according to a third embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

[第1の実施形態]
第1の実施形態では、俯瞰カメラによって取得されたスポーツの俯瞰映像を入力し、設定した追跡対象を映像中から認識して、追跡対象物をパン・チルトカメラによって自動追跡するシステムを説明する。なお、本実施形態では、「クラス」とは、ボールとプレイヤーを表し、プレイヤーはプレイヤー毎にクラスを割り振ることができるとする。なお、理解を容易にするため、本実施形態ではバスケットボールを例に説明する。
[First embodiment]
In the first embodiment, a system will be described in which an overhead video of a sport captured by an overhead camera is input, a set tracking target is recognized from the video, and the tracking target is automatically tracked using a pan/tilt camera. Note that in this embodiment, "class" represents a ball and a player, and it is assumed that a player can assign a class to each player. Note that, for ease of understanding, this embodiment will be explained using basketball as an example.

図1(a)に示すように、第1の実施形態におけるシステムは、映像処理装置100と、カメラ100、200で構成される。映像処理装置100は、カメラ100,200と通信可能に接続されている。接続形態は、有線、無線を問わない。カメラ101は、コート全体の俯瞰映像を撮影するための視野角を有し、その視線方向は固定である。一方、カメラ102は、カメラ101と比較して視野角は狭いものの、視線方向(パン角、チルト角)を変更可能とするために雲台102aを有する。カメラ101,102の設置位置に特に制限はないが、実施形態では、図示の通り、カメラ101はコートのセンターラインの延長線上に設置され、カメラ102は、コートの一方のエンドラインから予め設定された位置に設置されているものとする。なお、実施形態におけるカメラ101,102は、例えば30フレーム/秒で動画像を撮影し、送信するものとする。 As shown in FIG. 1(a), the system in the first embodiment includes a video processing device 100 and cameras 100 and 200. Video processing device 100 is communicably connected to cameras 100 and 200. The connection type may be wired or wireless. The camera 101 has a viewing angle for capturing an overhead image of the entire court, and its viewing direction is fixed. On the other hand, although the camera 102 has a narrower viewing angle than the camera 101, it has a pan head 102a so that the viewing direction (pan angle, tilt angle) can be changed. There are no particular restrictions on the installation positions of the cameras 101 and 102, but in the embodiment, as shown in the figure, the camera 101 is installed on an extension of the center line of the court, and the camera 102 is installed in advance from one end line of the court. It is assumed that the Note that the cameras 101 and 102 in the embodiment shoot and transmit moving images at, for example, 30 frames/second.

図1(b)は、第1の実施形態における映像処理装置100のブロック構成図である。映像処理装置100は、汎用のパーソナルコンピュータ等に代表される情報処理装置と、それ上で動作するアプリケーションプログラムによって実現される。そのため、画像処理装置100は、装置全体の制御を司るCPU111,BIOSやブートプログラムを記憶しているROM112、CPU111が実行するOS(オペレーティングシステム)や実施形態における映像処理アプリケーションプログラムを展開したり、ワークエリアとして利用するRAM113を有する。更に、映像処理装置100は、OS,映像処理アプリケーションプログラム保持したり、撮影で得た映像を動画像ファイルとして記憶するための外部記憶装置としてのHDD(ハードディスクドライブ)を有する。また、映像処理装置100は、カメラ101及び102と通信するためのインタフェース115,ユーザからの操作を受け付ける操作部(キーボード、マウス等を含む)116、及び、カメラ101,102で撮影された映像を表示するため、及び、実施形態における映像処理アプリケーションプログラムを実行中に各種設定メニュー等を表示する表示部117を有する。なお、説明を単純なものとするため、カメラ101、102それぞれはネットワークカメラであり、インタフェース115もネットワークとの通信を行うためのインタフェースであるものとする。先に説明したように、カメラ101、102、及び、映像処理装置100は、互いに通信可能であれば良いので、インタフェースの種類は特に制限はない。 FIG. 1(b) is a block configuration diagram of the video processing device 100 in the first embodiment. The video processing device 100 is realized by an information processing device, typically a general-purpose personal computer, and an application program running thereon. Therefore, the image processing device 100 has a CPU 111 that controls the entire device, a ROM 112 that stores BIOS and a boot program, an OS (operating system) executed by the CPU 111, a video processing application program in the embodiment, and a workstation. It has a RAM 113 used as an area. Furthermore, the video processing device 100 includes an HDD (hard disk drive) as an external storage device for holding an OS and video processing application programs, and for storing video obtained by shooting as a moving image file. The video processing device 100 also includes an interface 115 for communicating with the cameras 101 and 102, an operation unit (including a keyboard, a mouse, etc.) 116 that accepts operations from the user, and a It has a display unit 117 for displaying various setting menus and the like while the video processing application program in the embodiment is being executed. In order to simplify the explanation, it is assumed that the cameras 101 and 102 are each network cameras, and the interface 115 is also an interface for communicating with the network. As described above, the cameras 101, 102 and the video processing device 100 only need to be able to communicate with each other, so there is no particular restriction on the type of interface.

上記構成において、映像処理装置100の電源がONになると、CPU111はROM112のブートプログラムを実行し、OSをHDD114からRAM113にロードし、制御をOSに移行する。映像処理装置100とユーザとの間に、操作部116及び表示部117によるユーザインタフェースが構築されることになる。そして、ユーザが、操作部116を操作して映像アプリケーションの実行を入力すると、CPU111はHDD114から映像処理アプリケーションプログラムをRAM113上にロードし、OSの制御課でそのアプリケーションを実行する。この結果、映像処理装置100は、図1(a)を参照して説明した機能を実現することになる。 In the above configuration, when the video processing device 100 is powered on, the CPU 111 executes the boot program in the ROM 112, loads the OS from the HDD 114 to the RAM 113, and transfers control to the OS. A user interface using the operation unit 116 and the display unit 117 is constructed between the video processing device 100 and the user. When the user operates the operation unit 116 to input an instruction to execute a video application, the CPU 111 loads the video processing application program from the HDD 114 onto the RAM 113, and executes the application using the control section of the OS. As a result, the video processing device 100 realizes the functions described with reference to FIG. 1(a).

図2は、CPU111が、先に説明した映像アプリケーションプログラムを実行した際の映像処理装置100の機能ブロック構成図を示している。各処理部は、CPU111が実行するモジュールとして理解されたい。 FIG. 2 shows a functional block diagram of the video processing device 100 when the CPU 111 executes the video application program described above. Each processing unit should be understood as a module executed by the CPU 111.

入力部201は、カメラ101で撮影された俯瞰映像データを受信し、その映像データを物体検出部202へ出力する。物体検出部202は、入力部201から映像データを入力し、映像中の物体を検出する。そして、物体検出部202は、映像中のどの位置にどの物体があるかを示す情報を出力する。これは、事前に学習データから生成された物体検出モデルを利用することで行われる。本実施形態では、物体検出処理としてはニューラルネットワーク、特に畳み込みニューラルネットワークを用いるが、畳み込みニューラルネットワークに限らず他のモデルでもよく、さらに、ニューラルネットワークに限らず従来の他の機械学習技術でもよい。物体検出部202は、上記の検出結果(物体の位置と物体の種類を示す情報)を、追跡対象ベクトル算出部204、及び、追跡対象決定部205へ出力する。 The input unit 201 receives overhead video data captured by the camera 101 and outputs the video data to the object detection unit 202. The object detection unit 202 receives video data from the input unit 201 and detects an object in the video. Then, the object detection unit 202 outputs information indicating which object is located at which position in the video. This is done by using an object detection model generated in advance from training data. In this embodiment, a neural network, particularly a convolutional neural network, is used for the object detection process, but other models may be used instead of the convolutional neural network. Furthermore, other conventional machine learning techniques other than the neural network may be used. The object detection unit 202 outputs the above detection result (information indicating the position of the object and the type of the object) to the tracking target vector calculation unit 204 and the tracking target determination unit 205.

追跡対象入力部203は、ユーザインタフェースで構成され、ユーザが画像処理装置100に対して、物体検出モデルに定義されているクラスの中から、追跡対象のクラスを入力することができる。本実施形態では、追跡対象として「ボール」クラスを設定されているものとする。 The tracking target input unit 203 is configured with a user interface, and allows the user to input the class of the tracking target from among the classes defined in the object detection model to the image processing apparatus 100. In this embodiment, it is assumed that the "ball" class is set as the tracking target.

追跡対象ベクトル算出部204は、追跡対象入力部203によって指定されたクラス(実施形態ではボール)に対して、物体検出部202から入力した検出結果から移動ベクトルを算出し、その算出結果を追跡対象決定部205へ出力する。 The tracking target vector calculation unit 204 calculates a movement vector for the class (ball in the embodiment) specified by the tracking target input unit 203 from the detection result input from the object detection unit 202, and uses the calculation result as the tracking target. It is output to the determining unit 205.

追跡対象決定部205は、物体検出部202と追跡対象ベクトル算出部204の結果、および追跡対象入力部203によって指定されたクラスに基づいて、追跡対象を決定し、決定した追跡対象の情報を追跡対象座標更新部206へ出力する。 A tracking target determination unit 205 determines a tracking target based on the results of the object detection unit 202 and the tracking target vector calculation unit 204 and the class specified by the tracking target input unit 203, and tracks information about the determined tracking target. It is output to the target coordinate updating unit 206.

追跡対象座標更新部206は、追跡対象決定部205によって決定された追跡対象の検出座標で更新し、パン・チルト駆動制御用のパラメータを生成し、そのパラメータをパンチルト駆動制御部207へ出力する。 The tracking target coordinate updating unit 206 updates the detection coordinates of the tracking target determined by the tracking target determining unit 205, generates parameters for pan/tilt drive control, and outputs the parameters to the pan/tilt drive control unit 207.

パンチルト駆動制御部207は、追跡対象座標更新部206から入力したパラメータに基づいてパン角、チルト角のコマンドを生成し、生成したコマンドをカメラ102に送信し、追跡対象が画角内に存在する映像を撮影させる。 The pan/tilt drive control unit 207 generates pan angle and tilt angle commands based on the parameters input from the tracked target coordinate update unit 206, sends the generated commands to the camera 102, and determines whether the tracked target exists within the angle of view. Have the video taken.

入力部208は、カメラ102からの動画像を映像データとして受信し、その映像データを記録部209に出力する。記録部209は、入力部208から入力した映像データを、記録媒体210(HDD114)に動画像データファイルとして記録する。なお、カメラ102からの映像を記録するのではなく、ネットワークを介して配信するようにしても構わない。 The input unit 208 receives moving images from the camera 102 as video data, and outputs the video data to the recording unit 209. The recording unit 209 records the video data input from the input unit 208 on the recording medium 210 (HDD 114) as a moving image data file. Note that instead of recording the video from the camera 102, it may be distributed via a network.

以下、上記のように構成された本実施形態における情報処理装置100の動作について、図3(a)に例示するフローチャートに沿って説明する。なお、以下では、カメラ102から映像の受信、記録は、この発明の主眼ではないので、以下では、カメラ102に対するリモート制御を中心に説明する。 Hereinafter, the operation of the information processing apparatus 100 in this embodiment configured as described above will be explained along the flowchart illustrated in FIG. 3(a). Note that, in the following description, since receiving and recording video from the camera 102 is not the main focus of the present invention, the following description will focus on remote control of the camera 102.

S301にて、入力部201は、カメラ101から、俯瞰映像を取得する。図4は俯瞰映像の一例である。映像内には、プレイヤー401、402、403、404およびボール405が撮像されている。図示では、プレイヤー401がボール405を保持していることを示している。実施形態では、カメラ102がプレイヤー401とボール405に注目する画角に制御されることが求められる。なお、図示ではプレイヤーが4人としているが、これは理解を容易にするためであると理解されたい。 In S301, the input unit 201 obtains an overhead video from the camera 101. FIG. 4 is an example of an overhead image. Players 401, 402, 403, 404 and a ball 405 are captured in the video. The illustration shows that a player 401 is holding a ball 405. In the embodiment, the camera 102 is required to be controlled to an angle of view that focuses on the player 401 and the ball 405. Note that although the number of players is four in the illustration, it should be understood that this is for ease of understanding.

S302にて、追跡対象入力部203が、操作部116を介して追跡対象物体のクラスを取得する。 In S302, the tracking target input unit 203 obtains the class of the tracking target object via the operation unit 116.

S303にて、物体検出部202は、S301で取得した俯瞰映像を物体検出モデルに出力することで物体検出処理を実行させる。図5は、図4の映像に対する、物体検出部202による物体検出処理を行った結果の一例を示している。物体検出部202は、プレイヤー、ボールを物体(オブジェクト)として認識し、それぞれの物体が占める領域の位置と、クラス(プレイヤーかボール)を示す情報を出力する。プレイヤー、ボールが占める領域の位置は、その領域に外接する矩形枠を特定する座標である。図5では、物体検出部202の検出結果を、枠501、502、503、504、及び、505で示している。 In S303, the object detection unit 202 outputs the bird's-eye view image acquired in S301 to the object detection model to execute object detection processing. FIG. 5 shows an example of the result of object detection processing performed by the object detection unit 202 on the image shown in FIG. The object detection unit 202 recognizes the player and the ball as objects, and outputs information indicating the position of the area occupied by each object and the class (player or ball). The position of the area occupied by the player and the ball is the coordinate that specifies the rectangular frame circumscribing the area. In FIG. 5, the detection results of the object detection unit 202 are indicated by frames 501, 502, 503, 504, and 505.

図6は物体検出部202による物体検出処理の出力結果情報の一例である。フレーム番号601では、物体検出処理を行ったフレーム番号を保持する。クラス602では、検出した物体のクラスを保持する。画像座標603では、検出した物体の俯瞰映像内における座標を保持する。検出枠の位置とサイズは、その枠の左上隅の座標(Xl1a、Yl1a)と、枠の右下隅の座標(Xr1a、Yr1a)で決定することができる。本実施形態における追跡対象604は、「Ball(ボール)」クラスであり、このクラスの画像座標を常に推定できることが求められる。なお、以降の説明で、単に、ボールの座標、プレイヤーの座標という表現が使われた場合、その座標の意味は、該当する対象物の上記検出枠の中心位置の座標を指すものとする。 FIG. 6 is an example of output result information of object detection processing by the object detection unit 202. Frame number 601 holds the frame number on which object detection processing was performed. Class 602 holds the class of the detected object. Image coordinates 603 hold the coordinates of the detected object in the overhead video. The position and size of the detection frame can be determined by the coordinates (Xl1a, Yl1a) of the upper left corner of the frame and the coordinates (Xr1a, Yr1a) of the lower right corner of the frame. The tracking target 604 in this embodiment is of the "Ball" class, and it is required that the image coordinates of this class can always be estimated. In the following explanation, when the expressions ``coordinates of the ball'' or ``coordinates of the player'' are simply used, the meaning of the coordinates shall refer to the coordinates of the center position of the detection frame of the corresponding object.

S304にて、追跡対象決定部205は、物体検出部202からの物体検出処理の結果に基づき、追跡対象604(ボール)が現フレームから検出できている否かを判定する。追跡対象決定部205は、追跡対象604(ボール)が現フレームから検出できていると判定した場合はS305に、検出できていないと判定した場合はS306に処理を分岐する。 In S304, the tracking target determination unit 205 determines whether the tracking target 604 (ball) can be detected from the current frame based on the result of the object detection process from the object detection unit 202. If the tracking target determining unit 205 determines that the tracking target 604 (ball) has been detected from the current frame, the process branches to S305, and if it determines that the tracking target 604 (ball) has not been detected, the process branches to S306.

S305にて、追跡対象決定部205は、座標情報を更新する対象を追跡対象604(ボール)の座標に決定し、決定した座標を追跡対象座標更新部206に通知する。追跡対象座標更新部206は、この通知を受け、追跡対象の座標情報を、現フレームから得た「Ball」クラスの検出枠505の座標で更新する。 In S305, the tracking target determining unit 205 determines the coordinates of the tracking target 604 (ball) as the target whose coordinate information is to be updated, and notifies the tracking target coordinate updating unit 206 of the determined coordinates. Upon receiving this notification, the tracking target coordinate updating unit 206 updates the coordinate information of the tracking target with the coordinates of the detection frame 505 of the "Ball" class obtained from the current frame.

S306に処理が進んだ場合、追跡対象決定部205は、追跡対象604(ボール)が検出できていない場合の座標更新処理を行う。 When the process advances to S306, the tracking target determining unit 205 performs coordinate update processing when the tracking target 604 (ball) has not been detected.

この処理の詳細を図3(b)のフローチャートを参照して説明する。 The details of this process will be explained with reference to the flowchart of FIG. 3(b).

S307にて、追跡対象決定部205は、追跡対象ベクトル算出部204から、追跡対象604(ボール)の前フレームまでの座標情報と移動ベクトル情報を取得する。そして、S308にて、追跡対象決定部205は、前フレームにおいて、追跡対象604(ボールの座標から所定範囲内に他のクラスが存在したか否かを判定する。追跡対象決定部205は、他のクラスが存在すると判定した場合はS309に、存在しないと判定した場合はS310に処理を分岐する。 In S307, the tracking target determination unit 205 acquires coordinate information and movement vector information of the tracking target 604 (ball) up to the previous frame from the tracking target vector calculation unit 204. Then, in S308, the tracking target determining unit 205 determines whether another class existed within a predetermined range from the coordinates of the tracking target 604 (ball) in the previous frame. If it is determined that the class exists, the process branches to S309, and if it is determined that the class does not exist, the process branches to S310.

S309にて、追跡対象決定部205は、追跡対象604(ボール)の前フレームまでの座標と、他のクラスの検出結果を基に、座標情報を更新する対象物を決定する。図7を参照して、この座標情報決定方法を説明する。図示では、追跡対象604(ボール)が、追跡対象ではない「Player2」クラス701に重なり、「Ball」クラスが検出できない状況を示している。前フレームまでの追跡対象604(ボール)の座標702は保持されている。そこで、追跡対象決定部205は、現フレームから得た追跡対象ではないクラスの位置のうち、前フレームでの追跡対象604(ボール)の位置から予め設定された距離範囲にあって、その中の最も近いクラスを、一時的な追跡対象として決定する。図7の場合、追跡対象決定部205は、追跡対象604(ボール)が「Player2」クラスに重なっている(遮られている)と推定し、「Player2」クラスを一時的な追跡対象として決定する。そして、追跡対象決定部205は、追跡対象座標更新部206に対し、追跡対象の座標情報として、「Player2」クラスの現フレームの検出枠701の座標を通知し、更新させる。 In S309, the tracking object determining unit 205 determines the object whose coordinate information is to be updated based on the coordinates of the tracking object 604 (ball) up to the previous frame and the detection results of other classes. This coordinate information determination method will be explained with reference to FIG. The illustration shows a situation in which a tracked object 604 (ball) overlaps a "Player2" class 701, which is not a tracked object, and the "Ball" class cannot be detected. The coordinates 702 of the tracked object 604 (ball) up to the previous frame are retained. Therefore, the tracking target determination unit 205 determines which of the positions of classes that are not tracking targets obtained from the current frame are within a preset distance range from the position of the tracking target 604 (ball) in the previous frame. Determine the closest class as the temporary tracking target. In the case of FIG. 7, the tracking target determining unit 205 estimates that the tracking target 604 (ball) overlaps (is obstructed by) the "Player2" class, and determines the "Player2" class as the temporary tracking target. . Then, the tracking target determining unit 205 notifies the tracking target coordinate updating unit 206 of the coordinates of the detection frame 701 of the current frame of the "Player2" class as the coordinate information of the tracking target, and causes the tracking target coordinate updating unit 206 to update the coordinate information.

一方、S310に処理が進んだ場合、追跡対象決定部205は、追跡対象604(ボール)の前フレームまでの座標と、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を基に、座標情報を更新する。追跡対象604(ボール)が検出できなく、前フレームまでの情報からも推定できない場合というのは、典型的には、追跡対象604(ボール)が認識対象域(コート)から外れてしまった場合である。よって、追跡対象決定部205は、前フレームまでの追跡対象の座標を起点とし、その移動ベクトルに沿った1フレーム分後(実施形態では1/30秒後)の座標の位置に、現在の追跡対象が存在するものと推定し、その推定した座標を、追跡対象座標更新部206に通知し、更新させる。 On the other hand, when the process proceeds to S310, the tracking target determining unit 205 determines the coordinates based on the coordinates of the tracking target 604 (ball) up to the previous frame and the movement vector information of the tracking target 604 (ball) up to the previous frame. Update information. The case where the tracked object 604 (ball) cannot be detected and cannot be estimated from the information up to the previous frame is typically when the tracked object 604 (ball) has moved out of the recognition target area (court). be. Therefore, the tracking target determining unit 205 starts from the coordinates of the tracking target up to the previous frame, and sets the current tracking target at the coordinate position one frame later (1/30 second in the embodiment) along the movement vector. It is estimated that the target exists, and the estimated coordinates are notified to the tracking target coordinate updating unit 206 to be updated.

S305,S306(図3(b))の処理を終えた場合の更新後の座標は、現フレームに基づいて得た座標である。また、その際の追跡対象物は、通常はボールであるものの、一時的にプレーヤとなることも説明した。 The updated coordinates when the processes of S305 and S306 (FIG. 3(b)) are completed are coordinates obtained based on the current frame. It has also been explained that the object to be tracked at this time is usually a ball, but it temporarily becomes a player.

実施形態の、追跡対象決定部205は、次フレームにおける追跡対象物の位置を推定する。そのため、S311にて、追跡対象決定部205は、追跡対象ベクトル算出部204に対して、追跡対象物を特定する情報を設定し、現フレームにおける追跡対象物の移動ベクトルを算出させる。 The tracking target determining unit 205 of the embodiment estimates the position of the tracking target in the next frame. Therefore, in S311, the tracking target determining unit 205 sets information for specifying the tracking target in the tracking target vector calculating unit 204, and causes the tracking target vector to calculate the movement vector of the tracking target in the current frame.

例えば、S305を経てS311に処理が遷移した場合、追跡対象決定部205は、「Ball」クラスを追跡対象ベクトル算出部204に設定する。この設定を受け、追跡対象ベクトル算出部204は、現フレームと前フレームにおける「Ball」クラスの座標の差分から移動ベクトルを求める。例えば、現在のフレームtにおける「Ball」クラスと検出枠の中心座標を(Xt、Yt)とし、1つ前のフレームt-1における「Ball」クラスの検出枠の中心座標を(Xt-1、Yt-1)とすると、移動ベクトルΔXは次式(1)で得られる。
ΔX=(Xt - Xt-1、Yt - Yt-1) …(1)
For example, when the process transitions from S305 to S311, the tracking target determining unit 205 sets the “Ball” class to the tracking target vector calculating unit 204. In response to this setting, the tracking target vector calculation unit 204 calculates a movement vector from the difference between the coordinates of the "Ball" class in the current frame and the previous frame. For example, let the center coordinates of the "Ball" class and detection frame in the current frame t be (X t , Y t ), and let the center coordinates of the "Ball" class detection frame in the previous frame t-1 be (X t -1 , Y t-1 ), the movement vector ΔX is obtained by the following equation (1).
ΔX=(X t - X t-1 , Y t - Y t-1 )...(1)

また、S309を経てS311に処理が遷移した場合、追跡対象決定部205は、一時的に追跡対象となった「Player2」クラスを、追跡対象ベクトル算出部204に設定する。この設定を受け、追跡対象ベクトル算出部204は、現フレームと前フレームにおける「Player2」クラスの座標の差分から移動ベクトルを求める。クラスが異なるものの、移動ベクトルは上記(1)と同じである。 Further, when the process transitions from S309 to S311, the tracking target determining unit 205 sets the “Player2” class, which has temporarily become the tracking target, in the tracking target vector calculating unit 204. In response to this setting, the tracking target vector calculation unit 204 calculates a movement vector from the difference between the coordinates of the "Player2" class in the current frame and the previous frame. Although the class is different, the movement vector is the same as in (1) above.

また、S310を経てS311に処理が遷移した場合、追跡対象決定部205は、追跡対象決定部205は、「Ball」クラスを追跡対象ベクトル算出部204に設定する。この場合、現フレームには「Ball」クラスが存在しない。そこで、追跡対象ベクトル算出部204は、1つ前のフレームと2つ前のフレームの「Ball」クラスの座標を、式(1)を用いて算出させる。算出した移動ベクトルは、正確には、1フレーム前の「Ball」クラスの移動ベクトルであるが、時間的に近接しているので、本実施形態では、これを現フレームでの「Ball」クラスの移動ベクトルとして採用する。 Further, when the process transitions to S311 via S310, the tracking target determining unit 205 sets the “Ball” class to the tracking target vector calculating unit 204. In this case, the "Ball" class does not exist in the current frame. Therefore, the tracking target vector calculation unit 204 calculates the coordinates of the "Ball" class of the previous frame and the two previous frames using equation (1). The calculated movement vector is precisely the movement vector of the "Ball" class one frame before, but since they are temporally close, in this embodiment, this is the movement vector of the "Ball" class in the current frame. Adopted as a movement vector.

S312にて、追跡対象決定部205は、上記のようにして追跡対象ベクトル算出部204によって算出された移動ベクトルΔXをパン・チルト駆動制御部207に出力する。パン・チルト駆動制御部207は、追跡対象決定部205より入力した移動ベクトルΔXを、追跡対象座標更新部206による更新後の座標に加算することで、次フレームにおける追跡対象の移動後の座標を推定する。そして、パン・チルト駆動制御部207は、この推定された移動後の座標に向けてカメラ102の視線方向(画角の中心となる)となるようにすべく、パン角、チルト角のコマンドを生成し、カメラ102に送信する。 In S312, the tracking target determination unit 205 outputs the movement vector ΔX calculated by the tracking target vector calculation unit 204 as described above to the pan/tilt drive control unit 207. The pan/tilt drive control unit 207 adds the movement vector ΔX input from the tracking target determining unit 205 to the updated coordinates by the tracking target coordinate updating unit 206, thereby determining the coordinates of the tracking target after movement in the next frame. presume. Then, the pan/tilt drive control unit 207 issues pan angle and tilt angle commands so that the line of sight of the camera 102 is directed toward the estimated coordinates after movement (the center of the angle of view). It is generated and transmitted to the camera 102.

以上により、本実施形態によれば、追跡対象物が、他の物体に遮られたとしても、追跡対象の前フレームまでの座標情報と移動ベクトルを基に、追跡対象の位置を推定することができ、追跡対象物をターゲットとする自然な動画像を撮影することができる。 As described above, according to the present embodiment, even if the tracked object is blocked by another object, the position of the tracked object can be estimated based on the coordinate information and movement vector up to the previous frame of the tracked object. It is possible to capture natural moving images targeting the tracked object.

[第2の実施形態]
第2の実施形態を説明する。なお、第2の実施形態では、第1の実施形態と同一構成部分についてはその説明を省略する。第1の実施形態では、追跡対象が検出できている場合は追跡対象の画像座標を画角の中心となるようにできた。しかし、スポーツシーンにおいては、追跡対象としてボールに絡むプレイヤーを常に設定した方が望ましい場合も考えられる。本実施形態では、検出された追跡対象以外の他クラスとの位置関係と、追跡対象の前フレームまでの移動ベクトル情報を基に追跡対象を決定する。こうすることで、追跡対象としてボールに絡むプレイヤーを常に設定することができる。
[Second embodiment]
A second embodiment will be described. Note that in the second embodiment, descriptions of the same components as those in the first embodiment will be omitted. In the first embodiment, when the tracking target has been detected, the image coordinates of the tracking target can be set to the center of the angle of view. However, in sports scenes, it may be desirable to always set the player involved in the ball as the tracking target. In this embodiment, the tracking target is determined based on the positional relationship with other classes other than the detected tracking target and the movement vector information of the tracking target up to the previous frame. By doing this, you can always set the player involved in the ball as the tracking target.

以下、本第2の実施形態における映像処理装置100の動作について、図8(a)に例示するフローチャートに沿って説明する。 The operation of the video processing device 100 in the second embodiment will be described below along the flowchart illustrated in FIG. 8(a).

図8(a)におけるS801~S804、S806、S811、S812の処理は、第1実施形態の図3のS301~S304、S306、S311、S312の処理と同様であるため、その説明を省略する。 The processes of S801 to S804, S806, S811, and S812 in FIG. 8(a) are the same as the processes of S301 to S304, S306, S311, and S312 of FIG. 3 of the first embodiment, so the description thereof will be omitted.

S805において、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合の座標更新処理を行う。 In S805, the tracking target determination unit 205 performs coordinate update processing when the tracking target 604 (ball) has been detected.

このS805の処理の詳細を、図8(b)を参照して説明する。 Details of the process of S805 will be explained with reference to FIG. 8(b).

S807にて、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合において、追跡対象604(ボール)から、所定範囲内に他のクラスが存在するか否かを判定する。そして、追跡対象決定部205は、追跡対象604から所定範囲内に他のクラスが存在すると判定した場合はS808に、存在しないと判定した場合はS809に処理を進める。 In S807, if the tracking target 604 (ball) has been detected, the tracking target determination unit 205 determines whether another class exists within a predetermined range from the tracking target 604 (ball). Then, if the tracking target determination unit 205 determines that another class exists within a predetermined range from the tracking target 604, the process proceeds to S808, and if it determines that there is no other class, the process proceeds to S809.

S808にて、追跡対象決定部205は、追跡対象604(ボール)の画像座標を基に、座標を更新する対象を決定する。この座標の更新対象の決定処理を、図9を参照して説明する。図9において、追跡対象604(ボール)の「Ball」クラスの検出枠901と、追跡対象ではない「Player1」クラスの検出枠902の位置が所定範囲内にある場合は、「Player1」クラスが追跡対象604(ボール)を保持していると判定できる。故に、追跡対象決定部205は、「Player1」クラスを追跡対象に決定する。そして、追跡対象座標更新部206によって、追跡対象の座標情報を「Player1」クラスの検出枠902の画像座標で更新する。 In S808, the tracking target determining unit 205 determines the target whose coordinates are to be updated based on the image coordinates of the tracking target 604 (ball). This process of determining the coordinate update target will be explained with reference to FIG. 9. In FIG. 9, if the position of the detection frame 901 of the "Ball" class of the tracking target 604 (ball) and the detection frame 902 of the "Player1" class, which is not the tracking target, are within a predetermined range, the "Player1" class is tracked. It can be determined that the object 604 (ball) is held. Therefore, the tracking target determination unit 205 determines the "Player1" class as the tracking target. Then, the tracking target coordinate updating unit 206 updates the coordinate information of the tracking target with the image coordinates of the detection frame 902 of the "Player1" class.

一方、S809に処理が進んだ場合、追跡対象決定部205は、追跡対象ベクトル算出部204から、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を取得する。そして、S810にて、追跡対象決定部205は、追跡対象604(ボール)の現在の座標と、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を基に、座標情報を更新する対象を決定する。この処理を、図10を参照して説明する。図10は、追跡対象604(ボール)の「Ball」クラスの検出枠1001の所定範囲内に追跡対象ではない他のクラスの検出枠が存在しない例を示している。ちょうど、追跡対象604(ボール)がパスやシュートのような一時的な移動をしている場合である。この場合、数フレーム後にプレイヤーがボールを保持することが推定される。追跡対象決定部205は、追跡対象604(ボール)の「Ball」クラスの検出枠1001の現在の座標を起点とし、前フレームまでの移動ベクトル1002の延長線上に最も近い位置に存在する「Player2」クラスを追跡対象に決定する。そして、追跡対象座標更新部206によって、追跡対象の座標情報を「Player2」クラスの検出枠1003の画像座標で更新する。 On the other hand, when the process proceeds to S809, the tracking target determining unit 205 acquires movement vector information of the tracking target 604 (ball) up to the previous frame from the tracking target vector calculating unit 204. Then, in S810, the tracking target determining unit 205 selects a target whose coordinate information is to be updated based on the current coordinates of the tracking target 604 (ball) and the movement vector information of the tracking target 604 (ball) up to the previous frame. decide. This process will be explained with reference to FIG. FIG. 10 shows an example in which there is no detection frame of a class other than the tracking target within a predetermined range of the detection frame 1001 of the “Ball” class of the tracking target 604 (ball). This is exactly the case when the tracked object 604 (ball) is moving temporarily, such as when passing or shooting. In this case, it is estimated that the player will have possession of the ball after several frames. The tracking target determining unit 205 selects "Player 2" which exists at the closest position on the extension line of the movement vector 1002 up to the previous frame, starting from the current coordinates of the detection frame 1001 of the "Ball" class of the tracking target 604 (ball). Determine the class to be tracked. Then, the tracking target coordinate updating unit 206 updates the coordinate information of the tracking target with the image coordinates of the detection frame 1003 of the "Player2" class.

以上により、本実施形態によれば、追跡対象としてボールに絡むプレイヤーを設定した方が望ましい場合においても、検出された追跡対象以外の他クラスとの位置関係と、追跡対象の前フレームまでの移動ベクトル情報を基に追跡対象を決定することができる。 As described above, according to the present embodiment, even if it is desirable to set a player involved in the ball as a tracking target, the positional relationship with other classes other than the detected tracking target and the movement of the tracking target to the previous frame can be determined. Tracking targets can be determined based on vector information.

[第3の実施形態]
次に、本発明の第3の実施形態を説明する。なお、第1、2の実施形態と同一構成部分についてはその説明を省略する。第1、2の実施形態では、物体検出処理によって追跡対象が検出できていると判定された場合に追跡対象ありの処理を行って追跡対象の座標を更新した。しかし、畳み込みニューラルネットワークに限らず物体検出処理では、誤検出が発生する可能性があり、検出モデルや撮影する環境によっては、追跡精度が低下することが考えられる。本第3の実施形態では、追跡対象の検出結果が信頼できるものかを判定し、信頼できるものと判定された場合は追跡対象が検出できている場合の座標更新処理を行う。こうすることで、物体検出処理の誤検出による追跡精度が低下を抑えることができる。
[Third embodiment]
Next, a third embodiment of the present invention will be described. Note that descriptions of the same components as those in the first and second embodiments will be omitted. In the first and second embodiments, when it is determined that the tracking target has been detected through the object detection process, the tracking target presence processing is performed to update the coordinates of the tracking target. However, in object detection processing, not limited to convolutional neural networks, there is a possibility that false detections may occur, and tracking accuracy may decrease depending on the detection model and the environment in which the image is taken. In the third embodiment, it is determined whether the detection result of the tracking target is reliable, and if it is determined to be reliable, the coordinate update process is performed when the tracking target is detected. By doing so, it is possible to suppress a decrease in tracking accuracy due to erroneous detection in object detection processing.

以下、本実施形態における映像処理装置100の動作について、図11に例示するフローチャートに沿って説明する。なお、S1101~S1106、S1111、S1112の処理は、第2実施形態の図3のS801~S806、S811、S812と同様であるため、その説明を省略する。 The operation of the video processing device 100 in this embodiment will be described below along the flowchart illustrated in FIG. 11. Note that the processes in S1101 to S1106, S1111, and S1112 are the same as S801 to S806, S811, and S812 in FIG. 3 of the second embodiment, so their description will be omitted.

S1113にて、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合において、追跡対象604(ボール)を、少なくとも2フレーム以上連続で検出できているかを判定する。追跡対象決定部205は、2フレーム以上連続して追跡対象を検出していると判定した場合は処理をS1105に、検出していないと判定した場合はS1106に処理を進める。つまり、現在の1フレーム前のt-1で「Ball」クラスが検出されており、且つ、現在のフレームtで「Ball」クラスが検出されていた場合、追跡対象決定部205は、フレームt-1で追跡対象604(ボール)が検出できているという物体検出部202の結果は信頼できるものと判定する。一方で、現在のフレームtで「Ball」クラスが検出されているものの、前フレームt-1で追跡対象604(ボール)が検出できていない場合、現フレームに対する物体検出部202の結果は信頼度が低いと判定する。 In S1113, if the tracking target 604 (ball) has been detected, the tracking target determination unit 205 determines whether the tracking target 604 (ball) has been detected for at least two consecutive frames. If the tracking target determining unit 205 determines that a tracking target has been detected for two or more consecutive frames, the process proceeds to S1105, and if it determines that a tracking target has not been detected, the process proceeds to S1106. In other words, if the "Ball" class has been detected at t-1, one frame before the current one, and the "Ball" class has been detected at the current frame t, the tracking target determining unit 205 selects the frame t-1. 1, the result of the object detection unit 202 that the tracking target 604 (ball) has been detected is determined to be reliable. On the other hand, if the "Ball" class is detected in the current frame t, but the tracking target 604 (ball) is not detected in the previous frame t-1, the result of the object detection unit 202 for the current frame has a low reliability. is determined to be low.

以上により、本実施形態によれば、物体検出処理の不確定な誤検出の影響を抑えることが可能となる。なお、本第3の実施形態では、2フレーム以上連続して追跡対象が検出できているか否かを判定したが、カメラのフレームレートに依存して、連続するフレーム数を適宜変更しても良い。 As described above, according to the present embodiment, it is possible to suppress the influence of uncertain erroneous detection in object detection processing. Note that in the third embodiment, it is determined whether the tracking target has been detected for two or more consecutive frames, but the number of consecutive frames may be changed as appropriate depending on the frame rate of the camera. .

以上、本発明の好適な実施形態を説明したが、本発明はこれらの実施形態に限定されず、種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible.

例えば、第1実施形態のS310において、追跡対象604(ボール)ではないクラスの検出結果の中心や、重心を用いて画像座標で更新してもよい。 For example, in S310 of the first embodiment, the image coordinates may be updated using the center or center of gravity of the detection result of a class other than the tracking target 604 (ball).

また、第1実施形態のS311において、2フレーム以上の前からの座標情報の変化を用いて移動ベクトルを算出してもよい。 Further, in S311 of the first embodiment, a movement vector may be calculated using changes in coordinate information from two or more frames ago.

また、第2実施形態のS810において、追跡対象604(ボール)の検出枠1001の座標から、前フレームまでのベクトル1002の延長線上に存在する複数クラスの中心や、重心の位置を追跡対象に決定してもよい。 Further, in S810 of the second embodiment, the centers of multiple classes existing on the extension line of the vector 1002 from the coordinates of the detection frame 1001 of the tracking target 604 (ball) to the previous frame and the position of the center of gravity are determined as the tracking target. You may.

また、第3実施形態のS1113において、物体検出処理の出力結果の信頼度スコアを用いて追跡対象の検出結果が信頼できるものかを判定してもよい。 Further, in S1113 of the third embodiment, it may be determined whether the detection result of the tracking target is reliable using the reliability score of the output result of the object detection process.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本明細書の開示は、以下の物体追跡装置、方法及びプログラムを含む。
(項目1)
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段と
を有することを特徴とする映像処理装置。
(項目2)
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にあって最も距離が短い物体を、前記追跡対象物体を遮っている物体として判定する
ことを特徴とする項目1に記載の映像処理装置。
(項目3)
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にある物体が存在しない場合は、前フレームにおける前記追跡対象物体の移動ベクトルから推定される現フレームの位置に前記追跡対象物体が位置しているとして判定する
ことを特徴とする項目1又は2に記載の映像処理装置。
(項目4)
前記制御手段は、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在するか否かを判定する第2の判定手段を更に有し、
前記設定手段は、該第2の判定手段の判定の結果が、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在しないことを示す場合、前記現フレームと前フレームから求めた前記追跡対象物体の移動ベクトルの延長線上に位置する他の物体を、前記追跡対象物体に代って追跡対象に設定する
ことを特徴とする項目1乃至3のいずれか1つに記載の映像処理装置。
(項目5)
前記制御手段は、前記追跡対象物体が現フレームまでの予め設定された数のフレームにて連続して検出された場合に、現フレームから前記追跡対象物体が検出されたものとして前記判定手段の判定を行う
ことを特徴とする項目1乃至4のいずれか1つに記載の映像処理装置。
(項目6)
前記検出手段は、プレイヤー、ボールを物体として検出し、前記ボールを追跡対象物体として検出することを特徴とする項目1乃至5のいずれか1つに記載の映像処理装置。
(項目7)
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置の制御方法であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出工程と、
該検出工程で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御工程とを有し、
前記制御工程は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定工程と、
該判定工程で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定工程と
を有することを特徴とする映像処理装置の制御方法。
(項目8)
コンピュータが読み込み実行することで、前記コンピュータに、項目1乃至6のいずれか1つに記載の装置が有する各手段として機能させるためのプログラム。
The disclosure herein includes the following object tracking device, method, and program.
(Item 1)
An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.
(Item 2)
The determining means is configured to select an object, which is within a preset distance range and has the shortest distance from the position of the tracked object detected from the previous frame, among the objects detected from the current frame, by blocking the tracked object. The image processing device according to item 1, characterized in that the image processing device determines that the object is present.
(Item 3)
If there is no object within a preset distance range from the position of the tracked object detected from the previous frame among the objects detected from the current frame, the determination means detects the position of the tracked object in the previous frame. The video processing device according to item 1 or 2, characterized in that the tracking target object is determined to be located at a position of the current frame estimated from a movement vector.
(Item 4)
The control means determines whether the object to be tracked is present in the current frame of the video received from the first imaging device and whether another object is present within a preset distance from the object to be tracked. further comprising a second determining means for determining whether or not;
The setting means determines that the determination result of the second determination means is that the tracking target object exists in the current frame of the video received from the first imaging device, and that the tracking target object is set in advance from the tracking target object. When indicating that there is no other object within the distance range, another object located on the extension of the movement vector of the tracked object obtained from the current frame and the previous frame is substituted for the tracked object. The video processing device according to any one of items 1 to 3, wherein the video processing device is set as a tracking target.
(Item 5)
The control means causes the determining means to determine that the tracked object has been detected from the current frame when the tracked object is detected consecutively in a preset number of frames up to the current frame. The video processing device according to any one of items 1 to 4, characterized in that the video processing device performs the following.
(Item 6)
6. The video processing device according to any one of items 1 to 5, wherein the detection means detects a player and a ball as objects, and detects the ball as an object to be tracked.
(Item 7)
1. A control method for an image processing device that controls a viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures an overhead image of the entire court on which a sport is played, the method comprising: ,
a detection step of detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected in the detection step, and controlling the second imaging device so that the estimated position is within the angle of view. and a control process to
The control step includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. a determination step of determining based on the positional relationship of the objects;
A method for controlling an image processing device, comprising: a setting step of setting the object determined in the determination step as a tracking target instead of the tracking target object.
(Item 8)
A program that, when read and executed by a computer, causes the computer to function as each means included in the device according to any one of items 1 to 6.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために項目を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Accordingly, the sections are attached to disclose the scope of the invention.

100…映像処理装置、101、102…カメラ、201、208…入力部、202…物体検出部、203…追跡対象入力部、204…追跡対象ベクトル算出部、205…追跡対象決定部、206…追跡対象座標更新部、207…パン・チルト駆動制御部 DESCRIPTION OF SYMBOLS 100... Video processing device, 101, 102... Camera, 201, 208... Input unit, 202... Object detection unit, 203... Tracking target input unit, 204... Tracking target vector calculation unit, 205... Tracking target determining unit, 206... Tracking Target coordinate update unit, 207...Pan/tilt drive control unit

Claims (8)

スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段と
を有することを特徴とする映像処理装置。
An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にあって最も距離が短い物体を、前記追跡対象物体を遮っている物体として判定する
ことを特徴とする請求項1に記載の映像処理装置。
The determining means is configured to select an object, which is within a preset distance range and has the shortest distance from the position of the tracked object detected from the previous frame, among the objects detected from the current frame, by blocking the tracked object. The image processing device according to claim 1, wherein the image processing device determines that the object is present.
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にある物体が存在しない場合は、前フレームにおける前記追跡対象物体の移動ベクトルから推定される現フレームの位置に前記追跡対象物体が位置しているとして判定する
ことを特徴とする請求項1に記載の映像処理装置。
If there is no object within a preset distance range from the position of the tracked object detected from the previous frame among the objects detected from the current frame, the determination means detects the position of the tracked object in the previous frame. The video processing device according to claim 1, wherein the tracking target object is determined to be located at a position of the current frame estimated from a movement vector.
前記制御手段は、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在するか否かを判定する第2の判定手段を更に有し、
前記設定手段は、該第2の判定手段の判定の結果が、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在しないことを示す場合、前記現フレームと前フレームから求めた前記追跡対象物体の移動ベクトルの延長線上に位置する他の物体を、前記追跡対象物体に代って追跡対象に設定する
ことを特徴とする請求項1に記載の映像処理装置。
The control means determines whether the object to be tracked is present in the current frame of the video received from the first imaging device and whether another object is present within a preset distance from the object to be tracked. further comprising a second determining means for determining whether or not;
The setting means determines that the determination result of the second determination means is that the tracking target object exists in the current frame of the video received from the first imaging device, and that the tracking target object is set in advance from the tracking target object. When indicating that there is no other object within the distance range, another object located on the extension of the movement vector of the tracked object obtained from the current frame and the previous frame is substituted for the tracked object. The video processing device according to claim 1, wherein the video processing device is set as a tracking target.
前記制御手段は、前記追跡対象物体が現フレームまでの予め設定された数のフレームにて連続して検出された場合に、現フレームから前記追跡対象物体が検出されたものとして前記判定手段の判定を行う
ことを特徴とする請求項1に記載の映像処理装置。
The control means causes the determining means to determine that the tracked object has been detected from the current frame when the tracked object is detected consecutively in a preset number of frames up to the current frame. The video processing device according to claim 1, wherein the video processing device performs the following.
前記検出手段は、プレイヤー、ボールを物体として検出し、前記ボールを追跡対象物体として検出することを特徴とする請求項1に記載の映像処理装置。 The video processing device according to claim 1, wherein the detection means detects a player and a ball as objects, and detects the ball as an object to be tracked. スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置の制御方法であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出工程と、
該検出工程で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御工程とを有し、
前記制御工程は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定工程と、
該判定工程で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定工程と
を有することを特徴とする映像処理装置の制御方法。
1. A control method for an image processing device that controls a viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures an overhead image of the entire court on which a sport is played, the method comprising: ,
a detection step of detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected in the detection step, and controlling the second imaging device so that the estimated position is within the angle of view. and a control process to
The control step includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. a determination step of determining based on the positional relationship of the objects;
A method for controlling an image processing device, comprising: a setting step of setting the object determined in the determination step as a tracking target instead of the tracking target object.
コンピュータが読み込み実行することで、前記コンピュータに、請求項7に記載の方法の各工程を実行させるためのプログラム。 A program for causing the computer to execute each step of the method according to claim 7 by being read and executed by a computer.
JP2022071835A 2022-04-25 2022-04-25 Video processing device, control method for the same, and program Pending JP2023161440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022071835A JP2023161440A (en) 2022-04-25 2022-04-25 Video processing device, control method for the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022071835A JP2023161440A (en) 2022-04-25 2022-04-25 Video processing device, control method for the same, and program

Publications (1)

Publication Number Publication Date
JP2023161440A true JP2023161440A (en) 2023-11-07

Family

ID=88650256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022071835A Pending JP2023161440A (en) 2022-04-25 2022-04-25 Video processing device, control method for the same, and program

Country Status (1)

Country Link
JP (1) JP2023161440A (en)

Similar Documents

Publication Publication Date Title
US11594029B2 (en) Methods and systems for determining ball shot attempt location on ball court
US11157742B2 (en) Methods and systems for multiplayer tagging for ball game analytics generation with a mobile computing device
JP7003628B2 (en) Object tracking program, object tracking device, and object tracking method
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
RU2702160C2 (en) Tracking support apparatus, tracking support system, and tracking support method
US10812686B2 (en) Method and system for mimicking human camera operation
US20020140814A1 (en) Method for assisting an automated video tracking system in reaquiring a target
WO2010036456A2 (en) Multiple-object tracking and team identification for game strategy analysis
CN112703533A (en) Object tracking
JP6649231B2 (en) Search device, search method and program
US20180136306A1 (en) Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same
WO2014175356A1 (en) Information processing system, information processing method, and program
Chen et al. Autonomous camera systems: A survey
JP6265299B2 (en) Generation of trajectory data for video data
US11882363B2 (en) Control apparatus and learning apparatus and control method
JP6593922B2 (en) Image surveillance system
US20230164424A1 (en) Control apparatus, control system, and control program
JP2023161440A (en) Video processing device, control method for the same, and program
US20220108536A1 (en) Method of displaying augmented reality and electronic device for performing same
JP6846963B2 (en) Video playback device, video playback method, video playback program and video playback system
JP7332047B2 (en) Tracking Devices, Tracking Systems, Tracking Methods, and Programs
US20230276117A1 (en) Main object determination apparatus, imaging apparatus, and control method for controlling main object determination apparatus
US20240147075A1 (en) Tracking image capturing system and control method therefor, and storage medium
WO2022176189A1 (en) Video monitor device, video monitor system, video monitor method, and video monitor program
US20230177860A1 (en) Main object determination apparatus, image capturing apparatus, and method for controlling main object determination apparatus