JP2023161440A - Video processing device, control method for the same, and program - Google Patents
Video processing device, control method for the same, and program Download PDFInfo
- Publication number
- JP2023161440A JP2023161440A JP2022071835A JP2022071835A JP2023161440A JP 2023161440 A JP2023161440 A JP 2023161440A JP 2022071835 A JP2022071835 A JP 2022071835A JP 2022071835 A JP2022071835 A JP 2022071835A JP 2023161440 A JP2023161440 A JP 2023161440A
- Authority
- JP
- Japan
- Prior art keywords
- tracking target
- tracked
- processing device
- video
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims description 48
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 238000003384 imaging method Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims description 29
- 230000000903 blocking effect Effects 0.000 claims description 7
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、映像処理装置及びその制御方法及びプログラムに関するものである。 The present invention relates to a video processing device, a control method thereof, and a program.
スポーツ映像の自動撮影は、省人化などの観点から近年注目されている。自動撮影とは、スポーツシーン全体を俯瞰するカメラとは別に、パン動作やチルト動作、ズーム動作をしてプレイの詳細を追跡するカメラを自動で制御する技術である。対象のスポーツによって画角の決め方は様々であるが、バスケットボールやサッカーといった球技の接触スポーツではボール位置をもとに画角を決めることが多い。 Automatic shooting of sports videos has been attracting attention in recent years from the perspective of saving labor. Automatic shooting is a technology that automatically controls cameras that pan, tilt, and zoom to track the details of a play, in addition to the camera that provides an overview of the entire sports scene. There are various ways to determine the angle of view depending on the sport in question, but in contact sports such as basketball and soccer, the angle of view is often determined based on the position of the ball.
自動で追跡対象を追い続けるためには、俯瞰映像を入力とした認識技術が利用されることが多い。しかし、その一方で、このようなスポーツシーンでは、プレイヤーの重なりなどによって、俯瞰映像からボールが捉えられなくなることもある。カメラマンによる操作では、このようなシーンにおいてはボール位置を推測して画角を決定している。しかし、自動撮影における認識技術では、このような俯瞰映像からボールが捉えられなくなるシーンでは、ボール座標位置が「不明」となり、画角の自動決定に必要な情報が欠損することになる。 In order to automatically keep track of a tracked target, recognition technology that uses overhead video as input is often used. However, on the other hand, in such sports scenes, the ball may not be visible from an overhead view due to overlapping players. In such a scene, the camera operator determines the angle of view by estimating the ball position. However, with the recognition technology used in automatic shooting, in such scenes where the ball cannot be captured from an overhead image, the coordinate position of the ball becomes "unknown" and the information necessary for automatically determining the angle of view is missing.
特許文献1では、認識された各対象物の領域を組み合わせ領域と、過去情報との差分領域を基にして、重なりを加味した評価を行うことで自動追跡を行っている。特許文献2では、対象物の重なりが発生した前後の特徴の変化に基づいて、不審人物候補を判定して重なりが発生した場所を出力する。 In Patent Document 1, automatic tracking is performed by performing an evaluation that takes into account overlap based on a combined area of each recognized target object and a difference area with past information. In Patent Document 2, a suspicious person candidate is determined based on changes in characteristics before and after the overlap of objects occurs, and a location where the overlap occurs is output.
しかしながら上述した従来技術で、スポーツ映像の自動撮影を行おうとする場合に、以下のような課題が存在する。まず、特許文献1では、認識対象のサイズに大きな差があると、大きいほうの対象物の変化が組み合わせ領域の評価値に大きく影響してしまうため、ボールのような比較的小さな物体を追跡するときは精度良く追跡することができない。また、特許文献2では、重なりが発生した前後の特徴の変化を評価するため、隠れている間は対象物の位置推定を行うことができない。よって、この技術はスポーツ映像のリアルタイム配信には適さない。 However, when trying to automatically shoot a sports video using the above-mentioned conventional technology, the following problems exist. First, in Patent Document 1, if there is a large difference in the size of the recognition target, changes in the larger target will greatly affect the evaluation value of the combination area, so relatively small objects such as balls are tracked. Sometimes it is not possible to track accurately. Further, in Patent Document 2, since changes in features before and after the occurrence of overlap are evaluated, the position of the object cannot be estimated while it is hidden. Therefore, this technology is not suitable for real-time distribution of sports videos.
本発明はこのような問題に鑑みてなされたものであり、複数のサイズの異なる対象物の認識を行っていて、追跡対象が重なりなどによって隠れてしまった場合においても、追跡対象の位置を推定することができる。 The present invention has been made in view of these problems, and even if a plurality of objects of different sizes are being recognized and the tracked target is hidden due to overlapping, etc., the position of the tracked target can be estimated. can do.
この課題を解決するため、例えば本発明の映像処理装置は以下の構成を備える。すなわち、
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段とを有する。
In order to solve this problem, for example, the video processing device of the present invention has the following configuration. That is,
An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.
本発明によれば、追跡対象が他の物体との重なりなどによって隠れてしまった場合においても、高い精度で追跡対象の追跡を継続することができる。 According to the present invention, even if the tracked target is hidden due to overlapping with another object, it is possible to continue tracking the tracked target with high accuracy.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.
[第1の実施形態]
第1の実施形態では、俯瞰カメラによって取得されたスポーツの俯瞰映像を入力し、設定した追跡対象を映像中から認識して、追跡対象物をパン・チルトカメラによって自動追跡するシステムを説明する。なお、本実施形態では、「クラス」とは、ボールとプレイヤーを表し、プレイヤーはプレイヤー毎にクラスを割り振ることができるとする。なお、理解を容易にするため、本実施形態ではバスケットボールを例に説明する。
[First embodiment]
In the first embodiment, a system will be described in which an overhead video of a sport captured by an overhead camera is input, a set tracking target is recognized from the video, and the tracking target is automatically tracked using a pan/tilt camera. Note that in this embodiment, "class" represents a ball and a player, and it is assumed that a player can assign a class to each player. Note that, for ease of understanding, this embodiment will be explained using basketball as an example.
図1(a)に示すように、第1の実施形態におけるシステムは、映像処理装置100と、カメラ100、200で構成される。映像処理装置100は、カメラ100,200と通信可能に接続されている。接続形態は、有線、無線を問わない。カメラ101は、コート全体の俯瞰映像を撮影するための視野角を有し、その視線方向は固定である。一方、カメラ102は、カメラ101と比較して視野角は狭いものの、視線方向(パン角、チルト角)を変更可能とするために雲台102aを有する。カメラ101,102の設置位置に特に制限はないが、実施形態では、図示の通り、カメラ101はコートのセンターラインの延長線上に設置され、カメラ102は、コートの一方のエンドラインから予め設定された位置に設置されているものとする。なお、実施形態におけるカメラ101,102は、例えば30フレーム/秒で動画像を撮影し、送信するものとする。
As shown in FIG. 1(a), the system in the first embodiment includes a
図1(b)は、第1の実施形態における映像処理装置100のブロック構成図である。映像処理装置100は、汎用のパーソナルコンピュータ等に代表される情報処理装置と、それ上で動作するアプリケーションプログラムによって実現される。そのため、画像処理装置100は、装置全体の制御を司るCPU111,BIOSやブートプログラムを記憶しているROM112、CPU111が実行するOS(オペレーティングシステム)や実施形態における映像処理アプリケーションプログラムを展開したり、ワークエリアとして利用するRAM113を有する。更に、映像処理装置100は、OS,映像処理アプリケーションプログラム保持したり、撮影で得た映像を動画像ファイルとして記憶するための外部記憶装置としてのHDD(ハードディスクドライブ)を有する。また、映像処理装置100は、カメラ101及び102と通信するためのインタフェース115,ユーザからの操作を受け付ける操作部(キーボード、マウス等を含む)116、及び、カメラ101,102で撮影された映像を表示するため、及び、実施形態における映像処理アプリケーションプログラムを実行中に各種設定メニュー等を表示する表示部117を有する。なお、説明を単純なものとするため、カメラ101、102それぞれはネットワークカメラであり、インタフェース115もネットワークとの通信を行うためのインタフェースであるものとする。先に説明したように、カメラ101、102、及び、映像処理装置100は、互いに通信可能であれば良いので、インタフェースの種類は特に制限はない。
FIG. 1(b) is a block configuration diagram of the
上記構成において、映像処理装置100の電源がONになると、CPU111はROM112のブートプログラムを実行し、OSをHDD114からRAM113にロードし、制御をOSに移行する。映像処理装置100とユーザとの間に、操作部116及び表示部117によるユーザインタフェースが構築されることになる。そして、ユーザが、操作部116を操作して映像アプリケーションの実行を入力すると、CPU111はHDD114から映像処理アプリケーションプログラムをRAM113上にロードし、OSの制御課でそのアプリケーションを実行する。この結果、映像処理装置100は、図1(a)を参照して説明した機能を実現することになる。
In the above configuration, when the
図2は、CPU111が、先に説明した映像アプリケーションプログラムを実行した際の映像処理装置100の機能ブロック構成図を示している。各処理部は、CPU111が実行するモジュールとして理解されたい。
FIG. 2 shows a functional block diagram of the
入力部201は、カメラ101で撮影された俯瞰映像データを受信し、その映像データを物体検出部202へ出力する。物体検出部202は、入力部201から映像データを入力し、映像中の物体を検出する。そして、物体検出部202は、映像中のどの位置にどの物体があるかを示す情報を出力する。これは、事前に学習データから生成された物体検出モデルを利用することで行われる。本実施形態では、物体検出処理としてはニューラルネットワーク、特に畳み込みニューラルネットワークを用いるが、畳み込みニューラルネットワークに限らず他のモデルでもよく、さらに、ニューラルネットワークに限らず従来の他の機械学習技術でもよい。物体検出部202は、上記の検出結果(物体の位置と物体の種類を示す情報)を、追跡対象ベクトル算出部204、及び、追跡対象決定部205へ出力する。
The
追跡対象入力部203は、ユーザインタフェースで構成され、ユーザが画像処理装置100に対して、物体検出モデルに定義されているクラスの中から、追跡対象のクラスを入力することができる。本実施形態では、追跡対象として「ボール」クラスを設定されているものとする。
The tracking
追跡対象ベクトル算出部204は、追跡対象入力部203によって指定されたクラス(実施形態ではボール)に対して、物体検出部202から入力した検出結果から移動ベクトルを算出し、その算出結果を追跡対象決定部205へ出力する。
The tracking target
追跡対象決定部205は、物体検出部202と追跡対象ベクトル算出部204の結果、および追跡対象入力部203によって指定されたクラスに基づいて、追跡対象を決定し、決定した追跡対象の情報を追跡対象座標更新部206へ出力する。
A tracking
追跡対象座標更新部206は、追跡対象決定部205によって決定された追跡対象の検出座標で更新し、パン・チルト駆動制御用のパラメータを生成し、そのパラメータをパンチルト駆動制御部207へ出力する。
The tracking target coordinate updating
パンチルト駆動制御部207は、追跡対象座標更新部206から入力したパラメータに基づいてパン角、チルト角のコマンドを生成し、生成したコマンドをカメラ102に送信し、追跡対象が画角内に存在する映像を撮影させる。
The pan/tilt
入力部208は、カメラ102からの動画像を映像データとして受信し、その映像データを記録部209に出力する。記録部209は、入力部208から入力した映像データを、記録媒体210(HDD114)に動画像データファイルとして記録する。なお、カメラ102からの映像を記録するのではなく、ネットワークを介して配信するようにしても構わない。
The
以下、上記のように構成された本実施形態における情報処理装置100の動作について、図3(a)に例示するフローチャートに沿って説明する。なお、以下では、カメラ102から映像の受信、記録は、この発明の主眼ではないので、以下では、カメラ102に対するリモート制御を中心に説明する。
Hereinafter, the operation of the
S301にて、入力部201は、カメラ101から、俯瞰映像を取得する。図4は俯瞰映像の一例である。映像内には、プレイヤー401、402、403、404およびボール405が撮像されている。図示では、プレイヤー401がボール405を保持していることを示している。実施形態では、カメラ102がプレイヤー401とボール405に注目する画角に制御されることが求められる。なお、図示ではプレイヤーが4人としているが、これは理解を容易にするためであると理解されたい。
In S301, the
S302にて、追跡対象入力部203が、操作部116を介して追跡対象物体のクラスを取得する。
In S302, the tracking
S303にて、物体検出部202は、S301で取得した俯瞰映像を物体検出モデルに出力することで物体検出処理を実行させる。図5は、図4の映像に対する、物体検出部202による物体検出処理を行った結果の一例を示している。物体検出部202は、プレイヤー、ボールを物体(オブジェクト)として認識し、それぞれの物体が占める領域の位置と、クラス(プレイヤーかボール)を示す情報を出力する。プレイヤー、ボールが占める領域の位置は、その領域に外接する矩形枠を特定する座標である。図5では、物体検出部202の検出結果を、枠501、502、503、504、及び、505で示している。
In S303, the
図6は物体検出部202による物体検出処理の出力結果情報の一例である。フレーム番号601では、物体検出処理を行ったフレーム番号を保持する。クラス602では、検出した物体のクラスを保持する。画像座標603では、検出した物体の俯瞰映像内における座標を保持する。検出枠の位置とサイズは、その枠の左上隅の座標(Xl1a、Yl1a)と、枠の右下隅の座標(Xr1a、Yr1a)で決定することができる。本実施形態における追跡対象604は、「Ball(ボール)」クラスであり、このクラスの画像座標を常に推定できることが求められる。なお、以降の説明で、単に、ボールの座標、プレイヤーの座標という表現が使われた場合、その座標の意味は、該当する対象物の上記検出枠の中心位置の座標を指すものとする。
FIG. 6 is an example of output result information of object detection processing by the
S304にて、追跡対象決定部205は、物体検出部202からの物体検出処理の結果に基づき、追跡対象604(ボール)が現フレームから検出できている否かを判定する。追跡対象決定部205は、追跡対象604(ボール)が現フレームから検出できていると判定した場合はS305に、検出できていないと判定した場合はS306に処理を分岐する。
In S304, the tracking
S305にて、追跡対象決定部205は、座標情報を更新する対象を追跡対象604(ボール)の座標に決定し、決定した座標を追跡対象座標更新部206に通知する。追跡対象座標更新部206は、この通知を受け、追跡対象の座標情報を、現フレームから得た「Ball」クラスの検出枠505の座標で更新する。
In S305, the tracking
S306に処理が進んだ場合、追跡対象決定部205は、追跡対象604(ボール)が検出できていない場合の座標更新処理を行う。
When the process advances to S306, the tracking
この処理の詳細を図3(b)のフローチャートを参照して説明する。 The details of this process will be explained with reference to the flowchart of FIG. 3(b).
S307にて、追跡対象決定部205は、追跡対象ベクトル算出部204から、追跡対象604(ボール)の前フレームまでの座標情報と移動ベクトル情報を取得する。そして、S308にて、追跡対象決定部205は、前フレームにおいて、追跡対象604(ボールの座標から所定範囲内に他のクラスが存在したか否かを判定する。追跡対象決定部205は、他のクラスが存在すると判定した場合はS309に、存在しないと判定した場合はS310に処理を分岐する。
In S307, the tracking
S309にて、追跡対象決定部205は、追跡対象604(ボール)の前フレームまでの座標と、他のクラスの検出結果を基に、座標情報を更新する対象物を決定する。図7を参照して、この座標情報決定方法を説明する。図示では、追跡対象604(ボール)が、追跡対象ではない「Player2」クラス701に重なり、「Ball」クラスが検出できない状況を示している。前フレームまでの追跡対象604(ボール)の座標702は保持されている。そこで、追跡対象決定部205は、現フレームから得た追跡対象ではないクラスの位置のうち、前フレームでの追跡対象604(ボール)の位置から予め設定された距離範囲にあって、その中の最も近いクラスを、一時的な追跡対象として決定する。図7の場合、追跡対象決定部205は、追跡対象604(ボール)が「Player2」クラスに重なっている(遮られている)と推定し、「Player2」クラスを一時的な追跡対象として決定する。そして、追跡対象決定部205は、追跡対象座標更新部206に対し、追跡対象の座標情報として、「Player2」クラスの現フレームの検出枠701の座標を通知し、更新させる。
In S309, the tracking
一方、S310に処理が進んだ場合、追跡対象決定部205は、追跡対象604(ボール)の前フレームまでの座標と、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を基に、座標情報を更新する。追跡対象604(ボール)が検出できなく、前フレームまでの情報からも推定できない場合というのは、典型的には、追跡対象604(ボール)が認識対象域(コート)から外れてしまった場合である。よって、追跡対象決定部205は、前フレームまでの追跡対象の座標を起点とし、その移動ベクトルに沿った1フレーム分後(実施形態では1/30秒後)の座標の位置に、現在の追跡対象が存在するものと推定し、その推定した座標を、追跡対象座標更新部206に通知し、更新させる。
On the other hand, when the process proceeds to S310, the tracking
S305,S306(図3(b))の処理を終えた場合の更新後の座標は、現フレームに基づいて得た座標である。また、その際の追跡対象物は、通常はボールであるものの、一時的にプレーヤとなることも説明した。 The updated coordinates when the processes of S305 and S306 (FIG. 3(b)) are completed are coordinates obtained based on the current frame. It has also been explained that the object to be tracked at this time is usually a ball, but it temporarily becomes a player.
実施形態の、追跡対象決定部205は、次フレームにおける追跡対象物の位置を推定する。そのため、S311にて、追跡対象決定部205は、追跡対象ベクトル算出部204に対して、追跡対象物を特定する情報を設定し、現フレームにおける追跡対象物の移動ベクトルを算出させる。
The tracking
例えば、S305を経てS311に処理が遷移した場合、追跡対象決定部205は、「Ball」クラスを追跡対象ベクトル算出部204に設定する。この設定を受け、追跡対象ベクトル算出部204は、現フレームと前フレームにおける「Ball」クラスの座標の差分から移動ベクトルを求める。例えば、現在のフレームtにおける「Ball」クラスと検出枠の中心座標を(Xt、Yt)とし、1つ前のフレームt-1における「Ball」クラスの検出枠の中心座標を(Xt-1、Yt-1)とすると、移動ベクトルΔXは次式(1)で得られる。
ΔX=(Xt - Xt-1、Yt - Yt-1) …(1)
For example, when the process transitions from S305 to S311, the tracking
ΔX=(X t - X t-1 , Y t - Y t-1 )...(1)
また、S309を経てS311に処理が遷移した場合、追跡対象決定部205は、一時的に追跡対象となった「Player2」クラスを、追跡対象ベクトル算出部204に設定する。この設定を受け、追跡対象ベクトル算出部204は、現フレームと前フレームにおける「Player2」クラスの座標の差分から移動ベクトルを求める。クラスが異なるものの、移動ベクトルは上記(1)と同じである。
Further, when the process transitions from S309 to S311, the tracking
また、S310を経てS311に処理が遷移した場合、追跡対象決定部205は、追跡対象決定部205は、「Ball」クラスを追跡対象ベクトル算出部204に設定する。この場合、現フレームには「Ball」クラスが存在しない。そこで、追跡対象ベクトル算出部204は、1つ前のフレームと2つ前のフレームの「Ball」クラスの座標を、式(1)を用いて算出させる。算出した移動ベクトルは、正確には、1フレーム前の「Ball」クラスの移動ベクトルであるが、時間的に近接しているので、本実施形態では、これを現フレームでの「Ball」クラスの移動ベクトルとして採用する。
Further, when the process transitions to S311 via S310, the tracking
S312にて、追跡対象決定部205は、上記のようにして追跡対象ベクトル算出部204によって算出された移動ベクトルΔXをパン・チルト駆動制御部207に出力する。パン・チルト駆動制御部207は、追跡対象決定部205より入力した移動ベクトルΔXを、追跡対象座標更新部206による更新後の座標に加算することで、次フレームにおける追跡対象の移動後の座標を推定する。そして、パン・チルト駆動制御部207は、この推定された移動後の座標に向けてカメラ102の視線方向(画角の中心となる)となるようにすべく、パン角、チルト角のコマンドを生成し、カメラ102に送信する。
In S312, the tracking
以上により、本実施形態によれば、追跡対象物が、他の物体に遮られたとしても、追跡対象の前フレームまでの座標情報と移動ベクトルを基に、追跡対象の位置を推定することができ、追跡対象物をターゲットとする自然な動画像を撮影することができる。 As described above, according to the present embodiment, even if the tracked object is blocked by another object, the position of the tracked object can be estimated based on the coordinate information and movement vector up to the previous frame of the tracked object. It is possible to capture natural moving images targeting the tracked object.
[第2の実施形態]
第2の実施形態を説明する。なお、第2の実施形態では、第1の実施形態と同一構成部分についてはその説明を省略する。第1の実施形態では、追跡対象が検出できている場合は追跡対象の画像座標を画角の中心となるようにできた。しかし、スポーツシーンにおいては、追跡対象としてボールに絡むプレイヤーを常に設定した方が望ましい場合も考えられる。本実施形態では、検出された追跡対象以外の他クラスとの位置関係と、追跡対象の前フレームまでの移動ベクトル情報を基に追跡対象を決定する。こうすることで、追跡対象としてボールに絡むプレイヤーを常に設定することができる。
[Second embodiment]
A second embodiment will be described. Note that in the second embodiment, descriptions of the same components as those in the first embodiment will be omitted. In the first embodiment, when the tracking target has been detected, the image coordinates of the tracking target can be set to the center of the angle of view. However, in sports scenes, it may be desirable to always set the player involved in the ball as the tracking target. In this embodiment, the tracking target is determined based on the positional relationship with other classes other than the detected tracking target and the movement vector information of the tracking target up to the previous frame. By doing this, you can always set the player involved in the ball as the tracking target.
以下、本第2の実施形態における映像処理装置100の動作について、図8(a)に例示するフローチャートに沿って説明する。
The operation of the
図8(a)におけるS801~S804、S806、S811、S812の処理は、第1実施形態の図3のS301~S304、S306、S311、S312の処理と同様であるため、その説明を省略する。 The processes of S801 to S804, S806, S811, and S812 in FIG. 8(a) are the same as the processes of S301 to S304, S306, S311, and S312 of FIG. 3 of the first embodiment, so the description thereof will be omitted.
S805において、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合の座標更新処理を行う。
In S805, the tracking
このS805の処理の詳細を、図8(b)を参照して説明する。 Details of the process of S805 will be explained with reference to FIG. 8(b).
S807にて、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合において、追跡対象604(ボール)から、所定範囲内に他のクラスが存在するか否かを判定する。そして、追跡対象決定部205は、追跡対象604から所定範囲内に他のクラスが存在すると判定した場合はS808に、存在しないと判定した場合はS809に処理を進める。
In S807, if the tracking target 604 (ball) has been detected, the tracking
S808にて、追跡対象決定部205は、追跡対象604(ボール)の画像座標を基に、座標を更新する対象を決定する。この座標の更新対象の決定処理を、図9を参照して説明する。図9において、追跡対象604(ボール)の「Ball」クラスの検出枠901と、追跡対象ではない「Player1」クラスの検出枠902の位置が所定範囲内にある場合は、「Player1」クラスが追跡対象604(ボール)を保持していると判定できる。故に、追跡対象決定部205は、「Player1」クラスを追跡対象に決定する。そして、追跡対象座標更新部206によって、追跡対象の座標情報を「Player1」クラスの検出枠902の画像座標で更新する。
In S808, the tracking
一方、S809に処理が進んだ場合、追跡対象決定部205は、追跡対象ベクトル算出部204から、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を取得する。そして、S810にて、追跡対象決定部205は、追跡対象604(ボール)の現在の座標と、追跡対象604(ボール)の前フレームまでの移動ベクトル情報を基に、座標情報を更新する対象を決定する。この処理を、図10を参照して説明する。図10は、追跡対象604(ボール)の「Ball」クラスの検出枠1001の所定範囲内に追跡対象ではない他のクラスの検出枠が存在しない例を示している。ちょうど、追跡対象604(ボール)がパスやシュートのような一時的な移動をしている場合である。この場合、数フレーム後にプレイヤーがボールを保持することが推定される。追跡対象決定部205は、追跡対象604(ボール)の「Ball」クラスの検出枠1001の現在の座標を起点とし、前フレームまでの移動ベクトル1002の延長線上に最も近い位置に存在する「Player2」クラスを追跡対象に決定する。そして、追跡対象座標更新部206によって、追跡対象の座標情報を「Player2」クラスの検出枠1003の画像座標で更新する。
On the other hand, when the process proceeds to S809, the tracking
以上により、本実施形態によれば、追跡対象としてボールに絡むプレイヤーを設定した方が望ましい場合においても、検出された追跡対象以外の他クラスとの位置関係と、追跡対象の前フレームまでの移動ベクトル情報を基に追跡対象を決定することができる。 As described above, according to the present embodiment, even if it is desirable to set a player involved in the ball as a tracking target, the positional relationship with other classes other than the detected tracking target and the movement of the tracking target to the previous frame can be determined. Tracking targets can be determined based on vector information.
[第3の実施形態]
次に、本発明の第3の実施形態を説明する。なお、第1、2の実施形態と同一構成部分についてはその説明を省略する。第1、2の実施形態では、物体検出処理によって追跡対象が検出できていると判定された場合に追跡対象ありの処理を行って追跡対象の座標を更新した。しかし、畳み込みニューラルネットワークに限らず物体検出処理では、誤検出が発生する可能性があり、検出モデルや撮影する環境によっては、追跡精度が低下することが考えられる。本第3の実施形態では、追跡対象の検出結果が信頼できるものかを判定し、信頼できるものと判定された場合は追跡対象が検出できている場合の座標更新処理を行う。こうすることで、物体検出処理の誤検出による追跡精度が低下を抑えることができる。
[Third embodiment]
Next, a third embodiment of the present invention will be described. Note that descriptions of the same components as those in the first and second embodiments will be omitted. In the first and second embodiments, when it is determined that the tracking target has been detected through the object detection process, the tracking target presence processing is performed to update the coordinates of the tracking target. However, in object detection processing, not limited to convolutional neural networks, there is a possibility that false detections may occur, and tracking accuracy may decrease depending on the detection model and the environment in which the image is taken. In the third embodiment, it is determined whether the detection result of the tracking target is reliable, and if it is determined to be reliable, the coordinate update process is performed when the tracking target is detected. By doing so, it is possible to suppress a decrease in tracking accuracy due to erroneous detection in object detection processing.
以下、本実施形態における映像処理装置100の動作について、図11に例示するフローチャートに沿って説明する。なお、S1101~S1106、S1111、S1112の処理は、第2実施形態の図3のS801~S806、S811、S812と同様であるため、その説明を省略する。
The operation of the
S1113にて、追跡対象決定部205は、追跡対象604(ボール)が検出できている場合において、追跡対象604(ボール)を、少なくとも2フレーム以上連続で検出できているかを判定する。追跡対象決定部205は、2フレーム以上連続して追跡対象を検出していると判定した場合は処理をS1105に、検出していないと判定した場合はS1106に処理を進める。つまり、現在の1フレーム前のt-1で「Ball」クラスが検出されており、且つ、現在のフレームtで「Ball」クラスが検出されていた場合、追跡対象決定部205は、フレームt-1で追跡対象604(ボール)が検出できているという物体検出部202の結果は信頼できるものと判定する。一方で、現在のフレームtで「Ball」クラスが検出されているものの、前フレームt-1で追跡対象604(ボール)が検出できていない場合、現フレームに対する物体検出部202の結果は信頼度が低いと判定する。
In S1113, if the tracking target 604 (ball) has been detected, the tracking
以上により、本実施形態によれば、物体検出処理の不確定な誤検出の影響を抑えることが可能となる。なお、本第3の実施形態では、2フレーム以上連続して追跡対象が検出できているか否かを判定したが、カメラのフレームレートに依存して、連続するフレーム数を適宜変更しても良い。 As described above, according to the present embodiment, it is possible to suppress the influence of uncertain erroneous detection in object detection processing. Note that in the third embodiment, it is determined whether the tracking target has been detected for two or more consecutive frames, but the number of consecutive frames may be changed as appropriate depending on the frame rate of the camera. .
以上、本発明の好適な実施形態を説明したが、本発明はこれらの実施形態に限定されず、種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible.
例えば、第1実施形態のS310において、追跡対象604(ボール)ではないクラスの検出結果の中心や、重心を用いて画像座標で更新してもよい。 For example, in S310 of the first embodiment, the image coordinates may be updated using the center or center of gravity of the detection result of a class other than the tracking target 604 (ball).
また、第1実施形態のS311において、2フレーム以上の前からの座標情報の変化を用いて移動ベクトルを算出してもよい。 Further, in S311 of the first embodiment, a movement vector may be calculated using changes in coordinate information from two or more frames ago.
また、第2実施形態のS810において、追跡対象604(ボール)の検出枠1001の座標から、前フレームまでのベクトル1002の延長線上に存在する複数クラスの中心や、重心の位置を追跡対象に決定してもよい。
Further, in S810 of the second embodiment, the centers of multiple classes existing on the extension line of the
また、第3実施形態のS1113において、物体検出処理の出力結果の信頼度スコアを用いて追跡対象の検出結果が信頼できるものかを判定してもよい。 Further, in S1113 of the third embodiment, it may be determined whether the detection result of the tracking target is reliable using the reliability score of the output result of the object detection process.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
本明細書の開示は、以下の物体追跡装置、方法及びプログラムを含む。
(項目1)
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段と
を有することを特徴とする映像処理装置。
(項目2)
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にあって最も距離が短い物体を、前記追跡対象物体を遮っている物体として判定する
ことを特徴とする項目1に記載の映像処理装置。
(項目3)
前記判定手段は、現フレームから検出した物体のうち、前フレームから検出した前記追跡対象物体の位置から予め設定された距離範囲内にある物体が存在しない場合は、前フレームにおける前記追跡対象物体の移動ベクトルから推定される現フレームの位置に前記追跡対象物体が位置しているとして判定する
ことを特徴とする項目1又は2に記載の映像処理装置。
(項目4)
前記制御手段は、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在するか否かを判定する第2の判定手段を更に有し、
前記設定手段は、該第2の判定手段の判定の結果が、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在しないことを示す場合、前記現フレームと前フレームから求めた前記追跡対象物体の移動ベクトルの延長線上に位置する他の物体を、前記追跡対象物体に代って追跡対象に設定する
ことを特徴とする項目1乃至3のいずれか1つに記載の映像処理装置。
(項目5)
前記制御手段は、前記追跡対象物体が現フレームまでの予め設定された数のフレームにて連続して検出された場合に、現フレームから前記追跡対象物体が検出されたものとして前記判定手段の判定を行う
ことを特徴とする項目1乃至4のいずれか1つに記載の映像処理装置。
(項目6)
前記検出手段は、プレイヤー、ボールを物体として検出し、前記ボールを追跡対象物体として検出することを特徴とする項目1乃至5のいずれか1つに記載の映像処理装置。
(項目7)
スポーツが行われるコートの全体の俯瞰映像を撮影する第1の撮像装置からの映像に基づき、視線方向が変更可能な第2の撮像装置に対する視線方向を制御する映像処理装置の制御方法であって、
前記第1の撮像装置から受信した映像内の物体を検出する検出工程と、
該検出工程で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御工程とを有し、
前記制御工程は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定工程と、
該判定工程で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定工程と
を有することを特徴とする映像処理装置の制御方法。
(項目8)
コンピュータが読み込み実行することで、前記コンピュータに、項目1乃至6のいずれか1つに記載の装置が有する各手段として機能させるためのプログラム。
The disclosure herein includes the following object tracking device, method, and program.
(Item 1)
An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.
(Item 2)
The determining means is configured to select an object, which is within a preset distance range and has the shortest distance from the position of the tracked object detected from the previous frame, among the objects detected from the current frame, by blocking the tracked object. The image processing device according to item 1, characterized in that the image processing device determines that the object is present.
(Item 3)
If there is no object within a preset distance range from the position of the tracked object detected from the previous frame among the objects detected from the current frame, the determination means detects the position of the tracked object in the previous frame. The video processing device according to item 1 or 2, characterized in that the tracking target object is determined to be located at a position of the current frame estimated from a movement vector.
(Item 4)
The control means determines whether the object to be tracked is present in the current frame of the video received from the first imaging device and whether another object is present within a preset distance from the object to be tracked. further comprising a second determining means for determining whether or not;
The setting means determines that the determination result of the second determination means is that the tracking target object exists in the current frame of the video received from the first imaging device, and that the tracking target object is set in advance from the tracking target object. When indicating that there is no other object within the distance range, another object located on the extension of the movement vector of the tracked object obtained from the current frame and the previous frame is substituted for the tracked object. The video processing device according to any one of items 1 to 3, wherein the video processing device is set as a tracking target.
(Item 5)
The control means causes the determining means to determine that the tracked object has been detected from the current frame when the tracked object is detected consecutively in a preset number of frames up to the current frame. The video processing device according to any one of items 1 to 4, characterized in that the video processing device performs the following.
(Item 6)
6. The video processing device according to any one of items 1 to 5, wherein the detection means detects a player and a ball as objects, and detects the ball as an object to be tracked.
(Item 7)
1. A control method for an image processing device that controls a viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures an overhead image of the entire court on which a sport is played, the method comprising: ,
a detection step of detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected in the detection step, and controlling the second imaging device so that the estimated position is within the angle of view. and a control process to
The control step includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. a determination step of determining based on the positional relationship of the objects;
A method for controlling an image processing device, comprising: a setting step of setting the object determined in the determination step as a tracking target instead of the tracking target object.
(Item 8)
A program that, when read and executed by a computer, causes the computer to function as each means included in the device according to any one of items 1 to 6.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために項目を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Accordingly, the sections are attached to disclose the scope of the invention.
100…映像処理装置、101、102…カメラ、201、208…入力部、202…物体検出部、203…追跡対象入力部、204…追跡対象ベクトル算出部、205…追跡対象決定部、206…追跡対象座標更新部、207…パン・チルト駆動制御部
DESCRIPTION OF
Claims (8)
前記第1の撮像装置から受信した映像内の物体を検出する検出手段と、
該検出手段で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御手段とを有し、
前記制御手段は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定手段と、
該判定手段で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定手段と
を有することを特徴とする映像処理装置。 An image processing device that controls the viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures a bird's-eye view of the entire court where sports are played, the video processing device comprising:
detection means for detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected by the detection means, and controlling the second imaging device so that the estimated position is within the angle of view. and a control means for
The control means includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. determination means for determining based on the positional relationship of the objects;
and setting means for setting the object determined by the determination means as a tracking target instead of the tracking target object.
ことを特徴とする請求項1に記載の映像処理装置。 The determining means is configured to select an object, which is within a preset distance range and has the shortest distance from the position of the tracked object detected from the previous frame, among the objects detected from the current frame, by blocking the tracked object. The image processing device according to claim 1, wherein the image processing device determines that the object is present.
ことを特徴とする請求項1に記載の映像処理装置。 If there is no object within a preset distance range from the position of the tracked object detected from the previous frame among the objects detected from the current frame, the determination means detects the position of the tracked object in the previous frame. The video processing device according to claim 1, wherein the tracking target object is determined to be located at a position of the current frame estimated from a movement vector.
前記設定手段は、該第2の判定手段の判定の結果が、前記第1の撮像装置から受信した映像の現フレームに前記追跡対象物体が存在し、且つ、前記追跡対象物体から予め設定された距離の範囲内に他の物体が存在しないことを示す場合、前記現フレームと前フレームから求めた前記追跡対象物体の移動ベクトルの延長線上に位置する他の物体を、前記追跡対象物体に代って追跡対象に設定する
ことを特徴とする請求項1に記載の映像処理装置。 The control means determines whether the object to be tracked is present in the current frame of the video received from the first imaging device and whether another object is present within a preset distance from the object to be tracked. further comprising a second determining means for determining whether or not;
The setting means determines that the determination result of the second determination means is that the tracking target object exists in the current frame of the video received from the first imaging device, and that the tracking target object is set in advance from the tracking target object. When indicating that there is no other object within the distance range, another object located on the extension of the movement vector of the tracked object obtained from the current frame and the previous frame is substituted for the tracked object. The video processing device according to claim 1, wherein the video processing device is set as a tracking target.
ことを特徴とする請求項1に記載の映像処理装置。 The control means causes the determining means to determine that the tracked object has been detected from the current frame when the tracked object is detected consecutively in a preset number of frames up to the current frame. The video processing device according to claim 1, wherein the video processing device performs the following.
前記第1の撮像装置から受信した映像内の物体を検出する検出工程と、
該検出工程で検出した物体の中の追跡対象物体の移動ベクトルから当該追跡対象物体の移動後の位置を推定し、当該推定された位置を画角内とするよう前記第2の撮像装置を制御する制御工程とを有し、
前記制御工程は、
前記第1の撮像装置から受信した映像の現フレームから検出した物体の中に前記追跡対象物体が含まれていないと判定した場合、前記追跡対象物体を遮っている物体を、前のフレームから検出した物体の位置関係に基づいて判定する判定工程と、
該判定工程で判定した物体を、前記追跡対象物体に代って追跡対象に設定する設定工程と
を有することを特徴とする映像処理装置の制御方法。 1. A control method for an image processing device that controls a viewing direction of a second imaging device whose viewing direction can be changed based on an image from a first imaging device that captures an overhead image of the entire court on which a sport is played, the method comprising: ,
a detection step of detecting an object in the video received from the first imaging device;
Estimating the position of the tracked object after movement from the movement vector of the tracked object among the objects detected in the detection step, and controlling the second imaging device so that the estimated position is within the angle of view. and a control process to
The control step includes:
If it is determined that the tracking target object is not included in the objects detected from the current frame of the video received from the first imaging device, detecting an object blocking the tracking target object from the previous frame. a determination step of determining based on the positional relationship of the objects;
A method for controlling an image processing device, comprising: a setting step of setting the object determined in the determination step as a tracking target instead of the tracking target object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022071835A JP2023161440A (en) | 2022-04-25 | 2022-04-25 | Video processing device, control method for the same, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022071835A JP2023161440A (en) | 2022-04-25 | 2022-04-25 | Video processing device, control method for the same, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023161440A true JP2023161440A (en) | 2023-11-07 |
Family
ID=88650256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022071835A Pending JP2023161440A (en) | 2022-04-25 | 2022-04-25 | Video processing device, control method for the same, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023161440A (en) |
-
2022
- 2022-04-25 JP JP2022071835A patent/JP2023161440A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11594029B2 (en) | Methods and systems for determining ball shot attempt location on ball court | |
US11157742B2 (en) | Methods and systems for multiplayer tagging for ball game analytics generation with a mobile computing device | |
JP7003628B2 (en) | Object tracking program, object tracking device, and object tracking method | |
US10771760B2 (en) | Information processing device, control method of information processing device, and storage medium | |
RU2702160C2 (en) | Tracking support apparatus, tracking support system, and tracking support method | |
US10812686B2 (en) | Method and system for mimicking human camera operation | |
US20020140814A1 (en) | Method for assisting an automated video tracking system in reaquiring a target | |
WO2010036456A2 (en) | Multiple-object tracking and team identification for game strategy analysis | |
CN112703533A (en) | Object tracking | |
JP6649231B2 (en) | Search device, search method and program | |
US20180136306A1 (en) | Device and method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program for performing the same | |
WO2014175356A1 (en) | Information processing system, information processing method, and program | |
Chen et al. | Autonomous camera systems: A survey | |
JP6265299B2 (en) | Generation of trajectory data for video data | |
US11882363B2 (en) | Control apparatus and learning apparatus and control method | |
JP6593922B2 (en) | Image surveillance system | |
US20230164424A1 (en) | Control apparatus, control system, and control program | |
JP2023161440A (en) | Video processing device, control method for the same, and program | |
US20220108536A1 (en) | Method of displaying augmented reality and electronic device for performing same | |
JP6846963B2 (en) | Video playback device, video playback method, video playback program and video playback system | |
JP7332047B2 (en) | Tracking Devices, Tracking Systems, Tracking Methods, and Programs | |
US20230276117A1 (en) | Main object determination apparatus, imaging apparatus, and control method for controlling main object determination apparatus | |
US20240147075A1 (en) | Tracking image capturing system and control method therefor, and storage medium | |
WO2022176189A1 (en) | Video monitor device, video monitor system, video monitor method, and video monitor program | |
US20230177860A1 (en) | Main object determination apparatus, image capturing apparatus, and method for controlling main object determination apparatus |