JP2019066974A - Moving body tracking device, moving body tracking method, and moving body tracking program - Google Patents

Moving body tracking device, moving body tracking method, and moving body tracking program Download PDF

Info

Publication number
JP2019066974A
JP2019066974A JP2017189397A JP2017189397A JP2019066974A JP 2019066974 A JP2019066974 A JP 2019066974A JP 2017189397 A JP2017189397 A JP 2017189397A JP 2017189397 A JP2017189397 A JP 2017189397A JP 2019066974 A JP2019066974 A JP 2019066974A
Authority
JP
Japan
Prior art keywords
image frame
position information
candidate
unit
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017189397A
Other languages
Japanese (ja)
Other versions
JP6412998B1 (en
Inventor
林 建一
Kenichi Hayashi
建一 林
俊輔 南部
Shunsuke Nambu
俊輔 南部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qoncept Inc
Original Assignee
Qoncept Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qoncept Inc filed Critical Qoncept Inc
Priority to JP2017189397A priority Critical patent/JP6412998B1/en
Priority to KR1020180115747A priority patent/KR102078473B1/en
Priority to US16/146,222 priority patent/US10909688B2/en
Priority to CN201811148680.6A priority patent/CN109584268B/en
Application granted granted Critical
Publication of JP6412998B1 publication Critical patent/JP6412998B1/en
Publication of JP2019066974A publication Critical patent/JP2019066974A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Abstract

To track a target moving body with high accuracy using image data even when the moving body has few outstanding features in appearance and there are a plurality of images similar to that of the target moving body in frame images.SOLUTION: Even when a target moving body has few outstanding features in appearance and there are a plurality of images similar to that of the target moving body in frame images, the moving body is tracked with high accuracy by evaluating a predetermined feature (for example, a motion of a ball follows the law of motion and the ball is likely located above a table-tennis table) in a given environment (for example, table-tennis) from image data.SELECTED DRAWING: Figure 1

Description

本発明は、動体追跡装置、動体追跡方法、動体追跡プログラムに関するものである。   The present invention relates to a moving object tracking device, a moving object tracking method, and a moving object tracking program.

従来、画像を用いて動体を追跡する装置が知られている。例えば、特許文献1には、色の動き度合いを評価することによって動体を検出し、追跡する装置が記載されている。   Conventionally, an apparatus for tracking a moving body using an image is known. For example, Patent Document 1 describes an apparatus for detecting and tracking a moving object by evaluating the degree of color movement.

また、特許文献2には、フレーム画像間における画素の移動量を検出し、移動量が最大となる画素の位置を示す画像を重畳することで動体の軌跡を検出して動体追跡する装置が記載されている。   Further, Patent Document 2 describes a device for detecting a moving object trajectory by detecting an amount of movement of pixels between frame images and superimposing an image indicating a position of a pixel at which the amount of movement is maximum. It is done.

国際公表第2012/127618号公報International Publication No. 2012/127618 国際公表第2016/021143号公報International Publication No. 2016/021143

しかしながら、特許文献1に記載の装置にあっては、色の動き度合いを評価することによって動体を検出し、追跡することから、例えば、卓球のボールやゴルフのボール等のように、色彩や形状等の外観的に際立った特徴が少ない動体をそれら特徴に頼ることなく追跡することが難しい。   However, in the device described in Patent Document 1, since the moving body is detected and tracked by evaluating the degree of movement of the color, for example, color and shape such as table tennis ball and golf ball etc. It is difficult to track moving objects with few appearanceally distinctive features such as etc. without relying on those features.

また、例えば、バレーボールやサッカーのボール等のように、色彩や形状等の外観的に特徴がある動体であったとしても、候補が複数検出されるような場合は目標物をひとつに特定することができなければ追跡が難しい。   Also, for example, even if the moving object has an appearance feature such as color or shape, such as a volleyball or soccer ball, if a plurality of candidates are detected, one target should be specified. If you can not track down is difficult.

特許文献2に記載の装置にあっては、フレーム画像間における画素の移動量から動体の軌跡を検出して動体追跡するが、例えば卓球等では、競技に使用中のボールの他にも、練習時に使用して床に転がっているボールや審判等が持つ予備のボール等、複数のフレーム画像中に追跡の目的とするボールと同様の画像が複数存在する場合も多く、また、ボール以外の類似の特徴をもつ物体を追跡対象として誤検出してしまう恐れもある。このような場合において高精度に動体追跡することが難しい。   In the device described in Patent Document 2, the trajectory of a moving body is detected from the movement amount of pixels between frame images to track the moving body. For example, in table tennis etc., in addition to the ball being used for competition, practice is also performed. There are many cases where there are multiple images similar to the ball for the purpose of tracking in multiple frame images, such as balls used on occasion and balls on the floor and spare balls possessed by referees, etc. There is also a possibility that an object having the following features is erroneously detected as a tracking target. In such a case, it is difficult to track moving objects with high accuracy.

本発明に係る動体追跡装置は、画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡する動体追跡装置であって、画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成部と、前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持部と、前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測部と、前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し、前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出部と、前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定部と、前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡部と、を備えることを特徴とする。   A moving object tracking device according to the present invention is a moving object tracking device that uses an image data to track the movement of an object having a particular feature in a given environment, and is detected from the image data in an image frame. A position information generation unit that generates position information of all objects having a specific feature; a candidate position holding unit that holds the position information of a plurality of candidates for the object that are likely to be tracking targets for each image frame; For the candidate of the first image frame for which the candidate position holding unit holds the position information, predicted position information in the second image frame continuous to the first image frame based on the motion model determined from the given environment Calculating the position information, calculating the position information generated by the position information generation unit from the image data in the second image frame, the position From the predicted position information in the second image frame, a likelihood score indicating the degree of coincidence of the position is calculated for each combination, and one or more of the second image frame is calculated based on the likelihood score. The candidate extraction unit which extracts the candidate and outputs position information of the extracted candidate to the candidate position holding unit, and the position information of the candidate extracted by the candidate extraction unit is determined from the given environment A target position identifying unit for identifying position information of the object which is the tracking target in the image frame based on an evaluation score indicating likelihood as a tracking target, and a position of the object identified by the target position identifying unit And a moving object tracking unit that tracks the movement of the object by tracing information in successive image frames.

本発明に係る動体追跡装置では、前記候補抽出部は、前記位置予測部が前記予測位置情報の算出の基礎とした前記第1画像フレームの前記候補が同じである前記第2画像フレームでの前記物体の候補の数に上限を定めることができる。   In the moving object tracking device according to the present invention, the candidate extraction unit may be configured to use the second image frame in which the candidates for the first image frame based on which the position prediction unit calculates the predicted position information are the same. An upper limit can be set on the number of object candidates.

本発明に係る動体追跡装置では、前記候補抽出部は、前記第1画像フレームの前記候補のすべてについて各々を基礎とした少なくとも一つの前記第2画像フレームでの前記候補を抽出することができる。   In the moving object tracking device according to the present invention, the candidate extraction unit can extract the candidates in at least one second image frame based on each of all the candidates of the first image frame.

本発明に係る動体追跡装置では、前記候補抽出部は、前記尤度スコアが閾値以上でない前記第2画像フレームでの前記候補については前記候補から除外することができる。   In the moving object tracking device according to the present invention, the candidate extraction unit can exclude the candidate in the second image frame whose likelihood score is not equal to or more than a threshold from the candidates.

本発明に係る動体追跡装置では、前記位置予測部は、前記運動モデルとして前記第1画像フレームでの物体の位置と速度に基づいて前記第2画像フレームでの予測位置情報を算出することができる。   In the moving object tracking device according to the present invention, the position prediction unit can calculate predicted position information in the second image frame based on the position and velocity of the object in the first image frame as the motion model. .

本発明に係る動体追跡装置では、目標位置特定部は、前記評価スコアを目標物体の存在確率分布に基づく位置スコアと前記目標物体の速度に基づく運動スコアから求めて前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定することができる。   In the moving object tracking device according to the present invention, the target position specifying unit obtains the evaluation score from the position score based on the presence probability distribution of the target object and the motion score based on the velocity of the target object, and uses the tracking target in the image frame. The position information of a certain object can be specified.

また、本発明に係る動体追跡方法では、画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡する動体追跡方法であって、画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成ステップと、前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持ステップと、前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測ステップと、前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し、前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出ステップと、前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定ステップと、前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡ステップと、備えることを特徴とする。   A moving object tracking method according to the present invention is a moving object tracking method for tracking the movement of an object having a specific feature in a given environment using image data, which is detected from the image data in an image frame. Position information generating step of generating position information of all objects having the specific feature; candidate position holding step of holding the position information of a plurality of candidates for the object likely to be tracking targets for each image frame And predicting the second image frame continuous with the first image frame based on a motion model determined from the given environment for the candidate of the first image frame for which the candidate position holding unit holds the position information. A position prediction step of calculating position information, and the position information generated by the position information generation unit from the image data in the second image frame A likelihood score indicating the degree of coincidence of positions is calculated for each combination from the predicted position information in the second image frame calculated by the position prediction unit, and the second image is calculated based on the likelihood score. A candidate extraction step of extracting one or more candidates in a frame and outputting position information of the extracted candidates to the candidate position storage unit; and position information of the candidates extracted by the candidate extraction unit; A target position specifying step of specifying position information of the object which is the tracking target in the image frame based on an evaluation score indicating the likelihood as the tracking target determined from the given environment; Moving object tracking step of tracing the movement of the object by tracing the position information of the object specified by , Characterized in that it comprises.

また、本発明に係る動体追跡プログラムでは、コンピュータを、画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡ように機能させる動体追跡プログラムであって、画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成部、前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持部、前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測部、前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出部、前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定部、前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡部、として機能させることを特徴とする。   The moving object tracking program according to the present invention is a moving object tracking program that causes a computer to use an image data to track the movement of an object having a particular feature in a given environment, in an image frame. A position information generation unit that generates position information of all objects having the specific feature detected from the image data; and holds position information of a plurality of candidates for the object likely to be tracking targets for each image frame A candidate position holding unit; a second image continuous with the first image frame based on a motion model determined from the given environment for the candidate of the first image frame for which the candidate position holding unit holds the position information; A position prediction unit that calculates predicted position information in a frame; and a position information generation unit that generates the position information generation unit from the image data in the second image frame. Based on the position information and the predicted position information in the second image frame calculated by the position prediction unit, a likelihood score indicating the degree of coincidence of the position is calculated for each combination, and the likelihood score is calculated based on the likelihood score. A candidate extraction unit that extracts one or more of the candidates in the second image frame and outputs position information of the extracted candidates to the candidate position storage unit; positions of the candidates extracted by the candidate extraction unit A target position identifying unit for specifying position information of the object which is the tracking target in the image frame based on an evaluation score indicating likelihood as the tracking target determined from the given environment from information; As a moving body tracking unit that tracks the movement of the object by tracing the position information of the object specified by the specifying unit in the successive image frames Characterized in that to ability.

以上のように本発明によれば、前述の課題を解決しつつ、高精度に動体を追跡することができる。   As described above, according to the present invention, it is possible to track a moving object with high accuracy while solving the above-mentioned problems.

動体追跡装置を備える装置のブロック図である。FIG. 1 is a block diagram of an apparatus including a motion tracking device. 図1に示す装置のハードウェア構成図である。It is a hardware block diagram of the apparatus shown in FIG. カメラで撮像した卓球での画像を模式的に表した図である。It is the figure which represented typically the image in the table tennis imaged with the camera. 動体追跡装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a moving body tracking device. 動体追跡装置の動作を説明するにあたって使用する記号を模式的に示した図である。It is the figure which showed typically the symbol used in demonstrating the operation | movement of a moving body tracking device. 動体追跡装置の候補抽出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the candidate extraction part of a moving body tracking device. 動体追跡装置の目標位置特定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the target position identification part of a moving body tracking device. 第2実施形態に係る尤度スコアによる候補抽出処理について示すフローチャートである。It is a flowchart shown about the candidate extraction process by the likelihood score which concerns on 2nd Embodiment. 第2実施形態に係る候補抽出部が行う尤度スコアによる候補抽出処理を模式的に示した図である。It is the figure which showed typically the candidate extraction process by the likelihood score which the candidate extraction part which concerns on 2nd Embodiment performs. 第3実施形態に係る尤度スコアによる候補抽出処理について示すフローチャート(前半)である。It is a flowchart (the first half) shown about the candidate extraction process by the likelihood score which concerns on 3rd Embodiment. 第3実施形態に係る尤度スコアによる候補抽出処理について示すフローチャート(後半)である。It is a flow chart (the second half) showing about candidate extraction processing by a likelihood score concerning a 3rd embodiment. 第3実施形態に係る候補抽出部が行う尤度スコアによる候補抽出処理を模式的に示した図である。It is the figure which showed typically the candidate extraction process by the likelihood score which the candidate extraction part which concerns on 3rd Embodiment performs.

本発明の実施形態について図面を参照して説明する。なお、重複する説明は省略し、各図面において同一又は相当部分には同一の符号を付す。   Embodiments of the present invention will be described with reference to the drawings. In addition, the overlapping description is abbreviate | omitted and the same code | symbol is attached | subjected to an identical or equivalent part in each drawing.

(第1実施形態)
本実施形態に係る動体追跡装置は、画像を用いて動体を追跡する装置である。本実施形態に係る動体追跡装置は、例えば、卓球、ゴルフ、野球、バレーボール等の球技等においてボールの動きを追跡するような、定められたフィールド内において運動法則に従って運動する色彩や形状等の外観的に際立った特徴が少ない動体を高精度に追跡する装置に好適に採用されるものである。これは例示であって、運動競技のみに適用を限るものではない。
First Embodiment
The moving body tracking device according to the present embodiment is a device for tracking a moving body using an image. The moving object tracking device according to the present embodiment is, for example, an appearance such as color or shape that moves according to a motion law within a defined field, such as tracking the movement of a ball in ball games such as table tennis, golf, baseball, volleyball, etc. The present invention is preferably employed in an apparatus for tracking a moving object with few distinctive features with high accuracy. This is an example and does not limit the application to athletics only.

図1は、動体追跡装置1を備える装置2のブロック図である。図1に示す装置2は、例えば、スマートフォン、情報携帯端末、デジタルカメラ、ゲーム端末、テレビ等の電化製品であって、図2に示すハードウェア構成を有する。図2に示すように、装置2は、物理的には、中央演算装置(CPU)201、入力装置202、出力装置203、主記憶装置(RAM/ROM)204、補助記憶装置205等を含むコンピュータシステムとして構成される。入力装置202としては、カメラ、タッチスクリーン、キーボード等、出力装置203としては、ディスプレイ、プリンタ等で具体的には構成される。装置2は、通信モジュール等を備えてネットワークに接続する構成でもよい。また、動体追跡装置1が、中央演算装置(CPU)201、入力装置202、出力装置203、主記憶装置(RAM/ROM)204、補助記憶装置205等を含むコンピュータシステムとして構成されてもよい。   FIG. 1 is a block diagram of an apparatus 2 provided with a moving object tracking apparatus 1. The device 2 shown in FIG. 1 is, for example, an electric appliance such as a smartphone, an information portable terminal, a digital camera, a game terminal, a television, etc., and has a hardware configuration shown in FIG. As shown in FIG. 2, the device 2 physically includes a central processing unit (CPU) 201, an input device 202, an output device 203, a main storage device (RAM / ROM) 204, an auxiliary storage device 205, and the like. Configured as a system. As the input device 202, a camera, a touch screen, a keyboard and the like, and as the output device 203, a display, a printer and the like are specifically configured. The device 2 may be configured to include a communication module or the like to connect to a network. Also, the moving object tracking device 1 may be configured as a computer system including a central processing unit (CPU) 201, an input device 202, an output device 203, a main storage device (RAM / ROM) 204, an auxiliary storage device 205, and the like.

動体追跡装置1及び装置2の各機能は、図2に示す中央演算装置(CPU)201、主記憶装置(RAM/ROM)204等に所定のコンピュータソフトウェアを読み込ませることにより、中央演算装置(CPU)201の制御により入力装置202、出力装置203を動作させるとともに、主記憶装置(RAM/ROM)204、補助記憶装置205とデータの読み書きを行うことで実現される。   Each function of the moving object tracking device 1 and the device 2 is processed by reading predetermined computer software into the central processing unit (CPU) 201, the main storage unit (RAM / ROM) 204, etc. shown in FIG. This is realized by operating the input device 202 and the output device 203 under the control of) 201 and reading and writing data with the main storage device (RAM / ROM) 204 and the auxiliary storage device 205.

図1に示すように、装置2は、カメラ21、検出部22、動体追跡装置1及び表示部23を備えている。また、動体追跡装置1は、情報入力部10、位置情報生成部11、候補位置保持部12、位置予測部13、候補抽出部14、目標位置特定部15及び動体追跡部16を備えている。   As shown in FIG. 1, the device 2 includes a camera 21, a detection unit 22, a moving object tracking device 1, and a display unit 23. The moving object tracking device 1 further includes an information input unit 10, a position information generating unit 11, a candidate position holding unit 12, a position predicting unit 13, a candidate extracting unit 14, a target position specifying unit 15, and a moving object tracking unit 16.

カメラ21は、例えば、撮像素子等が用いられ、画像又は動画を撮像する機能を有している。カメラ21は、単眼であっても、複眼であってもよい。カメラ21は、撮像した複数の画像又は動画を画像フレームとして検出部へ出力する機能を有している。   For example, an imaging device or the like is used as the camera 21 and has a function of capturing an image or a moving image. The camera 21 may be a single eye or a compound eye. The camera 21 has a function of outputting a plurality of captured images or moving images as an image frame to the detection unit.

検出部22は、カメラ21から入力された画像フレーム内の画像データから目標物体の特徴と一致する候補をすべて検出する機能を有している。例えば、パターンマッチングや統計的学習手法等を利用して候補を検出する。検出部22は、画像フレーム内の画像データから検出された候補についての情報を動体追跡装置1の情報入力部10に出力する機能を有している。   The detection unit 22 has a function of detecting all candidates that match the feature of the target object from the image data in the image frame input from the camera 21. For example, candidates are detected using pattern matching, a statistical learning method, or the like. The detection unit 22 has a function of outputting information on a candidate detected from image data in an image frame to the information input unit 10 of the moving object tracking device 1.

動体追跡装置1は、検出部22から入力された画像フレーム内の画像データから検出された候補についての情報から目標物体の画像フレームでの位置情報を特定してトレースすることで目標物体を追跡する機能を有している。動体追跡装置1は、特定した目標物体の各フレームでの位置情報を表示部23に出力する機能を有している。   The motion tracking device 1 tracks a target object by specifying and tracing position information in an image frame of a target object from information on a candidate detected from image data in an image frame input from the detection unit 22. It has a function. The moving object tracking device 1 has a function of outputting the position information of each frame of the specified target object to the display unit 23.

情報入力部10は、検出部22から入力された画像フレーム内の画像データから検出された候補についての情報から必要な情報を位置情報生成部11に出力する機能を有している。必要な情報として、少なくとも、画像フレームを特定するための情報(以下、画像フレーム番号)、候補の位置を特定するための情報(以下、位置情報)がある。情報入力部10は、画像フレーム番号を位置予測部13に出力する機能を有している。また、情報入力部10は、一定の間隔で画像フレームを抽出(以下、コマ落とし)して必要な情報を位置情報生成部11に出力する機能を有していてもよい。   The information input unit 10 has a function of outputting necessary information to the position information generation unit 11 from information on candidates detected from the image data in the image frame input from the detection unit 22. Necessary information includes at least information for specifying an image frame (hereinafter, image frame number) and information for specifying a position of a candidate (hereinafter, position information). The information input unit 10 has a function of outputting an image frame number to the position prediction unit 13. In addition, the information input unit 10 may have a function of extracting (hereinafter, frame dropping) image frames at a constant interval and outputting necessary information to the position information generation unit 11.

位置情報生成部11は、情報入力部10から入力された画像フレーム内の画像データから検出された候補についての情報から各々の候補の位置情報を生成する機能を有している。例えば、カメラ21が単眼である場合は2次元の、カメラ21が複眼である場合には3次元の座標軸を設定して各々の候補の位置情報(座標)を生成する。位置情報生成部11は、動体の追跡に影響を与える位置に関する条件を候補の位置情報に反映する機能を有している。例えば、卓球のボールの追跡における卓球台の座標領域などである。位置情報生成部11は、生成した位置情報を候補抽出部14に出力する機能を有している。   The position information generation unit 11 has a function of generating position information of each candidate from information on candidates detected from image data in the image frame input from the information input unit 10. For example, if the camera 21 is a monocular, two-dimensional coordinate axes are set, and if the camera 21 is a compound eye, position information (coordinates) of each candidate is generated. The position information generation unit 11 has a function of reflecting the condition related to the position affecting the tracking of the moving body in the position information of the candidate. For example, it is a coordinate area of a table tennis table in tracking of a table tennis ball. The position information generation unit 11 has a function of outputting the generated position information to the candidate extraction unit 14.

候補位置保持部12は、候補抽出部14から入力された上位候補についての情報を保持する機能を有している。候補抽出部14の機能及び上位候補の定義については後述する。候補位置保持部12は、上位候補についての情報として、少なくとも、画像フレーム番号、上位候補の位置情報及び尤度スコアを保持する機能を有している。尤度スコアについては後述する。   The candidate position holding unit 12 has a function of holding information on upper candidates inputted from the candidate extraction unit 14. The function of the candidate extraction unit 14 and the definition of the upper candidate will be described later. The candidate position holding unit 12 has a function of holding at least an image frame number, position information of a high candidate, and a likelihood score as information on the high candidate. The likelihood score will be described later.

位置予測部13は、情報入力部10から入力された画像フレーム番号で指定される画像フレーム(第2画像フレーム)と連続する画像フレーム(第1画像フレーム)における上位候補についての情報を候補位置保持部12に問い合わせて取得する機能を有している。   The position prediction unit 13 holds candidate position information on upper candidates in the image frame (first image frame) continuous with the image frame (second image frame) specified by the image frame number input from the information input unit 10 It has a function of inquiring to the unit 12 and acquiring it.

ここで、連続する画像フレームとは、2つの画像フレームの間に別の画像フレームが存在しない状態であって、必ずしも画像フレーム番号が連続である必要はない。例えば、2つの画像フレームが連続であっても、もともと間に存在した画像フレームがコマ落とし処理されたために画像フレーム番号が連続でない場合などがある。また、連続する画像フレームとは、時刻が前の連続する画像フレームであっても、時刻が後の連続する画像フレームであってもよい。時間の流れに沿っての動体追跡を行う場合には時刻が前の連続する画像フレーム、時間の流れを遡っての動体追跡を行う場合には時刻が後の連続する画像フレームとなる。なお、連続する画像フレームについては、本特許出願に係る書面においては他も同様である。   Here, a continuous image frame is a state in which another image frame does not exist between two image frames, and the image frame numbers do not necessarily have to be continuous. For example, even if two image frames are continuous, there is a case where image frame numbers are not continuous because image frames originally existing between the frames are dropped. Further, the continuous image frame may be a continuous image frame whose time is before or a continuous image frame whose time is later. In the case of performing moving object tracking along the flow of time, the time is a previous continuous image frame, and in the case of performing moving object tracking retroactive to the flow of time, the time is a subsequent continuous image frame. The same applies to the successive image frames in the document pertaining to the present patent application.

位置予測部13は、候補位置保持部12から取得した情報に基づいて連続する画像フレーム(第1画像フレーム)の各々の上位候補について、当該画像フレーム(第2画像フレーム)での予測位置情報を算出する機能を有している。予測位置情報は、例えば、上位候補の位置と速度から算出する。また、例えば、卓球のボールであれば卓球台でバウンドすることにより速度が変化するなどの環境による特有の情報を算出において考慮する運動モデルを定義する。位置予測部13は、算出した予測位置情報を候補抽出部14に出力する機能を有している。   The position prediction unit 13 calculates predicted position information in the image frame (second image frame) for each upper candidate of consecutive image frames (first image frame) based on the information acquired from the candidate position holding unit 12. It has a function to calculate. The predicted position information is calculated, for example, from the position and velocity of the upper candidate. Further, for example, in the case of a table tennis ball, an exercise model is defined which takes into consideration information specific to the environment such as a change in speed by bouncing on the table tennis table. The position prediction unit 13 has a function of outputting the calculated predicted position information to the candidate extraction unit 14.

候補抽出部14は、位置情報生成部11から入力された画像フレーム(第2画像フレーム)内の画像データから検出された候補について位置情報と、位置予測部13から入力された同じ画像フレーム(第2画像フレーム)での予測位置情報から尤度スコアを算出する機能を有している。ここで、尤度スコアとは、候補についての位置情報と予測位置情報の各々の組合せについて位置の一致度を示すスコアであって、例えば、各々の距離が小さいほどスコアが大きい。候補抽出部14は、尤度スコアの算出に必要な予測位置情報を位置予測部13に問い合わせて取得する機能を有している。候補抽出部14は、尤度スコアの上位から定めた数の候補を上位候補として、その位置情報を目標位置特定部15に出力する機能を有している。また、候補抽出部14は、上位候補の位置情報等を候補位置保持部12に出力する機能を有している。   The candidate extracting unit 14 detects the position information of the candidate detected from the image data in the image frame (second image frame) input from the position information generating unit 11 and the same image frame input from the position predicting unit 13 It has a function of calculating a likelihood score from predicted position information in two image frames). Here, the likelihood score is a score indicating the degree of coincidence of positions for each combination of position information and predicted position information for a candidate, and for example, the smaller the distance, the larger the score. The candidate extraction unit 14 has a function of inquiring the position prediction unit 13 of predicted position information necessary for calculation of the likelihood score. The candidate extraction unit 14 has a function of outputting the position information to the target position identification unit 15 with the number of candidates determined from the top of the likelihood score as the top candidates. In addition, the candidate extraction unit 14 has a function of outputting position information and the like of upper candidates to the candidate position holding unit 12.

目標位置特定部15は、候補抽出部14から入力された上位候補の位置情報から評価スコアを算出する機能を有している。ここで、評価スコアとは追跡目標としての尤もらしさを示すスコアである。評価スコアは、例えば、位置スコアと運動スコアの組合せによって定義する。ここで、位置スコアとは、目標物体の存在確率分布に基づいてスコア化したものである。例えば、目標物体が卓球のボールである場合、卓球台の上部はボールの存在確率が高いため位置スコアは大きく、卓球台の下部はボールの存在確率が低いため位置スコアは小さくなる。また、ここで、運動スコアとは、目標物体の速度に基づいてスコア化したものである。例えば、目標物体が卓球のボールである場合、速度の大きさが一定以下の場合には運動スコアは小さく、卓球台の付近で反射運動をした場合には運動スコアが高くなる。評価スコアの定義として、位置スコアと運動スコアを単純に加算してもよいし、重みづけをして加算する、乗算する等で定義してもよい。目標位置特定部15は、評価スコアが最も上位の候補位置をその画像フレームにおける目標物体の位置として特定する機能を有している。目標位置特定部15は、特定した目標物体の位置情報を動体追跡部16に出力する機能を有している。   The target position specifying unit 15 has a function of calculating an evaluation score from the position information of the upper candidate input from the candidate extracting unit 14. Here, the evaluation score is a score indicating the likelihood as a tracking target. The evaluation score is defined by, for example, a combination of a position score and a motion score. Here, the position score is a score based on the presence probability distribution of the target object. For example, when the target object is a table tennis ball, the position score is high because the ball probability is high at the top of the table tennis table, and the position score is low because the ball probability is low at the bottom of the table tennis table. Here, the movement score is a score based on the velocity of the target object. For example, when the target object is a table tennis ball, the movement score is small when the magnitude of the velocity is below a certain level, and the movement score is high when the reflex movement is performed near the table tennis table. As a definition of the evaluation score, the position score and the motion score may be simply added, or may be defined by weighting and adding, multiplication and the like. The target position specifying unit 15 has a function of specifying the candidate position of the highest evaluation score as the position of the target object in the image frame. The target position specifying unit 15 has a function of outputting the specified position information of the target object to the moving object tracking unit 16.

動体追跡部16は、目標位置特定部15から入力された各々の画像フレームにおける特定した目標物体の位置情報をトレースして追跡する機能を有している。動体追跡部16は、トレースした目標物体の各フレームでの位置情報を表示部23に出力する機能を有している。   The moving body tracking unit 16 has a function of tracing and tracking the position information of the specified target object in each image frame input from the target position specifying unit 15. The moving body tracking unit 16 has a function of outputting the position information of the traced target object in each frame to the display unit 23.

表示部23は、動体追跡装置1の動体追跡部16から入力された目標物体の各フレームでの位置情報を、例えば、ディスプレイ等に連続的に表示することで目標物体の軌跡を表示する機能を有している。   The display unit 23 has a function of displaying the locus of the target object by continuously displaying the position information of each frame of the target object input from the moving object tracking unit 16 of the moving object tracking device 1 on a display or the like, for example. Have.

次に、本実施形態に係る動体追跡装置1の動作について説明する。なお、説明理解の容易性を考慮して、本発明に係る動体追跡装置の動作の例として、卓球におけるボールを追跡する動体追跡装置を説明する。   Next, the operation of the moving object tracking device 1 according to the present embodiment will be described. A moving object tracking device for tracking a ball in table tennis will be described as an example of the operation of the moving object tracking device according to the present invention in consideration of the ease of explanation and understanding.

卓球を所与の環境とする場合に考慮すべき特徴を説明する。図3は、カメラ21で撮像した卓球での画像を模式的に表した図である。ボールには色彩や形状等の外観的に際立った特徴が少ないことから、画像内のボールを検出する場合には、検出部22の検出精度によって例えば観客の顔等のボール以外のもの(304)が誤検出される可能性があるとの特徴を有している。また、目標物体である競技に使用されているボール(301)以外にも予備のボール(302)や床に転がっているボール(303)など目標物体以外が検出されるとの特徴を有している。このため、競技に使用されているボール(301)以外であって誤検出された候補(304)や、ボールであっても目標物体ではない候補(302、303)を排除して目標物体を追跡する事が求められる。   Describe the features to be considered when making table tennis a given environment. FIG. 3: is the figure which represented typically the image in the table tennis imaged with the camera 21. As shown in FIG. Since the ball has few distinctive features such as color and shape in appearance, when detecting the ball in the image, the detection accuracy of the detection unit 22 is anything other than the ball such as the face of the audience (304) Has the feature that it may be falsely detected. In addition to the ball (301) used in the competition, which is the target object, there is also a feature that other objects than the target object such as a spare ball (302) and a ball (303) rolling on the floor are detected. There is. For this reason, the target object is tracked excluding the candidate (304) other than the ball (301) used in the game and erroneously detected, and the candidate (302, 303) which is not the target object even if it is the ball. It is required to

卓球を所与の環境とする場合に考慮すべき特徴として、例えば、プレイヤーの使用するボールの変更等によって、これまでとは別のボールへの目標物体の変更に対応する必要があるとの特徴を有している。   A feature to be considered when given table tennis as a given environment is, for example, a feature that it is necessary to cope with the change of the target object to another ball by changing the ball used by the player, etc. have.

卓球を所与の環境とする場合に考慮すべき特徴として、図3に示すように、目標物体であるボールは卓球台の上部に存在する確率が高いとの特徴を有している。また、ボールの運動は運動法則に従うとの特徴を有しているが、放物運動や卓球台への衝突時に向きを変える(跳ね返る)運動(301)を頻繁に行う一方で、停止(302)や低速での直進(転がる)運動(303)は発生しにくいとの特徴を有している。目標物体の特定にあたりこれら特徴を考慮することで精度が上がる。   As a feature to be considered when using table tennis as a given environment, as shown in FIG. 3, the ball which is the target object has a feature of having a high probability of being present at the top of the table tennis table. In addition, the movement of the ball is characterized by the movement law, but it frequently stops turning (302) while performing a parabola movement and a movement (301) that changes direction (bounces) upon collision with a table tennis table. Also, it has a feature that straight movement (rolling) movement (303) at low speed is hard to occur. The accuracy is improved by considering these features in identifying the target object.

図4は、本実施形態に係る動体追跡装置1の動作を示すフローチャートである。なお、説明理解の容易性を考慮して、図4の実行前に動体追跡装置1の候補位置保持部12は第1画像フレームにおける上位候補についての情報を保持しているものとして説明する。   FIG. 4 is a flowchart showing the operation of the moving object tracking device 1 according to the present embodiment. In addition, the candidate position holding part 12 of the moving body tracking device 1 is demonstrated as what hold | maintains the information about the high-order candidate in a 1st image frame before execution of FIG. 4 in consideration of the ease of description understanding.

図5は、本実施形態に係る動体追跡装置1の動作を説明するにあたって使用する記号を模式的に示した図である。t0フレームとtフレームは連続した画像フレームである。Pn(t0)は、t0フレームでの上位候補のn番目である。Vn(t0)は、Pn(t0)の速度である。Qn(t)は、tフレームでの予測候補のn番目であって、Pn(t0)を基礎としたtフレームでの位置として予測される。Am(t)は、tフレームで検出された全候補のm番目である。Dmn(t)は、Qn(t)とAm(t)の距離である。これら記号の意味は、本特許出願に係る書面においては他も同様である。   FIG. 5 is a view schematically showing symbols used to explain the operation of the moving object tracking device 1 according to the present embodiment. The t0 frame and the t frame are continuous image frames. Pn (t0) is the n-th high-level candidate in the t0 frame. Vn (t0) is the speed of Pn (t0). Qn (t) is the nth prediction candidate in t frame and is predicted as a position in t frame based on Pn (t0). Am (t) is the m-th of all candidates detected in t frame. Dmn (t) is the distance between Qn (t) and Am (t). The meanings of these symbols are the same in other documents relating to the present patent application.

図4に示すように、まず情報入力部10が、画像フレーム(第2画像フレーム)内の画像データから検出された候補についての情報を入力した後、入力した情報から必要な情報(少なくとも、画像フレーム番号と位置情報)を抽出して位置情報生成部11と位置予測部13に出力する処理を行う(S401)。この際、あわせてコマ落とし処理を行ってもよい(S401)。S401の処理が終了すると、位置情報生成処理(S403)及び位置予測処理(S407)に移行する。   As shown in FIG. 4, first, the information input unit 10 inputs information on candidates detected from image data in an image frame (second image frame), and then necessary information from the input information (at least the image A process of extracting the frame number and the position information) and outputting it to the position information generation unit 11 and the position prediction unit 13 is performed (S401). At this time, frame dropping processing may be performed at the same time (S401). When the process of S401 ends, the process proceeds to position information generation process (S403) and position prediction process (S407).

S403の処理では、位置情報生成部11が情報入力部10から入力された候補についての位置情報を以降の処理に適した座標系での位置情報に変換する処理を行う。本実施形態での卓球におけるボールを追跡する例では、カメラ21が複眼であるとして、原点を卓球台の中心から下した垂線と床面との交点、X軸を卓球台の長辺方向、Y軸を卓球台の短辺方向、Z軸を卓球台に対して垂直方向とし、上方に向かってを正、下方に向かってを負とする3次元の座標系で説明する。また、競技に使用される卓球台の領域は、座標系に従うと、−1.370≦X≦1.370、−0.7625≦Y≦0.7625、Z=0.76となる。S403の処理が終了すると、候補検出処理(S409)に移行する。   In the process of S403, the position information generation unit 11 converts the position information of the candidate input from the information input unit 10 into position information in a coordinate system suitable for the subsequent processes. In the example of tracking the ball in table tennis in the present embodiment, assuming that the camera 21 has a compound eye, the intersection point of the vertical line where the origin is lowered from the center of the table tennis table and the floor, the X axis is the long side direction of the table tennis table, Y The axis is the short side direction of the table tennis table, the Z axis is the vertical direction with respect to the table tennis table, and the upper side is positive and the lower side is negative. Moreover, according to the coordinate system, the area of the table tennis table used for the game is −1.370 ≦ X ≦ 1.370, −0.7625 ≦ Y ≦ 0.7625, Z = 0.76. When the process of S403 ends, the process moves to a candidate detection process (S409).

S407の処理では、位置予測部13が情報入力部10から入力された画像フレーム番号で指定される画像フレーム(第2画像フレーム)と連続する画像フレーム(第1画像フレーム)における上位候補についての位置情報を候補位置情報(D405)取得する処理を行う。次に、第1画像フレームの各々の上位候補についての第2画像フレームでの予測位置情報を算出する処理を行う。第1画像フレームをt0フレーム、第2画像フレームをtフレームとすると、本実施形態での卓球におけるボールを追跡する例では予測位置Qn(t)は次の数式で求められる。ここで、数式における単位系はMKS単位系をとり、以下において同様である。
Qn(t)=Pn(t0)+Vn(t0)
ただし、以下の条件をすべて満たす場合はボールが卓球台の上方に位置する場合であり、バウンドを考慮して予測位置Qn(t)は次の数式で求められる。なお、Qn(t).XはQn(t)のX座標を、Qn(t).YはQn(t)のY座標を、Qn(t).ZはQn(t)のZ座標を、それぞれ表しており、以下において同様の表記法をとる。
Pn(t0).Z>0.76、かつ
−1.370≦Qn(t).X≦1.370、かつ
−0.7625≦Qn(t).Y≦0.7625、の場合
Qn(t)=(Qn(t).X,Qn(t).Y,|Qn(t).Z−0.76|+0.76)
S407の処理が終了すると、候補抽出処理(S409)に移行する。
In the process of S407, the position prediction unit 13 detects the position of the upper candidate in the image frame (first image frame) continuous with the image frame (second image frame) specified by the image frame number input from the information input unit 10. A process of acquiring information on candidate position information (D405) is performed. Next, a process of calculating predicted position information in the second image frame for upper candidates of each first image frame is performed. Assuming that the first image frame is t0 frame and the second image frame is t frame, the predicted position Qn (t) can be obtained by the following equation in the example of tracking the ball in table tennis in this embodiment. Here, the unit system in the formula is the MKS unit system, and so forth.
Qn (t) = Pn (t0) + Vn (t0)
However, when all of the following conditions are satisfied, the ball is located above the table tennis table, and the predicted position Qn (t) can be obtained by the following equation in consideration of the bounce. Qn (t). X is the X coordinate of Qn (t), Qn (t). Y is the Y coordinate of Qn (t), Qn (t). Z represents the Z coordinate of Qn (t), and takes the same notation in the following.
Pn (t0). Z> 0.76, and −1.370 ≦ Qn (t). X ≦ 1.370, and −0.7625 ≦ Qn (t). In the case of Y ≦ 0.7625, Qn (t) = (Qn (t) .X, Qn (t) .Y, | Qn (t) .Z−0.76 | +0.76)
When the process of S407 ends, the process moves to a candidate extraction process (S409).

S409の処理では、候補抽出部14が位置情報生成部11から入力された第2画像フレーム内の画像データから検出された候補についての位置情報と、位置予測部13から入力された同じ第2画像フレームでの予測位置情報から尤度スコアを算出して、第2画像フレームでの上位候補を抽出するとともに、候補位置情報(D405)として出力する処理を行う。この処理の詳細は後述する。S409の処理が終了すると、目標位置特定処理(S411)に移行する。   In the process of S409, position information on the candidate detected from the image data in the second image frame input from the position information generation unit 11 by the candidate extraction unit 14 and the same second image input from the position prediction unit 13 The likelihood score is calculated from the predicted position information in the frame, and the upper candidate in the second image frame is extracted, and is output as the candidate position information (D405). Details of this process will be described later. When the process of S409 ends, the process moves to a target position identification process (S411).

S411の処理では、目標位置特定部15が候補抽出部14から入力された上位候補の位置情報から評価スコアを算出して、評価スコアが最も上位の候補位置をその画像フレームにおける目標物体の位置として特定する処理を行う。この処理の詳細は後述する。S411の処理が終了すると動体追跡処理(S413)に移行する。   In the process of S411, the target position specifying unit 15 calculates an evaluation score from the position information of the upper candidate input from the candidate extraction unit 14, and sets the candidate position of the highest evaluation score as the position of the target object in the image frame. Perform processing to identify. Details of this process will be described later. When the process of S411 ends, the process proceeds to moving object tracking process (S413).

S413の処理では、動体追跡部16が目標位置特定部15から入力された各々の画像フレームにおける特定した目標物体の位置情報をトレースして追跡する処理を行う。S413の処理が終了すると、表示処理(S415)に移行する。   In the process of S413, the moving body tracking unit 16 traces and tracks the position information of the specified target object in each image frame input from the target position specifying unit 15. When the process of S413 ends, the process proceeds to a display process (S415).

S415の処理では、表示部23が動体追跡部16から入力された目標物体の各フレームでの位置情報を連続的に表示することで目標物体の軌跡を表示する処理を行う。S415の処理が終了すると、終了判定処理(S417)に移行する。   In the process of S415, the display unit 23 continuously displays the position information of each frame of the target object input from the moving object tracking unit 16 to display the trajectory of the target object. When the process of S415 ends, the process proceeds to an end determination process (S417).

S417の処理では、検出部22から情報入力部10に入力されたすべての画像フレームについて処理を実行したか否かを判定する。S417の処理において、すべての画像フレームについて処理を実行していないと判定した場合には、S401の処理に再度移行する。S401の処理では、次の未処理画像フレーム内の画像データから検出された候補についての情報を入力した後、S401からS417の処理を実行する。このように、すべての画像フレームについて処理を実行するまで、S401からS417の処理を繰り返し実行する。一方、S417の処理において、すべての画像フレームについて処理を実行したと判定した場合には、図4に示す制御処理を終了する。   In the process of S417, it is determined whether the process has been performed for all image frames input from the detection unit 22 to the information input unit 10. If it is determined in the process of S417 that the process has not been performed for all image frames, the process proceeds to S401 again. In the process of S401, after the information about the candidate detected from the image data in the next unprocessed image frame is input, the processes of S401 to S417 are executed. Thus, the processing from S401 to S417 is repeatedly performed until the processing is performed for all image frames. On the other hand, if it is determined in the process of S417 that the process has been performed for all image frames, the control process illustrated in FIG. 4 ends.

次に、図4に示すサブルーティンの各処理について詳細を説明する。まず、図6を用いて候補抽出処理(S409)の詳細を説明する。図6は、本実施形態に係る動体追跡装置1の候補抽出部14の動作を示すフローチャートである。   Next, each process of subroutine shown in FIG. 4 will be described in detail. First, the details of the candidate extraction process (S409) will be described using FIG. FIG. 6 is a flowchart showing the operation of the candidate extraction unit 14 of the moving subject tracking device 1 according to the present embodiment.

前述の通り、候補抽出処理(S409)では、候補抽出部14が位置情報生成部11から入力された第2画像フレーム内の画像データから検出された候補についての位置情報と、位置予測部13から入力された同じ第2画像フレームでの予測位置情報から尤度スコアを算出して、第2画像フレームでの上位候補を抽出する。本実施例では、抽出する上位候補の数を自然数Nとして説明する。   As described above, in the candidate extraction process (S 409), position information on the candidate detected from the image data in the second image frame input from the position information generation unit 11 by the candidate extraction unit 14 and the position prediction unit 13 The likelihood score is calculated from the prediction position information in the same input second image frame, and the top candidates in the second image frame are extracted. In the present embodiment, the number of upper candidates to be extracted will be described as a natural number N.

図6に示すように、まず、候補抽出部14が、初期値としてm=1、n=1を設定する(S601)。   As shown in FIG. 6, first, the candidate extraction unit 14 sets m = 1 and n = 1 as initial values (S601).

S603の処理では、候補抽出部14が、S403の処理で得られた全候補のm番目のAm(t)を取得する。   In the process of S603, the candidate extraction unit 14 acquires the m-th Am (t) of all the candidates obtained in the process of S403.

S605の処理では、候補抽出部14が、S407の処理で得られた予測候補からn番目のQn(t)を取得する。   In the process of S605, the candidate extraction unit 14 acquires the n-th Qn (t) from the prediction candidate obtained in the process of S407.

S607の処理では、候補抽出部14が、Am(t)とQn(t)の組合せの尤度スコアLmn(t)(以下、本特許出願に係る書面において、尤度スコアを同様にLmn(t)と表記)を計算して、結果を保持する(D619)。Lmn(t)は、Am(t)とQn(t)の距離Dmn(t)から次の数式で求められる。
Lmn(t)=exp(−Dmn(t)
In the process of S 607, the candidate extraction unit 14 calculates the likelihood score Lmn (t) in the same manner as the likelihood score Lmn (t) of the combination of Am (t) and Qn (t). )) And hold the result (D619). Lmn (t) is obtained from the distance Dmn (t) between Am (t) and Qn (t) by the following equation.
Lmn (t) = exp (−Dmn (t) 2 )

S609の処理では、候補抽出部14が、Qn(t)がS407の処理で得られた予測候補の最後であるか否かを判定する。予測候補の最後ではないと判定した場合には、nに1加算する処理(S611)の後、S605の処理に再度移行する。このようにすべての予測候補について処理を実行するまで、S605からS609の処理を繰り返し実行する。一方、S609の処理において、予測候補の最後であると判定した場合には、S613の処理に移行する。   In the process of S609, the candidate extraction unit 14 determines whether Qn (t) is the last of the prediction candidates obtained in the process of S407. If it is determined that it is not the end of the prediction candidate, the process of adding 1 to n (S611) is performed, and then the process of S605 is performed again. Thus, the processing of S605 to S609 is repeatedly performed until the processing is performed for all the prediction candidates. On the other hand, if it is determined in the process of S609 that it is the last of the prediction candidates, the process proceeds to the process of S613.

S613の処理では、候補抽出部14が、Am(t)がS409の処理で得られた候補の最後であるか否かを判定する。候補の最後ではないと判定した場合には、mに1加算する処理(S615)の後、S603の処理に再度移行する。このようにすべての候補について処理を実行するまで、S603からS613の処理を繰り返し実行する。一方、S613の処理において、予測候補の最後であると判定した場合には、尤度スコアによる候補抽出処理(S617)に移行する。   In the process of S613, the candidate extraction unit 14 determines whether Am (t) is the last of the candidates obtained in the process of S409. If it is determined that it is not the end of the candidate, the process of adding 1 to m (S615) is performed, and then the process of S603 is performed again. Thus, the processing from S603 to S613 is repeatedly performed until the processing is performed for all the candidates. On the other hand, in the process of S613, when it is determined that it is the last of the prediction candidate, the process proceeds to the candidate extraction process (S617) by the likelihood score.

尤度スコアによる候補抽出処理(S617)では、候補抽出部14が、尤度スコアで上位N組のAm(t)、Qn(t)、Lmn(t)の組合せを候補として抽出する。候補抽出部14は、候補抽出処理を終了してメインルーティンに移行する。   In the candidate extraction process (S617) based on the likelihood score, the candidate extraction unit 14 extracts the combination of the top N pairs of Am (t), Qn (t), and Lmn (t) as candidates by the likelihood score. The candidate extraction unit 14 ends the candidate extraction process and shifts to the main routine.

次に、図7を用いて目標位置特定処理(S411)の詳細を説明する。図7は、本実施形態に係る動体追跡装置1の目標位置特定部15の動作を示すフローチャートである。   Next, details of the target position identification process (S411) will be described using FIG. FIG. 7 is a flowchart showing the operation of the target position specifying unit 15 of the moving object tracking device 1 according to the present embodiment.

S701の処理では、目標位置特定部15が、S409の処理で得られた候補を順に取得する。   In the process of S701, the target position specifying unit 15 sequentially acquires the candidates obtained in the process of S409.

S703の処理では、目標位置特定部15が、位置スコア(Sp)を算出する。本実施形態での卓球におけるボールを追跡する例では、座標が次に示すそれぞれの場合において、位置スコア(Sp)は次の数式で求められる。   In the process of S703, the target position specifying unit 15 calculates a position score (Sp). In the example which tracks the ball in table tennis in this embodiment, a position score (Sp) is calculated | required by the following numerical formula in each case where a coordinate shows next.

−1.370≦X≦1.370、かつ
−0.7625≦Y≦0.7625、かつ
Z≧0.76、の場合
Sp=1.0
-1. 370 ≦ X ≦ 1.370, and −0.7625 ≦ Y ≦ 0.7625, and Z ≧ 0.76, Sp = 1.0

−1.370≦X≦1.370、かつ
−0.7625≦Y≦0.7625、かつ
Z≦0.76、の場合
Sp=0.0
-1. 370 ≦ X ≦ 1.370 and −0.7625 ≦ Y ≦ 0.7625, and Z ≦ 0.76 Sp = 0.0

上記の場合以外であって、−0.7625≦Y≦0.7625、の場合
Sp=exp(−(|X|−1.370)
Other than the above case, in the case of −0.7625 ≦ Y ≦ 0.7625, Sp = exp (− (| X | −1.370) 2 )

上記いずれの場合以外の場合
Sp=exp(−(2(|Y|−0.7625)(|X|−1.370))
In any case other than the above cases Sp = exp (-(2 (| Y | -0.7625) (| X | -1.370)) 2 )

S705の処理では、目標位置特定部15が、運動スコア(Sm)を算出する。本実施形態での卓球におけるボールを追跡する例では、座標が次に示すそれぞれの場合において、運動スコア(Sm)は次の数式で求められる。   In the process of S 705, the target position specifying unit 15 calculates an exercise score (Sm). In the example which tracks the ball in table tennis in this embodiment, a movement score (Sm) is calculated | required by the following numerical formula in each case where a coordinate shows next.

Vz=0.0、の場合、Sm=0.001
上記以外の場合、Sm=min{1.0,1−|V/30−1|}
In the case of Vz = 0.0, Sm = 0.001
In the case other than the above, Sm = min {1.0, 1- | V / 30-1 |}

S707の処理では、目標位置特定部15が、位置スコアと運動スコアから評価スコアを算出する。本実施形態での卓球におけるボールを追跡する例では、位置スコアと運動スコアを加算することで評価スコアを算出する。   In the process of S707, the target position specifying unit 15 calculates an evaluation score from the position score and the motion score. In the example of tracking the ball in table tennis in this embodiment, the evaluation score is calculated by adding the position score and the motion score.

S709の処理では、目標位置特定部15が、S707の処理で算出された評価スコアがこれまでの評価スコアと比べて最大かどうかを判定する。最大であると判定した場合には、S711の処理に移行して目標位置D715を評価スコアが最大であると判定したAm(t)に置き換える。最大ではないと判定した場合には、S713の処理に移行する。   In the process of S709, the target position specifying unit 15 determines whether the evaluation score calculated in the process of S707 is the largest as compared with the evaluation scores so far. If it is determined that the target position is the largest, the processing proceeds to step S711, and the target position D 715 is replaced with Am (t) determined to have the largest evaluation score. If it is determined not to be the maximum, the process proceeds to the process of S713.

S713の処理では、目標位置特定部15が、候補が最後かどうかを判定する。最後ではないと判定した場合には、S701の処理に再度移行する。このようにすべての候補について処理を実行するまで、S701からS713の処理を繰り返し実行する。一方、最後であると判定した場合には、評価スコアが最大であると判定したAm(t)を目標位置D715と特定し、目標位置特定処理を終了してメインルーティンに移行する。   In the process of S713, the target position specifying unit 15 determines whether the candidate is the last. If it is determined that the process is not the last, the process proceeds to the process of S701 again. Thus, the processing of S701 to S713 is repeatedly performed until the processing is performed for all the candidates. On the other hand, when it is determined that it is the last, Am (t) determined to have the highest evaluation score is specified as the target position D 715, and the target position identification process is ended and the routine is shifted to the main routine.

次に、コンピュータシステムを動体追跡装置1として機能させるための動体追跡プログラムについて説明する。コンピュータシステムの構成は、図2に示す通りである。   Next, a moving object tracking program for causing a computer system to function as the moving object tracking device 1 will be described. The configuration of the computer system is as shown in FIG.

動体追跡プログラムは、メインモジュール、入力モジュール及び演算処理モジュールを備える。メインモジュールは、画像処理を統括的に制御する部分である。入力モジュールは、画像フレーム内の画像データを取得するようにコンピュータシステムを動作させる。演算処理モジュールは、位置情報生成モジュール、候補位置保持モジュール、位置予測モジュール、候補抽出モジュール、目標位置特定モジュール及び動体追跡モジュールを備える。メインモジュール、入力モジュール及び演算処理モジュールを実行させることにより実現される機能は、動体追跡装置1の情報入力部10、位置情報生成部11、候補位置保持部12、位置予測部13、候補抽出部14、目標位置特定部15及び動体追跡部16の機能とそれぞれ同様である。   The motion tracking program comprises a main module, an input module and an arithmetic processing module. The main module is a part that controls image processing in an integrated manner. The input module operates the computer system to obtain image data in the image frame. The arithmetic processing module includes a position information generation module, a candidate position holding module, a position prediction module, a candidate extraction module, a target position specifying module, and a moving body tracking module. The functions realized by executing the main module, the input module and the arithmetic processing module are the information input unit 10 of the moving object tracking device 1, the position information generation unit 11, the candidate position holding unit 12, the position prediction unit 13, the candidate extraction unit The functions of the target position specifying unit 15 and the moving object tracking unit 16 are the same as those in FIG.

動体追跡プログラムは、例えば、ROM等の記憶媒体又は半導体メモリによって提供される。また、動体追跡プログラムは、ネットワークを介して提供されてもよい。   The motion tracking program is provided by, for example, a storage medium such as a ROM or a semiconductor memory. Also, a moving body tracking program may be provided via a network.

以上、本実施形態に係る動体追跡装置1では、位置情報生成部11により、情報入力部10から入力された画像フレーム(第2画像フレーム)内の画像データから検出された候補についての情報から各々の候補の位置情報が生成され、位置予測部13により、当該画像フレーム(第2画像フレーム)での予測位置が算出され、候補抽出部14により、前記予測位置と候補位置保持部12から取得された第1画像フレームでの上位候補とから第2画像フレームでの定められた数の複数の上位候補が算出され、候補位置保持部12に出力されて保持される。このように、各々の画像フレームについて定められた数の複数の上位候補を候補位置保持部12に保持することで、目標物体である競技に使用されているボール以外にも予備のボールや床に転がっているボールなど目標物体以外が検出されるとの特徴を有している環境の下で適切な目標物体の判別が可能となる。   As described above, in the moving object tracking device 1 according to the present embodiment, the position information generation unit 11 generates information about candidates detected from image data in an image frame (second image frame) input from the information input unit 10. The position information of the candidate is generated, the predicted position in the image frame (second image frame) is calculated by the position prediction unit 13, and the candidate extraction unit 14 acquires the predicted position and the candidate position holding unit 12. A predetermined number of upper candidates in the second image frame are calculated from the upper candidates in the first image frame, and are output to the candidate position holding unit 12 and held. In this manner, by holding the plurality of upper candidates determined for each image frame in the candidate position holding unit 12, it is possible to use a spare ball or a floor other than the ball used for the competition as the target object. It is possible to determine an appropriate target object in an environment having a feature that other than the target object such as a rolling ball is detected.

また、本実施形態に係る動体追跡装置1では、目標位置特定部15により、評価スコアに基づいて前記画像フレームにおける前記追跡目標である物体の位置情報が特定され、評価スコアは位置スコアと運動スコアの組合せによって定義される。動体追跡部16により、特定された物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きが追跡される。このように所与の環境(例えば、卓球)での位置スコアと運動スコアの組合せによって評価スコアを算出することで、色彩や形状等の外観的に際立った特徴が少ないことから複数の候補が検出される場合にあって、目標物体を高精度に特定することが可能となる。   Further, in the moving object tracking device 1 according to the present embodiment, the target position specifying unit 15 specifies the position information of the object which is the tracking target in the image frame based on the evaluation score, and the evaluation score is the position score and the motion score Defined by a combination of The movement tracking unit 16 tracks the movement of the object by tracing the position information of the specified object in the successive image frames. By calculating the evaluation score by combining the position score and the exercise score in a given environment (for example, table tennis) in this manner, a plurality of candidates are detected because there are few appearanceally distinctive features such as color and shape. In such a case, it is possible to specify the target object with high accuracy.

本実施形態に係る動体追跡装置1の動作について説明において、説明理解の容易性を考慮して、本発明に係る動体追跡装置の動作の例として、卓球におけるボールを追跡する動体追跡装置を説明したが、これを実施例1として、実施例1に対比する形で、バレーボールにおけるボール追跡の例(実施例2)、野球の投球におけるボール追跡の例(実施例3)、ゴルフにおけるボール追跡の例(実施例4)を説明する。   In the description of the operation of the moving object tracking device 1 according to the present embodiment, the moving object tracking device for tracking a ball in table tennis is described as an example of the operation of the moving object tracking device according to the present invention. However, in comparison with Example 1 as Example 1, an example of ball tracking in volleyball (Example 2), an example of ball tracking in baseball pitching (Example 3), an example of ball tracking in golf Example 4 will be described.

実施例1と実施例2ないし実施例4とは、本実施形態に係る動体追跡装置1の図1に示す構成は同じであり、図2に示す装置2として実現される点も同様である。所与の環境による条件が異なるため処理の内容が相違する。具体的には、次の点が異なる。   The configuration shown in FIG. 1 of the moving object tracking device 1 according to the present embodiment is the same as that of the first embodiment and the second to fourth embodiments, and the second embodiment is also similar in that it is realized as the device 2 shown in FIG. The contents of the processing are different because the conditions according to a given environment are different. Specifically, the following points are different.

位置情報生成部11が入力情報部10から入力された位置情報を変換する処理に適した座標系が異なる。   The coordinate system suitable for the process of converting the position information input from the input information unit 10 by the position information generation unit 11 is different.

位置情報生成部11が位置情報を生成に反映する動体の追跡に影響を与える位置に関する条件が異なる。   The conditions regarding the position which affects tracking of the moving body which the positional infomation production | generation part 11 reflects positional information in production | generation differ.

位置予測部13が予測位置を算出する数式が異なる。   The formulas for calculating the predicted position by the position prediction unit 13 are different.

目標位置特定部15が位置スコアを算出する数式が異なる。   The mathematical formulas for calculating the position score by the target position specifying unit 15 are different.

目標位置特定部15が運動スコアを算出する数式が異なる。   The mathematical formulas for calculating the exercise score by the target position specifying unit 15 are different.

前記相違点について、実施例1ないし実施例4について表にまとめた。実施例1を表1に、実施例2を表2に、実施例3を表3に、実施例4を表4に示す。
The differences are summarized in the table for Example 1 to Example 4. Example 1 is shown in Table 1, Example 2 in Table 2, Example 3 in Table 3, and Example 4 in Table 4.

(第2実施形態)
第2実施形態に係る動体追跡装置は、第1実施形態に係る動体検出装置1と図1に示す構成は同じであり、図2に示す装置2として実現される点も同様である。機能において、第1実施形態に係る動体検出装置1と候補抽出部14の機能が相違するものである。従って、候補抽出部14を中心に説明し、第1実施形態との重複する説明は省略する。
Second Embodiment
The moving object tracking device according to the second embodiment has the same configuration as that of the moving object detection device 1 according to the first embodiment shown in FIG. 1 and is also the same as the device 2 shown in FIG. In the functions, the functions of the moving object detection device 1 according to the first embodiment and the candidate extraction unit 14 are different. Therefore, the candidate extraction unit 14 will be mainly described, and the overlapping description with the first embodiment will be omitted.

第2実施形態に係る候補抽出部14は、位置情報生成部11から入力された画像フレーム(第2画像フレーム)内の画像データから検出された候補について位置情報と、位置予測部13から入力された同じ画像フレーム(第2画像フレーム)での予測位置情報から尤度スコアを算出する機能を有している。候補抽出部14は、尤度スコアの算出に必要な予測位置情報を位置予測部13に問い合わせて取得する機能を有している。候補抽出部14は、尤度スコアの上位から定めた数の候補を上位候補として、その位置情報を目標位置特定部15に出力する機能を有している。また、候補抽出部14は、上位候補の位置情報等を候補位置保持部12に出力する機能を有している。これらの機能を有する点は、第1実施形態に係る候補抽出部14と同様である。   The candidate extraction unit 14 according to the second embodiment receives position information from the position prediction unit 13 for the candidates detected from the image data in the image frame (second image frame) input from the position information generation unit 11. It has a function of calculating the likelihood score from predicted position information in the same image frame (second image frame). The candidate extraction unit 14 has a function of inquiring the position prediction unit 13 of predicted position information necessary for calculation of the likelihood score. The candidate extraction unit 14 has a function of outputting the position information to the target position identification unit 15 with the number of candidates determined from the top of the likelihood score as the top candidates. In addition, the candidate extraction unit 14 has a function of outputting position information and the like of upper candidates to the candidate position holding unit 12. The point which has these functions is the same as that of candidate extraction part 14 concerning a 1st embodiment.

第2実施形態に係る候補抽出部14は、上位候補を抽出する際に、位置予測部13が予測位置情報の算出の基礎とした画像フレーム(第1画像フレーム)での候補が同じである予測位置情報に基づく候補の数に上限を定める機能を有している。この点は、第1実施形態に係る候補抽出部14と相違する。   The candidate extraction unit 14 according to the second embodiment predicts that the candidate in the image frame (first image frame) based on which the position prediction unit 13 calculates the predicted position information is the same when extracting the high-order candidate It has a function of setting an upper limit on the number of candidates based on position information. This point is different from the candidate extraction unit 14 according to the first embodiment.

前述の相違点は、図6に示される尤度スコアによる候補抽出処理(S617)の相違による。図8は、第2実施形態に係る尤度スコアによる候補抽出処理(S617)について示すフローチャートである。   The aforementioned difference is due to the difference in the candidate extraction process (S617) according to the likelihood score shown in FIG. FIG. 8 is a flowchart showing a candidate extraction process (S617) based on the likelihood score according to the second embodiment.

図8に示すように、まず、候補抽出部14が、初期値としてn=1を設定する(S801)。   As shown in FIG. 8, first, the candidate extracting unit 14 sets n = 1 as an initial value (S801).

S803の処理では、候補抽出部14が、Am(t)、Qn(t)、Lmn(t)の組合せをデータとして取得する。候補抽出部14は、尤度スコアLmn(t)の降順にデータをソートして、Qn(t)を算出の基礎とするデータをLmn(t)の降順に配列する。   In the process of S803, the candidate extraction unit 14 acquires a combination of Am (t), Qn (t), and Lmn (t) as data. The candidate extracting unit 14 sorts the data in the descending order of the likelihood score Lmn (t), and arranges data on which Qn (t) is the basis of the calculation in the descending order of Lmn (t).

S805の処理では、候補抽出部14が、尤度スコアで上位から自然数でS個までをQn(t)を基礎とする候補として残す。   In the process of S805, the candidate extraction unit 14 leaves from the top to S natural numbers in the likelihood score as candidates based on Qn (t).

S807の処理では、候補抽出部14が、Qn(t)がS407の処理で得られた予測候補の最後であるか否かを判定する。予測候補の最後ではないと判定した場合には、nに1加算する処理(S809)の後、S803の処理に再度移行する。このようにすべての予測候補について処理を実行するまで、S803からS807の処理を繰り返し実行する。一方、S807の処理において、予測候補の最後であると判定した場合には、S811の処理に移行する。   In the process of S807, the candidate extraction unit 14 determines whether Qn (t) is the last of the prediction candidates obtained in the process of S407. If it is determined that it is not the end of the prediction candidate, the process of adding 1 to n (S809) is performed, and then the process of S803 is performed again. Thus, the processing of S803 to S807 is repeatedly performed until the processing is performed for all the prediction candidates. On the other hand, if it is determined in the process of S807 that the end of the prediction candidate is determined, the process proceeds to S811.

S811の処理では、候補抽出部14が、S805の処理で残された候補から尤度スコアが上位N個のAm(t)、Qn(t)、Lmn(t)の組合せを上位候補として抽出した後、尤度スコアによる候補抽出処理を終了してメインルーティンに移行する。   In the process of S811, the candidate extraction unit 14 extracts a combination of Am (t), Qn (t), and Lmn (t) having high likelihood scores as top candidates from the candidates remaining in the process of S805. After that, the candidate extraction process based on the likelihood score is ended, and the process proceeds to the main routine.

図9は、第2実施形態に係る候補抽出部14が行う尤度スコアによる候補抽出処理(S617)を模式的に示した図である。図9では、予測候補Qn(t)ごと各列に左から右へ尤度スコアLmn(t)の降順にデータが配列されている。S805の処理では、候補抽出部14が、尤度スコアで上位から自然数でS個までをQn(t)を基礎とする候補として残すが、図9では、S=4の場合の例示であって、網掛けされた部分のデータを候補から除外することを示している。S811の処理では、候補抽出部14が、S805の処理で残された候補から尤度スコアが上位N個の上位候補を抽出するが、図9では、網掛けされていない部分のデータ候補から尤度スコアが上位N個の上位候補を抽出することに相当する。   FIG. 9 is a diagram schematically illustrating candidate extraction processing (S617) based on the likelihood score performed by the candidate extraction unit 14 according to the second embodiment. In FIG. 9, data are arranged in descending order of likelihood score Lmn (t) from left to right in each column for each prediction candidate Qn (t). In the process of S805, the candidate extraction unit 14 leaves S up to S natural numbers from the top in the likelihood score as a candidate based on Qn (t), which is an example in the case of S = 4 in FIG. , Indicates that shaded data is excluded from candidates. In the process of S811, the candidate extraction unit 14 extracts the top N candidates with the highest likelihood score from the candidates remaining in the process of S805, but in FIG. The degree score corresponds to extracting top N top candidates.

第2実施形態に係る候補抽出部14は、図9の説明の通り、各々の予測候補Qn(t)について均等に残した候補から上位候補を抽出するために、特定の予測候補Qn(t)への偏りが少なくなる。これにより、有力な候補の付近に存在する候補以外も上位候補が残ることになる。このため、例えば、プレイヤーの使用するボールの変更等によってこれまでとは別のボールへの目標物体が変更した場合や、一時的に誤って検出したボール以外の物体を追跡した場合などに、適正な目標物体に戻って追跡を続けることが可能となる。   The candidate extraction unit 14 according to the second embodiment, as described in FIG. 9, extracts a top candidate from candidates equally left for each of the prediction candidates Qn (t), the specific prediction candidate Qn (t). Less bias towards. As a result, top candidates remain in addition to the candidates existing in the vicinity of the leading candidate. Therefore, for example, when the target object for a different ball is changed due to a change in the ball used by the player, etc., or when an object other than the ball detected temporarily and erroneously is tracked, etc. It is possible to return to the desired target object and continue tracking.

(第3実施形態)
第3実施形態に係る動体追跡装置は、第1実施形態に係る動体検出装置1と図1に示す構成は同じであり、図2に示す装置2として実現される点も同様である。機能において、第1実施形態に係る動体検出装置1と候補抽出部14の機能が相違するものである。従って、候補抽出部14を中心に説明し、第1実施形態との重複する説明は省略する。
Third Embodiment
The moving object tracking device according to the third embodiment has the same configuration as that of the moving object detection device 1 according to the first embodiment shown in FIG. 1, and is similar to the point realized as the device 2 shown in FIG. In the functions, the functions of the moving object detection device 1 according to the first embodiment and the candidate extraction unit 14 are different. Therefore, the candidate extraction unit 14 will be mainly described, and the overlapping description with the first embodiment will be omitted.

第3実施形態に係る候補抽出部14は、位置情報生成部11から入力された画像フレーム(第2画像フレーム)内の画像データから検出された候補について位置情報と、位置予測部13から入力された同じ画像フレーム(第2画像フレーム)での予測位置情報から尤度スコアを算出する機能を有している。候補抽出部14は、尤度スコアの算出に必要な予測位置情報を位置予測部13に問い合わせて取得する機能を有している。候補抽出部14は、尤度スコアの上位から定めた数の候補を上位候補として、その位置情報を目標位置特定部15に出力する機能を有している。また、候補抽出部14は、上位候補の位置情報等を候補位置保持部12に出力する機能を有している。これらの機能を有する点は、第1実施形態に係る候補抽出部14と同様である。   The candidate extraction unit 14 according to the third embodiment receives position information from the position prediction unit 13 with respect to the candidates detected from the image data in the image frame (second image frame) input from the position information generation unit 11. It has a function of calculating the likelihood score from predicted position information in the same image frame (second image frame). The candidate extraction unit 14 has a function of inquiring the position prediction unit 13 of predicted position information necessary for calculation of the likelihood score. The candidate extraction unit 14 has a function of outputting the position information to the target position identification unit 15 with the number of candidates determined from the top of the likelihood score as the top candidates. In addition, the candidate extraction unit 14 has a function of outputting position information and the like of upper candidates to the candidate position holding unit 12. The point which has these functions is the same as that of candidate extraction part 14 concerning a 1st embodiment.

第3実施形態に係る候補抽出部14は、上位候補を抽出する際に、位置予測部13が予測位置情報の算出の基礎とした画像フレーム(第1画像フレーム)の候補のすべてについて、尤度スコアが閾値以上であるとの条件のもとで、各々を基礎とした少なくとも一つの第2画像フレームでの候補を抽出する機能を有している。この点は、第1実施形態に係る候補抽出部14と相違する。   The candidate extraction unit 14 according to the third embodiment, when extracting high-order candidates, likelihoods for all the candidates of the image frame (first image frame) on which the position prediction unit 13 bases calculation of predicted position information. It has a function of extracting candidates in at least one second image frame based on the condition that the score is equal to or higher than the threshold. This point is different from the candidate extraction unit 14 according to the first embodiment.

前述の相違点は、図6に示される尤度スコアによる候補抽出処理(S617)の相違による。図10A及び図10Bは、第3実施形態に係る尤度スコアによる候補抽出処理(S617)について示すフローチャートである。   The aforementioned difference is due to the difference in the candidate extraction process (S617) according to the likelihood score shown in FIG. 10A and 10B are flowcharts showing the candidate extraction process (S617) based on the likelihood score according to the third embodiment.

図10Aに示すように、まず、候補抽出部14が、初期値としてn=1を設定する(S1001)。   As shown in FIG. 10A, first, the candidate extraction unit 14 sets n = 1 as an initial value (S1001).

S1003の処理では、候補抽出部14が、Am(t)、Qn(t)、Lmn(t)の組合せをデータとして取得する。候補抽出部14は、尤度スコアLmn(t)の降順にデータをソートして、Qn(t)を算出の基礎とするデータをLmn(t)の降順に配列する。   In the process of S1003, the candidate extraction unit 14 acquires a combination of Am (t), Qn (t), and Lmn (t) as data. The candidate extracting unit 14 sorts the data in the descending order of the likelihood score Lmn (t), and arranges data on which Qn (t) is the basis of the calculation in the descending order of Lmn (t).

S1005の処理では、候補抽出部14が、S1003の処理で生成されたAm(t)、Qn(t)、Lmn(t)の組合せのデータ配列(D1007)を出力する。   In the process of S1005, the candidate extraction unit 14 outputs a data array (D1007) of a combination of Am (t), Qn (t) and Lmn (t) generated in the process of S1003.

S1009の処理では、候補抽出部14が、Qn(t)がS407の処理で得られた予測候補の最後であるか否かを判定する。予測候補の最後ではないと判定した場合には、nに1加算する処理(S1011)の後、S1003の処理に再度移行する。このようにすべての予測候補について処理を実行するまで、S1003からS1009の処理を繰り返し実行する。一方、S1009の処理において、予測候補の最後であると判定した場合には、図10Bに示すS1013の処理に移行する。   In the process of S1009, the candidate extraction unit 14 determines whether Qn (t) is the last of the prediction candidates obtained in the process of S407. If it is determined that it is not the end of the prediction candidate, the process of adding 1 to n (S1011) is performed, and then the process of S1003 is performed again. Thus, the processing of S1003 to S1009 is repeatedly performed until the processing is performed for all the prediction candidates. On the other hand, if it is determined in the process of S1009 that it is the end of the prediction candidate, the process proceeds to the process of S1013 shown in FIG. 10B.

図10Bに示すように、あらためて候補抽出部14が、初期値としてn=1、j=1を設定する(S1013)。   As shown in FIG. 10B, the candidate extraction unit 14 sets n = 1 and j = 1 as initial values (S1013).

S1015の処理では、候補抽出部14が、データ配列(D1007)から予測候補Qn(t)について尤度スコアLmn(t)の降順でj番目のAm(t)、Qn(t)、Lmn(t)の組合せのデータを取得する。   In the process of S1015, the candidate extracting unit 14 determines the j-th Am (t), Qn (t), Lmn (t) in descending order of the likelihood score Lmn (t) for the data candidate (D1007) to the prediction candidate Qn (t). Get the data of the combination of).

S1017の処理では、候補抽出部14が、S1015の処理で取得したデータについてLmn(t)が閾値以上であるか否かを判定する。閾値以上であると判定した場合には、S1015の処理で取得したAm(t)、Qn(t)、Lmn(t)の組合せを上位候補として抽出(S1019)した後、s1021の処理に移行する。一方、閾値以上でないと判定した場合には、s1021の処理に移行する。   In the process of S1017, the candidate extraction unit 14 determines whether Lmn (t) is equal to or more than a threshold value for the data acquired in the process of S1015. If it is determined that the threshold value is exceeded, the combination of Am (t), Qn (t) and Lmn (t) acquired in the process of S1015 is extracted as a top candidate (S1019), and then the process proceeds to the process of S1021. . On the other hand, when it is determined that the threshold value is not exceeded, the processing shifts to the processing of s1021.

S1021の処理では、候補抽出部14が、これまでに抽出した上位候補の数がNよりも小さいか否かを判定する。上位候補の数がNよりも小さいと判定した場合には、s1023の処理に移行する。一方、上位候補の数がNよりも小さくないと判定した場合には、尤度スコアによる候補抽出処理を終了してメインルーティンに移行する。   In the process of S1021, the candidate extraction unit 14 determines whether the number of upper candidates extracted so far is smaller than N or not. If it is determined that the number of upper candidates is smaller than N, the process proceeds to s1023. On the other hand, when it is determined that the number of upper candidates is not smaller than N, the candidate extraction process based on the likelihood score is ended, and the process proceeds to the main routine.

S1023の処理では、候補抽出部14が、Qn(t)がS407の処理で得られた予測候補の最後であるか否かを判定する。予測候補の最後ではないと判定した場合には、nに1加算する処理(S1025)の後、S1017の処理に再度移行する。このようにすべての予測候補について処理を実行するまで、S1017からS1023の処理を繰り返し実行する。一方、S1013の処理において、予測候補の最後であると判定した場合には、S1027の処理に移行する。   In the process of S1023, the candidate extraction unit 14 determines whether Qn (t) is the last of the prediction candidates obtained in the process of S407. If it is determined that it is not the end of the prediction candidate, the process of adding 1 to n (S1025) is performed, and then the process of S1017 is performed again. Thus, the processes of S1017 to S1023 are repeatedly performed until the process is performed for all the prediction candidates. On the other hand, if it is determined in the process of S1013 that the end of the prediction candidate is reached, the process proceeds to S1027.

S1027の処理では、候補抽出部14が、jがデータ配列(D1007)の予測候補Qn(t)について最後尾であるか否かを判定する。jが予測候補Qn(t)について最後尾ではないと判定した場合には、jに1加算する処理(S1029)の後、S1017の処理に再度移行する。このようにjが予測候補Qn(t)についてデータ配列の最後尾に至るまで、S1017からS1027の処理を繰り返し実行する。一方、S1027の処理において、jが予測候補Qn(t)について最後尾であると判定した場合には、尤度スコアによる候補抽出処理を終了してメインルーティンに移行する。   In the process of S1027, the candidate extraction unit 14 determines whether j is the tail of the prediction candidate Qn (t) of the data array (D1007). If it is determined that j is not the tail of the prediction candidate Qn (t), the process of adding 1 to j (S1029) is performed, and then the process proceeds to S1017 again. Thus, the process of S1017 to S1027 is repeatedly executed until j reaches the end of the data array for the prediction candidate Qn (t). On the other hand, if it is determined in the process of S1027 that j is the tail of the prediction candidate Qn (t), the candidate extraction process using the likelihood score is ended, and the process proceeds to the main routine.

図11は、第3実施形態に係る候補抽出部14が行う尤度スコアによる候補抽出処理(S617)を模式的に示した図である。図11では、予測候補Qn(t)ごと各列に左から右へ尤度スコアLmn(t)の降順にデータが配列されている。図10Aに示すS1001からS1011の処理で生成されるデータ配列(D1007)は、図11で模式的に示される。S1023の処理では図11の各列について1行目から下方に、S1027の処理では図11の各行について1列目から左方に順に移動しつつS1017の処理で尤度スコアが閾値以上であるかの判定を行う。図11では、網掛けされていない部分が、尤度スコアが閾値以上に相当する。   FIG. 11 is a diagram schematically illustrating candidate extraction processing (S617) based on the likelihood score performed by the candidate extraction unit 14 according to the third embodiment. In FIG. 11, data are arranged in descending order of likelihood score Lmn (t) from left to right in each column for each prediction candidate Qn (t). The data array (D1007) generated by the processing of S1001 to S1011 shown in FIG. 10A is schematically shown in FIG. Whether the likelihood score is equal to or higher than the threshold value in the process of S1017 while moving sequentially from the first row for each column of FIG. 11 in the process of S1023 downward in the process of S1027 while moving sequentially from the first column to the left for each row in FIG. Make a decision on In FIG. 11, the non-shaded portion corresponds to the likelihood score equal to or higher than the threshold.

第3実施形態に係る候補抽出部14は、図11の説明の通り、各々の予測候補Qn(t)について均等に残した候補から上位候補を抽出するために、特定の予測候補Qn(t)への偏りが少なくなる。また、閾値より尤度スコアが小さい候補は上位候補としないため、可能性の低い候補(例えば、図11のQ3(t))を排除することができる点で第2実施形態よりも優れている。これにより、有力な候補の付近に存在する候補以外も上位候補が残ることになる。このため、例えば、プレイヤーの使用するボールの変更等によってこれまでとは別のボールへの目標物体が変更した場合や、一時的に誤って検出したボール以外の物体を追跡した場合などに、適正な目標物体に戻って追跡を続けることがより精度高く可能となる。   The candidate extraction unit 14 according to the third embodiment, as described in FIG. 11, extracts a top candidate from candidates evenly left for each of the prediction candidates Qn (t), a specific prediction candidate Qn (t). Less bias towards. Moreover, since the candidate whose likelihood score is smaller than the threshold is not the top candidate, it is superior to the second embodiment in that the candidate with low possibility (for example, Q3 (t) in FIG. 11) can be excluded. . As a result, top candidates remain in addition to the candidates existing in the vicinity of the leading candidate. Therefore, for example, when the target object for a different ball is changed due to a change in the ball used by the player, etc., or when an object other than the ball detected temporarily and erroneously is tracked, etc. It is possible to more accurately return to the target object and continue tracking.

1 動体追跡装置
10 情報入力部
11 位置情報生成部
12 候補位置保持部
13 位置予測部
14 候補抽出部
15 目標位置特定部
16 動体検出部
2 動体追跡装置を備える装置
21 カメラ
22 検出部
23 表示部
201 中央演算装置(CPU)
202 入力装置
203 出力装置
204 主記憶装置(RAM/ROM)
205 補助記憶装置
301 目標物体(競技に使用されているボール)
302 目標ではない物体(予備のボール)
303 目標ではない物体(床に転がっているボール)
304 目標ではない物体(観客の顔)
DESCRIPTION OF SYMBOLS 1 moving body tracking device 10 information input part 11 position information production | generation part 12 candidate position holding part 13 position prediction part 14 candidate extraction part 15 target position identification part 16 moving body detection part 2 apparatus provided with moving body tracking apparatus 21 camera 22 detection part 23 display part 201 Central Processing Unit (CPU)
202 Input device 203 Output device 204 Main storage device (RAM / ROM)
205 Auxiliary storage device 301 Target object (ball used in competition)
302 Non-target object (spare ball)
303 A non-target object (ball rolling on the floor)
304 Object that is not the target (the face of the audience)

Claims (8)

画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡する動体追跡装置であって、
画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成部と、
前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持部と、
前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測部と、
前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し、前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出部と、
前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定部と、
前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡部と、
を備えることを特徴とする動体追跡装置。
A moving object tracking device that uses an image data to track the movement of an object having a particular feature in a given environment, comprising:
A position information generation unit that generates position information of all objects having the specific feature detected from the image data in an image frame;
A candidate position holding unit that holds the position information of a plurality of candidates for the object likely to be tracking targets for each image frame;
For the candidate of the first image frame for which the candidate position holding unit holds the position information, the predicted position in the second image frame continuous with the first image frame based on the motion model determined from the given environment A position prediction unit that calculates information;
About each combination from the position information generated by the position information generation unit from the image data in the second image frame and the predicted position information in the second image frame calculated by the position prediction unit A likelihood score indicating the degree of coincidence of positions is calculated, one or more of the candidates in the second image frame are extracted based on the likelihood score, and position information of the extracted candidates is used as the candidate position. A candidate extraction unit to output to the holding unit;
Position information of the object as the tracking target in the image frame based on an evaluation score indicating likelihood as the tracking target determined from the given environment from the position information of the candidate extracted by the candidate extraction unit A target position identification unit for specifying
A moving body tracking unit that tracks the movement of the object by tracing the position information of the object specified by the target position specifying unit in successive image frames;
A moving body tracking device comprising:
前記候補抽出部は、前記位置予測部が前記予測位置情報の算出の基礎とした前記第1画像フレームの前記候補が同じである前記第2画像フレームでの前記物体の候補の数に上限を定める請求項1に記載の動体追跡装置。   The candidate extraction unit sets an upper limit on the number of candidates of the object in the second image frame in which the candidate of the first image frame based on which the position prediction unit is based on the calculation of the predicted position information is the same The moving body tracking device according to claim 1. 前記候補抽出部は、前記第1画像フレームの前記候補のすべてについて各々を基礎とした少なくとも一つの前記第2画像フレームでの前記候補を抽出する請求項1に記載の動体追跡装置。   The moving object tracking device according to claim 1, wherein the candidate extraction unit extracts the candidates in at least one second image frame based on each of all the candidates of the first image frame. 前記候補抽出部は、前記尤度スコアが閾値以上でない前記第2画像フレームでの前記候補については前記候補から除外する請求項3に記載の動体追跡装置。   The moving object tracking device according to claim 3, wherein the candidate extraction unit excludes the candidate in the second image frame in which the likelihood score is not equal to or more than a threshold from the candidate. 前記位置予測部は、前記運動モデルとして前記第1画像フレームでの物体の位置と速度に基づいて前記第2画像フレームでの予測位置情報を算出する請求項1ないし請求項4に記載の動体追跡装置。   The moving object tracking according to any one of claims 1 to 4, wherein the position prediction unit calculates predicted position information in the second image frame based on the position and velocity of the object in the first image frame as the motion model. apparatus. 目標位置特定部は、前記評価スコアを目標物体の存在確率分布に基づく位置スコアと前記目標物体の速度に基づく運動スコアから求めて前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する請求項5に記載の動体追跡装置。   The target position specifying unit specifies the position information of the object which is the tracking target in the image frame by obtaining the evaluation score from a position score based on the presence probability distribution of the target object and a motion score based on the velocity of the target object. The moving body tracking device according to claim 5. 画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡する動体追跡方法であって、
画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成ステップと、
前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持ステップと、
前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測ステップと、
前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し、前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出ステップと、
前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定ステップと、
前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡ステップと、
を備えることを特徴とする動体追跡方法。
A motion tracking method for tracking motion of an object having a specific feature in a given environment using image data, comprising:
Generating position information of all objects having the specific feature detected from the image data in an image frame;
A candidate position holding step of holding the position information of a plurality of candidates for the object likely to be tracking targets for each image frame;
For the candidate of the first image frame for which the candidate position holding unit holds the position information, the predicted position in the second image frame continuous with the first image frame based on the motion model determined from the given environment Position prediction step for calculating information;
About each combination from the position information generated by the position information generation unit from the image data in the second image frame and the predicted position information in the second image frame calculated by the position prediction unit A likelihood score indicating the degree of coincidence of positions is calculated, one or more of the candidates in the second image frame are extracted based on the likelihood score, and position information of the extracted candidates is used as the candidate position. A candidate extraction step to be output to the holding unit;
Position information of the object as the tracking target in the image frame based on an evaluation score indicating likelihood as the tracking target determined from the given environment from the position information of the candidate extracted by the candidate extraction unit Target position identification step for identifying
A moving body tracking step of tracking the movement of the object by tracing the position information of the object specified by the target position specifying unit in successive image frames;
A moving object tracking method comprising:
コンピュータを、画像データを用いて特定の特徴を持つ物体の所与の環境での動きを追跡ように機能させる動体追跡プログラムであって、
画像フレーム内の前記画像データから検出された前記特定の特徴を持つすべての物体の位置情報を生成する位置情報生成部、
前記画像フレームごとに追跡目標として尤もらしい前記物体の複数の候補の前記位置情報を保持する候補位置保持部、
前記候補位置保持部が前記位置情報を保持する第1画像フレームの前記候補について、前記所与の環境から定まる運動モデルに基づいて、前記第1画像フレームと連続する第2画像フレームでの予測位置情報を算出する位置予測部、
前記第2画像フレーム内の前記画像データから前記位置情報生成部によって生成された前記位置情報と、前記位置予測部が算出した前記第2画像フレームでの前記予測位置情報と、から各々の組合せについて位置の一致度を示す尤度スコアを算出し、前記尤度スコアに基づいて前記第2画像フレームでの1ないし2以上の前記候補を抽出し、抽出された前記候補の位置情報を前記候補位置保持部に出力する候補抽出部、
前記候補抽出部が抽出した前記候補の位置情報から、前記所与の環境から定まる前記追跡目標としての尤もらしさを示す評価スコアに基づいて、前記画像フレームにおける前記追跡目標である前記物体の位置情報を特定する目標位置特定部、
前記目標位置特定部によって特定された前記物体の位置情報を、連続する前記画像フレームにおいてトレースすることで前記物体の動きを追跡する動体追跡部、
として機能させることを特徴とする動体追跡プログラム。
A motion tracking program that causes a computer to use an image data to track the movement of an object having a particular feature in a given environment,
A position information generation unit that generates position information of all objects having the specific feature detected from the image data in an image frame;
A candidate position holding unit that holds the position information of a plurality of candidates for the object likely to be tracking targets for each image frame;
For the candidate of the first image frame for which the candidate position holding unit holds the position information, the predicted position in the second image frame continuous with the first image frame based on the motion model determined from the given environment Position prediction unit that calculates information,
About each combination from the position information generated by the position information generation unit from the image data in the second image frame and the predicted position information in the second image frame calculated by the position prediction unit A likelihood score indicating the degree of coincidence of positions is calculated, one or more of the candidates in the second image frame are extracted based on the likelihood score, and position information of the extracted candidates is used as the candidate position. Candidate extraction unit to output to the holding unit,
Position information of the object as the tracking target in the image frame based on an evaluation score indicating likelihood as the tracking target determined from the given environment from the position information of the candidate extracted by the candidate extraction unit Target position identification unit for identifying
A moving body tracking unit that tracks the movement of the object by tracing the position information of the object specified by the target position specifying unit in successive image frames;
A moving object tracking program characterized in that it functions as:
JP2017189397A 2017-09-29 2017-09-29 Moving object tracking device, moving object tracking method, moving object tracking program Active JP6412998B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017189397A JP6412998B1 (en) 2017-09-29 2017-09-29 Moving object tracking device, moving object tracking method, moving object tracking program
KR1020180115747A KR102078473B1 (en) 2017-09-29 2018-09-28 Moving Body Tracking Device, Moving Body Tracking Method, and Moving Body Tracking Program
US16/146,222 US10909688B2 (en) 2017-09-29 2018-09-28 Moving body tracking device, moving body tracking method, and moving body tracking program
CN201811148680.6A CN109584268B (en) 2017-09-29 2018-09-29 Moving body tracking device, moving body tracking method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017189397A JP6412998B1 (en) 2017-09-29 2017-09-29 Moving object tracking device, moving object tracking method, moving object tracking program

Publications (2)

Publication Number Publication Date
JP6412998B1 JP6412998B1 (en) 2018-10-24
JP2019066974A true JP2019066974A (en) 2019-04-25

Family

ID=63920550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017189397A Active JP6412998B1 (en) 2017-09-29 2017-09-29 Moving object tracking device, moving object tracking method, moving object tracking program

Country Status (4)

Country Link
US (1) US10909688B2 (en)
JP (1) JP6412998B1 (en)
KR (1) KR102078473B1 (en)
CN (1) CN109584268B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470997B2 (en) 2020-12-31 2024-04-19 ブロテイン インコーポレイテッド Putting Guide System

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6659524B2 (en) * 2016-11-18 2020-03-04 株式会社東芝 Moving object tracking device, display device, and moving object tracking method
JP6894707B2 (en) * 2017-01-06 2021-06-30 キヤノン株式会社 Information processing device and its control method, program
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP6579727B1 (en) * 2019-02-04 2019-09-25 株式会社Qoncept Moving object detection device, moving object detection method, and moving object detection program
WO2021217450A1 (en) * 2020-04-28 2021-11-04 深圳市大疆创新科技有限公司 Target tracking method and device, and storage medium
CN114612522B (en) * 2022-05-09 2023-01-17 广东金融学院 Table tennis sport parameter detection method and device and table tennis training auxiliary system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008535038A (en) * 2005-04-01 2008-08-28 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド A method for tracking moving objects in a video acquired for a scene by a camera
JP2008250999A (en) * 2007-03-08 2008-10-16 Omron Corp Object tracing method, object tracing device and object tracing program
JP2010257441A (en) * 2009-04-21 2010-11-11 Nec Soft Ltd Apparatus and method for tracking person, and person tracking processing program

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795461A (en) * 1993-09-25 1995-04-07 Sony Corp Target tracking device
US7035431B2 (en) * 2002-02-22 2006-04-25 Microsoft Corporation System and method for probabilistic exemplar-based pattern tracking
JP5213486B2 (en) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント Object tracking device and object tracking method
JP5635736B2 (en) * 2009-02-19 2014-12-03 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
WO2011091877A1 (en) 2010-01-27 2011-08-04 Asml Holding N.V. Holographic mask inspection system with spatial filter
WO2011102416A1 (en) * 2010-02-19 2011-08-25 株式会社 東芝 Moving object tracking system and moving object tracking method
JP4784709B1 (en) * 2011-03-10 2011-10-05 オムロン株式会社 Object tracking device, object tracking method, and control program
CN103003842B (en) 2011-03-22 2015-08-19 株式会社摩如富 Detector for moving object, Mobile object detection method, moving body track device, moving body track method
JP5841390B2 (en) * 2011-09-30 2016-01-13 セコム株式会社 Moving object tracking device
DE102013204935A1 (en) * 2013-03-20 2014-09-25 Robert Bosch Gmbh Method and device for taking a picture of a pulsed lighting object
JP6273685B2 (en) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method
EP3012115A4 (en) 2013-06-19 2017-03-08 Chengdu Youyang Electromechanical Product Design Co. Ltd. Rotating mechanism with elastic protective casing
CN104794733B (en) * 2014-01-20 2018-05-08 株式会社理光 Method for tracing object and device
WO2016021143A1 (en) 2014-08-04 2016-02-11 パナソニック株式会社 Moving body tracking method and moving body tracking device
JP6628494B2 (en) * 2015-04-17 2020-01-08 Kddi株式会社 Apparatus, program, and method for tracking object using discriminator learning based on real space information
JP2016207140A (en) * 2015-04-28 2016-12-08 Kddi株式会社 Video analysis device, video analysis method, and program
EP3353706A4 (en) * 2015-09-15 2019-05-08 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
CN106920248A (en) * 2017-01-19 2017-07-04 博康智能信息技术有限公司上海分公司 A kind of method for tracking target and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008535038A (en) * 2005-04-01 2008-08-28 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド A method for tracking moving objects in a video acquired for a scene by a camera
JP2008250999A (en) * 2007-03-08 2008-10-16 Omron Corp Object tracing method, object tracing device and object tracing program
JP2010257441A (en) * 2009-04-21 2010-11-11 Nec Soft Ltd Apparatus and method for tracking person, and person tracking processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7470997B2 (en) 2020-12-31 2024-04-19 ブロテイン インコーポレイテッド Putting Guide System

Also Published As

Publication number Publication date
CN109584268A (en) 2019-04-05
KR20190038409A (en) 2019-04-08
US20190122370A1 (en) 2019-04-25
CN109584268B (en) 2023-05-23
US10909688B2 (en) 2021-02-02
JP6412998B1 (en) 2018-10-24
KR102078473B1 (en) 2020-02-17

Similar Documents

Publication Publication Date Title
JP6412998B1 (en) Moving object tracking device, moving object tracking method, moving object tracking program
Huang et al. Tracknet: A deep learning network for tracking high-speed and tiny objects in sports applications
Kamel et al. Deep convolutional neural networks for human action recognition using depth maps and postures
US11176359B2 (en) Motion recognition device and motion recognition method
JP6525453B2 (en) Object position estimation system and program thereof
JP6950692B2 (en) People flow estimation device, people flow estimation method and program
JP4208898B2 (en) Object tracking device and object tracking method
CN110738101A (en) Behavior recognition method and device and computer readable storage medium
Abdul-Azim et al. Human action recognition using trajectory-based representation
US8135172B2 (en) Image processing apparatus and method thereof
JP2018181273A (en) Image processing apparatus, method thereof, and program
JP6656988B2 (en) Image processing device, semiconductor device, image recognition device, mobile device, and image processing method
JP6381368B2 (en) Image processing apparatus, image processing method, and program
Ruan et al. Dynamic gesture recognition based on improved DTW algorithm
CN104881640A (en) Method and device for acquiring vectors
Sun et al. Bottom-up human pose estimation by ranking heatmap-guided adaptive keypoint estimates
Baumann et al. Action graph a versatile data structure for action recognition
JP2012226607A (en) Feature selection method and device, and pattern identification method and device
CN113297963A (en) Multi-person posture estimation method and device, electronic equipment and readable storage medium
JP2017033556A (en) Image processing method and electronic apparatus
JP6393495B2 (en) Image processing apparatus and object recognition method
Dziri et al. Late fusion of multiple convolutional layers for pedestrian detection
JP2011232845A (en) Feature point extracting device and method
KR20150144179A (en) The Method and Apparatus of Object Part Position Estimation
Dong et al. Gesture recognition using quadratic curves

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6412998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250