JP2019101892A - Object tracking device and program thereof - Google Patents

Object tracking device and program thereof Download PDF

Info

Publication number
JP2019101892A
JP2019101892A JP2017234038A JP2017234038A JP2019101892A JP 2019101892 A JP2019101892 A JP 2019101892A JP 2017234038 A JP2017234038 A JP 2017234038A JP 2017234038 A JP2017234038 A JP 2017234038A JP 2019101892 A JP2019101892 A JP 2019101892A
Authority
JP
Japan
Prior art keywords
position data
image
infrared light
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017234038A
Other languages
Japanese (ja)
Other versions
JP6983049B2 (en
Inventor
高橋 正樹
Masaki Takahashi
正樹 高橋
真介 横澤
Shinsuke Yokozawa
真介 横澤
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
三科 智之
Tomoyuki Mishina
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017234038A priority Critical patent/JP6983049B2/en
Publication of JP2019101892A publication Critical patent/JP2019101892A/en
Application granted granted Critical
Publication of JP6983049B2 publication Critical patent/JP6983049B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an object tracking device capable of exactly tracking an object even when missing of a detection position is generated.SOLUTION: An object tracking device 30 is provided with: an infrared light detection unit 311 which detects an infrared light region; a position data generation unit 313 which generates position data of the infrared light region; a missing section specification unit 331 which specifies a missing section of the position data; a feature point detection unit 333 which detects a feature point of a visible image on the basis of the position data on both ends of the missing section; a position data interpolation unit 335 which interpolates the missing position data at a detection position of the feature point; and a trajectory drawing unit 353 which draws a trajectory on the basis of the position data.SELECTED DRAWING: Figure 3

Description

本発明は、赤外画像及び可視画像を用いて、オブジェクトを追跡するオブジェクト追跡装置及びそのプログラムに関する。   The present invention relates to an object tracking device for tracking an object using an infrared image and a visible image, and a program thereof.

近年、映像解析技術の進展に伴い、カメラを用いた様々なアプリケーションが提案されている。この技術の発展は、特にスポーツシーンの映像解析において顕著である。例えば、ウィンブルドンでも使用されているテニスのホークアイシステムは、複数の固定カメラの映像を用いてテニスボールを3次元的に追跡し、IN/OUTの判定を行っている。また2014年のFIFAワールドカップでは、ゴールラインテクノロジーと称して、数台の固定カメラの映像を解析し、ゴールの判定を自動化している。さらにサッカースタジアムに多数のステレオカメラを設置し、フィールド内の全選手をリアルタイムに追跡するTRACABシステムも知られている。   In recent years, with the development of video analysis technology, various applications using cameras have been proposed. The development of this technology is particularly remarkable in video analysis of sports scenes. For example, the Hawkeye system of tennis, which is also used in Wimbledon, three-dimensionally tracks a tennis ball using images of a plurality of fixed cameras, and performs IN / OUT determination. Also, in 2014 FIFA World Cup, called the goal line technology, it analyzes the images of several fixed cameras and automates the determination of goals. There is also known a TRACAB system that installs a large number of stereo cameras at a football stadium and tracks all players in the field in real time.

これら映像解析技術は、時間解像度が30フレーム/秒(fps)のカメラで撮影した映像を利用する前提であることが多い。例えば、フェンシングの剣先、バドミントンのシャトル等、目視が困難なほどの高速で移動するオブジェクトを撮影すると、映像上では、そのオブジェクトに極度のモーションブラーが発生する(図8の符号α)。このため、映像のみからオブジェクト位置を正確に計測することが極めて困難である。高速で移動するオブジェクトを撮影する場合、30fpsを超えるハイスピートカメラを利用したり、シャッター速度を高速化することで、モーションブラーを軽減できる。その一方、ハイスピードカメラは高価であり、シャッター速度を高速化すると映像の輝度が低下するという問題がある。   These video analysis techniques are often based on the use of video taken with a camera having a time resolution of 30 frames per second (fps). For example, when shooting an object moving at a high speed that makes it difficult to visually recognize, such as a fencing sword tip or a badminton shuttle, extreme motion blur occurs in the object on the image (symbol α in FIG. 8). For this reason, it is extremely difficult to accurately measure the object position only from the image. When shooting objects that move at high speed, motion blur can be reduced by using a high-speed camera that exceeds 30 fps or by increasing the shutter speed. On the other hand, high-speed cameras are expensive, and there is a problem that increasing the shutter speed reduces the brightness of the image.

そこで、オブジェクトにセンサを装着し、その動きを解析する技術が提案されている。例えば、特許文献1,2に記載の発明は、選手のウェアやリストバンドに装着した加速度センサから、そのプレー内容を機械学習で識別するものである。この従来技術によれば、テニスでのサーブやボレー等のプレー内容を自動判定することができる。しかし、特許文献1,2に記載の発明では、選手に装着したセンサが競技の妨げとなることが多く、実際の試合でセンサを用いることは現実的でない。   Therefore, techniques have been proposed for attaching a sensor to an object and analyzing its movement. For example, in the inventions described in Patent Documents 1 and 2, the content of play is identified by machine learning from an acceleration sensor attached to a player's wear or a wristband. According to this conventional technique, it is possible to automatically determine the play content such as serve and volley in tennis. However, in the inventions described in Patent Documents 1 and 2, the sensor attached to the player often interferes with the game, and it is not practical to use the sensor in an actual game.

従って、オブジェクトにセンサを付けない技術も提案されている。例えば、特許文献3に記載の発明は、フェンシングの剣先に反射テープを貼り付け、その反射テープに赤外光を照射し、その反射光を赤外画像から検出することで、正確(頑健)にオブジェクトを追跡するものである。   Therefore, techniques have also been proposed that do not attach a sensor to an object. For example, according to the invention described in Patent Document 3, a reflective tape is attached to the tip of a fencing, infrared light is irradiated to the reflective tape, and the reflected light is detected from an infrared image to be accurate (robust) It tracks objects.

特開2014−187481公報JP, 2014-187481, A 特開2016−97228号公報JP, 2016-97228, A 特開2017−156796号公報JP, 2017-156796, A

しかし、特許文献3に記載の発明では、オブジェクトが高速に移動した場合や反射テープがカメラに正対していない場合、反射テープからの反射光が微弱なため、赤外画像でのオブジェクト検出が困難となり、検出位置の欠落が生じてしまう。再び反射光が十分な光量となり追跡を再開できても、検出位置の欠落区間が長時間にわたると不自然な軌跡となり、オブジェクトの正確な軌道を表現することが困難である。   However, in the invention described in Patent Document 3, when the object moves at a high speed or when the reflective tape does not face the camera, the reflected light from the reflective tape is weak, making it difficult to detect the object in the infrared image. As a result, the detection position is lost. Even if the reflected light becomes a sufficient amount of light and tracking can be resumed, if the missing section of the detection position is unnatural for a long time, it is difficult to represent the accurate trajectory of the object.

そこで、本発明は、検出位置が欠落した場合でも正確にオブジェクトを追跡できるオブジェクト追跡装置及びそのプログラムを提供することを課題とする。   Then, this invention makes it a subject to provide the object tracking apparatus which can track an object correctly, even when a detection position is missing, and its program.

前記した課題に鑑みて、本発明に係るオブジェクト追跡装置は、赤外光マーカを付けて移動する1以上のオブジェクトを赤外光で撮影した赤外画像と、前記オブジェクトを可視光で撮影した可視画像とを用いて、前記オブジェクトを追跡するオブジェクト追跡装置であって、赤外光検出部と、位置データ生成部と、欠落区間特定部と、特徴点検出部と、位置データ補間部と、オブジェクト追跡部と、を備える構成とした。   In view of the problems described above, an object tracking device according to the present invention is an infrared image obtained by photographing one or more objects moving with an infrared light marker by infrared light, and a visible light obtained by photographing the object by visible light An object tracking apparatus for tracking the object using an image, comprising: an infrared light detection unit, a position data generation unit, a missing section identification unit, a feature point detection unit, a position data interpolation unit, an object And a tracking unit.

かかる構成によれば、オブジェクト追跡装置は、赤外光検出部によって、前記赤外画像から前記赤外光マーカの領域を赤外光領域として検出する。
また、オブジェクト追跡装置は、位置データ生成部によって、前記赤外光領域を検出できたときは当該赤外光領域の検出位置又は前記赤外光領域を検出できないときは前記検出位置の欠落と、当該赤外光領域の検出対象となった赤外画像の時刻情報とが含まれる位置データを生成する。
According to this configuration, the object tracking device detects the region of the infrared light marker from the infrared image as an infrared light region by the infrared light detection unit.
Further, when the object tracking device can detect the infrared light region by the position data generation unit, the detection position of the infrared light region or the absence of the detection position when the infrared light region can not be detected; The position data including the time information of the infrared image which is the detection target of the infrared light region is generated.

また、オブジェクト追跡装置は、欠落区間特定部によって、前記位置データの欠落区間を特定し、特定した前記欠落区間の開始時刻から終了時刻までの時間長が予め設定した閾値以上であるか否かを判定する。   In addition, the object tracking device identifies the missing section of the position data by the missing section identifying unit, and determines whether the time length from the start time to the end time of the identified missing section is equal to or greater than a preset threshold. judge.

ここで、開始時刻直前及び終了時刻直後の赤外画像では、オブジェクトに付けた赤外光マーカの検出が成功している。従って、開始時刻及び終了時刻の可視画像では、それら赤外画像での検出位置周辺にオブジェクトが存在する可能性が高い。   Here, in the infrared image immediately before the start time and immediately after the end time, detection of the infrared light marker attached to the object is successful. Therefore, in the visible image of the start time and the end time, there is a high possibility that the object exists around the detection position in the infrared image.

そこで、オブジェクト追跡装置は、特徴点検出部によって、前記欠落区間の時間長が前記閾値以上の場合、前記開始時刻直前及び前記終了時刻直後の位置データから前記検出位置を取得し、取得した前記検出位置に基づいて画像領域を前記開始時刻及び前記終了時刻の可視画像に設定し、設定した前記画像領域から特徴点を検出する。   Therefore, the object tracking device acquires the detection position from the position data immediately before the start time and immediately after the end time when the feature point detection unit determines that the time length of the missing section is equal to or more than the threshold. An image area is set to the visible image of the start time and the end time based on the position, and a feature point is detected from the set image area.

また、オブジェクト追跡装置は、位置データ補間部によって、前記開始時刻及び前記終了時刻の位置データを前記特徴点の検出位置で補間し、補間した前記位置データを前記欠落区間特定部に出力する。
また、オブジェクト追跡装置は、オブジェクト追跡部によって、前記欠落区間の時間長が前記閾値未満の場合、前記位置データに基づいて前記オブジェクトを追跡する。
そして、オブジェクト追跡装置は、前記欠落区間特定部によって、前記位置データ補間部から入力された位置データの欠落区間を特定する。
Further, the object tracking device interpolates the position data of the start time and the end time by the position data interpolation unit at the detection position of the feature point, and outputs the interpolated position data to the missing section identification unit.
Further, the object tracking device tracks the object based on the position data when the time length of the missing section is less than the threshold value by the object tracking unit.
Then, the object tracking device specifies the missing section of the position data input from the position data interpolating unit by the missing section specifying unit.

このように、オブジェクト追跡装置は、時刻順に特徴点を検出する訳でなく、オブジェクトが存在する可能性の高い開始時刻及び終了時刻の可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。そして、オブジェクト追跡装置は、位置データの欠落区間を両端から狭めるように前記処理を繰り返す。   As described above, the object tracking device does not detect feature points in order of time, but detects feature points from visible images of start time and end time where there is a high possibility that an object exists, and detects the feature points Interpolate position data. Then, the object tracking device repeats the above process so as to narrow the missing section of the position data from both ends.

本発明によれば、以下のような優れた効果を奏する。
本発明に係るオブジェクト追跡装置は、オブジェクトが存在する可能性の高い開始時刻及び終了時刻の可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。これにより、オブジェクト追跡装置は、検出位置が欠落した場合でも正確にオブジェクトを追跡することができる。
According to the present invention, the following excellent effects can be obtained.
The object tracking device according to the present invention detects feature points from visible images of start time and end time where an object is likely to exist, and interpolates position data at the detected positions of the feature points. Thus, the object tracking device can accurately track the object even if the detected position is missing.

本発明の実施形態に係るオブジェクト追跡システムの概略構成図である。It is a schematic block diagram of the object tracking system concerning the embodiment of the present invention. 剣先の拡大図である。It is an enlarged view of a sword point. 図1のオブジェクト追跡装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object tracking apparatus of FIG. (a)及び(b)は位置データを説明する説明図である。(A) And (b) is explanatory drawing explaining position data. (a)及び(b)はFAST特徴量を説明する説明図である。(A) And (b) is explanatory drawing explaining a FAST feature-value. 軌跡合成画像の一例を説明する説明図である。It is explanatory drawing explaining an example of a locus | trajectory synthetic | combination image. 図3のオブジェクト追跡装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the object tracking apparatus of FIG. フェンシングの映像におけるモーションブラーを説明する説明図である。It is explanatory drawing explaining the motion blur in the image | video of fencing.

[オブジェクト追跡システムの概略]
図1を参照し、本発明の実施形態に係るオブジェクト追跡システム1の概略について説明する。
以後の実施形態では、フェンシングにおいて、選手が持つ剣先(オブジェクト)を追跡対象として説明する。フェンシングの最中、両選手の剣先は、高速で移動することが多い。
Outline of Object Tracking System
An outline of an object tracking system 1 according to an embodiment of the present invention will be described with reference to FIG.
In the following embodiments, in fencing, a sword tip (object) held by a player is described as a tracking target. During fencing, both players often move at high speed.

オブジェクト追跡システム1は、可視光及び赤外光を同光軸で撮影可能な可視・赤外同光軸カメラ20を利用して、高速で移動する2本の剣先位置を追跡し、その軌跡C(C,C)を描画するものである。図1に示すように、オブジェクト追跡システム1は、赤外光投光器10と、可視・赤外同光軸カメラ20と、オブジェクト追跡装置30と、を備える。 The object tracking system 1 tracks two sword tips moving at high speed using a visible / infrared coaxial camera 20 capable of photographing visible light and infrared light with the same optical axis, and its trajectory C (C 1 , C 2 ) is drawn. As shown in FIG. 1, the object tracking system 1 includes an infrared light projector 10, a visible / infrared coaxial camera 20, and an object tracking device 30.

赤外光投光器10は、赤外光を投光する一般的な投光器である。
図2に示すように、この赤外光投光器10が投光した赤外光は、両選手の剣先90に付けた反射テープ(赤外光マーカ)91で反射され、後記する可視・赤外同光軸カメラ20で撮影される。
The infrared light projector 10 is a general light projector which projects infrared light.
As shown in FIG. 2, the infrared light emitted by the infrared light projector 10 is reflected by a reflective tape (infrared light marker) 91 attached to the tips 90 of both players, and visible and infrared light described later Photographed by the optical axis camera 20.

反射テープ91は、赤外光投光器10からの赤外線を反射するものである。この反射テープ91は、剣先90に1枚以上付ければよく、その大きさや枚数に特に制限はない。図2の例では、剣先90は、その側面に矩形状の反射テープ91を1枚付けている。ここで、剣先90は、側面反対側に反射テープ91を1枚追加してもよく、その側面を一周するように帯状の反射テープ91を巻いてもよい(不図示)。   The reflective tape 91 is for reflecting the infrared light from the infrared light projector 10. One or more reflective tape 91 may be attached to the point 90, and the size and the number thereof are not particularly limited. In the example of FIG. 2, the point 90 has attached one rectangular reflective tape 91 on its side surface. Here, as for the point 90, one reflective tape 91 may be added to the side opposite to the side, and a band-like reflective tape 91 may be wound around the side (not shown).

可視・赤外同光軸カメラ20は、可視光と赤外光を同一光軸で撮影し、同一画素数の可視画像I及び赤外画像Hを生成するものである。本実施形態では、可視・赤外同光軸カメラ20は、フェンシングの競技を撮影した可視画像Iと、剣先90の反射テープ91を撮影した赤外画像Hと、を生成する。ここで、可視画像Iの剣先90と、赤外画像Hの反射テープ91との画像座標が対応するため、3次元空間での視点変換を行うことなく軌跡Cを描画できる。   The visible and infrared coaxial camera 20 captures visible light and infrared light with the same optical axis, and generates a visible image I and an infrared image H with the same number of pixels. In the present embodiment, the visible / infrared coaxial camera 20 generates a visible image I obtained by shooting a fencing competition and an infrared image H obtained by shooting the reflective tape 91 of the point 90. Here, since the image coordinates of the sword tip 90 of the visible image I and the reflection tape 91 of the infrared image H correspond to each other, the trajectory C can be drawn without performing viewpoint conversion in a three-dimensional space.

オブジェクト追跡装置30は、可視・赤外同光軸カメラ20から入力された赤外画像Hと可視画像Iとを用いて、両選手の剣先90を追跡するものである。そして、オブジェクト追跡装置30は、追跡した両選手の剣先90の軌跡C,Cを異なる色で描画し、描画した軌跡C,Cを可視画像Iに合成することで、軌跡合成画像Fを生成する。
なお、図1では、左側の選手が持つ剣先90の軌跡Cを破線で図示し、右側の選手が持つ剣先90の軌跡Cを一点鎖線で図示した。
The object tracking device 30 tracks the sword tips 90 of both players using the infrared image H and the visible image I input from the visible / infrared coaxial camera 20. The object tracking device 30 draws a locus C 1, C 2 of the loop-taker point 90 of the two players tracked in different colors, a locus C 1, C 2 drawn by synthesizing the visual image I, the locus-synthesized image Generate F.
In FIG. 1, the locus C 1 of the sword tip 90 possessed by the left player is illustrated by a broken line, and the locus C 2 of the sword tip 90 possessed by the right player is illustrated by an alternate long and short dash line.

[オブジェクト追跡装置の構成]
図3を参照し、オブジェクト追跡装置30の構成について説明する。
図3に示すように、オブジェクト追跡装置30は、赤外光検出手段31と、可視画像解析手段33と、タイムコード連動型CG合成手段35と、を備える。以下、タイムコード連動型CG合成手段35をTC連動型CG合成手段35と略記する。
[Configuration of Object Tracking Device]
The configuration of the object tracking device 30 will be described with reference to FIG.
As shown in FIG. 3, the object tracking device 30 includes an infrared light detection means 31, a visible image analysis means 33, and a time code linked CG synthesis means 35. Hereinafter, the time code linked CG synthesis means 35 will be abbreviated as the TC linked CG synthesis means 35.

ここで、オブジェクト追跡装置30は、時間方向に連続するフレーム1,…,t−1,t,…の赤外画像H及び可視画像Iが入力され、入力された赤外画像H及び可視画像Iに順次処理を施すこととする。以後、現在のフレーム(現フレーム)をtとし、現フレームtの赤外画像H及び可視画像Iを赤外画像H及び可視画像Iとする。この添え字tは、各画像や位置情報の時刻情報(例えば、タイムコードを表す)。 Here, the object tracking device 30 receives the infrared image H and the visible image I of the frames 1,..., T−1, t,. We will process in order. Thereafter, the current frame (present frame) and t, the infrared image H and the visible image I of the current frame t and infrared image H t and the visible image I t. The subscript t indicates time information (for example, a time code) of each image or position information.

赤外光検出手段31は、現フレームtの赤外画像Hから剣先90を検出し、剣先90の位置データを生成するものである。本実施形態では、赤外光検出手段31は、赤外画像Hに含まれる2つの剣先90を検出し、剣先90毎に位置データを生成する。この赤外光検出手段31は、赤外光検出部311と、位置データ生成部313と、を備える。 Infrared light detecting means 31 detects the loop-taker point 90 from the infrared image H t of the current frame t, and generates the position data of the point of a sword 90. In the present embodiment, infrared light detecting means 31 detects the two hook point 90 included in the infrared image H t, to generate position data for each point of a sword 90. The infrared light detection unit 31 includes an infrared light detection unit 311 and a position data generation unit 313.

赤外光検出部311は、可視・赤外同光軸カメラ20より入力された赤外画像Hから赤外光マーカの領域を赤外光領域として検出するものである。この赤外光検出部311は、任意の手法で赤外光領域を検出できる。以下、赤外光検出部311における赤外光領域の検出手法の一例を説明する。 Infrared detection unit 311 detects a region of the infrared light marker as infrared light region from the input from the visible and infrared same optical axis camera 20 infrared image H t. The infrared light detection unit 311 can detect an infrared light region by any method. Hereinafter, an example of a detection method of the infrared light region in the infrared light detection unit 311 will be described.

本実施形態では、赤外画像Hから反射テープ91の領域を候補ブロブとして抽出する。そして、赤外光検出部311は、予め設定した面積及び形状特徴量の範囲内の候補ブロブを、予め設定したオブジェクト上限数だけ候補ブロブの面積が広い順に検出ブロブとして検出する。本実施形態では、オブジェクト上限数は、剣先90と同数の‘2’に設定する。 In this embodiment, it extracts an area of the reflective tape 91 as a candidate blob from the infrared image H t. Then, the infrared light detection unit 311 detects candidate blobs within the range of the area and shape feature amount set in advance as detection blobs in the order of the area of the candidate blob being wide by the upper limit number of objects set in advance. In the present embodiment, the upper limit number of objects is set to “2” which is the same number as that of the sword tip 90.

まず、赤外光検出部311は、下記の式(1)を用いて、赤外画像Hと、1つ前のフレームの赤外画像Ht−1との2値赤外差分画像を生成することで、動オブジェクトの領域Qのみを抽出する。つまり、赤外光検出部311は、赤外画像Hの画素(x,y)の輝度値Hxy と、赤外画像Ht−1の画素(xt−1,yt−1)の輝度値Hxy t−1との差分を求める。そして、赤外光検出部311は、求めた差分が予め設定した閾値Rbri2を超える動オブジェクトの領域Qxy を、候補ブロブとして抽出する。 First, the infrared light detecting unit 311, using Equation (1) below, generates a binary infrared difference image and the infrared image H t, of the previous frame and the infrared image H t-1 by, to extract only the area Q t of the moving object. In other words, the infrared light detecting section 311, an infrared image H t of pixel (x t, y t) and the luminance value H xy t of infrared image H t-1 of the pixel (x t-1, y t- The difference between 1 ) and the luminance value H xy t-1 is determined. Then, the infrared light detection unit 311 extracts the area Q xy t of the moving object whose calculated difference exceeds the predetermined threshold R bri2 as a candidate blob.

ここで、x,yは、水平及び垂直の画像座標を表す。また、閾値Rbri2は、任意の値で予め設定する。また、式(1)の‘0’、‘255’は、各画素の輝度値を表す。
なお、赤外光検出部311は、静止しているノイズブロブの発生を抑えるために2値赤外差分画像Qxy を生成したが、赤外画像Hで輝度が高い領域を候補ブロブとして抽出してもよい。
Here, x and y represent horizontal and vertical image coordinates. Further, the threshold R bri2 is set in advance as an arbitrary value. Further, '0' and '255' in the equation (1) represent the luminance value of each pixel.
The infrared light detection unit 311 generates the binary infrared difference image Q xy t in order to suppress the generation of the stationary noise blob, but extracts the region with high luminance in the infrared image H t as the candidate blob You may

次に、赤外光検出部311は、抽出した候補ブロブにモルフォロジ処理(オープニングモルフォロジ処理)を施し、小領域のノイズブロブを消去する。このモルフォロジ処理とは、画像をいくつかの方向に画素単位でずらした画像群と、もとの画像との画像間演算によって、小領域のノイズブロブを消去する処理である。   Next, the infrared light detection unit 311 performs a morphology process (opening morphology process) on the extracted candidate blob to erase the noise blob in the small area. The morphological processing is processing for erasing noise blobs in a small area by inter-image calculation of an original image and an image group in which an image is shifted in pixel units in several directions.

次に、赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施す。このラベリング処理とは、候補ブロブにラベル(番号)を割り当てる処理である。   Next, the infrared light detection unit 311 performs a labeling process on candidate blobs remaining in the morphological process. This labeling process is a process of assigning a label (number) to a candidate blob.

次に、赤外光検出部311は、ラベリング処理を施した候補ブロブの位置、面積及び形状特徴量を求める。ここで、候補ブロブの位置は、候補ブロブの中心位置又は重心位置である。また、候補ブロブの形状特徴量は、円形度や外接矩形のアスペクト比とする。   Next, the infrared light detection unit 311 obtains the position, area, and shape feature of the candidate blob subjected to the labeling process. Here, the position of the candidate blob is the center position or barycentric position of the candidate blob. Further, the shape feature amount of the candidate blob is assumed to be the circularity or the aspect ratio of the circumscribed rectangle.

そして、赤外光検出部311は、予め設定した最小面積から最大面積までの範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、形状特徴量が予め設定した範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、候補ブロブの数がオブジェクト上限数を超えている場合、面積が大きい2個の候補ブロブを検出ブロブとして残し、他の候補ブロブを消去する。   Then, the infrared light detection unit 311 deletes candidate blobs that are not within the range from the minimum area to the maximum area set in advance. Furthermore, the infrared light detection unit 311 deletes candidate blobs whose shape feature amount is not within a preset range. Furthermore, when the number of candidate blobs exceeds the upper limit number of objects, the infrared light detection unit 311 leaves two candidate blobs having large areas as detection blobs, and deletes other candidate blobs.

赤外光領域を検出できた場合(検出ブロブが残った場合)、赤外光検出部311は、赤外画像Hの時刻情報に対応付けて、検出ブロブの位置を赤外光領域の検出位置として位置データ生成部313に出力する。
一方、赤外光領域を検出できない場合(検出ブロブが残らない場合)、赤外光検出部311は、赤外画像Hの時刻情報と共に、赤外光領域が検出できないことを位置データ生成部313に通知する(検出失敗通知)。
When the infrared light region can be detected (when the detection blob remains), the infrared light detection unit 311 detects the position of the detection blob in the infrared light region in association with the time information of the infrared image H t The position is output to the position data generation unit 313 as a position.
On the other hand, when the infrared light region can not be detected (when the detection blob does not remain), the infrared light detection unit 311 detects that the infrared light region can not be detected together with the time information of the infrared image H t Notify 313 (detection failure notification).

位置データ生成部313は、赤外光検出部311から入力された赤外光領域の検出位置又は検出失敗通知と、赤外画像Hの時刻情報とに基づいて、位置データPを生成するものである。そして、位置データ生成部313は、生成した位置データPを欠落区間特定部331に出力する。 Position data generating unit 313, a detection position or detection failure notification infrared region input from the infrared light detecting section 311, based on the time information of the infrared image H t, generates position data P t It is a thing. Then, the position data generation unit 313 outputs the generated position data P to the missing section identification unit 331.

<位置データ>
以下、位置データを詳細に説明する。
この位置データPは、赤外光領域の位置情報と、赤外光領域の検出対象となった赤外画像Hの時刻情報(タイムコード)とを対応付けた情報である。
本実施形態では、赤外光領域の位置情報は、剣先90の検出位置を表す。ここで、赤外光領域の位置情報は、赤外光検出部311から赤外光領域の検出位置が入力された場合、その赤外光領域の画像座標(x,y)となる。一方、赤外光領域の位置情報は、赤外光検出部311から検出失敗通知が入力された場合、検出位置の欠落を示す画像座標(−1,−1)となる。
<Position data>
The position data will be described in detail below.
The position data P t is information in which position information of the infrared light region is associated with time information (time code) of the infrared image H t which is a detection target of the infrared light region.
In the present embodiment, the position information of the infrared light region indicates the detection position of the point 90. Here, when the detection position of the infrared light region is input from the infrared light detection unit 311, the position information of the infrared light region becomes image coordinates (x t , y t ) of the infrared light region. On the other hand, when the detection failure notification is input from the infrared light detection unit 311, the position information of the infrared light region becomes image coordinates (−1, −1) indicating a missing detection position.

図4(a)に示すように、位置データPの各行が、赤外画像Hのタイムコードと、その赤外画像Hに含まれる赤外光領域の位置情報とを表している。図4(a)の位置データPでは、1行目〜4行目及び10行目〜11行目が赤外光領域の検出位置を表し、5行目〜9行目が検出位置の欠落を表す。 As shown in FIG. 4 (a), each row of position data P is represents a time code of the infrared image H t, and the positional information of the infrared region included in the infrared image H t. In the position data P of FIG. 4A, the first to fourth lines and the tenth to eleventh lines indicate the detection position of the infrared light region, and the fifth to ninth lines indicate the missing detection position. Represent.

例えば、位置データPの1行目は、赤外画像Hのタイムコードが「10:25:30.25」であり、赤外光領域の画像座標が(1250,350)である。また、位置データPの5行目は、赤外画像Hのタイムコードが「10:25:30.29」であり、赤外光領域の画像座標が(−1,−1)なので、検出位置の欠落を表す。   For example, in the first line of the position data P, the time code of the infrared image H is “10: 25: 30.25”, and the image coordinates of the infrared light region are (1250, 350). In the fifth line of the position data P, the time code of the infrared image H is “10: 25: 30.29”, and the image coordinates of the infrared light region are (−1, −1). Represents the lack of

なお、位置データPは、オブジェクト毎に生成することとする。本実施形態では剣先90が2つのため、図4の位置データPが左側選手の剣先90に対応し、右側選手の剣先90に対応する位置データPも別に生成する。   Position data P is generated for each object. In the present embodiment, since there are two sword tips 90, position data P in FIG. 4 corresponds to the sword tip 90 of the left player, and position data P corresponding to the sword tip 90 of the right player is separately generated.

図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
可視画像解析手段33は、位置データPに含まれる欠落区間を特定し、欠落区間両端の可視画像から特徴点を検出し、位置データPを補間するものである。この可視画像解析手段33は、欠落区間特定部331と、特徴点検出部333と、位置データ補間部335と、を備える。
Returning to FIG. 3, the description of the configuration of the object tracking device 30 will be continued.
The visible image analysis means 33 specifies a missing section included in the position data P, detects feature points from visible images at both ends of the missing section, and interpolates the position data P. The visible image analysis unit 33 includes a missing section identification unit 331, a feature point detection unit 333, and a position data interpolation unit 335.

欠落区間特定部331は、位置データ生成部313又は位置データ補間部335から入力された位置データPの欠落区間を特定し、特定した欠落区間の時間長dが閾値m以上であるか否かを判定するものである。   The missing section identifying unit 331 identifies the missing section of the position data P input from the position data generating unit 313 or the position data interpolating unit 335, and determines whether the time length d of the identified missing section is equal to or greater than the threshold value m. It is to judge.

まず、欠落区間特定部331は、位置データPの各行を参照し、位置情報が連続して欠落している欠落区間を特定する。本実施形態では、欠落区間特定部331は、位置データPで画像座標(−1,−1)が含まれる行を特定する。   First, the missing section identification unit 331 refers to each row of the position data P and identifies a missing section in which position information is continuously missing. In the present embodiment, the missing section identification unit 331 identifies a line including the image coordinates (−1, −1) in the position data P.

次に、欠落区間特定部331は、画像座標(−1,−1)が連続する欠落区間のうち、最も先の時刻を欠落区間の開始時刻TSTとし、最も遅い時刻を欠落区間の終了時刻TEDとして求める。そして、欠落区間特定部331は、特定した欠落区間の開始時刻TSTから終了時刻TEDまでの時間長dを求める。 Next, the missing section identification unit 331 sets the earliest time as the start time T ST of the missing section among the missing sections in which the image coordinates (−1, −1) continue, and the latest time is the ending time of the missing section Calculated as T ED . Then, the missing segment identification unit 331 obtains a time length d from the start time T ST of the identified missing segment to the end time T ED .

次に、欠落区間特定部331は、求めた欠落区間の時間長dが閾値m以上であるか否かを判定する。この閾値mは、任意の値で予め設定されている(例えば、‘3’フレーム)。
時間長dが閾値m以上の場合、欠落区間特定部331は、位置データPと共に、求めた欠落区間の開始時刻TST及び終了時刻TEDを特徴点検出部333に出力する。
一方、時間長dが閾値m未満の場合、欠落区間特定部331は、位置データPを位置データ蓄積部351に書き込む。
Next, the missing section identification unit 331 determines whether or not the calculated time length d of the missing section is equal to or greater than the threshold value m. This threshold m is preset with an arbitrary value (for example, '3' frame).
When the time length d is equal to or more than the threshold value m, the missing section identification unit 331 outputs the position data P and the start time T ST and the end time T ED of the missing section obtained to the feature point detection section 333.
On the other hand, when the time length d is less than the threshold value m, the missing section identification unit 331 writes the position data P into the position data storage unit 351.

特徴点検出部333は、欠落区間の時間長dが閾値m以上の場合、位置データPから開始時刻直前及び終了時刻直後の検出位置を取得し、取得した検出位置に基づいて、開始時刻及び終了時刻の可視画像Iに画像領域を設定し、設定した画像領域から特徴点を検出するものである。この特徴点検出部333は、特徴点検出部333は、欠落区間特定部331から位置データPが入力され、可視・赤外同光軸カメラ20から可視画像Iが入力される。 When the time length d of the missing section is equal to or greater than the threshold value m, the feature point detection unit 333 acquires detection positions immediately before the start time and immediately after the end time from the position data P, and starts and ends the start time based on the acquired detection positions. It sets the image area to the time of the visual image I t, and detects a feature point from an image region set. The feature point detection unit 333, feature point detection unit 333, the position data P from the missing section identifying unit 331 is input, a visible image I t is inputted from the visible and infrared same optical axis camera 20.

まず、特徴点検出部333は、欠落区間の開始時刻TSTから開始直前時刻TST−1を求める。この開始直前時刻TST−1は、開始時刻TSTの1つ前の時刻(タイムコード)を表す。また、特徴点検出部333は、欠落区間の終了時刻TEDから終了直後時刻TED+1を求める。この終了直後時刻TED+1は、終了時刻TEDの1つ後の時刻(タイムコード)を表す。 First, the feature point detection unit 333 obtains a start just before time T ST-1 from the start time T ST missing sections. The time immediately before the start TST-1 represents a time (time code) immediately before the start time TST . In addition, the feature point detection unit 333 obtains time T ED + 1 immediately after the end from the end time T ED of the missing section. The time immediately after the end TED + 1 represents the time (time code) one after the end time TED .

ここで、開始直前時刻TST−1及び終了直後時刻TED+1の赤外画像Hでは、剣先90の検出に成功している。このため、開始時刻TSTの可視画像ISTにおいて、開始直前時刻TST−1の検出位置(xST-1,yST-1)の周辺に剣先90が存在する可能性が高い。これと同様、終了時刻TEDの可視画像IEDにおいても、終了直後時刻TED+1の検出位置(xED+1,yED+1)の周辺に剣先90が存在する可能性が高い。 Here, in the infrared image H immediately before the start time TST-1 and immediately after the time end TED + 1 , the detection of the point 90 has succeeded. Therefore, in the visible image I ST start time T ST, there is a high possibility that the loop-taker point 90 is present around the detection position immediately before the start time T ST-1 (x ST- 1, y ST-1). Similarly, also in the visible image I ED end time T ED, it is likely that there is a point of a sword 90 around the detection position of the end immediately after time T ED + 1 (x ED + 1, y ED + 1).

そこで、特徴点検出部333は、開始直前時刻TST−1の位置データPST−1から検出位置(xST-1,yST-1)を取得し、その検出位置(xST-1,yST-1)を基準とした画像領域(探索領域)を可視画像ISTに設定する。この画像領域は、検出位置を中心として任意の形状及びサイズで設定可能であり、例えば、縦160画素×横160画素の矩形領域である。
また、特徴点検出部333は、終了直後時刻TED+1の位置データPED+1から検出位置(xED+1,yED+1)を取得し、その検出位置(xED+1,yED+1)を基準とした画像領域を可視画像IEDに設定する。
Therefore, the feature point detection unit 333, immediately before the start time T detected position from the position data P ST-1 of the ST-1 (x ST-1 , y ST-1) acquires, the detection position (x ST-1, An image area (search area) based on y ST-1 ) is set as the visible image I ST . This image area can be set with an arbitrary shape and size centered on the detection position, and is, for example, a rectangular area of 160 vertical pixels × 160 horizontal pixels.
The feature point detection unit 333 obtains the detected position from the position data P ED + 1 of immediately after the end time T ED + 1 (x ED + 1, y ED + 1), an image area the detected position (x ED + 1, y ED + 1) as a reference Set to visible image I ED .

次に、特徴点検出部333は、この画像領域において、下記の式(2)を用いて、可視画像Iと、1つ前のフレームの可視画像It−1との差分画像Sを生成する。つまり、特徴点検出部333は、可視画像Iの画素(x,y)の輝度値Ixy と、可視画像It−1の画素(xt−1,yt−1)の輝度値Ixy t−1との差分が、予め設定した閾値Rbriを超える差分画像Sxy を抽出する。 Then, feature point detection unit 333 in the image area, using the equation (2) below, a visible image I t, of the previous frame difference image S t of a visible image I t-1 Generate That is, the feature point detection unit 333, the luminance value I xy t of a pixel of the visible image I t (x t, y t ), the visible image I t-1 pixels (x t-1, y t -1) A difference image S xy t in which the difference from the luminance value I xy t-1 exceeds a preset threshold R bri is extracted.

なお、式(2)を可視画像ISTに適用する際はt=STとし、式(2)を可視画像IEDに適用する際はt=EDとする。また、閾値Rbriは、任意の値で予め設定する。
また、特徴点検出部333は、赤外光検出部311と同様、差分画像Sにオープニングモルフォロジ処理を施し、小領域のノイズブロブを除去してもよい。
In addition, when applying Formula (2) to visible image IST , it is set as t = ST, and when Formula (2) is applied to visible image IED , it is set as t = ED. In addition, the threshold value R bri is set in advance as an arbitrary value.
The feature point detection unit 333, similarly to the infrared light detecting section 311, subjected to opening morphological processing to the differential image S t, may be removed Noizuburobu subregion.

特徴点を差分画像Sから検出することで、固定カメラ映像の場合、静止したノイズブロブの発生を抑制することができる。動カメラ映像の場合、カメラの動きによる差分が生じるため、差分画像Sを利用する効果が低減する。その場合、特徴点検出部333は、エッジ画像を作成し、エッジ値の高い画像領域から特徴点を検出してもよい。さらに、特徴点検出部333は、2値化を行わず、差分値、エッジ値又は輝度値をそのまま利用して特徴点を検出してもよい。 By detecting the feature point from the difference image S t, the case of a fixed camera image, it is possible to suppress the occurrence of Noizuburobu stationary. For moving the camera image, since the difference due to the movement of the camera occurs, the effect is reduced to utilize the difference image S t. In that case, the feature point detection unit 333 may create an edge image and detect feature points from an image area having a high edge value. Furthermore, the feature point detection unit 333 may detect a feature point using the difference value, the edge value, or the luminance value as it is without performing binarization.

次に、特徴点検出部333は、可視画像ISTに設定した差分画像Sxy STから特徴点を検出し、検出した特徴点の中から、開始直前時刻TST−1における赤外光領域の検出位置(xST-1,yST-1)に最も近い特徴点を、開始時刻TSTの特徴点として取得する。
さらに、特徴点検出部333は、可視画像IEDに設定した差分画像Sxy EDから特徴点を検出し、検出した特徴点の中から、終了直後時刻TED+1における赤外光領域の検出位置(xED+1,yED+1)に最も近い特徴点を、終了時刻TEDの特徴点として取得する。
その後、特徴点検出部333は、取得した開始時刻TST及び終了時刻TEDの特徴点の位置を位置データ補間部335に出力する。
Next, the feature point detection unit 333 detects feature points from the difference image S xy ST set in the visible image I ST , and among the detected feature points, the infrared light region at the start time T ST-1 immediately before the start The feature point closest to the detection position (x ST-1 , y ST-1 ) is acquired as the feature point of the start time T ST .
Furthermore, the feature point detection unit 333 detects a feature point from the difference image S xy ED set in the visible image I ED and detects the detection position of the infrared light region at time T ED + 1 immediately after the end from the detected feature points ( The feature point closest to x ED + 1 , y ED + 1 ) is acquired as the feature point of the end time T ED .
Thereafter, the feature point detection unit 333 outputs the position of the feature point of the acquired start time T ST and end time T ED to the position data interpolation unit 335.

前記した特徴点の検出手法としては、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)等が代表的であるが、特徴点検出部333は、どのような特徴点の検出手法を用いてもよい。本実施形態では、以下の参考文献に記載のFAST(Features from Accelerated Segment Test)特徴量を用いることとする。   As a method of detecting the feature points described above, Scale Invariant Feature Transform (SIFT), Speeded Up Robust Features (SURF), etc. are representative, but the feature point detection unit 333 uses any method of detecting feature points. May be In this embodiment, it is assumed that the FAST (Features from Accelerated Segment Test) feature described in the following reference is used.

参考文献:Edward Rosten and Tom Drummond,”Machine learning for high-speed corner detection,” In Proc. of European Conference on Computer Vision (ECCV2006),pp.430-443,2006.   Reference: Edward Rosten and Tom Drummond, "Machine learning for high-speed corner detection," In Proc. Of the European Conference on Computer Vision (ECC V 2006), pp. 430-443, 2006.

<FAST特徴量>
このFAST特徴量は、コーナーのみを特徴点の対象とし、決定木により高速かつ効率的に特徴点を検出する。ここでは、図5(a)の可視画像IからFAST特徴量を検出することとして説明する。FAST特徴量では、図5(b)に示すように、注目画素pの周囲16箇所の画素を観測する。そして、FAST特徴量では、注目画素pの画素値と比較して、16個の観測画素のうち、連続してn個以上の画素値が閾値t以上明るくなる又は暗くなる場合、その注目画素pをコーナーとして検出する(但し、nは1以上の自然数)。
なお、図5(b)では、可視画像Iの注目画素をp、観測画素を1〜16の数値で図示した。
<FAST feature amount>
This FAST feature value targets only the corner as a feature point, and quickly and efficiently detects the feature point by the decision tree. Here, the detection of the FAST feature amount from the visible image I of FIG. 5A will be described. As shown in FIG. 5B, in the FAST feature amount, 16 pixels around the pixel of interest p are observed. Then, in the FAST feature amount, when n or more pixel values are successively brighter or darker than the threshold value t among the 16 observation pixels in comparison with the pixel value of the target pixel p, the target pixel p Is detected as a corner (where n is a natural number of 1 or more).
In FIG. 5B, the target pixel of the visible image I is shown by p, and the observation pixel is shown by a numerical value of 1-16.

FAST特徴量では、再現性の高い特徴点を高速かつ効率的に検出するために決定木を用いる。下記の式(3)に示すように、16個の観測画素を明るい(brighter)、類似(similar)、又は、暗い(darker)の3値に分類する。
なお、式(3)では、Iが注目画素pの輝度値、xが観測画素の位置、Ip→xが観測画素の輝度値、tが閾値を表す。
The FAST feature uses a decision tree to quickly and efficiently detect highly reproducible feature points. As shown in Equation (3) below, the 16 observation pixels are classified into three values: brighter, similar, or darker.
In Equation (3), I p represents the luminance value of the target pixel p, x represents the position of the observation pixel, I p → x represents the luminance value of the observation pixel, and t represents the threshold value.

3値に分類した観測画素を特徴ベクトルとし、観測画素の画素値が連続してn個以上、明るい(brighter)又は暗い(darker)のという条件を満たすとき、コーナーとして検出する。一方、この条件を満たさないとき、非コーナーとして扱う。このように決定木を構築し、コーナー及び非コーナーを最適に分類できる円上の観測画素を分岐ノードとして選択する処理を再帰的に行い、全体の木構造を得る。   An observation pixel classified into three values is regarded as a feature vector, and is detected as a corner when the condition that n or more pixel values of the observation pixel are brighter or darker successively is satisfied. On the other hand, when this condition is not satisfied, it is treated as a non-corner. The process of constructing a decision tree in this way and selecting an observation pixel on a circle capable of optimally classifying corners and non-corners as branch nodes is performed recursively to obtain a whole tree structure.

多くの特徴点検出手法では、特徴点らしさを表すレスポンス値の局所最大値を抽出することで、隣接して検出される特徴点の中で有効な画素のみを検出する。しかし、FAST特徴量では、レスポンス値を抽出しないため、以下の式(4)でレスポンス値Vを算出する。隣接して検出されたコーナー点の中で、最もレスポンス値Vが高い画素をコーナー点とすることで、互いに離れたコーナー点を検出できる。   In many feature point detection methods, only the effective pixels are detected among adjacently detected feature points by extracting the local maximum value of the response value representing the feature point likeness. However, since the response value is not extracted in the FAST feature amount, the response value V is calculated by the following equation (4). By setting a pixel having the highest response value V as a corner point among the corner points detected adjacent to each other, corner points separated from each other can be detected.

図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
位置データ補間部335は、開始時刻TST及び終了時刻TEDの位置データPを、特徴点検出部333から入力された特徴点の検出位置で補間するものである。つまり、検出位置が欠落している位置データPを、特徴点検出部333が検出した特徴点の位置で更新する。
Returning to FIG. 3, the description of the configuration of the object tracking device 30 will be continued.
The position data interpolation unit 335 interpolates the position data P of the start time TST and the end time TED with the detection position of the feature point input from the feature point detection unit 333. That is, the position data P where the detection position is missing is updated with the position of the feature point detected by the feature point detection unit 333.

続いて、位置データ補間部335は、補間した位置データPを欠落区間特定部331に出力する。
すると、欠落区間特定部331は、位置データ補間部335より入力された位置データPから欠落区間を再び特定する。その後、可視画像解析手段33は、前記した処理を繰り返す。
Subsequently, the position data interpolation unit 335 outputs the interpolated position data P to the missing section identification unit 331.
Then, the missing segment identification unit 331 identifies the missing segment again from the position data P input from the position data interpolating unit 335. Thereafter, the visible image analysis means 33 repeats the above process.

<位置データの補間>
図4を参照し、可視画像解析手段33による位置データの補間を具体例に説明する(適宜図3参照)。
ここでは、図4(a)の位置データPが入力され、閾値mが‘3’フレームであることとする。
<Interpolation of position data>
The interpolation of the position data by the visible image analysis means 33 will be described as a specific example with reference to FIG. 4 (see FIG. 3 as needed).
Here, it is assumed that the position data P of FIG. 4A is input, and the threshold value m is a '3' frame.

まず、図4(a)の位置データPにおける1回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している5行目〜9行目を欠落区間として特定する。そして、欠落区間特定部331は、5行目〜9行目の欠落区間のうち、最も先の時刻「10:25:30.29」を開始時刻TSTとし、最も遅い時刻「10:25:31.03」を終了時刻TEDとして求める。
First, the first interpolation in the position data P of FIG. 4A will be described.
The missing section identification unit 331 refers to each line of the position data P, and identifies the fifth to ninth lines in which the image coordinates (−1, −1) are continuous as a missing section. Then, the missing section identification unit 331 sets the earliest time “10: 25: 30.29” among the missing sections on the fifth to ninth lines as the start time T ST and the latest time “10:25: 31.03 "seek as the end time T ED.

次に、欠落区間特定部331は、欠落区間の開始時刻TST「10:25:30.29」から終了時刻TED「10:25:31.03」までの時間長dを‘5’フレームと算出し、欠落区間の時間長dと閾値mとの閾値判定を行う。ここで、欠落区間特定部331は、時間長d=‘5’が閾値m=‘3’以上なので、位置データPと、開始時刻TST「10:25:30.29」及び終了時刻TED「10:25:31.03」とを特徴点検出部333に出力する。 Next, the missing segment identification unit 331 sets the time length d from the start time T ST "10: 25: 30.29" to the ending time T ED "10: 25: 31.03" of the missing segment to a '5' frame. The threshold determination of the time length d of the missing section and the threshold value m is performed. Here, since the time length d = '5' is equal to or more than the threshold value m = '3', the missing section identification unit 331 determines that the position data P and the start time T ST "10: 25: 30.29" and the end time T ED It outputs “10: 25: 31.03” to the feature point detection unit 333.

特徴点検出部333は、開始時刻TST「10:25:30.29」の1フレーム前である開始直前時刻TST−1「10:25:30.28」を算出する。また、特徴点検出部333は、終了時刻TED「10:25:31.03」の1フレーム後である終了直後時刻TED+1「10:25:31.04」を算出する。そして、特徴点検出部333は、開始直前時刻TST−1の位置データPから画像座標(1255,344)を取得し、終了直後時刻TED+1の位置データPから画像座標(1265,331)を取得する。 Feature point detector 333, the start time T ST starts immediately before time "10: 25: 30.29" is one frame before T ST-1 "10: 25: 30.28" is calculated. The feature point detection unit 333, end time T ED "10: 25: 31.03" is after 1 frame immediately after the end time T ED + 1 "10: 25: 31.04" is calculated. Then, the feature point detection unit 333 obtains image coordinates (1255, 344) from the position data P at the time immediately before the start TST -1 , and obtains image coordinates (1265, 331) from the position data P at the time TED + 1 immediately after the end. get.

次に、特徴点検出部333は、開始時刻TSTの可視画像ISTに画像座標(1255,344)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻TEDの可視画像IEDに画像座標(1265,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。 Next, the feature point detection unit 333 sets an image area centered on the image coordinates (1255, 344) in the visible image I ST at the start time T ST , and detects feature points from this image area. Further, the feature point detecting unit 333 sets an image area obtained by image coordinates (1265,331) centered on the visible image I ED end time T ED, detects feature points from the image area.

位置データ補間部335は、図4(a)の位置データPにおいて、開始時刻TSTの画像座標(−1,−1)を特徴点の画像座標(1256,343)で更新する。また、位置データ補間部335は、終了時刻TEDの画像座標(−1,−1)を特徴点の画像座標(1264,331)で更新する。 The position data interpolation unit 335 updates the image coordinates (−1, −1) of the start time T ST with the image coordinates (1256, 343) of the feature point in the position data P of FIG. 4A. Further, the position data interpolation unit 335 updates the image coordinates (−1, −1) of the end time T ED with the image coordinates (1264, 331) of the feature point.

続いて、図4(b)の位置データPにおける2回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している6行目〜8行目を欠落区間として特定し、開始時刻TST「10:25:31.00」及び終了時刻TED「10:25:31.02」を求める。
Subsequently, the second interpolation in the position data P of FIG. 4B will be described.
The missing section identification unit 331 refers to each line of the position data P and identifies the sixth to eighth lines in which the image coordinates (−1, −1) are continuous as a missing section, and the start time T ST “ 10: 25: 31.00 "and end time T ED " 10: 25: 31.02 "are calculated | required.

次に、欠落区間特定部331は、欠落区間の時間長d=‘3’が閾値m=‘3’以上なので、位置データPと、開始時刻TST「10:25:31.00」及び終了時刻TED「10:25:31.02」とを特徴点検出部333に出力する。 Next, because the time length d of the missing section d = '3' is equal to or greater than the threshold value m = '3', the missing section identification unit 331 ends the position data P and the start time T ST "10: 25: 31.00" and ends The time T ED “10: 25: 31.02” is output to the feature point detection unit 333.

特徴点検出部333は、開始直前時刻TST−1「10:25:30.29」及び終了直後時刻TED+1「10:25:31.03」を算出する。そして、特徴点検出部333は、開始直前時刻TST−1の位置データPから画像座標(1256,343)を取得し、終了直後時刻TED+1の位置データPから画像座標(1264,331)を取得する。 The feature point detection unit 333 calculates a time immediately before the start T ST-1 “10: 25: 30.29” and a time immediately after the end T ED + 1 “10: 25: 31.03”. Then, the feature point detection unit 333 obtains image coordinates (1256, 343) from the position data P at the time immediately before the start TST -1 , and obtains image coordinates (1264, 331) from the position data P at the time TED + 1 immediately after the end. get.

次に、特徴点検出部333は、開始時刻TSTの可視画像ISTに画像座標(1256,343)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻TEDの可視画像IEDに画像座標(1264,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。 Next, the feature point detection unit 333 sets an image area centered on the image coordinates (1256, 343) in the visible image I ST at the start time T ST , and detects feature points from this image area. Further, the feature point detecting unit 333 sets an image area obtained by image coordinates (1264,331) centered on the visible image I ED end time T ED, detects feature points from the image area.

位置データ補間部335は、図4(b)の位置データPにおいて、開始時刻TST及び終了時刻TEDの画像座標(−1,−1)を、特徴点検出部333が検出した特徴点の画像座標で更新する。 The position data interpolator 335 detects the image coordinates (-1, -1) of the start time T ST and the end time T ED in the position data P of FIG. Update in image coordinates.

このように、可視画像解析手段33は、オブジェクトを高確率で検出可能な開始時刻TSTの可視画像IST及び終了時刻TEDの可視画像IEDからオブジェクトを検出し、徐々に位置データPの欠落区間を狭めていくことで、正確な位置データPを生成することができる。 Thus, a visible image analysis means 33, the visible image I ED visual image I ST and end time T ED detectable starting time T ST objects with high probability to detect an object, gradually the position data P By narrowing the missing section, accurate position data P can be generated.

なお、図4の位置データPでは欠落区間が1つであることとして説明したが、位置データPに複数の欠落区間が含まれる場合もある。この場合、可視画像解析手段33は、前記した処理をそれぞれの欠落区間に適用すればよい。
また、位置データは、図4の例に限定されないことは言うまでもない。
Although it has been described that the position data P in FIG. 4 has one missing section, the position data P may include a plurality of missing sections. In this case, the visible image analysis means 33 may apply the above-described processing to each of the missing sections.
Moreover, it goes without saying that the position data is not limited to the example of FIG.

図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
TC連動型CG合成手段35は、可視・赤外同光軸カメラ20から入力された可視画像IのタイムコードTをトリガとして、蓄積した位置データPからオブジェクトの位置座標を取得して軌跡を描画し、描画した軌跡を可視画像Iに合成するものである。
Returning to FIG. 3, the description of the configuration of the object tracking device 30 will be continued.
TC linked CG synthesizing unit 35 as a trigger time code T t of the visible image I t input from the visible and infrared same optical axis camera 20, from the stored position data P to obtain the position coordinates of the object trajectory draw a, it is to synthesize drawing trajectory into a visible image I t.

通常、プレイバックのスローVTRは、生映像やリアルタイムで生成したCG映像をVTRに収録し、使用するタイミングで巻き戻してから再生する。しかし、CG映像をリアルタイムで生成できない場合、位置データPを補間した後、VTRに収録した可視画像Iを再生して軌跡を描画する必要がある。この場合、一定の作業時間が必要となり効率が損なわれる。そのため、VTRに収録した映像の再生に同期したタイミングで軌跡を描画し、その場でCGを合成することが好ましい。   Usually, a slow VTR for playback records live images and CG images generated in real time on the VTR and rewinds them at the timing of use and then reproduces them. However, when a CG image can not be generated in real time, it is necessary to reproduce the visible image I recorded in the VTR and draw a locus after interpolating the position data P. In this case, a certain working time is required and the efficiency is lost. Therefore, it is preferable to draw a locus at timing synchronized with the reproduction of the video recorded in the VTR and synthesize CG on the spot.

図3に示すように、TC連動型CG合成手段35は、位置データ蓄積部351と、軌跡描画部(オブジェクト追跡部)353と、を備える。
位置データ蓄積部351は、位置データPを蓄積するHDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリ等の記憶装置である。この位置データPは、欠落区間特定部331によって書き込まれ、軌跡描画部353によって参照される。
As shown in FIG. 3, the TC-linked CG synthesis unit 35 includes a position data storage unit 351 and a trajectory drawing unit (object tracking unit) 353.
The position data storage unit 351 is a storage device such as a hard disk drive (HDD), a solid state drive (SSD), or a memory that stores position data P. The position data P is written by the missing section identification unit 331 and referred to by the trajectory drawing unit 353.

軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像Iの時刻情報に対応する位置データPを位置データ蓄積部351から読み出す。そして、軌跡描画部353は、読み出した位置データPの画素(x,y)に剣先90の軌跡を描画し、描画した軌跡及び可視画像Iを合成した軌跡合成画像Fを外部に出力するものである。 Locus drawing unit 353 reads the position data P t corresponding to the time information of the visual image I t input from the visible and infrared same optical axis camera 20 from the position data storage unit 351. Then, the locus drawing unit 353 draws the locus of the point 90 on the pixel (x t , y t ) of the read position data P t , and externally synthesizes the locus synthetic image F t obtained by synthesizing the drawn locus and the visible image I t Output.

例えば、軌跡描画部353は、両選手の剣先90の軌跡C,Cを異なる色で描画し、描画した軌跡C,Cを可視画像Iに合成することで、軌跡合成画像Fを生成する。ここで、左側選手の剣先90の検出に失敗している場合でも位置データPが補間されるので、軌跡描画部353は、図6に示すように、左側選手の剣先90の軌跡Cを描画できる。
なお、図6では矩形βは特徴点検出部333が設定した画像領域を表し、円γは赤外光検出部311が検出した剣先90を表す。
For example, the locus drawing unit 353, a locus C 1, C 2 of the loop-taker point 90 of the two players drawn in different colors, a locus C 1, C 2 drawn by synthesizing the visual image I t, locus-synthesized image F Generate t . Here, the position data P is interpolated even when the detection of the sword tip 90 of the left player fails, so the locus drawing unit 353 draws the locus C 1 of the sword tip 90 of the left player as shown in FIG. it can.
In FIG. 6, the rectangle β represents the image area set by the feature point detection unit 333, and the circle γ represents the tip 90 detected by the infrared light detection unit 311.

[オブジェクト追跡装置の動作]
図7を参照し、オブジェクト追跡装置30の動作について説明する(適宜図3参照)。
図7に示すように、赤外光検出部311は、2値赤外差分画像を生成し、抽出した候補ブロブにモルフォロジ処理を施す(ステップS1)。
[Operation of Object Tracking Device]
The operation of the object tracking device 30 will be described with reference to FIG. 7 (see FIG. 3 as needed).
As shown in FIG. 7, the infrared light detection unit 311 generates a binary infrared difference image, and performs morphological processing on the extracted candidate blobs (step S1).

赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施し、候補ブロブの位置、面積及び形状特徴量を求める。そして、赤外光検出手段31は、面積及び形状特徴量を基準にフィルタリングし、検出ブロブ(赤外光領域)を検出する(ステップS2)。
位置データ生成部313は、赤外光領域の検出位置と、赤外画像の時刻情報とを対応付けた位置データを生成する(ステップS3)。
The infrared light detection unit 311 performs labeling processing on the candidate blobs remaining in the morphological processing to obtain the position, area, and shape feature of the candidate blob. Then, the infrared light detection unit 31 performs filtering based on the area and shape feature amount to detect a detection blob (infrared light region) (step S2).
The position data generation unit 313 generates position data in which the detection position of the infrared light region is associated with the time information of the infrared image (step S3).

欠落区間特定部331は、位置データから欠落区間の開始時刻TST及び終了時刻TEDを取得し、その開始時刻TSTから終了時刻TEDまでの時間長dを求める(ステップS4)。
欠落区間特定部331は、欠落区間の時間長dが閾値m以上であるか否かを判定する(ステップS5)。
The missing section identification unit 331 acquires the start time T ST and the end time T ED of the missing section from the position data, and obtains the time length d from the start time T ST to the end time T ED (step S4).
The missing section identification unit 331 determines whether the time length d of the missing section is equal to or greater than the threshold value m (step S5).

時間長dが閾値m以上の場合(ステップS5でYes)、特徴点検出部333は、位置データから、開始直前時刻TST−1及び終了直後時刻TED+1の検出位置を取得する(ステップS6)。
特徴点検出部333は、可視画像に、開始直前時刻TST−1及び終了直後時刻TED+1の検出位置を基準とした画像領域を設定する(ステップS7)。
When the time length d is equal to or more than the threshold value m (Yes in step S5), the feature point detection unit 333 obtains the detection positions of time TST-1 immediately before the start and time TED + 1 immediately after the end from the position data (step S6). .
The feature point detection unit 333 sets, in the visible image, an image area based on the detection position of the time immediately before the start TST-1 and the time immediately after the end TED + 1 (step S7).

特徴点検出部333は、可視画像に設定した画像領域内の特徴点を検出する(ステップS8)。
位置データ補間部335は、過去の検出位置に最も近い特徴点で位置データを補間し(ステップS9)、ステップS4の処理に戻る。
The feature point detection unit 333 detects feature points in the image area set in the visible image (step S8).
The position data interpolation unit 335 interpolates position data at a feature point closest to the past detected position (step S9), and returns to the process of step S4.

時間長dが閾値m未満の場合(ステップS5でNo)、欠落区間特定部331は、位置データを位置データ蓄積部351に書き込む。
軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像の時刻情報に対応する位置データを位置データ蓄積部351から読み出す(ステップS10)。
軌跡描画部353は、読み出した位置データの検出位置に応じて、オブジェクトの軌跡を描画し、描画した軌跡を可視画像に合成する(ステップS11)。
If the time length d is less than the threshold value m (No in step S5), the missing section identification unit 331 writes the position data to the position data storage unit 351.
The trajectory drawing unit 353 reads from the position data storage unit 351 position data corresponding to time information of the visible image input from the visible / infrared coaxial camera 20 (step S10).
The locus drawing unit 353 draws the locus of the object according to the detected position of the read position data, and combines the drawn locus with the visible image (step S11).

[作用・効果]
本発明の実施形態に係るオブジェクト追跡装置30は、剣先90が存在する可能性の高い開始時刻TST及び終了時刻TEDの可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。これにより、オブジェクト追跡装置30は、検出位置が欠落する場合でも正確に剣先90の軌跡を描画することができる。
[Operation / effect]
The object tracking device 30 according to the embodiment of the present invention detects feature points from the visible images of the start time T ST and the end time T ED with high possibility of the presence of the point 90, and detects position data at the detected positions of the feature points. Interpolate. Thereby, the object tracking device 30 can accurately draw the trajectory of the point 90 even when the detected position is missing.

さらに、オブジェクト追跡装置30は、剣先90にセンサを付けることなく、高速で移動する剣先90を確実に追跡し、正確な軌跡を描画することができる。つまり、オブジェクト追跡装置30は、肉眼や通常のカメラ映像上での視認が難しい高速移動オブジェクトの動きを可視化することが可能である。このオブジェクト追跡装置30は、肉眼では確認できないほど高速で移動するフェンシングの剣先90について、その動きを映像で表現できる。これにより、オブジェクト追跡装置30は、フェンシングにおける剣先90の軌跡描画が可能になると共に、軌跡描画の品質を向上させることができる。   Furthermore, the object tracking device 30 can reliably track the moving tip 90 and draw an accurate trajectory without attaching a sensor to the tip 90. That is, the object tracking device 30 can visualize the movement of a high-speed moving object that is difficult to visually recognize with the naked eye or a normal camera image. The object tracking device 30 can express the movement of the fencing sword tip 90 moving at a speed that can not be confirmed with the naked eye in video. Thus, the object tracking device 30 can draw the trajectory of the point 90 in fencing and can improve the quality of the trajectory drawing.

以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
オブジェクト追跡装置で補間した位置データは、その利用方法が特に制限されず、軌跡の描画以外にも利用することができる。
As mentioned above, although the embodiment of the present invention has been described in detail, the present invention is not limited to the above-described embodiment, and includes design changes and the like within the scope of the present invention.
The position data interpolated by the object tracking device is not particularly limited in how to use the position data, and can be used other than the drawing of a trajectory.

前記した実施形態では、オブジェクト追跡装置は、可視・赤外同光軸カメラから可視画像及び赤外画像が入力されることとして説明したが、これに限定されない。つまり、オブジェクト追跡装置は、他の画像処理装置の後段に配置され、他の画像処理装置で追跡に失敗した可視画像及び赤外画像が入力されてもよい。   In the above embodiment, the object tracking device has been described as receiving a visible image and an infrared image from a visible / infrared coaxial camera, but the present invention is not limited to this. That is, the object tracking device may be disposed downstream of the other image processing device, and the visible image and the infrared image which failed in the tracking by the other image processing device may be input.

前記した実施形態では、フェンシングを一例として説明したが、オブジェクト追跡装置の適用対象は、これに限定されない。つまり、オブジェクト追跡装置は、テニス、バドミントン、バレーボール等のスポーツにも適用することができる。   In the above-described embodiment, fencing has been described as an example, but the application target of the object tracking device is not limited to this. That is, the object tracking device can be applied to sports such as tennis, badminton and volleyball.

さらに、オブジェクト追跡装置は、軌跡を異なる色で描かない場合、選手の位置が入れ換わるスポーツにも適用することができる。例えば、オブジェクト追跡装置は、バドミントンのシャトルを追跡し、その軌跡を描画することができる。この他、オブジェクト追跡装置は、オーケストラにおける指揮棒の軌跡や、ドラマや映画における刀等の軌跡を描画することができる。   Furthermore, the object tracking device can also be applied to sports in which the player's position changes if the trajectory is not drawn in a different color. For example, the object tracking device can track a badminton shuttle and draw its trajectory. In addition, the object tracking device can draw a trajectory of a baton in an orchestra, and a trajectory of a sword in a drama or a movie.

オブジェクト追跡装置は、追跡対象となるオブジェクトの移動速度が特に制限されず、特に、モーションブラーが発生する移動速度でも確実に追跡可能である。この移動速度は、可視・近赤外同光軸カメラとオブジェクトとの距離、可視・近赤外同光軸カメラの撮影画角及び感度、ノイズ量に大きく依存する。例えば、時間解像度が30フレーム/秒の場合、移動速度が100km/hを超えたあたりで、モーションブラーが多くなる。   In the object tracking device, the moving speed of the object to be tracked is not particularly limited, and in particular, the moving speed at which motion blur occurs can be reliably tracked. This moving speed largely depends on the distance between the visible and near infrared coaxial camera and the object, the photographing angle of view and sensitivity of the visible and near infrared coaxial camera, and the amount of noise. For example, when the time resolution is 30 frames per second, motion blur increases when the moving speed exceeds 100 km / h.

前記した実施形態では、オブジェクト追跡装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、オブジェクト追跡装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるオブジェクト追跡プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Although the object tracking device has been described as an independent hardware in the above embodiment, the present invention is not limited to this. For example, the object tracking device can also be realized by an object tracking program that causes hardware resources such as a CPU, a memory, a hard disk, and the like included in a computer to cooperate as the respective means described above. This program may be distributed via a communication line, or may be distributed by writing on a recording medium such as a CD-ROM or a flash memory.

本発明は、フェンシング等のスポーツシーンの映像解析に利用することができる。また、本発明は、映画、ゲームやドラマの制作にも利用することができる。さらに、本発明は、工業やセキュリティシステムにも利用することができる。   The present invention can be used for video analysis of sports scenes such as fencing. The present invention can also be used to produce movies, games and dramas. Furthermore, the invention can also be used in industrial and security systems.

1 オブジェクト追跡システム
10 赤外光投光器
20 可視・赤外同光軸カメラ
30 オブジェクト追跡装置
31 赤外光検出手段
311 赤外光検出部
313 位置データ生成部
33 可視画像解析手段
331 欠落区間特定部
333 特徴点検出部
335 位置データ補間部
35 タイムコード連動型CG合成手段(TC連動型CG合成手段)
351 位置データ蓄積部
353 軌跡描画部(オブジェクト追跡部)
90 剣先
91 反射テープ(赤外光マーカ)
DESCRIPTION OF SYMBOLS 1 object tracking system 10 infrared light projector 20 visible / infrared same optical axis camera 30 object tracking device 31 infrared light detection means 311 infrared light detection unit 313 position data generation unit 33 visible image analysis means 331 missing section identification unit 333 Feature point detection unit 335 Position data interpolation unit 35 Time code interlocking type CG synthesizing unit (TC interlocking type CG synthesizing unit)
351 Position Data Storage Unit 353 Trajectory Drawing Unit (Object Tracking Unit)
90 point 91 reflective tape (infrared marker)

Claims (4)

赤外光マーカを付けて移動する1以上のオブジェクトを赤外光で撮影した赤外画像と、前記オブジェクトを可視光で撮影した可視画像とを用いて、前記オブジェクトを追跡するオブジェクト追跡装置であって、
前記赤外画像から前記赤外光マーカの領域を赤外光領域として検出する赤外光検出部と、
前記赤外光領域を検出できたときは当該赤外光領域の検出位置又は前記赤外光領域を検出できないときは前記検出位置の欠落と、当該赤外光領域の検出対象となった赤外画像の時刻情報とが含まれる位置データを生成する位置データ生成部と、
前記位置データの欠落区間を特定し、特定した前記欠落区間の開始時刻から終了時刻までの時間長が予め設定した閾値以上であるか否かを判定する欠落区間特定部と、
前記欠落区間の時間長が前記閾値以上の場合、前記開始時刻直前及び前記終了時刻直後の位置データから前記検出位置を取得し、取得した前記検出位置に基づいて画像領域を前記開始時刻及び前記終了時刻の可視画像に設定し、設定した前記画像領域から特徴点を検出する特徴点検出部と、
前記開始時刻及び前記終了時刻の位置データを前記特徴点の検出位置で補間し、補間した前記位置データを前記欠落区間特定部に出力する位置データ補間部と、
前記欠落区間の時間長が前記閾値未満の場合、前記位置データに基づいて前記オブジェクトを追跡するオブジェクト追跡部と、を備え、
前記欠落区間特定部は、前記位置データ補間部から入力された位置データの欠落区間を特定することを特徴とするオブジェクト追跡装置。
An object tracking device for tracking an object by using an infrared image obtained by capturing infrared light with one or more objects to be moved with an infrared light marker and a visible image obtained by capturing the object with visible light ,
An infrared light detection unit that detects an area of the infrared light marker from the infrared image as an infrared light area;
When the infrared light region can be detected, the detection position of the infrared light region or the infrared light which is the detection target of the infrared light region when the infrared light region can not be detected A position data generation unit that generates position data including time information of an image;
A missing section identification unit that identifies a missing section of the position data and determines whether the time length from the start time to the ending time of the identified missing section is equal to or greater than a preset threshold value;
When the time length of the missing section is equal to or more than the threshold value, the detection position is acquired from position data immediately before the start time and immediately after the end time, and the start time and the end of the image area based on the acquired detection position A feature point detection unit that sets a visible image of time and detects feature points from the set image area;
A position data interpolation unit that interpolates position data of the start time and the end time at a detection position of the feature point and outputs the interpolated position data to the missing section identification unit;
An object tracking unit configured to track the object based on the position data when the time length of the missing section is less than the threshold value;
The object tracking device, wherein the missing segment identification unit identifies a missing segment of the position data input from the position data interpolation unit.
前記位置データを蓄積する位置データ蓄積部、をさらに備え、
前記欠落区間特定部は、前記欠落区間の時間長が前記閾値未満の場合、前記位置データを前記位置データ蓄積部に書き込み、
前記オブジェクト追跡部として、前記可視画像の時刻情報に対応する位置データを前記位置データ蓄積部から取得し、取得した前記位置データの検出位置に基づいて前記オブジェクトの軌跡を描画し、描画した前記軌跡を前記可視画像に合成する軌跡描画部、を備えることを特徴とする請求項1に記載のオブジェクト追跡装置。
A position data storage unit for storing the position data;
The missing section identification unit writes the position data to the position data storage unit when the time length of the missing section is less than the threshold value;
The object tracking unit acquires position data corresponding to time information of the visible image from the position data storage unit, draws the locus of the object based on the acquired detected position of the position data, and draws the locus The object tracking device according to claim 1, further comprising: a trajectory drawing unit that synthesizes the image with the visible image.
前記特徴点検出部は、前記画像領域からFAST特徴量を検出することを特徴とする請求項1又は請求項2に記載のオブジェクト追跡装置。   The object tracking device according to claim 1, wherein the feature point detection unit detects a FAST feature amount from the image area. コンピュータを、請求項1から請求項3の何れか一項に記載のオブジェクト追跡装置として機能させるためのオブジェクト追跡プログラム。   An object tracking program for causing a computer to function as the object tracking device according to any one of claims 1 to 3.
JP2017234038A 2017-12-06 2017-12-06 Object tracking device and its program Active JP6983049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234038A JP6983049B2 (en) 2017-12-06 2017-12-06 Object tracking device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234038A JP6983049B2 (en) 2017-12-06 2017-12-06 Object tracking device and its program

Publications (2)

Publication Number Publication Date
JP2019101892A true JP2019101892A (en) 2019-06-24
JP6983049B2 JP6983049B2 (en) 2021-12-17

Family

ID=66973975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234038A Active JP6983049B2 (en) 2017-12-06 2017-12-06 Object tracking device and its program

Country Status (1)

Country Link
JP (1) JP6983049B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111147778A (en) * 2019-12-23 2020-05-12 浙江大华技术股份有限公司 Track recording method and device based on digital video recorder and storage medium
CN111242978A (en) * 2020-01-15 2020-06-05 合肥慧图软件有限公司 Biological behavior track analysis system based on infrared camera technology
WO2021085453A1 (en) * 2019-10-31 2021-05-06 株式会社ライゾマティクス Recognition processing device, recognition processing program, recognition processing method, and visualizer system
JP7073595B1 (en) 2022-02-21 2022-05-23 海渡 藤田 Effective collision determination device, effective collision determination method, and effective collision determination program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132879A (en) * 2014-01-09 2015-07-23 クラリオン株式会社 External world recognition device for vehicle
JP2017204757A (en) * 2016-05-12 2017-11-16 日本放送協会 Subject tracking device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132879A (en) * 2014-01-09 2015-07-23 クラリオン株式会社 External world recognition device for vehicle
JP2017204757A (en) * 2016-05-12 2017-11-16 日本放送協会 Subject tracking device and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021085453A1 (en) * 2019-10-31 2021-05-06 株式会社ライゾマティクス Recognition processing device, recognition processing program, recognition processing method, and visualizer system
JP2021071953A (en) * 2019-10-31 2021-05-06 株式会社ライゾマティクス Recognition processor, recognition processing program, recognition processing method, and visualization system
JP7281767B2 (en) 2019-10-31 2023-05-26 株式会社アブストラクトエンジン Recognition processing device, recognition processing program, recognition processing method, and visualization system
CN111147778A (en) * 2019-12-23 2020-05-12 浙江大华技术股份有限公司 Track recording method and device based on digital video recorder and storage medium
CN111242978A (en) * 2020-01-15 2020-06-05 合肥慧图软件有限公司 Biological behavior track analysis system based on infrared camera technology
JP7073595B1 (en) 2022-02-21 2022-05-23 海渡 藤田 Effective collision determination device, effective collision determination method, and effective collision determination program
JP2023121695A (en) * 2022-02-21 2023-08-31 海渡 藤田 Effective pass determination device, effective pass determination method and effective pass determination program

Also Published As

Publication number Publication date
JP6983049B2 (en) 2021-12-17

Similar Documents

Publication Publication Date Title
US5923365A (en) Sports event video manipulating system for highlighting movement
JP5667943B2 (en) Computer-executed image processing method and virtual reproduction unit
JP6983049B2 (en) Object tracking device and its program
RU2498404C2 (en) Method and apparatus for generating event registration entry
US8805007B2 (en) Integrated background and foreground tracking
US20190089923A1 (en) Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof
US8055073B1 (en) System and method for enabling meaningful interaction with video based characters and objects
JP6742221B2 (en) Object tracking device and its program
JP6894962B2 (en) Image data capture method, device, and program for free-viewpoint video
Kohl et al. The mta dataset for multi-target multi-camera pedestrian tracking by weighted distance aggregation
US8922718B2 (en) Key generation through spatial detection of dynamic objects
WO2010127418A1 (en) Systems and methods for the autonomous production of videos from multi-sensored data
JP4555690B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
JP2005123824A (en) Video object locus composing apparatus, method and program thereof
JP2009505553A (en) System and method for managing the insertion of visual effects into a video stream
JP6649231B2 (en) Search device, search method and program
WO2017104372A1 (en) Image processing apparatus, image processing system, image processing method, and program
Conaire et al. Tennissense: A platform for extracting semantic information from multi-camera tennis data
Pallavi et al. Graph-based multiplayer detection and tracking in broadcast soccer videos
Pidaparthy et al. Keep your eye on the puck: Automatic hockey videography
JP2009163639A (en) Object trajectory identification device, object trajectory identification method, and object trajectory identification program
JP7198661B2 (en) Object tracking device and its program
JP2006244074A (en) Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program
JP2006279568A (en) Image-pickup device
JP2008287594A (en) Specific movement determination device, reference data generation device, specific movement determination program and reference data generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150