JP2016152467A - Tracking device, tracking method and tracking program - Google Patents

Tracking device, tracking method and tracking program Download PDF

Info

Publication number
JP2016152467A
JP2016152467A JP2015028238A JP2015028238A JP2016152467A JP 2016152467 A JP2016152467 A JP 2016152467A JP 2015028238 A JP2015028238 A JP 2015028238A JP 2015028238 A JP2015028238 A JP 2015028238A JP 2016152467 A JP2016152467 A JP 2016152467A
Authority
JP
Japan
Prior art keywords
data
foreground
representative color
tracking
background separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015028238A
Other languages
Japanese (ja)
Other versions
JP6350331B2 (en
Inventor
周 薮内
Shu Yabuuchi
周 薮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015028238A priority Critical patent/JP6350331B2/en
Publication of JP2016152467A publication Critical patent/JP2016152467A/en
Application granted granted Critical
Publication of JP6350331B2 publication Critical patent/JP6350331B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tacking device capable of tracking an object accurately.SOLUTION: A tracking device 10 includes: an object person DB22 for storing the representative color data indicating the representative color for tracking a tracking object; a moving object detection processing section 12 which generates a first foreground background separation data for separating the foreground data and background data based on an acquired video data; a mask processing section 13 to data outside object person, which generates second foreground background separation data based on a region of a color including the representative color out of the region of the video data corresponding to the first foreground background separation data; and a tracking processing section 16 for tracking the tracking object based on at least one of the first foreground background separation data and second foreground background separation data.SELECTED DRAWING: Figure 1

Description

本発明は、追尾装置、追尾方法及び追尾プログラムに関し、特に、対象物を追尾するための代表色を用いる追尾装置、追尾方法及び追尾プログラムに関する。   The present invention relates to a tracking device, a tracking method, and a tracking program, and more particularly, to a tracking device, a tracking method, and a tracking program that use a representative color for tracking an object.

撮像装置により人物などの対象物を撮像し、撮像した映像データを用いて対象物を自動的に追尾する技術が知られている。   2. Description of the Related Art A technique is known in which an object such as a person is imaged by an imaging device, and the object is automatically tracked using the captured video data.

従来技術では、対象物の基準となる色情報を予め記憶しておき、この色情報に基づいて映像データの中から対象物を検出することで、追尾を行っている。このような従来技術では、照度の影響などにより対象物の色が変化すると、対象物を検出することができず、追尾に失敗する恐れがある。   In the prior art, color information serving as a reference for an object is stored in advance, and tracking is performed by detecting the object from video data based on the color information. In such a conventional technique, when the color of an object changes due to the influence of illuminance or the like, the object cannot be detected and tracking may fail.

そこで、例えば、特許文献1では、対象物の色が変化したことを画面に表示することで、正しく追尾が行われていることを、監視者が確認できるようにしている。   Therefore, for example, in Patent Document 1, the monitor indicates that the tracking has been performed correctly by displaying on the screen that the color of the object has changed.

特開2010−226644号公報JP 2010-226644 A

しかしながら、映像データ内に複数の物体が含まれる場合、追尾する対象物と他の物体とが重なるオクルージョンが発生する可能性が高いものの、特許文献1などの従来技術ではオクルージョン発生時の追尾処理について考慮されていない。   However, in the case where a plurality of objects are included in the video data, there is a high possibility that occlusion occurs when the object to be tracked overlaps with another object. However, in the conventional technology such as Patent Document 1, tracking processing at the time of occurrence of occlusion is performed. Not considered.

したがって、特許文献1などの従来技術では、オクルージョンが発生した場合に、精度よく対象物を追尾することができないという問題がある。   Therefore, in the prior art such as Patent Document 1, there is a problem that when an occlusion occurs, an object cannot be accurately tracked.

そこで、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶する代表色記憶部と、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成する第1の前景背景分離データ生成部と、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成する第2の前景背景分離データ生成部と、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する追尾処理部と、を備える追尾装置を提供する。   Accordingly, the present invention provides a representative color storage unit that stores representative color data indicating a representative color for tracking a tracking target object, and a first foreground that separates foreground data and background data based on the acquired video data. A first foreground / background separation data generation unit for generating background separation data; and a second foreground based on a color region including the representative color among the regions of the video data corresponding to the first foreground / background separation data. A second foreground / background separation data generation unit that generates background separation data, and a tracking processing unit that tracks the tracking object based on at least one of the first foreground / background separation data or the second foreground / background separation data And a tracking device comprising:

また、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶し、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する、追尾方法を提供する。   In addition, the present invention stores representative color data indicating a representative color for tracking a tracking object, and generates first foreground / background separation data that separates foreground data and background data based on the acquired video data. Then, second foreground / background separation data is generated based on a color region including the representative color among the regions of the video data corresponding to the first foreground / background separation data, and the first foreground / background separation data Alternatively, a tracking method is provided in which the tracking target is tracked based on at least one of the second foreground / background separation data.

さらに、本発明は、追尾対象物を追尾するための代表色を示す代表色データを記憶し、取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する、追尾処理をコンピュータに実行させるための追尾プログラムを提供する。   Furthermore, the present invention stores representative color data indicating a representative color for tracking a tracking object, and generates first foreground / background separation data for separating foreground data and background data based on the acquired video data Then, second foreground / background separation data is generated based on a color region including the representative color among the regions of the video data corresponding to the first foreground / background separation data, and the first foreground / background separation data Alternatively, a tracking program for tracking the tracking object based on at least one of the second foreground / background separation data and causing a computer to execute a tracking process is provided.

本発明によれば、精度よく対象物を追尾することが可能な追尾装置、追尾方法及び追尾プログラムを提供することができる。   According to the present invention, it is possible to provide a tracking device, a tracking method, and a tracking program that can accurately track an object.

実施の形態1に係る追尾システムの構成を示す構成図である。1 is a configuration diagram showing a configuration of a tracking system according to Embodiment 1. FIG. 実施の形態1に係る装置の動作の概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an outline of an operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作の概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an outline of an operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作の概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an outline of an operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作の概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an outline of an operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作の概要を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining an outline of an operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the apparatus according to the first embodiment. 実施の形態1に係る装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the apparatus according to the first embodiment. 追尾方法の基本技術を示す図である。It is a figure which shows the basic technique of a tracking method. 追尾方法の基本技術を示す図である。It is a figure which shows the basic technique of a tracking method.

まず、実施の形態の説明の前に、対象物を自動的に追尾する基本技術について説明する。   First, before describing the embodiment, a basic technique for automatically tracking an object will be described.

図8に示すように、基本技術では、映像データ900のフレーム画像ごとに対象者901の特徴である代表色を示す代表色データ911を取得して代表色データ記憶部910に記憶し、この代表色データ911に基づいてフレーム画像内の対象者901を検出する。さらに、基本技術では、この代表色データ911を定期的に更新することで、照度の影響などにより対象者901の色が変化した場合でも、対象者901の追尾を可能としている。   As shown in FIG. 8, in the basic technique, representative color data 911 indicating the representative color that is a feature of the subject 901 is acquired for each frame image of the video data 900 and stored in the representative color data storage unit 910. An object person 901 in the frame image is detected based on the color data 911. Further, in the basic technique, the representative color data 911 is periodically updated, so that the subject 901 can be tracked even when the color of the subject 901 changes due to the influence of illuminance or the like.

このような基本技術では、映像データに対し動体検知を行うことで、対象者の領域を分離するための前景背景分離データを生成し、この前景背景分離データを用いて対象者の代表色を抽出する。   In such a basic technology, foreground / background separation data for separating the subject's area is generated by performing motion detection on the video data, and the representative color of the subject is extracted using the foreground / background separation data. To do.

例えば、図9に示すように、フレーム画像920内で複数の人物が重なりオクルージョンが発生した場合、フレーム画像920に対し動体検知を行うと、前景背景分離データ921は、複数の人物の領域を含む画像となる。そうすると、フレーム画像920と前景背景分離データ921とを合成した代表色抽出用画像922に複数の人物の画像が含まれてしまうため、この画像から抽出された代表色データに複数の人物の代表色が含まれてしまい、対象者のみの代表色を抽出することができない。   For example, as illustrated in FIG. 9, when a plurality of persons overlap in a frame image 920 and occlusion occurs, when foreground detection is performed on the frame image 920, the foreground / background separation data 921 includes regions of the plurality of persons. It becomes an image. Then, since the representative color extraction image 922 obtained by combining the frame image 920 and the foreground / background separation data 921 includes images of a plurality of persons, the representative color data extracted from this image includes the representative colors of the plurality of persons. Therefore, it is impossible to extract the representative color of only the target person.

その結果、基本技術では、オクルージョンが発生した場合、対象者以外の人物の代表色を含む代表色データをもとに追尾を行うことになるため、所望の対象者のみを精度よく追尾することは困難である。また、複数のカメラを用いて対象者を追尾し、カメラの切り替わり時に最初からオクルージョンが発生した場合、対象者と対象外のデータを分離することができないため、この場合も対象者のみを追尾することはできない。   As a result, in the basic technology, when occlusion occurs, tracking is performed based on representative color data including representative colors of persons other than the target person, so that only the desired target person can be accurately tracked. Have difficulty. In addition, if the target person is tracked using multiple cameras and occlusion occurs from the beginning when the camera is switched, the target person and the non-target data cannot be separated. In this case, only the target person is tracked. It is not possible.

そこで、以下の実施の形態では、オクルージョンが発生した場合でも確実に対象物の代表色を抽出し、精度よく対象者の追尾を可能とする。   Therefore, in the following embodiment, even when occlusion occurs, the representative color of the target object is reliably extracted, and the target person can be accurately tracked.

(実施の形態1)
以下、図面を参照して実施の形態について説明する。図1は、本実施の形態に係る追尾システム1の構成を示している。
(Embodiment 1)
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows a configuration of a tracking system 1 according to the present embodiment.

図1に示すように、追尾システム1は、追尾装置10、記憶装置20、入力装置30を備えている。なお、各装置を別々の装置とせずに1つもしくは任意の数の装置としてもよい。例えば、追尾装置10と記憶装置20の構成を含む1つの追尾装置としてもよい。   As shown in FIG. 1, the tracking system 1 includes a tracking device 10, a storage device 20, and an input device 30. Note that each device may be one device or any number of devices instead of separate devices. For example, a single tracking device including the configuration of the tracking device 10 and the storage device 20 may be used.

入力装置30は、追尾装置10の処理に必要な情報を入力する装置である。例えば、入力装置30は、カメラ31、マウス32を備えている。   The input device 30 is a device that inputs information necessary for the processing of the tracking device 10. For example, the input device 30 includes a camera 31 and a mouse 32.

カメラ31は、撮像センサを内蔵する撮像装置であり、この撮像センサを用いて対象物である対象者300を撮像する。カメラ31は、撮像した複数のフレーム画像を含む映像データを生成し、生成した映像データを追尾装置10へ出力する。なお、カメラ31以外の装置で映像データを生成してもよい。   The camera 31 is an imaging device that incorporates an imaging sensor, and uses this imaging sensor to capture an image of the subject 300 that is the object. The camera 31 generates video data including a plurality of captured frame images and outputs the generated video data to the tracking device 10. Note that video data may be generated by a device other than the camera 31.

マウス32は、追尾装置10の映像表示部(不図示)に表示されたGUI(Graphical User Interface)などをユーザが操作するためのポインティングデバイスである。マウス32は、ユーザが映像表示部の表示に応じてクリック操作を行うと、クリックされた位置の座標データを追尾装置10へ出力する。なお、マウス32以外の装置で映像表示部の表示を操作してもよい。   The mouse 32 is a pointing device for a user to operate a GUI (Graphical User Interface) displayed on a video display unit (not shown) of the tracking device 10. When the user performs a click operation according to the display on the video display unit, the mouse 32 outputs the coordinate data of the clicked position to the tracking device 10. The display on the video display unit may be operated by a device other than the mouse 32.

記憶装置20は、追尾装置10の処理に必要な情報を記憶する装置である。例えば、記憶装置20は、映像や画像のデータのための映像データDB(データベース)21、追尾する対象者のデータのための対象者DB22、対象者の代表色学習のための代表色学習DB23を備えている。   The storage device 20 is a device that stores information necessary for the processing of the tracking device 10. For example, the storage device 20 includes a video data DB (database) 21 for video and image data, a subject DB 22 for subject data to be tracked, and a representative color learning DB 23 for learning a representative color of the subject. I have.

映像データDB21は、対象者300を撮像した映像データ211、映像データ211の背景である背景データ212、映像データ211から前景と背景を分離するための第1の前景背景分離データ213及び第2の前景背景分離データ214などを記憶する。対象者DB22は、対象者300の特徴を示す特徴データ221を記憶し、特徴データ221には対象者300の代表色を示す代表色データ222や対象者300の形状を示す形状データ223などが含まれる。例えば、対象者DB22は、代表色データ222を記憶する代表色記憶部であるともいえる。代表色学習DB23は、対象者300の代表色の境界範囲を示す代表色境界範囲データ231などを記憶する。   The video data DB 21 includes video data 211 captured from the target person 300, background data 212 that is the background of the video data 211, first foreground / background separation data 213 for separating the foreground and background from the video data 211, and second data. Foreground / background separation data 214 and the like are stored. The target person DB 22 stores feature data 221 indicating the characteristics of the target person 300, and the feature data 221 includes representative color data 222 indicating the representative color of the target person 300, shape data 223 indicating the shape of the target person 300, and the like. It is. For example, it can be said that the subject DB 22 is a representative color storage unit that stores the representative color data 222. The representative color learning DB 23 stores representative color boundary range data 231 indicating the boundary range of the representative color of the subject 300 and the like.

追尾装置10は、入力される映像データを解析し対象者300の追尾を行う画像処理装置である。追尾装置10は、画像解析処理部11、動体検知処理部12、対象者データ外マスク処理部13、指定対象者データ抽出部14、代表色学習部15、追尾処理部16などを備えている。   The tracking device 10 is an image processing device that analyzes input video data and tracks the subject 300. The tracking device 10 includes an image analysis processing unit 11, a moving object detection processing unit 12, a target person data outside mask processing unit 13, a designated target person data extraction unit 14, a representative color learning unit 15, and a tracking processing unit 16.

なお、後述する本実施の形態に係る動作が実現できれば、その他の機能ブロックで構成してもよい。図1の追尾装置における各機能(各処理)は、ハードウェア又はソフトウェア、もしくはその両方によって構成され、1つのハードウェア又はソフトウェアから構成してもよいし、複数のハードウェア又はソフトウェアから構成してもよい。追尾装置の各機能を、CPU(Central Processing Unit)やメモリ等を有するコンピュータにより実現してもよい。例えば、記憶装置20に後述する本実施の形態に係る動作を行うためのプログラムを格納し、追尾装置の各機能を、記憶装置20に格納されたプログラムをCPUで実行することにより実現してもよい。   In addition, as long as the operation | movement which concerns on this Embodiment mentioned later is realizable, you may comprise by another functional block. Each function (each process) in the tracking device in FIG. 1 is configured by hardware and / or software, and may be configured by one piece of hardware or software, or may be configured by a plurality of pieces of hardware or software. Also good. Each function of the tracking device may be realized by a computer having a CPU (Central Processing Unit), a memory, and the like. For example, a program for performing an operation according to the present embodiment to be described later may be stored in the storage device 20, and each function of the tracking device may be realized by executing the program stored in the storage device 20 by the CPU. Good.

画像解析処理部11は、カメラ31が対象者300を撮像した映像データ211を取得する映像取得部であり、また、必要に応じて取得した映像データ211に対し画像変換処理を行う。画像解析処理部11は、取得した映像データ211に対しリサイズ処理や色変換処理などの画像変換処理を行い、画像変換後の映像データ211を動体検知処理部12へ出力し、また、映像データDB21に記憶する。なお、この画像変換処理については、必要に応じて任意に実行できればよいため、以下の説明では省略する場合がある。   The image analysis processing unit 11 is a video acquisition unit that acquires video data 211 captured by the camera 31 of the target person 300, and performs image conversion processing on the acquired video data 211 as necessary. The image analysis processing unit 11 performs image conversion processing such as resizing processing and color conversion processing on the acquired video data 211, outputs the video data 211 after the image conversion to the moving object detection processing unit 12, and the video data DB 21 To remember. Note that this image conversion process may be arbitrarily executed as necessary, and may be omitted in the following description.

動体検知処理部12は、画像解析処理部11が取得し変換した映像データ211から背景データ212を生成し、生成した背景データ212を映像データDB21に記憶し、また、対象者データ外マスク処理部13及び指定対象者データ抽出部14へ出力する。背景データ212は、映像データ211から動いている前景部分を含まない背景のみの画像データである。   The moving object detection processing unit 12 generates background data 212 from the video data 211 acquired and converted by the image analysis processing unit 11, stores the generated background data 212 in the video data DB 21, and is a target data outside mask processing unit. 13 and the designated target person data extraction unit 14. The background data 212 is image data of only the background not including the foreground portion moving from the video data 211.

また、動体検知処理部12は、背景データ212をもとに映像データ211に対し動体検知処理を実行して第1の前景背景分離データ213を生成し、生成した第1の前景背景分離データ213を映像データDB21に記憶し、また、対象者データ外マスク処理部13及び指定対象者データ抽出部14へ出力する。動体検知処理部12は、第1の前景背景分離データを生成する第1の前景背景分離データ生成部であるともいえる。第1の前景背景分離データ213は、映像データ211から前景と背景を分離するための画像データであり、映像データ211から動体検知により動いている部分のみを抽出した画像データである。なお、映像データ211に対する動体検知処理結果に基づいて第1の前景背景分離データを生成してもよいし、映像データ211と背景データ212の差分に基づいて、第1の前景背景分離データを生成してもよい。動体検知処理や背景データとの差分を用いることで、移動している対象者を含むマスクを確実に生成することができる。   In addition, the moving object detection processing unit 12 generates a first foreground / background separation data 213 by executing a moving object detection process on the video data 211 based on the background data 212, and generates the generated first foreground / background separation data 213. Is stored in the video data DB 21 and is output to the mask data processing unit 13 and the designated target data extraction unit 14. It can be said that the moving object detection processing unit 12 is a first foreground / background separation data generation unit that generates first foreground / background separation data. The first foreground / background separation data 213 is image data for separating the foreground and the background from the video data 211, and is image data obtained by extracting only a moving part from the video data 211 by moving object detection. The first foreground / background separation data may be generated based on the moving object detection processing result for the video data 211, or the first foreground / background separation data may be generated based on the difference between the video data 211 and the background data 212. May be. By using the difference between the moving object detection process and the background data, it is possible to reliably generate the mask including the moving subject.

指定対象者データ抽出部14は、マウス32から入力された座標データの指定に応じて、動体検知処理部12が生成した背景データ212及び第1の前景背景分離データ213から、対象者300の特徴データ221を抽出し、抽出した特徴データ221を対象者DB22に記憶し、また、代表色学習部15へ出力する。指定対象者データ抽出部14は、映像データ211の中のユーザが指定した座標を含む領域に対し、人物検知(物体検知)のためのオブジェクトマッピング処理を実行することで、対象者300の輪郭形状を抽出して形状データ223を生成し、その輪郭形状内の代表色を抽出して代表色データ222を生成する。対象者300の代表色は、対象者300を代表する色であり、対象者300を識別するための特徴を示す特徴色である。   The designation target person data extraction unit 14 determines the characteristics of the target person 300 from the background data 212 and the first foreground / background separation data 213 generated by the moving object detection processing unit 12 according to the designation of the coordinate data input from the mouse 32. Data 221 is extracted, and the extracted feature data 221 is stored in the target person DB 22 and output to the representative color learning unit 15. The designated target person data extraction unit 14 performs an object mapping process for human detection (object detection) on an area including coordinates specified by the user in the video data 211, so that the contour shape of the target person 300 is obtained. Is extracted to generate the shape data 223, and the representative color in the contour shape is extracted to generate the representative color data 222. The representative color of the target person 300 is a color that represents the target person 300 and is a characteristic color indicating a feature for identifying the target person 300.

代表色学習部15は、指定対象者データ抽出部14が抽出した対象者の代表色データ222を使用して、代表色の境界範囲(代表色範囲)を設定し、設定された代表色境界範囲データ(代表色範囲データ)231を代表色学習DB23に記憶する。代表色学習部15は、第2の前景背景分離データ214に対応する映像データ211の領域の代表色を追尾対象物300の代表色として、代表色データを更新する代表色更新部であると言える。   The representative color learning unit 15 sets a representative color boundary range (representative color range) using the representative color data 222 of the target person extracted by the designated target person data extraction unit 14, and the set representative color boundary range Data (representative color range data) 231 is stored in the representative color learning DB 23. The representative color learning unit 15 can be said to be a representative color update unit that updates the representative color data with the representative color of the area of the video data 211 corresponding to the second foreground / background separation data 214 as the representative color of the tracking target object 300. .

対象者データ外マスク処理部13は、代表色学習DB23に記憶された代表色境界範囲データ231と、動体検知処理部12が生成した背景データ212及び第1の前景背景分離データ213とを利用し、対象者300以外の画像データをマスクするマスク処理を行い、マスク処理後の背景データ212を映像データDB21に上書きする。   The target-data-out mask processing unit 13 uses the representative color boundary range data 231 stored in the representative color learning DB 23, the background data 212 generated by the moving object detection processing unit 12, and the first foreground / background separation data 213. Then, a mask process for masking image data other than the target person 300 is performed, and the background data 212 after the mask process is overwritten on the video data DB 21.

対象者データ外マスク処理部13は、映像データ211のうち第1の前景背景分離データ213の前景に対応する部分の色が、代表色境界範囲データ231に含まれるか否かに応じて第2の前景背景分離データ214を生成し、生成した第2の前景背景分離データ214を映像データDB21に記憶する。対象者データ外マスク処理部13は、第1の前景背景分離データ213に対応する映像データ211のうち代表色を含む色の領域に基づいて第2の前景背景分離データ214を生成する第2の前景背景分離データ生成部であるともいえる。第2の前景背景分離データ214は、映像データ211から前景と背景を分離するための画像データであり、映像データ211から代表色に対応する部分のみを抽出した画像データである。なお、該当する部分の色が代表色と一致するか否かに応じて2値化したデータを第2の前景背景分離データ214としてもよいし、該当する部分の色が代表色の範囲内か否かに応じて2値化したデータを第2の前景背景分離データ214としてもよい。代表色との一致を基準とすることで、少なくとも対象者のみのためのマスクを生成することができる。代表色の範囲を基準とすることで、学習履歴に基づいてより適切に、対象者のみのためのマスクを生成することができる。   The subject data out-of-object mask processing unit 13 determines whether the representative color boundary range data 231 includes the color of the portion corresponding to the foreground of the first foreground / background separation data 213 in the video data 211. The foreground / background separation data 214 is generated, and the generated second foreground / background separation data 214 is stored in the video data DB 21. The subject-data-outside mask processing unit 13 generates second foreground / background separation data 214 based on the color region including the representative color in the video data 211 corresponding to the first foreground / background separation data 213. It can also be said to be a foreground / background separation data generation unit. The second foreground / background separation data 214 is image data for separating the foreground and the background from the video data 211, and is image data obtained by extracting only a portion corresponding to the representative color from the video data 211. The binarized data may be used as the second foreground / background separation data 214 depending on whether the color of the corresponding part matches the representative color or whether the color of the corresponding part is within the range of the representative color. Data binarized according to whether or not may be used as the second foreground / background separation data 214. By using the coincidence with the representative color as a reference, a mask for at least the subject can be generated. By using the range of the representative color as a reference, a mask for only the target person can be generated more appropriately based on the learning history.

追尾処理部16は、対象者300の特徴データ221に基づいて映像データ211内の対象者300を追尾する処理を実行する。追尾処理部16は、対象者300の代表色データ222と形状データ223に最も近い領域から対象者300を認識し、対象者300を自動的に追尾する。さらに、追尾処理部16は、第1の前景背景分離データ213や第2の前景背景分離データ214を用いて追尾処理を行うことができる。第1の前景背景分離データ213により抽出される前景部分に対して特徴データ221に基づいた追尾処理を行うことで、動いている部分のみを処理できるため、効率よく追尾処理を行うことができる。また、第2の前景背景分離データ214により抽出される前景部分に対して特徴データ221に基づいた追尾処理を行うことで、代表色に該当する部分のみを処理できるため、さらに効率よく追尾処理を行うことができる。   The tracking processing unit 16 performs processing for tracking the target person 300 in the video data 211 based on the feature data 221 of the target person 300. The tracking processing unit 16 recognizes the target person 300 from the area closest to the representative color data 222 and the shape data 223 of the target person 300, and automatically tracks the target person 300. Furthermore, the tracking processing unit 16 can perform the tracking process using the first foreground / background separation data 213 and the second foreground / background separation data 214. Since the tracking process based on the feature data 221 is performed on the foreground part extracted from the first foreground / background separation data 213, only the moving part can be processed, so that the tracking process can be performed efficiently. Further, by performing the tracking process based on the feature data 221 on the foreground part extracted from the second foreground / background separation data 214, only the part corresponding to the representative color can be processed, so that the tracking process can be performed more efficiently. It can be carried out.

図2〜図6を用いて、本実施の形態に係る追尾装置10の動作の概要について説明する。まず、図2に示すように、動体検知処理部12は、取得した映像データ211に含まれるフレーム画像(カラー画像)211aに対する動体検知処理で得られた動きベクトルを利用して、対象者300を含む前景と背景とを分離する処理を行い、第1の前景背景分離データ213を生成する(ステップS10)。   The outline | summary of operation | movement of the tracking apparatus 10 which concerns on this Embodiment is demonstrated using FIGS. First, as illustrated in FIG. 2, the moving object detection processing unit 12 uses the motion vector obtained by the moving object detection process for the frame image (color image) 211 a included in the acquired video data 211 to detect the target person 300. A process for separating the foreground and the background is performed, and first foreground / background separation data 213 is generated (step S10).

さらに、指定対象者データ抽出部14は、フレーム画像211aと第1の前景背景分離データ213とを合成して前景部の画像を切り抜き、代表色抽出用画像215を生成する。指定対象者データ抽出部14は、代表色抽出用画像215から対象者300の基準となる代表色(特徴量)を抽出し、代表色データ222を生成する(ステップS11)。ここでは、対象者300の部位ごとに頭部、胴体部、脚部の代表色を取得し、頭部の代表色データ、胴体部の代表色データ、脚部の代表色データを生成する。さらに、対象者300(各部位)の正面、背面、側面の代表色データを生成してもよい。   Further, the designation target person data extraction unit 14 combines the frame image 211a and the first foreground / background separation data 213 to cut out the image of the foreground part to generate a representative color extraction image 215. The designated target person data extraction unit 14 extracts a representative color (feature amount) serving as a reference for the target person 300 from the representative color extraction image 215, and generates representative color data 222 (step S11). Here, representative colors of the head, torso, and legs are acquired for each part of the subject 300, and representative color data of the head, representative color data of the torso, and representative color data of the legs are generated. Further, representative color data of the front, back, and side of the target person 300 (each part) may be generated.

続いて、屋外と屋内では画像の明るさにムラが発生し、追尾処理のために適宜特徴量の更新を行う必要があることから、図3に示すように、指定対象者データ抽出部14は、対象者300の代表色データ222を定期的に更新する(ステップS12)。例えば、指定対象者データ抽出部14は、映像データ211の0フレーム目、25フレーム目、50フレーム目のフレーム画像211aに対し第1の前景背景分離データ213を用いて、代表色抽出用画像215を生成し、対象者の各部位の代表色を抽出して、代表色データ222を更新する。   Subsequently, since unevenness occurs in the brightness of the image outdoors and indoors, and it is necessary to update the feature amount appropriately for the tracking process, as shown in FIG. The representative color data 222 of the target person 300 is periodically updated (step S12). For example, the designation target person data extraction unit 14 uses the first foreground / background separation data 213 for the frame image 211a of the 0th frame, the 25th frame, and the 50th frame of the video data 211 to use the representative color extraction image 215. The representative color of each part of the subject is extracted, and the representative color data 222 is updated.

さらに、代表色学習部15は、特定フレーム画像間において対象者300の代表色の境界範囲を学習し、代表色境界範囲データ231を生成する(ステップS13)。例えば、各フレームにおいて頭部の代表色データ222が、R(赤)=253、239、247の順に変化し、G(緑)=228、218、167の順に変化し、B(青)=208、143、102の順に変化した場合、頭部の代表色境界範囲データ231では、これらの色の変化を含むように、Rの範囲を239≦R≦253、Gの範囲を167≦G≦228、Bの範囲を102≦B≦208と設定する。なお、代表色の境界範囲を学習せずに代表色のみを用いて、その後の処理を行ってもよい。   Further, the representative color learning unit 15 learns the boundary range of the representative color of the target person 300 between the specific frame images, and generates the representative color boundary range data 231 (step S13). For example, the representative color data 222 of the head in each frame changes in the order of R (red) = 253, 239, 247, changes in the order of G (green) = 228, 218, 167, and B (blue) = 208. , 143, 102, the head representative color boundary range data 231 includes an R range of 239 ≦ R ≦ 253 and a G range of 167 ≦ G ≦ 228 so as to include these color changes. , B is set as 102 ≦ B ≦ 208. The subsequent processing may be performed using only the representative color without learning the boundary range of the representative color.

続いて、代表色境界範囲データ231を作成後(学習した後)、図4に示すように、対象者データ外マスク処理部13は、動きベクトルを利用して生成した第1の前景背景分離データ213とフレーム画像211aとを合成して代表色抽出用画像215を生成し、さらに代表色抽出用画像215と対象者300の代表色境界範囲データ231を比較することで、第2の前景背景分離データ214を作成する(ステップS14)。その際、代表色抽出用画像215の色が代表色の境界範囲内であれば第2の前景背景分離データ214の画素を白にし、それ以外の場合は黒に設定して2値化し第2の前景背景分離データ214を作成する。また、対象者の部位ごとに、対応する部位の代表色の境界範囲内かどうか判定する。   Subsequently, after creating (learning) the representative color boundary range data 231, as shown in FIG. 4, the subject data outside mask processing unit 13 generates the first foreground / background separation data generated using the motion vector. 213 and the frame image 211a are combined to generate a representative color extraction image 215. Further, the representative color extraction image 215 is compared with the representative color boundary range data 231 of the subject 300, so that the second foreground / background separation is performed. Data 214 is created (step S14). At this time, if the color of the representative color extraction image 215 is within the boundary range of the representative color, the pixel of the second foreground / background separation data 214 is set to white, otherwise it is set to black and binarized. The foreground / background separation data 214 is generated. Further, for each part of the subject person, it is determined whether it is within the boundary range of the representative color of the corresponding part.

続いて、図5に示すように、図2と同様、指定対象者データ抽出部14は、フレーム画像211aから代表色抽出用画像215を生成し、対象者300の代表色データ222を抽出する(ステップS15)。その後、図3と同様に、代表色学習部15がさらに代表色の境界範囲を学習(更新)する。   Subsequently, as shown in FIG. 5, as in FIG. 2, the designated target person data extraction unit 14 generates a representative color extraction image 215 from the frame image 211 a and extracts the representative color data 222 of the target person 300 ( Step S15). After that, as in FIG. 3, the representative color learning unit 15 further learns (updates) the boundary range of the representative colors.

このような方法を用いることで、対象者の代表色データに近い部分のみを前景として抽出することができる。図6に示すように、フレーム画像211aで対象者300と他の人物301が重なりオクルージョンが発生した場合、動体検知を用いた第1の前景背景分離データ213の前景部分には、対象者300と他の人物301の全体が含まれる。しかし、代表色を用いた第2の前景背景分離データ214の前景部分は、ほぼ対象者300のみとなるため、第2の前景背景分離データ214を用いた代表色抽出用画像215からは、ほぼ対象者300のみの代表色を抽出することができる。すなわち、動体検知で取得した前景背景分離データよりさらに精度のよい前景背景分離データを作成できるため、対象者の代表色データに不要な他の人物のデータが含まれることを防ぐことができる。   By using such a method, only a portion close to the representative color data of the subject can be extracted as the foreground. As shown in FIG. 6, when the subject person 300 overlaps another person 301 in the frame image 211 a and occlusion occurs, the foreground portion of the first foreground / background separation data 213 using motion detection includes the subject person 300 and The entire other person 301 is included. However, since the foreground portion of the second foreground / background separation data 214 using the representative color is substantially only the target person 300, the representative color extraction image 215 using the second foreground / background separation data 214 is almost identical. A representative color of only the target person 300 can be extracted. That is, foreground / background separation data with higher accuracy than the foreground / background separation data obtained by moving object detection can be created, so that it is possible to prevent unnecessary person data from being included in the representative color data of the subject.

次に、図7A及び図7Bを用いて、本実施の形態に係る追尾装置10の詳細な動作例について説明する。図7A及び図7Bに示すように、まず、画像解析処理部11は、カメラ31から映像データ211を取得する(ステップS101)。なお、画像解析処理部11は、カメラ31に限らず、記録媒体等から予め生成された映像データ211を取得してもよい。   Next, a detailed operation example of the tracking device 10 according to the present embodiment will be described with reference to FIGS. 7A and 7B. As shown in FIGS. 7A and 7B, first, the image analysis processing unit 11 acquires video data 211 from the camera 31 (step S101). Note that the image analysis processing unit 11 is not limited to the camera 31 and may acquire video data 211 generated in advance from a recording medium or the like.

続いて、動体検知処理部12は、取得した映像データ211に対し動体検知処理を行い、得られた動きベクトルを使用して、背景と前景を分離する第1の前景背景分離データ213を生成する(ステップS102)。第1の前景背景分離データ213は、白の前景画素と黒の背景画素からなる2値の画像データである。例えば、黒が画素値=0(最小値)であり、白が画素値=255(最大値)である。なお、動体検知処理部12は、動きベクトルに限らず、所定の背景画像との差分の色情報を使用して、第1の前景背景分離データ213を生成してもよい。   Subsequently, the moving object detection processing unit 12 performs a moving object detection process on the acquired video data 211, and generates first foreground / background separation data 213 that separates the background and the foreground using the obtained motion vector. (Step S102). The first foreground / background separation data 213 is binary image data composed of white foreground pixels and black background pixels. For example, black has a pixel value = 0 (minimum value) and white has a pixel value = 255 (maximum value). Note that the moving object detection processing unit 12 may generate the first foreground / background separation data 213 using not only the motion vector but also color information of a difference from a predetermined background image.

続いて、指定対象者データ抽出部14は、生成した第1の前景背景分離データ213から前景画素塊を抽出する(ステップS103)。前景画素塊は、前景画素が連続した画素群であり、連続的に白の値となっている画素の集合体である。   Subsequently, the designation target person data extraction unit 14 extracts a foreground pixel block from the generated first foreground / background separation data 213 (step S103). A foreground pixel block is a group of pixels in which foreground pixels are continuous, and is a collection of pixels that have a continuous white value.

続いて、指定対象者データ抽出部14は、対象者DB22を参照し、追尾する対象者300の代表色データ222を含む特徴データ221があるか否か確認する(ステップS104)。ステップS104において、対象者DB22に対象者300の特徴データ221が記憶されていない場合、指定対象者データ抽出部14は、映像データ211から対象者300の特徴データ221を抽出できるか否か確認する(ステップS105)。具体的には、マウス32によりユーザが指定した座標データと第1の前景背景分離データ213の前景画素塊とに基づいて、前景画素塊の中に指定された座標データが含まれるか否か確認することで、特徴データ221を抽出できるか否か判断する。   Subsequently, the designated target person data extraction unit 14 refers to the target person DB 22 and checks whether or not there is feature data 221 including the representative color data 222 of the target person 300 to be tracked (step S104). In step S <b> 104, when the feature data 221 of the subject person 300 is not stored in the subject person DB 22, the designated subject person data extraction unit 14 confirms whether or not the feature data 221 of the subject person 300 can be extracted from the video data 211. (Step S105). Specifically, based on the coordinate data specified by the user with the mouse 32 and the foreground pixel block of the first foreground / background separation data 213, it is confirmed whether or not the specified coordinate data is included in the foreground pixel block. Thus, it is determined whether or not the feature data 221 can be extracted.

ステップS105において、対象者300の特徴データ221を抽出できない場合、ステップS101に戻り、以降の処理を繰り返す。一方、ステップS105において、対象者300の特徴データ221を抽出できる場合、指定対象者データ抽出部14は、第1の前景背景分離データ213の前景画素塊と映像データ211のフレーム画像(カラー画像)211aの指定された領域の画素とを合成して代表色抽出用画像215を生成し、前景部分のみの画素データ(カラーデータ)の代表色である代表色データ222を作成する(ステップS106)。代表色データ222の作成が終了すると、後述のステップS118以降で代表色の境界範囲を学習する。   In step S105, when the feature data 221 of the target person 300 cannot be extracted, the process returns to step S101 and the subsequent processing is repeated. On the other hand, if the feature data 221 of the target person 300 can be extracted in step S105, the designated target person data extraction unit 14 uses the foreground pixel block of the first foreground / background separation data 213 and the frame image (color image) of the video data 211. A representative color extraction image 215 is generated by combining the pixels in the designated area 211a, and representative color data 222, which is a representative color of pixel data (color data) of only the foreground portion, is created (step S106). When the creation of the representative color data 222 is completed, the boundary range of the representative color is learned in step S118 and later.

一方、ステップS104において、対象者DB22に対象者300の特徴データ221が記憶されている場合、第1の前景背景分離データ213の前景画素塊の数の分だけステップS108〜S113の処理を繰り返すループ処理を実行する(ステップS107)。ここでは、まず、対象者データ外マスク処理部13は、第1の前景背景分離データ213の前景画素塊の領域内のみで前景画素とフレーム画像(カラー画像)211aを合成する(ステップS108)。これにより、前景部のみで特徴量(代表色)を抽出できる特徴量抽出用画像(代表色抽出用画像215)を生成する。   On the other hand, when the feature data 221 of the subject 300 is stored in the subject DB 22 in step S104, a loop that repeats the processing of steps S108 to S113 by the number of foreground pixel blocks of the first foreground / background separation data 213. Processing is executed (step S107). Here, first, the subject data out-of-object mask processing unit 13 synthesizes the foreground pixels and the frame image (color image) 211a only within the foreground pixel block region of the first foreground / background separation data 213 (step S108). As a result, a feature amount extraction image (representative color extraction image 215) from which a feature amount (representative color) can be extracted only by the foreground portion is generated.

続いて、第1の前景背景分離データ213の前景画素塊の領域内の画素数分だけステップS110〜S113の処理を繰り返すループ処理を実行する(S109)。ここでは、まず、対象者データ外マスク処理部13は、第1の前景背景分離データ213の前景画素塊に対応するフレーム画像(カラー画像)211aと対象者の代表色境界範囲データ231を比較する(ステップS110)。このとき、対象者データ外マスク処理部13は、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲内か否か確認する(ステップS111)。   Subsequently, a loop process is performed in which the processes of steps S110 to S113 are repeated by the number of pixels in the foreground pixel block area of the first foreground / background separation data 213 (S109). Here, first, the subject data outside mask processing unit 13 compares the frame image (color image) 211a corresponding to the foreground pixel block of the first foreground / background separation data 213 and the representative color boundary range data 231 of the subject. (Step S110). At this time, the non-subject data mask processing unit 13 checks whether or not the color of the pixel of the frame image 211a to be compared is within the range of the representative color boundary range data 231 (step S111).

ステップS111において、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲外の場合、対象者データ外マスク処理部13は、生成する第2の前景背景分離データ214の該当する画素値を0(黒)に設定する(ステップS112)。一方、ステップS111において、比較するフレーム画像211aの画素の色が代表色境界範囲データ231の範囲内の場合、対象者データ外マスク処理部13は、生成する第2の前景背景分離データ214の該当する画素値を255(白)に設定する(ステップS113)。   In step S111, when the color of the pixel of the frame image 211a to be compared is outside the range of the representative color boundary range data 231, the subject-data-outside mask processing unit 13 applies the corresponding pixel of the second foreground / background separation data 214 to be generated. The value is set to 0 (black) (step S112). On the other hand, in step S111, when the color of the pixel of the frame image 211a to be compared is within the range of the representative color boundary range data 231, the subject-data-outside mask processing unit 13 matches the corresponding second foreground / background separation data 214 to be generated. The pixel value to be set is set to 255 (white) (step S113).

続いて、全前景画素塊の設定が完了したか否か判定し(ステップS114)、未設定の前景画素塊が残っている場合にはステップS107へ戻り、全前景画素塊の設定が完了した場合にはステップS115へ進む。第1の前景背景分離データ213の前景画素塊が複数存在する場合、各前景画素塊の領域内でステップS110〜S113が実行され、代表色処理後の第2の前景背景分離データ214が生成される。続いて、対象者データ外マスク処理部13は、生成された第2の前景背景分離データ214に対して、照明による外光等のノイズクリア処理を実行する(ステップS115)。第2の前景背景分離データ214は、動きベクトルと代表色を使って背景画素と前景画素を2値化した画像データである。   Subsequently, it is determined whether or not the setting of all foreground pixel blocks has been completed (step S114), and if there is an unset foreground pixel block, the process returns to step S107, and the setting of all foreground pixel blocks is completed. Then, the process proceeds to step S115. When there are a plurality of foreground pixel blocks of the first foreground / background separation data 213, Steps S110 to S113 are executed in each foreground pixel block region, and second foreground / background separation data 214 after the representative color processing is generated. The Subsequently, the subject-data-outside mask processing unit 13 performs noise clear processing such as outside light by illumination on the generated second foreground / background separation data 214 (step S115). The second foreground / background separation data 214 is image data obtained by binarizing a background pixel and a foreground pixel using a motion vector and a representative color.

続いて、追尾処理部16は、生成した第2の前景背景分離データ214と対象者300の特徴データ221とを用いて、フレーム画像211aに対して対象者300を追尾する追尾処理を実行する(ステップS116)。追尾処理部16は、第2の前景背景分離データ214を使用して、フレーム画像211a内で対象者300の特徴データ221に尤度が最も高い位置である重心値を求め、この重心値により対象者300を検出する。なお、動体検知による第1の前景背景分離データ213を用いて追尾処理を行ってもよい。続いて、追尾処理部16は、算出した対象者300の特徴データ221に尤度が最も高い位置の画素から、代表色データ222を含む特徴量を抽出する(ステップS117)。   Subsequently, the tracking processing unit 16 uses the generated second foreground / background separation data 214 and the characteristic data 221 of the target person 300 to execute a tracking process for tracking the target person 300 with respect to the frame image 211a ( Step S116). The tracking processing unit 16 uses the second foreground / background separation data 214 to obtain a centroid value that is the position with the highest likelihood in the feature data 221 of the target person 300 in the frame image 211a, and uses the centroid value as a target. The person 300 is detected. Note that the tracking process may be performed using the first foreground / background separation data 213 obtained by moving object detection. Subsequently, the tracking processing unit 16 extracts a feature amount including the representative color data 222 from the pixel at the position having the highest likelihood in the calculated feature data 221 of the target person 300 (step S117).

続いて、代表色学習部15は、ステップS106またはステップS117で抽出した対象者300の代表色データ222を用いて、代表色データを学習する(ステップS118)。すなわち、代表色学習部15は、抽出した対象者300の代表色データ222を含むように代表色の境界範囲を設定し、代表色境界範囲データ231を生成する   Subsequently, the representative color learning unit 15 learns representative color data using the representative color data 222 of the target person 300 extracted in step S106 or step S117 (step S118). That is, the representative color learning unit 15 sets the boundary range of the representative color so as to include the extracted representative color data 222 of the target person 300, and generates the representative color boundary range data 231.

続いて、代表色学習部15は、学習した代表色データ222のうち、対象者300の各部位で一定期間使用されない未使用の代表色データ222があるか否か確認する(ステップS119)。例えば、代表色境界範囲データ231の範囲内で、一定期間追尾処理において該当しない色は、未使用の色であると判定される。   Subsequently, the representative color learning unit 15 checks whether or not there is unused representative color data 222 that is not used for a certain period in each part of the target person 300 in the learned representative color data 222 (step S119). For example, within the range of the representative color boundary range data 231, a color that does not correspond in the tracking process for a certain period is determined to be an unused color.

ステップS119において、未使用の代表色データ222がある場合、代表色学習部15は、学習した代表色データ222から該当する代表色データを削除する(ステップS120)。すなわち、代表色境界範囲データ231の範囲内に、未使用の代表色データ222が含まれないように設定する。一方、ステップS119において、未使用の代表色データが無い場合、または、ステップS120において未使用の代表色データを削除した後、代表色学習部15は、新しく追加できる代表色データ222があるか否か確認する(ステップS121)。   If there is unused representative color data 222 in step S119, the representative color learning unit 15 deletes the corresponding representative color data from the learned representative color data 222 (step S120). In other words, the representative color boundary range data 231 is set so that the unused representative color data 222 is not included in the range. On the other hand, if there is no unused representative color data in step S119, or after deleting the unused representative color data in step S120, the representative color learning unit 15 determines whether there is new representative color data 222 that can be added. (Step S121).

ステップS121において、追加する代表色データ222がある場合、代表色学習部15は、新しく抽出された代表色データ222を代表色学習DB23に登録し、代表色の境界範囲を設定して、代表色境界範囲データ231を更新する(ステップS122)。一方、ステップS121において、追加する代表色データ222がない場合、または、ステップS122において代表色データ222を追加した後、ステップS101に戻り、以降の処理を繰り返す。   In step S121, if there is representative color data 222 to be added, the representative color learning unit 15 registers the newly extracted representative color data 222 in the representative color learning DB 23, sets the boundary range of the representative color, and sets the representative color. The boundary range data 231 is updated (step S122). On the other hand, if there is no representative color data 222 to be added in step S121, or after adding the representative color data 222 in step S122, the process returns to step S101 and the subsequent processing is repeated.

以上のように、本実施の形態では、追尾する対象者の代表色を学習し、学習した代表色もしくはその範囲に基づいて前景と背景とを分離するようにした。すなわち、本実施の形態では、映像データの動体検知により第1の前景背景分離データを生成し、さらに、学習した対象者の代表色に基づいて第2の前景背景分離データを生成して、第2の前景背景分離データを用いて対象者の代表色を抽出する。   As described above, in this embodiment, the representative color of the target person to be tracked is learned, and the foreground and the background are separated based on the learned representative color or its range. That is, in the present embodiment, first foreground / background separation data is generated by moving object detection of video data, and further, second foreground / background separation data is generated based on the learned representative color of the subject, The representative color of the subject is extracted using the foreground / background separation data of 2.

これにより、映像データから対象者のみの前景部分のみを分離して、対象者のみの代表色を抽出することができる。すなわち、オクルージョンが発生しても、対象者の特徴量として不要なデータの抽出を抑えることができるため、確実に対象者のみを追尾することができる。また、複数のカメラにより対象者を撮像する場合、カメラ間をまたいだ追尾時にオクルージョンが発生していていも、対象者と他の人物とを分離し、対象者のみを特定することができるため、この場合でも対象者を追尾することができる。   Thereby, only the foreground portion of only the target person can be separated from the video data, and the representative color of only the target person can be extracted. In other words, even if occlusion occurs, it is possible to suppress the extraction of unnecessary data as the feature amount of the target person, so that only the target person can be reliably tracked. In addition, when imaging a target person with multiple cameras, even if occlusion occurs during tracking across cameras, it is possible to separate the target person from other persons and specify only the target person, Even in this case, the target person can be tracked.

また、動き検知による第1の前景背景分離データと代表色を使用した第2の前景背景分離データの差分を使用することで、オクルージョンが発生している比、すなわち、対象者の体が何パーセント隠れているかを判別することができる。   Further, by using the difference between the first foreground / background separation data based on the motion detection and the second foreground / background separation data using the representative color, the ratio of occurrence of occlusion, that is, the percentage of the subject's body. It can be determined whether it is hidden.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

1 追尾システム
10 追尾装置
11 画像解析処理部
12 動体検知処理部
13 対象者データ外マスク処理部
14 指定対象者データ抽出部
15 代表色学習部
16 追尾処理部
20 記憶装置
21 映像データDB
22 対象者DB
23 代表色学習
30 入力装置
31 カメラ
32 マウス
211 映像データ
211a フレーム画像
212 背景データ
213 第1の前景背景分離データ
214 第2の 前景背景分離データ
215 代表色抽出用画像
221 特徴データ
222 代表色データ
223 形状データ
231 代表色境界範囲データ
300 対象者
301 他の人物
DESCRIPTION OF SYMBOLS 1 Tracking system 10 Tracking apparatus 11 Image analysis process part 12 Moving body detection process part 13 Target person data outside mask process part 14 Designation target person data extraction part 15 Representative color learning part 16 Tracking process part 20 Storage device 21 Video data DB
22 Target DB
23 representative color learning 30 input device 31 camera 32 mouse 211 video data 211a frame image 212 background data 213 first foreground / background separation data 214 second foreground / background separation data 215 representative color extraction image 221 feature data 222 representative color data 223 Shape data 231 Representative color boundary range data 300 Target person 301 Other person

Claims (7)

追尾対象物を追尾するための代表色を示す代表色データを記憶する代表色記憶部と、
取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成する第1の前景背景分離データ生成部と、
前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成する第2の前景背景分離データ生成部と、
前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する追尾処理部と、
を備える追尾装置。
A representative color storage unit that stores representative color data indicating a representative color for tracking a tracking object;
A first foreground / background separation data generation unit that generates first foreground / background separation data that separates foreground data and background data based on the acquired video data;
A second foreground / background separation data generation unit that generates second foreground / background separation data based on a color region including the representative color in the region of the video data corresponding to the first foreground / background separation data;
A tracking processing unit that tracks the tracking object based on at least one of the first foreground / background separation data or the second foreground / background separation data;
A tracking device comprising:
前記第1の前景背景分離データ生成部は、前記映像データに対する動体検知処理結果または前記映像データと前記背景データとの差分に基づいて、前記第1の前景背景分離データを生成する、
請求項1に記載の追尾装置。
The first foreground / background separation data generation unit generates the first foreground / background separation data based on a moving object detection processing result for the video data or a difference between the video data and the background data.
The tracking device according to claim 1.
前記代表色データは、前記追尾対象物の代表色の範囲を含み、
前記第2の前景背景分離データ生成部は、前記第1の前景背景分離データに対応する前記映像データの領域の色が前記代表色と一致するか否か、または前記代表色の範囲内か否かに応じて2値化したデータを、前記第2の前景背景分離データとする、
請求項1に記載の追尾装置。
The representative color data includes a range of representative colors of the tracking object,
The second foreground / background separation data generation unit determines whether or not the color of the area of the video data corresponding to the first foreground / background separation data matches the representative color or within the range of the representative color. The data binarized according to the above is used as the second foreground / background separation data,
The tracking device according to claim 1.
前記第2の前景背景分離データに対応する前記映像データの領域の代表色が前記代表色の範囲に含まれるように、前記代表色データを更新する代表色更新部をさらに備える、
請求項1乃至3のいずれか一項に記載の追尾装置。
A representative color update unit that updates the representative color data so that a representative color of the region of the video data corresponding to the second foreground / background separation data is included in the range of the representative color;
The tracking device according to any one of claims 1 to 3.
前記追尾処理部は、前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方と、前記代表色データとに基づいて、前記映像データ内の前記追尾対象物を追尾する、
請求項1乃至4のいずれか一項に記載の追尾装置。
The tracking processing unit tracks the tracking object in the video data based on at least one of the first foreground / background separation data or the second foreground / background separation data and the representative color data;
The tracking device according to any one of claims 1 to 4.
追尾対象物を追尾するための代表色を示す代表色データを記憶し、
取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、
前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、
前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する、
追尾方法。
Storing representative color data indicating a representative color for tracking a tracking object;
Generating first foreground / background separation data for separating the foreground data and the background data based on the acquired video data;
Generating second foreground / background separation data based on a region of the color including the representative color in the region of the video data corresponding to the first foreground / background separation data;
Tracking the tracking object based on at least one of the first foreground / background separation data or the second foreground / background separation data;
Tracking method.
追尾対象物を追尾するための代表色を示す代表色データを記憶し、
取得された映像データに基づいて前景データと背景データを分離する第1の前景背景分離データを生成し、
前記第1の前景背景分離データに対応する前記映像データの領域のうち前記代表色を含む色の領域に基づいて第2の前景背景分離データを生成し、
前記第1の前景背景分離データまたは前記第2の前景背景分離データの少なくとも一方に基づいて前記追尾対象物を追尾する、
追尾処理をコンピュータに実行させるための追尾プログラム。
Storing representative color data indicating a representative color for tracking a tracking object;
Generating first foreground / background separation data for separating the foreground data and the background data based on the acquired video data;
Generating second foreground / background separation data based on a region of the color including the representative color in the region of the video data corresponding to the first foreground / background separation data;
Tracking the tracking object based on at least one of the first foreground / background separation data or the second foreground / background separation data;
A tracking program that causes a computer to execute tracking processing.
JP2015028238A 2015-02-17 2015-02-17 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM Active JP6350331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015028238A JP6350331B2 (en) 2015-02-17 2015-02-17 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015028238A JP6350331B2 (en) 2015-02-17 2015-02-17 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Publications (2)

Publication Number Publication Date
JP2016152467A true JP2016152467A (en) 2016-08-22
JP6350331B2 JP6350331B2 (en) 2018-07-04

Family

ID=56696882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015028238A Active JP6350331B2 (en) 2015-02-17 2015-02-17 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM

Country Status (1)

Country Link
JP (1) JP6350331B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045768A (en) * 2017-09-05 2019-03-22 キヤノン株式会社 Imaging device, control method of the same, program thereof, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210116966A (en) 2020-03-18 2021-09-28 삼성전자주식회사 Method and apparatus for tracking target

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016606A (en) * 1999-06-29 2001-01-19 Sharp Corp Operation recognition system and recording medium recording operation recognition program
JP2001169169A (en) * 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd Automatic tracking device
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001016606A (en) * 1999-06-29 2001-01-19 Sharp Corp Operation recognition system and recording medium recording operation recognition program
JP2001169169A (en) * 1999-12-10 2001-06-22 Fuji Photo Optical Co Ltd Automatic tracking device
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045768A (en) * 2017-09-05 2019-03-22 キヤノン株式会社 Imaging device, control method of the same, program thereof, and storage medium
JP7005236B2 (en) 2017-09-05 2022-01-21 キヤノン株式会社 Imaging device and its control method, program, storage medium

Also Published As

Publication number Publication date
JP6350331B2 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
US10740652B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US6556708B1 (en) Technique for classifying objects within an image
US6400830B1 (en) Technique for tracking objects through a series of images
JP6655878B2 (en) Image recognition method and apparatus, program
US6421462B1 (en) Technique for differencing an image
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP6639523B2 (en) Automatic learning image sorting device, automatic learning image sorting method, and automatic learning image sorting program
AU2016225841B2 (en) Predicting accuracy of object recognition in a stitched image
JP2013122763A (en) Video processor and video processing method
US10489640B2 (en) Determination device and determination method of persons included in imaging data
JP6362085B2 (en) Image recognition system, image recognition method and program
JP2011076255A (en) Gesture recognizing device, gesture recognizing method and gesture recognizing program
JP6007523B2 (en) Generating device, generating program, and generating method
JP2016134803A (en) Image processor and image processing method
US6434271B1 (en) Technique for locating objects within an image
KR101737430B1 (en) A method of detecting objects in the image with moving background
JP2013152669A (en) Image monitoring device
US6240197B1 (en) Technique for disambiguating proximate objects within an image
JP2018055367A (en) Image processing device, image processing method, and program
US6184858B1 (en) Technique for updating a background image
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2010237976A (en) Light source information obtaining device, shading detection device, shading removal device, and those methods and programs
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP2012003724A (en) Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program
JP6939065B2 (en) Image recognition computer program, image recognition device and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6350331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150