JP2009147607A - Person tracking device - Google Patents

Person tracking device Download PDF

Info

Publication number
JP2009147607A
JP2009147607A JP2007322028A JP2007322028A JP2009147607A JP 2009147607 A JP2009147607 A JP 2009147607A JP 2007322028 A JP2007322028 A JP 2007322028A JP 2007322028 A JP2007322028 A JP 2007322028A JP 2009147607 A JP2009147607 A JP 2009147607A
Authority
JP
Japan
Prior art keywords
moving object
segment
skin color
block
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007322028A
Other languages
Japanese (ja)
Inventor
Atsushi Sugitani
篤 杉谷
Kanefumi Kinetsuki
兼史 杵築
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007322028A priority Critical patent/JP2009147607A/en
Publication of JP2009147607A publication Critical patent/JP2009147607A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person tracking device capable of appropriately determining a skin color segment to be tracked from a plurality of skin color segments without needing many calculation resources even for real time tracking processing and of continuing to track a target moving object even when the skin color segment suddenly disappears. <P>SOLUTION: The person tracking device is provided with: a frame memory 12 for storing image frame data of an input image signal; a detection part 13 for making the image frame data a block to detect a moving object block; a creation part 14 for creating an adjacent moving object block as a segment; a detection part 15 for detecting a skin color area of the image frame data and weighting them; a search part 16 for detecting a moving object present within the image frame in past, for searching a moving object present nearby the currently moving object and weighting it; a determination part 17 for determining a moving object segment to be tracked; and a determination part 18 for determining position coordinates to be tracked within the moving object segment to be tracked. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中から移動物体を検出し、検出したこの移動物体中から人間の肌の色を有する部分を検出し、また、当該人間の肌の色を有する部分が急に検出できなくなっても、当該追尾を中断することなく、人物の追尾を行なうことができる人物追尾装置に関する。   The present invention detects a moving object from an input image signal obtained from a surveillance camera, an image reproducing device, public broadcasting, or the like, detects a portion having a human skin color from the detected moving object, and The present invention relates to a person tracking device that can perform tracking of a person without interrupting the tracking even if a portion having a human skin color cannot be detected suddenly.

近年、防犯・防災のための監視システムが工場や商店等の施設だけでなく家庭にも導入されるようになってきた。またこうした監視システムに様々な新機能が追加されるようになってきた。例えば、監視カメラで撮影した画像中から人物を検出する機能や、こうして検出した特定の人物を追尾する機能である。   In recent years, surveillance systems for crime prevention and disaster prevention have been introduced not only in facilities such as factories and shops but also in homes. Various new functions have been added to these monitoring systems. For example, there are a function for detecting a person from an image taken by a surveillance camera and a function for tracking a specific person thus detected.

具体的には、背景差分法を用いて監視カメラで撮影した動画像中から動きのある領域を検出して移動物体を検出し、この移動物体の領域を元に移動物体の動きを動的に解析した結果に基づいて作成したテンプレートを用いるテンプレートマッチング処理によって、対象とする移動物体の識別を行なう物体検出装置がある(特許文献1参照)。
特開2004-348303号公報
Specifically, a moving object is detected from a moving image captured by a surveillance camera using a background subtraction method to detect a moving object, and the movement of the moving object is dynamically determined based on the moving object area. There is an object detection device that identifies a target moving object by template matching processing using a template created based on the analysis result (see Patent Document 1).
JP 2004-348303 A

しかしながら、特許文献1に記載のテンプレートマッチング処理は、移動物体検出用の計算量が膨大であり、この計算をリアルタイムで行なうためには多くの計算リソースを必要とする。この結果、高コストとなり、こうした移動物体のリアルタイム検出処理は実用上困難であるという問題点があった。   However, the template matching process described in Patent Document 1 requires a large amount of calculation for detecting a moving object, and requires many calculation resources to perform this calculation in real time. As a result, there is a problem that the cost is high and real-time detection processing of such a moving object is practically difficult.

また、前記したテンプレートマッチング処理は、移動セグメント中から肌色のセグメントを検出するように設計されているのであるが、追尾の対象が同一人物であっても顔と両手など肌色セグメントが複数ある場合には、どの肌色セグメントを検出対象とするのか的確に判断できないため、追尾に失敗するおそれがあるという問題点があった。   In addition, the template matching process described above is designed to detect a flesh-colored segment from the moving segments. However, even if the tracking target is the same person, there are a plurality of flesh-colored segments such as faces and both hands. However, since it is impossible to accurately determine which skin color segment is a detection target, there is a problem that tracking may fail.

さらに、例えば顔の肌色セグメントを対象として追尾している人物が、急に後姿になって顔が見えなくなった場合には、追尾の対象としている肌色セグメントが突然消失しまうことになり、この場合にも、追尾に失敗するおそれがあるという問題点があった。   Furthermore, for example, when a person who is tracking the skin color segment of the face suddenly becomes behind and the face disappears, the skin color segment targeted for tracking will suddenly disappear, and in this case However, there was a problem that tracking might fail.

そこで本発明は、上記の問題点に鑑みてなされたものであり、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中に出てくる追尾の対象とする移動物体を検出するための計算量を小としたからリアルタイムの追尾処理が可能となり、また、追尾の対象が同一人物であって顔と両手など肌色セグメントが複数ある場合でも、この中から追尾すべき肌色セグメントを的確に判断することができるから、追尾に失敗することがない人物追尾装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and is for detecting a moving object to be tracked that appears in an input image signal obtained from a surveillance camera, an image reproducing device, or a public broadcast. Real-time tracking processing is possible because the amount of calculation is small, and even if the tracking target is the same person and there are multiple skin color segments such as the face and both hands, the skin color segment to be tracked is accurately identified from this An object of the present invention is to provide a person tracking device that can be determined and does not fail in tracking.

また本発明は、前記人物追尾装置の構成に加えて、追尾対象とする肌色セグメントが突然消失しても当該肌色セグメントを見失うことなく、引き続き対象の移動物体の追尾を行う人物追尾装置を提供することを目的とする。   In addition to the configuration of the person tracking apparatus, the present invention provides a person tracking apparatus that continues to track a target moving object without losing sight of the skin color segment even if the skin color segment to be tracked suddenly disappears. For the purpose.

上記した課題を解決するために、本発明は下記の構成を有する人物追尾装置を提供する。   In order to solve the above-described problems, the present invention provides a person tracking device having the following configuration.

即ち、図1に示すように、(例えば、監視カメラ101の撮像エリアを撮像した)入力画像信号中から抽出しかつ人物の露出部分(顔、手、足など)の肌の色の動きに関するデータを、当該人物の動きとして検出し追尾する人物追尾装置10であって、
前記入力画像信号を画像フレーム単位で変換して得たフレームデータ1A,1Bを順次メモリするメモリ手段(フレームメモリ)12と、
前記メモリ手段12でメモリしてある前回のフレームデータ1A(図2)と今回のフレームデータ1B(図3)とをそれぞれ複数ブロック(例えば300ブロック)に分割して得た前回と今回の各ブロック同士(同一位置にあるブロック同士)の輝度データの差が所定の閾値を超えていることを検出すると、当該ブロックを移動物体ブロック(図4)として検出する移動物体検出手段(移動物体検出部)13と、
前記移動物体検出手段13から出力される前記移動物体ブロックをセグメント化して得た移動物体セグメント2,3(図5)を作成するセグメント作成手段(セグメント作成部)14と、
前記セグメント作成手段14から出力される移動物体セグメント2,3と前記メモリ手段12から出力される前記今回のフレームデータ1Bとに基づいて、肌の色のデータを有した肌色ブロック4を含む移動物体セグメント3を検出する肌色セグメント検出手段(肌色検出部)15と、
前記肌色セグメント検出手段15から出力される移動物体セグメント3と、当該移動物体セグメント3に最も近似した前記前回のフレームデータよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定する追尾対象決定手段(追尾対象決定部)17とを有する
ことを特徴とする人物追尾装置。
That is, as shown in FIG. 1, data relating to the movement of the skin color of an exposed portion (face, hand, foot, etc.) of a person extracted from an input image signal (for example, an image of the imaging area of the surveillance camera 101) Is a person tracking device 10 that detects and tracks the movement of the person,
Memory means (frame memory) 12 for sequentially storing frame data 1A and 1B obtained by converting the input image signal in units of image frames;
The previous and current blocks obtained by dividing the previous frame data 1A (FIG. 2) and the current frame data 1B (FIG. 3) stored in the memory means 12 into a plurality of blocks (for example, 300 blocks), respectively. Moving object detection means (moving object detection unit) that detects a difference between luminance data of blocks (blocks at the same position) exceeding a predetermined threshold value as a moving object block (FIG. 4) 13 and
Segment creation means (segment creation section) 14 for creating moving object segments 2 and 3 (FIG. 5) obtained by segmenting the moving object block output from the moving object detection means 13;
Based on the moving object segments 2 and 3 output from the segment creation means 14 and the current frame data 1B output from the memory means 12, the moving object includes a skin color block 4 having skin color data. Skin color segment detection means (skin color detection unit) 15 for detecting segment 3,
Based on the moving object segment 3 output from the flesh color segment detection means 15 and the moving object segment in the previous frame data that is most approximate to the moving object segment 3, the tracking object is continuously selected as the tracking target. A person tracking device comprising: tracking target determining means (tracking target determining unit) 17 for determining a moving object segment.

本発明は、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中に出てくる追尾の対象とする移動物体を検出するための計算量を小としたからリアルタイムの追尾処理が可能となり、また、追尾の対象が同一人物であって顔と両手など肌色セグメントが複数ある場合でも、この中から追尾すべき肌色セグメントを的確に判断することができるから、追尾に失敗することがない人物追尾装置を提供することができる。   The present invention enables real-time tracking processing because the amount of calculation for detecting a moving object to be tracked that appears in an input image signal obtained from a surveillance camera, an image playback device, or a public broadcast is reduced. In addition, even if the tracking target is the same person and there are multiple skin color segments such as the face and both hands, it is possible to accurately determine the skin color segment to be tracked from this, so tracking does not fail A person tracking device can be provided.

また本発明は、前記人物追尾装置の構成に加えて、追尾対象とする肌色セグメントが突然消失しても当該肌色セグメントを見失うことなく、引き続き対象の移動物体の追尾を行う人物追尾装置を提供することができる。   In addition to the configuration of the person tracking apparatus, the present invention provides a person tracking apparatus that continues to track a target moving object without losing sight of the skin color segment even if the skin color segment to be tracked suddenly disappears. be able to.

以下、本発明の人物追尾装置の実施の形態について、図1〜図13を用いて、次の(1)〜(5)の順に説明する。   Hereinafter, embodiments of the person tracking device of the present invention will be described in the order of the following (1) to (5) with reference to FIGS.

(1)人物追尾装置の構成
(2)人物追尾装置の動作
(3)第1の実施例
(4)第2の実施例
(5)その他の実施例
図1は本発明の人物追尾装置の実施の形態の構成を示すブロック図、図2は前回の画像フレームデータを示す図、図3は今回の画像フレームデータを示す図、図4は移動物体ブロックを示す図、図5は移動物体セグメントを示す図、図6は本発明の人物追尾装置の実施の形態の動作を示すフローチャートである。尚、本発明の実施の形態において使用される機器、手法等は一例であり、本発明はこれらに限定されるものではないことは勿論である。
(1) Configuration of person tracking device (2) Operation of person tracking device (3) First embodiment (4) Second embodiment (5) Other embodiments FIG. 1 shows the implementation of the person tracking device of the present invention. 2 is a diagram showing the previous image frame data, FIG. 3 is a diagram showing the current image frame data, FIG. 4 is a diagram showing a moving object block, and FIG. 5 is a diagram showing moving object segments. FIG. 6 is a flowchart showing the operation of the embodiment of the person tracking device of the present invention. In addition, the apparatus, method, etc. which are used in embodiment of this invention are examples, and of course, this invention is not limited to these.

以下、本発明の実施の形態の説明を、一例として監視カメラで撮像する入力画像信号中に出てくる人物を追尾することについて行うが、本発明はこれに限定されるものではなく、例えば、公共放送を受信して放送中の映像に出てくる特定の人物を追尾したり、あるいは、遠隔の映像再生装置から無線伝送される再生映像信号中に出ている特定の人物を追尾することについても適用できることは言うまでもない。   Hereinafter, the embodiment of the present invention will be described with respect to tracking a person appearing in an input image signal captured by a surveillance camera as an example, but the present invention is not limited to this, for example, Tracking a specific person appearing in a broadcast video after receiving a public broadcast, or tracking a specific person appearing in a playback video signal transmitted wirelessly from a remote video playback device It goes without saying that is also applicable.

(1)人物追尾装置の構成
本発明の実施の形態に係る人物追尾装置10は、図1に示すように、監視エリア内を撮像した画像を画像信号として送信する監視カメラ101と、追尾処理中の画像をモニタ表示するモニタ装置102とに接続される。
(1) Configuration of Person Tracking Device As shown in FIG. 1, a person tracking device 10 according to an embodiment of the present invention includes a monitoring camera 101 that transmits an image captured in a monitoring area as an image signal, and a tracking process. Connected to a monitor device 102 that displays the image of the image.

また人物追尾装置10は、図1に示すように、画像信号受信部11、フレームメモリ12、移動物体検出部13、セグメント作成部14、肌色検出部15、近傍探索部16、追尾対象決定部17、追尾位置決定部18、座標データ伝送部19、肌色重み記憶部20、近傍重み記憶部21及び制御部22を備えている。制御部22は人物追尾装置10を構成する各部の動作制御を行なう。   As shown in FIG. 1, the person tracking device 10 includes an image signal receiving unit 11, a frame memory 12, a moving object detection unit 13, a segment creation unit 14, a skin color detection unit 15, a neighborhood search unit 16, and a tracking target determination unit 17. A tracking position determination unit 18, a coordinate data transmission unit 19, a flesh color weight storage unit 20, a neighborhood weight storage unit 21, and a control unit 22. The control unit 22 performs operation control of each unit constituting the person tracking device 10.

そして、上記した構成を有する人物追尾装置10は、大略、図1に示すように、監視カメラ101の撮像エリアを撮像した撮像画像中から抽出しかつ人物の露出部分(顔、手、足など)の肌の色の動きに関するデータを、当該人物の動きとして検出し追尾する人物追尾装置である。   The person tracking device 10 having the above-described configuration is extracted from the captured image obtained by capturing the imaging area of the monitoring camera 101 and is exposed as a person (face, hand, foot, etc.) as shown in FIG. This is a person tracking device that detects and tracks data relating to the movement of the skin color as the movement of the person.

前記した画像信号受信部11は、監視カメラ101から送信されてくる画像信号を受信し、画像フレーム単位の画像フレームデータに変換して、フレームメモリ12へ順次出力される。   The image signal receiving unit 11 described above receives the image signal transmitted from the monitoring camera 101, converts it into image frame data in units of image frames, and sequentially outputs them to the frame memory 12.

前記したフレームメモリ12は、画像信号受信部11から入力される画像フレーム単位の画像フレームデータを、その入力順(時系列順)にタイムスタンプを付してメモリする。フレームメモリ12は、画像フレームデータを、例えば、第1の画像フレームデータ、…、第2の画像フレームデータ、第3の画像フレームデータというように、順次メモリしていく。   The frame memory 12 stores the image frame data in units of image frames input from the image signal receiving unit 11 with a time stamp in the input order (time series order). The frame memory 12 sequentially stores image frame data, for example, first image frame data,..., Second image frame data, and third image frame data.

以下の説明において、第2の画像フレームデータを「前回の画像フレームデータ」1A(図2)、第3の画像フレームデータを「今回の画像フレームデータ」1B(図3)、そして第1の画像フレームデータを「過去の画像フレームデータ」と称して用いる。   In the following description, the second image frame data is “previous image frame data” 1A (FIG. 2), the third image frame data is “current image frame data” 1B (FIG. 3), and the first image The frame data is used as “past image frame data”.

前回の画像フレームデータ1Aは、図2に示すように、データ部分1Aa〜1Acを有し、また、今回の画像フレームデータ1Bは、図3に示すように、データ部分1Ba〜1Bcを有している。データ部分1Aa〜1Acはそれぞれ、データ部分1Ba〜1Bcに対応している。またデータ部分1Aa,1Abに対するデータ部分1Ba,1Bbの移動は、図3中矢印で示す。図3に示すデータ部分1Bcには移動はない。   The previous image frame data 1A has data portions 1Aa to 1Ac as shown in FIG. 2, and the current image frame data 1B has data portions 1Ba to 1Bc as shown in FIG. Yes. The data parts 1Aa to 1Ac correspond to the data parts 1Ba to 1Bc, respectively. The movement of the data parts 1Ba and 1Bb with respect to the data parts 1Aa and 1Ab is indicated by arrows in FIG. There is no movement in the data portion 1Bc shown in FIG.

前記した移動物体検出部13は、前回の画像フレームデータ1Aに対する今回の画像フレームデータ1Bの移動部分を検出し、これを移動物体ブロックデータとして、セグメント作成部14へ出力される。この移動部分の検出には既存の技術である動き検出手法を使用して行う。   The moving object detection unit 13 detects a moving part of the current image frame data 1B with respect to the previous image frame data 1A, and outputs this to the segment creation unit 14 as moving object block data. This moving part is detected by using a motion detection method that is an existing technique.

即ち、移動物体検出部13は、フレームメモリ12にメモリしてある前回の画像フレームデータ1A,今回の画像フレームデータ1Bをそれぞれ読み出して、読み出した画像フレームデータ1A,1Bをそれぞれ、予め設定してあるブロック数(後述の図4に示すように例えば、300ブロック(縦15ブロック×横20ブロック))に分割してブロック化する。   That is, the moving object detection unit 13 reads the previous image frame data 1A and the current image frame data 1B stored in the frame memory 12, and sets the read image frame data 1A and 1B in advance. The block is divided into a certain number of blocks (for example, 300 blocks (vertical 15 blocks × horizontal 20 blocks) as shown in FIG. 4 described later).

ブロック化した画像フレームデータ1A,1Bはそれぞれ、多数のブロックを集合したブロック群を形成する。そして、ブロック化した前回の画像フレームデータ1Aのブロック群を構成する各ブロック(前回のブロック)毎の輝度と、ブロック化した今回の画像フレームデータ1Bのブロック群を構成する各ブロック(今回のブロック)毎の輝度との輝度差をそれぞれ求める。   Each of the blocked image frame data 1A and 1B forms a block group in which a large number of blocks are aggregated. Then, the brightness of each block (previous block) constituting the block group of the previous image frame data 1A that has been blocked and each block (current block) constituting the block group of the current image frame data 1B that has been blocked. ) Find the difference in brightness from each brightness.

この結果、各輝度差が所定の閾値を越えた場合、当該ブロックを移動物体ブロックデータとして検出する。移動物体ブロックデータのエリアは2つのブロックのエリアを併せたエリアとなる。   As a result, when each luminance difference exceeds a predetermined threshold, the block is detected as moving object block data. The area of the moving object block data is an area obtained by combining the areas of the two blocks.

前記したセグメント作成部14は、移動物体検出部13から前記移動物体ブロックデータをそれぞれ入力する。セグメント作成部14は、入力する移動体ブロックデータの各外縁にそれぞれ隣接する全てのブロックを検出し、検出した全てのブロックのエリアを元の移動物体ブロックデータのエリアに併合した、一塊の移動物体セグメントデータをそれぞれ生成し、フレームメモリ12及び肌色検出部15へ出力される。こうして生成されたのが、図4に示す、2つの移動物体セグメント2,3である。   The segment creation unit 14 receives the moving object block data from the moving object detection unit 13. The segment creation unit 14 detects all blocks adjacent to the respective outer edges of the input moving body block data, and merges the areas of all detected blocks into the original moving object block data area. Segment data is respectively generated and output to the frame memory 12 and the skin color detection unit 15. The two moving object segments 2 and 3 shown in FIG. 4 are generated in this way.

前記した肌色検出部15は、フレームメモリ12から入力する画像フレームデータ1Bと、セグメント作成部14から入力しかつ移動物体セグメント2,3に関する移動物体セグメントデータとに基づいて、当該移動物体セグメント2,3を構成する各ブロック毎に、人間を示す指標として、人間の肌の色である「肌の色」を有する肌色ブロックであることを検出する。   Based on the image frame data 1B input from the frame memory 12 and the moving object segment data related to the moving object segments 2 and 3 input from the segment creation unit 14, the skin color detection unit 15 described above 3 is detected as a skin color block having “skin color” which is a human skin color as an index indicating a human.

ここで、「肌色」は一般には、次のように定義する。即ち、16進表記では#F1BB93、RGBでは(241,187,147)、CMYKでは(2,23,35,0)、HSVでは(26°,39%,95%)、マンセル値では5YR8/5である。   Here, “skin color” is generally defined as follows. That is, # F1BB93 in hexadecimal notation, (241, 187, 147) in RGB, (2, 23, 35, 0) in CMYK, (26 °, 39%, 95%) in HSV, and 5YR8 / 5 in Munsell value It is.

これに対して、本発明の人物追尾装置10が扱う「肌の色」とは、先に定義した「肌色」を中心として、人種を問わず人間として特定するために必要な広がりをもった範囲の「肌の色」をも含むものである。本明細書で用いる「肌の色」はこうした意味をもつ。   On the other hand, the “skin color” handled by the person tracking device 10 of the present invention has a spread necessary for specifying as a human regardless of race, centering on the previously defined “skin color”. It also includes the “skin color” of the range. As used herein, “skin color” has this meaning.

前記した肌色ブロックは、画像フレームデータ1Bにおいて、衣服などから露出している顔や両手などのブロックに対応している。   The skin color block described above corresponds to a block of a face or both hands exposed from clothes in the image frame data 1B.

ところが、監視カメラ101が設置してある監視エリアの環境下においては、各種照明(自然光、蛍光灯、白熱電球等)下にあり、監視カメラ101のカラーバランス調整を照明光の色温度に応じて事前にしておく必要がある。こうした事前調整をしないと、監視カメラ101で肌の色を撮像して得た画像フレームデータ1Bを肌色検出部15に入力しても、肌色検出部15はこれを肌の色とし認識しないことがあり、この結果、人間の移動を誤検出してしまう恐れが生じるためである。   However, under the environment of the monitoring area where the surveillance camera 101 is installed, the monitor camera 101 is under various lighting (natural light, fluorescent light, incandescent light bulb, etc.), and the color balance adjustment of the surveillance camera 101 is performed according to the color temperature of the illumination light. It is necessary to make it in advance. Without such advance adjustment, even if the image frame data 1B obtained by imaging the skin color with the monitoring camera 101 is input to the skin color detection unit 15, the skin color detection unit 15 may not recognize this as the skin color. This is because, as a result, there is a possibility that human movement is erroneously detected.

こうして、肌色検出部15は、図5に示すように、2つの移動物体セグメント2,3のうち、肌の色を検出できた移動物体セグメント3を構成する肌色ブロック(斜め網線部分)4の重み付けを行う。即ち、肌色ブロック4は肌色ブロックでないブロック5に対して、例えば+10を加点する。こうして全ての肌路居ブロック4に対する重み付けの合計点数を算出し、この合計点を肌色重み記憶部20と追尾対象決定部17へそれぞれ出力される。肌色重み記憶部20はこの合計点数をメモリする。   In this way, as shown in FIG. 5, the skin color detection unit 15 of the skin color block (diagonal halftone line portion) 4 constituting the moving object segment 3 that can detect the skin color of the two moving object segments 2 and 3. Perform weighting. That is, the skin color block 4 adds, for example, +10 to the block 5 which is not the skin color block. In this way, the total number of weights for all skin road blocks 4 is calculated, and the total points are output to the skin color weight storage unit 20 and the tracking target determination unit 17, respectively. The skin color weight storage unit 20 stores the total score.

そして、前記した制御部22は、この移動物体セグメント3を全て肌色ブロック4から構成される移動物体セグメントと見做す、情報処理を行なう。   Then, the control unit 22 performs information processing by regarding the moving object segment 3 as a moving object segment composed of all skin color blocks 4.

前記した近傍探索部16は、現時点から所定時間遡った時間内において、前記した移動物体検出部13で検出した移動物体ブロックデータに似た移動物体ブロックデータがこれまで検出されていたことを探索する。   The neighborhood search unit 16 searches for the fact that moving object block data similar to the moving object block data detected by the moving object detection unit 13 has been detected so far within a time that is a predetermined time after the current time. .

即ち、近傍探索部16は、制御部22で設定された現時点から所定時間内のフレームメモリ12にメモリしてある画像フレームデータを順次読み出して、現在把握している移動物体ブロックデータに最も近い、近傍移動物体ブロックデータを検出する。この探索結果は、追尾対象決定部17へ出力される。   That is, the proximity search unit 16 sequentially reads out the image frame data stored in the frame memory 12 within a predetermined time from the current time set by the control unit 22, and is closest to the moving object block data currently grasped. Proximity moving object block data is detected. This search result is output to the tracking target determining unit 17.

前記した追尾対象決定部17は、近傍探索部16から入力する近傍移動物体ブロックデータと、肌色検出部15から入力する肌の色の検出ができた全てのブロックに対する重み付けの合計点数とを比較して、後者の重み付けの合計点数が前者の移動物体ブロックデータに最も似通っていることを検出すると、当該移動物体セグメントは追尾対象であることを決定する。追尾対象決定部17は、この追尾対象である移動物体セグメントデータを追尾位置決定部18へ出力される。   The tracking target determination unit 17 compares the neighborhood moving object block data input from the neighborhood search unit 16 with the total weighted scores for all the blocks that can be detected from the skin color detection unit 15. When it is detected that the latter weighted total score is most similar to the former moving object block data, the moving object segment is determined to be a tracking target. The tracking target determination unit 17 outputs the moving object segment data that is the tracking target to the tracking position determination unit 18.

前記した追尾位置決定部18は、追尾対象決定部17が決定した追尾対象の肌色ブロック4を有する移動物体セグメント3に基づいて、追尾する位置座標を決定する。追尾位置決定部18は、追尾対象となる肌色ブロック4を含む移動物体セグメント3の重心座標を、追尾対象とすべき移動物体セグメントとするように設定を変更する。この重心座標は移動物体がこれから移動していく方向の中心位置を示す。   The tracking position determination unit 18 described above determines a position coordinate to be tracked based on the moving object segment 3 having the tracking target skin color block 4 determined by the tracking target determination unit 17. The tracking position determination unit 18 changes the setting so that the center-of-gravity coordinates of the moving object segment 3 including the skin color block 4 to be tracked is the moving object segment to be tracked. The barycentric coordinates indicate the center position in the direction in which the moving object will move.

追尾位置決定部18は、移動物体セグメント3と、当該移動物体セグメント3に最も近似した前回のフレームデータ1Aよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定するものであり、追尾対象とすべき移動物体セグメントがこれから移行する重心座標に関する位置座標データを、座標データ伝送部19へ出力される。   The tracking position determination unit 18 continues the moving object to be a tracking target based on the moving object segment 3 and the moving object segment in the previous frame data from the previous frame data 1A that is most approximate to the moving object segment 3. The position coordinate data relating to the barycentric coordinates from which the moving object segment to be tracked is determined will be output to the coordinate data transmission unit 19.

前記した座標データ伝送部19は、現在の位置座標データとこれから移行する位置座標データとを比較し、その差分のデータを駆動信号として、監視カメラ101を取り付けたPTZ(パンチルト)機構や回転雲台の各駆動手段に出力される。こうして追尾するべき移動物体を画像の中心に常時収まるようにすることによって、対象とする人物を画像フレームの中心位置で常時撮影することが出来る。   The coordinate data transmission unit 19 compares the current position coordinate data with the position coordinate data to be transferred from now on, and uses the difference data as a drive signal as a PTZ (pan-tilt) mechanism or rotating pan head with the monitoring camera 101 attached. Is output to each driving means. By making the moving object to be tracked always fit in the center of the image in this way, the target person can be always photographed at the center position of the image frame.

(2)人物追尾装置の動作
次に、上記した(1)の人物追尾装置の動作を、図6に示すフローチャートに沿って、動作順に説明する。図7は肌色ブロックの検出処理を説明するための図である。
(2) Operation of Person Tracking Device Next, the operation of the person tracking device (1) described above will be described in the order of operation along the flowchart shown in FIG. FIG. 7 is a diagram for explaining skin color block detection processing.

(a)まず、監視エリアを撮像した画像フレームデータを受信し、これを逐次メモリする。 (「フレームデータ受信」ステップS1)。 (A) First, image frame data obtained by imaging the monitoring area is received and stored in succession. ("Frame data reception" step S1).

(b)次に、メモリしてある前回の画像フレームデータ1Aと今回の画像フレームデータ1Bとを読み出して、これらを所定数のブロック(例えば300ブロック)に分割してブロック化する。そして、ブロック化した前回の画像フレームデータ1Aのブロック群を構成する各ブロック(前回のブロック)毎の輝度と、ブロック化した今回の画像フレームデータ1Bのブロック群を構成する各ブロック(今回のブロック)毎の輝度との輝度差をそれぞれ求める。この結果、各輝度差が所定の閾値を超えた場合、そのブロックを移動物体ブロック(移動物体ブロックデータ)として検出する(「移動物体ブロックを検出する」ステップS2)。 (B) Next, the previous image frame data 1A and the current image frame data 1B stored in memory are read out and divided into a predetermined number of blocks (for example, 300 blocks) to be made into blocks. Then, the brightness of each block (previous block) constituting the block group of the previous image frame data 1A that has been blocked and each block (current block) constituting the block group of the current image frame data 1B that has been blocked. ) Find the difference in brightness from each brightness. As a result, when each luminance difference exceeds a predetermined threshold, the block is detected as a moving object block (moving object block data) ("detecting a moving object block" step S2).

(c)次に、移動物体ブロックが検出されると(YES)、次のステップS4へ進む。また移動物体ブロックが検出されないと(NO)、ステップS1へ戻る(「移動物体ブロックが検出されたか?」ステップS3)。 (C) Next, when a moving object block is detected (YES), the process proceeds to the next step S4. If a moving object block is not detected (NO), the process returns to step S1 (“A moving object block has been detected?” Step S3).

(d)次に、移動物体ブロックとして検出されると(YES)、移動物体ブロックの外縁にそれぞれ隣接する全てのブロックを検出し、これらを併合した、移動物体セグメント(移動物体セグメントデータ)2,3を形成する(「移動物体ブロックをセグメント化する」ステップS4)。 (D) Next, when it is detected as a moving object block (YES), all the blocks adjacent to the outer edge of the moving object block are detected, and these are merged to obtain a moving object segment (moving object segment data) 2, 3 ("segment moving object block" step S4).

(e)次に、移動物体セグメント2,3を構成する全てのブロックに対して肌の色を有するブロックであることを検出する(「すべての移動物体ブロックに対して肌色領域であるかを検出する」ステップS5)。 (E) Next, it is detected that all the blocks constituting the moving object segments 2 and 3 are skin-colored blocks (“whether or not all moving object blocks are skin-colored areas) Step S5).

即ち、肌色検出部15は、移動物体セグメント2,3毎にそのブロックの平均画素を作成し、その平均画素がYUV形式データでなければYUV形式データに変換する。YUV形式とは、輝度信号(Y)と、輝度信号と青色成分の差(U)、輝度信号と赤色成分の差(V)の3つの情報で色を表す形式であり、人間の目が色の変化よりも明るさの変化に敏感な性質を利用して、輝度情報により多くのデータ量を割り当てるようにしたものである。   That is, the skin color detection unit 15 creates an average pixel of the block for each of the moving object segments 2 and 3, and converts the average pixel to YUV format data if the average pixel is not YUV format data. The YUV format is a format in which color is expressed by three pieces of information: luminance signal (Y), difference between luminance signal and blue component (U), and difference between luminance signal and red component (V). A larger amount of data is assigned to luminance information by utilizing a property that is more sensitive to changes in brightness than changes in brightness.

肌色ブロック4(図5)は、図7に示すU−V座標における、輝度信号と青色成分の差(U1・U2)、輝度信号と赤色成分の差(V1・V2)から成る矩形領域で表現される。U1、U2、V1、V2の値は監視カメラ101の撮影状況(カラーバランス)に応じてそれぞれ最適な値に設定される。   The flesh color block 4 (FIG. 5) is expressed by a rectangular area composed of the difference between the luminance signal and the blue component (U1 · U2) and the difference between the luminance signal and the red component (V1 · V2) in the U-V coordinate shown in FIG. Is done. The values of U1, U2, V1, and V2 are respectively set to optimum values according to the shooting situation (color balance) of the monitoring camera 101.

(f)次に、肌色検出部15は、移動物体セグメント3を構成するブロックの平均画素(U、V)が、次の(式1)、
U1≦U≦U2、かつ、V1≦V≦V2 ・・・・・(式1)
にあてはまることを判定する(「肌色領域である移動物体ブロックが1つでも検出されたか?」ステップS6)。
(F) Next, the skin color detection unit 15 determines that the average pixel (U, V) of the blocks constituting the moving object segment 3 is the following (Equation 1),
U1 ≦ U ≦ U2 and V1 ≦ V ≦ V2 (Formula 1)
("Since at least one moving object block that is a skin color area has been detected?" Step S6).

この判定の結果、条件式(式1)に当てはまる場合、当該移動物体ブロックは肌色ブロック4として検出される。例えば図5では、走る女性の顔、腕、足が肌色ブロック4として検出される。 As a result of this determination, when the conditional expression (Expression 1) is satisfied, the moving object block is detected as the skin color block 4. For example, in FIG. 5, the face, arms, and legs of a running woman are detected as the skin color block 4.

(g)次に、肌色ブロック4を有する移動物体セグメント3に重みをつける。「重み」は、その監視カメラ101の設置環境や対象物によって決定され、例えば人物以外の移動物体が多数移動するような状況下において人物を追尾するためには肌の色を重視するように設定する。重み付けの例としては、ある移動物体セグメントのブロック数が10あり、そのうち肌色ブロック4が3、それ以外の移動物体ブロック5が7だった場合、肌色ブロック4の重みを2倍とし、(3×2)+7=13という点数をつけるようにする。 (G) Next, the moving object segment 3 having the flesh color block 4 is weighted. The “weight” is determined by the installation environment and the target object of the monitoring camera 101, and is set so that skin color is emphasized in order to track a person under a situation where many moving objects other than the person move, for example. To do. As an example of weighting, when the number of blocks of a certain moving object segment is 10, of which the skin color block 4 is 3 and the other moving object block 5 is 7, the weight of the skin color block 4 is doubled and (3 × 2) Give a score of + 7 = 13.

つまり、肌色ブロック4の重みは肌の色の分布の広さ比例することとなる。尚、肌色ブロック4を備えない移動物体セグメント2に対しては、重み付けは行わず、例えば移動物体セグメントのブロック数が10ある場合、その点数は10のままとする。移動物体セグメント2の点数、又重み付けされた肌色ブロック4保有の移動物体セグメント3の点数は肌色重み記憶部20に格納される(「肌色領域である移動物体ブロックに重みをつける」ステップS7)。   That is, the weight of the skin color block 4 is proportional to the width of the skin color distribution. Note that the moving object segment 2 that does not include the flesh color block 4 is not weighted. For example, when the number of blocks of the moving object segment is 10, the score is kept at 10. The score of the moving object segment 2 and the score of the weighted moving object segment 3 possessed by the skin color block 4 are stored in the skin color weight storage unit 20 (“weight moving object block which is a skin color area” step S7).

(h)近傍探索部16は、過去にフレーム内に存在した移動物体を検出する。具体的には、所定時刻遡った間に監視カメラ101が撮影した画像フレームデータ内に、移動物体セグメント3が検出されていたかどうかを判断する。この判断はフレームメモリ12に格納された移動物体セグメント3付きフレームを探索することによって実行される(「予め設定していた時間さかのぼった間に移動物体を検出していたか?」ステップS8)。 (H) The neighborhood searching unit 16 detects a moving object that has existed in the frame in the past. Specifically, it is determined whether or not the moving object segment 3 has been detected in the image frame data captured by the monitoring camera 101 during a predetermined time. This determination is performed by searching for a frame with the moving object segment 3 stored in the frame memory 12 (“Are moving objects detected during a preset time?” Step S8).

(i)移動物体セグメント3が検出されていた場合(YES)、近傍探索部16は、過去の移動物体セグメント付きフレームの中で最も現在時刻に近いフレームを選出し、このフレーム内での移動物体セグメント3の位置を特定する。更に、最新に受信したフレームの中で、この特定された位置に最も近くに存在する移動物体セグメントを探索し、探索された移動物体セグメントを近傍セグメントとして設定し、重み付けを行なう。 (I) When the moving object segment 3 has been detected (YES), the neighborhood search unit 16 selects a frame closest to the current time from the past frames with moving object segments, and the moving object in this frame The position of segment 3 is specified. Further, in the latest received frame, the moving object segment closest to the specified position is searched, the searched moving object segment is set as a neighboring segment, and weighting is performed.

重み付けされた移動物体セグメント3の点数は近傍重み記憶部21に格納される(「過去に検出していた中で最新の移動物体の最も近傍にある移動物体に重みをつける」ステップS9)。   The weighted moving object segment 3 score is stored in the neighborhood weight storage unit 21 (“weight the moving object closest to the latest moving object detected in the past” step S9).

ここで、肌色検出部15と近傍探索部16とに関する、重み付けの関係について説明する。人物追尾装置10は、肌色ブロック4を保有している移動物体セグメント3の重みと近傍セグメントの重みとを自由に組み合わせることにより、追尾対象となる移動物体セグメントを確実に認識し、追跡できるようにする。   Here, the weighting relationship regarding the skin color detection unit 15 and the neighborhood search unit 16 will be described. The person tracking device 10 can reliably recognize and track the moving object segment to be tracked by freely combining the weights of the moving object segment 3 holding the skin color block 4 and the weights of the neighboring segments. To do.

例えば、人物である移動物体セグメントを追跡する際に、肌色ブロック4を保有している移動物体セグメント3のみを追跡していると、その人物が後ろを振り返る等の動作を行い、一瞬で肌色ブロック4を保有している移動物体セグメント3が画像フレームから消失してしまう場合がある。このような場合に、移動物体セグメント3が消失する直前の人物)の近傍セグメントを使用し、肌色ブロック4を保有する移動物体セグメント3が再度現れるまでこの近傍セグメントを追尾すべき移動物体セグメントとして追跡するようにする。   For example, when tracking a moving object segment that is a person, if only the moving object segment 3 that holds the flesh color block 4 is tracked, the person performs an action such as looking back, and the flesh color block is instantaneously displayed. The moving object segment 3 that holds 4 may disappear from the image frame. In such a case, a neighboring segment of the person immediately before the moving object segment 3 disappears is used, and this neighboring segment is tracked as a moving object segment to be tracked until the moving object segment 3 having the skin color block 4 appears again. To do.

重み付け設定の他の例として、近傍セグメントに対して他のどの移動物体セグメントよりも常に点数が上回るように重みを設定すると、対象人物である移動物体セグメントを一旦検出すると、それ以降のフレームではその移動物体セグメントを優先して追跡するようにするようになる。又、不特定であっても人物のみを追尾したい場合、肌色ブロック保有移動物体セグメントの重みを近傍セグメントの重みよりも高く設定し、前回検出した人物と同じ人物とは限らなくとも、肌の色を含む移動物体、つまり人物が優先されて追尾されるようにする。   As another example of weight setting, if the weight is set so that the neighboring segment always has a score higher than any other moving object segment, once the moving object segment that is the target person is detected, it will be The moving object segment is preferentially tracked. Also, if you want to track only a person even if it is unspecified, set the weight of the moving object segment with the skin color block higher than the weight of the neighboring segment, and even if it is not necessarily the same person as the person detected last time, the skin color A moving object including, that is, a person is tracked with priority.

(j)追尾対象決定部17は、肌色重み記憶部20に格納される肌色ブロック保有の移動物体セグメント3の点数および近傍重み記憶部21に格納される近傍セグメントの点数の内、最も点数が高い移動物体セグメントを追尾対象として決定する(「全てのセグメントの中で最も点数が高いセグメントを選択する」ステップS10)。 (J) The tracking target determination unit 17 has the highest score among the score of the moving object segment 3 possessed by the skin color block stored in the skin color weight storage unit 20 and the score of the neighboring segment stored in the neighborhood weight storage unit 21. The moving object segment is determined as the tracking target (“select the segment with the highest score among all the segments” step S10).

(k)追尾位置決定部18は、追尾対象決定部17が選択した移動物体セグメント3が肌色ブロック4を保有する移動物体セグメントであるか否かを判断する(「S10で選択したセグメント内に肌色領域である移動物体ブロックがあるか?」ステップS11)。 (K) The tracking position determination unit 18 determines whether or not the moving object segment 3 selected by the tracking target determination unit 17 is a moving object segment having the skin color block 4 (“skin color in the segment selected in S10” Is there a moving object block that is an area? "Step S11).

(l)次に、肌色ブロック4を保有する移動物体セグメントであると判断した場合(YES)、肌色ブロック又は複数の肌色ブロックから成る領域のみの重心を計算し、重心の座標を追尾する位置として決定する(「S10で選択したセグメント内に肌色領域の偏りを加味し追尾対象とする座標を決定する」ステップS12)。 (L) Next, when it is determined that the moving object segment has the flesh-color block 4 (YES), the center of gravity of only the area composed of the flesh-color block or a plurality of flesh-color blocks is calculated, and the coordinates of the center of gravity are tracked. Determine (“Determine the coordinates to be tracked in consideration of the deviation of the skin color area in the segment selected in S10” Step S12).

(m)一方、肌色ブロック4を保有する移動物体セグメント3であると判断しない場合(NO)、単純にその移動物体セグメント3の重心の座標を追尾する位置として決定する(「S10で選択したセグメントの重心座標を求め追尾対象とする」ステップS13)。 (M) On the other hand, when it is not determined that the moving object segment 3 has the flesh color block 4 (NO), the coordinates of the center of gravity of the moving object segment 3 are simply determined as the tracking position (“the segment selected in S10” The barycentric coordinates are obtained and set as the tracking target ”step S13).

(n)次に、座標データ伝送部19は、追尾対象となった重心の座標を外部装置、例えばPTZ機構や回転雲台等に出力される(決定したセグメントの重心の座標を外部に出力する)ステップS14)。 (N) Next, the coordinate data transmission unit 19 outputs the coordinates of the center of gravity as a tracking target to an external device such as a PTZ mechanism or a rotating pan head (outputs the coordinates of the determined center of gravity of the segment to the outside). ) Step S14).

これ以降に受信する画像フレームに対しても、人物追尾装置10は上記のステップS1〜S14を繰り返し実行し、対象とする人物の追尾処理を続けて行う。   Also for the image frames received thereafter, the person tracking device 10 repeatedly executes the above steps S1 to S14 and continues the tracking process of the target person.

(3)第1の実施例
複数の肌色ブロックを有する移動物体セグメントの中から追尾すべき肌色ブロックを有する移動物体セグメントを判断する実施例について、図2及び図3の2つの画像フレームを用いて説明する。
(3) First Example With respect to an example in which a moving object segment having a skin color block to be tracked is determined from among moving object segments having a plurality of skin color blocks, two image frames shown in FIGS. 2 and 3 are used. explain.

図2は過去の画像フレーム、図3が現在の画像フレームである。図2及び図3の各フレームデータ1A,1Bを比べると、人物と車が別方向に移動している。図4には、車が移動する際に検出された移動物体セグメント2と、人物が移動する際に検出された移動物体セグメント3とが表示されている。   FIG. 2 shows a past image frame, and FIG. 3 shows a current image frame. Comparing the frame data 1A and 1B in FIGS. 2 and 3, the person and the car are moving in different directions. FIG. 4 shows the moving object segment 2 detected when the car moves and the moving object segment 3 detected when the person moves.

人物の移動物体セグメント3は、移動前に人物が存在していた場所にできた移動物体ブロック及び移動後に人物が存在する場所の移動物体ブロックが合体されたセグメントである(図6のステップS4参照)。   The moving object segment 3 of the person is a segment in which the moving object block formed at the place where the person existed before the movement and the moving object block where the person exists after the movement are combined (see step S4 in FIG. 6). ).

図4に示す移動物体セグメント3より肌色ブロック46を抽出した図5の画像フレームにおいて、移動物体セグメント2には肌色ブロックが検出されていないが、移動物体セグメント3には肌色ブロック4が検出されている。   In the image frame of FIG. 5 in which the flesh color block 46 is extracted from the moving object segment 3 shown in FIG. 4, no flesh color block is detected in the moving object segment 2, but the flesh color block 4 is detected in the moving object segment 3. Yes.

この場合、肌色ブロック4を含む移動物体セグメント3を重み付けし点数を高くする(図6のステップS7参照)。追尾対象決定部17は、この肌色ブロック4を保有している移動物体セグメント3を追尾対象と決定する。又、追尾対象である移動物体セグメント3肌色セグメント4を含んでいるため、追尾位置決定部18は、肌色ブロック4から成る領域の重心を計算する(図6のステップS11、S12参照)。   In this case, the moving object segment 3 including the flesh color block 4 is weighted to increase the score (see step S7 in FIG. 6). The tracking target determining unit 17 determines the moving object segment 3 that holds the flesh color block 4 as a tracking target. Since the tracking target moving object segment 3 and the flesh color segment 4 are included, the tracking position determination unit 18 calculates the center of gravity of the area composed of the flesh color block 4 (see steps S11 and S12 in FIG. 6).

この後、パン・チルト制御を行いこの画像重心が監視カメラ101を設置した撮影映像の中心にくるように設定することで、図11に示すフレームデータ1Cのように、追尾すべき人物のいる位置1Cbが撮像する画面中央となるように再設定することができる。   Thereafter, pan / tilt control is performed and the center of gravity of the image is set so as to be at the center of the photographed image on which the surveillance camera 101 is installed, so that the position where the person to be tracked is located as in the frame data 1C shown in FIG. It can be reset so that 1Cb becomes the center of the screen to be imaged.

(4)第2の実施例
撮像する画像フレームより肌色セグメントが消失しても対象とする移動物体セグメント3を追尾する実施例について図8及び図9の2つのフレームデータ1D,1Eを用いて説明する。図8が過去のフレームデータ1D、図9が現在のフレームデータ1Eである。フレームデータ1D,1Eを比較すると、人物J及び人物Kが別方向に移動している。図9中矢印は移動方向を示す。図8において人物Kは正面を向いているが、図9において人物Kは後ろを振り返っており、肌色ブロックが存在しない。
(4) Second Example An example in which the target moving object segment 3 is tracked even if the skin color segment disappears from the image frame to be captured will be described using the two frame data 1D and 1E shown in FIGS. To do. 8 shows past frame data 1D, and FIG. 9 shows current frame data 1E. Comparing the frame data 1D and 1E, the person J and the person K are moving in different directions. The arrows in FIG. 9 indicate the moving direction. In FIG. 8, the person K faces the front, but in FIG. 9, the person K looks back and there is no skin color block.

図10には、人物Jが移動する際に検出された移動物体セグメント6と、人物Kの移動前に存在した場所に作成された移動物体ブロック及び移動後に存在する場所に作成される移動物体ブロックが合体した移動物体セグメント7が表示されている(図6のステップS4参照)。   In FIG. 10, the moving object segment 6 detected when the person J moves, the moving object block created at the place where the person K existed and the moving object block created at the place after the movement are shown. Is displayed (see step S4 in FIG. 6).

移動物体セグメント7は肌色ブロック(図示せず)が検出されているが、移動物体セグメント6には検出されていない。この場合、移動物体セグメント7には肌色ブロックによる重みが加算される(図6のステップS19参照)。移動物体セグメント7は前回検出された人物の重心8に最も近いセグメントである為、近傍セグメントとして重み付けがなされる(図6のステップS8〜9参照)。   In the moving object segment 7, a flesh color block (not shown) is detected, but not in the moving object segment 6. In this case, the weight of the skin color block is added to the moving object segment 7 (see step S19 in FIG. 6). Since the moving object segment 7 is the segment closest to the centroid 8 of the person detected last time, the moving object segment 7 is weighted as a neighboring segment (see steps S8 to S9 in FIG. 6).

ここで、撮像したフレームデータ1Dより肌色セグメントが消失しても対象移動物体を追尾するように設定するのであれば、肌色ブロック6を保有していなくても近傍セグメントに対し常に点数が最も高くなるように重み設定を行う。   Here, if the target moving object is set to be tracked even if the skin color segment disappears from the captured frame data 1D, the score is always the highest for the neighboring segments even if the skin color block 6 is not held. The weight is set as follows.

この場合、人物Kの移動物体セグメント7が追尾対象として選択される(図6のステップS10参照)。移動物体セグメント6は肌色ブロックを保有していないので、そのまま移動物体セグメント6自身の重心が計算される(図6のステップS11、S13参照)。更にパン・チルト制御にてこの重心が撮影映像の中心にくるように設定することで、図12のフレームデータ1Fのように、追尾対象である人物Kのいる位置を映像の中心とすることができる。   In this case, the moving object segment 7 of the person K is selected as a tracking target (see step S10 in FIG. 6). Since the moving object segment 6 has no skin color block, the center of gravity of the moving object segment 6 itself is calculated as it is (see steps S11 and S13 in FIG. 6). Further, by setting the center of gravity to be at the center of the captured image by pan / tilt control, the position where the person K that is the tracking target is located at the center of the image as in the frame data 1F of FIG. it can.

(5)その他の実施例
尚、どのような人物でもよいので人物のみを追尾したい場合は、図10の画像フレームにおいて、肌色ブロックの重みを近傍セグメントの重みより加重する。この場合肌色検出部15で検出した肌色ブロックの重みが近傍セグメントよりも優先され、それによって前回の追尾対象とは異なる人物Jが含まれる移動物体セグメント9が追尾対象となる。この後、移動物体セグメント9の重心を計算し、パン・チルト制御にてこの重心が撮影映像の中心となるように設定することで、図13のフレームデータ1Gのように人物Jの位置が撮影映像の中心となる。
(5) Other Embodiments Since any person can be tracked, only the person is to be tracked. In the image frame of FIG. 10, the weight of the skin color block is weighted by the weight of the neighboring segment. In this case, the weight of the flesh color block detected by the flesh color detection unit 15 is prioritized over the neighboring segment, whereby the moving object segment 9 including the person J different from the previous tracking target becomes the tracking target. Thereafter, the center of gravity of the moving object segment 9 is calculated, and the position of the person J is captured as shown in the frame data 1G of FIG. 13 by setting the center of gravity to be the center of the captured image by pan / tilt control. The center of the video.

上述したように、本発明の実施の形態に係る人物追尾装置10では、移動物体の肌色ブロック領域に重み付けすることで、人物らしい領域を素早く決定し、追尾することが可能となる。更に一度人物らしき移動物体セグメントを検出した後に、その近傍に検出された移動物体セグメントに重み付けることにより、他に人物らしい領域が検出されても、その人物を追尾し続けるように設定することができる。   As described above, in the person tracking device 10 according to the embodiment of the present invention, it is possible to quickly determine and track a person-like area by weighting the skin color block area of the moving object. Furthermore, once a moving object segment that looks like a person is detected, the moving object segment detected in the vicinity of the moving object segment is weighted so that it can be set to continue tracking the person even if other person-like areas are detected. it can.

本発明の人物追尾装置の実施の形態の構成を示すブロック図The block diagram which shows the structure of embodiment of the person tracking device of this invention 前回の画像フレームデータを示す図The figure which shows the last picture frame data 今回の画像フレームデータを示す図Diagram showing the current image frame data 移動物体ブロックを示す図Diagram showing moving object block 移動物体セグメントを示す図Diagram showing moving object segment 本発明の人物追尾装置の実施の形態の動作を示すフローチャートThe flowchart which shows operation | movement of embodiment of the person tracking device of this invention. 肌色領域を示す座標図Coordinate diagram showing skin color area 前回の画像フレームデータを示す図The figure which shows the last picture frame data 今回の画像フレームデータを示す図Diagram showing the current image frame data 移動物体セグメントを示す図Diagram showing moving object segment 画像フレームデータを示す図Diagram showing image frame data 画像フレームデータを示す図Diagram showing image frame data 画像フレームデータを示す図Diagram showing image frame data

符号の説明Explanation of symbols

1A,1B フレームデータ
2,3 ブロック
4,5 移動物体セグメント
6 肌色ブロック
10 人物追尾装置
11 画像信号受信部
12 フレームメモリ(メモリ手段)
13 移動物体検出部(移動物体検出手段)
14 セグメント作成部(セグメント作成手段)
15 肌色検出部(肌色セグメント検出手段)
16 近傍探索部
17 追尾対象決定部(追尾対象決定手段)
18 追尾位置決定部
19 座標データ伝送部
20 肌色重み記憶部
21 近傍重み記憶部
101 監視カメラ
102 モニタ
1A, 1B Frame data 2, 3 Block 4, 5 Moving object segment 6 Skin color block 10 Human tracking device 11 Image signal receiving unit 12 Frame memory (memory means)
13 Moving object detection unit (moving object detection means)
14 Segment creation section (segment creation means)
15 skin color detection unit (skin color segment detection means)
16 Neighborhood search part 17 Tracking object determination part (Tracking object determination means)
18 Tracking position determination unit 19 Coordinate data transmission unit 20 Skin color weight storage unit 21 Neighborhood weight storage unit 101 Monitoring camera 102 Monitor

Claims (1)

入力画像信号中から抽出しかつ人物の露出部分の肌の色の動きに関するデータを、当該人物の動きとして検出し追尾する人物追尾装置であって、
前記入力画像信号を画像フレーム単位で変換して得たフレームデータを順次メモリするメモリ手段と、
前記メモリ手段でメモリしてある前回のフレームデータと今回のフレームデータとをそれぞれ複数ブロックに分割して得た前回と今回の各ブロック同士の輝度データの差が所定の閾値を超えていることを検出すると、当該ブロックを移動物体ブロックとして検出する移動物体検出手段と、
前記移動物体検出手段から出力される前記移動物体ブロックをセグメント化して得た移動物体セグメントを作成するセグメント作成手段と、
前記セグメント作成手段から出力される移動物体セグメントと前記メモリ手段から出力される前記今回のフレームデータとに基づいて、肌の色のデータを有した備えた肌色ブロックを含む移動物体セグメントを検出する肌色セグメント検出手段と、
前記肌色セグメント検出手段から出力される移動物体セグメントと、当該移動物体セグメントに最も近似した前記前回のフレームデータよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定する追尾対象決定手段とを有する
ことを特徴とする人物追尾装置。
A person tracking device that extracts data from an input image signal and detects and tracks data relating to the movement of the skin color of an exposed portion of the person as the movement of the person,
Memory means for sequentially storing frame data obtained by converting the input image signal in units of image frames;
The difference in luminance data between the previous and current blocks obtained by dividing the previous frame data and the current frame data stored in the memory means into a plurality of blocks, respectively, exceeds a predetermined threshold value. When detected, a moving object detection means for detecting the block as a moving object block;
Segment creating means for creating a moving object segment obtained by segmenting the moving object block output from the moving object detecting means;
Skin color for detecting a moving object segment including a skin color block having skin color data based on the moving object segment output from the segment creating means and the current frame data output from the memory means Segment detection means;
Based on the moving object segment output from the flesh-colored segment detecting means and the moving object segment in the previous frame data that is most approximate to the moving object segment, the moving object to be subsequently tracked A person tracking device comprising tracking target determining means for determining a segment.
JP2007322028A 2007-12-13 2007-12-13 Person tracking device Pending JP2009147607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322028A JP2009147607A (en) 2007-12-13 2007-12-13 Person tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322028A JP2009147607A (en) 2007-12-13 2007-12-13 Person tracking device

Publications (1)

Publication Number Publication Date
JP2009147607A true JP2009147607A (en) 2009-07-02

Family

ID=40917725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322028A Pending JP2009147607A (en) 2007-12-13 2007-12-13 Person tracking device

Country Status (1)

Country Link
JP (1) JP2009147607A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107501A (en) * 2009-11-19 2011-06-02 Nikon Corp Focusing device and imaging apparatus
JP2012209904A (en) * 2011-03-30 2012-10-25 Rhythm Watch Co Ltd Detection system, signal processing method and program
JP2013172320A (en) * 2012-02-21 2013-09-02 Rhythm Watch Co Ltd Detection system, signal processing method therefor, and program
JP2014239554A (en) * 2014-09-26 2014-12-18 リズム時計工業株式会社 Detection system, signal processing method thereof, and program
JP2015052799A (en) * 2014-10-29 2015-03-19 株式会社ニコン Focus adjustment device and imaging apparatus
US10841501B2 (en) 2016-05-23 2020-11-17 Fujitsu Limited Photographing control apparatus and photographing control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107501A (en) * 2009-11-19 2011-06-02 Nikon Corp Focusing device and imaging apparatus
JP2012209904A (en) * 2011-03-30 2012-10-25 Rhythm Watch Co Ltd Detection system, signal processing method and program
JP2013172320A (en) * 2012-02-21 2013-09-02 Rhythm Watch Co Ltd Detection system, signal processing method therefor, and program
JP2014239554A (en) * 2014-09-26 2014-12-18 リズム時計工業株式会社 Detection system, signal processing method thereof, and program
JP2015052799A (en) * 2014-10-29 2015-03-19 株式会社ニコン Focus adjustment device and imaging apparatus
US10841501B2 (en) 2016-05-23 2020-11-17 Fujitsu Limited Photographing control apparatus and photographing control method

Similar Documents

Publication Publication Date Title
US10515471B2 (en) Apparatus and method for generating best-view image centered on object of interest in multiple camera images
JP6631619B2 (en) Video monitoring system and video monitoring method
US9591364B2 (en) Image processing apparatus, image processing method, and program
JP4673849B2 (en) Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors
WO2015198767A1 (en) Abnormality detection device and abnormality detection method
KR102289261B1 (en) Apparatus and method detecting motion mask
JPWO2005107240A1 (en) Automatic photographing method and apparatus
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JP2003256836A (en) Intelligent feature selection and pan zoom control
JP2009147607A (en) Person tracking device
JP5832910B2 (en) Image monitoring device
JP6688975B2 (en) Monitoring device and monitoring system
WO2013094212A1 (en) Exposure control device, imaging device, image display device, and exposure control method
JP2010063033A (en) Apparatus and method for extracting object, and object extraction program
KR20160131261A (en) Method of monitoring interested area
JP2023126352A (en) Program, video monitoring method, and video monitoring system
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
KR101798372B1 (en) system and method for detecting a fire
JP2009288945A (en) Image display unit and image display method
JP5758165B2 (en) Article detection device and stationary person detection device
US20200311438A1 (en) Representative image generation device and representative image generation method
JP2021007055A (en) Discriminator learning device, discriminator learning method, and computer program
JP2007068008A (en) Automatic tracking apparatus
JP2009211525A (en) Object detector
JP2002027449A (en) Method and apparatus for identifying moving object