JP2009147607A - Person tracking device - Google Patents
Person tracking device Download PDFInfo
- Publication number
- JP2009147607A JP2009147607A JP2007322028A JP2007322028A JP2009147607A JP 2009147607 A JP2009147607 A JP 2009147607A JP 2007322028 A JP2007322028 A JP 2007322028A JP 2007322028 A JP2007322028 A JP 2007322028A JP 2009147607 A JP2009147607 A JP 2009147607A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- segment
- skin color
- block
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中から移動物体を検出し、検出したこの移動物体中から人間の肌の色を有する部分を検出し、また、当該人間の肌の色を有する部分が急に検出できなくなっても、当該追尾を中断することなく、人物の追尾を行なうことができる人物追尾装置に関する。 The present invention detects a moving object from an input image signal obtained from a surveillance camera, an image reproducing device, public broadcasting, or the like, detects a portion having a human skin color from the detected moving object, and The present invention relates to a person tracking device that can perform tracking of a person without interrupting the tracking even if a portion having a human skin color cannot be detected suddenly.
近年、防犯・防災のための監視システムが工場や商店等の施設だけでなく家庭にも導入されるようになってきた。またこうした監視システムに様々な新機能が追加されるようになってきた。例えば、監視カメラで撮影した画像中から人物を検出する機能や、こうして検出した特定の人物を追尾する機能である。 In recent years, surveillance systems for crime prevention and disaster prevention have been introduced not only in facilities such as factories and shops but also in homes. Various new functions have been added to these monitoring systems. For example, there are a function for detecting a person from an image taken by a surveillance camera and a function for tracking a specific person thus detected.
具体的には、背景差分法を用いて監視カメラで撮影した動画像中から動きのある領域を検出して移動物体を検出し、この移動物体の領域を元に移動物体の動きを動的に解析した結果に基づいて作成したテンプレートを用いるテンプレートマッチング処理によって、対象とする移動物体の識別を行なう物体検出装置がある(特許文献1参照)。
しかしながら、特許文献1に記載のテンプレートマッチング処理は、移動物体検出用の計算量が膨大であり、この計算をリアルタイムで行なうためには多くの計算リソースを必要とする。この結果、高コストとなり、こうした移動物体のリアルタイム検出処理は実用上困難であるという問題点があった。
However, the template matching process described in
また、前記したテンプレートマッチング処理は、移動セグメント中から肌色のセグメントを検出するように設計されているのであるが、追尾の対象が同一人物であっても顔と両手など肌色セグメントが複数ある場合には、どの肌色セグメントを検出対象とするのか的確に判断できないため、追尾に失敗するおそれがあるという問題点があった。 In addition, the template matching process described above is designed to detect a flesh-colored segment from the moving segments. However, even if the tracking target is the same person, there are a plurality of flesh-colored segments such as faces and both hands. However, since it is impossible to accurately determine which skin color segment is a detection target, there is a problem that tracking may fail.
さらに、例えば顔の肌色セグメントを対象として追尾している人物が、急に後姿になって顔が見えなくなった場合には、追尾の対象としている肌色セグメントが突然消失しまうことになり、この場合にも、追尾に失敗するおそれがあるという問題点があった。 Furthermore, for example, when a person who is tracking the skin color segment of the face suddenly becomes behind and the face disappears, the skin color segment targeted for tracking will suddenly disappear, and in this case However, there was a problem that tracking might fail.
そこで本発明は、上記の問題点に鑑みてなされたものであり、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中に出てくる追尾の対象とする移動物体を検出するための計算量を小としたからリアルタイムの追尾処理が可能となり、また、追尾の対象が同一人物であって顔と両手など肌色セグメントが複数ある場合でも、この中から追尾すべき肌色セグメントを的確に判断することができるから、追尾に失敗することがない人物追尾装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and is for detecting a moving object to be tracked that appears in an input image signal obtained from a surveillance camera, an image reproducing device, or a public broadcast. Real-time tracking processing is possible because the amount of calculation is small, and even if the tracking target is the same person and there are multiple skin color segments such as the face and both hands, the skin color segment to be tracked is accurately identified from this An object of the present invention is to provide a person tracking device that can be determined and does not fail in tracking.
また本発明は、前記人物追尾装置の構成に加えて、追尾対象とする肌色セグメントが突然消失しても当該肌色セグメントを見失うことなく、引き続き対象の移動物体の追尾を行う人物追尾装置を提供することを目的とする。 In addition to the configuration of the person tracking apparatus, the present invention provides a person tracking apparatus that continues to track a target moving object without losing sight of the skin color segment even if the skin color segment to be tracked suddenly disappears. For the purpose.
上記した課題を解決するために、本発明は下記の構成を有する人物追尾装置を提供する。 In order to solve the above-described problems, the present invention provides a person tracking device having the following configuration.
即ち、図1に示すように、(例えば、監視カメラ101の撮像エリアを撮像した)入力画像信号中から抽出しかつ人物の露出部分(顔、手、足など)の肌の色の動きに関するデータを、当該人物の動きとして検出し追尾する人物追尾装置10であって、
前記入力画像信号を画像フレーム単位で変換して得たフレームデータ1A,1Bを順次メモリするメモリ手段(フレームメモリ)12と、
前記メモリ手段12でメモリしてある前回のフレームデータ1A(図2)と今回のフレームデータ1B(図3)とをそれぞれ複数ブロック(例えば300ブロック)に分割して得た前回と今回の各ブロック同士(同一位置にあるブロック同士)の輝度データの差が所定の閾値を超えていることを検出すると、当該ブロックを移動物体ブロック(図4)として検出する移動物体検出手段(移動物体検出部)13と、
前記移動物体検出手段13から出力される前記移動物体ブロックをセグメント化して得た移動物体セグメント2,3(図5)を作成するセグメント作成手段(セグメント作成部)14と、
前記セグメント作成手段14から出力される移動物体セグメント2,3と前記メモリ手段12から出力される前記今回のフレームデータ1Bとに基づいて、肌の色のデータを有した肌色ブロック4を含む移動物体セグメント3を検出する肌色セグメント検出手段(肌色検出部)15と、
前記肌色セグメント検出手段15から出力される移動物体セグメント3と、当該移動物体セグメント3に最も近似した前記前回のフレームデータよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定する追尾対象決定手段(追尾対象決定部)17とを有する
ことを特徴とする人物追尾装置。
That is, as shown in FIG. 1, data relating to the movement of the skin color of an exposed portion (face, hand, foot, etc.) of a person extracted from an input image signal (for example, an image of the imaging area of the surveillance camera 101) Is a
Memory means (frame memory) 12 for sequentially storing frame data 1A and 1B obtained by converting the input image signal in units of image frames;
The previous and current blocks obtained by dividing the previous frame data 1A (FIG. 2) and the current frame data 1B (FIG. 3) stored in the memory means 12 into a plurality of blocks (for example, 300 blocks), respectively. Moving object detection means (moving object detection unit) that detects a difference between luminance data of blocks (blocks at the same position) exceeding a predetermined threshold value as a moving object block (FIG. 4) 13 and
Segment creation means (segment creation section) 14 for creating
Based on the
Based on the
本発明は、監視カメラ、画像再生装置あるいは公共放送などから得られる入力画像信号中に出てくる追尾の対象とする移動物体を検出するための計算量を小としたからリアルタイムの追尾処理が可能となり、また、追尾の対象が同一人物であって顔と両手など肌色セグメントが複数ある場合でも、この中から追尾すべき肌色セグメントを的確に判断することができるから、追尾に失敗することがない人物追尾装置を提供することができる。 The present invention enables real-time tracking processing because the amount of calculation for detecting a moving object to be tracked that appears in an input image signal obtained from a surveillance camera, an image playback device, or a public broadcast is reduced. In addition, even if the tracking target is the same person and there are multiple skin color segments such as the face and both hands, it is possible to accurately determine the skin color segment to be tracked from this, so tracking does not fail A person tracking device can be provided.
また本発明は、前記人物追尾装置の構成に加えて、追尾対象とする肌色セグメントが突然消失しても当該肌色セグメントを見失うことなく、引き続き対象の移動物体の追尾を行う人物追尾装置を提供することができる。 In addition to the configuration of the person tracking apparatus, the present invention provides a person tracking apparatus that continues to track a target moving object without losing sight of the skin color segment even if the skin color segment to be tracked suddenly disappears. be able to.
以下、本発明の人物追尾装置の実施の形態について、図1〜図13を用いて、次の(1)〜(5)の順に説明する。 Hereinafter, embodiments of the person tracking device of the present invention will be described in the order of the following (1) to (5) with reference to FIGS.
(1)人物追尾装置の構成
(2)人物追尾装置の動作
(3)第1の実施例
(4)第2の実施例
(5)その他の実施例
図1は本発明の人物追尾装置の実施の形態の構成を示すブロック図、図2は前回の画像フレームデータを示す図、図3は今回の画像フレームデータを示す図、図4は移動物体ブロックを示す図、図5は移動物体セグメントを示す図、図6は本発明の人物追尾装置の実施の形態の動作を示すフローチャートである。尚、本発明の実施の形態において使用される機器、手法等は一例であり、本発明はこれらに限定されるものではないことは勿論である。
(1) Configuration of person tracking device (2) Operation of person tracking device (3) First embodiment (4) Second embodiment (5) Other embodiments FIG. 1 shows the implementation of the person tracking device of the present invention. 2 is a diagram showing the previous image frame data, FIG. 3 is a diagram showing the current image frame data, FIG. 4 is a diagram showing a moving object block, and FIG. 5 is a diagram showing moving object segments. FIG. 6 is a flowchart showing the operation of the embodiment of the person tracking device of the present invention. In addition, the apparatus, method, etc. which are used in embodiment of this invention are examples, and of course, this invention is not limited to these.
以下、本発明の実施の形態の説明を、一例として監視カメラで撮像する入力画像信号中に出てくる人物を追尾することについて行うが、本発明はこれに限定されるものではなく、例えば、公共放送を受信して放送中の映像に出てくる特定の人物を追尾したり、あるいは、遠隔の映像再生装置から無線伝送される再生映像信号中に出ている特定の人物を追尾することについても適用できることは言うまでもない。 Hereinafter, the embodiment of the present invention will be described with respect to tracking a person appearing in an input image signal captured by a surveillance camera as an example, but the present invention is not limited to this, for example, Tracking a specific person appearing in a broadcast video after receiving a public broadcast, or tracking a specific person appearing in a playback video signal transmitted wirelessly from a remote video playback device It goes without saying that is also applicable.
(1)人物追尾装置の構成
本発明の実施の形態に係る人物追尾装置10は、図1に示すように、監視エリア内を撮像した画像を画像信号として送信する監視カメラ101と、追尾処理中の画像をモニタ表示するモニタ装置102とに接続される。
(1) Configuration of Person Tracking Device As shown in FIG. 1, a
また人物追尾装置10は、図1に示すように、画像信号受信部11、フレームメモリ12、移動物体検出部13、セグメント作成部14、肌色検出部15、近傍探索部16、追尾対象決定部17、追尾位置決定部18、座標データ伝送部19、肌色重み記憶部20、近傍重み記憶部21及び制御部22を備えている。制御部22は人物追尾装置10を構成する各部の動作制御を行なう。
As shown in FIG. 1, the
そして、上記した構成を有する人物追尾装置10は、大略、図1に示すように、監視カメラ101の撮像エリアを撮像した撮像画像中から抽出しかつ人物の露出部分(顔、手、足など)の肌の色の動きに関するデータを、当該人物の動きとして検出し追尾する人物追尾装置である。
The
前記した画像信号受信部11は、監視カメラ101から送信されてくる画像信号を受信し、画像フレーム単位の画像フレームデータに変換して、フレームメモリ12へ順次出力される。
The image
前記したフレームメモリ12は、画像信号受信部11から入力される画像フレーム単位の画像フレームデータを、その入力順(時系列順)にタイムスタンプを付してメモリする。フレームメモリ12は、画像フレームデータを、例えば、第1の画像フレームデータ、…、第2の画像フレームデータ、第3の画像フレームデータというように、順次メモリしていく。
The
以下の説明において、第2の画像フレームデータを「前回の画像フレームデータ」1A(図2)、第3の画像フレームデータを「今回の画像フレームデータ」1B(図3)、そして第1の画像フレームデータを「過去の画像フレームデータ」と称して用いる。 In the following description, the second image frame data is “previous image frame data” 1A (FIG. 2), the third image frame data is “current image frame data” 1B (FIG. 3), and the first image The frame data is used as “past image frame data”.
前回の画像フレームデータ1Aは、図2に示すように、データ部分1Aa〜1Acを有し、また、今回の画像フレームデータ1Bは、図3に示すように、データ部分1Ba〜1Bcを有している。データ部分1Aa〜1Acはそれぞれ、データ部分1Ba〜1Bcに対応している。またデータ部分1Aa,1Abに対するデータ部分1Ba,1Bbの移動は、図3中矢印で示す。図3に示すデータ部分1Bcには移動はない。 The previous image frame data 1A has data portions 1Aa to 1Ac as shown in FIG. 2, and the current image frame data 1B has data portions 1Ba to 1Bc as shown in FIG. Yes. The data parts 1Aa to 1Ac correspond to the data parts 1Ba to 1Bc, respectively. The movement of the data parts 1Ba and 1Bb with respect to the data parts 1Aa and 1Ab is indicated by arrows in FIG. There is no movement in the data portion 1Bc shown in FIG.
前記した移動物体検出部13は、前回の画像フレームデータ1Aに対する今回の画像フレームデータ1Bの移動部分を検出し、これを移動物体ブロックデータとして、セグメント作成部14へ出力される。この移動部分の検出には既存の技術である動き検出手法を使用して行う。
The moving
即ち、移動物体検出部13は、フレームメモリ12にメモリしてある前回の画像フレームデータ1A,今回の画像フレームデータ1Bをそれぞれ読み出して、読み出した画像フレームデータ1A,1Bをそれぞれ、予め設定してあるブロック数(後述の図4に示すように例えば、300ブロック(縦15ブロック×横20ブロック))に分割してブロック化する。
That is, the moving
ブロック化した画像フレームデータ1A,1Bはそれぞれ、多数のブロックを集合したブロック群を形成する。そして、ブロック化した前回の画像フレームデータ1Aのブロック群を構成する各ブロック(前回のブロック)毎の輝度と、ブロック化した今回の画像フレームデータ1Bのブロック群を構成する各ブロック(今回のブロック)毎の輝度との輝度差をそれぞれ求める。 Each of the blocked image frame data 1A and 1B forms a block group in which a large number of blocks are aggregated. Then, the brightness of each block (previous block) constituting the block group of the previous image frame data 1A that has been blocked and each block (current block) constituting the block group of the current image frame data 1B that has been blocked. ) Find the difference in brightness from each brightness.
この結果、各輝度差が所定の閾値を越えた場合、当該ブロックを移動物体ブロックデータとして検出する。移動物体ブロックデータのエリアは2つのブロックのエリアを併せたエリアとなる。 As a result, when each luminance difference exceeds a predetermined threshold, the block is detected as moving object block data. The area of the moving object block data is an area obtained by combining the areas of the two blocks.
前記したセグメント作成部14は、移動物体検出部13から前記移動物体ブロックデータをそれぞれ入力する。セグメント作成部14は、入力する移動体ブロックデータの各外縁にそれぞれ隣接する全てのブロックを検出し、検出した全てのブロックのエリアを元の移動物体ブロックデータのエリアに併合した、一塊の移動物体セグメントデータをそれぞれ生成し、フレームメモリ12及び肌色検出部15へ出力される。こうして生成されたのが、図4に示す、2つの移動物体セグメント2,3である。
The
前記した肌色検出部15は、フレームメモリ12から入力する画像フレームデータ1Bと、セグメント作成部14から入力しかつ移動物体セグメント2,3に関する移動物体セグメントデータとに基づいて、当該移動物体セグメント2,3を構成する各ブロック毎に、人間を示す指標として、人間の肌の色である「肌の色」を有する肌色ブロックであることを検出する。
Based on the image frame data 1B input from the
ここで、「肌色」は一般には、次のように定義する。即ち、16進表記では#F1BB93、RGBでは(241,187,147)、CMYKでは(2,23,35,0)、HSVでは(26°,39%,95%)、マンセル値では5YR8/5である。 Here, “skin color” is generally defined as follows. That is, # F1BB93 in hexadecimal notation, (241, 187, 147) in RGB, (2, 23, 35, 0) in CMYK, (26 °, 39%, 95%) in HSV, and 5YR8 / 5 in Munsell value It is.
これに対して、本発明の人物追尾装置10が扱う「肌の色」とは、先に定義した「肌色」を中心として、人種を問わず人間として特定するために必要な広がりをもった範囲の「肌の色」をも含むものである。本明細書で用いる「肌の色」はこうした意味をもつ。
On the other hand, the “skin color” handled by the
前記した肌色ブロックは、画像フレームデータ1Bにおいて、衣服などから露出している顔や両手などのブロックに対応している。 The skin color block described above corresponds to a block of a face or both hands exposed from clothes in the image frame data 1B.
ところが、監視カメラ101が設置してある監視エリアの環境下においては、各種照明(自然光、蛍光灯、白熱電球等)下にあり、監視カメラ101のカラーバランス調整を照明光の色温度に応じて事前にしておく必要がある。こうした事前調整をしないと、監視カメラ101で肌の色を撮像して得た画像フレームデータ1Bを肌色検出部15に入力しても、肌色検出部15はこれを肌の色とし認識しないことがあり、この結果、人間の移動を誤検出してしまう恐れが生じるためである。
However, under the environment of the monitoring area where the
こうして、肌色検出部15は、図5に示すように、2つの移動物体セグメント2,3のうち、肌の色を検出できた移動物体セグメント3を構成する肌色ブロック(斜め網線部分)4の重み付けを行う。即ち、肌色ブロック4は肌色ブロックでないブロック5に対して、例えば+10を加点する。こうして全ての肌路居ブロック4に対する重み付けの合計点数を算出し、この合計点を肌色重み記憶部20と追尾対象決定部17へそれぞれ出力される。肌色重み記憶部20はこの合計点数をメモリする。
In this way, as shown in FIG. 5, the skin
そして、前記した制御部22は、この移動物体セグメント3を全て肌色ブロック4から構成される移動物体セグメントと見做す、情報処理を行なう。
Then, the
前記した近傍探索部16は、現時点から所定時間遡った時間内において、前記した移動物体検出部13で検出した移動物体ブロックデータに似た移動物体ブロックデータがこれまで検出されていたことを探索する。
The
即ち、近傍探索部16は、制御部22で設定された現時点から所定時間内のフレームメモリ12にメモリしてある画像フレームデータを順次読み出して、現在把握している移動物体ブロックデータに最も近い、近傍移動物体ブロックデータを検出する。この探索結果は、追尾対象決定部17へ出力される。
That is, the
前記した追尾対象決定部17は、近傍探索部16から入力する近傍移動物体ブロックデータと、肌色検出部15から入力する肌の色の検出ができた全てのブロックに対する重み付けの合計点数とを比較して、後者の重み付けの合計点数が前者の移動物体ブロックデータに最も似通っていることを検出すると、当該移動物体セグメントは追尾対象であることを決定する。追尾対象決定部17は、この追尾対象である移動物体セグメントデータを追尾位置決定部18へ出力される。
The tracking
前記した追尾位置決定部18は、追尾対象決定部17が決定した追尾対象の肌色ブロック4を有する移動物体セグメント3に基づいて、追尾する位置座標を決定する。追尾位置決定部18は、追尾対象となる肌色ブロック4を含む移動物体セグメント3の重心座標を、追尾対象とすべき移動物体セグメントとするように設定を変更する。この重心座標は移動物体がこれから移動していく方向の中心位置を示す。
The tracking
追尾位置決定部18は、移動物体セグメント3と、当該移動物体セグメント3に最も近似した前回のフレームデータ1Aよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定するものであり、追尾対象とすべき移動物体セグメントがこれから移行する重心座標に関する位置座標データを、座標データ伝送部19へ出力される。
The tracking
前記した座標データ伝送部19は、現在の位置座標データとこれから移行する位置座標データとを比較し、その差分のデータを駆動信号として、監視カメラ101を取り付けたPTZ(パンチルト)機構や回転雲台の各駆動手段に出力される。こうして追尾するべき移動物体を画像の中心に常時収まるようにすることによって、対象とする人物を画像フレームの中心位置で常時撮影することが出来る。
The coordinate
(2)人物追尾装置の動作
次に、上記した(1)の人物追尾装置の動作を、図6に示すフローチャートに沿って、動作順に説明する。図7は肌色ブロックの検出処理を説明するための図である。
(2) Operation of Person Tracking Device Next, the operation of the person tracking device (1) described above will be described in the order of operation along the flowchart shown in FIG. FIG. 7 is a diagram for explaining skin color block detection processing.
(a)まず、監視エリアを撮像した画像フレームデータを受信し、これを逐次メモリする。 (「フレームデータ受信」ステップS1)。 (A) First, image frame data obtained by imaging the monitoring area is received and stored in succession. ("Frame data reception" step S1).
(b)次に、メモリしてある前回の画像フレームデータ1Aと今回の画像フレームデータ1Bとを読み出して、これらを所定数のブロック(例えば300ブロック)に分割してブロック化する。そして、ブロック化した前回の画像フレームデータ1Aのブロック群を構成する各ブロック(前回のブロック)毎の輝度と、ブロック化した今回の画像フレームデータ1Bのブロック群を構成する各ブロック(今回のブロック)毎の輝度との輝度差をそれぞれ求める。この結果、各輝度差が所定の閾値を超えた場合、そのブロックを移動物体ブロック(移動物体ブロックデータ)として検出する(「移動物体ブロックを検出する」ステップS2)。 (B) Next, the previous image frame data 1A and the current image frame data 1B stored in memory are read out and divided into a predetermined number of blocks (for example, 300 blocks) to be made into blocks. Then, the brightness of each block (previous block) constituting the block group of the previous image frame data 1A that has been blocked and each block (current block) constituting the block group of the current image frame data 1B that has been blocked. ) Find the difference in brightness from each brightness. As a result, when each luminance difference exceeds a predetermined threshold, the block is detected as a moving object block (moving object block data) ("detecting a moving object block" step S2).
(c)次に、移動物体ブロックが検出されると(YES)、次のステップS4へ進む。また移動物体ブロックが検出されないと(NO)、ステップS1へ戻る(「移動物体ブロックが検出されたか?」ステップS3)。 (C) Next, when a moving object block is detected (YES), the process proceeds to the next step S4. If a moving object block is not detected (NO), the process returns to step S1 (“A moving object block has been detected?” Step S3).
(d)次に、移動物体ブロックとして検出されると(YES)、移動物体ブロックの外縁にそれぞれ隣接する全てのブロックを検出し、これらを併合した、移動物体セグメント(移動物体セグメントデータ)2,3を形成する(「移動物体ブロックをセグメント化する」ステップS4)。 (D) Next, when it is detected as a moving object block (YES), all the blocks adjacent to the outer edge of the moving object block are detected, and these are merged to obtain a moving object segment (moving object segment data) 2, 3 ("segment moving object block" step S4).
(e)次に、移動物体セグメント2,3を構成する全てのブロックに対して肌の色を有するブロックであることを検出する(「すべての移動物体ブロックに対して肌色領域であるかを検出する」ステップS5)。
(E) Next, it is detected that all the blocks constituting the moving
即ち、肌色検出部15は、移動物体セグメント2,3毎にそのブロックの平均画素を作成し、その平均画素がYUV形式データでなければYUV形式データに変換する。YUV形式とは、輝度信号(Y)と、輝度信号と青色成分の差(U)、輝度信号と赤色成分の差(V)の3つの情報で色を表す形式であり、人間の目が色の変化よりも明るさの変化に敏感な性質を利用して、輝度情報により多くのデータ量を割り当てるようにしたものである。
That is, the skin
肌色ブロック4(図5)は、図7に示すU−V座標における、輝度信号と青色成分の差(U1・U2)、輝度信号と赤色成分の差(V1・V2)から成る矩形領域で表現される。U1、U2、V1、V2の値は監視カメラ101の撮影状況(カラーバランス)に応じてそれぞれ最適な値に設定される。
The flesh color block 4 (FIG. 5) is expressed by a rectangular area composed of the difference between the luminance signal and the blue component (U1 · U2) and the difference between the luminance signal and the red component (V1 · V2) in the U-V coordinate shown in FIG. Is done. The values of U1, U2, V1, and V2 are respectively set to optimum values according to the shooting situation (color balance) of the
(f)次に、肌色検出部15は、移動物体セグメント3を構成するブロックの平均画素(U、V)が、次の(式1)、
U1≦U≦U2、かつ、V1≦V≦V2 ・・・・・(式1)
にあてはまることを判定する(「肌色領域である移動物体ブロックが1つでも検出されたか?」ステップS6)。
(F) Next, the skin
U1 ≦ U ≦ U2 and V1 ≦ V ≦ V2 (Formula 1)
("Since at least one moving object block that is a skin color area has been detected?" Step S6).
この判定の結果、条件式(式1)に当てはまる場合、当該移動物体ブロックは肌色ブロック4として検出される。例えば図5では、走る女性の顔、腕、足が肌色ブロック4として検出される。
As a result of this determination, when the conditional expression (Expression 1) is satisfied, the moving object block is detected as the
(g)次に、肌色ブロック4を有する移動物体セグメント3に重みをつける。「重み」は、その監視カメラ101の設置環境や対象物によって決定され、例えば人物以外の移動物体が多数移動するような状況下において人物を追尾するためには肌の色を重視するように設定する。重み付けの例としては、ある移動物体セグメントのブロック数が10あり、そのうち肌色ブロック4が3、それ以外の移動物体ブロック5が7だった場合、肌色ブロック4の重みを2倍とし、(3×2)+7=13という点数をつけるようにする。
(G) Next, the moving
つまり、肌色ブロック4の重みは肌の色の分布の広さ比例することとなる。尚、肌色ブロック4を備えない移動物体セグメント2に対しては、重み付けは行わず、例えば移動物体セグメントのブロック数が10ある場合、その点数は10のままとする。移動物体セグメント2の点数、又重み付けされた肌色ブロック4保有の移動物体セグメント3の点数は肌色重み記憶部20に格納される(「肌色領域である移動物体ブロックに重みをつける」ステップS7)。
That is, the weight of the
(h)近傍探索部16は、過去にフレーム内に存在した移動物体を検出する。具体的には、所定時刻遡った間に監視カメラ101が撮影した画像フレームデータ内に、移動物体セグメント3が検出されていたかどうかを判断する。この判断はフレームメモリ12に格納された移動物体セグメント3付きフレームを探索することによって実行される(「予め設定していた時間さかのぼった間に移動物体を検出していたか?」ステップS8)。
(H) The
(i)移動物体セグメント3が検出されていた場合(YES)、近傍探索部16は、過去の移動物体セグメント付きフレームの中で最も現在時刻に近いフレームを選出し、このフレーム内での移動物体セグメント3の位置を特定する。更に、最新に受信したフレームの中で、この特定された位置に最も近くに存在する移動物体セグメントを探索し、探索された移動物体セグメントを近傍セグメントとして設定し、重み付けを行なう。
(I) When the moving
重み付けされた移動物体セグメント3の点数は近傍重み記憶部21に格納される(「過去に検出していた中で最新の移動物体の最も近傍にある移動物体に重みをつける」ステップS9)。
The weighted moving
ここで、肌色検出部15と近傍探索部16とに関する、重み付けの関係について説明する。人物追尾装置10は、肌色ブロック4を保有している移動物体セグメント3の重みと近傍セグメントの重みとを自由に組み合わせることにより、追尾対象となる移動物体セグメントを確実に認識し、追跡できるようにする。
Here, the weighting relationship regarding the skin
例えば、人物である移動物体セグメントを追跡する際に、肌色ブロック4を保有している移動物体セグメント3のみを追跡していると、その人物が後ろを振り返る等の動作を行い、一瞬で肌色ブロック4を保有している移動物体セグメント3が画像フレームから消失してしまう場合がある。このような場合に、移動物体セグメント3が消失する直前の人物)の近傍セグメントを使用し、肌色ブロック4を保有する移動物体セグメント3が再度現れるまでこの近傍セグメントを追尾すべき移動物体セグメントとして追跡するようにする。
For example, when tracking a moving object segment that is a person, if only the moving
重み付け設定の他の例として、近傍セグメントに対して他のどの移動物体セグメントよりも常に点数が上回るように重みを設定すると、対象人物である移動物体セグメントを一旦検出すると、それ以降のフレームではその移動物体セグメントを優先して追跡するようにするようになる。又、不特定であっても人物のみを追尾したい場合、肌色ブロック保有移動物体セグメントの重みを近傍セグメントの重みよりも高く設定し、前回検出した人物と同じ人物とは限らなくとも、肌の色を含む移動物体、つまり人物が優先されて追尾されるようにする。 As another example of weight setting, if the weight is set so that the neighboring segment always has a score higher than any other moving object segment, once the moving object segment that is the target person is detected, it will be The moving object segment is preferentially tracked. Also, if you want to track only a person even if it is unspecified, set the weight of the moving object segment with the skin color block higher than the weight of the neighboring segment, and even if it is not necessarily the same person as the person detected last time, the skin color A moving object including, that is, a person is tracked with priority.
(j)追尾対象決定部17は、肌色重み記憶部20に格納される肌色ブロック保有の移動物体セグメント3の点数および近傍重み記憶部21に格納される近傍セグメントの点数の内、最も点数が高い移動物体セグメントを追尾対象として決定する(「全てのセグメントの中で最も点数が高いセグメントを選択する」ステップS10)。
(J) The tracking
(k)追尾位置決定部18は、追尾対象決定部17が選択した移動物体セグメント3が肌色ブロック4を保有する移動物体セグメントであるか否かを判断する(「S10で選択したセグメント内に肌色領域である移動物体ブロックがあるか?」ステップS11)。
(K) The tracking
(l)次に、肌色ブロック4を保有する移動物体セグメントであると判断した場合(YES)、肌色ブロック又は複数の肌色ブロックから成る領域のみの重心を計算し、重心の座標を追尾する位置として決定する(「S10で選択したセグメント内に肌色領域の偏りを加味し追尾対象とする座標を決定する」ステップS12)。 (L) Next, when it is determined that the moving object segment has the flesh-color block 4 (YES), the center of gravity of only the area composed of the flesh-color block or a plurality of flesh-color blocks is calculated, and the coordinates of the center of gravity are tracked. Determine (“Determine the coordinates to be tracked in consideration of the deviation of the skin color area in the segment selected in S10” Step S12).
(m)一方、肌色ブロック4を保有する移動物体セグメント3であると判断しない場合(NO)、単純にその移動物体セグメント3の重心の座標を追尾する位置として決定する(「S10で選択したセグメントの重心座標を求め追尾対象とする」ステップS13)。
(M) On the other hand, when it is not determined that the moving
(n)次に、座標データ伝送部19は、追尾対象となった重心の座標を外部装置、例えばPTZ機構や回転雲台等に出力される(決定したセグメントの重心の座標を外部に出力する)ステップS14)。
(N) Next, the coordinate
これ以降に受信する画像フレームに対しても、人物追尾装置10は上記のステップS1〜S14を繰り返し実行し、対象とする人物の追尾処理を続けて行う。
Also for the image frames received thereafter, the
(3)第1の実施例
複数の肌色ブロックを有する移動物体セグメントの中から追尾すべき肌色ブロックを有する移動物体セグメントを判断する実施例について、図2及び図3の2つの画像フレームを用いて説明する。
(3) First Example With respect to an example in which a moving object segment having a skin color block to be tracked is determined from among moving object segments having a plurality of skin color blocks, two image frames shown in FIGS. 2 and 3 are used. explain.
図2は過去の画像フレーム、図3が現在の画像フレームである。図2及び図3の各フレームデータ1A,1Bを比べると、人物と車が別方向に移動している。図4には、車が移動する際に検出された移動物体セグメント2と、人物が移動する際に検出された移動物体セグメント3とが表示されている。
FIG. 2 shows a past image frame, and FIG. 3 shows a current image frame. Comparing the frame data 1A and 1B in FIGS. 2 and 3, the person and the car are moving in different directions. FIG. 4 shows the moving
人物の移動物体セグメント3は、移動前に人物が存在していた場所にできた移動物体ブロック及び移動後に人物が存在する場所の移動物体ブロックが合体されたセグメントである(図6のステップS4参照)。
The moving
図4に示す移動物体セグメント3より肌色ブロック46を抽出した図5の画像フレームにおいて、移動物体セグメント2には肌色ブロックが検出されていないが、移動物体セグメント3には肌色ブロック4が検出されている。
In the image frame of FIG. 5 in which the flesh color block 46 is extracted from the moving
この場合、肌色ブロック4を含む移動物体セグメント3を重み付けし点数を高くする(図6のステップS7参照)。追尾対象決定部17は、この肌色ブロック4を保有している移動物体セグメント3を追尾対象と決定する。又、追尾対象である移動物体セグメント3肌色セグメント4を含んでいるため、追尾位置決定部18は、肌色ブロック4から成る領域の重心を計算する(図6のステップS11、S12参照)。
In this case, the moving
この後、パン・チルト制御を行いこの画像重心が監視カメラ101を設置した撮影映像の中心にくるように設定することで、図11に示すフレームデータ1Cのように、追尾すべき人物のいる位置1Cbが撮像する画面中央となるように再設定することができる。
Thereafter, pan / tilt control is performed and the center of gravity of the image is set so as to be at the center of the photographed image on which the
(4)第2の実施例
撮像する画像フレームより肌色セグメントが消失しても対象とする移動物体セグメント3を追尾する実施例について図8及び図9の2つのフレームデータ1D,1Eを用いて説明する。図8が過去のフレームデータ1D、図9が現在のフレームデータ1Eである。フレームデータ1D,1Eを比較すると、人物J及び人物Kが別方向に移動している。図9中矢印は移動方向を示す。図8において人物Kは正面を向いているが、図9において人物Kは後ろを振り返っており、肌色ブロックが存在しない。
(4) Second Example An example in which the target moving
図10には、人物Jが移動する際に検出された移動物体セグメント6と、人物Kの移動前に存在した場所に作成された移動物体ブロック及び移動後に存在する場所に作成される移動物体ブロックが合体した移動物体セグメント7が表示されている(図6のステップS4参照)。
In FIG. 10, the moving
移動物体セグメント7は肌色ブロック(図示せず)が検出されているが、移動物体セグメント6には検出されていない。この場合、移動物体セグメント7には肌色ブロックによる重みが加算される(図6のステップS19参照)。移動物体セグメント7は前回検出された人物の重心8に最も近いセグメントである為、近傍セグメントとして重み付けがなされる(図6のステップS8〜9参照)。
In the moving
ここで、撮像したフレームデータ1Dより肌色セグメントが消失しても対象移動物体を追尾するように設定するのであれば、肌色ブロック6を保有していなくても近傍セグメントに対し常に点数が最も高くなるように重み設定を行う。
Here, if the target moving object is set to be tracked even if the skin color segment disappears from the captured frame data 1D, the score is always the highest for the neighboring segments even if the
この場合、人物Kの移動物体セグメント7が追尾対象として選択される(図6のステップS10参照)。移動物体セグメント6は肌色ブロックを保有していないので、そのまま移動物体セグメント6自身の重心が計算される(図6のステップS11、S13参照)。更にパン・チルト制御にてこの重心が撮影映像の中心にくるように設定することで、図12のフレームデータ1Fのように、追尾対象である人物Kのいる位置を映像の中心とすることができる。
In this case, the moving
(5)その他の実施例
尚、どのような人物でもよいので人物のみを追尾したい場合は、図10の画像フレームにおいて、肌色ブロックの重みを近傍セグメントの重みより加重する。この場合肌色検出部15で検出した肌色ブロックの重みが近傍セグメントよりも優先され、それによって前回の追尾対象とは異なる人物Jが含まれる移動物体セグメント9が追尾対象となる。この後、移動物体セグメント9の重心を計算し、パン・チルト制御にてこの重心が撮影映像の中心となるように設定することで、図13のフレームデータ1Gのように人物Jの位置が撮影映像の中心となる。
(5) Other Embodiments Since any person can be tracked, only the person is to be tracked. In the image frame of FIG. 10, the weight of the skin color block is weighted by the weight of the neighboring segment. In this case, the weight of the flesh color block detected by the flesh
上述したように、本発明の実施の形態に係る人物追尾装置10では、移動物体の肌色ブロック領域に重み付けすることで、人物らしい領域を素早く決定し、追尾することが可能となる。更に一度人物らしき移動物体セグメントを検出した後に、その近傍に検出された移動物体セグメントに重み付けることにより、他に人物らしい領域が検出されても、その人物を追尾し続けるように設定することができる。
As described above, in the
1A,1B フレームデータ
2,3 ブロック
4,5 移動物体セグメント
6 肌色ブロック
10 人物追尾装置
11 画像信号受信部
12 フレームメモリ(メモリ手段)
13 移動物体検出部(移動物体検出手段)
14 セグメント作成部(セグメント作成手段)
15 肌色検出部(肌色セグメント検出手段)
16 近傍探索部
17 追尾対象決定部(追尾対象決定手段)
18 追尾位置決定部
19 座標データ伝送部
20 肌色重み記憶部
21 近傍重み記憶部
101 監視カメラ
102 モニタ
1A,
13 Moving object detection unit (moving object detection means)
14 Segment creation section (segment creation means)
15 skin color detection unit (skin color segment detection means)
16
18 Tracking
Claims (1)
前記入力画像信号を画像フレーム単位で変換して得たフレームデータを順次メモリするメモリ手段と、
前記メモリ手段でメモリしてある前回のフレームデータと今回のフレームデータとをそれぞれ複数ブロックに分割して得た前回と今回の各ブロック同士の輝度データの差が所定の閾値を超えていることを検出すると、当該ブロックを移動物体ブロックとして検出する移動物体検出手段と、
前記移動物体検出手段から出力される前記移動物体ブロックをセグメント化して得た移動物体セグメントを作成するセグメント作成手段と、
前記セグメント作成手段から出力される移動物体セグメントと前記メモリ手段から出力される前記今回のフレームデータとに基づいて、肌の色のデータを有した備えた肌色ブロックを含む移動物体セグメントを検出する肌色セグメント検出手段と、
前記肌色セグメント検出手段から出力される移動物体セグメントと、当該移動物体セグメントに最も近似した前記前回のフレームデータよりも過去のフレームデータにおける移動物体セグメントとに基づいて、引き続き追尾対象とすべき移動物体セグメントを決定する追尾対象決定手段とを有する
ことを特徴とする人物追尾装置。 A person tracking device that extracts data from an input image signal and detects and tracks data relating to the movement of the skin color of an exposed portion of the person as the movement of the person,
Memory means for sequentially storing frame data obtained by converting the input image signal in units of image frames;
The difference in luminance data between the previous and current blocks obtained by dividing the previous frame data and the current frame data stored in the memory means into a plurality of blocks, respectively, exceeds a predetermined threshold value. When detected, a moving object detection means for detecting the block as a moving object block;
Segment creating means for creating a moving object segment obtained by segmenting the moving object block output from the moving object detecting means;
Skin color for detecting a moving object segment including a skin color block having skin color data based on the moving object segment output from the segment creating means and the current frame data output from the memory means Segment detection means;
Based on the moving object segment output from the flesh-colored segment detecting means and the moving object segment in the previous frame data that is most approximate to the moving object segment, the moving object to be subsequently tracked A person tracking device comprising tracking target determining means for determining a segment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322028A JP2009147607A (en) | 2007-12-13 | 2007-12-13 | Person tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007322028A JP2009147607A (en) | 2007-12-13 | 2007-12-13 | Person tracking device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009147607A true JP2009147607A (en) | 2009-07-02 |
Family
ID=40917725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007322028A Pending JP2009147607A (en) | 2007-12-13 | 2007-12-13 | Person tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009147607A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011107501A (en) * | 2009-11-19 | 2011-06-02 | Nikon Corp | Focusing device and imaging apparatus |
JP2012209904A (en) * | 2011-03-30 | 2012-10-25 | Rhythm Watch Co Ltd | Detection system, signal processing method and program |
JP2013172320A (en) * | 2012-02-21 | 2013-09-02 | Rhythm Watch Co Ltd | Detection system, signal processing method therefor, and program |
JP2014239554A (en) * | 2014-09-26 | 2014-12-18 | リズム時計工業株式会社 | Detection system, signal processing method thereof, and program |
JP2015052799A (en) * | 2014-10-29 | 2015-03-19 | 株式会社ニコン | Focus adjustment device and imaging apparatus |
US10841501B2 (en) | 2016-05-23 | 2020-11-17 | Fujitsu Limited | Photographing control apparatus and photographing control method |
-
2007
- 2007-12-13 JP JP2007322028A patent/JP2009147607A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011107501A (en) * | 2009-11-19 | 2011-06-02 | Nikon Corp | Focusing device and imaging apparatus |
JP2012209904A (en) * | 2011-03-30 | 2012-10-25 | Rhythm Watch Co Ltd | Detection system, signal processing method and program |
JP2013172320A (en) * | 2012-02-21 | 2013-09-02 | Rhythm Watch Co Ltd | Detection system, signal processing method therefor, and program |
JP2014239554A (en) * | 2014-09-26 | 2014-12-18 | リズム時計工業株式会社 | Detection system, signal processing method thereof, and program |
JP2015052799A (en) * | 2014-10-29 | 2015-03-19 | 株式会社ニコン | Focus adjustment device and imaging apparatus |
US10841501B2 (en) | 2016-05-23 | 2020-11-17 | Fujitsu Limited | Photographing control apparatus and photographing control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10515471B2 (en) | Apparatus and method for generating best-view image centered on object of interest in multiple camera images | |
JP6631619B2 (en) | Video monitoring system and video monitoring method | |
US9591364B2 (en) | Image processing apparatus, image processing method, and program | |
JP4673849B2 (en) | Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors | |
WO2015198767A1 (en) | Abnormality detection device and abnormality detection method | |
KR102289261B1 (en) | Apparatus and method detecting motion mask | |
JPWO2005107240A1 (en) | Automatic photographing method and apparatus | |
JP2011029737A (en) | Surveillance image retrieval apparatus and surveillance system | |
JP2003256836A (en) | Intelligent feature selection and pan zoom control | |
JP2009147607A (en) | Person tracking device | |
JP5832910B2 (en) | Image monitoring device | |
JP6688975B2 (en) | Monitoring device and monitoring system | |
WO2013094212A1 (en) | Exposure control device, imaging device, image display device, and exposure control method | |
JP2010063033A (en) | Apparatus and method for extracting object, and object extraction program | |
KR20160131261A (en) | Method of monitoring interested area | |
JP2023126352A (en) | Program, video monitoring method, and video monitoring system | |
JP5693147B2 (en) | Photographic interference detection method, interference detection device, and surveillance camera system | |
KR101798372B1 (en) | system and method for detecting a fire | |
JP2009288945A (en) | Image display unit and image display method | |
JP5758165B2 (en) | Article detection device and stationary person detection device | |
US20200311438A1 (en) | Representative image generation device and representative image generation method | |
JP2021007055A (en) | Discriminator learning device, discriminator learning method, and computer program | |
JP2007068008A (en) | Automatic tracking apparatus | |
JP2009211525A (en) | Object detector | |
JP2002027449A (en) | Method and apparatus for identifying moving object |