JP6440749B2 - Surveillance image processing apparatus and surveillance image processing method - Google Patents
Surveillance image processing apparatus and surveillance image processing method Download PDFInfo
- Publication number
- JP6440749B2 JP6440749B2 JP2017005215A JP2017005215A JP6440749B2 JP 6440749 B2 JP6440749 B2 JP 6440749B2 JP 2017005215 A JP2017005215 A JP 2017005215A JP 2017005215 A JP2017005215 A JP 2017005215A JP 6440749 B2 JP6440749 B2 JP 6440749B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- processing unit
- image processing
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 213
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims description 112
- 238000012544 monitoring process Methods 0.000 claims description 108
- 238000003384 imaging method Methods 0.000 claims description 36
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims 2
- 238000000034 method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 31
- 230000000903 blocking effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000012806 monitoring device Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101100146536 Picea mariana RPS15 gene Proteins 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
この実施形態は、監視画像処理装置及び監視画像処理方法に関する。 This embodiment relates to a monitoring image processing apparatus and a monitoring image processing method.
単眼カメラを用いた監視装置が従来から開発されている。単眼カメラに360°レンズ(魚眼レンズ)を取り付けて、撮像視野を拡大した監視装置も開発されている。また、魚眼レンズを用いて、例えば会議室の様子を撮像して広角視野監視画像を取得し、この広角視野監視画像をパノラマ画像に展開し、展開したパノラマ画像を用いて、顔検出を行う監視装置も開発されている。 A monitoring device using a monocular camera has been developed. A monitoring device has also been developed in which a 360 ° lens (fisheye lens) is attached to a monocular camera and the imaging field of view is enlarged. In addition, a monitoring apparatus that uses a fish-eye lens to capture, for example, a state of a conference room to acquire a wide-angle visual field monitoring image, expand the wide-angle visual field monitoring image into a panoramic image, and perform face detection using the expanded panoramic image Has also been developed.
360°レンズ(魚眼レンズ)を利用して撮像視野を拡大した監視装置は、さらなる改善が求められている。 Further improvement is demanded for a monitoring apparatus that uses a 360 ° lens (fisheye lens) to expand the imaging field of view.
例えば、特定の人物の追跡処理が正確で、耐性がある(ロバストである)ことが要望されている。人物の顔がカメラに対して向き合っているときは、追跡処理は比較的安定している。これは、撮影した人物の顔の特徴パターンと監視装置に記録された比較パターン(通常は正面から見た顔の特徴パターンが記録される)とを比較したとき、両者が類似する確率が高いからである。 For example, there is a demand for the tracking process of a specific person to be accurate and resistant (robust). The tracking process is relatively stable when the human face is facing the camera. This is because when a photographed person's facial feature pattern is compared with a comparison pattern recorded in the monitoring device (usually a facial feature pattern seen from the front is recorded), there is a high probability that they are similar. It is.
しかしながら、監視対象となる人物の顔を正面から安定して捕えることができない場合がある。例えば追跡中の人物が向きを変えて、カメラからみてその人物の顔を横あるいは後ろから撮像するような状態となった場合である。このような状態が比較的長い時間続いた場合、監視装置は、特定の人物を追跡することができなくなる。つまり、対象となる人物の追跡処理ができない状態(ロスト状態)になる。 However, there are cases where the face of the person to be monitored cannot be captured stably from the front. For example, this is a case where the person being tracked changes his / her direction and takes a picture of the person's face from the side or behind the camera. When such a state lasts for a relatively long time, the monitoring device cannot track a specific person. That is, the target person cannot be tracked (lost state).
そこで本実施形態によれば、追跡する対象物(例えば人物等)の追跡能力を向上した監視画像処理装置及び監視画像処理方法を提供することを目的とする。 Therefore, according to the present embodiment, an object is to provide a monitoring image processing apparatus and a monitoring image processing method in which the tracking ability of an object to be tracked (for example, a person) is improved.
実施形態の一例である装置によれば、撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、According to an apparatus which is an example of an embodiment, the apparatus includes an imaging unit, a data processing device, and a display device, and the imaging unit inputs wide-area image data obtained by capturing a space including an object to the data processing device. There,
前記データ処理装置は、The data processing device includes:
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、A first image processing unit that tracks individual features (faces) of the object, a second image processing unit that tracks movement features of the objects, and a first attention including an image of the individual features (faces) A noticeable image output unit that cuts out an image (face image) and supplies it to the display device,
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、When the first image processing unit detects the image of the individual feature (face), the first image of interest is extracted from the wide area image data based on rectangular information surrounding the image of the individual feature (face). Generating first image area information for cutting out an image of (face image);
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、The second image processing unit tracks a second attention image (moving body image) based on the motion detection information of the image when the first image processing unit loses tracking of the image of the individual feature (face). And generating second image area information capable of cutting out the second attention image (moving body image) from the wide area image data,
前記第1の画像処理部が前記個別特徴(顔)を追跡している間は、前記第2の画像処理部は、前記第2注目画像(動体画像)を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記第2注目画像(動体画像)を仮想追跡し、While the first image processing unit is tracking the individual feature (face), the second image processing unit is configured to extract the second image for cutting out the second attention image (moving body image). As the area information, the second image of interest (moving body image) is virtually tracked based on the first image area information generated by the first image processing unit,
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する。The attention image output unit cuts out an image of the individual feature (face) from the wide area image data based on at least the first image area information and supplies the image to the display device.
実施形態の他の装置によれば、撮像部と、データ処理装置と、表示デバイスを備え、前記撮像部が対象物を含む空間を撮影した広域画像データを前記データ処理装置に入力する装置であって、According to another apparatus of the embodiment, the apparatus includes an imaging unit, a data processing device, and a display device, and the imaging unit inputs wide-area image data obtained by capturing a space including an object to the data processing device. And
前記データ処理装置は、The data processing device includes:
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、A first image processing unit that tracks individual features (faces) of the object, a second image processing unit that tracks movement features of the objects, and a first attention including an image of the individual features (faces) A noticeable image output unit that cuts out an image (face image) and supplies it to the display device,
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、When the first image processing unit detects the image of the individual feature (face), the first image of interest is extracted from the wide area image data based on rectangular information surrounding the image of the individual feature (face). Generating first image area information for cutting out an image of (face image);
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、The second image processing unit tracks a second attention image (moving body image) based on the motion detection information of the image when the first image processing unit loses tracking of the image of the individual feature (face). And generating second image area information capable of cutting out the second attention image (moving body image) from the wide area image data,
前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、第1注目画像(顔画像)を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴(顔)を仮想追跡し、While the second image processing unit is tracking the motion feature, the first image processing unit uses the first image area information for cutting out a first attention image (face image) as the first image area information. The individual feature (face) is virtually tracked based on the second image area information generated by the second image processing unit,
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する。The attention image output unit cuts out an image of the individual feature (face) from the wide area image data based on at least the first image area information and supplies the image to the display device.
以下、実施の形態について図面を参照して説明する。図1には、一実施形態である監視画像処理装置が適用された全方位監視(広角視野監視と称してもよい)画像表示処理システムを示している。実施形態では、1.3メガ(M)ピクセル以上の画素数を有する画素(高精細画素)の単眼カメラ(1台のipカメラ)101(撮像部と称してもよい)を用いている。この単眼カメラ101に360°レンズ(魚眼レンズ)が取り付けられ、この単眼カメラ101は、全方位高精細監視画像を取得可能である。
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows an omnidirectional monitoring (also referred to as wide-angle visual field monitoring) image display processing system to which a monitoring image processing apparatus according to an embodiment is applied. In the embodiment, a monocular camera (one ip camera) 101 (which may be referred to as an imaging unit) having a pixel number (high definition pixel) having a number of pixels of 1.3 mega (M) pixels or more is used. A 360 ° lens (fisheye lens) is attached to the
取得された全方位高精細監視画像のデータストリームは、データ処理装置200A内のストリーム受信部で受信されて、キャプチャ201によりフレーム単位でキャプチャされ、画像バッファメモリ202に入力される。全方位高精細監視画像は、表示画面で見た場合、画像フレームに対して撮像領域が楕円状に配置されて表示される。全方位高精細監視画像は2560×1920ピクセル以上の高解像度を持つ画像である。
The acquired data stream of the omnidirectional high-definition monitoring image is received by the stream receiving unit in the data processing apparatus 200 </ b> A, captured by the
図1は一実施形態の基本的なブロック図である。実施形態によれば、撮像部101と、データ処理装置200Aと、表示デバイス321を備え、撮像部101が対象物を含む空間を撮影した広域画像データをデータ処理装置200Aに入力する装置である。ここでデータ処理装置は、対象物の個別特徴(顔)を追跡する第1の画像処理部A1と、対象物の動き特徴を追跡する第2の画像処理部A2と、注目画像を切り出して表示デバイス321に供給する注目画像出力部A3を備える。
FIG. 1 is a basic block diagram of an embodiment. According to the embodiment, the
そして、第1の画像処理部A1は、個別特徴(顔)の画像を検出している場合、その個別特徴(顔)を追跡しながら、個別特徴(顔)の画像が位置する画像領域を囲む第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報と称しても良い)を生成する。また、第2の画像処理部A2は、第1の画像処理部A1が個別特徴(顔)の追跡を失った場合、追跡を失った位置に存在する画像の動き検出情報に基づいて動き特徴を追跡しながら、動き特徴が位置する画像領域を囲む第2の矩形情報(動体検知矩形座標情報或いは第2の画像領域情報と称しても良い)を生成する。 Then, when the image of the individual feature (face) is detected, the first image processing unit A1 surrounds the image region where the image of the individual feature (face) is located while tracking the individual feature (face). First rectangular information (which may be referred to as face detection rectangular coordinate information or first image area information) is generated. In addition, when the first image processing unit A1 loses tracking of the individual feature (face), the second image processing unit A2 calculates the motion feature based on the motion detection information of the image existing at the position where the tracking is lost. While tracking, second rectangular information (also referred to as moving object detection rectangular coordinate information or second image area information) surrounding the image area where the motion feature is located is generated.
そして注目画像出力部A3は、少なくとも第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報)を用いて広域画像データから出力用注目画像を切り出して表示デバイス321に供給する。第2の矩形情報(動体検知矩形座標情報或いは第2の画像領域情報)は、必ずしも常に用いる必要はない。
The attention image output unit A3 cuts out the attention image for output from the wide area image data using at least the first rectangular information (face detection rectangular coordinate information or first image area information) and supplies the image to the
注目画像出力部A3は、第1の画像処理部A1が個別特徴(顔)の画像を検出したときは、第1の矩形情報(顔検知矩形座標情報或いは第1の画像領域情報)を優先して使用する。 The attention image output unit A3 gives priority to the first rectangular information (face detection rectangular coordinate information or first image region information) when the first image processing unit A1 detects the image of the individual feature (face). To use.
なお第2注目画像の出力表示形態は、各種可能である。例えば、第1注目画像(顔画像)のみを切り出して出力し、第2注目画像(動体画像)が切り出し可能な場合は、例えば「ロスト中」のメッセージが表示デバイス321に出力されてもよい。或いは、動体画像(顔なし或いは疑似的に顔を示した画像)が、矩形枠内に表示されてもよい。
Various output display forms of the second attention image are possible. For example, when only the first attention image (face image) is cut out and output, and the second attention image (moving body image) can be cut out, for example, a message “lost” may be output to the
上記第1の画像処理部A1は、個別特徴(顔)の追跡を失っている(ロストしている)ときは、前記第2の画像処理部A2が生成している第2の矩形情報を参照して、仮想的に個別特徴(顔)の追跡を行ってもよい。このときは、第1の画像処理部A1は、第2の矩形情報で表される領域よりも少し拡大した領域を示す第1の矩形情報を用いて仮想追跡を行ってもよい。拡大の程度は、例えば矩形画像が数十ピクセル上下及び左右に拡大される程度である。 The first image processing unit A1 refers to the second rectangular information generated by the second image processing unit A2 when the individual feature (face) is not tracked (lost). Then, the individual feature (face) may be tracked virtually. At this time, the first image processing unit A1 may perform virtual tracking using the first rectangular information indicating an area slightly enlarged from the area represented by the second rectangular information. The degree of enlargement is such that, for example, a rectangular image is enlarged several tens of pixels vertically and horizontally.
逆に、第1の画像処理部A1が、個別特徴(顔)の追跡を行っているとき(ロストしていないとき)は、第2の画像処理部A2は、第1の矩形情報を参照して、動体を仮想追跡してもよい。このときも、第2の画像処理部A2は、第1の画像処理部A1が個別特徴(顔)の追跡を失った場合、続けて動体の追跡を実行しながら、第2の矩形情報を生成する。このときは、第2の画像処理部A2は、第1の矩形情報で表される領域よりも少し拡大した領域を示す第2の矩形情報を用いて仮想追跡を行ってもよい。拡大の程度は、例えば矩形画像が数十ピクセル上下及び左右に拡大される程度である。 Conversely, when the first image processing unit A1 is tracking the individual feature (face) (when it is not lost), the second image processing unit A2 refers to the first rectangular information. Thus, the moving object may be virtually tracked. Also at this time, when the first image processing unit A1 loses the tracking of the individual feature (face), the second image processing unit A2 generates the second rectangular information while continuously tracking the moving object. To do. At this time, the second image processing unit A2 may perform virtual tracking using the second rectangular information indicating a region slightly enlarged from the region represented by the first rectangular information. The degree of enlargement is such that, for example, a rectangular image is enlarged several tens of pixels vertically and horizontally.
データ処理装置200Aは、ブロッキング輝度伸張部320を含む。ブロッキング輝度伸張部320は、ブロッキング輝度伸張処理部320は、注目画像(たとえば顔を含む領域を矩形状に抽出した顔矩形画像)に対して画素単位のブロッキング輝度伸張処理を施し画素レベルで明暗の補正を実施する。このブロッキング輝度伸張処理部320によるブロッキング輝度伸張処理により、監視対象の顔矩形画像に対して明暗の大きく異なる部分が画素レベルで補正され、監視対象の顔矩形画像が監視し易いダイナミックレンジの画像に補正される。このブロッキング輝度伸張処理技術の詳細については同一出願人による特許第5486963号、特許第5866146号、特許第5887067号に開示されている。
The
表示デバイス321では、データ処理装置200Aから取り込まれた全方位監視画像が表示され、この全方位監視画像の中に、追跡処理した顔矩形画像が表示される。これによりユーザは、撮像領域内の注目画像(顔画像)の移動位置を容易に確認することができる。
The
図2は、図1の構成をさらに具体的に示すブロック図を示している。 FIG. 2 is a block diagram showing the configuration of FIG. 1 more specifically.
画像バッファメモリ202の全方位高精細監視画像(広域画像データと称してもよい)は、リサイズ部11によりVGA:640×480ピクセルの解像度を持つ画像に変換され、先のブロッキング輝度伸張部320に入力される。
The omnidirectional high-definition monitoring image (which may be referred to as wide-area image data) in the
また画像バッファメモリ202の全方位高精細監視画像(広域画像データ)は、第1の画像処理部A1内のリサイズ部11により、最大1920×1080ピクセルの解像度を持つ画像に変換され、パノラマ画像生成部203に入力される。
Further, the omnidirectional high-definition monitoring image (wide-area image data) in the
パノラマ画像生成部203に入力された画像は、全周囲を正面画像化したパノラマ画像に変換される。この場合、楕円状の画像領域が例えば上下に2分割されて、第1パノラマ画像、第2パノラマ画像として表示される。これらのパノラマ画像は、先のリサイズにより、最大1920×1080ピクセルの解像度を持つ画像であり、全方位高精細監視画像のピクセル数よりも少なく、データ処理の負担を軽くしている。
The image input to the panorama
パノラマ画像生成部203のパノラマ画像は、画像追跡処理部204にて、被検知物あるいは注目画像(例えば人物の顔)を検出する顔検知処理、検知した顔の追跡処理を行うための材料となる。
The panorama image of the panorama
画像追跡処理部204は、人物の顔を検出すると、その顔画像情報、属性情報(推定年齢、性別、マスクの有無、メガネの有無など)、検知した顔の領域を矩形で囲む顔矩形座標情報を、オブジェクト情報バッファ206に送信する。
When the image
属性情報は、顔画像情報から抽出される。しかしこれに限らず、属性情報は、推定年齢、性別、マスクの有無、メガネの有無、人物の洋服、洋服の形、アクセサリー、色、髪型、など各種の情報が取得されて、当該人物の識別子(ID)と関連つけられてもよい。 The attribute information is extracted from the face image information. However, the present invention is not limited to this, and the attribute information includes various information such as estimated age, gender, presence / absence of mask, presence / absence of glasses, person's clothes, clothes shape, accessories, color, hairstyle, etc. (ID) may be associated.
検出された顔画像情報はバッファメモリ205aへ格納され、属性情報はバッファメモリ205bへ格納され、検知した顔の領域(顔を含む領域)を示す顔矩形座標情報はバッファメモリ205cに格納される。
The detected face image information is stored in the
ここで、検知した顔の領域を示す顔矩形座標情報は、パノラマ画像から取得したものである。また、顔矩形座標情報により囲まれる領域の顔画像は、最大1920×1080ピクセルの解像度である。したがって、この段階での顔矩形座標情報、解像度は、画像バッファメモリ202内の全方位高精細監視画像に対する顔矩形座標情報、解像度とは一致しない。そこで、座標変換処理部206は顔画像がバッファメモリ205に記憶されると、パノラマ画像上の顔画像位置座標を全方位高精細監視画像の顔画像位置座標に変換する。次に、検知矩形座標情報生成部207が、座標変換処理部206により生成された全方位高精細監視画像の顔画像位置座標をもとに顔検知矩形座標情報(顔を囲むフレームの座標情報)を生成する。この顔検知矩形座標情報は、オブジェクト追跡処理部314を介してあるいは直接注目領域画像作成部315に与えられる。オブジェクト追跡処理部314は、第1の画像処理部A1又は第2の画像処理部A2から出力される何れかの顔或いは動体検知矩形座標情報を、状況に応じて選択し、注目領域画像作成部315に与えることができる。
Here, the face rectangle coordinate information indicating the detected face area is obtained from the panoramic image. In addition, the face image in the area surrounded by the face rectangle coordinate information has a resolution of 1920 × 1080 pixels at the maximum. Therefore, the face rectangular coordinate information and resolution at this stage do not match the face rectangular coordinate information and resolution for the omnidirectional high-definition monitoring image in the
今、注目領域画像作成部315が、第1の画像処理部A1からの顔検知矩形座標情報を選択するものとする。すると、注目領域画像作成部315は検知矩形座標情報生成部207が生成した顔検知矩形座標情報をもとに、画像バッファメモリ202に貯えられた全方位高精細監視画像から画像処理部204が検出した顔画像(顔矩形画像或いは注目画像と称す)に対応する高精細な顔矩形画像を切り出す。そして、この全方位高精細監視画像から切り出した高精細な顔矩形画像を補正処理する。補正処理は、歪のある画像を表示デバイス321のアスペクト(4:3或いは16:9)の画像に正規化することである。この補正処理された顔矩形画像は、オブジェクト画像バッファメモリ316に貯えられる。
Now, it is assumed that the attention area
なお検知矩形座標情報生成部207が生成した顔検知矩形座標情報は、画像バッファメモリ202において、注目領域の顔を囲む検知対象の追跡や検知結果画像を生成するためのデータとして利用される。またこの顔検知矩形座標情報は、第2の画像処理部A2において参照されてもよい。
Note that the face detection rectangular coordinate information generated by the detection rectangular coordinate information generation unit 207 is used as data for tracking the detection target surrounding the face of the attention area and generating a detection result image in the
上記のオブジェクト画像バッファメモリ316に貯えられた高精細な顔矩形画像はリサイズ部14により表示デバイス321の画素構成に合った画面サイズにリサイズされブロッキング輝度伸張処理部320に送出される。このブロッキング輝度伸張処理部320によりブロッキング輝度伸張処理された顔矩形画像は監視画像として表示デバイス321に表示される。
The high-definition face rectangular image stored in the object
表示デバイス321に表示された顔矩形画像は、全方位高精細監視画像から切り出されてブロッキング輝度伸張処理により監視し易いダイナミックレンジの画像に補正された高密度ベースの監視画像である。
The face rectangular image displayed on the
上記したように、監視対象の顔矩形画像は、監視し易いダイナミックレンジで高品位の画像として、表示デバイス321に表示される(図10の303参照)。
As described above, the face rectangular image to be monitored is displayed on the
さらに、画像バッファメモリ202に格納されている全方位高精細監視画像は、リサイズ部13により、表示デバイス321の画面に合わせたサイズにリサイズされる。このリサイズされた全方位監視画像は、例えば640×480画素の解像度である。この全方位監視画像は、ブロッキング輝度伸張部320で輝度伸張処理されて、先の顔矩形画像に重なるように合成される。この全方位高精細監視画像は、追跡している対象物(この実施形態では人物の顔)が全方位監視領域の中で、どの位置へ移動したかを容易に判断するのに有効である(図10の302参照)。
Furthermore, the omnidirectional high-definition monitoring image stored in the
また上記のオブジェクト情報バッファ205に格納されている顔画像及び属性情報などは、表示デバイス321に入力されて、付加的に表示されてもよい(図10の311、312参照)。また、顔画像情報はバッファメモリ205aへ格納される顔画像情報、バッファメモリ205bへ格納される属性情報(推定年齢、性別、マスクの有無、メガネの有無など)は、互いにリンクした形で、オブジェクト情報バッファ205に蓄積される。これらの蓄積データは、その後の顔画像認識処理、追跡処理の際に利用することができる。
The face image and attribute information stored in the
図2の構成において、画像バッファメモリ202、リサイズ部11、パノラマ画像生成部203は、視野角180°以上により空間を撮像して得た広角視野監視画像を、ビット数を低減させ且つリサイズし、少なくとも2つに分けて第1パノラマ画像、第2パノラマ画像に変換する第1の変換手段と称することができる。また、画像処理部204、オブジェクト情報バッファ205は、前記第1パノラマ画像若しくは第2パノラマ画像から少なくとも注目被写体を検知して追跡する検知及び追跡手段と称することができる。
In the configuration of FIG. 2, the
さらに、座標変換処理部206、検知矩形座標情報生成部207、注目領域画像作成部315、オブジェクト画像バッファメモリ316は、前記注目被写体のパノラマ画像上の座標データを、前記広角視野監視画像上の座標データに変換して、前記広角視野監視画像から前記注目被写体の注目画像を切出す注目画像切出し手段と称することができる。そして、リサイズ部14、ブロッキング輝度伸張部320、表示デバイス321等は、少なくとも前記注目画像切出し手段が切り出した前記注目画像を表示する表示手段と称することができる。
Furthermore, the coordinate
本装置は、さらに第2の画像処理部A2を有する。画像バッファメモリ202の全方位高精細監視画像は、リサイズ部12により320×240ピクセルの解像度を持つ画像に変換され、画像追跡処理部311に入力される。この画像追跡処理部311は、画像の中の動体を検出して追跡し、その動体検知情報を生成する。動体検知情報は、動体検知矩形座標情報部312において、追跡中の動体を囲む矩形座標情報(動体検知矩形座標情報)に変換される。この動体検知矩形座標情報は、画像バッファメモリ202において、動きのある注目領域を囲む検知対象の追跡や検知結果画像を生成するためのデータとして利用される。つまり、画像バッファメモリ202の全方位高精細監視画像から、動きを伴う動体画像を切り出し、オブジェクト画像バッファメモリ316に格納する際にこの動体検知矩形座標情報が利用される。
The apparatus further includes a second image processing unit A2. The omnidirectional high-definition monitoring image in the
この場合も注目領域画像作成部315は、全方位高精細監視画像から切り出した高精細な顔矩形画像を補正処理する。補正処理は、歪のある画像を表示デバイス321のアスペクト(4:3或いは16:9)の画像に正規化することである。この補正処理された顔矩形画像は、オブジェクト画像バッファメモリ316に貯えられる。
Also in this case, the attention area
上記した処理により、本装置は、追跡する対象物(例えば人物等)の追跡能力を向上した監視画像処理装置及び監視画像処理方法を提供することができる。 Through the processing described above, the present apparatus can provide a monitoring image processing apparatus and a monitoring image processing method that improve the tracking ability of an object to be tracked (for example, a person).
図3は、上記した装置の構成とその動作を概略的に示す説明図である。データ処理装置200Aは、撮像部101からの高精細監視画像をストリーム受信部により受信する(S401)。ストリーム受信部で受信された高精細監視画像は、キャプチャ部によりフレーム単位でキャプチャされる(S403)。尚、ストリーム受信部で受信された高精細監視画像は、記憶媒体に一旦記憶された後、或は記憶されつつ(S402)、フレーム単位でキャプチャされてもよい(S403)。
FIG. 3 is an explanatory diagram schematically showing the configuration and operation of the above-described apparatus. The
次にデータ処理装置200A内では、次のような処理が実行される。即ち、キャプチャされた高精細監視画像は前処理される(S404)。この前処理は、図2で説明したリサイズ、パノラマ画像生成に対応する。前処理されたパノラマ画像は、画像処理による顔検知に基づく追跡処理及び動体検知に基づく追跡処理の対象となる(S404,S405)。顔検知に基づく追跡処理において得られた情報は、顔矩形画像、属性情報、顔矩検知形座標情報などを含む。パノラマ画像の顔検知矩形座標情報は、全方位高精細画像の座標に対応した検知矩形座標情報に座標変換される。また属性情報も抽出される。
Next, the following processing is executed in the
さらに本装置では、顔検知に基づく追跡処理の他に、第2の画像処理部A2において、動体検知に基づく追跡処理も実行されている。この追跡処理においても、注目画像を切出すための動体検知矩形座標情報が生成される(S406)。この動体検知矩形座標情報は、顔検知を行う第1の画像処理装置A1において参照することができる。この参照により、第1の画像処理装置A1は、注目画像を仮想的に追跡することができ、実際の顔検知を行った時から、顔判断までの時間を早くすることができる。つまり第1の画像処理装置A1は、顔検知能力がロバストになる。 Further, in this apparatus, in addition to the tracking process based on the face detection, the second image processing unit A2 also executes a tracking process based on the moving object detection. Also in this tracking process, moving object detection rectangular coordinate information for cutting out the target image is generated (S406). This moving object detection rectangular coordinate information can be referred to in the first image processing apparatus A1 that performs face detection. With this reference, the first image processing apparatus A1 can virtually track the target image and can shorten the time from the actual face detection to the face determination. That is, the first image processing apparatus A1 has a robust face detection capability.
上記のようにオブジェクト追跡処理が実施される(S407)。次に注目画像出力部A3において、第1の矩形情報(顔検知矩形座標情報)又は第2の矩形情報(動体検知矩形座標情報)又は第1の矩形情報のみに基づいて、広域画像データから注目画像が切り出され、切出された注目画像の補正処理が行われる。そして補正後の注目画像がブロッキング輝度伸張処理を受けて(S409)表示デバイス321に供給される。上記したように顔検知或は動体検知により、オブジェクト(注目画像)の追跡処理が実施される。
The object tracking process is performed as described above (S407). Next, in the attention image output unit A3, attention is drawn from the wide area image data based only on the first rectangular information (face detection rectangular coordinate information), the second rectangular information (moving object detection rectangular coordinate information), or the first rectangular information. The image is cut out, and correction processing of the cut out attention image is performed. The corrected attention image is subjected to blocking luminance expansion processing (S409) and supplied to the
ここで、顔検知に基づく追跡処理に基づく顔検知矩形座標情報、動体検知に基づく追跡処理に基づく動体検知矩形座標情報の何れか一方が注目画像の切出し処理のために利用されるが、その基本的な状態遷移について、以下に説明する。この例は一例であり、必ずしもこの状態遷移に限定されるものではない。 Here, one of face detection rectangular coordinate information based on tracking processing based on face detection and moving body detection rectangular coordinate information based on tracking processing based on moving object detection is used for extracting the target image. A typical state transition will be described below. This example is an example and is not necessarily limited to this state transition.
図4は、本実施形態の監視画像処理装置において、顔検知による追跡処理と動体検知による追跡処理が行われる際の状態遷移ルートの一例を示す図である。 FIG. 4 is a diagram illustrating an example of a state transition route when a tracking process based on face detection and a tracking process based on motion detection are performed in the monitoring image processing apparatus according to the present embodiment.
今、顔検知・オブジェクト検知動作状態J1にあるものとする。ここで顔(注目画像)が検知されると、パスP1を介して、顔矩形による追尾動作状態J2に移る。顔が検知されている限り(パスP2)、この追尾動作状態J2が維持される。 Assume that the face detection / object detection operation state J1 is in effect. Here, when a face (attention image) is detected, the process proceeds to a tracking operation state J2 with a face rectangle via a path P1. As long as a face is detected (path P2), this tracking operation state J2 is maintained.
状態J2において、顔が検知されなくなると、パスP3を介してロスト動作状態J3に移る。ロスト動作状態J3にあっても、顔が検知されると顔矩形による追尾動作状態J2に移る。しかし、ロスト動作状態J3にあって、顔が検知されず、オブジェクト(動体)が検出された場合は、動体・停止物矩形による追尾動作状態J4に移る。この状態J4では、動体を検出したあと、その動体が一定期間停止していても、動体検知として判断し、動体追尾動作を維持することができる。 When the face is not detected in the state J2, the process proceeds to the lost operation state J3 via the path P3. Even in the lost operation state J3, when a face is detected, the operation proceeds to the tracking operation state J2 by the face rectangle. However, in the lost motion state J3, when a face is not detected and an object (moving body) is detected, the operation moves to a tracking motion state J4 using a moving body / stopping object rectangle. In this state J4, after detecting a moving object, even if the moving object has stopped for a certain period, it is determined as moving object detection, and the moving object tracking operation can be maintained.
動体・停止物矩形による追尾動作状態J4において、顔検知があった場合は、パスP6を経由して顔矩形による追尾動作状態J2に移る。しかし、動体・停止物矩形による追尾動作状態J4において、動体(オブジェクト)検知もできなくなった場合、パスP7を介して、ロスト動作状態J3に移る。 If a face is detected in the tracking operation state J4 using the moving object / stop object rectangle, the process proceeds to the tracking operation state J2 using the face rectangle via the path P6. However, when the moving object (object) cannot be detected in the tracking operation state J4 using the moving object / stopping object rectangle, the process proceeds to the lost operation state J3 via the path P7.
ロスト動作状態J3は、パスP8を経由して一定時間が経過するまでは、ロスト動作状態J3を維持する。しかし顔・オブジェクトが検知されないまま一定時間が経過してしまうと、パスP9を経由して、顔検知・オブジェクト検知動作状態J1に移る。 The lost operation state J3 maintains the lost operation state J3 until a predetermined time passes through the path P8. However, if a certain time elapses without the face / object being detected, the process proceeds to the face detection / object detection operation state J1 via the path P9.
顔検知・オブジェクト検知動作状態J1においては、顔検知動作、動体検知動作の両方が平行して実施される。顔検知のために、動体検知による矩形情報が座標変換(つまりパノラマ座標系に変換)されて顔検知矩形情報として利用されてもよい。この利用により、顔検知が比較的早めに達成される。 In the face detection / object detection operation state J1, both the face detection operation and the moving object detection operation are performed in parallel. For face detection, rectangle information obtained by moving object detection may be coordinate-converted (that is, converted into a panoramic coordinate system) and used as face detection rectangle information. This use achieves face detection relatively early.
またこの場合、顔検知のための顔検知矩形の面積が、追跡処理時の顔矩形の面積よりも数パーセント拡張されて利用される。これにより、顔の左右或いは上下の動きがあっても顔検知を容易化することができる。 Further, in this case, the area of the face detection rectangle for face detection is used by being expanded by several percent than the area of the face rectangle during the tracking process. Thereby, face detection can be facilitated even if the face moves left and right or up and down.
なおロスト動作状態J3から、顔検知・オブジェクト検知動作状態J1に移って、顔を検知した場合、今回、検知した顔と同一の顔を過去フレームにおいて検知したことがあるかどうか判定する。同一の顔が存在した場合、当該顔画像データに対応する同一顔の検知データ(例えば顔検知矩形座標情報、顔の確からしさのスコア値、検知回数、最新検知フレーム番号、追跡フレーム数、前回検知からのフレーム間隔等)を更新する。過去の顔検知において、同一顔が検知されていない場合には、新たな顔検知データ(例えば初回検知フレーム番号、顔ID情報、顔検知矩形座標情報、顔の確からしさのスコア値)を作成する。つまり今まで追跡していた顔(オブジェクト:動体)に付けていた識別データ(ID)は、一旦破棄され、状態J1で検出した新たな顔(オブジェクト)に対しては新たなIDが付されて管理される。 If the face detection is performed from the lost operation state J3 to the face detection / object detection operation state J1, it is determined whether or not the same face as the detected face has been detected in the past frame. If the same face exists, detection data of the same face corresponding to the face image data (for example, face detection rectangular coordinate information, face probability score value, number of detections, latest detection frame number, number of tracking frames, previous detection Update the frame interval etc.). If the same face is not detected in past face detection, new face detection data (for example, initial detection frame number, face ID information, face detection rectangular coordinate information, score value of face likelihood) is created. . In other words, the identification data (ID) attached to the face (object: moving object) that has been tracked up to now is temporarily discarded, and a new ID is assigned to the new face (object) detected in the state J1. Managed.
図5は、本実施形態に関わる装置の概略動作を記載した動作フローチャートである。全方位高精細監視画像の処理が開始される。まず顔検知に基づいて顔矩形画像を追尾する追尾処理が実行される(SA1)。顔矩形画像の追尾がロスト状態になると(SA2)、オブジェクト(動体)検知があるかどうかの判定がなされる(SA3)。オブジェクト検知があった場合は、動体・停止矩形による追尾処理が実行される(SA4)。 FIG. 5 is an operation flowchart describing a schematic operation of the apparatus according to the present embodiment. Processing of the omnidirectional high-definition monitoring image is started. First, tracking processing for tracking a face rectangular image based on face detection is executed (SA1). When the tracking of the face rectangular image is lost (SA2), it is determined whether or not there is object (moving object) detection (SA3). When the object is detected, the tracking process using the moving object / stop rectangle is executed (SA4).
ロスト動作状態とオブジェクト検知動作状態、において、何らかの検知(顔検知)があった場合は、図4で説明したように状態J2状態に移る。 If any detection (face detection) is detected in the lost motion state and the object detection motion state, the state moves to the state J2 as described with reference to FIG.
図6と図7は、顔矩形画像を追尾する追尾処理(図5のSA1)をさらに具体的示すフローチャートである。図8は、ロスト状態から動体を検知し追跡処理(図5のSA4)する場合の動作フローを詳しく示している。 6 and 7 are flowcharts showing more specifically the tracking process (SA1 in FIG. 5) for tracking the face rectangular image. FIG. 8 shows in detail an operation flow when a moving object is detected and tracked (SA4 in FIG. 5) from the lost state.
追尾処理は、「追尾無し」、「追尾中」、「ロスト中」の3種類の状態で管理する。ロスト中は、規定時間連続してロスト状態であるかどうかを監視し、規定時間連続してロスト状態が続けば、「追尾無し」状態とする。 The tracking process is managed in three states: “no tracking”, “tracking”, and “lost”. During the lost, it is monitored whether or not the lost state continues for a specified time. If the lost state continues for a specified time, a “no tracking” state is set.
まず、直前の追尾状態が「追尾無し」であったかどうかの判断を行う(SB1)。「追尾無し」であった場合は、顔検知に基づく新規顔検知矩形情報が存在するか否かの判定を行う。新規顔検知矩形情報が存在した場合、この新規顔検知矩形情報を現在追尾位置矩形情報として格納する。 First, it is determined whether or not the immediately preceding tracking state is “no tracking” (SB1). If it is “no tracking”, it is determined whether or not new face detection rectangle information based on face detection exists. If there is new face detection rectangle information, the new face detection rectangle information is stored as the current tracking position rectangle information.
次に、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SB4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SB10)。 Next, it is determined whether or not the acquisition (or creation) of the current tracking position rectangle information is successful (SB4), and if successful, the object ID being tracked is stored in a predetermined table (SB10).
先のSB1の「追尾無し」判定において、追尾中の判定があった場合、既存追尾位置矩形情報に対応するオブジェクトIDと同一のオブジェクトIDの顔検知矩形情報を取得する(SB5)。次に、取得した顔検知矩形情報に基づいて取得した顔画像と同一顔画像が所定テーブルに存在するかどうかを判定する(SB6)。 If it is determined that tracking is in progress in the previous “no tracking” determination in SB1, face detection rectangular information having the same object ID as the object ID corresponding to the existing tracking position rectangular information is acquired (SB5). Next, it is determined whether or not the same face image as the acquired face image exists in the predetermined table based on the acquired face detection rectangle information (SB6).
ここで同一顔画像が存在した場合は、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SB4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SB10)。つまり、その後は、同一のオブジェクトIDの顔画像が追跡されることになる。 If the same face image exists, it is determined whether or not the acquisition (or creation) of the current tracking position rectangle information is successful (SB4). If successful, the object ID being tracked is stored in a predetermined table. (SB10). That is, after that, face images with the same object ID are tracked.
先のSB6において、同一顔画像が存在しないことが判定された場合は、既存追尾位置矩形情報を調整して、矩形位置を左右、上下指定して、サイズを拡大し、拡大した既存追尾位置矩形情報と重なる顔検知矩形情報を取得する。つまりここでは、同じ顔でも少しずれた位置に顔が移動している場合があったり、或は、既存の顔の近くに別の顔が存在する場合がある。そこで、新たに顔が認識された場合は、その顔画像を利用してその後の追尾処理を行う。これにより追跡処理が強化される。 If it is determined in the previous SB6 that the same face image does not exist, the existing tracking position rectangle information is adjusted, the rectangle position is designated left and right, up and down, the size is expanded, and the enlarged existing tracking position rectangle Acquire face detection rectangle information that overlaps the information. In other words, here, the face may be moved to a slightly shifted position even for the same face, or another face may exist near the existing face. Therefore, when a new face is recognized, the subsequent tracking process is performed using the face image. This enhances the tracking process.
追跡中のオブジェクトIDは、所定のテーブルに格納され(SB10)、追尾が実行される。次に再度追尾状態が「追尾無し」であったかどうかの判定がなされる(SB11=SB1の判定と同じ判定)。追尾無しであった場合は、追尾位置矩形情報に現在追尾位置矩形情報(SB4で得られた情報)を格納し、追尾状態を「追尾中」に確定する(SB12、SB13)。追尾状態を「追尾中」に確定した後は、図7に示すように追尾解除時間をリセットし(SB21)、終了する。 The object ID being tracked is stored in a predetermined table (SB10), and tracking is executed. Next, it is determined again whether or not the tracking state is “no tracking” (the same determination as the determination of SB11 = SB1). If there is no tracking, the current tracking position rectangle information (information obtained in SB4) is stored in the tracking position rectangle information, and the tracking state is determined as “tracking” (SB12, SB13). After the tracking state is confirmed as “tracking”, the tracking release time is reset (SB21) as shown in FIG.
SB11において、追尾中であったことの判定がなされた場合は、現在追尾位置矩形情報(SB4で取得した情報)に重みを乗じた位置情報を、既存追尾位置矩形情報(追尾中であったときの情報)に加算して、追尾位置矩形情報を更新する。この処理は、例えば1秒間に10コマ或いは5コマごとに実行され、既存追尾位置矩形情報に例えば0.3の重み、現在追尾位置矩形情報に例えば0.7の重みが乗じられる。これにより、追尾位置矩形情報から現在追尾位置矩形情報への滑らかな変化が得られる。 When it is determined in SB11 that tracking is in progress, position information obtained by multiplying the current tracking position rectangular information (information acquired in SB4) by a weight is used as existing tracking position rectangular information (in tracking). The tracking position rectangle information is updated. This process is executed, for example, every 10 frames or 5 frames per second, and the existing tracking position rectangle information is multiplied by, for example, 0.3 weight, and the current tracking position rectangle information is multiplied by, for example, 0.7 weight. Thereby, a smooth change from the tracking position rectangular information to the current tracking position rectangular information is obtained.
ところで、SB4において、現在追尾位置矩形情報が取得できない場合がある。この場合は、図7のSB22に示すように、追尾状態が「追尾中」であったかどうかの判定を行う。「追尾中」であった場合は、追尾状態を「ロスト中」に設定し(SB23)、追尾解除経過時間を算出する(SB24)。SB22の判定で、追尾状態が「追尾中」ではなかった場合、つまり「ロスト」中であった場合は、追尾解除経過時間を算出する(SB24)。 Incidentally, in SB4, the current tracking position rectangle information may not be acquired. In this case, as shown in SB22 of FIG. 7, it is determined whether or not the tracking state is “tracking”. If it is “tracking”, the tracking state is set to “lost” (SB23), and the tracking release elapsed time is calculated (SB24). If it is determined in SB22 that the tracking state is not “tracking”, that is, “lost”, the tracking cancellation elapsed time is calculated (SB24).
そして、追尾解除経過時間が規定時間を超過した場合は、追尾状態を「追尾無し」にして終了し、追尾解除経過時間が規定時間を超過していない場合は、終了する。 If the tracking cancellation elapsed time exceeds the specified time, the tracking state is set to “no tracking” and the processing ends. If the tracking cancellation elapsed time does not exceed the specified time, the processing ends.
図8は、ロスト状態から動体を検知した場合(図5のSA4)の動作フローを詳しく示している。 FIG. 8 shows in detail the operation flow when a moving object is detected from the lost state (SA4 in FIG. 5).
既存の追尾位置矩形情報のオブジェクトIDと同一オブジェクトIDの動体・停止物矩形情報の取得を試みる(SC1)。同一オブジェクトが存在した場合(SC2のYes)、前記同一オブジェクトに対応する現在追尾位置矩形情報の取得に成功しているかどうかの判定を行う(SC4)。同一オブジェクトが存在しなかった場合(SC2のNo)、既存追尾位置矩形情報を左右、上下、指定したサイズ分拡大し、拡大した既存追尾位置矩形情報と重なる動体・停止物検知矩形情報を取得する(SC3)。 An attempt is made to acquire moving object / stop object rectangle information having the same object ID as the object ID of the existing tracking position rectangle information (SC1). If the same object exists (Yes in SC2), it is determined whether or not the current tracking position rectangle information corresponding to the same object has been successfully acquired (SC4). When the same object does not exist (No in SC2), the existing tracking position rectangle information is enlarged by the specified size to the left, right, up, down, and the moving object / stop object detection rectangle information that overlaps the enlarged existing tracking position rectangle information is acquired. (SC3).
次に、現在追尾位置矩形情報の取得(又は作成)が成功したかどうかを判定し(SC4)、成功してれば追跡中のオブジェクトIDを所定のテーブルに格納する(SC5)。次に現在追尾位置矩形情報に重みを乗じた位置を既存追尾位置矩形情報に加算して、新たな矩形情報を作成(更新)する(SC6)。この場合も、既存追尾位置矩形情報に例えば0.3の重み、現在追尾位置矩形情報に例えば0.7の重みが乗じられる。これにより、追尾位置矩形情報から現在追尾位置矩形情報への滑らかな変化が得られる。 Next, it is determined whether or not the acquisition (or creation) of the current tracking position rectangle information is successful (SC4), and if successful, the object ID being tracked is stored in a predetermined table (SC5). Next, a position obtained by multiplying the current tracking position rectangular information by the weight is added to the existing tracking position rectangular information to create (update) new rectangular information (SC6). Also in this case, the existing tracking position rectangle information is multiplied by, for example, a weight of 0.3, and the current tracking position rectangle information is multiplied by, for example, a weight of 0.7. Thereby, a smooth change from the tracking position rectangular information to the current tracking position rectangular information is obtained.
次に追尾解除時間をリセットして終了する(SC8)。先のSC4において、現在追尾位置矩形情報の取得ができなかった場合(SC4のNo)、追尾解除経過時間を算出し(SC11)、追尾解除時間が規定時間を超過しているかどうかを判定する(SC12)。追尾解除時間が規定時間を超過している場合は、追尾状態を「追尾無し」にして(SC13)、終了し、超過していない場合は、終了する。 Next, the tracking release time is reset and the process ends (SC8). In the previous SC4, if the current tracking position rectangle information could not be acquired (No in SC4), the tracking cancellation elapsed time is calculated (SC11), and it is determined whether the tracking cancellation time exceeds the specified time ( SC12). If the tracking release time exceeds the specified time, the tracking state is set to “no tracking” (SC13), and the process ends. If not, the process ends.
図9(a)、図9(b)は、全方位高精細監視画像とパノラマ画像の説明図である。図9(a)は、画像バッファメモリ202に格納された全方位高精細監視画像250の一例を示している。この全方位高精細監視画像250は、部屋の空間を撮像したものであり、表示対象となる人物253を含む。例えば枠254で囲む矩形領域が注目領域である。この全方位高精細監視画像250は、パノラマ画像に変換される際、例えば分割線251で示す位置で上下に分割され、図9(b)に示すように第1のパノラマ画像261、第2のパノラマ画像262として生成される。
FIGS. 9A and 9B are explanatory diagrams of an omnidirectional high-definition monitoring image and a panoramic image. FIG. 9A shows an example of the omnidirectional high-
図10は、本実施形態の監視画像処理装置により表示デバイス321に画像が表示された一例を示す図である。全体は、注目領域画像303であり顔画像301を含む。さらに、この注目領域画像303には、リサイズされた全方位監視画像302が挿入される。この全方位監視画像302の中に顔画像301に対応する人物画像302aが存在する。
FIG. 10 is a diagram illustrating an example in which an image is displayed on the
この表示を行うことにより、注目領域の顔画像301の移動位置を、全方位監視画像302により容易に確認することができる。さらに全方位監視画像302に含まれる人物画像302aには,フレーム302bが付加されてもよい。このフレーム302bは例えば注目画像(顔画像)を切出す際に利用された顔検知矩形座標情報が、画像バッファメモリ202に書き込まれることにより、生成されている。
By performing this display, the moving position of the
さらに、注目領域画像303には、属性情報312が表示されてもよい。またこの属性情報312と共にリサイズされた顔矩形画像311が表示されてもよい。この顔矩形画像311は、図2のオブジェクト情報バッファ206から取り出された画像である。
Further, attribute
このような監視画像処理装置によると、注目領域画像303は、画像バッファメモリ202に貯えられた全方位高精細監視画像から、高精細な顔矩形画像として切出される。このために、パノラマ変換した画像から切り出すのに比べて画像品質が高い。またブロッキング輝度伸張処理されているので、画像品質の向上が図られている。
According to such a monitoring image processing apparatus, the
次に、注目領域画像303内にリサイズされた全方位監視画像302が挿入され、この全方位監視画像302の中に顔画像301に対応する人物画像302aが存在する。このために、顔画像301の人物が監視空間の中で、どの位置に移動しているのかを容易に確認(監視)することができる。監視装置としての信頼性及び性能が向上している。また、属性情報も表示されるので監視機能の性能がアップする。
Next, the resized
なお表示する画像において、属性情報312、リサイズされた顔矩形画像311は、必ずしも表示する必要はない。
In the image to be displayed, the
図11は、第1の画像処理部A1における注目画像の追跡がロスト状態になったときに表示デバイス321に表示される画像の例を示している。今まで顔画像追跡中に表示されていた、注目領域画像303においては、例えば人物の顔画像にマスクがかけられる。そして第2の画像処理部A2により、動体を追跡している様子が、全方位監視画像302の中に動体追跡枠302c(つまりマーク)で示される。このとき動体の移動方向を示す矢印が表示されてもよい。
FIG. 11 shows an example of an image displayed on the
上記実施形態では、顔検知が得られない場合、対象人物らしき人物の動きを追跡した。しかし、属性情報(色、形状、付属物など)を確認しながら、対象人物らしき人物を追跡してもよいし、さらにはこの属性情報と動き情報とを組み合わせて、対象人物らしき人物を追跡してもよい。つまり動体が追跡されるときは、動き情報のみならず単一或いは複数の属性情報(洋服の色、帽子等)も併用されてもよい。このときは、追跡に利用している属性情報を点滅あるいは色を変化させて表示してもよい。 In the above embodiment, when face detection is not obtained, the movement of a person who seems to be a target person is tracked. However, the person who looks like the target person may be tracked while checking the attribute information (color, shape, accessory, etc.), and further, the person who seems to be the target person can be tracked by combining this attribute information and the motion information. May be. That is, when a moving object is tracked, not only motion information but also single or plural attribute information (cloth color, hat, etc.) may be used in combination. At this time, the attribute information used for tracking may be displayed by blinking or changing the color.
さらにまた、複数の人物の顔が検出されることもある。この場合、特定の人物(一人)を追跡する場合、属性情報を組み合わせて、追跡することが好ましい。例えば、特定の人物の属性情報が髪の毛が長い、赤い洋服を着ている情報であるとする。顔検知がロスト状態になったとき、動き検出側で、同じ属性情報をもつ動体を追跡すると、再度顔が検知されたとき、前記特定の人物であることの確率が高くなる。 Furthermore, a plurality of human faces may be detected. In this case, when tracking a specific person (one person), it is preferable to track by combining attribute information. For example, it is assumed that the attribute information of a specific person is information with long hair and wearing red clothes. When the face detection is lost and the moving object having the same attribute information is tracked on the motion detection side, the probability that the face is detected again increases when the face is detected again.
なお実施例では、個別特徴を顔とし、顔画像を追跡した。しかし、追跡対象は、顔に限らず、特定のマーク、国旗、特定の意匠、特定の発光をする物の場合も適用可能である。 In the embodiment, the individual feature is a face and the face image is tracked. However, the tracking target is not limited to a face, but can be applied to a specific mark, a national flag, a specific design, or a specific light emitting object.
実施形態では、360°全方位を撮像した画像を取得する装置として説明したが、180°以上の方位を撮像した画像を取得する装置であればよい。また、画像切出し、座標情報は、矩形である如く説明したが、これに限らず各種の形状であってもよい。例えば検出する人物が複数存在した場合、それぞれの顔画像の切り出し枠の形状が異なるようにしてもよい。 The embodiment has been described as an apparatus that acquires an image obtained by imaging 360 ° in all directions, but may be an apparatus that acquires an image obtained by imaging an orientation of 180 ° or more. Further, the image cutout and the coordinate information are described as being rectangular, but the present invention is not limited to this, and various shapes may be used. For example, when there are a plurality of persons to be detected, the shape of the cutout frame of each face image may be different.
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。さらにまた、請求項の各構成要素において、構成要素を分割して表現した場合、或いは複数を合わせて表現した場合、或いはこれらを組み合わせて表現した場合であっても本発明の範疇である。また請求項を制御ロジックとして表現した場合、コンピュータを実行させるインストラクションを含むプログラムとして表現した場合、及び前記インストラクションを記載したコンピュータ読み取り可能な記録媒体として表現した場合でも本発明の装置を適用したものである。 Although several embodiments of the present invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof. Furthermore, in each constituent element of the claims, even when the constituent element is expressed in a divided manner, when a plurality of constituent elements are expressed together, or when they are expressed in combination, they are within the scope of the present invention. In addition, when the claims are expressed as control logic, when expressed as a program including instructions for causing a computer to execute, and when expressed as a computer-readable recording medium describing the instructions, the apparatus of the present invention is applied. is there.
A1・・・第1の画像処理部、A2・・・第2の画像処理部、A3・・・注目画像出力部、11、12、13、14・・・リサイズ部、101・・・単眼カメラ(撮像部)、200A・・・データ処理装置、201・・・キャプチャ、202・・・画像バッファメモリ、203・・・パノラマ画像生成部、204・・・画像追跡処理部、205・・・オブジェクト情報バッファ、206・・・座標変換処理部、207・・・顔検知矩形座標情報部、311・・・画像追跡処理部、312・・・動体検知矩形座標情報部、314・・・オブジェクト追跡処理部、315・・・注目領域画像作成部、316・・・オブジェクト画像バッファメモリ、320・・・ブロッキング輝度伸張部、321・・・表示デバイス。
A1 ... first image processing unit, A2 ... second image processing unit, A3 ... target image output unit, 11, 12, 13, 14 ... resize unit, 101 ... monocular camera (Imaging unit), 200A ... data processing device, 201 ... capture, 202 ... image buffer memory, 203 ... panoramic image generation unit, 204 ... image tracking processing unit, 205 ... object Information buffer 206: Coordinate conversion processing unit 207 ... Face detection rectangular coordinate
Claims (15)
前記データ処理装置は、
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴(顔)を追跡している間は、前記第2の画像処理部は、前記第2注目画像(動体画像)を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記第2注目画像(動体画像)を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理装置。 An apparatus comprising an imaging unit, a data processing device, and a display device, wherein the imaging unit inputs wide-area image data obtained by imaging a space including an object to the data processing device,
The data processing device includes:
A first image processing unit that tracks individual features (faces) of the object, a second image processing unit that tracks movement features of the objects, and a first attention including an image of the individual features (faces) A noticeable image output unit that cuts out an image (face image) and supplies it to the display device,
When the first image processing unit detects the image of the individual feature (face), the first image of interest is extracted from the wide area image data based on rectangular information surrounding the image of the individual feature (face). Generating first image area information for cutting out an image of (face image);
The second image processing unit tracks a second attention image (moving body image) based on the motion detection information of the image when the first image processing unit loses tracking of the image of the individual feature (face). And generating second image area information capable of cutting out the second attention image (moving body image) from the wide area image data,
While the first image processing unit is tracking the individual feature (face), the second image processing unit is configured to extract the second image for cutting out the second attention image (moving body image). As the area information, the second image of interest (moving body image) is virtually tracked based on the first image area information generated by the first image processing unit,
The attention image output unit cuts out the image of the individual feature (face) from the wide area image data based on at least the first image area information and supplies the image to the display device.
A monitoring image processing apparatus characterized by that.
前記データ処理装置は、
前記対象物の個別特徴(顔)を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴(顔)の画像を含む第1注目画像(顔画像)を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴(顔)の画像の追跡を失った場合、画像の動き検出情報に基づいて第2注目画像(動体画像)を追跡して、前記広域画像データから前記第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、第1注目画像(顔画像)を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴(顔)を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴(顔)の画像を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理装置。 An apparatus comprising an imaging unit, a data processing device, and a display device, wherein the imaging unit inputs wide-area image data obtained by imaging a space including an object to the data processing device,
The data processing device includes:
A first image processing unit that tracks individual features (faces) of the object, a second image processing unit that tracks movement features of the objects, and a first attention including an image of the individual features (faces) A noticeable image output unit that cuts out an image (face image) and supplies it to the display device,
When the first image processing unit detects the image of the individual feature (face), the first image of interest is extracted from the wide area image data based on rectangular information surrounding the image of the individual feature (face). Generating first image area information for cutting out an image of (face image);
The second image processing unit tracks a second attention image (moving body image) based on the motion detection information of the image when the first image processing unit loses tracking of the image of the individual feature (face). And generating second image area information capable of cutting out the second attention image (moving body image) from the wide area image data,
While the second image processing unit is tracking the motion feature, the first image processing unit uses the first image area information for cutting out a first attention image (face image) as the first image area information. The individual feature (face) is virtually tracked based on the second image area information generated by the second image processing unit,
The attention image output unit cuts out the image of the individual feature (face) from the wide area image data based on at least the first image area information and supplies the image to the display device.
A monitoring image processing apparatus characterized by that .
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 When the first image processing unit detects an image of the individual feature (face), the attention image output unit preferentially uses the first image area information.
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 When the first image processing unit loses the tracking of the individual feature (face), the second image processing unit uses the first image region information based on the first image region information. Generating the second image region information having a large region area and starting virtual tracking,
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
前記表示デバイスに対して、前記第1注目画像(顔画像)を入力して表示させると共に、前記第1注目画像(顔画像)に重ねてリサイズした前記広域画像データの画像を入力して表示させる、
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 The data processing device includes:
The display device inputs and displays the first attention image (face image), and inputs and displays the image of the wide area image data resized on the first attention image (face image). ,
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
前記表示デバイスに対して、さらに前記第1注目画像(顔画像)に関する属性情報を入力して表示させる、
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 The data processing device includes:
The display device further inputs and displays attribute information related to the first image of interest (face image) .
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
前記第1の画像処理部が前記個別特徴(顔)の追跡を失っているとき、
前記表示デバイスに対して、前記広域画像データの画像を入力して表示させると共に、前記第2の画像処理部が追跡している第2注目画像(動体画像)をマークとして、前記広域画像データの画像に重ねて表示させる、
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 The data processing device includes:
When the first image processing unit has lost tracking of the individual feature (face),
The display device inputs and displays the image of the wide area image data, and marks the second image of interest (moving body image) tracked by the second image processing unit as a mark. Display it over the image,
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
前記第1の画像処理部は、
前記広角視野監視画像よりも低解像度にビット数を低減させ且つリサイズし、少なくとも2つに分けて第1パノラマ画像、第2パノラマ画像に変換する第1の変換手段と、前記第1パノラマ画像若しくは前記第2パノラマ画像から少なくとも前記個別特徴を追跡する検知及び追跡手段と、前記個別特徴の前記第1パノラマ画像若しくは前記第2パノラマ画像上の座標データを、前記広角視野監視画像上の前記第1の画像領域情報に変換する座標変換手段を備え、前記第1の画像領域情報を生成している、
ことを特徴とする請求項1又は2に記載の監視画像処理装置。 The imaging unit acquires a high-resolution wide-angle visual field monitoring image obtained by imaging a space with a visual angle of 180 ° or more,
The first image processing unit includes:
A first converting means for reducing the number of bits to a resolution lower than that of the wide-angle visual field monitoring image and resizing the first panoramic image and converting it into at least two, and the first panoramic image or Detection and tracking means for tracking at least the individual features from the second panoramic image, and coordinate data on the first panorama image or the second panoramic image of the individual features, the first on the wide-angle visual field monitoring image. Coordinate conversion means for converting the image area information into the first image area information.
The monitoring image processing apparatus according to claim 1 , wherein the monitoring image processing apparatus is a monitoring image processing apparatus.
第1の画像処理部で前記対象物に対応する個別特徴(顔)を追跡し、第2の画像処理部で前記対象物の動き特徴を追跡し、注目画像出力部で、第1注目画像(顔画像)を切り出して前記表示デバイスに供給し、
前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切出すための第1の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴(顔)の追跡を失った場合、画像の動き検出情報に基づいて動き特徴を追跡して、前記広域画像データから第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴(顔)を追跡している間は、前記第2の画像処理部は、前記第2注目画像(動体画像)を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記第2注目画像(動体画像)を仮想追跡し、
少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理方法。 A monitoring image processing method comprising an imaging unit, a data processing device, and a display device, wherein the imaging unit inputs wide-area image data obtained by imaging a space including an object to the data processing device,
The first image processing unit tracks individual features (faces) corresponding to the object, the second image processing unit tracks the movement features of the object, and the attention image output unit performs first attention image ( Cut out the face image) and supply it to the display device,
When the image of the individual feature (face) is detected, the first attention image (face image) is cut out from the wide area image data based on rectangular information surrounding the image of the individual feature (face) Generating first image region information;
When the first image processing unit loses tracking of the individual features (faces), the motion features are tracked based on the motion detection information of the images, and a second attention image (moving body image) is obtained from the wide area image data. Generating second image area information that can be cut out;
While the first image processing unit is tracking the individual feature (face), the second image processing unit is configured to extract the second image for cutting out the second attention image (moving body image). As the area information, the second image of interest (moving body image) is virtually tracked based on the first image area information generated by the first image processing unit,
Cutting out the first image of interest (face image) from the wide-area image data based on at least the first image area information and supplying it to the display device;
And a monitoring image processing method.
第1の画像処理部で前記対象物に対応する個別特徴(顔)を追跡し、第2の画像処理部で前記対象物の動き特徴を追跡し、注目画像出力部で、第1注目画像(顔画像)を切り出して前記表示デバイスに供給し、
前記個別特徴(顔)の画像を検出している場合、前記個別特徴(顔)の画像を囲む矩形情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切出すための第1の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴(顔)の追跡を失った場合、画像の動き検出情報に基づいて動き特徴を追跡して、前記広域画像データから第2注目画像(動体画像)を切出すことができる第2の画像領域情報を生成し、
前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、第1注目画像(顔画像)を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴(顔)を仮想追跡し、
少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記第1注目画像(顔画像)を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理方法。 A monitoring image processing method comprising an imaging unit, a data processing device, and a display device, wherein the imaging unit inputs wide-area image data obtained by imaging a space including an object to the data processing device,
The first image processing unit tracks individual features (faces) corresponding to the object, the second image processing unit tracks the movement features of the object, and the attention image output unit performs first attention image ( Cut out the face image) and supply it to the display device,
When the image of the individual feature (face) is detected, the first attention image (face image) is cut out from the wide area image data based on rectangular information surrounding the image of the individual feature (face) Generating first image region information;
When the first image processing unit loses tracking of the individual features (faces), the motion features are tracked based on the motion detection information of the images, and a second attention image (moving body image) is obtained from the wide area image data. Generating second image area information that can be cut out;
While the second image processing unit is tracking the motion feature, the first image processing unit uses the first image area information for cutting out a first attention image (face image) as the first image area information. The individual feature (face) is virtually tracked based on the second image area information generated by the second image processing unit,
Cutting out the first image of interest (face image) from the wide-area image data based on at least the first image area information and supplying it to the display device;
And a monitoring image processing method.
ことを特徴とする請求項9又は10に記載の監視画像処理方法。The monitoring image processing method according to claim 9 or 10, wherein:
前記第1の画像処理部は、The first image processing unit includes:
前記広角視野監視画像よりも低解像度にビット数を低減させ且つリサイズし、少なくとも2つに分けて第1パノラマ画像、第2パノラマ画像に変換し、The number of bits is reduced and resized to a resolution lower than that of the wide-angle visual field monitoring image, and divided into at least two and converted into a first panoramic image and a second panoramic image,
前記第1パノラマ画像若しくは前記第2パノラマ画像から少なくとも前記個別特徴を追跡し、Tracking at least the individual features from the first panoramic image or the second panoramic image;
前記個別特徴の前記第1パノラマ画像若しくは前記第2パノラマ画像上の座標データを、前記広角視野監視画像上の前記第1の画像領域情報を生成している、Generating the first image area information on the wide-angle visual field monitoring image, the coordinate data on the first panoramic image or the second panoramic image of the individual feature,
ことを特徴とする請求項9又は10に記載の監視画像処理方法。The monitoring image processing method according to claim 9 or 10, wherein:
撮影した広域画像データを前記データ処理装置に入力する装置であって、
前記データ処理装置は、
前記対象物の個別特徴を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴の画像を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴の画像を検出している場合、前記個別特徴の画像を囲む矩形情報に基づいて、前記広域画像データから前記個別特徴の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴の画像の追跡を失った場合、画像の動き検出情報に基づいて動体画像を追跡して、前記広域画像データから前記動体画像を切出すことができる第2の画像領域情報を生成し、
前記第1の画像処理部が前記個別特徴を追跡している間は、前記第2の画像処理部は、前記動体画像を切出すための前記第2の画像領域情報として、前記第1の画像処理部が生成している前記第1の画像領域情報に基づいて前記動体画像を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴の画像を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理装置。 An imaging unit, a data processing device, and a display device, wherein the imaging unit includes a space including an object
An apparatus for inputting captured wide-area image data to the data processing apparatus,
The data processing device includes:
A first image processing unit that tracks individual features of the object, a second image processing unit that tracks movement features of the object, and an attention image that cuts out an image of the individual features and supplies the image to the display device With an output section,
The first image processing unit, when detecting the individual feature image, extracts the individual feature image from the wide area image data based on rectangular information surrounding the individual feature image. 1 image area information is generated,
The second image processing unit tracks a moving body image based on motion detection information of an image when the first image processing unit loses tracking of the image of the individual feature, and from the wide area image data, the Generating second image area information capable of cutting out the moving object image;
While the first image processing unit is tracking the individual feature, the second image processing unit uses the first image as the second image area information for cutting out the moving body image. Virtually tracking the moving object image based on the first image area information generated by the processing unit,
The attention image output unit cuts out the image of the individual feature from the wide area image data based on at least the first image area information and supplies the image to the display device .
A monitoring image processing apparatus characterized by that .
撮影した広域画像データを前記データ処理装置に入力する装置であって、
前記データ処理装置は、
前記対象物の個別特徴を追跡する第1の画像処理部と、前記対象物の動き特徴を追跡する第2の画像処理部と、前記個別特徴の画像を切り出して前記表示デバイスに供給する注目画像出力部を備え、
前記第1の画像処理部は、前記個別特徴の画像を検出している場合、前記個別特徴の画像を囲む矩形情報に基づいて、前記広域画像データから前記個別特徴の画像を切出すための第1の画像領域情報を生成し、
前記第2の画像処理部は、前記第1の画像処理部が前記個別特徴の画像の追跡を失った場合、画像の動き検出情報に基づいて動体画像を追跡して、前記広域画像データから前記動体画像を切出すことができる第2の画像領域情報を生成し、
前記第2の画像処理部が前記動き特徴を追跡している間は、前記第1の画像処理部は、前記個別特徴の画像を切り出すための前記第1の画像領域情報として、前記第2の画像処理部が生成している前記第2の画像領域情報に基づいて前記個別特徴を仮想追跡し、
前記注目画像出力部は、少なくとも前記第1の画像領域情報に基づいて、前記広域画像データから前記個別特徴の画像を切り出して前記表示デバイスに供給する、
ことを特徴とする監視画像処理装置。 An imaging unit, a data processing device, and a display device, wherein the imaging unit includes a space including an object
An apparatus for inputting captured wide-area image data to the data processing apparatus,
The data processing device includes:
A first image processing unit that tracks individual features of the object, a second image processing unit that tracks movement features of the object, and an attention image that cuts out an image of the individual features and supplies the image to the display device With an output section,
The first image processing unit, when detecting the individual feature image, extracts the individual feature image from the wide area image data based on rectangular information surrounding the individual feature image. 1 image area information is generated,
The second image processing unit tracks a moving body image based on motion detection information of an image when the first image processing unit loses tracking of the image of the individual feature, and from the wide area image data, the Generating second image area information capable of cutting out the moving object image;
While the second image processing unit tracks the motion feature, the first image processing unit uses the second image processing unit as the first image area information for cutting out the image of the individual feature. Virtually tracking the individual features based on the second image area information generated by the image processing unit,
The attention image output unit cuts out the image of the individual feature from the wide area image data based on at least the first image area information and supplies the image to the display device.
A monitoring image processing apparatus characterized by that .
前記第1の画像処理部は、The first image processing unit includes:
前記広角視野監視画像よりも低解像度にビット数を低減させ且つリサイズし、少なくとも2つに分けて第1パノラマ画像、第2パノラマ画像に変換する第1の変換手段と、前記第1パノラマ画像若しくは前記第2パノラマ画像から少なくとも前記個別特徴を追跡する検知及び追跡手段と、前記個別特徴の前記第1パノラマ画像若しくは前記第2パノラマ画像上の座標データを、前記広角視野監視画像上の前記第1の画像領域情報に変換する座標変換手段を備え、前記第1の画像領域情報を生成している、A first converting means for reducing the number of bits to a resolution lower than that of the wide-angle visual field monitoring image and resizing the first panoramic image and converting it into at least two, and the first panoramic image or Detection and tracking means for tracking at least the individual features from the second panoramic image, and coordinate data on the first panorama image or the second panoramic image of the individual features, the first on the wide-angle visual field monitoring image. Coordinate conversion means for converting the image area information into the first image area information.
ことを特徴とする請求項13又は14に記載の監視画像処理装置。The monitoring image processing apparatus according to claim 13 or 14, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017005215A JP6440749B2 (en) | 2017-01-16 | 2017-01-16 | Surveillance image processing apparatus and surveillance image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017005215A JP6440749B2 (en) | 2017-01-16 | 2017-01-16 | Surveillance image processing apparatus and surveillance image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018117181A JP2018117181A (en) | 2018-07-26 |
JP6440749B2 true JP6440749B2 (en) | 2018-12-19 |
Family
ID=62984193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005215A Active JP6440749B2 (en) | 2017-01-16 | 2017-01-16 | Surveillance image processing apparatus and surveillance image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6440749B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881866B (en) * | 2020-08-03 | 2024-01-19 | 杭州云栖智慧视通科技有限公司 | Real-time face grabbing recommendation method and device and computer equipment |
WO2023105598A1 (en) * | 2021-12-07 | 2023-06-15 | 株式会社日立国際電気 | Image processing device, image processing system, and image processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4751442B2 (en) * | 2008-12-24 | 2011-08-17 | 株式会社東芝 | Video surveillance system |
JP5978639B2 (en) * | 2012-02-06 | 2016-08-24 | ソニー株式会社 | Image processing apparatus, image processing method, program, and recording medium |
-
2017
- 2017-01-16 JP JP2017005215A patent/JP6440749B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018117181A (en) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9196093B2 (en) | Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium | |
JP6492041B2 (en) | Surveillance image processing apparatus and surveillance image processing method | |
JP6564271B2 (en) | Imaging apparatus, image processing method, program, and storage medium | |
KR20110006878A (en) | Apparatus and method for generating image including a plurality of persons | |
CN108605087B (en) | Terminal photographing method and device and terminal | |
US10348958B2 (en) | Image processing apparatus for performing predetermined processing on a captured image | |
JP2019134269A (en) | Image processing device, image processing method, and program | |
JP2010041586A (en) | Imaging device | |
JP5963006B2 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
JP2013228930A (en) | Subject area detection device, method and program for controlling the same, imaging device and display device | |
JP6440749B2 (en) | Surveillance image processing apparatus and surveillance image processing method | |
JP2010268158A (en) | Image processing system, method of processing image, and program | |
WO2019163558A1 (en) | Image processing device, image processing method, and program | |
JP2020053774A (en) | Imaging apparatus and image recording method | |
TWI477887B (en) | Image processing device, image processing method and recording medium | |
JP5924977B2 (en) | Image processing apparatus and image processing method | |
JP6858007B2 (en) | Image processing system, image processing method | |
JP6104066B2 (en) | Image processing apparatus and image processing method | |
JP2008141568A (en) | Monitoring system, and driving assistant system | |
JP2009244944A (en) | Image-recovering apparatus and photographing apparatus | |
JP2019009615A (en) | Monitoring camera device, monitoring video distribution method, and monitoring system | |
JP2017097799A (en) | Image processor, image processing method and computer program | |
JP2016042661A (en) | Information processing unit, system, information processing method, and program | |
KR101481798B1 (en) | Method and apparatus for generating bulb shutter image | |
KR20130032578A (en) | Method and system for extracting image using thermal camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6440749 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |