JP6270111B2 - Mobile object display system and mobile object display program - Google Patents

Mobile object display system and mobile object display program Download PDF

Info

Publication number
JP6270111B2
JP6270111B2 JP2013216551A JP2013216551A JP6270111B2 JP 6270111 B2 JP6270111 B2 JP 6270111B2 JP 2013216551 A JP2013216551 A JP 2013216551A JP 2013216551 A JP2013216551 A JP 2013216551A JP 6270111 B2 JP6270111 B2 JP 6270111B2
Authority
JP
Japan
Prior art keywords
image
gaze
moving object
moving body
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013216551A
Other languages
Japanese (ja)
Other versions
JP2015080107A (en
Inventor
村田 正和
正和 村田
俊明 川口
俊明 川口
啓義 森田
啓義 森田
勝造 伊藤
勝造 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority to JP2013216551A priority Critical patent/JP6270111B2/en
Publication of JP2015080107A publication Critical patent/JP2015080107A/en
Application granted granted Critical
Publication of JP6270111B2 publication Critical patent/JP6270111B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、移動体表示システムおよび移動体表示プログラムに関する。   The present invention relates to a mobile object display system and a mobile object display program.

移動体を自動追尾して監視するシステムの従来例として複数の旋回カメラを備えたものが挙げられる。例えば特許文献1には、広い撮像範囲にわたって移動物体を撮像する移動物体検出用カメラと、移動物体を拡大して捕捉する監視用カメラとを備え、移動物体の位置に応じて両カメラを旋回制御する監視カメラシステムが記載されている。しかしこのような複数の旋回カメラを要するシステムは、カメラの旋回駆動手段もそれぞれ要することから高価なシステムになりやすい。   As a conventional example of a system for automatically tracking and monitoring a moving body, a system including a plurality of turning cameras can be cited. For example, Patent Document 1 includes a moving object detection camera that images a moving object over a wide imaging range and a monitoring camera that magnifies and captures the moving object, and turns both cameras according to the position of the moving object. A surveillance camera system is described. However, such a system that requires a plurality of turning cameras tends to be an expensive system because it also requires turning means for the cameras.

一方、非旋回式のカメラとして、カメラの周囲のほぼ180°の半球視野の空間を魚眼画像(以降、全周画像という)として撮影する魚眼レンズカメラ(以降、全方位カメラという)が知られており、特許文献2には全方位カメラで撮影した画像を補正する技術について記載されている。全方位カメラを用いることにより、カメラが一台で済み、カメラの旋回駆動手段も要らないので安価なシムテムが期待できる。   On the other hand, a fish-eye lens camera (hereinafter referred to as an omnidirectional camera) that captures a 180-degree hemispherical field space around the camera as a fisheye image (hereinafter referred to as an all-round image) is known as a non-rotating camera. Patent Document 2 describes a technique for correcting an image taken by an omnidirectional camera. By using an omnidirectional camera, only one camera is required, and no camera turning drive means is required, so an inexpensive shim tem can be expected.

特開平11−103457号公報JP-A-11-103457 特許第4048511号公報Japanese Patent No. 4048511

従来、全方位カメラを用いたシステムで監視対象を監視モニタに表示する場合、前記した全周画像および注視画像の内のどちらか一方のみが表示されるようになっている。ここでいう「注視画像」とは、全周画像に任意角度の視点パラメータを与えて補正した画像であり、注視対象、例えば移動体が位置する領域の拡大画像である。前記視点パラメータの付与は、監視モニタに表示されている全周画像の内で注視対象が存在する領域を監視者がパソコンのマウス操作で指定することにより行われる。図11(a)は監視モニタに表示される全周画像V1のイメージ図である。円Cの内側の領域が全方位カメラで魚眼状に歪曲して表示される部分であり、円Cの外側の領域はCCD素子から得られる外枠として黒く映る(図では便宜上網掛けにて示す)。従来、全周画像V1に映っている移動体(人物)Jを注視したい場合、監視者は移動体J周りの領域Aをマウス操作で指定する。このマウス操作により視点パラメータが付与され、監視モニタには、全周画像V1に替えて、領域Aの補正された拡大画像である注視画像V2(図11(b))が表示される。   Conventionally, when a monitoring target is displayed on a monitoring monitor in a system using an omnidirectional camera, only one of the all-round image and the gaze image is displayed. The “gaze image” here is an image that is corrected by giving a viewpoint parameter at an arbitrary angle to the all-round image, and is an enlarged image of an area where a gaze target, for example, a moving body is located. The assigning of the viewpoint parameter is performed when the supervisor designates an area where the gaze target exists in the all-round image displayed on the monitoring monitor by operating the mouse of the personal computer. FIG. 11A is an image diagram of the all-round image V1 displayed on the monitoring monitor. The area inside the circle C is a portion that is distorted and displayed in a fish-eye shape by an omnidirectional camera, and the area outside the circle C appears black as an outer frame obtained from the CCD element (in the figure, it is shaded for convenience) Show). Conventionally, when it is desired to watch the moving object (person) J shown in the all-round image V1, the supervisor designates the area A around the moving object J by operating the mouse. A viewpoint parameter is given by this mouse operation, and a gaze image V2 (FIG. 11B) which is a corrected enlarged image of the region A is displayed on the monitoring monitor instead of the all-round image V1.

しかしながら、マウス操作により注視画像V2を表示させる技術では、移動体Jが移動すると図11(c),(d)に示すように、移動体Jが注視画像V2の縁部に表示されたり注視画像V2から外れることがある。その場合、監視者は再び全周画像V1に戻し、移動体J周りの領域Aをマウス操作で再指定することとなり、注視画像V2の取扱いに手間がかかる。   However, in the technique for displaying the gaze image V2 by operating the mouse, when the moving body J moves, as shown in FIGS. 11C and 11D, the moving body J is displayed on the edge of the gaze image V2, or the gaze image is displayed. May deviate from V2. In this case, the monitor returns to the all-round image V1 again, and the area A around the moving body J is redesignated by the mouse operation, which takes time to handle the gaze image V2.

本発明は、このような問題を解決するために創作されたものであり、安価で済み、手間のかかる操作を要さずに注視画像を表示できる移動体表示システムおよび移動体表示プログラムを提供することを目的としている。   The present invention has been created to solve such problems, and provides a mobile object display system and a mobile object display program that are inexpensive and can display a gaze image without requiring troublesome operations. The purpose is that.

本発明は、前記課題を解決するため、カメラの半球視野の空間を全周画像として撮影する全方位カメラを備え、前記全周画像の内の円内側の実質撮影領域をモニタの中央に表示する移動体表示システムにおいて、前記全方位カメラの撮影画像から移動体を検出および追跡する移動体抽出部と、前記移動体抽出部により追跡される移動体周りを拡大して注視画像として生成する注視画像生成部と、前記注視画像生成部により生成された注視画像が全周画像の一部に重なる構成の合成画像を生成し、当該合成画像をモニタに表示させる合成画像生成部と、を備え、前記合成画像生成部は、新規の移動体の注視画像を全周画像のコーナー部に優先して配置することを特徴とする。 In order to solve the above-mentioned problem, the present invention includes an omnidirectional camera that captures a space in the hemispherical field of view of the camera as an all-round image, and displays a substantial imaging region inside the circle of the all-round image at the center of the monitor. In the moving object display system, a moving object extracting unit that detects and tracks a moving object from a captured image of the omnidirectional camera, and a gaze image that generates a gaze image by enlarging the periphery of the moving object tracked by the moving object extracting unit. comprising a generator, the gaze image generated by the gaze image generating unit generates a composite image of the structure that overlaps a portion of the entire periphery image and the composite image generating unit for displaying the composite image monitor, a, The composite image generation unit is characterized in that a gaze image of a new moving object is arranged with priority over a corner portion of an all-round image .

この移動体表示システムによれば、以下の効果が奏される。
(1)全周画像と注視画像とが同時に表示されるため、広範囲をカバーする全周画像を監視することでおおまかな人数確認や人物の動線を容易に把握しつつ、注視画像によりある人物の動きを詳細に把握できる。
(2)カメラとして単体の全方位カメラのみで済むため、広い撮像範囲をカバーする移動物体検出用カメラおよび移動物体を拡大して捕捉する監視用カメラの2台を要する従来技術に比して安価な表示システムとなる。
(3)移動体抽出部の移動体追跡機能により注視画像に常に移動体を自動表示させることができ、注視画像の表示にマウス操作等の人的操作を要さない。
According to this mobile object display system, the following effects are produced.
(1) Since the all-around image and the gaze image are displayed at the same time, monitoring the all-around image covering a wide area makes it possible to easily grasp the general number of people and grasp the flow of the person, and The movement of the can be grasped in detail.
(2) Since only a single omnidirectional camera is required as a camera, it is less expensive than the prior art that requires two cameras, a moving object detection camera that covers a wide imaging range and a monitoring camera that enlarges and captures the moving object. Display system.
(3) The moving object tracking unit of the moving object extracting unit can always automatically display the moving object on the gaze image, and no human operation such as a mouse operation is required to display the gaze image.

全周画像の内で円内側の実質撮影領域以外の外枠部分は非撮影領域であり、この非撮影領域はコーナー部で広く占める。したがって、注視画像の矩形の大きさが全周画像の実質撮影領域に重なるほどのサイズであった場合、注視画像をコーナー部に優先的に配置することで、全周画像に対する注視画像の重なり代を抑え、全周画像の監視の妨げを抑制できる。   The outer frame portion other than the substantial imaging area inside the circle in the entire circumference image is a non-imaging area, and this non-imaging area is widely occupied by the corner portion. Accordingly, when the size of the rectangular image of the gaze image is large enough to overlap the substantial shooting area of the entire circumference image, the gaze image is preferentially arranged in the corner portion, so that the overlap amount of the gaze image with respect to the entire circumference image is increased. And the hindrance to the monitoring of the all-around image can be suppressed.

また、本発明は、前記合成画像生成部は、新規の移動体の注視画像を、空いている全周画像のコーナー部の内で前記移動体の重心座標から最も遠いコーナー部に配置することを特徴とする。   Further, according to the present invention, the composite image generation unit arranges the gaze image of the new moving body at a corner portion farthest from the center of gravity coordinates of the moving body among the corner portions of the vacant all-round image. Features.

この移動体表示システムによれば、全周画像における移動体の位置と注視画像との間の距離を大きくとれるため、全周画像において移動体が移動して注視画像に隠れる頻度を確率的に減らすことができる。   According to this moving body display system, since the distance between the position of the moving body and the gaze image in the all-round image can be increased, the frequency at which the moving body moves and is hidden in the gaze image in the all-round image is probabilistically reduced. be able to.

また、本発明は、前記全周画像は横長画像であって、前記合成画像生成部は、全てのコーナー部に注視画像が既に配置されているときには、新規の移動体の注視画像を、左右の縁中央部の内で前記移動体の重心座標から遠い縁中央部に配置することを特徴とする。   Further, according to the present invention, the all-round image is a horizontally long image, and the composite image generation unit displays a gaze image of a new moving object when the gaze image is already arranged at all corners. It arrange | positions in the edge center part far from the gravity center coordinate of the said mobile body within the edge center part.

この移動体表示システムによれば、コーナー部に次いで非撮影領域を広く占める左右の縁中央部に注視画像を配置することで、全周画像に対する注視画像の重なり代を極力抑え、全周画像の監視の妨げを抑制できる。また、移動体の重心座標から遠い縁中央部に配置することで、全周画像における移動体の位置と注視画像との間の距離を大きくとれるため、全周画像において移動体が移動して注視画像に隠れる頻度を減らすことができる。   According to this mobile object display system, the gaze image is arranged at the center of the right and left edges that occupy the non-photographing area next to the corner portion, thereby suppressing the overlap margin of the gaze image with respect to the all-round image as much as possible. The obstruction of monitoring can be suppressed. Moreover, since the distance between the position of the moving body and the gaze image in the all-round image can be increased by arranging it at the center of the edge far from the center of gravity coordinates of the moving body, the moving body moves in the all-round image and gazes. The frequency of hiding in the image can be reduced.

また、本発明は、前記合成画像生成部は、左右の縁中央部に注視画像が既に配置されているときには、新規の移動体の注視画像を、上下の縁中央部の内で前記移動体の重心座標から遠い縁中央部に配置することを特徴とする。   Further, according to the present invention, when the gaze image has already been arranged at the left and right edge center portions, the synthesized image generation unit displays the gaze image of the new moving body within the upper and lower edge center portions. It is arranged at the center of the edge far from the barycentric coordinates.

この移動体表示システムによれば、左右の縁中央部に次いで非撮影領域を広く占める上下の縁中央部に注視画像を配置することで、全周画像に対する注視画像の重なり代を極力抑え、全周画像の監視の妨げを抑制できる。また、移動体の重心座標から遠い縁中央部に配置することで、全周画像における移動体の位置と注視画像との間の距離を大きくとれるため、全周画像において移動体が移動して注視画像に隠れる頻度を減らすことができる。   According to this mobile object display system, the overlap of the gaze image with respect to the all-around image is suppressed as much as possible by arranging the gaze image at the middle of the upper and lower edges that occupy the non-photographing area next to the center of the left and right edges. It is possible to suppress the hindrance to monitoring the peripheral images. Moreover, since the distance between the position of the moving body and the gaze image in the all-round image can be increased by arranging it at the center of the edge far from the center of gravity coordinates of the moving body, the moving body moves in the all-round image and gazes. The frequency of hiding in the image can be reduced.

また、本発明は、前記移動体抽出部は、Pピクチャフレームに含まれるイントラ符号化のマクロブロックと順方向予測符号化であって動きベクトルがしきい値T以上のマクロブロックとを同じ画素値とする2値化の移動物体マップを作成し、前記画素値の集合体を囲む動き領域を作成し、前記動き領域中のイントラ符号化のマクロブロック数がしきい値T以上であるとき、前記集合体を移動体として検出することを特徴とする。 Further, the present invention, the mobile object extraction unit, the same pixel motion vector a macroblock and forward predictive coding of intra encoding a threshold value above T 1 of macroblocks contained in a P-picture frame When a binary moving object map is created as a value, a motion region surrounding the aggregate of pixel values is created, and the number of intra-coded macroblocks in the motion region is greater than or equal to a threshold T 2 The assembly is detected as a moving body.

この移動体表示システムによれば、低フレームレート(例えば8fps)の圧縮ビデオデータにおいても移動体を精度良く検出できる。   According to this moving object display system, a moving object can be accurately detected even in compressed video data at a low frame rate (for example, 8 fps).

また、本発明は、前記移動体抽出部は、直前Pピクチャフレームと現Pピクチャフレームとの間で同一のIDを持つ動き領域の重心を結ぶ擬似慣性ベクトルを求め、当該擬似慣性ベクトルから現Pピクチャフレームの動き領域の位置を予測することを特徴とする。   Further, according to the present invention, the moving body extraction unit obtains a pseudo inertia vector connecting the centroids of motion regions having the same ID between the immediately preceding P picture frame and the current P picture frame, and the current P is calculated from the pseudo inertia vector. It is characterized by predicting the position of a motion region of a picture frame.

この移動体表示システムによれば、低フレームレート(例えば8fps)の圧縮ビデオデータにおいても移動体の追跡精度が向上する。   According to this mobile object display system, the tracking accuracy of the mobile object is improved even in compressed video data at a low frame rate (for example, 8 fps).

また、本発明は、コンピュータに、カメラの半球視野の空間を全周画像として撮影する全方位カメラの撮影画像から移動体を検出および追跡する移動体抽出ステップと、前記移動体抽出ステップにより追跡される移動体周りを拡大して注視画像として生成する注視画像生成ステップと、前記注視画像生成ステップにより生成された注視画像が全周画像の一部に重なる構成の合成画像を生成し、当該合成画像をモニタに表示させる合成画像生成ステップと、を実行させ、前記合成画像生成ステップは、新規の移動体の注視画像を全周画像のコーナー部に優先して配置することを特徴とする。 In addition, the present invention is tracked by a moving object extraction step of detecting and tracking a moving object from a captured image of an omnidirectional camera that captures the space of the hemispherical field of view of the camera as an all-round image on the computer, and the moving object extraction step. Generating a synthesized image having a configuration in which the gaze image generated in the gaze image generation step overlaps a part of the entire circumference image, and generates a synthesized image. a synthetic image generation step of displaying on the monitor, is the execution, the composite image generating step is characterized by placing preferentially gaze image of the new mobile to the corner portion of the entire periphery image.

この移動体表示プログラムによれば、以下の効果が奏される。
(1)全周画像と注視画像とが同時に表示されるため、広範囲をカバーする全周画像を監視することでおおまかな人数確認や人物の動線を容易に把握しつつ、注視画像によりある人物の動きを詳細に把握できる。
(2)単体の全方位カメラの撮影画像に関する表示プログラムとなるため、広い撮像範囲をカバーする移動物体検出用カメラおよび移動物体を拡大して捕捉する監視用カメラの2台を要する従来技術に比して簡単な表示プログラムとなる。
(3)移動体抽出部の移動体追跡機能により注視画像に常に移動体を自動表示させることができ、注視画像の表示にマウス操作等の人的操作を要さない。
According to this moving body display program, the following effects are produced.
(1) Since the all-around image and the gaze image are displayed at the same time, monitoring the all-around image covering a wide area makes it possible to easily grasp the general number of people and grasp the flow of the person, and The movement of the can be grasped in detail.
(2) Since this is a display program related to a captured image of a single omnidirectional camera, compared to the conventional technology requiring two cameras, a moving object detection camera that covers a wide imaging range and a monitoring camera that expands and captures the moving object. And a simple display program.
(3) The moving object tracking unit of the moving object extracting unit can always automatically display the moving object on the gaze image, and no human operation such as a mouse operation is required to display the gaze image.

本発明によれば、安価で、手間のかかる操作を要さずに注視画像を表示できる移動体表示システムとなる。   Advantageous Effects of Invention According to the present invention, a mobile object display system that is inexpensive and can display a gaze image without requiring a laborious operation.

本実施形態の移動表示システムの構成ブロック図である。1 is a configuration block diagram of a mobile display system of an embodiment. 合成画像における注視画像の表示位置を示す説明図である。It is explanatory drawing which shows the display position of the gaze image in a synthesized image. 合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of a synthesized image. (a),(b)はそれぞれ動き検出部,動き追跡部の構成ブロック図である。(A), (b) is a block diagram of the configuration of the motion detection unit and the motion tracking unit, respectively. 移動物体マップおよび動き領域のイメージ図である。It is an image figure of a moving object map and a motion area. 動き検出部の処理フロー図である。It is a processing flow figure of a motion detection part. 動き追跡部の処理フロー図である。It is a processing flow figure of a motion tracking part. 全周画像から所定の矩形領域を抽出する方法を示す平面図である。It is a top view which shows the method of extracting a predetermined | prescribed rectangular area | region from a perimeter image. 歪曲平面画像から極座標変換により視点パラメータを求める方法を示す斜視図である。It is a perspective view which shows the method of calculating | requiring a viewpoint parameter by polar coordinate transformation from a distortion plane image. 注視画像の表示位置決定の一例を示すフロー図である。It is a flowchart which shows an example of the display position determination of a gaze image. 従来の注視画像の表示方法を示す説明図である。It is explanatory drawing which shows the display method of the conventional gaze image.

図1において、本実施形態の移動体表示システム1は、カメラの周囲(全方位360°)であって例えばほぼ180°の半球レンズの視野の空間を全周画像V1(図2)として撮影する全方位カメラ2を備える。全方位カメラ2は、例えば撮影した画像データを、H.264規格の圧縮ビデオデータとJPEGデータの2種のデータとして同時配信可能なカメラである。一般にモニタ6の表示部は横長矩形状であるため、これに表示される全周画像V1は図2に示すように横長矩形の画像である。全周画像V1は、その円Cの内側が魚眼状に歪曲して表示される実質撮影領域であり、円Cの外側領域はCCD素子から得られる外枠として黒く映る領域(図では便宜上網掛けにて示す)である。   In FIG. 1, the mobile object display system 1 of the present embodiment captures a space around the camera (360 ° in all directions) and a field of view of a hemispherical lens, for example, approximately 180 ° as a full-circle image V1 (FIG. 2). An omnidirectional camera 2 is provided. The omnidirectional camera 2 is a camera that can simultaneously deliver captured image data as two types of data, compressed video data of the H.264 standard and JPEG data. In general, since the display unit of the monitor 6 has a horizontally long rectangular shape, the all-round image V1 displayed on the monitor 6 is a horizontally long rectangular image as shown in FIG. The all-round image V1 is a substantial photographing region in which the inside of the circle C is displayed in a fish-eye distorted manner, and the outer region of the circle C is a region that appears black as an outer frame obtained from the CCD element (in the figure, for convenience, a mesh). (Indicated by multiplication).

図1において、移動体表示システム1は、全方位カメラ2の撮影画像から移動体を検出および追跡する移動体抽出部3と、移動体抽出部3により追跡される移動体周りを拡大して注視画像V2(図2)として生成する注視画像生成部4と、注視画像生成部4により生成された注視画像V2が全周画像V1の一部に重なる構成の合成画像V3を生成し、この合成画像V3をモニタ6に表示させる合成画像生成部5と、を備える。   In FIG. 1, a moving body display system 1 detects a moving body from a captured image of an omnidirectional camera 2 and a moving body extracting unit 3 that detects and tracks the moving body, and enlarges a gaze around the moving body tracked by the moving body extracting unit 3. A gaze image generation unit 4 generated as an image V2 (FIG. 2), and a composite image V3 having a configuration in which the gaze image V2 generated by the gaze image generation unit 4 overlaps a part of the entire circumference image V1 are generated. And a composite image generation unit 5 that displays V3 on the monitor 6.

「移動体抽出部3」
本実施形態の移動体抽出部3は、図4に示す動き検出部11と動き追跡部21とを備えて構成される。
"Moving object extraction unit 3"
The moving body extraction unit 3 according to the present embodiment includes the motion detection unit 11 and the motion tracking unit 21 illustrated in FIG.

「動き検出部11」
図4(a)において、動き検出部11は、符号化判定部12と、動きベクトル算出部13と、2値化処理部14と、動き領域作成部15と、移動体特定部16と、を備える。
"Motion detector 11"
In FIG. 4A, the motion detection unit 11 includes an encoding determination unit 12, a motion vector calculation unit 13, a binarization processing unit 14, a motion region creation unit 15, and a moving body identification unit 16. Prepare.

「符号化判定部12」
符号化判定部12は、全方位カメラ2で撮影されH.264規格で処理された圧縮ビデオデータをH.264キャプチャ部7(図1)を経由して入力する。圧縮ビデオデータは、3つのフレーム符号化モード(フレーム内符号化フレーム(Iピクチャフレーム),順方向予測フレーム(Pピクチャフレーム),双方向予測フレーム(Bピクチャフレーム))を含む。また、圧縮ビデオデータは、マクロブロックを構成するブロックの圧縮に用いられるブロック符号化モードとして、フレーム内のみの情報を用いるイントラ符号化と、過去のフレームを参照する順方向予測符号化とを含む。符号化判定部12は、各Pピクチャフレームに含まれる個々のマクロブロックの符号化が、イントラ符号化であるか或いは順方向予測符号化であるかの判定を行う。
"Encoding determination unit 12"
The encoding determination unit 12 inputs compressed video data captured by the omnidirectional camera 2 and processed according to the H.264 standard via the H.264 capture unit 7 (FIG. 1). The compressed video data includes three frame coding modes (an intra-frame coding frame (I picture frame), a forward prediction frame (P picture frame), and a bidirectional prediction frame (B picture frame)). Further, the compressed video data includes intra coding using only information in a frame and forward predictive coding referring to a past frame as a block coding mode used for compression of a block constituting a macroblock. . The encoding determination unit 12 determines whether the encoding of individual macroblocks included in each P picture frame is intra encoding or forward predictive encoding.

「動きベクトル算出部13」
符号化判定部12により順方向予測符号化と判定されたマクロブロックについて、動きベクトル算出部13は、H.264規格で実装された動きベクトル検出部(図示せず)から動きベクトルを取得し、マクロブロック全体の動きベクトルを算出する。例として、縦16×横16画素からなるマクロブロックに対し、複数のパーティション(例えば縦8×横8画素のブロックサイズ)に分け、各パーティションの動きベクトルからマクロブロック全体の動きベクトルを算出する。
"Motion vector calculation unit 13"
For the macroblock determined to be forward prediction encoding by the encoding determination unit 12, the motion vector calculation unit 13 acquires a motion vector from a motion vector detection unit (not shown) implemented in the H.264 standard, The motion vector of the entire macro block is calculated. As an example, a macroblock consisting of 16 × 16 pixels is divided into a plurality of partitions (for example, a block size of 8 × 8 pixels), and the motion vector of the entire macroblock is calculated from the motion vector of each partition.

「2値化処理部14」
符号化判定部12によりイントラ符号化と判定されたマクロブロックについて、2値化処理部14は、そのマクロブロックに対応した画素値を1とする。また、符号化判定部12により順方向予測符号化と判定されたマクロブロックについて、2値化処理部14は、動きベクトル算出部13で算出された動きベクトルの大きさがしきい値T以上であるとき、そのマクロブロックに対応した画素値を1とし、しきい値T未満であるとき、そのマクロブロックに対応した画素値を0とする。
Binarization processing unit 14”
For a macroblock determined to be intra-coded by the encoding determination unit 12, the binarization processing unit 14 sets the pixel value corresponding to the macroblock to 1. Further, the encoding determining unit 12 for the forward predictive coding and the determined macroblocks, binarization processing section 14, the magnitude of the motion vector calculated by the motion vector calculation unit 13 is the threshold value above T 1 when the pixel values corresponding to the macroblock is 1 and when it is less than the threshold value T 1, the pixel values corresponding to the macroblock to zero.

「動き領域作成部15」
2値化処理部14によって作成された2値化の分布図(移動物体マップ17(図5))において、動き領域作成部15は、例えば、上下左右の4方向において画素値1で連結した、いわゆる「4連結」の成分、あるいは、さらに斜め4方向を加えた「8連結」の成分(以降、集合体Sという)を囲む矩形領域を作成する。以下、この矩形領域を動き領域BBoxと呼ぶ。図5の移動物体マップ17では、画素値「1」を白、画素値「0」を黒(便宜上、灰色にて示す)として示してあり、動き領域BBoxが3箇所作成された場合を示している。
“Movement area creation unit 15”
In the binarization distribution map (moving object map 17 (FIG. 5)) created by the binarization processing unit 14, the motion region creation unit 15 is connected with a pixel value 1 in, for example, four directions, up, down, left, and right. A rectangular region surrounding a so-called “4-connected” component or an “8-connected” component (hereinafter referred to as an aggregate S) with four additional oblique directions is created. Hereinafter, this rectangular area is referred to as a motion area BBox. In the moving object map 17 of FIG. 5, the pixel value “1” is shown as white, the pixel value “0” is shown as black (shown in gray for convenience), and a case where three moving regions BBox are created is shown. Yes.

「移動体特定部16」
移動体特定部16は、動き領域作成部15で作成された動き領域BBoxについて、動き領域BBox中に含まれているイントラ符号化のマクロブロック数が或るしきい値T以上であれば、その動き領域BBox内の集合体Sが移動体であるとみなし、該移動体を特定する。例えば図5では、2つの動き領域BBox,動き領域BBoxがそれぞれのイントラ符号化のマクロブロック数がしきい値T以上であったとして移動体であるとみなされ、動き領域BBoxはイントラ符号化のマクロブロック数がしきい値T未満であったとしてノイズとみなされる。
"Moving object identification unit 16"
Mobile identification unit 16, the motion region BBox created by the motion region creating section 15, if the number of macroblocks intra-coded contained in the motion area BBox is certain threshold T 2 or more, The assembly S in the motion region BBox is regarded as a moving body, and the moving body is specified. For example, in FIG. 5, two motion regions BBox 1 and motion region BBox 2 are regarded as moving bodies when the number of intra-coded macroblocks is greater than or equal to a threshold T 2 , and motion region BBox 3 is number of macroblocks intra-coded is considered noise as was less than the threshold T 2.

図6は動き検出部11の処理フロー図である。符号化判定部12は、各Pピクチャフレームに含まれる個々のマクロブロックの符号化がイントラ符号化であるか順方向予測符号化であるかの判定を行い(ステップS101)、イントラ符号化であれば2値化処理部14はそのマクロブロックに対応した画素値を1とする(ステップS102)。ステップS101で順方向予測符号化であれば、動きベクトル算出部13はそのマクロブロック全体の動きベクトルを算出する(ステップS103)。動きベクトルがしきい値T以上であるかの判定を行い(ステップS104)、2値化処理部14は、しきい値T以上であればそのマクロブロックに対応した画素値を1とし(ステップS105)、しきい値T未満であればそのマクロブロックに対応した画素値を0とする(ステップS106)。 FIG. 6 is a process flow diagram of the motion detector 11. The encoding determination unit 12 determines whether encoding of individual macroblocks included in each P picture frame is intra encoding or forward predictive encoding (step S101). For example, the binarization processing unit 14 sets the pixel value corresponding to the macroblock to 1 (step S102). If it is forward prediction encoding in step S101, the motion vector calculation part 13 will calculate the motion vector of the whole macroblock (step S103). Motion vector makes a determination of whether the threshold value above T 1 (step S104), 2 binarization processing unit 14, if the threshold value above T 1 and the pixel values corresponding to the macroblock 1 ( step S105), the pixel values corresponding to the macroblock to 0 if less than the threshold value T 1 (step S106).

2値化処理部14は、ステップS102,S105,S106で得られた画素値から移動物体マップ17を作成し(ステップS107)、動き領域作成部15は画素値1の集合体Sを囲う動き領域BBoxを作成する(ステップS108)。移動体特定部16は、動き領域BBox内のイントラマクロブロック数が或るしきい値T以上であるかの判定を行い(ステップS109)、しきい値T以上であればその動き領域BBox内に移動体があると特定し(ステップS110)、しきい値T未満であればノイズと特定する(ステップS111)。 The binarization processing unit 14 creates the moving object map 17 from the pixel values obtained in steps S102, S105, and S106 (step S107), and the motion region creation unit 15 moves the motion region that surrounds the set S of pixel values 1. A BBox is created (step S108). Mobile identification unit 16, the number of intra-macro blocks in the motion area BBox makes a determination of whether there are certain threshold T 2 or more (step S109), the moving area if the threshold value T 2 or more BBox identified that there is a moving body within (step S110), and identified as noise is less than the threshold T 2 (step S111).

「動き追跡部21」
図4(b)において、動き追跡部21は、動き領域予測部22と、動き領域比較判定部23と、ID割り振り部24と、を備える。
"Motion tracking unit 21"
4B, the motion tracking unit 21 includes a motion region prediction unit 22, a motion region comparison determination unit 23, and an ID allocation unit 24.

「動き領域予測部22」
動き領域予測部22は、直前フレームにおいて移動体特定部16により移動体があるとみなされた動き領域BBoxの移動ベクトル(これを擬似慣性ベクトルという)から、現フレームにおける動き領域BBoxの位置を予測する。擬似慣性ベクトルとは、隣接したPピクチャフレーム間で後記するように同一のIDを持つ動き領域BBoxの重心を結ぶベクトル(始点が直前フレームの重心、終点が現フレームの重心)である。
“Motion Region Prediction Unit 22”
The motion region prediction unit 22 predicts the position of the motion region BBox in the current frame from the motion vector of the motion region BBox that is considered to have a moving body in the immediately preceding frame (this is referred to as a pseudo inertia vector). To do. The pseudo inertia vector is a vector (the start point is the center of the immediately preceding frame and the end point is the center of the current frame) that connects the centers of the motion regions BBox having the same ID as described later between adjacent P picture frames.

「動き領域比較判定部23」
動き領域比較判定部23は、動き領域予測部22で予測された動き領域BBoxの位置に基づいて、現フレームで動き領域作成部15により作成された動き領域BBoxに対し、直前フレームの動き領域BBoxとの類似度(例えば矩形の重なり率および擬似慣性ベクトル方向の近似率)を算出し、両フレーム間での動き領域BBoxの比較判定を行う。
"Motion region comparison / determination unit 23"
Based on the position of the motion region BBox predicted by the motion region prediction unit 22, the motion region comparison / determination unit 23 compares the motion region BBox of the previous frame with the motion region BBox created by the motion region creation unit 15 in the current frame. (For example, the rectangular overlap rate and the approximate rate in the pseudo inertia vector direction) are calculated, and the motion region BBox is compared and determined between both frames.

「ID割り振り部24」
動き領域比較判定部23で比較された現フレームの動き領域BBoxの中で、直前フレームの動き領域BBoxと所定のしきい値T以上の類似度がある内で最大の類似度を持つ動き領域BBoxに対して、直前フレームの動き領域BBoxのIDと同一のIDを割り振る。しきい値T未満の類似度の動き領域BBoxはノイズとみなす。異なる移動体同士が交差するとき等にはそれぞれの移動体の動き領域BBoxが重なり、一つの大きな動き領域BBoxが形成されることになるが、前記擬似慣性ベクトルと各IDの割り振り保持により各移動体の追跡精度が向上する。
"ID allocation unit 24"
Among the motion area BBox of the current frame compared with the moving area comparison section 23, a motion region having the greatest similarity among there is a motion area BBox with a predetermined threshold value T 3 or more similarity previous frame The same ID as the ID of the motion area BBox of the immediately preceding frame is assigned to BBox. Motion area BBox similarity smaller than the threshold value T 3 is regarded as noise. When different mobile bodies cross each other, the motion areas BBox of the respective mobile bodies are overlapped to form one large motion area BBox, but each movement is performed by allocating and holding the pseudo inertia vector and each ID. Body tracking accuracy is improved.

図7は動き追跡部21の処理フロー図である。動き領域予測部22は、動き領域BBoxの擬似慣性ベクトルを取得し(ステップS201)、この擬似慣性ベクトルから、現フレーム(フレーム(t+1))の動き領域BBoxの位置を予測する(ステップS202)。動き領域比較判定部23は直前フレーム(フレーム(t))と現フレーム(フレーム(t+1))との間で動き領域BBoxの比較を行う(ステップS203,S204)。類似度がしきい値T以上である動き領域BBoxが複数存在した場合、その中で類似度が最大であれば(ステップS205のYES)、同一の移動体と特定し、現フレームの動き領域BBoxに直前の動き領域BBoxと同じIDを割り振る(ステップS206)。ステップS205のNOの場合には別の移動体と特定される(ステップS207)。また、ステップS204でしきい値T未満である場合にはノイズと特定される(ステップS208)。 FIG. 7 is a process flow diagram of the motion tracking unit 21. The motion region prediction unit 22 acquires a pseudo inertia vector of the motion region BBox (step S201), and predicts the position of the motion region BBox of the current frame (frame (t + 1)) from the pseudo inertia vector (step S202). The motion region comparison / determination unit 23 compares the motion region BBox between the immediately preceding frame (frame (t)) and the current frame (frame (t + 1)) (steps S203 and S204). If the motion region BBox degree of similarity is the threshold T 3 or there are a plurality, if the maximum similarity among them (YES in step S205), identifies the same mobile, the current frame motion region The same ID as that of the immediately preceding motion region BBox is assigned to BBox (step S206). In the case of NO in step S205, it is specified as another moving body (step S207). Also identified as noise if less than the threshold value T 3 in step S204 (step S208).

「注視画像生成部4」
図1において、全方位カメラ2からH.264規格の圧縮ビデオデータと同時配信されるJPEGデータは、JPEGキャプチャ部8,RGBデコード部9を経由して注視画像生成部4に全周画像V1として入力される。全周画像V1から注視画像V2を作成するにあたっては、視点パラメータおよび拡大率が必要となる。本実施形態では、図8に示すように抽出した矩形情報(動き領域作成部15で作成した動き領域BBox)において、矩形の重心Gから視点パラメータを算出し、矩形の大きさから拡大率を算出することによって注視画像V2を作成する。全周画像V1は理論的に半球画像で表すことができるので、図9に示すように重心Gに対応する視点パラメータを極座標変換によって算出し、拡大率と合わせて注視画像V2を出力する。
"Gaze image generator 4"
In FIG. 1, JPEG data that is simultaneously distributed from the omnidirectional camera 2 with the compressed video data of the H.264 standard is passed through the JPEG capture unit 8 and the RGB decoding unit 9 to the gaze image generation unit 4 as an all-round image V1. Entered. In creating the gaze image V2 from the entire circumference image V1, viewpoint parameters and an enlargement ratio are required. In this embodiment, in the rectangle information extracted as shown in FIG. 8 (the motion region BBox created by the motion region creation unit 15), the viewpoint parameter is calculated from the center of gravity G of the rectangle, and the enlargement ratio is calculated from the size of the rectangle. By doing so, the gaze image V2 is created. Since the all-round image V1 can theoretically be represented by a hemispherical image, the viewpoint parameter corresponding to the center of gravity G is calculated by polar coordinate transformation as shown in FIG. 9, and the gaze image V2 is output together with the enlargement ratio.

図8より、重心Gの座標(xG,)は、式(1)と表せる。x,yは矩形の基準コーナー部Rの座標、wは矩形幅、hは矩形高さである。 From FIG. 8, the coordinates (x G, y G ) of the center of gravity G can be expressed as Equation (1). x R and y R are the coordinates of the rectangular reference corner portion R, w R is the rectangular width, and h R is the rectangular height.

Figure 0006270111
Figure 0006270111

図9より、視点Pは、重心Gを通るxy平面に垂直な直線と半球の交点であるので、視点パラメータφ,θは、式(2)を満たす。
但し「0≦φ≦π/2」,「0≦θ<2π」。
From FIG. 9, since the viewpoint P is an intersection of a straight line passing through the center of gravity G and a straight line perpendicular to the xy plane and a hemisphere, the viewpoint parameters φ and θ satisfy Expression (2).
However, “0 ≦ φ ≦ π / 2” and “0 ≦ θ <2π”.

Figure 0006270111
Figure 0006270111

拡大率mpは抽出した矩形の大きさ(w,h)と、全周画像V1の大きさ(w,h)とから式(3)で表せる。但しkは正の定数。 The enlargement ratio mp can be expressed by Expression (3) from the extracted rectangular size (w R , h R ) and the size (w i , h i ) of the all-round image V1. Where k is a positive constant.

Figure 0006270111
Figure 0006270111

以上のように視点パラメータφ,θおよび拡大率mpを用いることで、矩形の中心部を視点とした注視画像V2を作成することができる。   As described above, by using the viewpoint parameters φ and θ and the enlargement ratio mp, it is possible to create the gaze image V2 with the central portion of the rectangle as the viewpoint.

「合成画像生成部5」
図1において、全方位カメラ2からのJPEGデータは、JPEGキャプチャ部8,RGBデコード部9を経由し合成画像生成部5にも全周画像V1として入力される。合成画像生成部5は、当該全周画像V1と注視画像生成部4から入力される注視画像V2とから合成画像V3を生成する。合成画像V3は、注視画像V2が前面側に表示され、その分、全周画像V1の一部が隠れた画面構成となる。注視画像V2の中心部には前記動き追跡部21で追跡される移動体が常に表示される。
Composite image generator 5”
In FIG. 1, JPEG data from the omnidirectional camera 2 is also input to the composite image generation unit 5 as the all-round image V 1 via the JPEG capture unit 8 and the RGB decoding unit 9. The composite image generation unit 5 generates a composite image V3 from the entire circumference image V1 and the gaze image V2 input from the gaze image generation unit 4. The synthesized image V3 has a screen configuration in which the gaze image V2 is displayed on the front side and a part of the entire circumference image V1 is hidden accordingly. A moving body tracked by the motion tracking unit 21 is always displayed at the center of the gaze image V2.

本実施形態では、合成画像生成部5は、新規の移動体の注視画像V2を全周画像V1のコーナー部P1〜P4に優先して配置する。合成画像V3における注視画像V2の表示位置数は、例えば図2に示すように4つのコーナー部P1〜P4、左右の縁中央部P5,P6、上下の縁中央部P7,P8の計8箇所である。この場合の新規移動体の注視画像V2の表示位置決定のフロー例は次の通りである。図10を参照して、コーナー部P1〜P4に空きがあるか否かの判定がなされ(ステップS01)、空きがある場合、全周画像V1における移動体の重心座標から最も遠いコーナー部に注視画像V2を配置する(ステップS02)。勿論、ここでは、空きが1つである場合はそのコーナー部が移動体の重心座標から最も遠いコーナー部であると解釈する。   In the present embodiment, the composite image generation unit 5 arranges the gaze image V2 of the new moving body with priority over the corner portions P1 to P4 of the all-round image V1. For example, as shown in FIG. 2, the number of display positions of the gaze image V2 in the composite image V3 is eight in total: four corner portions P1 to P4, left and right edge center portions P5 and P6, and upper and lower edge center portions P7 and P8. is there. A flow example of determining the display position of the gaze image V2 of the new moving body in this case is as follows. Referring to FIG. 10, it is determined whether or not there are vacancies in corner portions P1 to P4 (step S01). If there are vacancies, gaze at the corner portion farthest from the center of gravity coordinates of the moving object in all-round image V1. The image V2 is arranged (step S02). Of course, here, when there is one empty space, the corner portion is interpreted as the corner portion farthest from the center of gravity coordinates of the moving object.

ステップS01でコーナー部P1〜P4に空きがない場合、左右の縁中央部P5,P6に空きがあるか否かの判定がなされ(ステップS03)、空きがある場合、移動体の重心座標から最も遠い縁中央部に注視画像V2を配置する(ステップS04)。勿論、空きが1つである場合はその縁中央部が移動体の重心座標から最も遠い縁中央部であると解釈する。   If there is no space in the corner portions P1 to P4 in step S01, it is determined whether or not there are spaces in the left and right edge center portions P5 and P6 (step S03). The gaze image V2 is arranged at the center of the far edge (step S04). Of course, when there is one vacant space, the center of the edge is interpreted as the center of the edge farthest from the barycentric coordinates of the moving object.

ステップS03で左右の縁中央部P5,P6に空きがない場合、上下の縁中央部P7,P8に空きがあるか否かの判定がなされ(ステップS05)、空きがある場合、移動体の重心座標から最も遠い縁中央部に注視画像V2を配置する(ステップS06)。勿論、空きが1つである場合はその縁中央部が移動体の重心座標から最も遠い縁中央部であると解釈する。ステップS05で上下の縁中央部P7,P8に空きがない場合には異常終了とする。   If there is no vacancy in the left and right edge center portions P5 and P6 in step S03, it is determined whether or not there is a vacancy in the upper and lower edge center portions P7 and P8 (step S05). The gaze image V2 is placed at the center of the edge farthest from the coordinates (step S06). Of course, when there is one vacant space, the center of the edge is interpreted as the center of the edge farthest from the barycentric coordinates of the moving object. If there is no vacancy in the upper and lower edge center portions P7 and P8 in step S05, the process ends abnormally.

図3では、移動体J1の注視画像V2が、全周画像V1における移動体J1の重心座標から最も遠いコーナー部であるコーナー部P1に表示され、移動体J2の注視画像V2が、全周画像V1における移動体J2の重心座標から最も遠いコーナー部であるコーナー部P3に表示された状態の合成画像V3を示している。   In FIG. 3, the gaze image V2 of the moving body J1 is displayed at the corner portion P1, which is the corner portion farthest from the barycentric coordinates of the moving body J1 in the all-round image V1, and the gaze image V2 of the moving body J2 is the all-round image. A composite image V3 in a state displayed on the corner portion P3 that is the corner portion farthest from the barycentric coordinates of the moving object J2 in V1 is shown.

また、或る移動体が追跡され続けている間は注視画像V2の表示位置は固定される。例えば、図3において移動体J1が左上に移動することにより、コーナー部P1が移動体J2の重心座標から最も遠いコーナー部ではなくなった場合であっても、移動体J1の注視画像V2はそのままコーナー部P1に表示され続ける。   Further, the display position of the gaze image V2 is fixed while a certain moving object is being tracked. For example, even if the moving body J1 moves to the upper left in FIG. 3 and the corner portion P1 is not the corner portion farthest from the barycentric coordinates of the moving body J2, the gaze image V2 of the moving body J1 is the corner as it is. It continues to be displayed on the part P1.

「効果」
以上のように、カメラの半球視野の空間を全周画像V1として撮影する全方位カメラ2を備え、全周画像V1の内の円内側の実質撮影領域をモニタ6の中央に表示する移動体表示システム1において、全方位カメラ2の撮影画像から移動体を検出および追跡する移動体抽出部3と、移動体抽出部3により追跡される移動体周りを拡大して注視画像V2として生成する注視画像生成部4と、注視画像生成部4により生成された注視画像V2が全周画像V1の一部に重なる構成の合成画像V3を生成し、この合成画像V3をモニタ6に表示させる合成画像生成部5と、を備える構成にすれば、次のような効果が奏される。
"effect"
As described above, the moving body display that includes the omnidirectional camera 2 that captures the space of the hemispherical field of view of the camera as the all-round image V1 and displays the substantial photographing region inside the circle in the all-round image V1 at the center of the monitor 6. In the system 1, a moving body extraction unit 3 that detects and tracks a moving body from a captured image of the omnidirectional camera 2, and a gaze image that is generated as a gaze image V2 by enlarging the periphery of the moving body tracked by the moving body extraction unit 3. The generating unit 4 generates a composite image V3 having a configuration in which the gaze image V2 generated by the gaze image generating unit 4 overlaps a part of the entire circumference image V1, and displays the composite image V3 on the monitor 6 5, the following effects can be obtained.

(1)全周画像V1と注視画像V2とが同時に表示されるため、広範囲をカバーする全周画像V1を監視することでおおまかな人数確認や人物の動線を容易に把握しつつ、注視画像V2によりある人物の動きを詳細に把握できる。
(2)カメラとして単体の全方位カメラ2のみで済むため、広い撮像範囲をカバーする移動物体検出用カメラおよび移動物体を拡大して捕捉する監視用カメラの2台を要する従来技術に比して安価な表示システムとなる。
(3)移動体抽出部3の移動体追跡機能により注視画像V2に常に移動体を自動表示させることができ、注視画像V2の表示にマウス操作等の人的操作を要さない。
(1) Since the all-round image V1 and the gaze image V2 are displayed simultaneously, the gaze image can be easily obtained by monitoring the general circumference image V1 covering a wide area and easily grasping the flow line of the person. The movement of a certain person can be grasped in detail by V2.
(2) Since only a single omnidirectional camera 2 is required as a camera, as compared with the conventional technology that requires two cameras, a moving object detection camera that covers a wide imaging range and a monitoring camera that enlarges and captures the moving object. It becomes an inexpensive display system.
(3) The moving body tracking function of the moving body extraction unit 3 can always automatically display the moving body on the gaze image V2, and does not require a human operation such as a mouse operation to display the gaze image V2.

また、CPUやメモリ等から構成されたコンピュータ(図示せず)に、カメラの周囲のほぼ180°の半球視野の空間を全周画像V1として撮影する全方位カメラ2の撮影画像から移動体を検出および追跡する移動体抽出ステップと、移動体抽出ステップにより追跡される移動体周りを拡大して注視画像V2として生成する注視画像生成ステップと、注視画像生成ステップにより生成された注視画像V2が全周画像V1の一部に重なる構成の合成画像V3を生成し、この合成画像V3をモニタ6に表示させる合成画像生成ステップと、を実行させる移動体表示プログラムによれば、次のような効果が奏される。   In addition, a moving object is detected from an image captured by the omnidirectional camera 2 that captures a space around the camera with a hemispherical field of view of approximately 180 ° as an all-round image V1 in a computer (not shown) configured with a CPU, memory, and the like. And a moving body extraction step to be tracked, a gaze image generation step of generating a gaze image V2 by enlarging the periphery of the moving body tracked by the mobile body extraction step, and a gaze image V2 generated by the gaze image generation step According to the moving body display program for generating the composite image V3 having a configuration overlapping with a part of the image V1 and displaying the composite image V3 on the monitor 6, the following effects can be obtained. Is done.

この移動体表示プログラムによれば、以下の効果が奏される。
(1)全周画像と注視画像とが同時に表示されるため、広範囲をカバーする全周画像を監視することでおおまかな人数確認や人物の動線を容易に把握しつつ、注視画像によりある人物の動きを詳細に把握できる。
(2)単体の全方位カメラの撮影画像に関する表示プログラムとなるため、広い撮像範囲をカバーする移動物体検出用カメラおよび移動物体を拡大して捕捉する監視用カメラの2台を要する従来技術に比して簡単な表示プログラムとなる。
(3)移動体抽出部の移動体追跡機能により注視画像に常に移動体を自動表示させることができ、注視画像の表示にマウス操作等の人的操作を要さない。
According to this moving body display program, the following effects are produced.
(1) Since the all-around image and the gaze image are displayed at the same time, monitoring the all-around image covering a wide area makes it possible to easily grasp the general number of people and grasp the flow of the person, and The movement of the can be grasped in detail.
(2) Since this is a display program related to a captured image of a single omnidirectional camera, compared to the conventional technology requiring two cameras, a moving object detection camera that covers a wide imaging range and a monitoring camera that expands and captures the moving object. And a simple display program.
(3) The moving object tracking unit of the moving object extracting unit can always automatically display the moving object on the gaze image, and no human operation such as a mouse operation is required to display the gaze image.

また、矩形の全周画像V1の内で円内側の実質撮影領域以外の外枠部分は被撮影領域であり、この被撮影領域はコーナー部P1〜P4で広く占める。したがって、注視画像の矩形サイズが大きい場合、新規の移動体の注視画像V2を全周画像V1のコーナー部P1〜P4に優先して配置することで、全周画像V1に対する注視画像V2の重なり代を抑え、全周画像V1の監視の妨げを抑制できる。   Further, in the rectangular all-round image V1, the outer frame portion other than the substantial photographing area inside the circle is a photographing area, and this photographing area is widely occupied by the corner portions P1 to P4. Accordingly, when the gaze image has a large rectangular size, the gaze image V2 of the new moving body is arranged with priority over the corner portions P1 to P4 of the all-round image V1, thereby overlapping the gaze image V2 with respect to the all-round image V1. And the hindrance to the monitoring of the all-round image V1 can be suppressed.

また、合成画像生成部5は、新規の移動体の注視画像V2を、空いている全周画像V1のコーナー部P1〜P4の内で移動体の重心座標から最も遠いコーナー部に配置する構成とすれば、全周画像V1における移動体の位置と注視画像V2との間の距離を大きくとれるため、全周画像V1において移動体が移動して注視画像V2に隠れる頻度を減らすことができる。これにより、全周画像V1の監視の妨げを抑制できる。   Further, the composite image generation unit 5 arranges the gaze image V2 of the new moving body at the corner portion farthest from the barycentric coordinates of the moving body among the corner portions P1 to P4 of the vacant all-round image V1. Then, since the distance between the position of the moving body in the all-round image V1 and the gaze image V2 can be increased, the frequency at which the moving body moves and hides in the gaze image V2 in the all-round image V1 can be reduced. Thereby, the obstruction of the monitoring of the all-round image V1 can be suppressed.

全周画像V1が横長画像である場合、合成画像生成部5は、全てのコーナー部P1〜P4に注視画像V2が既に配置されているときには、新規の移動体の注視画像V2を、左右の縁中央部P5,P6の内で移動体の重心座標から遠い縁中央部に配置する構成とすれば、コーナー部P1〜P4に次いで非撮影領域を広く占める左右の縁中央部P5,P6に注視画像V2を配置することで、全周画像V1に対する注視画像V2の重なり代を極力抑え、全周画像V1の監視の妨げを抑制できる。また、移動体の重心座標から遠い縁中央部に配置することで、全周画像V1における移動体の位置と注視画像V2との間の距離を大きくとれるため、全周画像V1において移動体が移動して注視画像V2に隠れる頻度を減らすことができる。   When the all-around image V1 is a horizontally long image, the composite image generating unit 5 displays the gaze image V2 of the new moving object on the left and right edges when the gaze image V2 is already arranged at all the corner portions P1 to P4. If the central portion P5, P6 is arranged at the center of the edge far from the center of gravity coordinates of the moving body, the image of the gaze at the left and right edge central portions P5, P6 that occupy the non-photographing area next to the corner portions P1-P4. By arranging V2, the overlap margin of the gaze image V2 with respect to the all-round image V1 can be suppressed as much as possible, and hindrance to monitoring of the all-round image V1 can be suppressed. Moreover, since the distance between the position of the moving body in the all-round image V1 and the gaze image V2 can be increased by disposing it at the center of the edge far from the center of gravity coordinates of the moving body, the moving body moves in the all-round image V1. Thus, the frequency of hiding in the gaze image V2 can be reduced.

さらに、合成画像生成部5は、左右の縁中央部P5,P6に注視画像V2が既に配置されているときには、新規の移動体の注視画像V2を、上下の縁中央部P7,P8の内で移動体の重心座標から遠い縁中央部に配置する構成とすれば、左右の縁中央部P5,P6に次いで非撮影領域を広く占める上下の縁中央部P7,P8に注視画像V2を配置することで、全周画像V1に対する注視画像V2の重なり代を極力抑え、全周画像V1の監視の妨げを抑制できる。また、移動体の重心座標から遠い縁中央部に配置することで、全周画像V1における移動体の位置と注視画像V2との間の距離を大きくとれるため、全周画像V1において移動体が移動して注視画像V2に隠れる頻度を減らすことができる。   Furthermore, when the gaze image V2 is already arranged in the left and right edge center portions P5 and P6, the composite image generation unit 5 displays the gaze image V2 of the new moving body within the upper and lower edge center portions P7 and P8. If the structure is arranged at the center of the edge far from the center of gravity coordinates of the moving body, the gaze image V2 is arranged at the upper and lower edge centers P7 and P8 that occupy the non-photographing area next to the left and right edge centers P5 and P6. Thus, the overlap margin of the gaze image V2 with respect to the all-round image V1 can be suppressed as much as possible, and hindrance to monitoring of the all-round image V1 can be suppressed. Moreover, since the distance between the position of the moving body in the all-round image V1 and the gaze image V2 can be increased by disposing it at the center of the edge far from the center of gravity coordinates of the moving body, the moving body moves in the all-round image V1. Thus, the frequency of hiding in the gaze image V2 can be reduced.

また、移動体抽出部3は、Pピクチャフレームに含まれるイントラ符号化のマクロブロックと順方向予測符号化であって動きベクトルがしきい値T以上のマクロブロックとを同じ画素値「1」とする2値化の移動物体マップ17を作成し、前記画素値「1」の集合体Sを囲む動き領域BBoxを作成し、動き領域BBox中のイントラ符号化のマクロブロック数がしきい値T以上であるとき、集合体Sを移動体として検出する構成とすれば、低フレームレート(例えば8fps)の圧縮ビデオデータにおいても移動体を精度良く検出できる。 The moving object extraction unit 3, the same pixel value motion vectors a macroblock and forward predictive coding of intra encoding a threshold value above T 1 of macroblocks contained in a P-picture frame "1" And a motion area BBox surrounding the set S of pixel values “1” is created, and the number of intra-coded macroblocks in the motion area BBox is a threshold T. When the number is two or more, if the aggregate S is detected as a moving object, the moving object can be detected with high accuracy even in compressed video data at a low frame rate (for example, 8 fps).

さらに、移動体抽出部3は、直前Pピクチャフレームと現Pピクチャフレームとの間で同一のIDを持つ動き領域BBoxの重心を結ぶ擬似慣性ベクトルを求め、当該擬似慣性ベクトルから現Pピクチャフレームの動き領域BBoxの位置を予測する構成とすれば、次のような効果が奏される。従来、移動体の追跡手段として動きベクトルの加算平均を用いることが知られている。これは例えば30fpsなどの高フレームレートにより動きベクトルの変化が滑らかとなる場合には有効であるが、監視カメラ等で多く用いられる低フレームレートの圧縮ビデオデータでは、隣接フレーム間の動きベクトルの変化が滑らかにならず、必ずしも物体の移動と合致しないおそれがある。これに対し、本実施形態では動き領域BBoxの重心間の差分を動き領域BBoxの移動ベクトルとして利用するため、低フレームレート(例えば8fps)の圧縮ビデオデータであっても移動体の追跡精度が向上する。   Furthermore, the moving body extraction unit 3 obtains a pseudo inertia vector that connects the centroids of the motion regions BBox having the same ID between the immediately preceding P picture frame and the current P picture frame, and determines the current P picture frame from the pseudo inertia vector. If the configuration is such that the position of the motion region BBox is predicted, the following effects can be obtained. Conventionally, it is known to use an average of motion vectors as a tracking unit for a moving object. This is effective when the motion vector changes smoothly due to a high frame rate such as 30 fps, but in the case of compressed video data with a low frame rate that is often used in surveillance cameras, the motion vector changes between adjacent frames. May not be smooth and does not necessarily match the movement of the object. In contrast, in this embodiment, since the difference between the centroids of the motion region BBox is used as the motion vector of the motion region BBox, the tracking accuracy of the moving object is improved even with compressed video data at a low frame rate (for example, 8 fps). To do.

以上、本発明の好適な実施形態を説明した。合成画像V3については様々な機能を付加することが可能であり、例えば合成画像生成部5により自動的に配置された注視画像V2に対し、監視者がマウスのドラッグ操作により任意の位置にずらしたり、任意の大きさに変える機能を持たせることもできる。   The preferred embodiment of the present invention has been described above. Various functions can be added to the composite image V3. For example, the monitor can shift the gaze image V2 automatically arranged by the composite image generation unit 5 to an arbitrary position by dragging the mouse. Also, it can have a function of changing to an arbitrary size.

1 移動体表示システム
2 全方位カメラ
3 移動体抽出部
4 注視画像生成部
5 合成画像生成部
6 モニタ
11 動き検出部
21 動き追跡部
S 集合体
V1 全周画像
V2 注視画像
V3 合成画像
DESCRIPTION OF SYMBOLS 1 Mobile body display system 2 Omnidirectional camera 3 Mobile body extraction part 4 Gaze image generation part 5 Composite image generation part 6 Monitor 11 Motion detection part 21 Motion tracking part S Aggregation V1 Whole-round image V2 Gaze image V3 Composite image

Claims (7)

カメラの半球視野の空間を全周画像として撮影する全方位カメラを備え、前記全周画像の内の円内側の実質撮影領域をモニタの中央に表示する移動体表示システムにおいて、
前記全方位カメラの撮影画像から移動体を検出および追跡する移動体抽出部と、
前記移動体抽出部により追跡される移動体周りを拡大して注視画像として生成する注視画像生成部と、
前記注視画像生成部により生成された注視画像が全周画像の一部に重なる構成の合成画像を生成し、当該合成画像をモニタに表示させる合成画像生成部と、
を備え、
前記合成画像生成部は、
新規の移動体の注視画像を全周画像のコーナー部に優先して配置することを特徴とする移動体表示システム。
In a mobile display system comprising an omnidirectional camera that captures a hemispherical field of view of the camera as an all-round image, and displays a substantial imaging region inside the circle of the all-round image at the center of the monitor,
A moving body extraction unit for detecting and tracking the moving body from the captured image of the omnidirectional camera;
A gaze image generation unit that generates a gaze image by enlarging the periphery of the mobile body tracked by the mobile body extraction unit;
A composite image generation unit that generates a composite image having a configuration in which the gaze image generated by the gaze image generation unit overlaps a part of the entire circumference image, and displays the composite image on a monitor;
With
The composite image generation unit
A moving object display system characterized in that a gaze image of a new moving object is arranged in preference to a corner portion of an all-round image.
前記合成画像生成部は、
新規の移動体の注視画像を、空いている全周画像のコーナー部の内で前記移動体の重心座標から最も遠いコーナー部に配置することを特徴とする請求項1に記載の移動体表示システム。
The composite image generation unit
2. The moving object display system according to claim 1 , wherein the gaze image of the new moving object is arranged at a corner part farthest from the center of gravity coordinates of the moving object among corners of the vacant all-round image. .
前記全周画像は横長画像であって、
前記合成画像生成部は、
全てのコーナー部に注視画像が既に配置されているときには、新規の移動体の注視画像を、左右の縁中央部の内で前記移動体の重心座標から遠い縁中央部に配置することを特徴とする請求項2に記載の移動体表示システム。
The all-round image is a horizontally long image,
The composite image generation unit
When a gaze image is already arranged at all corners, a gaze image of a new moving object is arranged at the center of the edge far from the barycentric coordinates of the moving object within the center of the left and right edges. The moving body display system according to claim 2 .
前記合成画像生成部は、
左右の縁中央部に注視画像が既に配置されているときには、新規の移動体の注視画像を、上下の縁中央部の内で前記移動体の重心座標から遠い縁中央部に配置することを特徴とする請求項3に記載の移動体表示システム。
The composite image generation unit
When a gaze image is already arranged at the center of the left and right edges, the gaze image of the new moving body is arranged at the center of the edge far from the center of gravity coordinates of the moving body within the upper and lower edges of the center. The moving body display system according to claim 3 .
前記移動体抽出部は、
Pピクチャフレームに含まれるイントラ符号化のマクロブロックと順方向予測符号化であって動きベクトルがしきい値T以上のマクロブロックとを同じ画素値とする2値化の移動物体マップを作成し、
前記画素値の集合体を囲む動き領域を作成し、
前記動き領域中のイントラ符号化のマクロブロック数がしきい値T以上であるとき、前記集合体を移動体として検出することを特徴とする請求項1ないし請求項4のいずれか一項に記載の移動体表示システム。
The moving body extraction unit includes:
A macro-block and forward prediction encoding intra-coded included in the P-picture frame motion vectors to create a binarization of the moving object map to the same pixel value and the threshold value above T 1 macroblock ,
Creating a motion region surrounding the collection of pixel values;
When the number of macroblocks intra-coded in the motion area is the threshold T 2 or more, claims 1 and detects the aggregates as mobile in any one of claims 4 The moving body display system described.
前記移動体抽出部は、
直前Pピクチャフレームと現Pピクチャフレームとの間で同一のIDを持つ動き領域の重心を結ぶ擬似慣性ベクトルを求め、当該擬似慣性ベクトルから現Pピクチャフレームの動き領域の位置を予測することを特徴とする請求項5に記載の移動体表示システム。
The moving body extraction unit includes:
A pseudo inertia vector connecting the centroids of motion areas having the same ID between the immediately preceding P picture frame and the current P picture frame is obtained, and the position of the motion area of the current P picture frame is predicted from the pseudo inertia vector. The moving body display system according to claim 5 .
コンピュータに、
カメラの半球視野の空間を全周画像として撮影する全方位カメラの撮影画像から移動体を検出および追跡する移動体抽出ステップと、
前記移動体抽出ステップにより追跡される移動体周りを拡大して注視画像として生成する注視画像生成ステップと、
前記注視画像生成ステップにより生成された注視画像が全周画像の一部に重なる構成の合成画像を生成し、当該合成画像をモニタに表示させる合成画像生成ステップと、
を実行させ
前記合成画像生成ステップは、
新規の移動体の注視画像を全周画像のコーナー部に優先して配置することを特徴とする移動体表示プログラム。
On the computer,
A moving object extraction step for detecting and tracking a moving object from a captured image of an omnidirectional camera that captures a space in the hemispherical field of view of the camera as an all-round image;
A gaze image generation step of generating a gaze image by enlarging the periphery of the mobile body tracked by the mobile body extraction step;
The gaze gazing image generated by the image generating step generates a composite image of the structure that overlaps a portion of the entire periphery image and the synthetic image generating step of displaying the composite image monitor,
Was executed,
The composite image generation step includes
A moving object display program characterized in that a gaze image of a new moving object is arranged in preference to a corner portion of an all-round image .
JP2013216551A 2013-10-17 2013-10-17 Mobile object display system and mobile object display program Active JP6270111B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013216551A JP6270111B2 (en) 2013-10-17 2013-10-17 Mobile object display system and mobile object display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013216551A JP6270111B2 (en) 2013-10-17 2013-10-17 Mobile object display system and mobile object display program

Publications (2)

Publication Number Publication Date
JP2015080107A JP2015080107A (en) 2015-04-23
JP6270111B2 true JP6270111B2 (en) 2018-01-31

Family

ID=53011194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013216551A Active JP6270111B2 (en) 2013-10-17 2013-10-17 Mobile object display system and mobile object display program

Country Status (1)

Country Link
JP (1) JP6270111B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478830B2 (en) * 2015-06-23 2019-03-06 三菱電機株式会社 Content playback device
JP6723512B2 (en) * 2015-12-22 2020-07-15 カシオ計算機株式会社 Image processing apparatus, image processing method and program
EP3410416B1 (en) 2016-01-28 2021-08-04 Ricoh Company, Ltd. Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
US10360721B2 (en) * 2016-05-26 2019-07-23 Mediatek Inc. Method and apparatus for signaling region of interests
JP7030451B2 (en) * 2017-08-18 2022-03-07 セコム株式会社 Image processing equipment
JP6894398B2 (en) * 2018-03-28 2021-06-30 Kddi株式会社 Object tracking device, object tracking method, and object tracking program
JP2020135162A (en) * 2019-02-15 2020-08-31 日本電気株式会社 Mapping device, mapping method, and computer program
JP7380435B2 (en) 2020-06-10 2023-11-15 株式会社Jvcケンウッド Video processing device and video processing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4140202B2 (en) * 2001-02-28 2008-08-27 三菱電機株式会社 Moving object detection device
JP4467838B2 (en) * 2001-06-15 2010-05-26 パナソニック株式会社 Image recognition apparatus and image recognition method
JP5649429B2 (en) * 2010-12-14 2015-01-07 パナソニックIpマネジメント株式会社 Video processing device, camera device, and video processing method
JP5895389B2 (en) * 2011-07-27 2016-03-30 株式会社Jvcケンウッド Image display device, image display method, and image display program

Also Published As

Publication number Publication date
JP2015080107A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
JP6270111B2 (en) Mobile object display system and mobile object display program
US10783683B2 (en) Image stitching
US9491357B2 (en) Image-processing system and image-processing method in which a size of a viewing angle and a position of a viewing point are changed for zooming
KR101861771B1 (en) Digital image stabilization device
EP2053844B1 (en) Image processing device, image processing method, and program
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
CN112217998B (en) Imaging device, information processing device, control method thereof, and storage medium
JP4912117B2 (en) Imaging device with tracking function
US20140098996A1 (en) Image display apparatus and image display method
US20140321771A1 (en) Techniques for real-time clearing and replacement of objects
US11348281B1 (en) Fixed pattern calibration for multi-view stitching
US20140368682A1 (en) Real-time image processing method and device
KR20180086048A (en) Camera and imgae processing method thereof
WO2014030405A1 (en) Display device, display method, television receiver, and display control device
JP2019075660A (en) Image processing device, image processing method, and computer program
TWI671707B (en) Image analysis method, electronic system and non-transitory computer-readable recording medium
JP2010092092A (en) Image processing apparatus and image processing method
US10089726B2 (en) Image processing apparatus, image processing method, and storage medium, relating to generating an image corresponding to a predetermined three-dimensional shape by transforming a captured image
JP2009163498A (en) Image processor, image processing method, and image processing program
KR102474697B1 (en) Image Pickup Apparatus and Method for Processing Images
JP6238569B2 (en) Image processing apparatus, image processing method, and program
JP2008167267A (en) Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
US9865070B2 (en) Panoramic stitched image memory texture writing
JP7348549B2 (en) Encoding method, encoding device and program
CN113327228B (en) Image processing method and device, terminal and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160520

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

R150 Certificate of patent or registration of utility model

Ref document number: 6270111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250