JP5213883B2 - Composite display device - Google Patents

Composite display device Download PDF

Info

Publication number
JP5213883B2
JP5213883B2 JP2010008970A JP2010008970A JP5213883B2 JP 5213883 B2 JP5213883 B2 JP 5213883B2 JP 2010008970 A JP2010008970 A JP 2010008970A JP 2010008970 A JP2010008970 A JP 2010008970A JP 5213883 B2 JP5213883 B2 JP 5213883B2
Authority
JP
Japan
Prior art keywords
image
camera
moving object
area
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010008970A
Other languages
Japanese (ja)
Other versions
JP2011151459A (en
Inventor
聡 久永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010008970A priority Critical patent/JP5213883B2/en
Publication of JP2011151459A publication Critical patent/JP2011151459A/en
Application granted granted Critical
Publication of JP5213883B2 publication Critical patent/JP5213883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、複数のカメラにより撮影された画像を合成し、合成後の画像を表示する合成表示装置に関するものである。   The present invention relates to a composite display device that combines images taken by a plurality of cameras and displays a combined image.

遮蔽物となる物体が多い場所を監視する場合、物体の遮蔽による死角を撮影することができるように複数のカメラを設置することがある。
即ち、ある監視カメラが屋内領域、道路面や建物周辺敷地を撮影する場合、建物、道路構造物や地面に設置されている物体によって遮蔽された死角が発生する。このような場合、死角となる領域を撮影することが可能な位置に別の監視カメラを設置する。
ただし、2つの監視カメラを設置する場合には、2つの監視カメラの撮影方向が異なるので、2つの監視カメラにより撮影された画像を1つの画像にまとめる合成処理が必要になる。
When monitoring a place where there are many objects to be shielded, a plurality of cameras may be installed so that a blind spot due to shielding of the object can be photographed.
That is, when a certain surveillance camera takes an image of an indoor area, a road surface, or a site surrounding a building, a blind spot shielded by an object installed on the building, road structure, or ground is generated. In such a case, another surveillance camera is installed at a position where an area that is a blind spot can be imaged.
However, when two monitoring cameras are installed, since the shooting directions of the two monitoring cameras are different, it is necessary to combine the images shot by the two monitoring cameras into one image.

例えば、以下の特許文献1には、合成処理の一例が開示されている。
以下の特許文献1に開示されている情報配信装置(合成表示装置)では、交差点に進入する車両(以下、「対象車両」と称する)から見えない他の車両(例えば、建物等に遮蔽されている交差点の左折方向の車両)の画像を、対象車両に搭載されている画像表示装置に表示することができるようにするために、交差点内に設置されているカメラから、交差点に進入する対象車両から見えない領域(死角領域)の画像を取得し、その死角領域の画像を予め設定された仮想視点から見た画像に変換している。
また、情報配信装置は、他のカメラから交差点に進入する対象車両の前方視界を表す前方画像を取得し、その前方画像についても、上記仮想視点から見た画像に変換し、変換後の死角画像と前方画像を合成して、合成後の画像を対象車両内の画像表示装置に送信している。
For example, Patent Document 1 below discloses an example of a synthesis process.
In the information distribution device (composite display device) disclosed in Patent Document 1 below, another vehicle (for example, a building or the like that is not visible from a vehicle entering the intersection (hereinafter referred to as “target vehicle”) is used. Vehicle that enters the intersection from the camera installed in the intersection so that the image of the vehicle in the left turn direction at the intersection) can be displayed on the image display device mounted on the target vehicle. An image of an area that cannot be seen from (a blind spot area) is acquired, and the image of the blind spot area is converted into an image viewed from a preset virtual viewpoint.
Further, the information distribution apparatus acquires a front image representing a front view of the target vehicle entering the intersection from another camera, converts the front image to an image viewed from the virtual viewpoint, and converts the blind spot image after conversion. And the front image are combined, and the combined image is transmitted to the image display device in the target vehicle.

視点変換の方式は、例えば、以下の非特許文献1に開示されている。
ただし、以下の非特許文献1に開示されている方式では、複数のカメラにより撮影された画像間で、同じ対象物の同じ箇所が写っている特徴点の対応付けがなされないと正しく変換できない制約である。
このことは、あるカメラにより撮影された対象物の表面と同じ表面を他のカメラが撮影することができない場合、同じ特徴点が双方の撮影画像に写らないので、画像の視点を変換することができないことを意味する。
また、2つのカメラにより、略同じ方向から同じ領域を撮影した画像内に迷彩服を着ている被写体が含まれている場合や、葉の多い植物が含まれている場合、2つのカメラにより撮影された画像には、濃淡から得られる大量の特徴点が存在し、大量の特徴点を正確に対応付けることは困難であるため、正確に画像の視点を変換することができないことを意味する。
The viewpoint conversion method is disclosed in Non-Patent Document 1 below, for example.
However, in the method disclosed in Non-Patent Document 1 below, a restriction that cannot be correctly converted unless matching of feature points in which the same part of the same object is captured is made between images taken by a plurality of cameras. It is.
This means that if the other camera cannot capture the same surface as the surface of the object captured by a certain camera, the same feature point will not appear in both captured images, so the viewpoint of the image can be converted. It means you can't.
Also, when two cameras include a subject wearing camouflage clothes in an image of the same region taken from approximately the same direction, or when a plant with many leaves is included, images are taken with two cameras. This means that there are a large number of feature points obtained from shading in the obtained image, and it is difficult to accurately associate a large amount of feature points, so that the viewpoint of the image cannot be accurately converted.

特開2009−70243号公報(段落番号[0007]から[0008])JP 2009-70243 A (paragraph numbers [0007] to [0008])

出口光一郎著「ロボットビジョンの基礎」2000年 コロナ社発行、第27頁から第31頁Koichiro Deguchi "Basics of Robot Vision" 2000, published by Corona, pages 27-31

従来の合成表示装置は以上のように構成されているので、監視対象領域内の動体(例えば、人間、車両)の模様や形状が複雑である場合、大量の特徴点を正確に対応付けることができず、複数のカメラにより撮影された画像を正確に合成することができない。また、監視対象領域内の動体の模様や形状が複雑でなくても、遮蔽物(例えば、監視対象領域内に設置されている本棚)によって、一方のカメラには動体が写っていても、他方のカメラには動体が写っていないような場合、その動体における同じ特徴点を対応付けることができず、複数のカメラにより撮影された画像を合成することができないなどの課題があった。   Since the conventional composite display device is configured as described above, a large number of feature points can be accurately associated with a complicated pattern or shape of a moving object (for example, a human or a vehicle) in the monitoring target area. In other words, it is impossible to accurately combine images taken by a plurality of cameras. Even if the pattern or shape of the moving object in the monitoring target area is not complicated, even if the moving object is reflected in one camera by the shielding object (for example, a bookshelf installed in the monitoring target area), the other When a moving object is not shown in this camera, there is a problem that the same feature point in the moving object cannot be associated, and images taken by a plurality of cameras cannot be combined.

この発明は上記のような課題を解決するためになされたもので、監視対象領域内の動体の模様・形状の複雑さや、監視対象領域内の遮蔽物の有無に関わらず、複数のカメラにより撮影された画像を合成することができる合成表示装置を得ることを目的とする。   The present invention has been made to solve the above problems, and is photographed by a plurality of cameras regardless of the complexity of the pattern and shape of a moving object in the monitoring target area and the presence or absence of a shield in the monitoring target area. It is an object of the present invention to obtain a composite display device capable of compositing synthesized images.

この発明に係る合成表示装置は、カメラにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出する複数の床領域画像抽出手段と、カメラにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出する複数の動体領域画像抽出手段と、カメラの設置状況を示すカメラデータを用いて、床領域画像抽出手段により抽出された床領域の画像を監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する複数の平面射影手段と、監視対象領域の直交座標系上で上記動体が存在している領域に板モデルを設置し、その板モデルの表面に動体領域画像抽出手段により抽出された動体領域画像を貼り付ける複数の動体画像貼付手段とを設け、画像合成手段が、複数の平面射影手段により生成された平面射影画像及び複数の動体画像貼付手段により動体領域画像が貼り付けられた板モデルの画像を合成するようにしたものである。   The composite display device according to the present invention includes a plurality of floor area image extracting means for extracting an image of a floor area where a floor surface is imaged from an image of a monitoring target area imaged by the camera, and an image captured by the camera. The floor area image extracting means uses a plurality of moving object area image extracting means for extracting an image of the moving object area where the moving object is photographed from the monitored area image and camera data indicating the installation status of the camera. Projecting the extracted floor area image to the plane position in the orthogonal coordinate system of the monitoring target area to generate a planar projection image, and the moving object exists on the orthogonal coordinate system of the monitoring target area A plurality of moving body image pasting means for pasting the moving body area image extracted by the moving body area image extracting means to the surface of the board model. It is obtained by an image plate model moving object area image pasted by the generated planar projective images and a plurality of moving object image pasting unit as synthesized by the plane projection means.

この発明によれば、カメラにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出する複数の床領域画像抽出手段と、カメラにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出する複数の動体領域画像抽出手段と、カメラの設置状況を示すカメラデータを用いて、床領域画像抽出手段により抽出された床領域の画像を監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する複数の平面射影手段と、監視対象領域の直交座標系上で上記動体が存在している領域に板モデルを設置し、その板モデルの表面に動体領域画像抽出手段により抽出された動体領域画像を貼り付ける複数の動体画像貼付手段とを設け、画像合成手段が、複数の平面射影手段により生成された平面射影画像及び複数の動体画像貼付手段により動体領域画像が貼り付けられた板モデルの画像を合成するように構成したので、監視対象領域内の動体の模様・形状の複雑さや、監視対象領域内の遮蔽物の有無に関わらず、複数のカメラにより撮影された画像を合成することができる効果がある。   According to the present invention, the plurality of floor area image extracting means for extracting the image of the floor area where the floor surface is imaged from the image of the monitoring area captured by the camera, and the monitoring object imaged by the camera Extracted by the floor area image extraction means using a plurality of moving object area image extracting means for extracting the moving object area image in which the moving object is photographed and the camera data indicating the installation status of the camera from the area image. A plurality of plane projection means for projecting a floor area image to a planar position in the orthogonal coordinate system of the monitoring target area to generate a planar projection image, and an area in which the moving object exists on the orthogonal coordinate system of the monitoring target area A plurality of moving object image pasting means for attaching the moving body region image extracted by the moving body region image extracting means to the surface of the plate model, and the image composition means comprises a plurality of plane projections. Since the planar projection image generated by the stage and the image of the plate model to which the moving body region image is pasted by the plurality of moving body image pasting means are combined, the complexity of the pattern / shape of the moving body in the monitoring target region There is an effect that images taken by a plurality of cameras can be combined regardless of the presence or absence of a shield in the monitoring target area.

この発明の実施の形態1による合成表示装置を示す構成図である。It is a block diagram which shows the synthetic | combination display apparatus by Embodiment 1 of this invention. 監視対象領域である部屋を示す平面図である。It is a top view which shows the room which is a monitoring object area | region. 監視対象領域の内部を示す鳥瞰図である。It is a bird's-eye view which shows the inside of a monitoring object field. カメラA,C,Dにより撮影された監視対象領域の画像、床領域画像抽出部2−1,2−3,2−4により抽出された床領域の画像及び動体領域画像抽出部4−1,4−3,4−4により抽出された動体領域の画像を示す説明図である。Images of the monitoring target area captured by the cameras A, C, and D, floor area images extracted by the floor area image extraction units 2-1, 2-3, and 2-4, and a moving body area image extraction unit 4-1. It is explanatory drawing which shows the image of the moving body area | region extracted by 4-3 and 4-4. (a)は監視対象領域の床面に対して並行にして、カメラの光軸(中心)方向を真横から見た場合の監視対象領域を示す説明図、(b)は表示画面例を示す説明図である。(A) is explanatory drawing which shows the monitoring object area | region at the time of seeing the optical axis (center) direction of a camera from right side in parallel with the floor surface of the monitoring object area | region, (b) is description which shows the example of a display screen. FIG. 監視対象領域の画像における画素が実空間のどの点に対応するかを示す説明図である。It is explanatory drawing which shows to which point in the real space the pixel in the image of the monitoring object area | region corresponds. 動体が存在している領域の探索処理を示す説明図である。It is explanatory drawing which shows the search process of the area | region where a moving body exists. 板モデルの高さを決定するための説明図である。It is explanatory drawing for determining the height of a board model. 板モデルに対する動体領域画像の貼付を示す説明図である。It is explanatory drawing which shows sticking of the moving body area | region image with respect to a board model. カメラCにより撮影された画像から生成された平面射影画像及び板モデルと、カメラDにより撮影された画像から生成された平面射影画像及び板モデルとの合成画像を示す説明図である。FIG. 6 is an explanatory diagram showing a composite image of a planar projection image and a plate model generated from an image captured by a camera C and a planar projection image and a plate model generated from an image captured by a camera D. 画像表示部15による合成画像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the synthesized image by the image display part. PTZカメラの可動方向を示す説明図である。It is explanatory drawing which shows the movable direction of a PTZ camera. 移動カメラの筐体に付されているマークを示す説明図である。It is explanatory drawing which shows the mark attached | subjected to the housing | casing of a mobile camera. 固定カメラが捕らえられない位置に移動カメラが移動している例を示す説明図である。It is explanatory drawing which shows the example which the moving camera is moving to the position where a fixed camera is not caught. カメラのズーム機能と連動して、特定の棚だけを透明にして表示している一例を示す説明図である。It is explanatory drawing which shows an example which displays only the specific shelf transparently in response to the zoom function of a camera.

実施の形態1.
図1はこの発明の実施の形態1による合成表示装置を示す構成図である。
図1において、カメラ1−1〜1−Nは相互に異なる位置に設置されている固定のカメラであり、相互に異なる方向から監視対象領域を撮影して、その監視対象領域の画像を示す画像データを出力する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a composite display device according to Embodiment 1 of the present invention.
In FIG. 1, cameras 1-1 to 1-N are fixed cameras installed at different positions, and images of monitoring target areas are taken from different directions and images of the monitoring target areas are shown. Output data.

床領域画像抽出部2−1〜2−Nは例えば画像処理を実施するGPU(Graphics Processing Unit)から構成されており、カメラ1−1〜1−Nにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出し、その床領域画像を示す画像データを床領域画像用メモリ3−1〜3−Nに格納する処理を実施する。
ただし、床領域画像抽出部2−1〜2−Nはカメラ1−1〜1−NがNTSC(National Television Standards Committee)出力を行うカメラである場合、カメラ1−1〜1−Nにより撮影された画像をリアルタイムに取り込む画像キャプチャボードを実装している。
一方、カメラ1−1〜1−Nがネットワーク接続型のカメラである場合、カメラ1−1〜1−Nにより撮影された画像をネットワークから取り込むネットワークインタフェースを実装している。
なお、床領域画像抽出部2−1〜2−Nは床領域画像抽出手段を構成している。
床領域画像用メモリ3−1〜3−Nは床領域画像抽出部2−1〜2−Nにより抽出された床領域画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
The floor area image extraction units 2-1 to 2-N are configured by, for example, a GPU (Graphics Processing Unit) that performs image processing. The floor area image extraction units 2-1 to 2-N include, among the images of the monitoring target area captured by the cameras 1-1 to 1-N. Then, a process of extracting an image of the floor area where the floor surface is photographed and storing the image data indicating the floor area image in the floor area image memories 3-1 to 3-N is performed.
However, the floor area image extraction units 2-1 to 2-N are photographed by the cameras 1-1 to 1-N when the cameras 1-1 to 1-N are cameras that perform NTSC (National Television Standards Committee) output. An image capture board that captures captured images in real time is implemented.
On the other hand, when the cameras 1-1 to 1-N are network connection type cameras, a network interface that captures images taken by the cameras 1-1 to 1-N from the network is installed.
The floor area image extracting units 2-1 to 2-N constitute floor area image extracting means.
The floor area image memories 3-1 to 3-N are recording media such as a RAM and a hard disk that store image data indicating floor area images extracted by the floor area image extracting units 2-1 to 2-N.

動体領域画像抽出部4−1〜4−Nは例えば画像処理を実施するGPUから構成されており、カメラ1−1〜1−Nにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出し、その動体領域画像を示す画像データを動体領域画像用メモリ5−1〜5−Nに格納する処理を実施する。
動体領域画像抽出部4−1〜4−Nについても床領域画像抽出部2−1〜2−Nと同様に、画像キャプチャボード又はネットワークインタフェースを実装している。
なお、動体領域画像抽出部4−1〜4−Nは動体領域画像抽出手段を構成している。
動体領域画像用メモリ5−1〜5−Nは動体領域画像抽出部4−1〜4−Nにより抽出された動体領域画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
The moving body area image extraction units 4-1 to 4-N are configured by, for example, a GPU that performs image processing, and moving bodies are captured from images of the monitoring target area captured by the cameras 1-1 to 1-N. An image of the moving object region is extracted, and image data indicating the moving object region image is stored in the moving object region image memories 5-1 to 5-N.
Similarly to the floor area image extraction units 2-1 to 2-N, the moving body area image extraction units 4-1 to 4-N are also mounted with an image capture board or a network interface.
The moving object region image extracting units 4-1 to 4-N constitute moving object region image extracting means.
The moving object area image memories 5-1 to 5-N are recording media such as a RAM and a hard disk that store image data indicating moving object area images extracted by the moving object area image extracting units 4-1 to 4-N.

カメラデータ取得部6は例えばカメラ1−1〜1−Nや、図示せぬカメラ1−1〜1−Nのパンチルト機能部からカメラデータ(例えば、カメラの光軸方向、設置位置、設置高、焦点距離などを示すデータ)を取得するデータ入力インタフェースを備えており、そのカメラデータをカメラデータ用メモリ7に格納する処理を実施する。
カメラデータ用メモリ7はカメラデータ取得部6により取得されたカメラデータを記憶するRAMやハードディスクなどの記録媒体である。
建物構造データ用メモリ8は建物構造データ(例えば、カメラ1−1〜1−Nが設置されている建物の寸法や、監視対象領域内の本棚(遮蔽物)の幅、長さ及び高さを示すデータであって、一定の原点をもつ直交座標で表現されているデータ)を記憶するRAMやハードディスクなどの記録媒体である。
The camera data acquisition unit 6 receives camera data (for example, the optical axis direction of the camera, the installation position, the installation height, the camera 1-1 to 1-N and the pan / tilt function unit of the cameras 1-1 to 1-N (not shown)) A data input interface for acquiring data indicating focal length and the like is provided, and processing for storing the camera data in the camera data memory 7 is performed.
The camera data memory 7 is a recording medium such as a RAM or a hard disk that stores the camera data acquired by the camera data acquisition unit 6.
The building structure data memory 8 stores building structure data (for example, the dimensions of the building where the cameras 1-1 to 1-N are installed, and the width, length, and height of the bookshelf (shield) in the monitoring target area. The data is a recording medium such as a RAM or a hard disk that stores data (represented by orthogonal coordinates having a constant origin).

平面射影部9−1〜9−Nは例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、カメラデータ用メモリ7に記憶されているカメラデータ及び建物構造データ用メモリ8に記憶されている建物構造データを参照して、床領域画像用メモリ3−1〜3−Nにより格納されている床領域画像を監視対象領域の直交座標系における平面位置に射影して、所定の方向を向いている平面射影画像を生成し、その平面射影画像を示す画像データを平面射影画像用メモリ10−1〜10−Nに格納する処理を実施する。なお、平面射影部9−1〜9−Nは平面射影手段を構成している。
平面射影画像用メモリ10−1〜10−Nは平面射影部9−1〜9−Nにより生成された平面射影画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
The planar projection units 9-1 to 9-N are constituted by, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the camera data and building structure data stored in the camera data memory 7 The floor area image stored in the floor area image memories 3-1 to 3-N is projected on the plane position in the orthogonal coordinate system of the monitoring target area with reference to the building structure data stored in the memory 8 Then, a plane projection image facing a predetermined direction is generated, and image data indicating the plane projection image is stored in the plane projection image memories 10-1 to 10-N. The plane projection units 9-1 to 9-N constitute plane projection means.
The plane projection image memories 10-1 to 10-N are recording media such as a RAM and a hard disk that store image data indicating the plane projection images generated by the plane projection units 9-1 to 9-N.

動体画像貼付部11−1〜11−Nは例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、カメラデータ用メモリ7に記憶されているカメラデータ及び建物構造データ用メモリ8に記憶されている建物構造データを参照して、監視対象領域の直交座標系上で動体が存在している領域に板モデル(例えば、板モデルは、動体の幅、高さを有する直方体であり、その直方体の奥行きの長さは予め決められた値である)を設置し、その板モデルの表面に動体領域画像用メモリ5−1〜5−Nにより格納されている動体領域画像を貼り付ける処理を実施する。なお、動体画像貼付部11−1〜11−Nは動体画像貼付手段を構成している。
板モデル用メモリ12−1〜12−Nは動体画像貼付部11−1〜11−Nにより動体領域画像が貼り付けられた板モデルを示す板データを記憶するRAMやハードディスクなどの記録媒体である。
The moving body image pasting units 11-1 to 11-N are composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and the camera data and building structure stored in the camera data memory 7 With reference to the building structure data stored in the data memory 8, a plate model (for example, a plate model has a width and a height of a moving object) in an area where a moving object exists on the orthogonal coordinate system of the monitoring target area. And a moving object region stored in the memory of the moving object region image memory 5-1 to 5-N on the surface of the plate model. Perform the process of pasting the image. The moving object image pasting units 11-1 to 11-N constitute moving object image pasting means.
The board model memories 12-1 to 12-N are recording media such as a RAM and a hard disk that store board data indicating the board model to which the moving body area image is pasted by the moving body image pasting units 11-1 to 11-N. .

画像合成部13は例えば画像処理を実施するGPUから構成されており、平面射影画像用メモリ10−1〜10−Nにより格納されている画像データが示す平面射影画像と板モデル用メモリ12−1〜12−Nにより格納されている板データが示す板モデルの画像を合成し、合成後の画像を示す画像データを合成画像用メモリ14に格納する処理を実施する。なお、画像合成部は画像合成手段を構成している。
合成画像用メモリ14は画像合成部13により合成された画像を示す画像データを記憶するRAMやハードディスクなどの記録媒体である。
The image composition unit 13 is constituted by, for example, a GPU that performs image processing, and the planar projection image and the plate model memory 12-1 indicated by the image data stored in the planar projection image memories 10-1 to 10-N. The image of the board model indicated by the board data stored in .about.12-N is synthesized, and the image data representing the synthesized image is stored in the synthesized image memory 14. The image composition unit constitutes image composition means.
The synthesized image memory 14 is a recording medium such as a RAM or a hard disk that stores image data indicating an image synthesized by the image synthesizing unit 13.

画像表示部15は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、合成画像用メモリ14により格納されている画像データが示す合成画像を図示せぬディスプレイに表示する処理を実施する。なお、画像表示部15は画像表示手段を構成している。   The image display unit 15 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and displays a composite image indicated by image data stored in the composite image memory 14 on a display (not shown). Perform the process to display. The image display unit 15 constitutes image display means.

図1では、合成表示装置の構成要素である床領域画像抽出部2−1〜2−N、動体領域画像抽出部4−1〜4−N、カメラデータ取得部6、平面射影部9−1〜9−N、動体画像貼付部11−1〜11−N、画像合成部13及び画像表示部15のそれぞれが専用のハードウェアで構成されているものを想定しているが、合成表示装置がコンピュータで構成される場合、床領域画像抽出部2−1〜2−N、動体領域画像抽出部4−1〜4−N、カメラデータ取得部6、平面射影部9−1〜9−N、動体画像貼付部11−1〜11−N、画像合成部13及び画像表示部15の処理内容を記述しているプログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。   In FIG. 1, floor area image extraction units 2-1 to 2-N, moving object area image extraction units 4-1 to 4-N, a camera data acquisition unit 6, and a planar projection unit 9-1 are constituent elements of the composite display device. ~ 9-N, the moving image pasting units 11-1 to 11-N, the image compositing unit 13 and the image display unit 15 are assumed to be configured by dedicated hardware. When configured by a computer, floor area image extraction units 2-1 to 2-N, moving object area image extraction units 4-1 to 4-N, camera data acquisition unit 6, planar projection units 9-1 to 9-N, A program describing processing contents of the moving object image pasting units 11-1 to 11-N, the image compositing unit 13, and the image display unit 15 is stored in a memory of a computer, and the CPU of the computer is stored in the memory. The program may be executed.

次に動作について説明する。
この実施の形態1では、説明の便宜上、7台(N=7)のカメラ1−1〜1−7(カメラA,B,C,D,E,F,G)が、図2のように設置されているものとする。
図2は監視対象領域である部屋を示す平面図である。
この監視対象領域である部屋は、四方が壁に囲まれており、2つの本棚T1,T2が設置されている。
この部屋の床面から天井までの高さは3メートル、本棚T1,T2の高さは2メートルであるとする。
Next, the operation will be described.
In the first embodiment, for convenience of explanation, seven (N = 7) cameras 1-1 to 1-7 (cameras A, B, C, D, E, F, G) are as shown in FIG. It shall be installed.
FIG. 2 is a plan view showing a room which is a monitoring target area.
The room, which is the monitoring target area, is surrounded by walls on both sides, and two bookshelves T1 and T2 are installed.
It is assumed that the height from the floor to the ceiling of this room is 3 meters, and the height of the bookshelves T1 and T2 is 2 meters.

カメラA〜Gは、天井の高さに設置され、光軸を中心とする軸に対して水平に設置されているものとする。
また、カメラA〜Gのピッチ角は一定角度で下方を向いているものとする。
図2において、矢印A〜Gは、カメラA〜Gの撮影方向を示し、矢印の両側の実線は、それぞれのカメラが撮影可能な範囲を示している。
P,Q,Rは監視対象領域内に存在している人物を示している。
なお、図3は監視対象領域の内部を示す鳥瞰図である。ただし、図3では、部屋の外壁の表示は省略している。
The cameras A to G are installed at the height of the ceiling and are installed horizontally with respect to an axis centered on the optical axis.
Further, it is assumed that the pitch angle of the cameras A to G is a constant angle and faces downward.
In FIG. 2, arrows A to G indicate shooting directions of the cameras A to G, and solid lines on both sides of the arrows indicate ranges that can be shot by the respective cameras.
P, Q, and R indicate persons existing in the monitoring target area.
FIG. 3 is a bird's-eye view showing the inside of the monitoring target area. However, in FIG. 3, the display of the outer wall of the room is omitted.

カメラA〜Gは、図2に示すように、相互に異なる方向から監視対象領域である部屋の内部を撮影して、その部屋の内部の画像を示す画像データを床領域画像抽出部2−1〜2−7及び動体領域画像抽出部4−1〜4−7に出力する。
ただし、カメラA〜Gにおける撮影は、ばらばらに行われてもよいし、同期して同時に行われてもよい。一定時間毎にカメラA〜カメラGから最新の画像を示す画像データが出力される。
As shown in FIG. 2, the cameras A to G take images of the inside of the room that is the monitoring target area from different directions, and use the floor area image extracting unit 2-1 to display image data indicating the image inside the room. To 2-7 and the moving object region image extracting units 4-1 to 4-7.
However, the photographing with the cameras A to G may be performed separately or may be performed simultaneously in synchronization. Image data indicating the latest image is output from the cameras A to G at regular time intervals.

床領域画像抽出部2−1〜2−7は、カメラA〜Gから画像データを受けると、その画像データが示す監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出し、その床領域画像を示す画像データを床領域画像用メモリ3−1〜3−7に格納する。
床領域画像を示す画像データにおいて、床領域内の画素における画素値はカメラにより撮影された画像の画素値であり、床領域以外の画素における画素値は予め設定された一定値である。
以下、床領域画像抽出部2−1〜2−7による床領域画像の抽出処理を具体的に説明する。
When the floor area image extraction units 2-1 to 2-7 receive image data from the cameras A to G, the floor area image in which the floor surface is captured from the images of the monitoring target area indicated by the image data. And the image data indicating the floor area image is stored in the floor area image memories 3-1 to 3-7.
In the image data indicating the floor area image, the pixel values in the pixels in the floor area are the pixel values of the image taken by the camera, and the pixel values in the pixels other than the floor area are preset constant values.
Hereinafter, floor area image extraction processing by the floor area image extraction units 2-1 to 2-7 will be described in detail.

予め、カメラA〜Gは、人間が存在していないときの監視対象領域を撮影する。
床領域画像抽出部2−1〜2−7は、カメラA〜Gにより撮影された監視対象領域の画像の中で、床面が撮影されている床領域と、床面以外が撮影されている領域とを画素単位で区別し、床領域内の画素の画素値については、カメラA〜Gにより撮影された画像の画素値を記録し、床領域以外の画素の画素値については、予め設定された一定値を記録する。
In advance, the cameras A to G capture an image of a monitoring target area when no human is present.
The floor area image extraction units 2-1 to 2-7 capture the floor area where the floor surface is imaged and the areas other than the floor surface among the images of the monitoring target area captured by the cameras A to G. The area is distinguished from each other in pixel units, the pixel values of the pixels in the floor area are recorded with the pixel values of the images taken by the cameras A to G, and the pixel values of the pixels other than the floor area are set in advance. Record a constant value.

床領域画像抽出部2−1〜2−7は、実際に監視が開始されてから、カメラA〜Gから画像データを受けると、その画像データが示す監視対象領域の画像を構成している各画素の画素値と、予め記録している各画素値(人間が存在していないときの監視対象領域の画像を構成している各画素の画素値)とを比較し(画像中の同一画素位置の画素値を比較する)、画素値の差分が一定値以内の画素が床領域内の画素であると判断する。一方、画素値の差分が一定値以上の画素は床領域以外の画素であると判断する。
床領域画像抽出部2−1〜2−7は、監視対象領域の画像を構成している画素が、床領域内の画素であると判断すると、その画素の画素値をカメラA〜Gにより撮影された画像の画素値に設定し、その画素値を床領域画像用メモリ3−1〜3−7に格納する。
一方、監視対象領域の画像を構成している画素が、床領域以外の画素であると判断すると、その画素の画素値を予め設定された一定値に設定し、その画素値を床領域画像用メモリ3−1〜3−7に格納する。
When the floor area image extraction units 2-1 to 2-7 receive image data from the cameras A to G after the monitoring is actually started, the floor area image extraction units 2-1 to 2-7 constitute the images of the monitoring target area indicated by the image data. The pixel value of the pixel is compared with each pixel value recorded in advance (the pixel value of each pixel constituting the image of the monitoring target area when no human is present) (the same pixel position in the image) And the pixel value difference within a certain value is determined to be a pixel in the floor area. On the other hand, a pixel having a pixel value difference equal to or greater than a certain value is determined to be a pixel other than the floor region.
When the floor area image extraction units 2-1 to 2-7 determine that the pixels constituting the image of the monitoring target area are pixels in the floor area, the pixel values of the pixels are captured by the cameras A to G. The pixel value of the image is set, and the pixel value is stored in the floor area image memories 3-1 to 3-7.
On the other hand, if it is determined that the pixels constituting the monitoring target area image are pixels other than the floor area, the pixel value of the pixel is set to a predetermined constant value, and the pixel value is set for the floor area image. Store in the memories 3-1 to 3-7.

なお、床領域画像抽出部2−1〜2−7は、床領域の色に濃淡があるが、模様が無いような場合には、カメラA〜Gにより撮影された画像に対して、濃淡エッジの抽出処理(例えば、cannyフィルタ処理)を実施することで、濃淡によって変化がある部分のエッジが浮き上がるようにする。
床領域画像抽出部2−1〜2−7は、濃淡エッジによって床領域が分断された場合、濃淡エッジによる各閉ループを一つのクラスタとみなし、クラスタ毎に、当該クラスタを構成している各画素の画素値と、予め記録している各画素値とを比較して、画素値の差分が一定値以内の画素が床領域内の画素であると判断することで、当該クラスタが床領域であるか否かを判断する。
Note that the floor area image extraction units 2-1 to 2-7 have a shading edge on the images captured by the cameras A to G when the floor area color has a shading but there is no pattern. By performing the extraction process (for example, canny filter process), the edge of the portion that changes depending on the shading is raised.
When the floor region is divided by the light and shade edges, the floor region image extraction units 2-1 to 2-7 regard each closed loop by the light and dark edges as one cluster, and each pixel constituting the cluster for each cluster. This pixel value is compared with each pixel value recorded in advance, and it is determined that a pixel having a pixel value difference within a certain value is a pixel in the floor region, so that the cluster is a floor region. Determine whether or not.

ここで、図4はカメラA,C,Dにより撮影された監視対象領域の画像、床領域画像抽出部2−1,2−3,2−4により抽出された床領域の画像及び動体領域画像抽出部4−1,4−3,4−4により抽出された動体領域の画像を示す説明図である。
床領域の画像は、図4に示すように、カメラA,C,Dにより撮影された監視対象領域の画像から本棚T1,T2と、動体である人物P,Q,Rが除去された画像であることが分かる。
Here, FIG. 4 shows the image of the monitoring target area photographed by the cameras A, C, and D, the floor area image extracted by the floor area image extraction units 2-1, 2-3, and 2-4, and the moving object area image. It is explanatory drawing which shows the image of the moving body area | region extracted by the extraction part 4-1, 4-3, 4-4.
As shown in FIG. 4, the floor area image is an image obtained by removing the bookshelves T1 and T2 and the moving persons P, Q, and R from the images of the monitoring target area taken by the cameras A, C, and D. I understand that there is.

動体領域画像抽出部4−1〜4−7は、カメラA〜Gから画像データを受けると、その画像データが示す監視対象領域の画像の中から、動体である人物P,Q,Rが撮影されている動体領域の画像を抽出し、その動体領域画像を示す画像データを動体領域画像用メモリ5−1〜5−7に格納する。
動体領域画像を示す画像データにおいて、動体領域内の画素における画素値はカメラにより撮影された画像の画素値であり、動体領域以外の画素における画素値は予め設定された一定値である。
以下、動体領域画像抽出部4−1〜4−7による動体領域画像の抽出処理を具体的に説明する。
When receiving the image data from the cameras A to G, the moving object area image extracting units 4-1 to 4-7 photograph the persons P, Q, and R that are moving objects from the images of the monitoring target area indicated by the image data. The image of the moving object area is extracted, and image data indicating the moving object area image is stored in the moving object area image memories 5-1 to 5-7.
In the image data indicating the moving object region image, the pixel value in the pixel in the moving object region is the pixel value of the image taken by the camera, and the pixel value in the pixel other than the moving object region is a predetermined constant value.
Hereinafter, the moving body region image extraction processing by the moving body region image extracting units 4-1 to 4-7 will be described in detail.

予め、カメラA〜Gは、人間が存在していないときの監視対象領域を撮影する。
動体領域画像抽出部4−1〜4−7は、実際に監視が開始されてから、カメラA〜Gから画像データを受けると、その画像データが示す監視対象領域の画像を構成している各画素の画素値と、予め記録している各画素値(人間が存在していないときの監視対象領域の画像を構成している各画素の画素値)とを比較し(画像中の同一画素位置の画素値を比較する)、画素値の差分が一定値以上の画素が動体領域内の画素であると判断する。
あるいは、監視対象領域の画像上の一定範囲内において、予め設定された個数以上の画素の画素値に変化がある場合、それらの変化点を動体領域内の画素であると判断するようにする。
In advance, the cameras A to G capture an image of a monitoring target area when no human is present.
When the moving object region image extracting units 4-1 to 4-7 receive image data from the cameras A to G after the actual start of monitoring, the moving object region image extracting units 4-1 to 4-7 configure the images of the monitoring target region indicated by the image data. The pixel value of the pixel is compared with each pixel value recorded in advance (the pixel value of each pixel constituting the image of the monitoring target area when no human is present) (the same pixel position in the image) The pixel value difference between the pixel values is determined to be a pixel in the moving object region.
Alternatively, when there is a change in the pixel values of a predetermined number or more pixels within a certain range on the image of the monitoring target area, it is determined that these change points are pixels in the moving object area.

上記の例では、人間が存在していないときの監視対象領域の画像と、カメラA〜Gにより撮影された最新の画像を比較するものについて示したが、カメラA〜Gにより撮影された最新の画像のほかに、例えば、1秒前、2秒前、3秒前に撮影された画像を記録し、カメラA〜Gにより撮影された最新の画像と、1秒前、2秒前、3秒前に撮影された画像とを比較することで(画像中の同一画素位置の画素値を比較する)、動体領域の画像を抽出するようにしてもよい。
即ち、動体領域画像抽出部4−1〜4−7は、1秒前、2秒前、3秒前の画像のすべてにおいて、画素値の差分が一定値以上の画素は動体領域内の画素であると判断する。
一方、1秒前、2秒前、3秒前の画像のいずれかにおいて、画素値の差分が一定値未満であれば、その画素は動体領域以外の画素であると判断する。
In the above example, the image of the monitoring target area when no human is present is compared with the latest image captured by the cameras A to G. However, the latest image captured by the cameras A to G is shown. In addition to the images, for example, the images taken 1 second, 2 seconds, 3 seconds before are recorded, the latest images taken by the cameras A to G, 1 second, 2 seconds ago, 3 seconds An image of the moving object region may be extracted by comparing the previously captured image (compare pixel values at the same pixel position in the image).
That is, the moving body region image extracting units 4-1 to 4-7 are pixels within the moving body region in which the pixel value difference is equal to or greater than a certain value in all the images one second before, two seconds ago, and three seconds ago. Judge that there is.
On the other hand, if the pixel value difference is less than a certain value in any of the images 1 second, 2 seconds, and 3 seconds ago, it is determined that the pixel is a pixel other than the moving object region.

動体領域画像抽出部4−1〜4−7は、監視対象領域の画像を構成している画素が、動体領域内の画素であると判断すると、その画素の画素値をカメラA〜Gにより撮影された画像の画素値に設定し、その画素値を動体領域画像用メモリ5−1〜5−7に格納する。
一方、監視対象領域の画像を構成している画素が、動体領域以外の画素であると判断すると、その画素の画素値を予め設定された一定値に設定し、その画素値を動体領域画像用メモリ5−1〜5−7に格納する。
動体領域の画像は、図4に示すように、カメラA,B,Cにより撮影された監視対象領域の画像から本棚T1,T2と、床領域が除去された画像であることが分かる。
When the moving object region image extracting units 4-1 to 4-7 determine that the pixels constituting the image of the monitoring target region are pixels in the moving object region, the pixel values of the pixels are captured by the cameras A to G. The pixel value of the image is set, and the pixel value is stored in the moving object region image memories 5-1 to 5-7.
On the other hand, if it is determined that the pixels constituting the image of the monitoring target area are pixels other than the moving body area, the pixel value of the pixel is set to a predetermined constant value, and the pixel value is set for the moving body area image. Store in the memories 5-1 to 5-7.
As shown in FIG. 4, the moving body region image is an image obtained by removing the bookshelves T <b> 1 and T <b> 2 and the floor region from the monitoring target region images captured by the cameras A, B, and C.

ここでは、動体領域画像抽出部4−1〜4−7が監視対象領域の画像の中から、動体領域の画像を抽出し、その動体領域画像を示す画像データを動体領域画像用メモリ5−1〜5−7に格納するものについて示したが、動体領域を追跡して、複数の動体領域を識別できるようにしてもよい。
具体的には、動体領域画像抽出部4−1〜4−7は、監視対象領域の画像の中から、動体領域の画像を抽出すると、例えば、公知のMean−Shift法を用いて、その動体領域を追跡する。
Here, the moving body region image extraction units 4-1 to 4-7 extract the moving body region image from the monitoring target region image, and the image data indicating the moving body region image is stored as the moving body region image memory 5-1. Although shown about what is stored in -5-7, you may enable it to track a moving body area | region and to identify a several moving body area | region.
Specifically, when the moving object region image extracting units 4-1 to 4-7 extract the moving object region image from the monitoring target region image, for example, the moving object region image extracting unit 4-1 to 4-7 uses the known Mean-Shift method. Keep track of the area.

即ち、動体領域画像抽出部4−1〜4−7は、監視対象領域の画像の中から、動体領域の画像を抽出すると、その動体領域の画像を教師データとして保存する。
次に、動体領域画像抽出部4−1〜4−7は、例えば、0.5秒後にカメラA〜Gから次の撮影画像を受けると、その撮影画像において、その教師データが示す動体領域の画像と同じ図柄の領域を判別することで、その動体領域の移動先を特定する。
That is, when the moving object region image extracting units 4-1 to 4-7 extract the moving object region image from the monitoring target region image, the moving object region image is stored as teacher data.
Next, when the moving body region image extracting units 4-1 to 4-7 receive the next captured image from the cameras A to G, for example, after 0.5 seconds, the moving body region indicated by the teacher data in the captured image is displayed. By identifying a region having the same pattern as the image, the movement destination of the moving object region is specified.

動体領域画像抽出部4−1〜4−7は、動体領域の追跡に成功すると、動体領域画像を示す画像データを動体領域画像用メモリ5−1〜5−7に格納する際、例えば、0.5秒前の画像における動体領域と、最新の画像における動体領域に対して、同一の管理番号を付与して、その管理番号を画像データと一緒に動体領域画像用メモリ5−1〜5−7に記録する。
これにより、監視対象領域内で、複数の人物が重なり合って撮影されている場合でも、重なり度合いが一定画素値以下であれば、複数の人物が撮影されている領域を別々の動体領域として抽出することが可能となる。
When the moving object region image extracting units 4-1 to 4-7 succeed in tracking the moving object region, the moving object region image extracting units 4-1 to 4-7 store, for example, 0 in the moving object region image memories 5-1 to 5-7. The same management number is assigned to the moving object area in the image five seconds ago and the moving object area in the latest image, and the management number is stored together with the image data in the moving object area image memory 5-1 to 5- Record in 7.
As a result, even when a plurality of persons are photographed in the monitoring target area, if the degree of overlap is equal to or less than a certain pixel value, the areas where the plurality of persons are photographed are extracted as separate moving object areas. It becomes possible.

カメラデータ取得部6は、例えば、カメラA〜Gや、図示せぬカメラA〜Gのパンチルト機能部からカメラデータ(例えば、カメラの光軸方向、設置位置、設置高、焦点距離などを示すデータ)を取得するデータ入力インタフェースを備えており、そのカメラデータをカメラデータ用メモリ7に格納する。
ただし、この実施の形態1では、カメラA〜Gが固定カメラであるものを想定しており、カメラデータは固定値であるものとする。
The camera data acquisition unit 6 receives camera data (for example, data indicating the optical axis direction of the camera, the installation position, the installation height, the focal length, etc.) from the cameras A to G and the pan / tilt function units of the cameras A to G (not shown). ) Is acquired, and the camera data is stored in the camera data memory 7.
However, in the first embodiment, it is assumed that the cameras A to G are fixed cameras, and the camera data is a fixed value.

平面射影部9−1〜9−7は、床領域画像抽出部2−1〜2−7が、床領域画像を示す画像データを床領域画像用メモリ3−1〜3−7に格納すると、カメラデータ用メモリ7に記憶されているカメラデータと、建物構造データ用メモリ8に記憶されている建物構造データとを参照して、床領域画像用メモリ3−1〜3−7により格納されている画像データが示す床領域画像を監視対象領域の直交座標系における平面位置に射影して、所定の方向を向いている平面射影画像を生成し、その平面射影画像を示す画像データを平面射影画像用メモリ10−1〜10−7に格納する。
以下、平面射影部9−1〜9−7における平面射影画像の生成処理を具体的に説明する。
When the floor area image extracting units 2-1 to 2-7 store the image data indicating the floor area image in the floor area image memories 3-1 to 3-7, With reference to the camera data stored in the camera data memory 7 and the building structure data stored in the building structure data memory 8, the floor area image memories 3-1 to 3-7 store the data. The floor area image indicated by the existing image data is projected onto the plane position in the Cartesian coordinate system of the monitored area to generate a plane projection image facing the predetermined direction, and the image data indicating the plane projection image is converted into the plane projection image. Stored in the memory 10-1 to 10-7.
Hereinafter, the process of generating a planar projection image in the planar projection units 9-1 to 9-7 will be specifically described.

平面射影部9−1〜9−7は、平面射影画像を生成するために、床領域画像を監視対象領域の直交座標系(建物構造データの座標系)における平面位置に射影するが、ここでの「射影」は、カメラA〜Gから床領域内の各画素までの平面距離(撮影方向の距離と、その撮影方向の距離と直交する方向の距離)を求めることで、監視対象領域の直交座標系(建物構造データの座標系)における平面位置に対して、床領域内の各画素の画素値を設定することを意味する。   The plane projection units 9-1 to 9-7 project the floor area image to the plane position in the orthogonal coordinate system (the coordinate system of the building structure data) of the monitoring target area in order to generate a plane projection image. The “projection” is obtained by obtaining the plane distance (distance in the photographing direction and distance in the direction perpendicular to the distance in the photographing direction) from the cameras A to G to each pixel in the floor region, thereby orthogonal to the monitoring target region. This means that the pixel value of each pixel in the floor area is set with respect to the plane position in the coordinate system (the coordinate system of the building structure data).

ここで、図5(a)は監視対象領域の床面に対して並行にして、カメラの光軸(中心)方向を真横から見た場合の監視対象領域を示す説明図である。図5(b)は表示画面例を示す説明図である。
図5において、“hc”はカメラの設置高(床面からカメラの設置位置までの距離)、“θp”はカメラの光軸方向(カメラが水平面から下方向に向いている角度)、“f”はカメラの焦点距離、“Sh”はカメラの受光面における上下の長さである。
例えば、図5(a)に示すように、カメラにより撮影される画像の上下方向の範囲が点M〜点Jであるとすると、点J、点K、点L、点Mが写る位置までの受光面の距離は、図5(b)に示すように、“yJ”、“yK”、“yL”、“yM”で表される。
Here, FIG. 5A is an explanatory diagram showing the monitoring target region when the optical axis (center) direction of the camera is viewed from the side in parallel with the floor surface of the monitoring target region. FIG. 5B is an explanatory diagram illustrating a display screen example.
In FIG. 5, “hc” is the camera installation height (distance from the floor surface to the camera installation position), “θp” is the optical axis direction of the camera (the angle at which the camera is directed downward from the horizontal plane), “f “Is the focal length of the camera, and“ Sh ”is the vertical length of the light receiving surface of the camera.
For example, as shown in FIG. 5 (a), assuming that the range in the vertical direction of the image taken by the camera is point M to point J, up to the position where point J, point K, point L, and point M appear. The distance of the light receiving surface is represented by “yJ”, “yK”, “yL”, “yM” as shown in FIG.

床領域画像を監視対象領域の直交座標系における平面位置に射影するには、点Pから床領域内の各点(例えば、点J、点K、点L、点Mなど)までの距離(撮影方向の距離)を求める必要がある。
例えば、点Pから点Lまでの距離LPは、以下のように求めることができる。
まず、∠LOCは、下記の式(1)で表されるので、LP/hcは、下記の式(2)のようになる。
∠LOC=arctan(yL/f) (1)
LP/hc=tan((π/2)−(θp−arctan(yL/f))) (2)
式(2)より、距離LPは、下記のように求めることができる。
LP=hc×tan((π/2)−(θp−arctan(yL/f))) (3)
ただし、πは円周率を示している。
In order to project the floor area image to a planar position in the orthogonal coordinate system of the monitoring target area, the distance (shooting) from the point P to each point in the floor area (for example, point J, point K, point L, point M, etc.) It is necessary to obtain the direction distance).
For example, the distance LP from the point P to the point L can be obtained as follows.
First, since ∠LOC is expressed by the following formula (1), LP / hc is expressed by the following formula (2).
∠LOC = arctan (yL / f) (1)
LP / hc = tan ((π / 2) − (θp-arctan (yL / f))) (2)
From the equation (2), the distance LP can be obtained as follows.
LP = hc × tan ((π / 2) − (θp−arctan (yL / f))) (3)
Here, π represents the circumference ratio.

図6は監視対象領域の画像における画素が実空間のどの点に対応するかを示す説明図である。
図6(a)は図2のカメラCの撮影画像を示し、図6(b)はカメラCと本棚T1,T2の位置を上空から見ている平面図である。
図6において、OはカメラCの設置位置であり、カメラCは床面からhcの高さに設置されている。
点Aは本棚T1と床面のなすコーナーの点であり、点Bは本棚T2と床面のなすコーナーの点である。点Cは光軸を床面に射影した線と補助線が交差する点である。図6の補助線は受光面と並行である。
点DはカメラCにより撮影される画像の左端における床面と接する点であり、点EはカメラCにより撮影される画像の右端における床面と接する点である。点Fは光軸を床面に射影した線と点DEを結ぶ線が交差する点である。
FIG. 6 is an explanatory diagram showing which point in the real space the pixel in the image of the monitoring target area corresponds to.
6A shows a photographed image of the camera C in FIG. 2, and FIG. 6B is a plan view of the positions of the camera C and the bookshelves T1 and T2 as viewed from above.
In FIG. 6, O is the installation position of the camera C, and the camera C is installed at a height of hc from the floor surface.
Point A is a corner point between the bookshelf T1 and the floor, and point B is a corner point between the bookshelf T2 and the floor. Point C is a point where a line obtained by projecting the optical axis onto the floor and an auxiliary line intersect. The auxiliary line in FIG. 6 is parallel to the light receiving surface.
Point D is a point in contact with the floor at the left end of the image captured by camera C, and point E is a point in contact with the floor at the right end of the image captured by camera C. Point F is a point where a line connecting the point DE and a line obtained by projecting the optical axis onto the floor intersects.

図中、“Sh”と“f”は、図5における“Sh”と“f”と同じ意味である。
画像の左右中心から点A、点B、点D、点Eが写る位置までの受光面の距離は、図6(b)に示すように、“xA”、“xB”、“xD”、“xE”で表される。
床領域画像を監視対象領域の直交座標系における平面位置に射影するには、画像の左右中心(例えば、点C、点Fなど)から床領域内の各点(例えば、点A、点B、点D、点Eなど)までの距離(撮影方向の距離と直交する方向の距離)を求める必要がある。
In the figure, “Sh” and “f” have the same meaning as “Sh” and “f” in FIG.
As shown in FIG. 6B, the distances of the light receiving surfaces from the left and right centers of the image to the positions where the points A, B, D, and E appear are “xA”, “xB”, “xD”, “ xE ".
In order to project the floor area image to a planar position in the orthogonal coordinate system of the monitoring target area, each point (for example, point A, point B, etc.) in the floor area from the left and right center (for example, point C, point F, etc.) of the image. It is necessary to obtain a distance to a point D, a point E, etc. (a distance in a direction orthogonal to the distance in the shooting direction).

例えば、画像の左右中心である点Cから点Aまでの距離ACは、以下のように求めることができる。
まず、∠AOCは、下記の式(4)で表されるので、AC/COは、下記の式(5)のようになる。
∠AOC=arctan(xA/f) (4)
AC/CO=tan(∠AOC)=xA/f (5)
ただし、点Cと点Oの距離COは、点Oの高さが既知であるため、上述した図5を解説した方式で求めることができる。
式(5)より、距離ACは、下記のように求めることができる。
AC=CO×xA/f (6)
For example, the distance AC from the point C to the point A that is the center of the left and right of the image can be obtained as follows.
First, since ∠AOC is expressed by the following formula (4), AC / CO is expressed by the following formula (5).
∠AOC = arctan (xA / f) (4)
AC / CO = tan (∠AOC) = xA / f (5)
However, since the height of the point O is known, the distance CO between the point C and the point O can be obtained by the method explained in FIG.
From the equation (5), the distance AC can be obtained as follows.
AC = CO × xA / f (6)

平面射影部9−1〜9−7は、上記のようにして、点Pから床領域内の各点(例えば、点J、点K、点L、点Mなど)までの距離(撮影方向の距離)と、画像の左右中心(例えば、点C、点Fなど)から床領域内の各点(例えば、点A、点B、点D、点Eなど)までの距離(撮影方向の距離と直交する方向の距離)とを求めると、それらの距離が示す平面位置(監視対象領域の直交座標系(建物構造データの座標系)における平面位置)に対して、床領域内の各画素の画素値を設定することで、平面射影画像を生成する。
例えば、図5における点Jと、図6における点Dとが同じ画素の点であるとすると、距離(JP,DF)が示す平面位置に対して、当該画素の画素値を設定することで、当該画素を平面位置に射影する。
As described above, the planar projection units 9-1 to 9-7 are distances (in the shooting direction) from the point P to each point (for example, the point J, the point K, the point L, the point M, etc.) in the floor area. Distance) and the distance (for example, the distance in the photographing direction) from the center of the image (for example, point C, point F, etc.) to each point (for example, point A, point B, point D, point E, etc.) in the floor area. (Distance in the orthogonal direction) and the pixel of each pixel in the floor area with respect to the plane position indicated by those distances (the plane position in the orthogonal coordinate system of the monitoring target area (coordinate system of building structure data)) By setting the value, a planar projection image is generated.
For example, if the point J in FIG. 5 and the point D in FIG. 6 are the same pixel point, by setting the pixel value of the pixel with respect to the plane position indicated by the distance (JP, DF), The pixel is projected onto a planar position.

ただし、平面射影部9−1〜9−7は、平面射影画像を生成する際、その平面射影画像が所定の方向を向いているように生成する。
例えば、所定の方向がカメラCの撮影方向と一致する方向に設定されているとすると、カメラDの場合、カメラCと撮影方向が逆方向であるため、カメラDにより撮影された画像から生成する平面射影画像については、視点方向を180度回転させることで、カメラCにより撮影された画像から生成する平面射影画像と同じ方向を向くようにする。
他のカメラA,B,E,F,Gにより撮影された画像から生成する平面射影画像についても、カメラCにより撮影された画像から生成する平面射影画像と同じ方向を向くように視点方向を回転させて生成する。
カメラA〜Gの撮影画像から生成された平面射影画像の視点方向を回転させることで、それらの平面射影画像が同じ方向を向いているように生成する処理自体は公知の技術であるため、ここでは詳細な説明を省略する。
However, the plane projection units 9-1 to 9-7 generate the plane projection image so that the plane projection image faces a predetermined direction.
For example, if the predetermined direction is set to a direction that coincides with the shooting direction of the camera C, in the case of the camera D, since the shooting direction is opposite to the camera C, it is generated from the image shot by the camera D. As for the planar projection image, the viewpoint direction is rotated by 180 degrees so as to face the same direction as the planar projection image generated from the image captured by the camera C.
Rotate the viewpoint direction so that the planar projection image generated from the images captured by other cameras A, B, E, F, and G also faces the same direction as the planar projection image generated from the image captured by the camera C To generate.
Since the processing itself for generating the planar projection images so as to face the same direction by rotating the viewpoint direction of the planar projection images generated from the captured images of the cameras A to G is a known technique, here Then, detailed description is abbreviate | omitted.

動体画像貼付部11−1〜11−7は、動体領域画像抽出部4−1〜4−7が動体領域の画像を抽出し、その動体領域画像を示す画像データを動体領域画像用メモリ5−1〜5−7に格納すると、カメラデータ用メモリ7に記憶されているカメラデータ及び建物構造データ用メモリ8に記憶されている建物構造データを参照して、監視対象領域の直交座標系上で動体が存在している領域に板モデル(板モデルは、例えば、動体の幅、高さを有する直方体であり、その直方体の奥行きの長さは予め決められた値である)を設置し、その板モデルの表面に動体領域画像用メモリ5−1〜5−7により格納されている動体領域画像を貼り付ける処理を実施する。
以下、動体画像貼付部11−1〜11−7の処理内容を具体的に説明する。
In the moving object image pasting units 11-1 to 11-7, the moving object region image extracting units 4-1 to 4-7 extract images of the moving object region, and image data indicating the moving object region images is stored in the moving object region image memory 5- When stored in 1-5-7, the camera data stored in the camera data memory 7 and the building structure data stored in the building structure data memory 8 are referred to on the orthogonal coordinate system of the monitoring target area. A plate model (a plate model is, for example, a rectangular parallelepiped having the width and height of the moving object, and the length of the depth of the rectangular parallelepiped is a predetermined value) in the area where the moving object exists, Processing for pasting the moving body region images stored in the moving body region image memories 5-1 to 5-7 on the surface of the board model is performed.
Hereinafter, the processing content of the moving body image sticking part 11-1 to 11-7 is demonstrated concretely.

最初に、監視対象領域の直交座標系上で動体が存在している領域に板モデルを設置する際の処理内容について説明する。
図7は動体が存在している領域の探索処理を示す説明図である。
図7において、(a)はカメラCにより撮影された画像から生成された平面射影画像を示し、(b)はカメラCにより撮影された画像から抽出された動体領域画像を示している。
First, the processing contents when a plate model is installed in a region where a moving object exists on the orthogonal coordinate system of the monitoring target region will be described.
FIG. 7 is an explanatory diagram showing a search process for a region where a moving object exists.
7A shows a planar projection image generated from an image taken by the camera C, and FIG. 7B shows a moving object region image extracted from the image taken by the camera C.

まず、動体画像貼付部11−1〜11−7は、監視対象領域の直交座標系上で動体が存在している領域を探索する。
即ち、動体画像貼付部11−1〜11−7は、図7(a)に示すように、平面射影画像内の画素をカメラ位置Oから放射状に一定角度の差をもたせて探索する。
その探索結果として、一旦、床面の画素になり、再び床面の画素ではなくなった画素位置を、板モデルを設置する候補点として記録する。
図7(a)の例では、点A,点B,点Cが候補点として記録される。
First, the moving object image pasting units 11-1 to 11-7 search for an area where a moving object exists on the orthogonal coordinate system of the monitoring target area.
That is, the moving body image pasting units 11-1 to 11-7 search for pixels in the planar projection image with a certain angle difference radially from the camera position O, as shown in FIG.
As a search result, a pixel position that once becomes a pixel on the floor surface and is no longer a pixel on the floor surface is recorded as a candidate point for installing the plate model.
In the example of FIG. 7A, point A, point B, and point C are recorded as candidate points.

次に、動体画像貼付部11−1〜11−7は、図7(b)に示すように、動体領域画像上で、一定画素毎に下から上に探索し、動体に当る画素位置を求める。
そして、動体に当る画素位置を平面射影部9−1〜9−7と同様の方式で平面上の位置に射影し、この平面上の位置と平面射影画像から求めた候補点(点A,点B,点C)の距離を求める。
動体画像貼付部11−1〜11−7は、一定距離以内の候補点を、板モデルを設置する場所に決定する。
図7の例では、点B,点Cは一定距離以内の候補点であるため、板モデルを設置する場所に決定されるが、点Aは一定距離以内の候補点ではないため、板モデルを設置する場所に決定されない。
Next, as shown in FIG. 7B, the moving object image pasting units 11-1 to 11-7 search the moving object region image from the bottom to the top for every predetermined pixel to obtain the pixel position that hits the moving object. .
Then, the pixel position that hits the moving object is projected to the position on the plane in the same manner as the plane projection units 9-1 to 9-7, and the candidate points (point A, point obtained from the position on the plane and the plane projection image) B, find the distance of point C).
The moving body image pasting units 11-1 to 11-7 determine candidate points within a certain distance as places where the board model is installed.
In the example of FIG. 7, since the points B and C are candidate points within a certain distance, the place where the plate model is installed is determined. However, since the point A is not a candidate point within a certain distance, It is not decided where to install.

動体画像貼付部11−1〜11−7は、板モデルを設置する候補点を決定すると、それらの候補点を折れ線(または、近似直線)で結んだ線分に高さを与えた板モデル(3次元モデル)を生成する。
なお、動体領域画像抽出部4−1〜4−7により動体が追跡されて複数の動体領域画像が抽出されている場合、それぞれの動体領域画像について、一定画素毎に下から上に探索する処理を行う。
これにより、平面射影画像上の候補点と、それぞれの動体領域画像の対応が図られる。
ただし、この場合、動体画像貼付部11−1〜11−7は、板モデルと動体領域画像抽出部4−1〜4−7により追跡された動体の管理番号を関連付けておくようにする。
When the moving object image pasting units 11-1 to 11-7 determine candidate points on which the plate model is to be installed, a plate model that gives a height to a line segment connecting these candidate points with a broken line (or an approximate straight line) ( 3D model) is generated.
In addition, when a moving body is tracked by the moving body region image extraction units 4-1 to 4-7 and a plurality of moving body region images are extracted, processing for searching each moving body region image from the bottom to the top for each predetermined pixel. I do.
Thereby, the correspondence between the candidate points on the planar projection image and each moving object region image is achieved.
However, in this case, the moving object image pasting units 11-1 to 11-7 associate the plate model with the management number of the moving object tracked by the moving object region image extracting units 4-1 to 4-7.

次に、動体画像貼付部11−1〜11−7は、上記の板モデルの高さを決定する。
具体的には、動体画像貼付部11−1〜11−7は、動体領域画像上に板モデルを設置する場所に決定すると、図7(b)に示すように、その動体領域画像上で、上から下に探索を行って、検出した動体の最上点を求める。
図8は板モデルの高さを決定するための説明図である。図8の例では、点L1が最上点であり、点Kが板モデルを設置する位置である。
図8(a)における記号は、図5(a)における記号と同じ意味である。
Next, the moving body image pasting units 11-1 to 11-7 determine the height of the plate model.
Specifically, when the moving object image pasting units 11-1 to 11-7 determine the place where the plate model is installed on the moving object region image, as shown in FIG. 7B, on the moving object region image, Search from top to bottom to find the top point of the detected moving object.
FIG. 8 is an explanatory diagram for determining the height of the plate model. In the example of FIG. 8, the point L 1 is the highest point, and the point K is the position where the plate model is installed.
The symbols in FIG. 8A have the same meaning as the symbols in FIG.

次に、動体画像貼付部11−1〜11−7は、平面射影部9−1〜9−7と同様の方式で、カメラが設置されている平面上の位置Pと板モデルを設置する点Kの距離PKを算出する。
ただし、監視対象物である動体の奥行きが薄い物体であるとみなして、求める板モデルの上端の点をL2と仮定する。点L2は、点Kの真上に延びる線と、カメラ位置Oと点L1を結ぶ線との交点である。
即ち、∠POCは、下記の式(7)で表されるので、距離PKは、下記の式(8)のようになる。
∠POC=π/2−θp (7)
PK=OL2×sin(∠POC) (8)
Next, the moving object image pasting units 11-1 to 11-7 are arranged in the same manner as the plane projecting units 9-1 to 9-7 to install the position P on the plane where the camera is installed and the plate model. A distance PK of K is calculated.
However, regarded as the depth of a monitored object body is a thin object, assumed point of the upper end of the plate model for obtaining and L 2. Point L 2 is an intersection of a line extending directly above point K and a line connecting camera position O and point L 1 .
That is, since ∠POC is expressed by the following formula (7), the distance PK is expressed by the following formula (8).
∠POC = π / 2−θp (7)
PK = OL 2 × sin (∠POC) (8)

次に、動体画像貼付部11−1〜11−7は、距離PKの算出式である式(8)から距離OL2を求め、平面位置から点L2までの高さKL2を求める。
OL2=PK/sin(∠POC) (9)
KL2=hc−OL2×cos(∠POC) (10)
Next, the moving object image pasting unit 11-1 to 11-7, the distance is a calculation formula of PK from equation (8) obtains distances OL 2, obtains the height KL 2 from the plane position to the point L 2.
OL 2 = PK / sin (∠POC) (9)
KL 2 = hc−OL 2 × cos (∠POC) (10)

動体画像貼付部11−1〜11−7は、上記のようにして、板モデルを設置する場所と板モデルの高さを決定すると、その板モデルを決定した場所に設置して、その板モデルの表面に動体領域画像用メモリ5−1〜5−7により格納されている画像データが示す動体領域画像を貼り付け、動体領域画像が貼り付けられている板モデルを示す板データを板モデル用メモリ12−1〜12−Nに格納する。
なお、板データは、板モデルの3次元位置を示す座標(VRML(Virtual Reality Modeling Language)形式、あるいは、OpenGLを用いて表現可能な座標データ)と、テクスチャである動体領域画像の貼り付け方を示す値からなるデータである。
When the moving object image pasting units 11-1 to 11-7 determine the location where the plate model is installed and the height of the plate model as described above, the moving body image pasting units 11-1 to 11-7 install the plate model at the determined location. The moving object region image indicated by the image data stored in the moving object region image memories 5-1 to 5-7 is pasted on the surface of the plate, and the plate data indicating the plate model on which the moving object region image is attached is used for the plate model. Store in the memories 12-1 to 12-N.
Note that the board data indicates the coordinates of the three-dimensional position of the board model (VRML (Virtual Reality Modeling Language) format, or coordinate data that can be expressed using OpenGL), and how to attach the textured moving object area image. Data consisting of values.

ここで、図9は板モデルに対する動体領域画像の貼付を示す説明図である。
図9に示すように、一定方向から見た場合に、床面が他の色で途切れている位置に動体が立って見えるように板モデルが設置され、その板モデルの表面に動体領域画像が貼り付けられる。
なお、動体領域画像抽出部4−1〜4−7による追跡によって複数の動体領域画像が抽出されている場合、それぞれの動体領域画像について板データを生成する。
これにより、複数の人物が写っている場合でも、複数の人物を別々に表示することが可能になる。
Here, FIG. 9 is explanatory drawing which shows sticking of the moving body area | region image with respect to a board model.
As shown in FIG. 9, when viewed from a certain direction, a plate model is installed so that a moving body can be seen standing at a position where the floor surface is interrupted by another color, and a moving object region image is displayed on the surface of the plate model. It is pasted.
In addition, when several moving body area | region images are extracted by tracking by the moving body area | region image extraction parts 4-1 to 4-7, board data are produced | generated about each moving body area | region image.
Thereby, even when a plurality of persons are shown, the plurality of persons can be displayed separately.

画像合成部13は、動体画像貼付部11−1〜11−7が、動体領域画像が貼り付けられている板モデルを示す板データを板モデル用メモリ12−1〜12−Nに格納すると、平面射影画像用メモリ10−1〜10−7により格納されている画像データが示す平面射影画像と、板モデル用メモリ12−1〜12−7により格納されている板データが示す動体領域画像が貼り付けられた板モデルの画像を合成し、合成後の画像を示す画像データを合成画像用メモリ14に格納する。
以下、画像合成部13における画像の合成処理を具体的に説明する。
When the moving image pasting units 11-1 to 11-7 store the board data indicating the board model to which the moving body area image is pasted in the board model memories 12-1 to 12-N, the image composition unit 13 The plane projection image indicated by the image data stored in the plane projection image memories 10-1 to 10-7 and the moving object area image indicated by the plate data stored in the board model memories 12-1 to 12-7 are as follows. The pasted image of the board model is synthesized, and image data indicating the synthesized image is stored in the synthesized image memory 14.
Hereinafter, the image composition processing in the image composition unit 13 will be described in detail.

図10はカメラCにより撮影された画像から生成された平面射影画像及び板モデルと、カメラDにより撮影された画像から生成された平面射影画像及び板モデルとの合成画像を示す説明図である。
カメラCとカメラDの撮影方向は逆方向であるため、上述したように、カメラDにより撮影された画像から生成された平面射影画像については、視点方向を180度回転させることで、カメラCにより撮影された画像から生成された平面射影画像と同じ方向を向くようにされている。
その結果、図10の例では、カメラCにより撮影された画像から生成された平面射影画像及びカメラDにより撮影された画像から生成された平面射影画像の視点方向はどちらも同じであり、カメラCの設置位置が視点とされている。
FIG. 10 is an explanatory diagram illustrating a composite image of a planar projection image and a plate model generated from an image captured by the camera C, and a planar projection image and a plate model generated from an image captured by the camera D.
Since the shooting directions of the camera C and the camera D are opposite directions, as described above, the planar projection image generated from the image shot by the camera D is rotated by the viewpoint direction by 180 degrees. The image is directed in the same direction as the planar projection image generated from the photographed image.
As a result, in the example of FIG. 10, the viewpoint directions of the planar projection image generated from the image captured by the camera C and the planar projection image generated from the image captured by the camera D are both the same. The installation position is considered as a viewpoint.

画像合成部13は、カメラA〜Gにより撮影された画像から生成された平面射影画像及びカメラA〜Gにより撮影された画像から生成された動体領域画像が貼り付けられている板モデルについては、建物構造データの座標系及び座標原点を用いて記述されているので(視点方向が一致している)、図10に示すように、平面射影画像を示す画像データ及び動体領域画像が貼り付けられている板モデルを示す板データを一つのデータとして重ね合わせることにより、合成画像を生成する。
ただし、画素値に関しては、2つ以上の平面射影画像が重なる点は平均化するものとする。
板データは重なりあってもよい。また、複数の板データの中で、一定の距離以内にある板データについては取り除いてもよい。
The image compositing unit 13 uses a planar projection image generated from images captured by the cameras A to G and a plate model to which a moving object region image generated from the images captured by the cameras A to G is attached. Since it is described using the coordinate system and the coordinate origin of the building structure data (the viewpoint directions are the same), as shown in FIG. 10, the image data indicating the planar projection image and the moving object region image are pasted. A composite image is generated by superimposing the plate data indicating the plate model that is present as one piece of data.
However, regarding pixel values, the points where two or more planar projection images overlap are averaged.
The board data may overlap. Moreover, you may remove about the board data within a fixed distance among several board data.

また、一定の距離以内にある板データが示すテクスチャ同士をMean−Shift法を用いて比較し、それらのテクスチャが一致する場合には、一方のテクスチャを消去するようにしてもよい。これにより、重複した表示を削減することができる。
また、2つのカメラから同時に観測可能な床領域内の板データがある場合も、それらの板データが示すテクスチャ同士をMean−Shift法を用いて比較し、それらのテクスチャが一致する場合には、一方のテクスチャを消去するようにしてもよい。
Further, textures indicated by plate data within a certain distance may be compared using the Mean-Shift method, and if the textures match, one texture may be deleted. Thereby, the overlapping display can be reduced.
In addition, even when there is plate data in the floor area that can be observed from two cameras at the same time, the textures indicated by the plate data are compared using the Mean-Shift method, and when the textures match, One texture may be erased.

なお、画像合成部13により生成された合成画像を示す画像データは、床面が1枚の四角形として、画素値に対応したテクスチャが張り合わせたものとなり、これに板データを合わせられたVRML形式となる。または、OpenGLで記述可能な座標値とテクスチャデータのデータ群でもよい。   Note that the image data indicating the synthesized image generated by the image synthesizing unit 13 is obtained by combining a texture corresponding to a pixel value with a floor having a single square and a VRML format in which plate data is combined with this. Become. Alternatively, it may be a coordinate value and texture data group that can be described in OpenGL.

画像表示部15は、画像合成部13が合成画像を示す画像データを合成画像用メモリ14に格納すると、その画像データが示す合成画像を図示せぬディスプレイに表示する。
即ち、画像表示部15は、例えば、VRMLのビューアソフトウェアを用いることで、画像データが示す合成画像の視点方向を操作員が指示する任意の視点位置に合わせて、その合成画像をディスプレイに表示する。
図11は画像表示部15による合成画像の表示例を示す説明図である。
図11では、床の上に人物P,Q,Rが乗っている画像が表示されており、遮蔽物である本棚T1,T2は表示されていない。図11では、説明の便宜上、建物の外壁の表示は省略している。
When the image combining unit 13 stores the image data indicating the combined image in the combined image memory 14, the image display unit 15 displays the combined image indicated by the image data on a display (not shown).
That is, the image display unit 15 displays the composite image on the display by using VRML viewer software, for example, so that the viewpoint direction of the composite image indicated by the image data matches the arbitrary viewpoint position indicated by the operator. .
FIG. 11 is an explanatory diagram showing a display example of a composite image by the image display unit 15.
In FIG. 11, an image in which persons P, Q, and R are on the floor is displayed, and bookshelves T1 and T2 that are shielding objects are not displayed. In FIG. 11, the display of the outer wall of the building is omitted for convenience of explanation.

ここでは、画像表示部15が合成画像をディスプレイに表示するものについて示したが、カメラA〜Gにより撮影された画像のいずれかを選択して表示するようにしてもよい。
この場合、カメラの画面表示の上に、VRML形式のテクスチャ付き板データを読み込んで合成表示する手段を備えるようにする。
VRMLの表示視点位置及び方向をカメラの設置位置及び方向に合わせて、カメラにより撮影された画像上に、テクスチャ付き板データを表示する。
また、板データだけではなく、床データ又はその一部を合成表示するようにしてもよい。床データ及び板データは、半透過で表示するようにしてもよい。
Here, although the image display unit 15 has been described as displaying the composite image on the display, any one of the images taken by the cameras A to G may be selected and displayed.
In this case, on the screen display of the camera, there is provided means for reading the VRML format textured board data and compositing and displaying it.
The VRML display viewpoint position and direction are matched with the installation position and direction of the camera, and the textured board data is displayed on the image captured by the camera.
Further, not only the board data but also floor data or a part thereof may be displayed in a synthesized manner. The floor data and board data may be displayed semi-transparently.

また、画像表示部15は、合成画像をディスプレイに表示する際、動体領域画像抽出部4−1〜4−7により動体領域に付与された管理番号を表示するようにしてもよい。
この場合、例えば、カメラAにより撮影された画像に写っていた動体が、カメラAの画角の外に出た時刻から一定時間内にカメラBの画角に入ることで、その動体が新たに検出された場合、同じ動体として同じ管理番号を表示する。
ただし、カメラAにより検出された動体の床面上の板データの位置と、カメラBにより検出された動体の床面上の位置が一定距離以内の場合に、同一の動体であるものと認定する。
あるいは、確認のために、これらの板データのテクスチャをMean−Shift法によって比較するようにしてもよい。これにより、いずれかのカメラが撮影できている人物の動作を追跡して表示することが可能になる。
Further, when displaying the composite image on the display, the image display unit 15 may display the management number assigned to the moving object region by the moving object region image extracting units 4-1 to 4-7.
In this case, for example, when the moving object that is reflected in the image taken by the camera A enters the angle of view of the camera B within a certain time from the time when the object moves out of the angle of view of the camera A, the moving object is newly added. When it is detected, the same management number is displayed as the same moving object.
However, if the position of the plate data on the floor of the moving object detected by the camera A and the position of the moving object on the floor of the moving object detected by the camera B are within a certain distance, they are recognized as the same moving object. .
Alternatively, for confirmation, the textures of these plate data may be compared by the Mean-Shift method. As a result, it is possible to track and display the action of a person who has been photographed by any camera.

また、板データに付加している管理番号と、その板データの位置を記録するようにしてもよい。
これにより、何処にいた人物が、何処へ向かったかなどを示す情報の記録が可能になる。
Further, the management number added to the board data and the position of the board data may be recorded.
As a result, it is possible to record information indicating where a person was and where he / she went.

なお、動体領域画像抽出部4−1〜4−7により一塊の動体として抽出された動体領域があるとき、その後、一塊の動体が分離して、2つの動体領域が抽出されるときがある。
このような場合、動体領域画像抽出部4−1〜4−7は、2つの動体領域に対して、それぞれ管理番号を付与する。
一塊の板データについては、2つの動体が重なっていている動体として、事後に2つの管理データを付与するようにする。
逆に、2つの動体領域が検出された後、2つの動体領域が一塊の動体として抽出された場合、この一塊の板データに対して、2つの動体の管理番号を付与するようにする。
これにより、画像表示部15は、二人の人物が固まっている場合、2つの管理番号を表示することができるため、人物の重なりも表現することができる。
When there is a moving body region extracted as a lump of moving body by the moving body region image extraction units 4-1 to 4-7, the lump of moving body may then be separated and two moving body regions may be extracted.
In such a case, the moving body region image extraction units 4-1 to 4-7 assign management numbers to the two moving body regions, respectively.
As for a lump of plate data, two pieces of management data are given after the fact as a moving body in which two moving bodies overlap.
On the other hand, when two moving object areas are extracted as a lump of moving objects after the two moving object areas are detected, the management numbers of the two moving objects are assigned to the lump of plate data.
As a result, the image display unit 15 can display two management numbers when two persons are solidified, and thus can also represent an overlap of persons.

以上で明らかなように、この実施の形態1によれば、カメラA〜Gにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出する床領域画像抽出部2−1〜2−7と、カメラA〜Gにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出する動体領域画像抽出部4−1〜4−7と、カメラA〜Gの設置状況を示すカメラデータを用いて、床領域画像抽出部2−1〜2−7により抽出された床領域の画像を監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する平面射影部9−1〜9−7と、監視対象領域の直交座標系上で上記動体が存在している領域に板モデルを設置し、その板モデルの表面に動体領域画像抽出部4−1〜4−7により抽出された動体領域画像を貼り付ける動体画像貼付部11−1〜11−7とを設け、画像合成部13が、平面射影部9−1〜9−7により生成された平面射影画像及び動体画像貼付部11−1〜11−7により動体領域画像が貼り付けられた板モデルの画像を合成するように構成したので、監視対象領域内の動体の模様・形状の複雑さや、監視対象領域内の遮蔽物の有無に関わらず、複数のカメラにより撮影された画像を合成することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the floor area image that extracts the image of the floor area in which the floor surface is photographed from the images of the monitoring target areas photographed by the cameras A to G. The moving object region image extracting units 4-1 to 2-1 that extract the moving object region image in which the moving object is photographed from the images of the monitoring target regions photographed by the extraction units 2-1 to 2-7 and the cameras A to G. 4-7 and the plane data in the orthogonal coordinate system of the monitoring target area using the floor area image extracted by the floor area image extracting units 2-1 to 2-7 using the camera data indicating the installation status of the cameras A to G Plane projection units 9-1 to 9-7 that project to positions and generate plane projection images, and a plate model is installed in a region where the moving object exists on the orthogonal coordinate system of the monitoring target region, and the plate Extracted by the moving object region image extracting units 4-1 to 4-7 on the surface of the model The moving object image pasting units 11-1 to 11-7 for pasting the moving object region images are provided, and the image synthesizing unit 13 generates the planar projection images and moving object image pasting units generated by the plane projecting units 9-1 to 9-7. Since the image of the plate model to which the moving body region image is pasted by 11-1 to 11-7 is synthesized, the complexity of the pattern / shape of the moving body in the monitoring target region and the shielding object in the monitoring target region Regardless of the presence or absence, there is an effect that images taken by a plurality of cameras can be combined.

実施の形態2.
上記実施の形態1では、監視対象領域を撮影しているカメラA〜Gが固定カメラであるものについて示したが、カメラA〜Gの他に、移動カメラを用いて、監視対象領域を撮影するようにしてもよい。
ただし、この場合、移動カメラの設置状況を検出するカメラ検出手段を設けて、移動カメラの設置状況を示すカメラデータをカメラデータ用メモリ7に格納する必要がある。
なお、床領域検出部2が移動カメラにより撮影された画像から床領域を抽出する場合、移動カメラの真下にあたる床面上の点を原点とみなすことで、固定カメラにより撮影された画像から床領域を抽出する場合と同様の処理で抽出することができる。
Embodiment 2. FIG.
In the first embodiment, the cameras A to G that are capturing the monitoring target area are fixed cameras. However, in addition to the cameras A to G, the monitoring target area is captured using a moving camera. You may do it.
However, in this case, it is necessary to provide camera detection means for detecting the installation status of the mobile camera and store the camera data indicating the installation status of the mobile camera in the camera data memory 7.
Note that when the floor area detection unit 2 extracts a floor area from an image captured by the moving camera, the floor area from the image captured by the fixed camera is determined by regarding a point on the floor surface immediately below the moving camera as an origin. Can be extracted by the same processing as in the case of extracting.

この実施の形態2では、カメラデータ取得部6がカメラ検出手段を構成するものとして、以下、カメラデータ取得部6の処理内容を具体的に説明する。
例えば、移動カメラ又は固定カメラが、パンチルトズームカメラ(以後、「PTZカメラ」と称する)である場合、図12に示すように、2軸(パン軸、チルト軸)による回転と、ズームが可能である。
この場合、操作員がPTZカメラを操作すると、PTZカメラからパン軸及びチルト軸の角度と、ズームによって変更された焦点距離がカメラデータとして出力され、カメラデータ取得部6が当該カメラデータを取得してカメラデータ用メモリ7に格納する。
In the second embodiment, the processing contents of the camera data acquisition unit 6 will be specifically described below, assuming that the camera data acquisition unit 6 constitutes a camera detection unit.
For example, when the moving camera or the fixed camera is a pan / tilt / zoom camera (hereinafter referred to as “PTZ camera”), as shown in FIG. 12, rotation and zooming with two axes (pan axis and tilt axis) are possible. is there.
In this case, when the operator operates the PTZ camera, the angle of the pan axis and the tilt axis and the focal length changed by the zoom are output from the PTZ camera as camera data, and the camera data acquisition unit 6 acquires the camera data. And stored in the camera data memory 7.

カメラデータ取得部6は、移動カメラの設置位置を示すカメラデータについては次のようにして取得することができる。
例えば、移動カメラの筐体に図13に示すような目印用のマークが付けられている場合(図13の例では、▽のマークが付けられており、マークの検出が容易なように、特定の色が塗られている。あるいは、ライトによって点灯している)、カメラデータ取得部6が、内蔵しているカメラ(図示せず)又は移動カメラ監視用のカメラ(図示せず)により撮影された画像から、移動カメラの筐体に付けられているマークを検出することで、移動位置と方向を特定する。
The camera data acquisition unit 6 can acquire the camera data indicating the installation position of the moving camera as follows.
For example, when a mark for a mark as shown in FIG. 13 is attached to the casing of the mobile camera (in the example of FIG. 13, a mark of ▽ is attached, so that the mark can be easily detected. The camera data acquisition unit 6 is photographed by a built-in camera (not shown) or a moving camera monitoring camera (not shown). The movement position and direction are specified by detecting a mark attached to the casing of the moving camera from the captured image.

なお、マークは、移動カメラの方向が分かるように、移動カメラの筐体に対して、前後左右に付されている。また、移動カメラの筐体に対して、マークが付されている高さは事前に決められている。
移動カメラの筐体に対するマークの設置高が分かれば、固定カメラであるカメラA〜Gの設置高hc(図5を参照)の代わりに、マークの設置高を用いて、平面射影画像の平面位置を求めることができる。
The marks are attached to the front and rear, left and right of the mobile camera housing so that the direction of the mobile camera can be seen. Further, the height at which the mark is attached to the casing of the mobile camera is determined in advance.
If the mark installation height with respect to the casing of the moving camera is known, the plane position of the planar projection image is obtained using the mark installation height instead of the installation height hc (see FIG. 5) of the cameras A to G which are fixed cameras. Can be requested.

図14は固定カメラが捕らえられない位置に移動カメラが移動している例を示す説明図である。
例えば、移動カメラの車輪として、左右2輪と、支えの一輪があれば、監視対象領域内を移動することができる。
このとき、左右の2輪に対して、車輪の回転数を計測するオドメトリ計測器が設置されていれば、オドメトリ計測器によって、左右の車輪の回転数から移動距離や向きの変化を求めることができる。
FIG. 14 is an explanatory diagram illustrating an example in which the moving camera is moved to a position where the fixed camera cannot be captured.
For example, if there are two left and right wheels and one supporting wheel as wheels of the moving camera, it can move in the monitoring target area.
At this time, if an odometry measuring instrument for measuring the rotational speed of the wheel is installed for the two left and right wheels, the odometry measuring instrument can determine a change in the moving distance and direction from the rotational speed of the left and right wheels. it can.

カメラデータ取得部6は、上記のようにして、移動カメラの位置と方向を示すカメラデータを取得するが、移動カメラから出力されるカメラデータは、例えば、1秒前の移動カメラの位置及び方向を基準として、現在の位置と方向の変位を示すデータである。
カメラデータ取得部6は、内蔵しているカメラ(図示せず)又は移動カメラ監視用のカメラ(図示せず)により撮影された画像から特定した移動カメラの位置と方向を時刻と一緒に記録し、内蔵しているカメラ(図示せず)等によって、移動カメラの筐体に付されているマークを検出することができなくなると、記録している移動カメラの位置と方向を初期値として、移動カメラから送信される位置変位と方向変位を加算することで、移動カメラの位置と方向を更新する。
The camera data acquisition unit 6 acquires the camera data indicating the position and direction of the moving camera as described above. The camera data output from the moving camera is, for example, the position and direction of the moving camera one second ago. Is the data indicating the displacement in the current position and direction with reference to.
The camera data acquisition unit 6 records the position and direction of the moving camera specified from the image taken by the built-in camera (not shown) or the camera for monitoring the moving camera (not shown) together with the time. If the built-in camera (not shown) or the like cannot detect the mark attached to the case of the moving camera, it moves using the position and direction of the moving camera as the initial value. The position and direction of the moving camera are updated by adding the position displacement and the direction displacement transmitted from the camera.

以上で明らかなように、この実施の形態2によれば、複数のカメラの中に移動カメラが含まれている場合、その移動カメラの設置状況を検出するカメラ検出手段を設けるように構成したので、移動カメラにより撮影された画像から平面射影画像や動体領域画像が貼り付けられている板モデルを生成することができるようになり、その結果、遮蔽物が存在することで、固定カメラだけでは撮影することができない動体についても、移動カメラが撮影して、その動体を表示することができる効果を奏する。   As apparent from the above, according to the second embodiment, when a moving camera is included in a plurality of cameras, the camera detecting means for detecting the installation status of the moving camera is provided. It is possible to generate a plate model on which a planar projection image and a moving object region image are pasted from an image captured by a moving camera, and as a result, the presence of a shielding object makes it possible to capture with a fixed camera alone. Even for a moving object that cannot be performed, the moving camera can take an image and display the moving object.

上記実施の形態1,2では、動体領域画像抽出部4−1〜4−7がカメラにより撮影された画像から、動体領域を抽出するものについて示したが、動体領域画像抽出部4−1〜4−7が床領域以外の画素値を示す全ての部分を動体領域として抽出するようにすれば、例えば、図2の本棚T1,T2についても、動体として表示することが可能である。
また、移動カメラにより撮影された画像に対してだけ、床領域以外の画素値を示す部分を動体とみなして抽出するようにすれば、固定カメラが撮影不可能な死角部分の情景を移動カメラにて再現して表示することが可能となる。
図15はカメラのズーム機能と連動して、特定の棚だけを透明にして表示している一例を示している。
In the first and second embodiments, the moving body region image extraction units 4-1 to 4-7 have shown the extraction of the moving body region from the images taken by the camera. If all the parts 4-7 indicate pixel values other than the floor area are extracted as moving object areas, for example, the bookshelves T1 and T2 in FIG. 2 can also be displayed as moving objects.
In addition, if a part showing pixel values other than the floor area is extracted as a moving object only for an image taken by a moving camera, a scene of a blind spot that cannot be photographed by a fixed camera is transferred to the moving camera. Can be reproduced and displayed.
FIG. 15 shows an example in which only a specific shelf is displayed transparently in conjunction with the zoom function of the camera.

1−1〜1−N カメラ、2−1〜2−N 床領域画像抽出部(床領域画像抽出手段)、3−1〜3−N 床領域画像用メモリ、4−1〜4−N 動体領域画像抽出部(動体領域画像抽出手段)、5−1〜5−N 動体領域画像用メモリ、6 カメラデータ取得部(カメラ検出手段)、7 カメラデータ用メモリ、8 建物構造データ用メモリ、9−1〜9−N 平面射影部(平面射影手段)、10−1〜10−N 平面射影画像用メモリ、11−1〜11−N 動体画像貼付部(動体画像貼付手段)、12−1〜12−N 板モデル用メモリ、13 画像合成部(画像合成手段)、14 合成画像用メモリ、15 画像表示部(画像表示手段)。   1-1 to 1-N camera, 2-1 to 2-N floor area image extracting unit (floor area image extracting means), 3-1 to 3-N floor area image memory, 4-1 to 4-N moving object Area image extraction unit (moving body area image extraction means), 5-1 to 5-N moving body area image memory, 6 camera data acquisition section (camera detection means), 7 camera data memory, 8 building structure data memory, 9 -1 to 9-N plane projection unit (plane projection unit), 10-1 to 10-N plane projection image memory, 11-1 to 11-N moving image pasting unit (moving body image pasting unit), 12-1 to 12-N board model memory, 13 image composition section (image composition means), 14 composite image memory, 15 image display section (image display means).

Claims (2)

相互に異なる方向から監視対象領域を撮影する複数のカメラと、上記カメラにより撮影された監視対象領域の画像の中から、床面が撮影されている床領域の画像を抽出する複数の床領域画像抽出手段と、上記カメラにより撮影された監視対象領域の画像の中から、動体が撮影されている動体領域の画像を抽出する複数の動体領域画像抽出手段と、上記カメラの設置状況を示すカメラデータを用いて、上記床領域画像抽出手段により抽出された床領域の画像を上記監視対象領域の直交座標系における平面位置に射影して、平面射影画像を生成する複数の平面射影手段と、上記監視対象領域の直交座標系上で上記動体が存在している領域に板モデルを設置し、上記板モデルの表面に上記動体領域画像抽出手段により抽出された動体領域画像を貼り付ける複数の動体画像貼付手段と、上記複数の平面射影手段により生成された平面射影画像及び上記複数の動体画像貼付手段により動体領域画像が貼り付けられた板モデルの画像を合成する画像合成手段と、上記画像合成手段により合成された画像を表示する画像表示手段とを備えた合成表示装置。   A plurality of floor area images that extract a floor area image of a floor surface from a plurality of cameras that shoot a monitoring target area from different directions and images of the monitoring target area captured by the camera. Extracting means, a plurality of moving object area image extracting means for extracting an image of a moving object area in which a moving object is imaged from an image of a monitoring target area imaged by the camera, and camera data indicating the installation status of the camera A plurality of planar projection means for projecting the floor area image extracted by the floor area image extraction means to a planar position in the orthogonal coordinate system of the monitoring target area to generate a planar projection image, and the monitoring A plate model is set in an area where the moving object exists on the orthogonal coordinate system of the target area, and the moving object region image extracted by the moving object region image extracting means is pasted on the surface of the plate model. A plurality of moving body image pasting means, and an image compositing means for synthesizing the planar projection image generated by the plurality of planar projecting means and the image of the plate model to which the moving body region image is pasted by the plurality of moving body image pasting means. And an image display means for displaying the image synthesized by the image synthesis means. 複数のカメラの中に移動カメラが含まれている場合、上記移動カメラの設置状況を検出するカメラ検出手段を設けたことを特徴とする請求項1記載の合成表示装置。   2. The composite display device according to claim 1, further comprising camera detection means for detecting an installation state of the moving camera when a plurality of cameras include a moving camera.
JP2010008970A 2010-01-19 2010-01-19 Composite display device Active JP5213883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010008970A JP5213883B2 (en) 2010-01-19 2010-01-19 Composite display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010008970A JP5213883B2 (en) 2010-01-19 2010-01-19 Composite display device

Publications (2)

Publication Number Publication Date
JP2011151459A JP2011151459A (en) 2011-08-04
JP5213883B2 true JP5213883B2 (en) 2013-06-19

Family

ID=44538084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010008970A Active JP5213883B2 (en) 2010-01-19 2010-01-19 Composite display device

Country Status (1)

Country Link
JP (1) JP5213883B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038160A1 (en) 2015-09-01 2017-03-09 日本電気株式会社 Monitoring information generation device, imaging direction estimation device, monitoring information generation method, imaging direction estimation method, and program
JP6534609B2 (en) * 2015-12-04 2019-06-26 クラリオン株式会社 Tracking device
JP7101331B2 (en) * 2016-11-22 2022-07-15 サン電子株式会社 Management device and management system
WO2019026985A1 (en) * 2017-08-03 2019-02-07 日本電気株式会社 Analyzer, analysis system, analysis method, and program storage medium
JP2019067813A (en) 2017-09-28 2019-04-25 株式会社デンソー Semiconductor module

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002104117A (en) * 2000-10-03 2002-04-10 Denso Corp Driving support system for vehicle
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
JP2005268972A (en) * 2004-03-17 2005-09-29 Matsushita Electric Ind Co Ltd Video display system and video display method
JP4828359B2 (en) * 2006-09-05 2011-11-30 三菱電機株式会社 Monitoring device and monitoring program

Also Published As

Publication number Publication date
JP2011151459A (en) 2011-08-04

Similar Documents

Publication Publication Date Title
CN105678748B (en) Interactive calibration method and device in three-dimension monitoring system based on three-dimensionalreconstruction
EP2913796B1 (en) Method of generating panorama views on a mobile mapping system
AU2011202555B2 (en) Multi-view alignment based on fixed-scale ground plane rectification
JP4848339B2 (en) Virtual window method, system, and computer program recorded with simulated parallax and visual field change (virtual window with simulated parallax and visual field change)
Senior et al. Acquiring multi-scale images by pan-tilt-zoom control and automatic multi-camera calibration
US9756277B2 (en) System for filming a video movie
US20090237508A1 (en) Method and apparatus for providing immersive surveillance
WO2005088971A1 (en) Image generation device, image generation method, and image generation program
US9881377B2 (en) Apparatus and method for determining the distinct location of an image-recording camera
JP2010504711A (en) Video surveillance system and method for tracking moving objects in a geospatial model
JP5213883B2 (en) Composite display device
KR101342393B1 (en) Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera
US20200364900A1 (en) Point marking using virtual fiducial elements
JPH0997337A (en) Trespasser monitor device
CN206611521U (en) A kind of vehicle environment identifying system and omni-directional visual module based on multisensor
JP5667846B2 (en) Object image determination device
KR101073432B1 (en) Devices and methods for constructing city management system integrated 3 dimensional space information
CN102834848A (en) Method for visualizing zones of higher activity in monitoring scenes
JP2008226109A (en) Video image analysis system and method
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
CA2710746A1 (en) Method for displaying a virtual image
CN112911205B (en) Monitoring system and method
KR101996907B1 (en) Apparatus for tracking object
Chen et al. A 3-D surveillance system using multiple integrated cameras
CN107093193B (en) Method for constructing a depth map by means of a camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R150 Certificate of patent or registration of utility model

Ref document number: 5213883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250