JP4685561B2 - Display method of camera system and camera system - Google Patents

Display method of camera system and camera system Download PDF

Info

Publication number
JP4685561B2
JP4685561B2 JP2005263995A JP2005263995A JP4685561B2 JP 4685561 B2 JP4685561 B2 JP 4685561B2 JP 2005263995 A JP2005263995 A JP 2005263995A JP 2005263995 A JP2005263995 A JP 2005263995A JP 4685561 B2 JP4685561 B2 JP 4685561B2
Authority
JP
Japan
Prior art keywords
image
area
camera
monitor
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005263995A
Other languages
Japanese (ja)
Other versions
JP2007081553A (en
Inventor
豊彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2005263995A priority Critical patent/JP4685561B2/en
Publication of JP2007081553A publication Critical patent/JP2007081553A/en
Application granted granted Critical
Publication of JP4685561B2 publication Critical patent/JP4685561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、被写体を撮像し、撮像した画像中から観たいエリアを自由に選択して表示するカメラシステムに関し、特に奥行きのある被写体を撮像して監視する監視カメラシステムにおいて、その中から監視したいエリアを手動選択或いは自動選択し、モニタ表示するカメラシステムに関するものである。   The present invention relates to a camera system that picks up a subject and freely selects and displays an area to be viewed from the picked-up image, and particularly in a surveillance camera system that picks up and monitors a subject having a depth, and wants to monitor the camera system. The present invention relates to a camera system in which an area is manually selected or automatically selected and displayed on a monitor.

鉄道のホーム監視カメラシステムなど、従来、奥行きのある被写体を監視する場合、カメラを複数台設置し、各カメラがそれぞれ撮像した複数の画像を、各々映像ケーブルでモニタ表示部まで伝送し、モニタ表示部に表示された画像を観ることによって監視を行っていた。そのため車両編成が変わり被写体の位置が変更になると、その都度カメラの移設工事を行なう必要があった。
レンズや雲台を備え、パン機構、チルト機構またはズーム倍率変更機構等の少なくとも1つを制御してカメラの視野範囲を変更するような可動式カメラでは、視野範囲を変更して監視したいエリアに可動させることで複数のエリアを1台のカメラでカバーすることができるが、一度に全体の状況を把握し、観たいエリアに即座に映像表示させることはできなかった(例えば、特許文献1参照。)。
Conventionally, when monitoring a subject with depth, such as a railway home surveillance camera system, multiple cameras are installed, and multiple images captured by each camera are transmitted to the monitor display section using video cables, and displayed on the monitor. Monitoring was performed by watching the images displayed on the screen. Therefore, it is necessary to move the camera every time the vehicle organization changes and the position of the subject changes.
In a movable camera that has a lens and a pan head, and controls the panoramic mechanism, tilt mechanism, zoom magnification changing mechanism, etc. to change the visual field range of the camera, change the visual field range to the area you want to monitor Although it is possible to cover a plurality of areas with a single camera by moving it, it has been impossible to grasp the entire situation at a time and immediately display an image in the desired area (for example, see Patent Document 1). .)

図23によって、従来の奥行きのある監視領域を監視するカメラシステムを更に説明する。図23は、鉄道のプラットホームの状況の監視や列車への乗降等の状況の監視など、奥行きのある監視領域を監視するシステムの略構成とモニタ画面の表示例を示す図である。図23(a) はホームを上方から見たシステムの略構成を示し、51-1 と 51-2 は TV カメラ、52-1 〜 52-4 は列車の車両を示す。TV カメラ、ホーム、及び車両は一部を示しているだけで、全ては表示していない。また、乗降客等、ホームや列車上にあるべき他の物体等の図示は、煩雑さを避けるために省略している。ここで、モニタや記録装置は図22に示していないが、例えば、運転席、車掌席、駅事務所または監視センタに設置され、TV カメラ 51-1 と 51-2 と無線または有線のいずれかあるいはそれらの組合せの周知の伝送手段(図示しない、例えば、無線 LAN( Local Area Network )、光通信等によって結合されている。   A conventional camera system for monitoring a monitoring area having a depth will be further described with reference to FIG. FIG. 23 is a diagram illustrating a schematic configuration of a system for monitoring a monitoring area with a depth, such as monitoring of the status of a railway platform and monitoring of the status of getting on and off a train, and a display example of a monitor screen. FIG. 23 (a) shows the schematic configuration of the system as seen from above, 51-1 and 51-2 are TV cameras, and 52-1 to 52-4 are train vehicles. TV cameras, homes, and vehicles only show some, not all. Also, illustrations of other objects that should be on the platform and the train, such as passengers, are omitted to avoid complexity. Here, the monitor and the recording device are not shown in FIG. 22, but are installed in, for example, a driver's seat, a conductor's seat, a station office, or a monitoring center, and either TV cameras 51-1 and 51-2 are either wireless or wired. Alternatively, they are combined by well-known transmission means (not shown, for example, wireless LAN (Local Area Network), optical communication, etc.).

また図23(b) は、図23(a) に示す TV カメラ 51-1 と 51-2 が取得した画像のモニタ画面への表示の一例を示す図で、510 と 520 はモニタ画面の表示例、510-1 はモニタ画面の表示例 510 中に表示された画像、520-1 と 520-2 は表示例 520 中に表示された画像である。また、TV カメラやモニタは、ホームの長さ、形状、障害物、乗降客数、予算等の必要性に応じて、台数が変わるものである。   FIG. 23 (b) is a diagram showing an example of display on the monitor screen of the images acquired by the TV cameras 51-1 and 51-2 shown in FIG. 23 (a), and 510 and 520 are display examples of the monitor screen. , 510-1 are images displayed in the display example 510 of the monitor screen, and 520-1 and 520-2 are images displayed in the display example 520. The number of TV cameras and monitors varies depending on the needs of the home length, shape, obstacles, number of passengers, budget, etc.

鉄道のホームは、幅が狭く、ホーム内には、乗客、柱、案内板、時計、広告、信号灯等が障害となって列車の車両の乗降口を撮像するために最適な位置に TV カメラを設置するためには多くの制限が存在するうえ、ホームがまっすぐに延びているとは限らないし、斜面上にあったり段差があったりする場合もある。このため、TV カメラの視野方向は、天井付近から下方を俯瞰するように設置することはもとより、列車車両の進行方向とほぼ平行な向きに設置せざるを得ない上、設置する TV カメラの数も制限される。
従って、図23(a) の TV カメラ 51-1 と 51-2 と伝送手段で結合され、TV カメラ 51-1 と 51-2 の取得した画像を表示しているモニタには、図23(b) の表示例 510 、520 に示すように、TV カメラ 51-1 と 51-2 の手前の車両は大きく映り、奥の車両は小さく映る。
Railroad platforms are narrow, and there are obstacles in the platform, such as passengers, pillars, information boards, clocks, advertisements, and signal lights. There are many restrictions for installation, and the home does not always extend straight, and may be on a slope or have a step. For this reason, the viewing direction of the TV camera must be installed so that it is viewed from below the ceiling, and it must be installed in a direction almost parallel to the traveling direction of the train vehicle, and the number of TV cameras installed. Is also limited.
Accordingly, the TV cameras 51-1 and 51-2 shown in FIG. 23 (a) are combined with the transmission means, and the monitor displaying the images acquired by the TV cameras 51-1 and 51-2 is shown in FIG. ) Display examples 510 and 520, the vehicles in front of TV cameras 51-1 and 51-2 appear larger, and the vehicles in the back appear smaller.

図23(b) の上段に示すように、TV カメラ 51-1 と 51-2 で撮像した画像を合成した画像 510-1 を表示する単画面の場合( TV カメラが1台の場合には合成しない)の表示例 510 では、乗降口付近だけでなく、ホームの内側まで監視できるが、画面奥(主に、列車乗降口や車側灯)が小さくなり画面奥が見難い。また、図23(b) の下段に示す表示例 520 の画像(分割画像)のように、TV カメラ 51-1 と 51-2 で撮像した画像 520-1 と 520-2 を別々に表示した場合や、合成した後、例えば、車両ごとに分割して表示した場合は、画面奥にも TV カメラが設けられていることで車両奥まで視認できるがホームの内側がカットされるし、画面が全体的に見難くい。   As shown in the upper part of Fig. 23 (b), in the case of a single screen displaying an image 510-1 obtained by combining images captured by the TV cameras 51-1 and 51-2 (in the case of a single TV camera, it is combined) In the display example 510 of “No”, it is possible to monitor not only near the entrance / exit but also the inside of the platform, but the depth of the screen (mainly, the train entrance / exit and the car side lights) is small and the depth of the screen is difficult to see. In addition, when images 520-1 and 520-2 captured by TV cameras 51-1 and 51-2 are displayed separately as shown in the display example 520 (division image) shown in the lower part of FIG. 23 (b). Or after combining, for example, when displaying divided for each vehicle, a TV camera is also provided at the back of the screen, but it can be seen to the back of the vehicle, but the inside of the home is cut and the entire screen is It is difficult to see.

また、通常の TV カメラで撮影した画像について、特に監視が必要な部分(例えば、特に混雑した乗降口付近)を電子ズームで拡大処理した場合には、画質が劣化してしまい、特に監視が必要な部分は拡大されるものの、解像度が悪いため視認性は向上しない。このため、高解像の(有効画素数が多い) TV カメラ(例えば、メガピクセルカメラ)を用いて撮像して画像を拡大表示しても画質が劣化しないようにしても、記録装置に録画される画像及び再生される画像の画質が固定なので、記録装置から録画された画像を再生し、画像処理によって画像の見たい部分領域(画像領域)を拡大する場合には、画質が劣化する。   In addition, when an image taken with a normal TV camera is enlarged with electronic zoom on a part that needs to be monitored in particular (for example, in the vicinity of a crowded entrance / exit), the image quality deteriorates and monitoring is particularly necessary. Although this portion is enlarged, the visibility is not improved because the resolution is poor. For this reason, even if a high-resolution TV camera (for example, a megapixel camera) with high resolution (for example, a megapixel camera) is used to capture and display an enlarged image, the image quality is not deteriorated. Since the image quality of the image to be reproduced and the image to be reproduced is fixed, the image quality deteriorates when the image recorded from the recording device is reproduced and the partial area (image area) desired to be viewed is enlarged by image processing.

特開平11−124036号公報Japanese Patent Application Laid-Open No. 11-124036

奥行きのある場所としては、例えば、港湾、河川、発電所、高速道路、交通量監視、駅ホーム、駅構内、空港等がある。これら、奥行きのある広範囲な複数のエリアを多数のカメラで監視する場合、カメラ台数が多くなり選択操作が複雑になる。
例えば、監視エリアを変更する必要があったり、被写体のレイアウトが変更されたり(監視場所のレイアウトが変更されたり)すると、その都度カメラを移設する必要がある。設置されているカメラが多いほど、変更作業には時間や労力がかかるようになる。
また、監視カメラシステムでは、複数の監視者が同じ画像を共有しているが、そのなかで監視したいポイントの画像を監視者毎にそれぞれ選択して、それぞれのモニタに表示させることはできない。
Examples of deep locations include harbors, rivers, power plants, highways, traffic monitoring, station platforms, station premises, airports, and the like. When monitoring a plurality of these wide and wide areas with a large number of cameras, the number of cameras increases and the selection operation becomes complicated.
For example, when the monitoring area needs to be changed or the layout of the subject is changed (the layout of the monitoring place is changed), the camera needs to be moved each time. The more cameras that are installed, the more time and effort it takes to make changes.
In the surveillance camera system, a plurality of supervisors share the same image, but it is not possible to select an image of a point to be monitored for each supervisor and display it on each monitor.

本発明の目的は、複数のカメラで撮像していたエリアを1台のメガピクセルカメラ等の有効画素数が多い TV カメラで撮像し、1フレーム毎の映像内を監視ポイント毎に自由にエリア分割し、モニタ表示することができる監視カメラシステムを提供することにある。
また、エリア分割することでメガピクセルカメラ等の有効画素数が多い TV カメラの画像フレームの大きなデータ量を縮小し効率的に LAN などへ配信することができる。
本発明の他の目的は、従来多数のカメラで行なっていた広域監視システムを1台あるいは少数のメガピクセルカメラ等の有効画素数が多い TV カメラで撮像し、全体を把握しながら監視したいエリアを効率的に監視することを目的とする。また、アラーム情報と画像エリアをデータマップ化することでエリア情報を画像、文字つきで即座に表示することにある。
An object of the present invention is to capture an area captured by a plurality of cameras with a TV camera having a large number of effective pixels, such as one megapixel camera, and freely divide the area of the image for each frame for each monitoring point. And providing a surveillance camera system capable of monitor display.
Also, by dividing the area, it is possible to reduce the large amount of data in the image frame of TV cameras with a large number of effective pixels, such as megapixel cameras, and efficiently distribute them to LANs.
Another object of the present invention is to capture a wide area monitoring system, which has been conventionally performed by a large number of cameras, with a TV camera having a large number of effective pixels, such as one or a small number of megapixel cameras, and monitor an area to be monitored while grasping the whole. The purpose is to monitor efficiently. Also, the alarm information and the image area are converted into a data map so that the area information is immediately displayed with images and characters.

上記の目的を達成するために、本発明のカメラシステムの表示方法は、1台あるいは複数台のカメラによって1つのエリアを撮像し、撮像された1つのエリアの映像から、所定の分割エリアを選択して選択された分割エリア毎にモニタに表示するカメラシステムの表示方法において、1台あるいは複数台のカメラが撮像する1つのエリアの映像のサイズが、モニタの画面表示解像度より大きいことを特徴とする。
また、好ましくは、所定の分割エリアの映像の奥行きを補正してモニタ表示する。
また、好ましくは、カメラが360度カメラである。
また、好ましくは、センサと分割エリアをあらかじめ関連付けしておき、センサがアラームを発生した場合には、アラームを発生したセンサに関連付けられた分割エリアの映像をモニタに表示する。
In order to achieve the above object, the display method of the camera system of the present invention images one area by one or a plurality of cameras, and selects a predetermined divided area from the imaged one area. In the display method of the camera system for displaying on the monitor for each divided area selected in this manner, the size of the image of one area captured by one or a plurality of cameras is larger than the screen display resolution of the monitor. To do.
Preferably, the depth of the video in the predetermined divided area is corrected and displayed on the monitor.
Preferably, the camera is a 360 degree camera.
Preferably, the sensor and the divided area are associated in advance, and when the sensor generates an alarm, the video of the divided area associated with the sensor that has generated the alarm is displayed on the monitor.

また、本発明のカメラシステムは、1つのエリアを撮像する1台または複数台のカメラと、撮像された1つのエリアの映像から、所定の分割エリアを選択して選択された分割エリア毎にモニタに表示するために出力する制御装置とを備え、1台あるいは複数台のカメラが撮像する1つのエリアの映像のサイズが、モニタの画面表示解像度より大きいことを特徴とする。   The camera system of the present invention also monitors one or more cameras that capture one area and a predetermined divided area selected from the captured video of one area for each selected divided area. And a control device that outputs to display the image in one area captured by one or a plurality of cameras, wherein the size of the image in one area is larger than the screen display resolution of the monitor.

上記の目的を達成するために、本発明のカメラシステムは、有効画素数が多い TV カメラで撮像した映像を監視したい複数のエリアに分割し伝送するものである。
また、本発明のカメラシステムは、有効画素数が多い TV カメラで撮像した映像を複数のエリアに分割し、分割した各々の映像について奥行き補正(画面奥方向の画像を奥行きに従って大きく表示)するものである。
また、本発明のカメラシステムは、TV カメラで撮像した映像を IP ネットワークを介して伝送する際に、映像をエリア分割し、必要なエリアの映像だけ、例えば、VGA サイズで伝送することで、従来の画像データの伝送方式に比べて伝送帯域を小さく抑えるものである。
In order to achieve the above object, the camera system of the present invention divides and transmits a video image captured by a TV camera having a large number of effective pixels into a plurality of areas to be monitored.
Further, the camera system of the present invention divides a video captured by a TV camera having a large number of effective pixels into a plurality of areas, and performs depth correction on each of the divided videos (displays an image in the depth direction of the screen in accordance with the depth). It is.
In addition, the camera system of the present invention can divide the image into areas when transmitting the image captured by the TV camera via the IP network, and transmit only the image in the required area, for example, in the VGA size. Compared to the image data transmission method, the transmission band is reduced.

また本発明のカメラシステムは、望ましくは、有効画素数が多い TV カメラで撮像した映像について、GUI( Graphical User Interface )操作により、例えば、VGA サイズ等の TV カメラの撮像画素サイズより小さな画素サイズの映像に変換するものである(例えば、マウス等のポインティングデバイスでクリックしたポイントを中心として、VGA サイズの画像に変換する。)。   In addition, the camera system of the present invention preferably has a pixel size smaller than that of a TV camera, such as a VGA size, for example, by a GUI (Graphical User Interface) operation on an image captured by a TV camera having a large number of effective pixels. It is converted into video (for example, it is converted into an image of VGA size around the point clicked with a pointing device such as a mouse).

また本発明のカメラシステムは、望ましくは、有効画素数が多い TV カメラで撮像した映像について、画像処理装置を用いて、侵入物体を検出し、検出された侵入物体を中心としたエリアを、例えば、VGA サイズ等の TV カメラの撮像画素サイズより小さな画素サイズで自動抽出するものである。   The camera system of the present invention preferably detects an intruding object using an image processing device for an image captured by a TV camera having a large number of effective pixels, and an area centered on the detected intruding object is, for example, This is an automatic extraction with a pixel size smaller than the imaging pixel size of the TV camera such as VGA size.

また本発明のカメラシステムは、望ましくは、野球、サッカーなどのスポーツ中継のインターネット配信で、視聴者が見たいエリアを視聴者が選択し、WEBサーバはそのエリアを拡大表示して配信するものである。   In the camera system of the present invention, preferably, the viewer selects an area that the viewer wants to watch by Internet distribution for sports broadcasts such as baseball and soccer, and the WEB server distributes the area in an enlarged manner. is there.

また本発明のカメラシステムは、望ましくは、360度カメラで撮像したパノラマ画面について監視場所毎に予めエリア分割し、画面内の見たいエリアを GUI 操作によって手動選択するか、或いは、アラーム情報から自動選択し伝送するものである。
また本発明のカメラシステムは、更に、アラーム発生エリアをデータマップ化し、アラーム情報表示及びアラーム予測を行なうものである。
In the camera system of the present invention, preferably, the panoramic screen imaged by the 360 degree camera is divided into areas for each monitoring place in advance, and the area to be viewed in the screen is manually selected by GUI operation or automatically from the alarm information. Select and transmit.
The camera system of the present invention further maps the alarm occurrence area to a data map, and displays alarm information and alarm prediction.

本発明によれば、奥行きのある被写体をカメラで撮像して監視するカメラシステムにおいて、有効画素数が多い TV カメラで被写体全体を撮像し、撮像した映像を監視したい複数のエリアに分割することで、モニタ画像の解像度や画像サイズを自由に変更することが可能であり、従来のように、画角を変更する都度カメラ位置を変える必要が無い。
また、有効画素数が多い TV カメラで撮像した映像をデータ化して、IP ネットワークなどを介して伝送する場合、撮像した映像全体をデータ化せず、監視に必要な分割されたエリアのみをデータ化して伝送するため、データ量を低減することが可能である。
また、本発明を画像処理装置と組み合わせることで検出された侵入物体などの被写体周辺のエリアを自動選択することが可能である。
According to the present invention, in a camera system that captures and monitors a deep subject with a camera, the entire subject is imaged with a TV camera having a large number of effective pixels, and the captured image is divided into a plurality of areas to be monitored. The resolution and the image size of the monitor image can be freely changed, and there is no need to change the camera position every time the angle of view is changed as in the prior art.
Also, when video captured by a TV camera with a large number of effective pixels is converted into data and transmitted via an IP network, the entire captured video is not converted into data, and only the divided areas necessary for monitoring are converted into data. Therefore, the amount of data can be reduced.
Further, by combining the present invention with an image processing apparatus, it is possible to automatically select an area around a subject such as an intruding object detected.

本発明のシステムを野球、サッカーなどのスポーツ中継のインターネット配信等、高精細で配信または放送される、映像に応用することができ、球場全体をメガピクセルカメラ等の有効画素数が多い TV カメラで撮像した画像の中から、視聴者が観たいエリアを選択することが可能である。
また、本発明を市街地の交差点などを監視する交通流監視システムに応用ですことで交差点全体360度をメガピクセルカメラで撮像した画像について、監視ポイント毎にエリア分割し、エリア画像と場所情報、警報情報をデータマップ化することで、監視者は交差点全体の状況を把握すると同時に交差点の詳細画像及び警報発生ポイントの画像をモニタすることが可能である。
The system of the present invention can be applied to video that is distributed or broadcast in high definition, such as Internet distribution for sports broadcasts such as baseball and soccer, and the entire stadium is a TV camera with a large number of effective pixels such as a megapixel camera. It is possible to select an area that the viewer wants to see from the captured image.
In addition, by applying the present invention to a traffic flow monitoring system that monitors intersections in urban areas, etc., an image of the entire intersection 360 degrees captured with a megapixel camera is divided into areas for each monitoring point, and area images and location information, alarms By converting the information into a data map, the supervisor can grasp the situation of the entire intersection and simultaneously monitor the detailed image of the intersection and the image of the alarm occurrence point.

本発明の一実施例を図1によって説明する。図1は、奥行きのある被写体を複数の TV カメラで監視するカメラシステムのカメラ配置と撮像画像のイメージ図である。図1は、TV カメラ、ホーム、及び車両は一部を示しているだけで、全ては表示していない。また、乗降客等、ホームや列車上にあるべき他の物体等の図示は、煩雑さを避けるためにできるだけ省略している。   An embodiment of the present invention will be described with reference to FIG. FIG. 1 is an image diagram of a camera arrangement and a captured image of a camera system that monitors a deep subject with a plurality of TV cameras. FIG. 1 shows only a part of the TV camera, home, and vehicle, not all of them. Also, illustrations of other objects that should be on the platform and the train, such as passengers, are omitted as much as possible to avoid complications.

図1(a) の被写体は、駅のホームに停車している電車 4 を先頭車両の方から観た概略図である。電車 4 は、例えば、6両編成である。
1-1 〜 1-3 は、TV カメラで、例えば、TV カメラ1-1 で1〜2車両目を監視し、TV カメラ 1-2 で3〜4車両目を監視し、TV カメラ 1-3 で5〜6車両目を監視する。
TV カメラ 1-1 〜 1-3 は、図示していないホームの屋根から支柱 1-11 、1-12 、1-13 でそれぞれ吊り下げられて固定されている。
The subject in FIG. 1 (a) is a schematic view of the train 4 stopped at the station platform as viewed from the head vehicle. The train 4 has, for example, a six-car train.
1-1 to 1-3 are TV cameras, for example, the TV camera 1-1 monitors the first and second vehicles, the TV camera 1-2 monitors the third to fourth vehicles, and the TV camera 1-3 The fifth and sixth vehicles are monitored.
TV cameras 1-1 to 1-3 are suspended from a roof of a home (not shown) by pillars 1-11, 1-12, and 1-13, respectively.

図1(b) は、ホームと電車 4 を上方から見たシステムの一部の略構成を示し、4-1 は電車 4 の先頭車両、4-2 は電車 4 の2車両目、4-3 は電車 4 の3車両目を示す(以下の車両は省略)。
TV カメラ 1-1 及び 1-2 から延びている実線は、TV カメラの視野範囲を示す。
Fig. 1 (b) shows the schematic configuration of a part of the system when the platform and the train 4 are viewed from above. 4-1 is the leading vehicle of the train 4, 4-2 is the second vehicle of the train 4, and 4-3 Indicates the third vehicle in train 4 (the following vehicles are omitted).
The solid line extending from TV cameras 1-1 and 1-2 indicates the viewing range of the TV camera.

図1(c) は、TV カメラ 1-1 が撮像した画像、図1(d) は、TV カメラ 1-2 が撮像した画像、図1(e) は、TV カメラ 1-3 が撮像した画像を表示している。
ここで、モニタや記録装置は図1に示していないが、例えば、運転席、車掌席、駅事務所または監視センタに設置され、TV カメラ各々と無線または有線のいずれかあるいはそれらの組合せの周知の伝送手段(図示しない、例えば、無線 LAN( Local Area Network )、光通信等によって結合されている。
Fig. 1 (c) shows an image taken by TV camera 1-1, Fig. 1 (d) shows an image taken by TV camera 1-2, and Fig. 1 (e) shows an image taken by TV camera 1-3. Is displayed.
Here, although the monitor and the recording device are not shown in FIG. 1, for example, they are installed in a driver's seat, a conductor's seat, a station office, or a monitoring center, and each TV camera and either wireless or wired or a combination thereof are well known. Transmission means (not shown, for example, wireless LAN (Local Area Network), optical communication, etc.).

図2は、TV カメラ 1-1(図1)の位置に有効画素数がモニタ等の表示装置の解像度より大きいカメラを1台設置し、6両編成の電車全体をカバーできる視野範囲を監視エリアとして撮像したときの画面である。TV カメラは、例えば、有効画素数が 900 万画素の CCD を搭載したメガピクセルカメラである。
このとき、例えば、TV カメラの撮影画素数を 3200 × 2400 ドット( QUXGA サイズ)と設定する。そして、モニタの画面表示解像度を、例えば640 × 480 ドット( VGA サイズ)とする。
また、例えば、TV カメラは、その撮影画素数が 2048 × 1536 ドット( QXGA サイズ)以上のカメラである。
Figure 2 shows a viewing area that covers the entire train in a 6-car train, with one camera with a larger number of effective pixels than the resolution of a display device such as a monitor installed at the position of TV camera 1-1 (Figure 1). It is a screen when imaged as. The TV camera is, for example, a megapixel camera equipped with a CCD with 9 million effective pixels.
At this time, for example, the number of pixels taken by the TV camera is set to 3200 × 2400 dots (QUXGA size). The screen display resolution of the monitor is, for example, 640 × 480 dots (VGA size).
In addition, for example, a TV camera is a camera having a number of shooting pixels of 2048 × 1536 dots (QXGA size) or more.

図2(a) は、1台の TV カメラで撮像した電車の画面である。破線 20-1 で囲まれたエリアは、図1における TV カメラ 1-1 が撮像したときの視野範囲と同等のエリアであることを示し、破線 20-2 で囲まれたエリアは、図1における TV カメラ 1-2 が撮像したときの視野範囲と同等のエリアであることを示し、破線 20-3 で囲まれたエリアは、図1におけるTV カメラ 1-3 が撮像したときの視野範囲と同等のエリアであることを示している。なお、図2において、図2(b) は無い。
破線 20-1 で囲まれたエリアの画像は、図2(c) のように抽出され、破線 20-2 で囲まれたエリアの画像は、図2(d) のように抽出され、破線 20-3 で囲まれたエリアの画像は、図2(e) のように抽出さる。
Fig. 2 (a) is a train screen imaged by one TV camera. The area surrounded by the broken line 20-1 indicates that the TV camera 1-1 in FIG. 1 is equivalent to the field of view when the image is taken, and the area surrounded by the broken line 20-2 is shown in FIG. The area enclosed by the broken line 20-3 is the same as the field of view when the TV camera 1-3 in Fig. 1 captures. This indicates that this is an area. In FIG. 2, there is no FIG. 2 (b).
The image of the area surrounded by the broken line 20-1 is extracted as shown in FIG. 2 (c), and the image of the area surrounded by the broken line 20-2 is extracted as shown in FIG. 2 (d). The image of the area surrounded by -3 is extracted as shown in Fig. 2 (e).

図1の TV カメラ 1-1 〜 1-3 に相当する監視エリアを画像処理によって抽出し、部分拡大して奥行き補正を行なった画像も併せて示す。
即ち、図2(c) の画像は図2(c′) に示すように補正され、図2(d) の画像は図2(d′) に示すように補正され、図2(e) の画像は図2(e′) に示すように補正される。
このような補正技術については、後述する。
The monitoring area corresponding to the TV cameras 1-1 to 1-3 in FIG. 1 is extracted by image processing, and an image obtained by partially expanding and correcting the depth is also shown.
That is, the image of FIG. 2 (c) is corrected as shown in FIG. 2 (c '), the image of FIG. 2 (d) is corrected as shown in FIG. 2 (d'), and the image of FIG. The image is corrected as shown in FIG.
Such a correction technique will be described later.

図3は、本発明のシステムの一実施例の構成を示すブロック図である。31 は TV カメラ、32 は TV カメラ 31 の映像を監視したい複数のエリアに分割するための映像制御器、33 は分割するためのそれぞれのエリアを選択するための操作 PC( Personal Computer )、34 は分割したエリアを表示するためのモニタ、35 は TV カメラ 31 の映像を表示するためのモニタである。TV カメラ 31 は、例えば、メガピクセルカメラ等の有効画素数が多い TV カメラである。   FIG. 3 is a block diagram showing the configuration of an embodiment of the system of the present invention. 31 is a TV camera, 32 is a video controller for dividing the video of the TV camera 31 into multiple areas to be monitored, 33 is an operation PC (Personal Computer) for selecting each area to be divided, 34 is A monitor 35 for displaying the divided areas is a monitor for displaying the video of the TV camera 31. The TV camera 31 is a TV camera having a large number of effective pixels, such as a megapixel camera.

図3において、TV カメラ 31 は、視野範囲を撮像し、撮像した映像を映像信号として映像制御器 32 に出力する。映像制御器 32 は、入力された映像信号を操作 PC 33 に出力する。
操作 PC 33 は、自身で備えているかまたは別途接続した表示ユニットに映像制御器 32 から与えられた映像信号をその表示ユニットの表示形式に変換して出力する。表示ユニットは、TV カメラ 31 が撮像した視野範囲全体の映像を表示する。
In FIG. 3, the TV camera 31 captures the visual field range and outputs the captured video to the video controller 32 as a video signal. The video controller 32 outputs the input video signal to the operation PC 33.
The operation PC 33 converts the video signal given from the video controller 32 to the display unit provided by itself or connected separately to the display format of the display unit and outputs it. The display unit displays the entire field of view imaged by the TV camera 31.

操作者は、操作 PC 33 に備えられた、例えば、マウス等のポインティングデバイスやキーボード等の入力機器を使って、操作 PC 33 を操作し、監視したいエリアを選択する。
監視したいエリアは、図1のような鉄道のホーム監視カメラシステムの場合には、例えば、電車の上降口付近であり、1つまたは複数のエリアを選択することができる。
そして、表示するモニタをモニタ 34 の中から選択あるいは指定して、その情報と共に、映像制御器 32 に出力する。
なお、このとき、操作者が、表示するエリアの映像と共にそのエリアの情報を文字や図形で表示(更に、音声出力)したい場合には、その設定をすることもできる。エリアの情報とは、例えば、そのエリアの地名や地番(電車の乗降の場合には、車両番号等の順番や乗降口番号、等)他、時刻情報、等である。
The operator operates the operation PC 33 using, for example, a pointing device such as a mouse or an input device such as a keyboard provided in the operation PC 33, and selects an area to be monitored.
In the case of a railway home monitoring camera system as shown in FIG. 1, the area to be monitored is, for example, near the top and bottom exits of a train, and one or a plurality of areas can be selected.
Then, the monitor to be displayed is selected or designated from among the monitors 34 and is output to the video controller 32 together with the information.
At this time, if the operator wants to display the information of the area to be displayed along with the image of the area to be displayed in characters or graphics (and further output sound), the setting can also be made. The area information includes, for example, the place name and lot number of the area (in the case of getting on and off the train, the order of the vehicle number, the entrance / exit number, etc.), time information, and the like.

映像制御器 32 は、操作 PC 33 から与えられた指示に従って、TV カメラ 31 が撮像した視野範囲全体の映像から指定のエリアの映像を分割して、操作 PC 33 から指示された情報と共に、該当するモニタ 34 に映像データと指定されたエリア情報を出力する。
モニタ 34 は、それぞれ与えられたデータを映像または音声として出力する。
The video controller 32 divides the video in the specified area from the video of the entire field of view captured by the TV camera 31 according to the instruction given from the operation PC 33, and applies the corresponding information together with the information instructed from the operation PC 33. Outputs video data and specified area information to monitor 34.
The monitor 34 outputs the given data as video or audio.

また、映像制御器 32 は、TV カメラ 31 が撮像した視野範囲全体の映像をモニタ 35 に出力し、モニタ 35 は、視野範囲全体の映像を表示する。   In addition, the video controller 32 outputs the video of the entire visual field range captured by the TV camera 31 to the monitor 35, and the monitor 35 displays the video of the entire visual field range.

次に、図3の映像制御器 32 の詳しい機能について図4を用いて説明する。
図4は、本発明の一実施例の映像制御器の機能を説明するためのブロック図である。41 は映像分配器、42 は A/D 変換部、43 は画像メモリ部、44 はエリア抽出部、45 は画像補正部、46 は D/A 変換部、47 はコントロール部、48 は画質変換部である。
Next, detailed functions of the video controller 32 in FIG. 3 will be described with reference to FIG.
FIG. 4 is a block diagram for explaining the function of the video controller according to the embodiment of the present invention. 41 is a video distributor, 42 is an A / D conversion unit, 43 is an image memory unit, 44 is an area extraction unit, 45 is an image correction unit, 46 is a D / A conversion unit, 47 is a control unit, and 48 is an image quality conversion unit. It is.

TV カメラ 31 が取得した映像は、フレーム毎に映像制御器 32 の映像分配部 41 に入力する。映像分配部 41 は、入力された映像をフレーム毎に分配して、A/D 変換部 42 と外部機器(例えば、図3の操作 PC 33 及びモニタ 35 )に出力する。
A/D 変換部 42 は、映像信号をデジタルデータに変換し、フレーム毎に画像メモリ 43 に出力する。画像メモリ部 43 は、入力された映像データを記録する。
The video acquired by the TV camera 31 is input to the video distribution unit 41 of the video controller 32 for each frame. The video distribution unit 41 distributes the input video for each frame and outputs it to the A / D conversion unit 42 and external devices (for example, the operation PC 33 and the monitor 35 in FIG. 3).
The A / D converter 42 converts the video signal into digital data and outputs it to the image memory 43 for each frame. The image memory unit 43 records the input video data.

図3の操作 PC 33 において選択されたエリアの情報が、コントロール部 47 に入力すると、コントロール部47 は、操作パソコンで選択されたエリアを検出し、検出されたエリア情報をエリア抽出部 44 に出力し、かつ画像メモリ部 43 に1フレーム分の映像データをエリア抽出部 44 に出力するように指令する。
画像メモリ部 43 は、1フレーム分の映像データをエリア抽出部 44 に出力する。
When the information of the area selected by the operation PC 33 in FIG. 3 is input to the control unit 47, the control unit 47 detects the area selected by the operation personal computer and outputs the detected area information to the area extraction unit 44. In addition, the image memory unit 43 is instructed to output video data for one frame to the area extracting unit 44.
The image memory unit 43 outputs video data for one frame to the area extraction unit 44.

エリア抽出部 44 は、与えられたエリア情報に基づいて、画像メモリ部 43 から入力される映像データをフレーム毎にそれぞれのエリアに分割して画像補正部 45 に出力する。
この際、画質変換部 48 では、各エリアの映像サイズを同じ画素サイズ(画面表示解像度のサイズ)に合せる。分割されたエリアは、各々画像補正部 45 に入力され、部分拡大による奥行き補正を行ない、エリア毎に、それぞれ該当する D/A 変換部 46 に出力する。
最後に D/A 変換部 46 で各エリア毎の画像をアナログの映像信号に戻してそれぞれのモニタ 34 に出力する。
The area extraction unit 44 divides the video data input from the image memory unit 43 into each area for each frame based on the given area information, and outputs the divided data to the image correction unit 45.
At this time, the image quality conversion unit 48 matches the video size of each area with the same pixel size (size of screen display resolution). Each of the divided areas is input to the image correction unit 45, depth correction is performed by partial enlargement, and each area is output to the corresponding D / A conversion unit 46.
Finally, the D / A converter 46 converts the image for each area back to an analog video signal and outputs it to each monitor 34.

以上の処理過程により、従来複数台(この場合3台)の監視カメラで行っていたカメラシステムを、1台のメガピクセルカメラ等の有効画素サイズの大きなカメラで実現することができる。   Through the above process, the camera system that has been conventionally performed by a plurality of (three in this case) surveillance cameras can be realized by a camera having a large effective pixel size such as one megapixel camera.

図5は、本発明を IP( Internet Protocol )ネットワーク経由でクライアント PC へ伝送するためのシステムの一実施例の構成を示すブロック図である。図5(a) は従来の IP ネットワークへの伝送方式で、図5(b) は本発明の IP ネットワークへの伝送方式の実施例である。51 は TV カメラ、52 と 52′は TV カメラ 51 が撮像した映像をフレーム毎に配信するための画像配信装置、53 は IP ネットワーク、54 は映像をモニタするためのクライアント PC 、55 は映像を複数のエリアに分割するための映像制御器、56 は映像信号、57 は制御信号、58 はエリアを選択するための操作PC である。   FIG. 5 is a block diagram showing a configuration of an embodiment of a system for transmitting the present invention to a client PC via an IP (Internet Protocol) network. FIG. 5 (a) shows a conventional transmission method for an IP network, and FIG. 5 (b) shows an embodiment of the transmission method for an IP network according to the present invention. 51 is a TV camera, 52 and 52 ′ are image distribution devices for distributing video captured by the TV camera 51 frame by frame, 53 is an IP network, 54 is a client PC for monitoring video, and 55 is a plurality of video A video controller for dividing the area, 56 is a video signal, 57 is a control signal, and 58 is an operation PC for selecting the area.

図5(b) において、TV カメラ 51 は、視野範囲を撮像し、撮像した映像を映像信号として映像制御器 55 に出力する。映像制御器 55 は、入力された映像信号を操作 PC 58 に出力する。
操作 PC 58 は、自身で備えているかまたは別途接続した表示ユニットに映像制御器 55 から与えられた映像信号をその表示ユニットの表示形式に変換して出力する。表示ユニットは、TV カメラ 51 が撮像した視野範囲全体の映像を表示する。
In FIG. 5B, the TV camera 51 captures the field of view and outputs the captured video to the video controller 55 as a video signal. The video controller 55 outputs the input video signal to the operation PC 58.
The operation PC 58 converts the video signal given from the video controller 55 to a display unit that is provided by itself or is connected separately to the display format of the display unit and outputs it. The display unit displays the entire field of view imaged by the TV camera 51.

操作者は、操作 PC 58 に備えられた入力機器を使って、操作 PC 58 を操作(例えば、GUI 操作)し、監視したいエリアを選択する。そして、その情報を映像制御器 55 に出力する。
なお、このとき、操作者が、表示するエリアの映像と共にそのエリアの情報を文字や図形で表示(更に、音声出力)したい場合には、その設定をすることもできる。エリアの情報とは、例えば、そのエリアの地名や地番(電車の乗降の場合には、車両番号等の順番や乗降口番号、等)他、時刻情報、等である。
The operator uses the input device provided in the operation PC 58 to operate the operation PC 58 (for example, GUI operation), and selects an area to be monitored. Then, the information is output to the video controller 55.
At this time, if the operator wants to display the information of the area to be displayed along with the image of the area to be displayed in characters or graphics (and further output sound), the setting can also be made. The area information includes, for example, the place name and lot number of the area (in the case of getting on and off the train, the order of the vehicle number, the entrance / exit number, etc.), time information, and the like.

映像制御器 55 は、操作 PC 58 から与えられた指示に従って、TV カメラ 51 が撮像した視野範囲全体の映像から指定のエリアの映像を分割して、操作 PC 58 から与えられた情報と共に、映像信号 56 として、画像配信装置 52′に出力する。また、映像制御器 55 と画像配信装置 52′とは、制御信号 57(例えば、クライアント PC 54 からの配信要求、操作 PC 58 からの配信制御信号、等)を送受しあう。   The video controller 55 divides the video of the specified area from the video of the entire field of view captured by the TV camera 51 in accordance with the instruction given from the operation PC 58, and together with the information given from the operation PC 58, the video signal 56 is output to the image distribution apparatus 52 ′. Further, the video controller 55 and the image distribution device 52 ′ exchange control signals 57 (for example, distribution request from the client PC 54, distribution control signal from the operation PC 58, etc.).

画像配信装置 52′は、映像をフレーム毎に IP パケット化して、IP ネットワーク 53 に配信する。
クライアント PC 54 は、IP ネットワーク 53 を介して、TV カメラ 51 が撮像した視野範囲全体の映像から操作 PC 58 で分割した映像を受信してその表示部に表示する。
なお、図5では、クライアント PC を1台だけとして説明したが、複数のクライアント PC があり、それぞれが別のエリア画像(全体画像を含む)の配信要求をしても良い。
The image distribution device 52 ′ converts the video into IP packets for each frame and distributes them to the IP network 53.
The client PC 54 receives the video divided by the operation PC 58 from the video of the entire field of view captured by the TV camera 51 via the IP network 53 and displays it on the display unit.
Although FIG. 5 illustrates only one client PC, there may be a plurality of client PCs, and each may make a distribution request for another area image (including the entire image).

図6は、本発明の映像制御器 52′の機能ブロックの一実施例を説明するための図である。
図6は、図4の映像制御器から、映像分配器 41 を除去し、画質変換部 48 を映像分配器 41 と結合する代わりに画質メモリ部43 とを設け、画質変換部 48 と画像メモリ部 43 と結合したものである。
図6のように、画質変換部では QXGA サイズ( 2048 × 1536 ドット)以上の画像フレーム(メガピクセル監視カメラの全体画像)を VGA サイズ( 640 × 480 ドット)に変換することで、データ量を減らしてネットワークへの負荷を軽減することができる。
なお、図6では、映像制御器 55 から、画像配信装置 52′への結線は、複数の入力があるように描いているが、図5の場合には、映像制御器 55 から画像配信装置 52′等の結線が1本のデータバスとして描いてあることによる違いで、実質的に同一である。
FIG. 6 is a diagram for explaining an embodiment of functional blocks of the video controller 52 ′ of the present invention.
In FIG. 6, the video distributor 41 is removed from the video controller of FIG. 4, and an image quality memory unit 43 is provided instead of coupling the image quality converter 48 with the video distributor 41. The image quality converter 48 and the image memory unit are provided. 43 combined.
As shown in Fig. 6, the image quality conversion unit reduces the amount of data by converting image frames (entire megapixel surveillance camera image) larger than QXGA size (2048 × 1536 dots) to VGA size (640 × 480 dots). The load on the network can be reduced.
In FIG. 6, the connection from the video controller 55 to the image distribution device 52 ′ is drawn so as to have a plurality of inputs, but in the case of FIG. 5, the connection from the video controller 55 to the image distribution device 52 is illustrated. The connection is substantially the same due to the difference in that the connections such as' are drawn as one data bus.

図7は、本発明の画像配信装置 52′の機能の一実施例を説明するためのブロック図である。
WEB エンコーダ 71 〜 73 は、エリア画像をネットワークへ配信する(この場合は3台)。また、WEB エンコーダ 74 は、映像制御器 55 の画質変換部 48 で変換された VGA サイズの映像をフレーム毎にネットワーク 53 に配信する。
なお、図7では、映像制御器 55 から、画像配信装置 52′内部の機能を明確にするために、複数の入力があるように描いているが、図5の場合には、映像制御器 55 から画像配信装置 52′等の結線が1本のデータバスとして描いてあることによる違いで、実質的に同一である。
各 WEB エンコーダ 71 〜 74 は、クライアント PC 54 側からの要求に応じてエリア画像または全体画像を配信する。
コントロール部 75 は、映像制御器 55 からの情報によって、各 WEB エンコーダ 71 〜 74 とスイッチングハブ 76 を制御し、スイッチングハブ 76 は、IP ネットワーク 53 と各 WEB エンコーダ 71 〜 74 との結合を切り換える。
FIG. 7 is a block diagram for explaining an embodiment of the function of the image distribution apparatus 52 ′ of the present invention.
The web encoders 71 to 73 distribute area images to the network (in this case, three units). Further, the web encoder 74 delivers the VGA size video converted by the image quality conversion unit 48 of the video controller 55 to the network 53 for each frame.
In FIG. 7, the video controller 55 is depicted so as to have a plurality of inputs in order to clarify the internal function of the image distribution device 52 ′. To the image distribution device 52 'and so on, and the connection is drawn as a single data bus.
Each of the WEB encoders 71 to 74 delivers an area image or an entire image in response to a request from the client PC 54 side.
The control unit 75 controls the WEB encoders 71 to 74 and the switching hub 76 based on information from the video controller 55, and the switching hub 76 switches the connection between the IP network 53 and the WEB encoders 71 to 74.

従来の技術では、TV カメラの映像全体を、フレーム毎に、直接、データ化するため、1フレーム( QXGA サイズ以上)あたりのデータ量が非常に大きくネットワークに与える負荷が大きいものであった。
しかし、本発明では、TV カメラの映像をフレーム毎にサイズの小さなエリアに分割した後にネットワークに配信する。このため、従来に比べてデータ量を小さく抑えることが可能である。
QXGA サイズの TV カメラの映像をフレーム単位でVGA サイズのエリアに分割した場合には、従来の方式に比べて約 10 %のデータ量にすることが可能である。
In the conventional technology, since the entire video of the TV camera is directly converted into data for each frame, the amount of data per frame (QXGA size or more) is very large and the load on the network is large.
However, in the present invention, the video of the TV camera is divided into small areas for each frame and then distributed to the network. For this reason, it is possible to reduce the amount of data compared to the conventional case.
When a QXGA sized TV camera image is divided into VGA sized areas in units of frames, the data volume can be reduced to about 10% compared to the conventional method.

また、図1((c)〜(e))や図2((c)〜(e)、(c′)〜(e′))、から分かるように、各エリア画像は似通っており、映像の相関性が高い。WEB エンコーダで MPEG 形式でエンコードする際、I ピクチャを共有化することでデータ量の低減を図ることが可能である。   Also, as can be seen from FIG. 1 ((c) to (e)) and FIG. 2 ((c) to (e), (c ′) to (e ′)), the area images are similar, and the video Is highly correlated. When encoding in MPEG format with the WEB encoder, it is possible to reduce the amount of data by sharing the I picture.

クライアント PC 54 側が複数のエリア画像を表示する場合、コントロール部 47 で、あるエリアの I ピクチャとその他のエリアの I ピクチャとの差分を検出し、WEB エンコーダが、1つのエリアの I ピクチャとその他のエリアの差分データ(例えば、P ピクチャ)のみを配信する。
クライアント PC が1つのエリア画像を表示する場合には、あまり効果が無いが、複数のエリア画像を表示する場合は、1つのエリアの I ピクチャとその他のエリアの差分データを配信するだけでよいのでデータ量を低減することが可能である。
When the client PC 54 displays multiple area images, the control unit 47 detects the difference between the I picture in one area and the I picture in the other area, and the WEB encoder detects the difference between the I picture in one area and the other I picture. Distribute only area difference data (for example, P picture).
When the client PC displays one area image, it is not very effective, but when displaying multiple area images, it is only necessary to distribute the difference data of one area I picture and other areas. It is possible to reduce the amount of data.

なお、エンコードの形式は、MPEG 形式に限らない。   Note that the encoding format is not limited to the MPEG format.

図5(b) と図8によって、手動選択によるエリア画像選択方法の一実施例を説明する。図8は、本発明の一実施例のエリア画像選択方法を説明するための図である。図8(a) は、TV カメラ 51 が撮像した視野範囲全体の画像が表示された表示ユニットの表示エリアを示す。また、図8(b) は、操作者が選択した所望のエリア画像の拡大画像を示す。この拡大画像は、例えば、クライアント PC 54 の表示ユニットに表示される。   An embodiment of an area image selection method by manual selection will be described with reference to FIGS. FIG. 8 is a diagram for explaining an area image selection method according to an embodiment of the present invention. FIG. 8A shows the display area of the display unit on which an image of the entire visual field range captured by the TV camera 51 is displayed. FIG. 8B shows an enlarged image of a desired area image selected by the operator. This enlarged image is displayed on the display unit of the client PC 54, for example.

図5(b) のシステムにおいて、操作 PC 58 に結合された表示ユニット(外付けでも内蔵でも可)に TV カメラ 51 で撮像された全体画像 81 が表示される。操作者は、GUI 操作等によって表示画面上の全体画像 81 から所望の監視ポイントを選択する(例えば、マウス(図8(b) 中の矢印で示す図形の先端は、監視ポイントの位置を示す。)でクリック等の操作をする)と、その部分を中心としたエリア画像 82 が、VGA サイズで選択される(図8(a) の点線枠)。選択の方法は、また、GUI 操作等によって表示画面上の所望の範囲のエリアを選択する(例えば、マウスにより任意の範囲のエリアを選択する)ことでも良い。このとき、VGA サイズ等の画面表示解像度の縦横比には横長なので、侵入者として検出されたエリアの高さ(縦)方向を主として、検出された侵入者の縦方向がすべて表示されるようにエリアの大きさが決定される。
そして、選択された任意の大きさのエリア画像は、映像制御器 55 の画質変換部で VGA サイズに変換され、画像 83 のように表示される。
In the system shown in FIG. 5B, the entire image 81 captured by the TV camera 51 is displayed on a display unit (which can be external or internal) coupled to the operation PC 58. The operator selects a desired monitoring point from the entire image 81 on the display screen by GUI operation or the like (for example, the tip of the figure indicated by the arrow in the mouse (FIG. 8B) indicates the position of the monitoring point. )), An area image 82 centered on that portion is selected in VGA size (dotted line frame in FIG. 8 (a)). The selection method may also be to select a desired range area on the display screen by GUI operation or the like (for example, select an arbitrary range area with the mouse). At this time, since the aspect ratio of the screen display resolution such as VGA size is horizontal, the height (vertical) direction of the area detected as an intruder is mainly displayed so that all the vertical directions of the detected intruder are displayed. The size of the area is determined.
Then, the selected area image of an arbitrary size is converted into the VGA size by the image quality conversion unit of the video controller 55 and displayed as an image 83.

なお、映像制御器 55 がサイズ変換する場合、選択されたエリアの画素数が、表示されるモニタの表示解像度のドットサイズより多い場合は間引いて変換され、少ない場合は補完して表示される。
また、拡大されて表示されるか縮小されて表示されるかも、同様なことがいえる。
When the video controller 55 performs size conversion, if the number of pixels in the selected area is larger than the dot size of the display resolution of the monitor to be displayed, it is converted by thinning out, and if it is smaller, it is complemented and displayed.
The same applies to whether the image is enlarged or reduced.

図9は、本発明の画像処理装置で侵入者などを自動検知することでエリアを自動選択する方法を示す。図9は、本発明の一実施例のエリア画像選択方法を説明するための図である。図9(a) は、図5(b) の本発明のシステムの一実施例に画像処理部 99 を追加した、本発明の別のシステムの実施例を示す図である。
監視用 TV カメラ 51 が撮像した映像は、フレーム毎に画像処理部 99 に出力される。画像処理部 99 は、周知のアルゴリズム(例えば、フレーム間差分や背景差分)を用いて侵入者を検知する。そして、侵入者を検出すると、検出したエリアを中心とした、侵入者のエリアを含み、侵入者のエリアと同じか少し大きめのエリアを自動選択する。この選択するエリアの広さはあらかじめ定めるか、また適時変更できる。
FIG. 9 shows a method of automatically selecting an area by automatically detecting an intruder or the like with the image processing apparatus of the present invention. FIG. 9 is a diagram for explaining an area image selection method according to an embodiment of the present invention. FIG. 9 (a) is a diagram showing an embodiment of another system of the present invention in which an image processing unit 99 is added to the embodiment of the system of the present invention of FIG. 5 (b).
The video captured by the surveillance TV camera 51 is output to the image processing unit 99 for each frame. The image processing unit 99 detects an intruder using a known algorithm (for example, inter-frame difference or background difference). When an intruder is detected, an area that includes the intruder area centered on the detected area and that is the same as or slightly larger than the intruder area is automatically selected. The size of the area to be selected can be determined in advance or can be changed in a timely manner.

図9(b) は、図9(a) のシステムの画像処理部 99 が自動的に検出した侵入者を追跡していることを示す図である。91 は操作 PC 58 に結合された表示ユニット(外付けでも内蔵でも可)表示されたTV カメラ 51 で撮像された全体画像、92 は時刻 t0 で検出したエリア、93 は時刻 t2 で検出したエリア、94 は時刻 t3 で検出したエリアを示す枠である。また、図9(c) の 95 は、エリアの枠 94 が選択した所望のエリア画像の拡大画像を示す。この拡大画像は、例えば、クライアント PC 54 の表示ユニットに表示される。
即ち、図9(c) は、エリア枠 94 の画像が映像制御器 55 の画質変換部で VGA サイズに変換され、画像 95 のように表示されることを示す。
FIG. 9B is a diagram showing that the intruder automatically detected by the image processing unit 99 of the system of FIG. 9A is being tracked. 91 is an entire image captured by the TV camera 51 displayed on the display unit (external or internal) connected to the operation PC 58, 92 is the area detected at time t0, 93 is the area detected at time t2, 94 is a frame indicating the area detected at time t3. Further, reference numeral 95 in FIG. 9C denotes an enlarged image of a desired area image selected by the area frame 94. This enlarged image is displayed on the display unit of the client PC 54, for example.
That is, FIG. 9C shows that the image of the area frame 94 is converted to the VGA size by the image quality conversion unit of the video controller 55 and displayed as an image 95.

なお、図9(b)においては、説明のために全体画像 91 中に枠 92 〜 94 が同時に描かれているが、時間の推移と共に枠の位置が矢印のように侵入者の移動に対応して移動して行くことを説明するためであって、実際には、各時刻毎にいずれか1つが表示されるものである。
また、侵入者が同時に2つ以上検出される場合には、同意に複数の枠が表示されるが、その場合には、更にマウス等が表示され、操作者が選択したいずれかの侵入者が VGA サイズで表示されるか、あるいは、複数のクライアント PC に自動的に割り当てられて別々に拡大されて表示することができる。
In FIG. 9 (b), frames 92 to 94 are simultaneously drawn in the entire image 91 for the sake of explanation. However, the position of the frame corresponds to the movement of the intruder as indicated by an arrow as time passes. In fact, any one is displayed at each time.
When two or more intruders are detected at the same time, a plurality of frames are displayed in the agreement. In that case, a mouse or the like is further displayed, and any intruder selected by the operator is displayed. It can be displayed in VGA size, or it can be automatically assigned to multiple client PCs and enlarged separately.

上記実施例では、侵入者を検出しているが、侵入者である必要は無く、動物や車両等の移動体または物体がカメラの視野範囲内に、またはセンサの警戒範囲内を通過または侵入することを検出する場合にも適用できることは言うまでもない。   In the above embodiment, an intruder is detected, but it is not necessary to be an intruder, and a moving body or object such as an animal or a vehicle passes or enters the camera's field of view or the sensor's alert range. Needless to say, the present invention can also be applied to the case of detecting this.

図10は、本発明の別の実施例を説明するための図で、野球などのスポーツ中継のインターネット配信画像を示す図である。図10(a) は、球場での野球中継の画像配信を説明するための図である。101 は球場全体を TV カメラで撮影した映像を表示した全体画像である。全体画像 101 は図10(a) では、上空から見た図に見えるが、ドーム球場では、このように上にカメラを取り付けて魚眼レンズと組み合わせた360度カメラの映像を画像処理して表示することができるが、通常は、球状のホームベース側の所定の高さから斜め下を俯瞰するように撮影するのが一般的である。また、球場観客席の一塁ベース側やあるいは三塁ベース側から撮影することも考えられる。   FIG. 10 is a diagram for explaining another embodiment of the present invention, and is a diagram showing an Internet distribution image of sports broadcast such as baseball. FIG. 10 (a) is a diagram for explaining the image distribution of the baseball broadcast on the stadium. 101 is an overall image showing an image of the entire stadium taken by a TV camera. In FIG. 10 (a), the entire image 101 can be seen from the sky. However, in the dome stadium, a 360-degree camera image combined with a fisheye lens is displayed after image processing. However, it is common to take a picture so as to look down from a predetermined height on the spherical home base side. It is also possible to take a picture from the first base side or third base side of the stadium spectator seats.

102 はレフト(左翼)選手の守備範囲を中心としたエリア、103 はセンタ(中堅)選手の守備範囲を中心としたエリア、104 はライト(右翼)選手の守備範囲を中心としたエリア、105 は内野選手の守備範囲を中心としたエリア、106 は投手と捕手の守備範囲を中心としたエリアである。
上記の発明の実施例では、操作 PC 58 で行なっていたエリア画像選択を、画像配信用 WEB サーバの WEB ページ(ブラウザ)上でクライアント PC 54 を操作することで行ない、クライアント PC 54 でモニタする視聴者側でエリアを選択する。選択されたエリアが、例えば画像 107 のようにモニタに表示される。
図11に示すように、WEB サーバ 111 は、選択された情報をもとに、WEB サーバ 111 に備えられた映像制御器 55′を制御し、配信するエリアを指定することで視聴者が観たい映像を届けることができる。
なお、WEB サーバ 111 はネットワーク経由でカメラ側の映像を受信しても良いが、ネットワークを経由しないで、直接映像を得、それらの映像を蓄積しておいて、WEB サーバ 111 からネットワークを介して映像を配信しても良い。
102 is an area centered on the defense range of the left (left wing) player, 103 is an area centered on the defense range of the center (mid-level) player, 104 is an area centered on the defense range of the right (right) player, 105 is 106 is an area centered on the defense range of Uchino players, and 106 is an area centered on the defense range of pitchers and catchers.
In the embodiment of the invention described above, the area image selection performed on the operation PC 58 is performed by operating the client PC 54 on the WEB page (browser) of the image distribution WEB server, and the viewing monitored on the client PC 54 is performed. Select the area on the person side. The selected area is displayed on the monitor as an image 107, for example.
As shown in FIG. 11, the WEB server 111 controls the video controller 55 ′ provided in the WEB server 111 based on the selected information, and the viewer wants to watch by specifying the area to be distributed. Can deliver video.
Note that the WEB server 111 may receive the video on the camera side via the network, but directly obtains the video without passing through the network, stores the video, and transmits the video from the WEB server 111 via the network. Video may be distributed.

例えば、図10をもとに説明すると、ライトの選手の動きを中心にモニタしたい場合、TV カメラ 51′で撮影した球場全体の画像から観たいエリアを視聴者が WEB ページ上で選択し、WEB サーバ 111 は映像制御器 55′で抽出したエリア画像を映像制御器 55′に備えられた WEB エンコーダ経由で視聴者側に配信する。   For example, referring to FIG. 10, when monitoring the movement of a light player as a center, the viewer selects an area to be viewed from the entire stadium image captured by the TV camera 51 ′ on the WEB page, and The server 111 distributes the area image extracted by the video controller 55 ′ to the viewer side via the WEB encoder provided in the video controller 55 ′.

なお、上記実施例では、360度カメラによって撮像したが、必ずしも360度である必要は無く、撮影するために必要な角度であれば良い。
また、複数台のカメラで撮像した画像の合成についても同様なことがいえる。
In the above embodiment, the image is picked up by a 360 degree camera, but it is not necessarily 360 degree, and any angle may be used as long as it is necessary for photographing.
The same applies to the synthesis of images captured by a plurality of cameras.

図12は、TV カメラを3台使用し、各々が水平120度ずつ撮像して取得した映像を合成して360度のパノラマ画面例を示す図である。また、図13は、図12の360度のパノラマ画面を用いて、市街地などの交通流監視カメラシステムに応用した場合で、本発明のシステムの構成の一実施例を示すブロック系統図である。
図12において、カメラ部 121には、3台のTV カメラ 122 を水平120度ずつ撮像するように配置し、それぞれのTV カメラ 122 が撮像した映像 123-1 、123-2 、及び 123-3 を画像処理によって合成して360度のパノラマ画面 124 を表示のために出力する。TV カメラ 122 は、例えば、900 万画素のメガピクセルカメラである。
FIG. 12 is a diagram illustrating an example of a panoramic screen of 360 degrees by using three TV cameras and synthesizing images acquired by capturing 120 degrees each horizontally. FIG. 13 is a block system diagram showing an embodiment of the system configuration of the present invention when applied to a traffic flow monitoring camera system such as an urban area using the 360 degree panoramic screen of FIG.
In FIG. 12, in the camera unit 121, three TV cameras 122 are arranged so as to capture 120 degrees horizontally, and images 123-1, 123-2, and 123-3 captured by the respective TV cameras 122 are displayed. A 360-degree panoramic screen 124 is synthesized by image processing and output for display. The TV camera 122 is, for example, a megapixel camera having 9 million pixels.

図13において、例えば、360度撮像可能なカメラ部 121 で、交差点の中心部に設置し全方向を監視する。なお、3台のカメラ画像を合成する方式の他に、360度監視するカメラ 121 は、NSK株式会社製360度撮影カメラでも代用可能である。カメラ部 121 は、複数台備え、それぞれのカメラ部 121 が、割り当てられた交差点を撮像する。   In FIG. 13, for example, a camera unit 121 capable of imaging 360 degrees is installed at the center of an intersection and monitors all directions. In addition to the method of synthesizing the three camera images, the camera 121 that monitors 360 degrees can be substituted by a 360 degree photographing camera manufactured by NSK Corporation. A plurality of camera units 121 are provided, and each camera unit 121 captures an assigned intersection.

カメラ部 121 が撮像した交差点の映像は、それぞれ、屋外用機器収容ボックス 132 に出力される。屋外用機器収容ボックス 132 は、それぞれ、入力された映像を合成して360度のパノラマ画面に変換し、更に、IP ネットワーク 133 で伝送できるデータ形式(例えば、IP パケット)に変換して、IP ネットワーク 133 を介して、管理サーバ( WEB サーバ)134 に送信する。
管理サーバ 134 は、映像の配信制御、及び配信するクライアント数などネットワーク接続端末を管理する。
The intersection images captured by the camera unit 121 are output to the outdoor equipment storage box 132, respectively. Each of the outdoor equipment storage boxes 132 synthesizes the input video and converts it into a 360-degree panoramic screen, and further converts it into a data format (for example, IP packet) that can be transmitted over the IP network 133. It is transmitted to the management server (WEB server) 134 via 133.
The management server 134 manages network connection terminals such as video distribution control and the number of clients to be distributed.

クライアント PC 135 は、IP ネットワーク 133 と結合し、監視映像をモニタする。また、WEB デコーダ 136 は、IP パケットで配信された画像データを例えば NTSC アナログ信号に変換し、大型モニタ137 に出力する。
WEB デコーダ 136 が変換する形式は、大型モニタ137 が表示可能な形式であれば何でも良い。
大型モニタ 137 は、入力された監視画像を単画面表示または多分割表示する。
なお、単画面表示とは、モニタの表示画面に入力可能なカメラの1台分の映像だけを表示し、多分割表示とは、表示画面を分割して複数台のカメラの映像を表示するものである。
The client PC 135 is connected to the IP network 133 and monitors the monitoring video. Further, the WEB decoder 136 converts the image data distributed by the IP packet into, for example, an NTSC analog signal and outputs it to the large monitor 137.
The format converted by the web decoder 136 may be any format that can be displayed by the large monitor 137.
The large monitor 137 displays the input monitoring image as a single screen or multi-segment display.
Note that single-screen display displays only the video of one camera that can be input on the monitor display screen, and multi-split display displays video from multiple cameras by dividing the display screen. It is.

図13において、図示しないセンサは、音、光、振動、等の変化を検知し、アラーム信号 138 を屋外用機器収容ボックス 132 に出力し、屋外用機器収容ボックス 132 は、アラーム信号 138 に応じて、異常な変化を検知したセンサに対応するカメラの映像を単画面表示するかあるいは、色つきの枠で囲ったり、枠を点滅させたりするように画面表示を切り換える情報を IP ネットワーク 133 を介してクライアント PC 135 や WEB デコーダ 136 に出力する。WEB デコーダ 136 は、更にその情報に応じて、大型モニタ 137 の表示を切り換える。   In FIG. 13, a sensor (not shown) detects a change in sound, light, vibration, etc., and outputs an alarm signal 138 to the outdoor equipment storage box 132. The outdoor equipment storage box 132 responds to the alarm signal 138. , The camera image corresponding to the sensor that detected the abnormal change is displayed on a single screen, or the information for switching the screen display so that it is surrounded by a colored frame or blinking is displayed on the client via the IP network 133. Output to PC 135 or WEB decoder 136. The web decoder 136 further switches the display of the large monitor 137 according to the information.

例えば、市街地の各交差点に混雑状況を監視するための360度監視可能なカメラを設置し、クライアント PC 135 側で予め選択されたエリアとアラームポイントを対応させ、WEB サーバ 134 でデータマップを作成する。アラームが発生すると、クライアント PC 135 の操作画面は自動的にアラームが発生したエリアの画面に切り換わる。設置されたセンサと、そのセンサのアラームが発生した場合に表示するエリアとは、あらかじめ関連付けられている。また、対応するエリアが、1つのセンサに複数あっても良いし、同じエリアが複数のセンサと対応していても良い。   For example, a 360 degree monitorable camera is installed at each intersection in an urban area, and an area pre-selected on the client PC 135 side is associated with an alarm point, and a data map is created on the WEB server 134 . When an alarm occurs, the operation screen of the client PC 135 automatically switches to the screen of the area where the alarm occurred. An installed sensor and an area to be displayed when an alarm of the sensor occurs are associated in advance. In addition, there may be a plurality of corresponding areas in one sensor, or the same area may correspond to a plurality of sensors.

図14は、本発明のクライアント PC 135 の操作画面の一実施例のイメージ図である。図14(a) はクライアント PC 135 の表示部 141 に表示された操作画面の略イメージを示し、画面 142 には、選択されているエリア(即ち、操作対象のカメラ部が撮影している映像)が表示されている。また、下側の画面 143 に交差点の360度全体の画像を表示される。図14(b) は、画面 143 を拡大して表示した図である。更に、右側の画面 144 には、選択されているエリアに関する情報(交差点名称、通り名称、住所、警報発生件数、警報発生時間など)が図形や文字等で表示される。図14(c) は、画面 144 を拡大して表示した図である。   FIG. 14 is an image diagram of an embodiment of the operation screen of the client PC 135 of the present invention. FIG. 14 (a) shows an abbreviated image of the operation screen displayed on the display unit 141 of the client PC 135, and the screen 142 shows a selected area (that is, an image taken by the operation target camera unit). Is displayed. Further, the entire 360 ° image of the intersection is displayed on the lower screen 143. FIG. 14B is an enlarged view of the screen 143. Furthermore, on the screen 144 on the right side, information on the selected area (intersection name, street name, address, number of alarm occurrences, alarm occurrence time, etc.) is displayed in graphics, characters, and the like. FIG. 14 (c) is an enlarged view of the screen 144.

各エリア、アラーム情報は、交差点名称などと共に、WEB サーバ 134 でデータマップ化され、アラームが多発する時刻、場所などからアラーム発生予測を行なうことが可能である。   Each area and alarm information is converted into a data map by the WEB server 134 together with the intersection name, and the occurrence of alarm can be predicted from the time and place where the alarm occurs frequently.

本発明の他の実施形態について説明する。
図15は、本発明の一実施例の監視システムを示すブロック図である。図2は、被写体の画像の部分拡大処理を行うための画像処理装置と記録装置を使用したシステム系統図である。521 は TV カメラ、522 は画像処理装置、522-1 は画像処理装置 522 内の画像フレームメモリ、523 は記録装置、524 はモニタである。また、525 ,526 ,527 は映像信号である。記録装置は、例えば、デジタルレコーダである。TV カメラ 521 は、例えば、有効画素数が 120 万画素以上のメガピクセルカメラである。
Another embodiment of the present invention will be described.
FIG. 15 is a block diagram showing a monitoring system according to an embodiment of the present invention. FIG. 2 is a system diagram using an image processing apparatus and a recording apparatus for performing partial enlargement processing of an image of a subject. 521 is a TV camera, 522 is an image processing device, 522-1 is an image frame memory in the image processing device 522, 523 is a recording device, and 524 is a monitor. Reference numerals 525, 526, and 527 denote video signals. The recording device is, for example, a digital recorder. The TV camera 521 is, for example, a megapixel camera having an effective pixel count of 1.2 million pixels or more.

図15において、TV カメラ521 は、監視領域、例えば、ホームに停車した列車の車両を撮影し、映像信号525 を画像処理装置 522 に出力する。画像処理装置 522 は、入力された映像信号 525 を1フレーム毎に、SXGA サイズ( 1280 × 1024 画素)で画像処理装置 522 内の画像フレームメモリ 522-1 に記憶する。   In FIG. 15, a TV camera 521 captures a vehicle in a monitoring area, for example, a train stopped at a home, and outputs a video signal 525 to the image processing device 522. The image processing device 522 stores the input video signal 525 in the image frame memory 522-1 in the image processing device 522 in SXGA size (1280 × 1024 pixels) for each frame.

画像処理装置 522 は、画像フレームメモリ522-1 に記憶された画像を、被写体の画像の奥行きや形状に基づいて部分的に拡大し、部分的な拡大画像を映像信号526 として記録装置 523 に出力する。記録装置 523 は、入力された映像信号526 の画像を予め選択された画質モードで録画する。   The image processing device 522 partially enlarges the image stored in the image frame memory 522-1 based on the depth and shape of the image of the subject, and outputs the partially enlarged image as the video signal 526 to the recording device 523. To do. The recording device 523 records the image of the input video signal 526 in an image quality mode selected in advance.

この予め選択された画質で録画された画像は、記録装置 523 から映像信号 527 として読み出され、再生画像としてモニタ524 に出力される。モニタ 524 は、入力された映像信号 527 の再生画像を画面に表示する。   The image recorded with the pre-selected image quality is read out from the recording device 523 as a video signal 527 and output to the monitor 524 as a reproduced image. The monitor 524 displays a playback image of the input video signal 527 on the screen.

上記実施例では、画像を拡大処理しても画質が劣化しないことを特徴としている。しかし、画像処理装置 522 で拡大した画像が、拡大しないで録画された通常の録画画像より画質の劣化がないようにするためには、画素の拡大率と、記録装置523 の録画画質に注意しなければならない。   The above embodiment is characterized in that the image quality does not deteriorate even when the image is enlarged. However, in order to prevent the image magnified by the image processing device 522 from deteriorating in image quality compared to a normal recorded image recorded without being magnified, pay attention to the pixel enlargement rate and the recording image quality of the recording device 523. There must be.

例えば、記録装置 523 が VGA( 640 × 480 画素)で録画するなら、画素の拡大率は、縦、横ともに最大で2倍まで画質を落とさずに拡大することが可能である。
また例えば、QVGA( 320 × 240 )で録画するなら、画素の拡大率は、縦、横ともに最大で4倍までなら画質を落とさずに拡大することが可能である。
For example, if the recording device 523 records with VGA (640 × 480 pixels), the enlargement rate of the pixels can be enlarged up to twice as long as the image quality is not reduced in both the vertical and horizontal directions.
Also, for example, when recording in QVGA (320 × 240), if the pixel enlargement ratio is up to 4 times both vertically and horizontally, it is possible to enlarge without degrading the image quality.

図16は、本発明の画像処理装置 522 の機能ブロックの一実施例を示す図である。531 は画像フレームメモリ、532 はエッジ検出部、533 は輝度差検出部、534 は被写体形状検出部、535 は拡大処理部である。また図17は、図16の画像処理装置522 内の各構成部( 531 〜 535 )での画像の様子を模式的に示す図である。541 は画像フレームメモリ 531 に記憶された画像、542 はエッジ検出部532 で検出されたエッジ検出画像、543 は輝度差検出部 533 で検出された輝度差検出画像、544 は、被写体形状検出部 534 で検出された形状検出画像、545 は拡大処理部 535 が出力する拡大画像である。   FIG. 16 is a diagram showing an example of functional blocks of the image processing apparatus 522 of the present invention. 531 is an image frame memory, 532 is an edge detection unit, 533 is a luminance difference detection unit, 534 is a subject shape detection unit, and 535 is an enlargement processing unit. FIG. 17 is a diagram schematically showing the state of an image in each component (531 to 535) in the image processing apparatus 522 in FIG. 16. 541 is an image stored in the image frame memory 531, 542 is an edge detection image detected by the edge detection unit 532, 543 is a luminance difference detection image detected by the luminance difference detection unit 533, and 544 is a subject shape detection unit 534 The shape detection image 545 detected in step 545 is an enlarged image output from the enlargement processing unit 535.

図16において、画像処理装置 522 に入力された映像信号 525 は、画像フレームメモリ531 に高画質(例えば、SXGA サイズ)の画像データ(画像 541 )として記憶される。画像フレームメモリ 531 は、記憶された画像 541 を、エッジ検出部532 と輝度差検出部 533 に出力する。   In FIG. 16, the video signal 525 input to the image processing device 522 is stored in the image frame memory 531 as high-quality (for example, SXGA size) image data (image 541). The image frame memory 531 outputs the stored image 541 to the edge detection unit 532 and the luminance difference detection unit 533.

エッジ検出部 532 は、入力された画像データの画像のエッジ抽出を行い、抽出されたエッジ検出画像542 を被写体形状検出部 534 に出力する。例えば、ホームの列車の画像の場合、列車がホームに入線した状態の列車外枠をエッジとして検出する。   The edge detection unit 532 performs edge extraction of the input image data image, and outputs the extracted edge detection image 542 to the subject shape detection unit 534. For example, in the case of an image of a home train, a train outer frame in a state where the train enters the home is detected as an edge.

また、輝度差検出部 533 は、入力された画像541 と背景画像との輝度値の差を算出し、算出された輝度値の差を輝度値とした画像(輝度差検出画像543 )を生成し、生成された輝度差検出画像 543 を被写体形状検出部 534 に出力する。例えば、ホームの列車の画像の場合、列車表面が背景より明るいことを利用して列車と背景とを分離し、列車の画像領域のみを抽出する。なお、背景画像は、例えば、予め列車が入線していない時に監視視野領域を撮像して取得し、例えば画像処理装置522 内の所定のメモリに記憶しておく。また輝度値の差の算出は、例えば画素毎に実行する。   Also, the luminance difference detection unit 533 calculates a luminance value difference between the input image 541 and the background image, and generates an image (luminance difference detection image 543) using the calculated luminance value difference as a luminance value. The generated luminance difference detection image 543 is output to the subject shape detection unit 534. For example, in the case of an image of a home train, the train and the background are separated using the fact that the train surface is brighter than the background, and only the image area of the train is extracted. Note that the background image is obtained by, for example, capturing the monitoring visual field region in advance when the train is not in the line, and storing it in a predetermined memory in the image processing device 522, for example. Further, the calculation of the difference in luminance value is executed for each pixel, for example.

被写体形状検出部 534 は、入力されたエッジ検出画像542 と輝度差検出画像 543 とから、相関性の高い部分領域を列車の画像として確定し、確定した領域の画像(形状検出画像 544 )を拡大処理部 535 に出力する。   The subject shape detection unit 534 determines a highly correlated partial area as a train image from the input edge detection image 542 and luminance difference detection image 543, and enlarges the image of the determined area (shape detection image 544). Output to processing unit 535.

拡大処理部 535 は、被写体形状検出部534 で確定された形状検出画像 544 の画素領域について、各々の画素についての画素サイズの拡大率を決定する。そして、決定された拡大率を各々の画素のサイズに乗じて、被写体を擬似的に正面から見た拡大画像545 を生成し、映像信号 526 としてモニタ 524 に出力する。なお、拡大率の算出は、ホームの入線列車や建物構内など、背景の変化や動体の無い条件で(例えば、上記背景画像によって)行う。   The enlargement processing unit 535 determines the enlargement ratio of the pixel size for each pixel in the pixel region of the shape detection image 544 determined by the subject shape detection unit 534. Then, by multiplying the determined enlargement factor by the size of each pixel, an enlarged image 545 in which the subject is viewed from the front is generated in a pseudo manner, and is output to the monitor 524 as the video signal 526. Note that the enlargement ratio is calculated under conditions where there is no change in the background and no moving object, such as an incoming train on the platform or a building premises (for example, based on the background image).

また、乗降口付近の乗客の乗り降りを監視するためには、乗降口だけではなくその周囲も監視しなければならないため、列車の画像として確定された画像領域に、更にホーム側数十 cm 以上内側までの画像を拡大処理するようにしても良い。   In addition, in order to monitor passengers getting on and off near the entrance, it is necessary to monitor not only the entrance and exit but also the surrounding area. You may make it enlarge an image until.

以上のように、動画をリアルタイムで監視するために、図16における処理は、全てハードウェアで構成している。
しかし、画像処理装置を FPGA で構成して図18に示すフローチャートのように処理することもできる。図18は、本発明の一実施例の画像処理方法の処理動作例を説明するためのフローチャートである。
As described above, in order to monitor a moving image in real time, the processes in FIG. 16 are all configured by hardware.
However, the image processing apparatus can be configured by an FPGA and processed as shown in the flowchart of FIG. FIG. 18 is a flowchart for explaining a processing operation example of the image processing method according to the embodiment of the present invention.

図18において、ステップ 1501 では、予め基準とする背景画像を決定し、記憶する。
ステップ 1502 では、背景画像によって画素毎の拡大率の算出を行う。
ステップ 551 では、映像信号525 を画像フレームメモリ 531 に記憶する。
In FIG. 18, in step 1501, a reference background image is determined and stored in advance.
In step 1502, the enlargement ratio for each pixel is calculated based on the background image.
In step 551, the video signal 525 is stored in the image frame memory 531.

ステップ 552 では、記憶された映像信号525 のエッジ抽出を行い、エッジ検出画像 542 を抽出する。
ステップ 553 では、記憶された映像信号525 と予め格納していた背景画像とを、例えば画素毎に輝度値の差分を算出し、輝度差検出画像543 を検出する。
In step 552, the edge of the stored video signal 525 is extracted, and the edge detection image 542 is extracted.
In step 553, a difference in luminance value between the stored video signal 525 and the background image stored in advance is calculated for each pixel, for example, and a luminance difference detection image 543 is detected.

ステップ 554 では、エッジ検出画像542 と輝度差検出画像 543 とから、相関性の高い部分領域を形状検出画像 544 として確定する。
ステップ 555-1 では、被写体形状検出部534 で確定された形状検出画像 544 の画素領域について、各々の画素の画素サイズの拡大率を決定する。
In step 554, a partial region having high correlation is determined as the shape detection image 544 from the edge detection image 542 and the luminance difference detection image 543.
In step 555-1, for the pixel region of the shape detection image 544 determined by the subject shape detection unit 534, the enlargement ratio of the pixel size of each pixel is determined.

ステップ 555-2 では、決定された各画素毎の拡大率を各々の画素のサイズに乗じて、被写体を擬似的に正面から見た拡大画像545 を生成する。   In step 555-2, the determined enlargement ratio for each pixel is multiplied by the size of each pixel to generate an enlarged image 545 in which the subject is viewed from the front in a pseudo manner.

次に、図19によって本発明の拡大率の算出の手順を一例を説明する。図19は、本発明の一実施例の拡大率の算出の手順を説明するための図である。横軸を X 軸、縦軸を Y 軸とした XY 座標で表示している。また、一番左下の座標を原点( 0 ,0 )としている。(a) は、図23の表示例510 の画像 510-1 、(b) は拡大前の画素のサイズ、(c) は拡大後の画素のサイズである。ただし、図6(a) の画像に比して、図19(b) と図19(c) は、図示している画素の大きさは大きく表している。   Next, an example of the procedure for calculating the enlargement ratio according to the present invention will be described with reference to FIG. FIG. 19 is a diagram for explaining the procedure for calculating the enlargement ratio according to the embodiment of the present invention. It is displayed in XY coordinates with the horizontal axis as the X axis and the vertical axis as the Y axis. The coordinate at the bottom left is the origin (0, 0). 23A shows the image 510-1 in the display example 510 of FIG. 23, FIG. 23B shows the size of the pixel before enlargement, and FIG. 23C shows the size of the pixel after enlargement. However, the size of the pixel shown in FIGS. 19B and 19C is larger than that of the image of FIG. 6A.

図19において、画像 510-1 を X 、Y 座標で表し、画像 510-1 全体を( LH × LV )=( 1280 × 1024 )とする。
算出方法を一般化するために、以降のように変数を定める。
In FIG. 19, an image 510-1 is represented by X and Y coordinates, and the entire image 510-1 is (L H × L V ) = (1280 × 1024).
In order to generalize the calculation method, variables are defined as follows.

被写体形状検出により得られた形状検出画像 544 から、図19(a) のように lH 、lV1 、lV2 を定める。ここで、lH は形状検出画像 544 の左端の X 座標、lV1 は形状検出画像 544 の左下端の Y 座標、lV2 は形状検出画像 544 の左上端の Y 座標である。また、列車下部の直線を関数 F 1(X) 、列車上部の直線を関数 F 2(X) とする。 From the shape detection image 544 obtained by subject shape detection, l H , l V1 and l V2 are determined as shown in FIG. Here, l H is the X coordinate of the left end of the shape detection image 544, l V1 is the Y coordinate of the lower left end of the shape detection image 544, and l V2 is the Y coordinate of the upper left end of the shape detection image 544. The straight line at the bottom of the train is function F 1 (X), and the straight line at the top of the train is function F 2 (X).

このとき、関数 F 1(X) は、式(1) 、関数 F 2(X) は、式(2) のように求めることができる。 At this time, the function F 1 (X) can be obtained as shown in Expression (1) and the function F 2 (X) as shown in Expression (2).

Figure 0004685561
Figure 0004685561

Figure 0004685561
Figure 0004685561

また、元の画素の大きさを( gX × gY )、拡大画素の大きさを( GX × GY )、画素の Y 軸方向の拡大率をα(X) 、X 軸方向の拡大率をβ(X) とする。
このとき、GY は式(3) のように求めることができる。
Also, the size of the original pixel is (g X × g Y ), the size of the enlarged pixel is (G X × G Y ), the magnification rate of the pixel in the Y-axis direction is α (X), and the magnification in the X-axis direction is Let β (X) be the rate.
At this time, G Y can be obtained as shown in Equation (3).

Figure 0004685561
Figure 0004685561

次に、GX は、画素の X 軸方向の拡大率もα(X) として、拡大後の画像フレームの水平画素の和を S とすると、式(4) のように求めることができる。 Next, G X can be obtained as shown in Equation (4), where S is the sum of the horizontal pixels of the enlarged image frame, where α (X) is the enlargement ratio of the pixels in the X-axis direction.

Figure 0004685561
Figure 0004685561

以上より元の画素に X による変数である拡大率α(X) 、β(X) を乗じて各画素毎に拡大することで拡大画像が得られる。
以上の算出処理は、カメラ設置時に被写体を撮影した状態で行い、以降の通常監視時は、拡大率の算出は行わず、拡大率α(X) 、β(X) を定数として使用する。
As described above, an enlarged image can be obtained by multiplying the original pixel by the enlargement ratios α (X) and β (X), which are variables of X, and enlarging each pixel.
The above calculation processing is performed in a state where the subject is photographed when the camera is installed, and the magnification rate α (X) and β (X) are used as constants without calculating the magnification rate during subsequent normal monitoring.

本発明の他の実施例を、図20によって説明する。図20は、鉄道におけるホーム画像監視システムの本発明の一実施例を説明するための図である。図20(a) はホームを上方から見たシステムの略構成を示し、51-1 〜 51-4 は TV カメラ、52-1 〜 52-8 は列車の車両を示す。乗降客等、他のホームや列車上にあるべき他の物体等の図示は、煩雑さを避けるために省略している。ここで、モニタや記録装置は図7に示していないが、例えば、運転席、車掌席、駅事務所または監視センタに設置され、TV カメラ 1-1 〜 1-4 と無線または有線のいずれかあるいはそれらの組合せの周知の伝送手段(図示しない、例えば、無線 LAN( Local Area Network )、光通信等の通信回線によって結合されている。   Another embodiment of the present invention will be described with reference to FIG. FIG. 20 is a diagram for explaining an embodiment of the present invention of a home image monitoring system in a railway. FIG. 20 (a) shows the schematic configuration of the system as seen from above, 51-1 to 51-4 are TV cameras, and 52-1 to 52-8 are train vehicles. Illustrations of other objects such as passengers and other platforms that should be on the train are omitted in order to avoid complexity. Here, although the monitor and recording device are not shown in FIG. 7, for example, they are installed in a driver's seat, a conductor's seat, a station office, or a monitoring center, and either TV cameras 1-1 to 1-4 and either wireless or wired Alternatively, they are combined by a known transmission means (not shown, for example, wireless LAN (Local Area Network), optical communication or the like).

また図20(b) は、図20(a) のカメラ 51-1 〜 51-4 が取得した映像を複数のモニタにそのまま表示した従来技術の表示例である。510′はモニタ画面の表示例、510′-1 は TV カメラ 51-1 が取得した映像をモニタの1つに表示した表示例、510′-2 は TV カメラ 51-2 が取得した映像をモニタの1つに表示した表示例、510′-3 は TV カメラ 1-3 が取得した映像をモニタの1つに表示した表示例、510′-4 は TV カメラ 51-4 が取得した映像をモニタの1つに表示した表示例である。   FIG. 20B shows a display example of the prior art in which the images acquired by the cameras 51-1 to 51-4 in FIG. 20A are displayed as they are on a plurality of monitors. 510 'is a display example of the monitor screen, 510'-1 is a display example of displaying the video acquired by the TV camera 51-1 on one of the monitors, 510'-2 is a monitor of the video acquired by the TV camera 51-2 Display example displayed on one of the screens, 510'-3 is a display example where the video acquired by the TV camera 1-3 is displayed on one of the monitors, 510'-4 is a monitor displayed on the video acquired by the TV camera 51-4 It is the example of a display displayed on one of these.

また図20(c) は、本発明の一実施例で、図20(a) の TV カメラ 51-1 〜 51-4 が取得した映像を複数のモニタに表示した例を示す図である。570 はモニタ画面の表示例、570-1 は TV カメラ 51-1 が取得した映像をモニタの1つに表示した表示例、570-2 は TV カメラ 51-2 が取得した映像をモニタの1つに表示した表示例、570-3 は TV カメラ 51-3 が取得した映像をモニタの1つに表示した表示例、70-4 はカメラ 1-4 が取得した映像をモニタの1つに表示した表示例である。   FIG. 20 (c) is a diagram showing an example in which videos acquired by the TV cameras 51-1 to 51-4 in FIG. 20 (a) are displayed on a plurality of monitors according to an embodiment of the present invention. 570 is a display example of the monitor screen, 570-1 is a display example in which the video acquired by the TV camera 51-1 is displayed on one of the monitors, and 570-2 is a video acquired by the TV camera 51-2 in one of the monitors. Display example, 570-3 is a display example where the video acquired by TV camera 51-3 is displayed on one of the monitors, 70-4 is a video acquired by camera 1-4 on one of the monitors It is a display example.

図20の実施例では、1つの監視領域を複数の TV カメラで撮像し、複数のモニタに表示する。このため、例えば、図20(b) に示す従来例のように、手前と奥の画像が交互に表示されるため、非常に視認が困難になる。
このような監視において、本発明では、複数のカメラで撮像した監視領域を、1つのカメラで正面から撮像したように擬似的に表示させる。これによって、視認性が向上する。
In the embodiment of FIG. 20, one monitoring area is imaged by a plurality of TV cameras and displayed on a plurality of monitors. For this reason, for example, as in the conventional example shown in FIG. 20B, the front and back images are alternately displayed, so that it is very difficult to view.
In such monitoring, in the present invention, the monitoring area captured by a plurality of cameras is displayed in a pseudo manner as if it was captured from the front by one camera. This improves the visibility.

図21によって、本発明の別の実施例を説明する。図21は、本発明の一実施例のモニタ表示画面の一例を示す図である。図21は、本発明の一実施例の図7(c) が複数のモニタを有し、カメラ1台毎に1台のモニタを割当てて1台のカメラの取得した映像を割当てた1台のモニタに表示していることに対して、1台のモニタを複数の画面に分割して(図7では、4分割表示)表示し、モニタの数を減らしたものである。580 はモニタ画面の表示例、570-1 は TV カメラ 51-1 が取得した映像をモニタの1つに表示した表示例、570-2 は TV カメラ 51-2 が取得した映像をモニタの1つに表示した表示例、570-3 は TV カメラ 51-3 が取得した映像をモニタの1つに表示した表示例、570-4 は TV カメラ 51-4 が取得した映像をモニタの1つに表示した表示例である。   FIG. 21 illustrates another embodiment of the present invention. FIG. 21 is a diagram showing an example of a monitor display screen according to an embodiment of the present invention. FIG. 21 (c) of one embodiment of the present invention has a plurality of monitors, one monitor is assigned to each camera, and one camera assigned an image acquired by one camera is assigned. In contrast to the display on the monitor, one monitor is divided into a plurality of screens (in FIG. 7, four-divided display), and the number of monitors is reduced. 580 is a display example of the monitor screen, 570-1 is a display example in which the video acquired by the TV camera 51-1 is displayed on one of the monitors, and 570-2 is a video acquired by the TV camera 51-2 in one of the monitors. 570-3 is a display example in which the video acquired by the TV camera 51-3 is displayed on one of the monitors, and 570-4 is a video in which the TV camera 51-4 is acquired on one of the monitors. This is an example of display.

図22によって、本発明の別の実施例を説明する。図22は、本発明の一実施例のモニタ表示画面の一例を示す図である。図22は、本発明の一実施例の図21(c) の表示例 570-1 において、車両の外壁部分の撮像画像を表示せず、例えば白抜きとして、車両の乗降口から見える車内とホーム上の乗降者の撮像画像を表示するようにした表示例である。   Another embodiment of the present invention will be described with reference to FIG. FIG. 22 is a diagram showing an example of a monitor display screen according to an embodiment of the present invention. FIG. 22 is a display example 570-1 shown in FIG. 21 (c) of the embodiment of the present invention, in which the captured image of the outer wall portion of the vehicle is not displayed. It is the example of a display which displayed the upper passenger's picked-up image.

上記図22の実施例では、例えば、車両の両側に1つずつ設けられている乗降扉の開閉を知らせるランプ(例えば、車側灯)を認識し、画像処理によって、撮像画像中のランプが点灯したことを検知して、ランプの位置を元に乗降扉の位置を算出することによって実行することができる。
また、例えば、図17によって説明した形状検出画像 544 によって選択しても良い。
また更に、図18によって説明したステップ 554 での処理によって、形状検出画像 544 を求めても良い。
In the embodiment shown in FIG. 22, for example, a lamp (for example, a car side lamp) that notifies opening / closing of a passenger door provided on each side of the vehicle is recognized, and the lamp in the captured image is turned on by image processing. It can be executed by detecting this and calculating the position of the passenger door based on the lamp position.
Further, for example, the selection may be made by the shape detection image 544 described with reference to FIG.
Furthermore, the shape detection image 544 may be obtained by the processing in step 554 described with reference to FIG.

尚、撮像された画像のどの部分を表示するかまたは表示しないかは、用途や目的に応じて設定することは自明である。
また、記録装置に記憶する画像は、表示画像と同じであっても元の画像であってもどちらでも良いし、それら両方であっても良い。
It is obvious that which part of the captured image is to be displayed or not to be set according to the application and purpose.
Further, the image stored in the recording apparatus may be the same as the display image, the original image, or both of them.

以上のように、本発明によれば、奥行きのある被写体を複数のカメラで監視する監視カメラシステムにおいて、メガピクセルカメラ等の有効画素数が、モニタ等の表示装置の画面表示解像度より大きいカメラを使って被写体全体を撮像し、撮像した映像を監視したい複数のエリアに分割することで、モニタ画像を自由に変更することが可能であり、従来のように画角を変更する都度カメラ位置を変える必要が無い。
またカメラが取得した画像をデータ化して IP ネットワークなどへ伝送する場合に、映像全体をデータ化しないので、必要な部分画像、即ち、分割されたエリアのみを伝送するためデータ量を低減することができる。
また、本発明を画像処理装置と組み合わせることで検知された侵入者などの被写体周辺のエリアを自動選択することが可能できる。
As described above, according to the present invention, in a surveillance camera system that monitors a subject with a depth using a plurality of cameras, a camera in which the number of effective pixels such as a megapixel camera is larger than the screen display resolution of a display device such as a monitor. You can use it to capture the entire subject and divide the captured image into multiple areas you want to monitor, so you can change the monitor image freely, and change the camera position each time you change the angle of view as before There is no need.
In addition, when the image acquired by the camera is converted into data and transmitted to an IP network or the like, the entire video is not converted into data. Therefore, only the necessary partial image, that is, the divided area is transmitted, so that the data amount can be reduced. it can.
Further, by combining the present invention with an image processing apparatus, an area around a subject such as an intruder detected can be automatically selected.

また更に、本発明を野球、サッカーなどのスポーツ中継のインターネット配信に応用することで、球場全体をカメラで撮像した画像の中から、視聴者が観たいエリアを選択することが可能である。
また、本発明を市街地の交差点などを監視する交通流監視システムに応用ですことで交差点全体360度を有効画素数が多いカメラで撮像した画像について、監視ポイント毎にエリア分割し、エリア画像と場所情報、警報情報をデータマップ化することで、監視者は交差点全体の状況を把握すると同時に交差点の詳細画像及び警報発生ポイントの画像をモニタすることが可能である。
Furthermore, by applying the present invention to the Internet distribution of sports broadcasts such as baseball and soccer, it is possible to select an area that the viewer wants to watch from images obtained by capturing the entire stadium with a camera.
In addition, by applying the present invention to a traffic flow monitoring system for monitoring an intersection in an urban area, an image obtained by capturing the entire 360 ° intersection with a camera having a large number of effective pixels is divided into areas for each monitoring point. By making information and warning information into a data map, the monitor can grasp the situation of the entire intersection and simultaneously monitor the detailed image of the intersection and the image of the alarm occurrence point.

奥行きのある被写体を複数のカメラで監視するカメラシステムのカメラ配置と撮像画像のイメージ図。The camera arrangement | positioning of the camera system which monitors the to-be-photographed object with a some camera, and the image figure of a captured image. 本発明によるエリア分割画像の一実施例を示す図。The figure which shows one Example of the area division | segmentation image by this invention. 本発明のシステムの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the system of this invention. 本発明の一実施例の映像制御器の機能を説明するためのブロック図。The block diagram for demonstrating the function of the video controller of one Example of this invention. 本発明のシステムの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the system of this invention. 本発明の映像制御器の一実施例を説明するための図。The figure for demonstrating one Example of the video controller of this invention. 本発明の画像配信装置の一実施例を説明するためのブロック図。The block diagram for demonstrating one Example of the image delivery apparatus of this invention. 本発明の一実施例のエリア画像選択方法を説明するための図。The figure for demonstrating the area image selection method of one Example of this invention. 本発明の一実施例のエリア画像選択方法を説明するための図。The figure for demonstrating the area image selection method of one Example of this invention. 本発明の一実施例を説明するための図。The figure for demonstrating one Example of this invention. 本発明のシステムの一実施例の構成を示すブロック図。The block diagram which shows the structure of one Example of the system of this invention. TV カメラを3台使用した360度のパノラマ画面例を示す図。The figure which shows the example of a 360 degree panoramic screen using three TV cameras. 360度のパノラマ画面を用いて交通流監視カメラシステムに応用した本発明のシステムの構成の一実施例を示すブロック系統図。The block system diagram which shows one Example of the structure of the system of this invention applied to the traffic flow monitoring camera system using the 360 degree | times panoramic screen. 本発明のクライアント PC の操作画面の一実施例イメージ図。The image figure of one Example of the operation screen of the client PC of this invention. 本発明の一実施例の監視システムを示すブロック図。The block diagram which shows the monitoring system of one Example of this invention. 本発明の画像処理装置の機能ブロックの一実施例を示す図。The figure which shows one Example of the functional block of the image processing apparatus of this invention. 本発明の一実施例の画像処理装置内の各構成部での画像の様子を模式的に示す図。The figure which shows typically the mode of the image in each structure part in the image processing apparatus of one Example of this invention. 本発明の一実施例の画像処理方法の処理動作例を説明するためのフローチャート。6 is a flowchart for explaining a processing operation example of the image processing method according to the embodiment of the present invention. 本発明の一実施例の拡大率の算出の手順を説明するための図。The figure for demonstrating the procedure of calculation of the expansion ratio of one Example of this invention. 鉄道におけるホーム画像監視システムの本発明の一実施例を説明するための図。The figure for demonstrating one Example of this invention of the home image monitoring system in a railway. 本発明の一実施例のモニタ表示画面の一例を示す図。The figure which shows an example of the monitor display screen of one Example of this invention. 本発明の一実施例のモニタ表示画面の一例を示す図。The figure which shows an example of the monitor display screen of one Example of this invention. 従来のカメラシステムの略構成とモニタ画面の表示例を示す図。The figure which shows the example of a schematic structure of the conventional camera system, and the display example of a monitor screen.

符号の説明Explanation of symbols

1-1〜1-3:TVカメラ、 1-11,1-12,1-13:支柱、 4:電車、 4-1:先頭車両、 4-2:2車両目、 4-3:3車両目、 20-1,20-2,20-3:破線、 31:TVカメラ、 32:映像制御器、 33:操作PC、 34:モニタ、 35:モニタ、 41:映像分配器、 42:A/D変換部、 43:画像メモリ部、 44:エリア抽出部、 45:画像補正部、 46:D/A変換部、 47:コントロール部、 48:画質変換部、 51:TVカメラ、 52,52′:画像配信装置、 53:IPネットワーク、 54:クライアントPC、 55:映像制御器、 56:映像信号、 57:制御信号、 58:操作PC、 71〜74:WEBエンコーダ、 75:コントロール部、 76:スイッチングハブ、 81:全体画像、 82:エリア画像、 83:画像、 91:全体画像、 92,93,94:エリアを示す枠、 95:拡大画像、 101:全体画像、 102〜106:エリア、 107:画像、 521:TVカメラ、 522:画像処理装置、 522-1:画像フレームメモリ、 523:記録装置、 524:モニタ、 525,526,527:映像信号、 531:画像フレームメモリ、 532:エッジ検出部、 533:輝度差検出部、 534:被写体形状検出部、 535:拡大処理部、 541:画像、 542:エッジ検出画像、543:輝度差検出画像、 544:形状検出画像、 545:拡大画像。   1-1 to 1-3: TV camera, 1-11, 1-12, 1-13: Prop, 4: Train, 4-1: Leading vehicle, 4-2: Second vehicle, 4-3: Three vehicle Eyes, 20-1, 20-2, 20-3: dashed line, 31: TV camera, 32: video controller, 33: control PC, 34: monitor, 35: monitor, 41: video distributor, 42: A / D conversion unit, 43: Image memory unit, 44: Area extraction unit, 45: Image correction unit, 46: D / A conversion unit, 47: Control unit, 48: Image quality conversion unit, 51: TV camera, 52, 52 ′ : Image distribution device, 53: IP network, 54: Client PC, 55: Video controller, 56: Video signal, 57: Control signal, 58: Operation PC, 71-74: WEB encoder, 75: Control unit, 76: Switching hub, 81: Whole image, 82: Area image, 83: Image, 91: Whole image, 92, 93, 94: Frame indicating area, 95: Enlarged image, 101: Whole image, 102-106: Area, 107 : Image, 521: TV camera, 522: Image processing device, 522-1: Image frame memory, 523: Recording device, 524: Monitor, 525, 526, 527: Video signal, 531: Image frame memory, 532: Edge detection unit, 533 : Luminance difference detection unit, 534: subject shape detection unit, 535: enlargement processing unit, 541: image, 542: edge detection image, 543: luminance difference detection image, 544: shape detection image, 545: enlarged image.

Claims (5)

1台あるいは複数台のカメラによって撮像された1つのエリアの映像から所定の分割エリアを選択し該選択された分割エリア毎にモニタに表示するカメラシステムの表示方法において、
前記撮像された1つのエリアの映像を、QXGAサイズ以上の画素数を有する映像として入力するステップと、
前記入力された映像からエッジを抽出し、エッジ検出画像を出力するエッジ検出ステップと、
前記入力された映像と予め取得した背景画像との差を画素毎に算出し、輝度差検出画像を出力する輝度差検出ステップと、
前記エッジ検出部と前記輝度差検出画像とから相関性の高い部分領域を確定し、該確定した領域を含む画像を形状検出画像として出力する被写体形状検出ステップと、
該確定した領域の左上、左下、右上、右下の座標を被写体が有する枠形状に対応させて、該被写体を擬似的に正面から見た補正画像を生成する奥行き補正ステップと、
を備えるカメラシステムの表示方法。
One or select divided area of the image or al plants constant of the one that is the image shooting area by the plurality of cameras, a display method of a camera system to be displayed on the monitor for each divided area that is the selected,
Inputting the captured image of one area as an image having a number of pixels equal to or greater than the QXGA size;
An edge detection step of extracting an edge from the input video and outputting an edge detection image;
Calculating a difference between the input video and a background image acquired in advance for each pixel, and outputting a luminance difference detection image;
A subject shape detection step of determining a highly correlated partial region from the edge detection unit and the luminance difference detection image, and outputting an image including the determined region as a shape detection image;
A depth correction step of generating a corrected image in which the subject is viewed from the front in a pseudo manner by matching the coordinates of the upper left, lower left, upper right, and lower right of the determined region with the frame shape of the subject;
Display method of a camera system Ru equipped with.
前記撮像された1つのエリアは駅のホームであり、前記被写体は鉄道車両であり、前記エッジ検出ステップと前記輝度差検出ステップと前記被写体形状検出ステップは前記カメラの設置時に被写体を撮影した状態で行われ、以降は入力された映像を前記奥行き補正ステップで補正した補正画像をデータ化し、IPネットワークで伝送して前記モニタに前記分割エリアの画像として表示させることを特徴とする請求項1記載のカメラシステムの表示方法。 The one imaged area is a station platform, the subject is a railway vehicle, and the edge detection step, the luminance difference detection step, and the subject shape detection step are in a state where the subject is photographed when the camera is installed. The corrected image obtained by correcting the input image in the depth correction step is converted into data, and transmitted through an IP network to be displayed on the monitor as the image of the divided area . Display method of the camera system. 前記入力された映像から、鉄道車両の両側に設けられている乗降扉の開閉を知らせるランプの位置を認識する画像処理ステップを更に備え、該ランプの位置に基づいて鉄道車両の外壁部分を表示させないことを特徴とする請求項2記載のカメラシステムの表示方法。 An image processing step of recognizing the position of a lamp for notifying the opening / closing of a passenger door provided on both sides of the railway vehicle from the input video is further provided, and the outer wall portion of the railway vehicle is not displayed based on the position of the lamp. 3. A display method for a camera system according to claim 2, wherein: 求項記載のカメラシステムの表示方法において、センサと上記分割エリアをあらかじめ関連付けしておき、上記センサがアラームを発生した場合には、該アラームを発生したセンサに関連付けられた上記分割エリアの映像を上記モニタに表示することを特徴とするカメラシステムの表示方法。 In the display method of Motomeko 1 wherein the camera system is previously associated sensors and the divided areas, if the sensor has generated the alarm has the divided areas associated with the sensors generating the alarm A display method of a camera system, wherein an image is displayed on the monitor. 1つのエリアを撮像する1台または複数台のカメラと、該撮像された1つのエリアの映像か所定の分割エリアを選択し該選択された分割エリア毎にモニタに表示するために出力する制御装置と、を有するカメラシステムにおいて、
前記制御装置は、入力された映像からエッジを抽出し、エッジ検出画像を出力するエッジ検出部と、
予め取得した背景画像との差を画素毎に算出し、輝度差検出画像を出力する輝度差検出部と、
前記エッジ検出部と前記輝度差検出画像とから相関性の高い部分領域を確定し、該確定した領域を含む 画像を形状検出画像として出力する被写体形状検出部と、
該確定した領域の左上、左下、右上、右下の座標を被写体が有する枠形状に対応させて、該被写体を擬似的に正面から見た拡大画像を生成する拡大処理部と、を備え、
前記撮像された1つのエリアの映像は、QXGAサイズ以上の画素数を有し、前記モニタの画面表示解像度より大きい解像度を有することを特徴とするカメラシステム。
One or a plurality of cameras for imaging the one area, select an image or al a predetermined splitting area in one that is image pickup area, and outputs for display on the monitor for each divided area that is the selected A camera system having a control device ;
The control device extracts an edge from the input video and outputs an edge detection image; an edge detection unit;
A luminance difference detection unit that calculates a difference with a background image acquired in advance for each pixel and outputs a luminance difference detection image;
A subject shape detection unit that determines a highly correlated partial region from the edge detection unit and the luminance difference detection image, and outputs an image including the determined region as a shape detection image;
An enlargement processing unit that generates an enlarged image in which the subject is viewed from the front in a pseudo manner by matching the coordinates of the upper left, lower left, upper right, and lower right of the determined region with the frame shape of the subject,
Camera system video one area that is the imaging, which has a number of or more pixels QXGA size, and having a screen display resolution greater than the resolution of the monitor.
JP2005263995A 2005-09-12 2005-09-12 Display method of camera system and camera system Active JP4685561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005263995A JP4685561B2 (en) 2005-09-12 2005-09-12 Display method of camera system and camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005263995A JP4685561B2 (en) 2005-09-12 2005-09-12 Display method of camera system and camera system

Publications (2)

Publication Number Publication Date
JP2007081553A JP2007081553A (en) 2007-03-29
JP4685561B2 true JP4685561B2 (en) 2011-05-18

Family

ID=37941430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005263995A Active JP4685561B2 (en) 2005-09-12 2005-09-12 Display method of camera system and camera system

Country Status (1)

Country Link
JP (1) JP4685561B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111564015A (en) * 2020-05-20 2020-08-21 中铁二院工程集团有限责任公司 Method and device for monitoring perimeter intrusion of rail transit

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010087676A (en) * 2008-09-30 2010-04-15 Fujinon Corp Video camera system having feature determination function
JP5405279B2 (en) * 2009-11-30 2014-02-05 株式会社メガチップス Video distribution system
CN101790083B (en) * 2010-02-04 2012-01-11 西安理工大学 Monitoring method of lane space occupancy based on videos
JP5478366B2 (en) * 2010-05-31 2014-04-23 三菱電機株式会社 Video surveillance device
JP5584561B2 (en) * 2010-08-31 2014-09-03 富士通テン株式会社 Image processing apparatus, image display system, and image display method
JP2013142037A (en) * 2012-01-12 2013-07-22 Tadano Ltd Suspended load monitoring camera device for working vehicle
JP2014192844A (en) * 2013-03-28 2014-10-06 Hitachi Kokusai Electric Inc Video distribution system, video distribution method, video distribution device and video display device
JP6307795B2 (en) * 2013-05-17 2018-04-11 オムロン株式会社 Image processing apparatus, image processing method, and image processing program
JP6735506B2 (en) 2016-09-29 2020-08-05 パナソニックIpマネジメント株式会社 Image generation device and image processing system
JP6715463B2 (en) 2016-09-30 2020-07-01 パナソニックIpマネジメント株式会社 Image generating apparatus, image generating method, program and recording medium
US11403057B2 (en) 2017-10-31 2022-08-02 Sony Corporation Information processing device, information processing method, and information processing program
JP7107597B2 (en) * 2018-08-20 2022-07-27 株式会社音楽館 STATION MONITORING DEVICE, STATION MONITORING METHOD AND PROGRAM
JP7107596B2 (en) * 2018-08-20 2022-07-27 株式会社音楽館 Station monitoring system and station monitoring method

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083242A (en) * 1993-02-08 2000-03-21 Interactive Pictures Corp Full field still camera and surveillance system
JP2001128160A (en) * 1999-10-22 2001-05-11 Canon Electronics Inc Image pickup unit, image pickup system, display method for picked-up image, and storage medium
JP2001134751A (en) * 1999-08-26 2001-05-18 Ricoh Co Ltd Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon
JP2001359089A (en) * 2000-06-14 2001-12-26 Sony Corp Photographing processing unit and digital camera
JP2002064812A (en) * 2000-08-17 2002-02-28 Sharp Corp Moving target tracking system
JP2002152719A (en) * 2000-08-29 2002-05-24 Usc Corp Monitor method and monitor device utilizing curved surface image
JP2002374453A (en) * 2001-06-13 2002-12-26 Hitachi Kokusai Electric Inc Video signal processing system
JP2004015517A (en) * 2002-06-07 2004-01-15 Chuo Electronics Co Ltd Video image integrated display device
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2004194309A (en) * 2002-11-27 2004-07-08 Chuo Electronics Co Ltd Display method and display device
JP2005109725A (en) * 2003-09-29 2005-04-21 Victor Co Of Japan Ltd Video image monitoring system
JP2005123707A (en) * 2003-10-14 2005-05-12 Casio Comput Co Ltd Image projection apparatus and image projection system, and display image generating apparatus and display image generating method
JP2005167604A (en) * 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261522A (en) * 1996-03-27 1997-10-03 Nippon Telegr & Teleph Corp <Ntt> Video image distribution method and system to obtain variable area
JP3547946B2 (en) * 1997-08-05 2004-07-28 三菱電機株式会社 Apron monitoring device

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000083242A (en) * 1993-02-08 2000-03-21 Interactive Pictures Corp Full field still camera and surveillance system
JP2001134751A (en) * 1999-08-26 2001-05-18 Ricoh Co Ltd Method and device for processing image, digital camera, image processing system and recording medium with image processing program recorded thereon
JP2001128160A (en) * 1999-10-22 2001-05-11 Canon Electronics Inc Image pickup unit, image pickup system, display method for picked-up image, and storage medium
JP2001359089A (en) * 2000-06-14 2001-12-26 Sony Corp Photographing processing unit and digital camera
JP2002064812A (en) * 2000-08-17 2002-02-28 Sharp Corp Moving target tracking system
JP2002152719A (en) * 2000-08-29 2002-05-24 Usc Corp Monitor method and monitor device utilizing curved surface image
JP2002374453A (en) * 2001-06-13 2002-12-26 Hitachi Kokusai Electric Inc Video signal processing system
JP2004015517A (en) * 2002-06-07 2004-01-15 Chuo Electronics Co Ltd Video image integrated display device
JP2004120341A (en) * 2002-09-26 2004-04-15 Riosu Corp:Kk Video image monitoring system
JP2004194309A (en) * 2002-11-27 2004-07-08 Chuo Electronics Co Ltd Display method and display device
JP2005109725A (en) * 2003-09-29 2005-04-21 Victor Co Of Japan Ltd Video image monitoring system
JP2005123707A (en) * 2003-10-14 2005-05-12 Casio Comput Co Ltd Image projection apparatus and image projection system, and display image generating apparatus and display image generating method
JP2005167604A (en) * 2003-12-02 2005-06-23 Chuo Electronics Co Ltd Image monitoring system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111564015A (en) * 2020-05-20 2020-08-21 中铁二院工程集团有限责任公司 Method and device for monitoring perimeter intrusion of rail transit

Also Published As

Publication number Publication date
JP2007081553A (en) 2007-03-29

Similar Documents

Publication Publication Date Title
JP4685561B2 (en) Display method of camera system and camera system
US9041800B2 (en) Confined motion detection for pan-tilt cameras employing motion detection and autonomous motion tracking
US9602700B2 (en) Method and system of simultaneously displaying multiple views for video surveillance
US9398214B2 (en) Multiple view and multiple object processing in wide-angle video camera
US9049384B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
KR101113844B1 (en) A supervisory camera and a privacy protecting method of the supervisory camera
JP4167777B2 (en) VIDEO DISPLAY DEVICE, VIDEO DISPLAY METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR DISPLAYING VIDEO
AU2022201303A1 (en) Selective capture and presentation of native image portions
JP2006033793A (en) Tracking video reproducing apparatus
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
CN113132653B (en) Automatic split screen implementation method capable of being split into screens with any playing number
US20170026573A1 (en) High-resolution cctv panoramic camera device
CN102801963A (en) Electronic PTZ method and device based on high-definition digital camera monitoring
US20150125130A1 (en) Method for network video recorder to accelerate history playback and event locking
KR20160094655A (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
CN113905211B (en) Video patrol method, device, electronic equipment and storage medium
KR101874588B1 (en) method for display of multi-channel region of interest using high-resolution cameras
JP5790788B2 (en) Monitoring system
JP5072103B2 (en) Angle of view control apparatus and angle of view control method
JPH10247135A (en) Message display device and its method
JP2004015517A (en) Video image integrated display device
KR20200086561A (en) System and method to be connected video data of CCTV camera system with 3D control system of subway station
KR101061868B1 (en) Monitoring system using dual surveillance camera
KR101462269B1 (en) part of picture storing method for high definition camera
JPH11243508A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4685561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250