JP2010114575A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2010114575A
JP2010114575A JP2008284363A JP2008284363A JP2010114575A JP 2010114575 A JP2010114575 A JP 2010114575A JP 2008284363 A JP2008284363 A JP 2008284363A JP 2008284363 A JP2008284363 A JP 2008284363A JP 2010114575 A JP2010114575 A JP 2010114575A
Authority
JP
Japan
Prior art keywords
image data
data
sub
display
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008284363A
Other languages
Japanese (ja)
Inventor
Takahiro Nakayama
貴裕 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008284363A priority Critical patent/JP2010114575A/en
Publication of JP2010114575A publication Critical patent/JP2010114575A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system for accurately monitoring an object to be monitored, while reducing a communication data capacity. <P>SOLUTION: The monitoring system includes: an imaging part which photographs an area including the object to be monitored and encodes a photographed image to image data to output the image data; a selection part which selects one of a plurality of pieces of image data output from the imaging part, as main image data and selects auxiliary image data from pieces of image data other than the piece of image data selected as main image data; and a display data generation part which converts the selected auxiliary image data to image data having a resolution lower than that of the main image data, by reduction and generates display data wherein the converted auxiliary image data is laid out over the inside of main image data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、遠隔地より特定の対象物を視覚的に監視するための監視システムであり、特に、特定の移動領域内を移動する移動体を監視するための監視システムに関する。   The present invention relates to a monitoring system for visually monitoring a specific object from a remote location, and more particularly to a monitoring system for monitoring a moving body moving within a specific moving area.

一般に、対象物を監視するための監視システムは、監視対象物を撮像するカメラなどの撮像手段を複数設けて、これらの撮像手段により得られた画像データを基地局などの遠隔地において動画や静止画として表示することで、対象物を監視するために用いられる。撮像手段によって撮像された画像データは、データ化された後にケーブルや光ファイバなどの通信媒体を介して基地局に送信される。   In general, a monitoring system for monitoring an object is provided with a plurality of imaging means such as a camera for imaging the monitoring object, and image data obtained by these imaging means is converted into a moving image or a stationary image at a remote place such as a base station. By displaying as a picture, it is used to monitor the object. Image data picked up by the image pickup means is converted into data and then transmitted to the base station via a communication medium such as a cable or an optical fiber.

このような監視システムにおいては、撮像手段により得られた画像データの容量が大きくなると、データ通信量が膨大になり、通信に障害が生じ、適切な監視を行うことができない場合がある。一例を挙げると、一般に用いられている解像度(たとえば640×480画素)の画像データを毎秒30フレーム撮像して動画を構成した場合、この動画像のデータ容量は約221[Mbps]となる。このデータを伝送する際に、約20分の1に圧縮したとしても、このような画像を撮像する1台のカメラから、約10[Mbps]程度の通信データ容量が送信されることになる。ところが、一般的な無線LANなどで用いられている通信媒体の場合、実際の伝送速度は20[Mbps]程度であるため、撮像するカメラの台数が増大すると、これらのカメラから伝送される通信データを処理しきれなくなる場合がある。   In such a monitoring system, if the volume of the image data obtained by the imaging means increases, the amount of data communication becomes enormous and communication may fail, making it impossible to perform appropriate monitoring. For example, when a moving image is constructed by capturing 30 frames per second of image data having a commonly used resolution (for example, 640 × 480 pixels), the data capacity of the moving image is about 221 [Mbps]. When this data is transmitted, even if it is compressed to about 1/20, a communication data capacity of about 10 [Mbps] is transmitted from one camera that captures such an image. However, in the case of a communication medium used in a general wireless LAN or the like, the actual transmission speed is about 20 [Mbps]. Therefore, when the number of cameras to be captured increases, communication data transmitted from these cameras. May not be able to be processed.

そこで、一般的には、カメラから伝送される通信データ容量を低減するような処理が行われている。このような処理を行うための手法としては、画像データを白黒画像に変換する手法や、画像圧縮率を高めた画像圧縮手法が用いられるほか、撮像手段としてのカメラの数を減らすなどといった手法が考えられる。   In general, therefore, processing is performed to reduce the volume of communication data transmitted from the camera. As a method for performing such processing, there are a method of converting image data into a black and white image, an image compression method with an increased image compression rate, and a method of reducing the number of cameras as imaging means. Conceivable.

たとえば、特許文献1に記載されたような遠隔対象物監視システムにおいては、複数のカメラを各々移動可能にした移動装置を設け、それらのカメラにより撮像された映像信号を、圧縮や伸張などの信号処理を行うことでデータ転送量を削減し、かつ、複数画面を一つの画面に圧縮合成することで、全体の通信量を低減させている。   For example, in a remote object monitoring system as described in Patent Document 1, a moving device that can move a plurality of cameras is provided, and a video signal captured by these cameras is compressed or expanded. By performing processing, the amount of data transfer is reduced, and the overall communication amount is reduced by compressing and synthesizing a plurality of screens into one screen.

また、特許文献2に記載の監視システムにおいては、複数の撮像手段(カメラなど)により取り込んだ画像データを多重化することで一つの画面とし、一つの画像データとして出力することで、全体の通信量を低減させている。
特開2004−159154号公報 特開2001−128145号公報
Further, in the monitoring system described in Patent Document 2, the image data captured by a plurality of imaging means (cameras or the like) is multiplexed to form one screen and output as one image data, so that the entire communication is performed. The amount is reduced.
JP 2004-159154 A JP 2001-128145 A

しかしながら、前述のような監視手段においては、画像圧縮を高い割合で行うために、撮像した画像を圧縮する際に歪みが生じる場合があり、監視対象物を正確に監視するためには適しない場合がある。さらに、このような画像圧縮を行うと、データ処理の際に原理的に微小な時間遅れ(たとえば、MPEGなどの圧縮手法の場合は数百[msec]の時間遅れ)が生じるため、実時間応答の要求に応えられない場合もある。特に、監視対象物が自律的に動作する自律移動体や、遠隔操作により制御される操作対象物といった、動きを伴う移動体の場合には、これらの時間差が生じることで正確な制御を行うことが困難になる場合もある。   However, in the monitoring means as described above, since image compression is performed at a high rate, distortion may occur when the captured image is compressed, and it is not suitable for accurately monitoring the monitoring object. There is. Further, when such image compression is performed, a minute time delay in principle occurs during data processing (for example, a time delay of several hundreds [msec] in the case of a compression method such as MPEG). May not be able to meet the demands of In particular, in the case of a moving body with movement, such as an autonomous moving body in which the monitoring target autonomously operates or an operation target controlled by remote control, accurate control is performed by the occurrence of these time differences. May be difficult.

また、撮像する手段として全周囲カメラなどを用いると、撮像手段の数自体を低減させることは可能であるが、このような全周囲カメラでは画像歪みを補正するための補正処理に約数百[msec]の処理時間が必要となり、前述の例と同様に、時間差が生じる問題を解決することができない。   In addition, when an omnidirectional camera or the like is used as an image capturing unit, the number of image capturing units can be reduced. However, in such an omnidirectional camera, correction processing for correcting image distortion is performed by about several hundreds [ msec] is required, and the problem of time difference cannot be solved as in the above example.

また、物体を監視するための画像データとして、色を必要としない画像(白黒画像)を用いる場合は、表示される画像から監視対象物を詳細に判別できないため、正確に監視することができない。   In addition, when an image that does not require color (monochrome image) is used as image data for monitoring an object, the monitoring target cannot be determined in detail from the displayed image, and thus cannot be monitored accurately.

本発明は、このような問題を解決するためになされたものであり、遠隔地より特定の対象物を視覚的に監視するための監視システムであって、通信するデータ容量を低減するとともに、監視対象の物体を正確に監視することを可能とする監視システムを提供することを目的とするものである。   The present invention has been made to solve such a problem, and is a monitoring system for visually monitoring a specific object from a remote location, and reduces the data volume to be communicated and monitors it. An object of the present invention is to provide a monitoring system capable of accurately monitoring a target object.

本発明にかかる監視システムは、監視対象物を視覚的に監視するものであり、前記監視対象物を含む所定の領域を撮影し、撮影した各々の画像を画像データに符号化して出力する撮像部と、前記撮像部が出力した複数の画像データの中から1つの画像データを主画像データとして選択するとともに、前記主画像データとして選択した画像データ以外の前記画像データの中から少なくとも1つを副画像データとして選択する選択部と、前記撮像部から出力された画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した副画像データを、主画像データと重ね合わせて配置した表示データを作成する表示データ作成部と、を備えることを特徴としている。   The monitoring system according to the present invention visually monitors a monitoring object, images a predetermined area including the monitoring object, encodes each captured image into image data, and outputs the image data And selecting one image data as the main image data from the plurality of image data output by the imaging unit, and substituting at least one of the image data other than the image data selected as the main image data. A selection unit to select as image data, and reduce and convert the image data to a resolution smaller than the resolution of the image data output from the imaging unit, and arrange the converted sub-image data so as to overlap the main image data A display data creation unit for creating the display data.

このような監視システムによれば、複数の撮像部から得られた画像データを1つの画像(表示データ)内に集約して表示することで、表示に必要なデータ容量を低減させることができる。そのため、遠隔地にある表示部にこのような画像データを表示させる場合に、通信するデータの容量を低減させることが可能となる。また、複数の撮像部から得られた画像データを一つの画像内に全て表示することで、監視対象の物体を撮像した複数のカメラから得られた画像を用いて監視を行うことができるため、監視対象の物体を正確に監視することができる。   According to such a monitoring system, it is possible to reduce the data capacity necessary for display by collecting and displaying image data obtained from a plurality of imaging units in one image (display data). Therefore, when such image data is displayed on a display unit in a remote place, the volume of data to be communicated can be reduced. In addition, by displaying all the image data obtained from a plurality of imaging units in one image, it is possible to monitor using images obtained from a plurality of cameras that image the object to be monitored. The object to be monitored can be accurately monitored.

また、前記表示データ作成部は、前記選択部により選択された副画像データを、主画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した副画像データを、主画像データの内部に重ね合わせて配置した表示データを作成するようにしてもよい。   The display data creation unit converts the sub image data selected by the selection unit into image data having a resolution smaller than the resolution of the main image data, and converts the converted sub image data into the main image. You may make it produce the display data arrange | positioned on the inside of data.

また、複数の撮像部で撮像された、主画像データ以外の画像データが複数存在する場合は、これらの全てを副画像データとしてもよく、一部の画像データのみを副画像データとしてもよい。なお、副画像データが複数存在する場合には、前記表示データ作成部は、前記主画像データ内に複数の副画像データを重ならないように配置することが好ましい。このようにすると、表示された複数の副画像データを視覚的に同時に見ることができるため、監視対象の物体の状況を正確に把握できる。また、副画像データを表示させる必要がない場合は、主画像データのみを表示データとしてもよい。   Further, when there are a plurality of image data other than the main image data captured by a plurality of image capturing units, all of these may be sub-image data, or only a part of the image data may be sub-image data. When there are a plurality of sub-image data, the display data creation unit is preferably arranged so that the plurality of sub-image data do not overlap with the main image data. In this way, since a plurality of displayed sub-image data can be viewed visually at the same time, the situation of the object to be monitored can be accurately grasped. Further, when it is not necessary to display the sub image data, only the main image data may be used as the display data.

また、このように主画像データ内に副画像データを配置する場合に、外部から入力された信号などに基づいて、配置する副画像データを選択可能にするとより好適である。すなわち、前記表示データ作成部が、外部から入力された信号に基づいて、主画像データの内部に重ねて表示する複数の副画像データを選択し、選択した副画像データを主画像データの内部に重ね合わせて配置可能であれば、より好適である。このようにすると、監視対象の物体を監視する際に必要な副画像データのみを表示させるような表示データを提供することができるため、監視対象の物体をより正確に把握することができる。   Further, when the sub image data is arranged in the main image data in this way, it is more preferable that the sub image data to be arranged can be selected based on an externally input signal or the like. That is, the display data creation unit selects a plurality of sub-image data to be displayed to be superimposed inside the main image data based on a signal input from the outside, and the selected sub-image data is stored inside the main image data. It is more preferable if they can be arranged in an overlapping manner. In this way, it is possible to provide display data that displays only the sub-image data necessary for monitoring the object to be monitored, so that the object to be monitored can be grasped more accurately.

さらに、表示する画像データとしての主画像データと副画像データとを、入れ替えて表示できるようにすると、より好適である。すなわち、前記表示データ作成部が、外部から入力された信号に基づいて、選択部の選択した主画像データと、1つの副画像データとを入れ替えた表示データを作成可能であるとより好ましい。このようにすると、複数の撮像部により得られた画像データの中から、主として確認したい画像データを任意に選択して詳細に表示させることができる。   Furthermore, it is more preferable that the main image data and the sub image data as the image data to be displayed can be switched and displayed. That is, it is more preferable that the display data creation unit can create display data in which the main image data selected by the selection unit and one sub-image data are replaced based on a signal input from the outside. In this way, it is possible to arbitrarily select image data to be mainly confirmed from image data obtained by a plurality of imaging units and display it in detail.

また、前記表示データ作成部が、さらに前記選択部により選択された主画像データを、前記撮像部から出力された画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した主画像データと、変換した副画像データを重ね合わせて配置した表示データを作成するようにしてもよい。   Further, the display data creation unit further converts the main image data selected by the selection unit by reducing the image data to a resolution smaller than the resolution of the image data output from the imaging unit, and the conversion Display data in which the main image data and the converted sub-image data are overlaid may be created.

なお、本発明は、ビルのセキュリティなどに用いる監視システムなどに応用することもできるが、監視対象の物体が、物体を撮像した時間と、表示部に表示された表示データを視覚的に確認する作業とに時間差が生じないことが好ましいような対象物であるとより効果的である。このような物体の例としては、特定の領域を移動するような移動体や、遠隔操作により制御される操作対象物などが挙げられ、このような対象物を監視する際に本発明を適用すると、より好適である。   The present invention can also be applied to a monitoring system used for building security, etc., but the object to be monitored visually confirms the time when the object is imaged and the display data displayed on the display unit. It is more effective when the object is such that it is preferable that there is no time difference between the work. Examples of such an object include a moving body that moves in a specific area, an operation target controlled by remote operation, and the like, when the present invention is applied when monitoring such an object. Is more preferable.

以上、説明したように、本発明によると、遠隔地より特定の対象物を視覚的に監視するための監視システムにおいて、通信するデータ容量を低減するとともに、監視対象の物体を正確に監視することが可能となる。   As described above, according to the present invention, in the monitoring system for visually monitoring a specific object from a remote place, the communication data volume can be reduced and the object to be monitored can be accurately monitored. Is possible.

発明の実施形態1.
以下に、図を参照しつつ本発明の実施の形態1にかかる監視システム1について説明する。図1は、本実施形態1にかかる監視システム1を概略的に示すものであり、監視対象となる移動体Mの移動する所定の空間(移動領域)100を、撮像部としてのカメラ11,12,13,14により4つの方向から撮像している。この実施形態においては、これらのカメラにより得られた画像データが、LANなどの通信経路200を介して、空間100から離間した端末30に送信され、監視者が端末30に含まれる表示部31を見ることにより移動体Mの様子を視覚的に監視するものとする。以下、詳細に説明する。
Embodiment 1 of the Invention
Below, the monitoring system 1 concerning Embodiment 1 of this invention is demonstrated, referring a figure. FIG. 1 schematically shows a monitoring system 1 according to the first embodiment. A predetermined space (moving region) 100 in which a moving body M to be monitored moves is represented by cameras 11 and 12 as imaging units. , 13, and 14 are taken from four directions. In this embodiment, image data obtained by these cameras is transmitted to a terminal 30 that is separated from the space 100 via a communication path 200 such as a LAN, and a monitor displays a display unit 31 included in the terminal 30. The state of the moving body M is visually monitored by watching. Details will be described below.

カメラ11〜14は、空間100の4箇所に各々設置され、空間100の略中央付近に向けて撮像を行うように、その位置および撮像方向が固定されている。そして、これらのカメラは、撮像した画像をディジタル符号化し、画像データとして連続的に取得するとともに、これらの画像データをサーバ20に向けて出力する。空間100内の全ての領域は、各カメラの撮像範囲を合算した領域に含まれるため、空間100内を移動する移動体Mは、空間100内のいずれの場所に存在しても、いずれかのカメラによって撮像される。なお本実施形態においては、これらのカメラ11〜14において得られる画像の解像度は、各々640×480画素であるものとする。   The cameras 11 to 14 are respectively installed at four locations in the space 100, and their positions and imaging directions are fixed so as to perform imaging near the center of the space 100. These cameras digitally encode the captured images and continuously acquire them as image data, and output these image data to the server 20. Since all the areas in the space 100 are included in the area obtained by adding up the imaging ranges of the respective cameras, the moving object M that moves in the space 100 can be located anywhere in the space 100 regardless of the location. Images are taken by a camera. In the present embodiment, it is assumed that the resolution of images obtained by these cameras 11 to 14 is 640 × 480 pixels.

サーバ20は、CPUやメモリ等を備えたコンピュータから構成されるものであり、カメラ11〜14から出力された画像データを受信し、受信した画像データから、端末30において表示するための表示データを作成する。このようなサーバ20の内部構造を簡略化して示すブロック図を図2に示す。図2に示すように、サーバ20内においては、カメラ11〜14から送信された画像データを選択するための選択部21、および選択部21において選択された主画像データおよび副画像データから、表示データを作成するための表示データ作成部22、および表示データ作成部22において作成された表示データを出力するための出力部23が備えられている。   The server 20 includes a computer having a CPU, a memory, and the like, receives image data output from the cameras 11 to 14, and displays display data to be displayed on the terminal 30 from the received image data. create. A block diagram showing a simplified internal structure of the server 20 is shown in FIG. As shown in FIG. 2, in the server 20, display is performed from a selection unit 21 for selecting image data transmitted from the cameras 11 to 14, and main image data and sub-image data selected by the selection unit 21. A display data creation unit 22 for creating data and an output unit 23 for outputting display data created by the display data creation unit 22 are provided.

選択部21は、カメラ11〜14から送信された画像データの中から、主画像データと、副画像データとを選択する。本実施形態においては、4つのカメラの中から一つの主画像データを選択し、その他の画像データを副画像データとして選択するものとし、本実施形態においては、初期状態において最も移動体Mを撮像しやすい位置にあるカメラ(たとえばカメラ11)から得られる画像データを主画像データとしている。   The selection unit 21 selects main image data and sub image data from the image data transmitted from the cameras 11 to 14. In this embodiment, one main image data is selected from four cameras, and the other image data is selected as sub-image data. In this embodiment, the moving body M is most imaged in the initial state. Image data obtained from a camera (for example, camera 11) at a position where it is easy to perform is used as main image data.

表示データ作成部22は、選択部21により選択された主画像データおよび副画像データに基づいて、表示データを作成する。表示データは、選択部21により選択された各副画像データを、主画像データよりも解像度の小さい縮小画像(たとえば解像度160×120画素の画像)に圧縮変換し、その変換した副画像データを主画像データ内部の所定の位置に重ね合わせて配置させることにより作成される。このようにして作成された表示データは、解像度640×480画素の画像である。この表示データにおいて、縮小した各副画像データを配置させる位置は予め決定されているものとし、本実施形態においては、各副画像データは、主画像データの右上部分において左右に並べるように配置するものとする。このように作成された表示データのデータ容量は、もとの全ての画像データ(640×480画素×4)のデータ容量の合計と比べて大幅に小さくなる。   The display data creation unit 22 creates display data based on the main image data and the sub image data selected by the selection unit 21. For display data, each sub-image data selected by the selection unit 21 is compression-converted into a reduced image (for example, an image having a resolution of 160 × 120 pixels) having a resolution smaller than that of the main image data, and the converted sub-image data is converted into the main data. It is created by superimposing it at a predetermined position in the image data. The display data created in this way is an image with a resolution of 640 × 480 pixels. In this display data, the position where each reduced sub-image data is arranged is determined in advance, and in this embodiment, each sub-image data is arranged so as to be arranged side by side in the upper right part of the main image data. Shall. The data capacity of the display data created in this way is significantly smaller than the total data capacity of all the original image data (640 × 480 pixels × 4).

このように作成された表示データの一例を、図3に示す。この表示データの一例においては、副画像データは、主画像データの右上端から順に左方向に並べぶように配置されており、主画像データと副画像データとの縦横の縮小比は4:1となるように設定されている。   An example of display data created in this way is shown in FIG. In the example of the display data, the sub image data is arranged so as to be arranged in the left direction in order from the upper right end of the main image data, and the vertical / horizontal reduction ratio of the main image data and the sub image data is 4: 1. It is set to become.

このような表示データによると、監視者は、後述する端末30を用いて、カメラ11〜14において撮像された画像を全て視覚的に確認することができる。なお、本実施形態においては、副画像データは、主画像データの右上付近に左右に並べて配置されているが、本発明においては、副画像データを配置する位置は特に限られるものではなく、例えば上下方向へ並べるように配置するなど、必要に応じて任意に変更することができるものとする。   According to such display data, the supervisor can visually confirm all images captured by the cameras 11 to 14 using the terminal 30 described later. In the present embodiment, the sub image data is arranged side by side in the vicinity of the upper right of the main image data. However, in the present invention, the position where the sub image data is arranged is not particularly limited. It can be arbitrarily changed as necessary, such as being arranged in the vertical direction.

出力部23は、表示データ作成部22において作成された表示データをMPEGなどの圧縮手法で圧縮し、LANなどの通信手段を介して圧縮した表示データ(圧縮データ)を端末30に向けて出力する。このとき、圧縮したデータを暗号化するなどの処理を施してもよい。端末30においては、出力部23から出力された圧縮データを連続的に受信し、圧縮されたデータを展開するなど所定の処置を施すことで、表示データを表示部31において表示させる。   The output unit 23 compresses the display data created by the display data creation unit 22 using a compression technique such as MPEG, and outputs the display data (compressed data) compressed via communication means such as a LAN to the terminal 30. . At this time, processing such as encryption of the compressed data may be performed. In the terminal 30, the display data is displayed on the display unit 31 by continuously receiving the compressed data output from the output unit 23 and performing predetermined measures such as decompressing the compressed data.

なお、前述の実施形態においては、複数のカメラにより撮像された画像データを、全て表示データとして端末30の表示部31に表示させるようにしているが、本発明はこれに限られるものではない。すなわち、端末30からの操作により、副画像データとして表示するものを選択部21に対して指定することで、選択部21が、各カメラから送信された画像データのうち、副画像データとして表示データに含める画像データを適宜選択するようにしてもよい。   In the above-described embodiment, all the image data captured by a plurality of cameras is displayed on the display unit 31 of the terminal 30 as display data. However, the present invention is not limited to this. That is, by designating what is displayed as sub-image data to the selecting unit 21 by an operation from the terminal 30, the selecting unit 21 displays display data as sub-image data among the image data transmitted from each camera. The image data to be included may be selected as appropriate.

また、表示データ内において表示する副画像データを縮小する程度は、特に限定されるものではないが、主画像データ内部に配置する関係上、縦横比が数分の一程度となるように縮小させることが好ましい。このような縮小比は、配置するカメラの台数に応じて、すなわち主画像データ内部に配置する副画像データの数に応じて定めてもよく、たとえば、主画像データ内部に配置する副画像データが多い場合は、縮小させる比率を低減させてもよい。また、縮小させる比率に応じて、解像度を変更してもよい。   Further, the degree of reduction of the sub-image data to be displayed in the display data is not particularly limited, but due to the arrangement within the main image data, the reduction is performed so that the aspect ratio is about a fraction. It is preferable. Such a reduction ratio may be determined according to the number of cameras to be arranged, that is, according to the number of sub-image data arranged in the main image data. For example, the sub-image data arranged in the main image data If there are many, the reduction ratio may be reduced. Further, the resolution may be changed according to the reduction ratio.

また、上記説明した例においては、撮像部としてのカメラとして、位置を固定されたものを例に挙げて説明しているが、本発明はこれに限られるものではなく、例えば撮像部が回動し、撮像方向が可変であるものや、撮像部自体が監視対象の領域を移動できるものであってもよい。   In the above-described example, the camera as the imaging unit is described with a fixed position as an example. However, the present invention is not limited to this, for example, the imaging unit rotates. However, the imaging direction may be variable, or the imaging unit itself may be able to move in the monitoring target area.

なお、この実施形態において示された移動体Mは、特に構造などが限定されるものではないが、例えば床面に接地する複数の車輪を駆動するような車輪駆動型の移動体などの、ある程度の速度で自律的に移動するような自律移動体であってもよい。このような自律移動体の例としては、例えば工場内において定められたレール上を走行し、物体を搬送するため搬送手段などが挙げられる。   The moving body M shown in this embodiment is not particularly limited in structure or the like, but to some extent, such as a wheel-driven moving body that drives a plurality of wheels that are in contact with the floor. It may be an autonomous mobile body that moves autonomously at a speed of 5 mm. As an example of such an autonomous mobile body, for example, a transport means for traveling on a rail defined in a factory and transporting an object can be cited.

発明の実施形態2.
次に、本発明の第2の実施形態について図4〜図7を用いて説明する。なお、本実施形態において、前述の実施形態と同様の構成については、同一の符号を付してその説明を省略するものとする。
Embodiment 2 of the Invention
Next, a second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the same components as those of the above-described embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図4は、第2の実施形態に係る監視システムのサーバ20'の内部構造を簡略化して示すブロック図であり、前述の実施形態と同様に、選択部21'、表示データ作成部22'、出力部23'を備えている様子を示している。本実施形態においては、サーバ20'に対して、端末30から送信される入力信号により、主画像データおよび副画像データの選択を制御することができる。以下、詳細に説明する。   FIG. 4 is a block diagram showing a simplified internal structure of the server 20 ′ of the monitoring system according to the second embodiment. Similar to the above-described embodiment, the selection unit 21 ′, the display data creation unit 22 ′, A state in which an output unit 23 'is provided is shown. In the present embodiment, selection of main image data and sub image data can be controlled by the input signal transmitted from the terminal 30 to the server 20 ′. Details will be described below.

選択部21'は、端末30から送信された入力信号を読み取り、読み取った信号に基づいて、カメラ11〜14から送信された画像データの中から、主画像データおよび副画像データとして選択する処理を行う。具体的には、端末30から送信された入力信号においては、主画像データの指定と、副画像データの指定を行うための信号が含まれ、選択部では、この信号に基づいて、指定された主画像データとして選択する画像データ(例えばカメラ11から送信された画像データ)および副画像データとして選択する画像データを選択する。このとき、副画像データとして選択する画像は、主画像データとして選択されなかった画像データの中から選択されるが、入力信号において、副画像データが不要である旨の信号が含まれている場合は、副画像データを選択しなくともよい。   The selection unit 21 ′ reads an input signal transmitted from the terminal 30, and selects a main image data and sub image data from the image data transmitted from the cameras 11 to 14 based on the read signal. Do. Specifically, the input signal transmitted from the terminal 30 includes a signal for specifying the main image data and the sub image data, and the selection unit specifies the signal based on this signal. Image data to be selected as main image data (for example, image data transmitted from the camera 11) and image data to be selected as sub image data are selected. At this time, the image to be selected as the sub image data is selected from the image data not selected as the main image data, but the input signal includes a signal indicating that the sub image data is unnecessary. Does not have to select the sub-image data.

そして、選択した主画像データと副画像データとを表示データ作成部22'に送信し、表示データ作成部22'においては、これらの画像データに基づいて表示データを作成する。このとき、表示データ作成部22'においては、選択された副画像データを主画像データ内の右上端から左方向に向けて所定の順序で配置した表示データを作成する。この実施形態においても、主画像データ内部に配置する副画像データは、解像度の小さい縮小画像(たとえば解像度160×120画素の画像)に圧縮変換されるものとする。   Then, the selected main image data and sub-image data are transmitted to the display data creation unit 22 ′, and the display data creation unit 22 ′ creates display data based on these image data. At this time, the display data creating unit 22 ′ creates display data in which the selected sub-image data is arranged in a predetermined order from the upper right end in the main image data to the left. Also in this embodiment, it is assumed that the sub image data arranged in the main image data is compressed and converted into a reduced image with a small resolution (for example, an image having a resolution of 160 × 120 pixels).

このようにして作成された表示データは、出力部23'に送信され、出力部23'においては、受信した表示データをMPEGなどの圧縮手法で圧縮し、LANなどの通信手段を介して圧縮した表示データ(圧縮データ)を端末30に向けて出力する。これにより、端末30においては、監視者の指定した副画像データのみを端末30の表示部(画面)に表示させることができる。図5は、端末30における表示部に表示された表示データの一例を示すものであり、カメラ11の画像データを主画像データとしたときに、その他のカメラの画像データ(例えばカメラ12から送信された画像データ)を副画像データとして選択した例を示しており、図6はその他のカメラ(カメラ12)から送信された画像データを副画像データとして選択しなかった例を示している。   The display data created in this way is transmitted to the output unit 23 ′, and the received display data is compressed by a compression method such as MPEG and compressed via a communication means such as a LAN. Display data (compressed data) is output to the terminal 30. Thereby, in the terminal 30, only the sub-image data designated by the supervisor can be displayed on the display unit (screen) of the terminal 30. FIG. 5 shows an example of display data displayed on the display unit of the terminal 30. When the image data of the camera 11 is set as main image data, image data of other cameras (for example, transmitted from the camera 12). FIG. 6 shows an example in which image data transmitted from another camera (camera 12) is not selected as sub image data.

このように、本実施形態においては、監視者が、端末30において表示させる画面に含める画像データのうち、表示データに表示させる副画像データを取捨選択することができる。例えば、表示する副画像データの数を変更させることで、図7に示すように、表示させる必要のある副画像データのみを表示させることが可能となる。これによって、表示させる表示データにおいて、主画像データを不要な副画像データで部分的に隠すことなく、最大限表示させることが可能となる。   As described above, in the present embodiment, the monitor can select the sub-image data to be displayed on the display data among the image data to be included in the screen to be displayed on the terminal 30. For example, by changing the number of sub-image data to be displayed, only the sub-image data that needs to be displayed can be displayed as shown in FIG. As a result, the display data to be displayed can be displayed as much as possible without partially hiding the main image data with unnecessary sub-image data.

発明の実施形態3.
次に、本発明の第3の実施形態について図8〜11を用いて説明する。なお、本実施形態においても、前述の実施形態と同様の構成については、同一の符号を付してその説明を省略するものとする。
Embodiment 3 of the Invention
Next, a third embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the same components as those of the above-described embodiment are denoted by the same reference numerals and the description thereof is omitted.

本実施形態に係る監視システムおいては、選択部において選択した主画像データと副画像データとを、切り替え可能に表示させることを可能にする。このような主画像データと副画像データとの切り替えを行う場合、選択部において、主画像データとして選択する画像データと、副画像データとして選択する画像を入れ替えることで、新たな表示データを作成してもよいが、このような表示データを作成する作業を行うと、表示データを表示させるタイミングに若干の時間差が生じる場合がある。そこで、このような切り替え作業を迅速に行うために、表示データ作成部において、予め主画像データと副画像データとを切り替えた表示データを同時に作成し、切り替えた後の画像を一時的に記憶しておくことで、画像を切り替える必要がある場合に、新たな表示データを作成することなく迅速に表示データを表示させることができる。このような主画像データと副画像データの切り替えを迅速に行うためのサーバ20"の内部構造を簡略化して示すブロック図を図8に、サーバ20"内における画像データの切り替え処理を示すフローを図9に示す。   In the monitoring system according to the present embodiment, the main image data and the sub image data selected by the selection unit can be displayed in a switchable manner. When switching between the main image data and the sub image data, the display unit creates new display data by switching the image data selected as the main image data and the image selected as the sub image data in the selection unit. However, when an operation for creating such display data is performed, there may be a slight time difference in the timing for displaying the display data. Therefore, in order to perform such a switching operation quickly, the display data creation unit simultaneously creates display data in which main image data and sub-image data are switched in advance, and temporarily stores the image after switching. Thus, when it is necessary to switch images, display data can be displayed quickly without creating new display data. FIG. 8 is a simplified block diagram showing the internal structure of the server 20 ″ for quickly switching between the main image data and the sub-image data, and FIG. 8 is a flowchart showing the image data switching process in the server 20 ″. As shown in FIG.

まず、端末30より、主画像データと副画像データとを選択するための入力信号が送信されると、選択部21"は、送信された信号に基づいて、カメラ11〜14から送信された画像データの中から、主画像データおよび副画像データとして選択する処理を行う(STEP101)。この実施例においては、副画像データとして、1つのカメラから送信される画像のみを選択したものとする。   First, when an input signal for selecting main image data and sub-image data is transmitted from the terminal 30, the selection unit 21 "transmits an image transmitted from the cameras 11 to 14 based on the transmitted signal. Processing for selecting main image data and sub-image data from the data is performed (STEP 101) In this embodiment, it is assumed that only an image transmitted from one camera is selected as the sub-image data.

選択部21"は、カメラ11〜14から送信された画像データの中から、主画像データとして選択した画像データおよび副画像データとして選択した画像データを表示データ作成部22"に送信する(STEP102)。   The selection unit 21 ″ transmits the image data selected as the main image data and the image data selected as the sub image data from the image data transmitted from the cameras 11 to 14 to the display data creation unit 22 ″ (STEP 102). .

次に、表示データ作成部22"においては、選択部21"より送信された主画像データおよび副画像データに基づいて、表示データを作成する。このとき、表示データ作成部22"は、主画像データとして選択された画像データを主画像データ、副画像データとして選択された画像データを副画像データとして作成した第1の表示データの他に、主画像データとして選択された画像データを副画像データ、副画像データを主画像データとして作成した第2の表示データを作成する(STEP103)。   Next, in the display data creation unit 22 ″, display data is created based on the main image data and the sub image data transmitted from the selection unit 21 ″. At this time, the display data creation unit 22 ", in addition to the first display data created as the main image data, the image data selected as the sub image data, as the main image data, as the sub image data, Second display data is created by creating the image data selected as the main image data as the sub image data and the sub image data as the main image data (STEP 103).

そして、表示データ作成部22"は、作成した第1の表示データを出力部23"に送信するとともに、作成した第2の表示データをサーバ20内のメモリなどの記憶領域に記憶する(STEP104)。この記憶領域内において、第2の表示データは圧縮した形式で記憶されることが好ましい。出力部に送信された第1の表示データは、MPEG2などの所定の圧縮形式で端末30に送信され、表示部31において表示される(STEP105)。   The display data creation unit 22 "transmits the created first display data to the output unit 23" and stores the created second display data in a storage area such as a memory in the server 20 (STEP 104). . In this storage area, the second display data is preferably stored in a compressed format. The first display data transmitted to the output unit is transmitted to the terminal 30 in a predetermined compression format such as MPEG2, and displayed on the display unit 31 (STEP 105).

次に、端末30から、表示データ作成部22"は、主画像データと副画像データとを切り替える信号が入力されたか否かを判断する(STEP106)。表示データ作成部22"において、主画像データと副画像データとを切り替える信号が入力されないと判断された場合は、STEP105に戻る。   Next, the display data creation unit 22 "determines whether or not a signal for switching between the main image data and the sub image data is input from the terminal 30 (STEP 106). In the display data creation unit 22", the main image data If it is determined that a signal for switching between the sub image data and the sub image data is not input, the process returns to STEP 105.

一方、STEP106において、表示データ作成部22"において、主画像データと副画像データとを切り替える信号が入力されたと判断された場合は、第1の表示データに代えて、第2の表示データを出力部に対して出力する(STEP107)。このとき、出力の停止された第1の表示データは、前述の記憶領域に記憶される。   On the other hand, if it is determined in STEP 106 that the display data creation unit 22 "has received a signal for switching between the main image data and the sub image data, the second display data is output instead of the first display data. (STEP 107) At this time, the first display data whose output has been stopped is stored in the aforementioned storage area.

そして、表示データ作成部22"は、このような表示データを表示させる処理を終了させるための信号が入力されたか否かを判断し(STEP108)、終了させない場合は、第2の表示データを表示する処理を行いつつ、STEP106に戻って主画像データと副画像データとを切り替える信号が入力されるか否かを判断するステップを継続する。このような主画像データと副画像データとを切り替える信号が入力されるか否かの判断は、微小な一定の時間間隔で連続的に行われることが好ましい。   Then, the display data creating unit 22 "determines whether or not a signal for ending the process of displaying such display data has been input (STEP 108). If not, the second display data is displayed. Then, the process returns to STEP 106 to continue the step of determining whether or not a signal for switching between the main image data and the sub image data is input. It is preferable to determine whether or not is input continuously at a minute fixed time interval.

また、STEP108において表示データの表示を終了させると判断された場合は、所定の終了処理を行うことで表示データの作成を終了し、必要に応じて端末30における表示データの表示を終了させる(STEP109)。   If it is determined in STEP 108 that display data display is to be terminated, the display data creation is terminated by performing a predetermined termination process, and display data display on the terminal 30 is terminated as necessary (STEP 109). ).

このように、主画像データと副画像データとを表示させた第1の表示データと、これらの画像を切り替えた第2の表示データとを、それぞれ図10,11に示す。このような、異なる視点により得られた画像を瞬時に切り替えて表示させることで、監視対象の物体を複数の視点からリアルタイムに監視することが可能になる。   Thus, the 1st display data which displayed main image data and sub-image data, and the 2nd display data which changed these images are shown in Drawing 10 and 11, respectively. It is possible to monitor an object to be monitored in real time from a plurality of viewpoints by instantaneously switching and displaying images obtained from different viewpoints.

なお、上述の例においては、副画像データとして1つの画像データを選択した例を示しているが、本発明はこれに限られるものではない。すなわち、複数の画像データを副画像データとして選択した場合であっても、本発明を適用することは可能である。この場合、選択した複数の副画像データのそれぞれを、主画像データとした別の表示データを予め作成し、記憶させておくことで、表示データ中のいずれの副画像データを主画像データに切り替えたとしても、迅速に画像を切り替えた画面を表示することができる。   In the above example, one image data is selected as the sub image data, but the present invention is not limited to this. That is, the present invention can be applied even when a plurality of pieces of image data are selected as sub-image data. In this case, any other sub-image data in the display data can be switched to the main image data by creating and storing in advance another display data in which each of the selected plurality of sub-image data is the main image data. Even so, it is possible to display a screen in which images are switched quickly.

また、前記実施形態においては、端末30からの操作によって主画像データと副画像データとを切り替えるようにしているが、本発明はこれに限られるものではない。例えば、別のセンサからの信号により、自動的に主画像データと副画像データとを切り替えるようにしてもよい。このような例としては、例えば撮像部としてのカメラに距離センサや熱感知センサなどの監視対象の物体を検知する検知手段を設け、このような検知手段から主画像データとして選択する画像データを指定する信号を選択部に対して送信するようにしてもよい。この場合、監視対象の物体(移動体)に対して距離が最も近い位置にあるカメラにより撮像された画像データを主画像データとするような信号を選択部に対して自動的に送信するといった手法が考えられる。   In the embodiment, the main image data and the sub image data are switched by an operation from the terminal 30, but the present invention is not limited to this. For example, the main image data and the sub image data may be automatically switched by a signal from another sensor. As an example of this, for example, a detection unit that detects an object to be monitored such as a distance sensor or a heat detection sensor is provided in a camera as an imaging unit, and image data to be selected as main image data is designated from such a detection unit. A signal to be transmitted may be transmitted to the selection unit. In this case, a method of automatically transmitting a signal such that the main image data is image data captured by a camera that is closest to the object to be monitored (moving body) to the selection unit. Can be considered.

発明の実施形態4.
上述の実施形態において、表示データ作成部22は、副画像データのみ主画像データの解像度よりも小さい解像度の画像データに縮小し、主画像データの内部に重ね合わせて配置した表示データを作成していたが、本実施形態4では、主画像データも副画像データと同様に縮小し、重ね合わせして表示データを作成している。
Embodiment 4 of the Invention
In the above-described embodiment, the display data creation unit 22 creates display data in which only the sub-image data is reduced to image data having a resolution smaller than the resolution of the main image data, and is superposed inside the main image data. However, in the fourth embodiment, the main image data is also reduced in the same manner as the sub image data, and is superimposed to create display data.

第4の実施形態に係る監視システムのサーバ20の内部構造は、図1と同様であるため、図2を参照して説明する。カメラ11〜14からは、第1の実施形態と同様に、サーバ20に対して、それぞれ640×480画素の画像データが送信される。
選択部21は、カメラ11〜14から送信された画像データの中から、主画像データと、副画像データとを選択する。本実施形態においては、4つのカメラの中から一つの主画像データを選択し、その他の画像データを副画像データとして選択するものとし、本実施形態においては、初期状態において最も移動体Mを撮像しやすい位置にあるカメラ(たとえばカメラ11)から得られる画像データを主画像データとしている。
The internal structure of the server 20 of the monitoring system according to the fourth embodiment is the same as that shown in FIG. 1, and will be described with reference to FIG. Similar to the first embodiment, 640 × 480 pixel image data is transmitted from the cameras 11 to 14 to the server 20.
The selection unit 21 selects main image data and sub image data from the image data transmitted from the cameras 11 to 14. In this embodiment, one main image data is selected from four cameras, and the other image data is selected as sub-image data. In this embodiment, the moving body M is most imaged in the initial state. Image data obtained from a camera (for example, camera 11) at a position where it is easy to perform is used as main image data.

表示データ作成部22は、選択部21により選択された主画像データおよび副画像データに基づいて、表示データを作成する。表示データは、主画像データ及び副画像データのそれぞれを、カメラ11〜14から送信された画像データよりも解像度の小さい縮小画像(たとえば解像度320×240画素の画像)に圧縮変換し、その変換した主画像データ及び副画像データを重ね合わせて作成される。本例では、主画像データと副画像データはすべて同じ解像度の縮小画像に圧縮変換されている。このようにして作成された表示データは、解像度640×480画素の画像である。   The display data creation unit 22 creates display data based on the main image data and the sub image data selected by the selection unit 21. The display data is compression-converted for each of the main image data and the sub-image data into a reduced image (for example, an image having a resolution of 320 × 240 pixels) having a smaller resolution than that of the image data transmitted from the cameras 11 to 14 and converted. It is created by superimposing main image data and sub-image data. In this example, the main image data and the sub image data are all compressed and converted into reduced images having the same resolution. The display data created in this way is an image with a resolution of 640 × 480 pixels.

例えば、1つの主画像データと3つの副画像データを重ね合わせて表示する場合には、上下2列、左右2列に配列するよう表示データを作成する。このように作成された表示データのデータ容量は、640×480画素であるため、もとの全ての画像データ(640×480画素×4)のデータ容量の合計と比べて4分の1となり、大幅に小さくなる。   For example, when one main image data and three sub-image data are superimposed and displayed, the display data is created so as to be arranged in two rows on the upper and lower sides and two columns on the left and right. Since the data capacity of the display data created in this way is 640 × 480 pixels, it becomes a quarter of the total data capacity of all the original image data (640 × 480 pixels × 4), Significantly smaller.

以上、説明したように、本発明にかかる監視システムは、複数の撮像部(カメラ)から得られた画像データを画像(表示データ)内に集約して表示することで、表示に必要なデータ容量を低減させることができる。そのため、遠隔地にある表示部にこのような画像データを表示させる場合に、通信するデータの容量を低減させることができる。また、複数の撮像部(カメラ)から得られた画像データを一つの画像内に全て表示することで、監視対象の物体を撮像した複数のカメラから得られた画像を用いて監視を行うことができるため、監視対象の物体を正確に監視することができる。   As described above, the monitoring system according to the present invention collects and displays image data obtained from a plurality of imaging units (cameras) in an image (display data), thereby displaying a data capacity necessary for display. Can be reduced. Therefore, when displaying such image data on a display unit in a remote place, the volume of data to be communicated can be reduced. In addition, by displaying all the image data obtained from a plurality of imaging units (cameras) in one image, it is possible to perform monitoring using images obtained from a plurality of cameras that image the object to be monitored. Therefore, the object to be monitored can be accurately monitored.

なお、上記説明したの実施形態においては、監視対象の物体が移動体である例を示しているが、本発明はこれに限られるものではなく、遠隔操作により制御される操作対象物(例えば遠隔操作で作業を行うロボットなど)などに対しても適用することが可能である。また、このような具体的な対象物以外にも、ビルのセキュリティなどに用いる監視システムなどに応用することもできる。   In the embodiment described above, an example in which the object to be monitored is a moving object is shown. However, the present invention is not limited to this, and an operation object controlled by remote operation (for example, remote control) The present invention can also be applied to a robot that performs operations by operation. In addition to such specific objects, the present invention can also be applied to monitoring systems used for building security and the like.

本発明の第1の実施形態に係る監視システム1を概略的に示す概略図である。1 is a schematic diagram schematically showing a monitoring system 1 according to a first embodiment of the present invention. 図1に示す監視システム1に含まれるサーバの内部構造を簡略化して示すブロック図である。It is a block diagram which simplifies and shows the internal structure of the server contained in the monitoring system 1 shown in FIG. 図1に示す監視システム1により作成された表示データの一例を示す図である。It is a figure which shows an example of the display data produced by the monitoring system 1 shown in FIG. 本発明の第2の実施形態に係る監視システムに含まれるサーバ20'の内部構造を簡略化して示すブロック図である。It is a block diagram which simplifies and shows the internal structure of server 20 'contained in the monitoring system which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る監視システムおいて作成された表示データの一例を示す図である。It is a figure which shows an example of the display data produced in the monitoring system which concerns on 2nd Embodiment. 図5に示す表示データと同じく、第2の実施形態に係る監視システムおいて作成された表示データの一例を示す図である。It is a figure which shows an example of the display data produced in the monitoring system which concerns on 2nd Embodiment similarly to the display data shown in FIG. 図5,6に示す表示データと同じく、第2の実施形態に係る監視システムおいて作成された表示データの一例を示す図である。It is a figure which shows an example of the display data produced in the monitoring system which concerns on 2nd Embodiment similarly to the display data shown in FIG. 本発明の第3の実施形態に係る監視システムに含まれるサーバ20"の内部構造を簡略化して示すブロック図である。It is a block diagram which simplifies and shows the internal structure of server 20 "contained in the monitoring system which concerns on the 3rd Embodiment of this invention. 第3の実施形態に係る監視システムにおいて、主画像データと副画像データの切り替えを行うためのフローを示すフローチャートである。It is a flowchart which shows the flow for switching the main image data and sub image data in the monitoring system which concerns on 3rd Embodiment. 第3の実施形態に係る監視システムおいて作成された表示データの一例を示す図である。It is a figure which shows an example of the display data produced in the monitoring system which concerns on 3rd Embodiment. 図10に示す表示データにおいて、主画像データと副画像データとを切り替えた表示データの一例を示す図である。FIG. 11 is a diagram illustrating an example of display data obtained by switching between main image data and sub image data in the display data illustrated in FIG. 10.

符号の説明Explanation of symbols

1 ・・・監視システム
11,12,13,14 ・・・カメラ(撮像部)
20,20' ・・・サーバ
21,21',21" ・・・選択部
22,22',22" ・・・データ表示部
23,23'.23" ・・・出力部
30 ・・・端末
31 ・・・表示部
200・・・通信経路
M ・・・移動体(監視対象物)
1 ... Monitoring system 11, 12, 13, 14 ... Camera (imaging part)
20, 20 '... servers 21, 21', 21 "... selection units 22, 22 ', 22" ... data display units 23, 23'. 23 "... output unit 30 ... terminal 31 ... display unit 200 ... communication path M ... moving body (monitoring object)

Claims (8)

監視対象物を視覚的に監視するための監視システムであって、
前記監視対象物を含む所定の領域を撮影し、撮影した各々の画像を画像データに符号化して出力する撮像部と、
前記撮像部から出力された複数の画像データの中から1つの画像データを主画像データとして選択するとともに、前記主画像データとして選択した画像データ以外の前記画像データの中から少なくとも1つを副画像データとして選択する選択部と、
前記選択部により選択された副画像データを、前記撮像部から出力された画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した副画像データを、主画像データと重ね合わせて配置した表示データを作成する表示データ作成部と、を備えることを特徴とする監視システム。
A monitoring system for visually monitoring a monitoring object,
An image capturing unit that captures a predetermined area including the monitoring target, encodes each captured image into image data, and outputs the image data;
One image data is selected as main image data from a plurality of image data output from the imaging unit, and at least one of the image data other than the image data selected as the main image data is a sub-image. A selection part to select as data;
The sub image data selected by the selection unit is reduced and converted into image data having a resolution smaller than the resolution of the image data output from the imaging unit, and the converted sub image data is superimposed on the main image data. And a display data creation unit that creates display data arranged together.
前記表示データ作成部は、前記選択部により選択された副画像データを、主画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した副画像データを、主画像データの内部に重ね合わせて配置した表示データを作成することを特徴とする請求項1に記載の監視システム。   The display data creation unit converts the sub-image data selected by the selection unit into image data having a resolution smaller than the resolution of the main image data, and converts the converted sub-image data of the main image data. The monitoring system according to claim 1, wherein display data arranged in an overlapping manner is created. 副画像データが複数存在する場合に、前記表示データ作成部が、前記主画像データ内に複数の副画像データを重ならないように配置することを特徴とする請求項2に記載の監視システム。   The monitoring system according to claim 2, wherein when there are a plurality of sub-image data, the display data creation unit arranges the sub-image data so as not to overlap the main image data. 前記表示データ作成部が、外部から入力された信号に基づいて、主画像データの内部に重ねて表示する複数の副画像データを選択し、選択した副画像データを主画像データの内部に重ね合わせて配置することを特徴とする請求項3に記載の監視システム。   The display data creation unit selects a plurality of sub-image data to be displayed superimposed on the main image data based on an externally input signal, and superimposes the selected sub-image data on the main image data. The monitoring system according to claim 3, wherein the monitoring system is arranged. 前記表示データ作成部が、外部から入力された信号に基づいて、選択部の選択した主画像データと、1つの副画像データとを入れ替えた表示データを作成可能であることを特徴とする請求項1から4のいずれかに記載の監視システム。   The display data creation unit can create display data in which main image data selected by a selection unit and one sub-image data are exchanged based on an externally input signal. The monitoring system according to any one of 1 to 4. 前記表示データ作成部が、さらに前記選択部により選択された主画像データを、前記撮像部から出力された画像データの解像度よりも小さい解像度の画像データに縮小して変換するとともに、変換した主画像データと、変換した副画像データを重ね合わせて配置した表示データを作成することを特徴とする請求項1に記載の監視システム。   The display data creation unit further converts the main image data selected by the selection unit into image data having a resolution smaller than the resolution of the image data output from the imaging unit, and converts the converted main image. The monitoring system according to claim 1, wherein display data is created by arranging the data and the converted sub-image data in an overlapping manner. 前記監視対象物が、前記特定の領域を移動する移動体であることを特徴とする請求項1から6のいずれかに記載の監視システム。   The monitoring system according to claim 1, wherein the monitoring target is a moving body that moves in the specific area. 前記監視対象物が、遠隔操作により制御される操作対象物であることを特徴とする請求項1から6のいずれかに記載の監視システム。   The monitoring system according to claim 1, wherein the monitoring target is an operation target controlled by remote operation.
JP2008284363A 2008-11-05 2008-11-05 Monitoring system Pending JP2010114575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008284363A JP2010114575A (en) 2008-11-05 2008-11-05 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008284363A JP2010114575A (en) 2008-11-05 2008-11-05 Monitoring system

Publications (1)

Publication Number Publication Date
JP2010114575A true JP2010114575A (en) 2010-05-20

Family

ID=42302802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008284363A Pending JP2010114575A (en) 2008-11-05 2008-11-05 Monitoring system

Country Status (1)

Country Link
JP (1) JP2010114575A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017015097A (en) * 2016-10-07 2017-01-19 兵神装備株式会社 Remote monitoring system of rotational volume type pump

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017015097A (en) * 2016-10-07 2017-01-19 兵神装備株式会社 Remote monitoring system of rotational volume type pump

Similar Documents

Publication Publication Date Title
JP4345829B2 (en) Image display system, image display apparatus, image display method, and program
US10911694B2 (en) System and method for creating metadata model to improve multi-camera production
JP2006033793A (en) Tracking video reproducing apparatus
JP4611231B2 (en) Panorama image creating apparatus, method and program
KR101514910B1 (en) Video processing apparatus, video processing system, and video processing method
JP2006245746A (en) Monitoring system
US20180213185A1 (en) Method and system for monitoring a scene based on a panoramic view
JP2007020092A (en) Image display device, image display method and image display system
JP2006033380A (en) Monitoring system
JP2005073218A (en) Image processing apparatus
JP2007043466A (en) Image synthesizing apparatus and multi-camera monitoring system
KR101280443B1 (en) apparatus of processing regional image and method thereof
US9263001B2 (en) Display control device
JP2010114575A (en) Monitoring system
US20230129908A1 (en) Method and system for transmitting a video stream
JP2008301191A (en) Video monitoring system, video monitoring control device, video monitoring control method, and video monitor controlling program
JP4325596B2 (en) Network surveillance camera system
JP2005328333A (en) Monitor system
US20210409613A1 (en) Information processing device, information processing method, program, and information processing system
JP2012099887A (en) Imaging device
KR20170011928A (en) Camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it
JP2006197098A (en) Image transmission system of network camera
KR102680610B1 (en) Method and system for transmitting a video stream
JP2006165664A (en) Image transmission/reception system
JP7382186B2 (en) Encoding device, decoding device, and program