JP2005244626A - Monitor unit - Google Patents

Monitor unit Download PDF

Info

Publication number
JP2005244626A
JP2005244626A JP2004052031A JP2004052031A JP2005244626A JP 2005244626 A JP2005244626 A JP 2005244626A JP 2004052031 A JP2004052031 A JP 2004052031A JP 2004052031 A JP2004052031 A JP 2004052031A JP 2005244626 A JP2005244626 A JP 2005244626A
Authority
JP
Japan
Prior art keywords
image
unit
difference
monitoring
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004052031A
Other languages
Japanese (ja)
Other versions
JP4367177B2 (en
Inventor
Masaharu Suzuki
雅晴 鈴木
Yuichi Koiwa
雄一 小岩
Hirofumi Sugitani
弘文 杉谷
Hiroshi Hibi
博 日比
Satoshi Tabuchi
聡 田淵
Asako Tamura
朝子 田村
Hidetaka Miyamaki
秀宇 宮牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004052031A priority Critical patent/JP4367177B2/en
Publication of JP2005244626A publication Critical patent/JP2005244626A/en
Application granted granted Critical
Publication of JP4367177B2 publication Critical patent/JP4367177B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce burden of work of a monitoring person and to precisely identify storage of a desired object of monitoring in a storage position. <P>SOLUTION: When a panoramic picture created by sequentially changing a photographing direction and image-picking up a photographing range is monitored, the photographing range is set so that the storage position where a moving object as the object of monitoring is stored is photographed. Differences in luminance levels are sequentially detected between one unit picture constituting the created panoramic picture and a unit picture in the same photographing direction, which is image-picked up earlier the unit picture. The detected difference of the luminance levels is compared with a threshold which is preset in accordance with the luminance level of the moving object. Prescribed information is displayed on a display face with the panoramic picture created based on a compared result. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮影方向を順次変化させて撮像することにより得られたパノラマ画像を介して広範囲の状況を監視する監視装置及び方法、プログラム、記録媒体並びに監視システムに関する。   The present invention relates to a monitoring device and method, a program, a recording medium, and a monitoring system for monitoring a wide range of situations via a panoramic image obtained by sequentially changing shooting directions.

近年、一つの建物の中に複数のスクリーンを設置したいわゆるシネマコンプレックスと呼ばれる複合映画館が各地でオープンしている。この複合映画館において観客が持参した入場券を確認する担当者は、通常、建物の入口付近に配置されているが、各スクリーンが設置された映写室毎には配置されていない場合が多い。このため、館内に入場した観客による映写室間の自由な出入りを許すことになり、特に映写室毎に別途入場料金を課す料金体系を採用する複合映画館において極めて不合理となる。   In recent years, so-called cinema complexes with multiple screens installed in one building have opened in various places. The person in charge confirming the admission ticket brought by the audience in this compound movie theater is usually arranged near the entrance of the building, but is often not arranged in each projection room where each screen is installed. For this reason, it is allowed to allow free entry and exit between the projection rooms by the spectators who enter the hall, and it is extremely unreasonable particularly in a complex movie theater that employs a fee system that charges a separate entrance fee for each projection room.

従って各複合映画館では、入場料金を払うことなく映写室間を自由に出入りする観客を随時監視すべく監視員の増員等を図らんとしてきたが、コストパフォーマンス性が悪かった。   Therefore, each movie theater has attempted to increase the number of observers to monitor the audiences who freely enter and leave the projection room without paying an entrance fee, but the cost performance is poor.

また各複合映画館では、各座席に設置されたスイッチを介して、着席状況の自動的な判別を試みようとしてきた。この方法では、上記スイッチを、押圧入力により電気信号を生成する圧電素子として構成し、観客の着席に応じた押圧入力により生成された電気信号を後段のシステムで検出することにより着席状況を自動的に判別する。しかしながら、各映写室の座席数に応じたスイッチを購入し、これを座席毎に設置する必要があるため、コストや労力の削減を図ることができなかった。また圧電素子としてのスイッチの信頼性にばらつきがあるため、着席状況を精度よく判別することができなかった。   In each complex movie theater, attempts have been made to automatically determine the seating status through a switch installed in each seat. In this method, the switch is configured as a piezoelectric element that generates an electrical signal by pressing input, and the seating situation is automatically detected by detecting the electrical signal generated by pressing input corresponding to the seating of the audience by a subsequent system. To determine. However, since it is necessary to purchase a switch corresponding to the number of seats in each projection room and install it for each seat, it has not been possible to reduce costs and labor. In addition, since the reliability of the switches as piezoelectric elements varies, the seating situation cannot be accurately determined.

このため、信頼性が高くコストパフォーマンス性にも優れた監視を実現するために、カメラの撮影方向を順にシフトさせながら撮影対象を撮影し、これらを合成してパノラマ画像を得ることにより、広範囲の状況を監視することができるモニタリングシステムが提案されている(例えば、特許文献1参照。)。また、設置された複数の監視用ビデオカメラから監視映像を集めてビデオテープ等の記録媒体に記録し、監視を行うことを可能とする集中監視記録システムも提案されている(例えば、特許文献2参照。)。   For this reason, in order to realize monitoring with high reliability and excellent cost performance, a wide range of images can be obtained by shooting the shooting target while sequentially shifting the shooting direction of the camera and combining them to obtain a panoramic image. A monitoring system capable of monitoring the situation has been proposed (see, for example, Patent Document 1). In addition, a centralized monitoring and recording system has been proposed that enables monitoring images to be collected from a plurality of installed monitoring video cameras, recorded on a recording medium such as a video tape, and monitored (for example, Patent Document 2). reference.).

特開平10−108163号公報JP-A-10-108163 特開2000−243062号公報JP 2000-243062 A

ところで、上述の如く記録媒体に記録された画像を利用して、撮影範囲における何らかの変化を検出する場合に、監視員は、1スキャン毎に刻々と入力される監視画像の状況を隅々まで観察しなければならなかった。特に監視員は、細かい画像の変化や、微小な対象物の出現等につき常に識別しなければならず、過大な労力や時間を必要とし、さらには、かかる監視員の眼に依存するシステムであるが故に、かかる状況変化の見落としが生じる危険性もあった。   By the way, when using the image recorded on the recording medium as described above to detect any change in the shooting range, the monitoring person observes the situation of the monitoring image input every moment for every scan. Had to do. In particular, the monitor must always identify minute changes in the image, the appearance of minute objects, etc., requires excessive effort and time, and is a system that relies on the eyes of the monitor. Therefore, there was also a risk that this situation change would be overlooked.

また座席上において、監視対象としての観客以外に、荷物や運搬物等が積まれる場合もあることから、これを容易に識別し、あくまで監視対象における収容位置への収容のみに焦点を当てた状況解析を実現する必要もあった。即ち、所望の監視対象を監視員自身が取捨選択することにより、不要な移動被写体の累積的な監視を回避するとともに、解析の利便性を向上させる必要性もあった。   In addition, there are cases in which luggage or transported goods may be stacked on the seat in addition to the spectator as a monitoring target, so this is easily identified and focused only on the storage at the storage location in the monitoring target It was also necessary to realize the analysis. That is, it is necessary to avoid unnecessary monitoring of the moving subject and to improve the convenience of analysis by selecting a desired monitoring target by the monitoring person himself / herself.

さらに、光源の照度変動や周囲の明るさ等の微妙な変動による影響を受けた場合には、全く同一の移動被写体であっても、単に輝度レベルを比較するのみでは変化を検出することができず、監視の有効性を担保することができないという問題点もあった。   In addition, when affected by subtle fluctuations such as illuminance fluctuations in the light source and ambient brightness, changes can be detected by simply comparing the brightness levels even with the same moving subject. However, there was a problem that the effectiveness of monitoring could not be guaranteed.

そこで、本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、監視員の労力の負担を軽減し、所望の監視対象における収容位置への収容を精度よく識別することができる監視装置及び方法、プログラム、記録媒体並びに監視システムを提供することにある。   Therefore, the present invention has been devised in view of the above-described problems, and the object of the present invention is to reduce the burden on the labor of the observer and to accurately accommodate the desired monitoring object at the accommodation position. It is an object to provide a monitoring apparatus and method, a program, a recording medium, and a monitoring system that can be well identified.

本発明は、上述した問題点を解決するために、撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視する際に、監視対象としての移動被写体が収容される収容位置を捉えるように撮影範囲を設定し、生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、比較した結果に基づき生成したパノラマ画像と共に所定の情報を表示面に表示する。   In order to solve the above-described problem, the present invention provides a storage position in which a moving subject as a monitoring target is stored when monitoring a panoramic image generated by sequentially changing the shooting direction and capturing a shooting range. Set the shooting range to capture the image, and sequentially detect the difference in luminance level between one unit image constituting the generated panoramic image and the unit image taken in the same shooting direction before the unit image Then, the detected luminance level difference is compared with a threshold value set in advance according to the luminance level of the moving subject, and predetermined information is displayed on the display surface together with the panoramic image generated based on the comparison result.

即ち、本発明を適用した監視装置は、撮影方向を順次変化させて撮影範囲を撮像することにより生成されたパノラマ画像を監視する監視装置において、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定する撮影設定手段と、上記生成されたパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出する差異検出手段と、上記差異検出手段により検出された輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較する比較手段と、上記比較手段による比較結果に基づき、上記生成されたパノラマ画像と共に所定の情報を表示面上に表示させる表示制御手段とを備える。   That is, the monitoring device to which the present invention is applied is a monitoring device that monitors a panoramic image generated by capturing a shooting range by sequentially changing the shooting direction. Between the shooting setting means for setting the shooting range so as to be captured, one unit image constituting the generated panoramic image, and a unit image in the same shooting direction taken before the unit image. Difference detection means for sequentially detecting a difference in luminance level, comparison means for comparing the difference in luminance level detected by the difference detection means with a threshold value set in advance according to the luminance level of the moving subject, and the comparison Display control means for displaying predetermined information on the display surface together with the generated panoramic image based on the comparison result by the means.

また、本発明を適用した監視装置は、撮影方向を順次変化させて撮影範囲を撮像することにより生成されたパノラマ画像を監視する監視装置において、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定する撮影設定手段と、生成されたパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で求めた正規化相関値に基づくベクトルを順次検出するベクトル検出手段と、ベクトル検出手段により検出されたベクトルの方向を、先に検出された当該ベクトルとの間で比較する比較手段と、比較手段による比較結果に基づき、生成されたパノラマ画像と共に所定の情報を表示面上に表示させる表示制御手段とを備える。   In addition, the monitoring device to which the present invention is applied is a monitoring device that monitors a panoramic image generated by capturing a shooting range by sequentially changing the shooting direction. It is obtained between the shooting setting means for setting the shooting range so as to capture, one unit image constituting the generated panoramic image, and a unit image taken in the same shooting direction before the unit image. Vector detection means for sequentially detecting vectors based on the normalized correlation value, comparison means for comparing the direction of the vector detected by the vector detection means with the previously detected vector, and comparison by the comparison means Display control means for displaying predetermined information on the display surface together with the generated panoramic image based on the result.

また、本発明を適用した監視方法は、撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視する監視方法において、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、上記生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、上記検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、上記比較した結果に基づき、上記生成したパノラマ画像と共に所定の情報を表示面に表示する。   In addition, the monitoring method to which the present invention is applied is a monitoring method for monitoring a panoramic image generated by capturing a shooting range by sequentially changing the shooting direction, and captures a storage position where a moving subject as a monitoring target is stored. As described above, the shooting range is set, and a difference in luminance level is sequentially detected between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image. Then, the difference in the detected luminance level is compared with a threshold value set in advance according to the luminance level of the moving subject, and predetermined information is displayed on the display surface together with the generated panoramic image based on the comparison result. .

また、本発明を適用したプログラムは、撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視することをコンピュータに実行させるためのプログラムにおいて、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、上記生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、上記検出した輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、上記比較した結果に基づき上記生成したパノラマ画像と共に所定の情報を表示面上に表示する。   The program to which the present invention is applied is a program for causing a computer to monitor a panoramic image generated by capturing a shooting range by sequentially changing shooting directions. The shooting range is set so as to capture the stored position, and the luminance between one unit image constituting the generated panoramic image and the unit image taken in the same shooting direction before the unit image is set. Differences in level are sequentially detected, the detected luminance level difference is compared with a threshold value set in advance according to the luminance level of the moving subject, and predetermined information is generated together with the generated panoramic image based on the comparison result. Is displayed on the display screen.

また、本発明を適用した記録媒体は、撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視することをコンピュータに実行させるためのプログラムが記録された記録媒体において、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、上記生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、上記検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、上記比較した結果に基づき、上記生成したパノラマ画像と共に所定の情報を表示面上に表示することをコンピュータに実行させる。   The recording medium to which the present invention is applied is a recording medium on which a program for causing a computer to monitor a panoramic image generated by capturing a photographing range by sequentially changing the photographing direction is recorded. The photographing range is set so as to capture the accommodation position where the moving subject as a target is accommodated, and one unit image constituting the generated panoramic image and the same photographing direction taken before the unit image are taken. Differences in brightness level between unit images are sequentially detected, the detected brightness level difference is compared with a threshold value set in advance according to the brightness level of the moving subject, and the generation is performed based on the comparison result. The computer is caused to display predetermined information on the display surface together with the panoramic image.

また、本発明を適用した監視システムは、撮影方向を順次変化させて撮影範囲を撮像することによりパノラマ画像を生成する撮像装置と、監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、上記生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、上記検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、上記比較した比較結果を接続された通信網を介して送信する制御装置と、少なくとも上記制御装置から通信網を介して受信した上記比較結果を表示面に表示させる端末装置とを備える。   In addition, a monitoring system to which the present invention is applied captures an imaging device that generates a panoramic image by imaging a shooting range by sequentially changing the shooting direction, and a storage position where a moving subject as a monitoring target is stored. Set the shooting range, sequentially detect a difference in brightness level between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image, A control device that compares the detected brightness level difference with a threshold value set in advance according to the brightness level of the moving subject, and transmits the comparison result through a connected communication network; and at least the control device And a terminal device for displaying the comparison result received via the communication network on a display surface.

本発明は、撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視する際に、監視対象としての移動被写体が収容される収容位置を捉えるように撮影範囲を設定し、生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、比較した結果に基づき生成したパノラマ画像と共に所定の情報を表示面に表示する。   The present invention sets a shooting range so as to capture an accommodation position where a moving subject as a monitoring target is accommodated when monitoring a panoramic image generated by imaging the imaging range by sequentially changing the imaging direction, A difference in luminance level is sequentially detected between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image, and the detected difference in luminance level is described above. Comparison is made with a threshold set in advance according to the luminance level of the moving subject, and predetermined information is displayed on the display surface together with the panoramic image generated based on the comparison result.

これにより、監視装置から注意喚起された場合に始めてその詳細につき確認すれば足りるため、監視労力を大幅に低減させることができる。また、あくまで監視対象における収容位置への収容のみに焦点を当てた状況解析を実現することができ、ひいては解析の利便性を向上させることができる。   Thereby, since it is sufficient to confirm the details for the first time when a warning is issued from the monitoring device, the monitoring effort can be greatly reduced. Further, it is possible to realize a situation analysis focusing only on the accommodation at the accommodation position in the monitoring target, and thus the convenience of the analysis can be improved.

以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。本発明を適用した監視システム1は、例えば図1に示すように、被写体を撮像して画像信号を生成するカメラユニット2と、上記画像信号が伝送される監視装置5と、監視装置5に接続されるディスプレイ6と、複数のユーザがアプリケーションを実行するための端末装置9と、端末装置9に接続される端末ディスプレイ10と、カメラユニット2並びに監視装置5,端末装置9間で双方向通信を実現するためのネットワーク8とを備えている。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings. A monitoring system 1 to which the present invention is applied includes a camera unit 2 that captures an image of a subject and generates an image signal, a monitoring device 5 that transmits the image signal, and a monitoring device 5 as shown in FIG. Display 6, a terminal device 9 for a plurality of users to execute applications, a terminal display 10 connected to the terminal device 9, a camera unit 2, a monitoring device 5, and a terminal device 9. And a network 8 for realization.

この監視システム1におけるカメラユニット2は、図2に示すように、パンチルタ部3と、カメラ部4とが一体的に構成されてなる。パンチルタ部3は、例えばパン、チルトの2軸につき撮影方向を自在に変更するための回転台として構成される。   As shown in FIG. 2, the camera unit 2 in the monitoring system 1 includes a pantilter unit 3 and a camera unit 4 integrally formed. The pantilter unit 3 is configured as a turntable for freely changing the shooting direction with respect to, for example, two axes of pan and tilt.

カメラ部4は、パンチルタ部3を構成する回転台上に配設され、監視装置5による制御に応じて、撮影方向を水平方向或いは垂直方向に調整しつつ、被写体を撮像する。またこのカメラ部4は、監視装置5による制御に応じて、撮影画角を順次変更することにより、撮影倍率を拡大又は縮小して被写体を撮像する。このカメラ部4を一の監視装置5に対して複数設置することにより、同一の被写体につき、互いに異なる撮影角度で撮像することができ、多面的な画像情報を得ることも可能となる。   The camera unit 4 is disposed on a turntable that constitutes the pantilter unit 3 and images a subject while adjusting the shooting direction in the horizontal direction or the vertical direction according to control by the monitoring device 5. In addition, the camera unit 4 captures an image of the subject by increasing or reducing the shooting magnification by sequentially changing the shooting angle of view in accordance with control by the monitoring device 5. By installing a plurality of the camera units 4 with respect to one monitoring device 5, it is possible to capture the same subject at different shooting angles and obtain multifaceted image information.

監視装置5は、図2に示すように、カメラユニット2より伝送された画像信号に所定の処理を施す画像入出力部13と、この画像入出力部13に接続され、上記画像信号に基づく動画像を生成する演算処理部15と、演算処理部15に接続され上記画像信号を記録するサーバ53と、ユーザが監視装置5を制御するための操作部16とを備えている。   As shown in FIG. 2, the monitoring device 5 is connected to the image input / output unit 13 for performing predetermined processing on the image signal transmitted from the camera unit 2, and a moving image based on the image signal. An arithmetic processing unit 15 that generates an image, a server 53 that is connected to the arithmetic processing unit 15 and records the image signal, and an operation unit 16 for the user to control the monitoring device 5 are provided.

この監視装置5は、例えばパーソナルコンピュータ(PC)等の電子機器により構成され、カメラユニット2から伝送される画像信号を記録し、また記録した画像信号につきディスプレイ6を介してユーザに表示する。またこの監視装置5は、ユーザから所望の画像領域又は画像位置が指定された場合には、記録した画像信号の中から最適なものを選択してこれを表示するように制御する。この監視装置5は、このネットワーク8全体を制御するためのいわゆる中央制御装置としての役割も担い、他の端末装置9からの要求に応じて画像を送信する。なお監視装置5の構成の詳細については、後述する。   The monitoring device 5 is configured by an electronic device such as a personal computer (PC), for example, records an image signal transmitted from the camera unit 2, and displays the recorded image signal to a user via the display 6. In addition, when a desired image region or image position is designated by the user, the monitoring device 5 performs control so as to select an optimal one from the recorded image signals and display it. The monitoring device 5 also serves as a so-called central control device for controlling the entire network 8 and transmits an image in response to a request from another terminal device 9. Details of the configuration of the monitoring device 5 will be described later.

ネットワーク8は、例えば監視装置5と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの監視システム1を、一定の狭いエリア内で運用する場合には、このネットワーク8を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク8は、静止画像に加えてMPEG画像をも送信できるようにしてもよい。かかる場合には、インターネットプロトコル(IP)に基づき、MPEGデータがある一つのチャネルから継続的に送信され、静止画像データは別のチャネルから一定時間毎に送信されることになる。   The network 8 includes, for example, an Internet network connected to the monitoring device 5 via a telephone line, ISDN (Integrated Services Digital Network) / B (broadband) -ISDN connected to a TA / modem, and the like. It is a public communication network that enables bidirectional transmission and reception. Incidentally, when the monitoring system 1 is operated in a certain narrow area, the network 8 may be configured by a LAN (Local Area Network). Further, the network 8 may be capable of transmitting MPEG images in addition to still images. In such a case, MPEG data is continuously transmitted from one channel based on the Internet protocol (IP), and still image data is transmitted from another channel at regular intervals.

端末装置9は、各家庭や企業等に待機するユーザがネットワーク8を介して監視装置5から画像を取得し、所望の処理を実行するためのPCである。複数の端末装置9をネットワーク8に接続することにより、複数のユーザに対してこの監視システム1のアプリケーションを同時に提供することが可能となる。この端末装置9は、監視装置5から取得した画像を、端末ディスプレイ10に対して表示する。またこの端末装置9は、ユーザによる指定操作に応じて要求信号を生成し、これを監視装置5に対して送信する。なお端末装置9のブロック構成については、後述する監視装置5の構成を引用し、説明を省略する。   The terminal device 9 is a PC for a user waiting in each home or company to acquire an image from the monitoring device 5 via the network 8 and execute a desired process. By connecting a plurality of terminal devices 9 to the network 8, it becomes possible to simultaneously provide the application of the monitoring system 1 to a plurality of users. The terminal device 9 displays the image acquired from the monitoring device 5 on the terminal display 10. In addition, the terminal device 9 generates a request signal in response to a designation operation by the user and transmits it to the monitoring device 5. In addition, about the block structure of the terminal device 9, the structure of the monitoring apparatus 5 mentioned later is quoted, and description is abbreviate | omitted.

次に、本発明を適用した監視システム1におけるカメラユニット2,監視装置5について詳細に説明する。   Next, the camera unit 2 and the monitoring device 5 in the monitoring system 1 to which the present invention is applied will be described in detail.

図3は、カメラユニット2,監視装置5の詳細な構成を示している。この図2では、共通のコントローラバス21に対して、カメラユニット2並びに監視装置5の各構成要素が接続されている。   FIG. 3 shows a detailed configuration of the camera unit 2 and the monitoring device 5. In FIG. 2, each component of the camera unit 2 and the monitoring device 5 is connected to a common controller bus 21.

カメラユニット2を構成するパンチルタ部3は、撮像方向を変更するための回転台を制御するTilt部3a、Pan部3bとを有する。また、カメラユニット2を構成するカメラ部4は、主としてレンズ部22の画角を変更するためのレンズ制御部23と、レンズ部22の光軸に直交する位置に配設される撮像部24と、撮像部24により生成された画像信号を画像入出力部13へ送信するためのIEEE(Institute of Electrical and Electronics Engineers)1394インターフェース25と、カメラユニット2の現在位置を検出するためのGPS(Global Positioning System)受信部28と、GPS受信部28に装着されるメタデータ生成部29とを備えている。ちなみに、IEEE1394インターフェース25は、イーサネット(登録商標)に代替してもよい。   The pantilter unit 3 constituting the camera unit 2 includes a tilt unit 3a and a pan unit 3b that control a turntable for changing the imaging direction. The camera unit 4 constituting the camera unit 2 includes a lens control unit 23 mainly for changing the angle of view of the lens unit 22, and an imaging unit 24 disposed at a position orthogonal to the optical axis of the lens unit 22. An IEEE (Institute of Electrical and Electronics Engineers) 1394 interface 25 for transmitting the image signal generated by the imaging unit 24 to the image input / output unit 13 and a GPS (Global Positioning) for detecting the current position of the camera unit 2 System) receiving unit 28 and metadata generating unit 29 attached to GPS receiving unit 28. Incidentally, the IEEE 1394 interface 25 may be replaced with Ethernet (registered trademark).

また画像入出力部13は、IEEE1394インターフェース25に接続されるバッファメモリ51と、バッファメモリ51に接続されるエンコーダ52とを備えている。   The image input / output unit 13 includes a buffer memory 51 connected to the IEEE 1394 interface 25 and an encoder 52 connected to the buffer memory 51.

また演算処理部15は、サーバ53から読み出された画像を圧縮するための画像圧縮部54と、サーバ53及び画像圧縮部54に接続され、ディスプレイ6上に表示する画像を作り出すグラフィックコントローラ55と、コントローラバス21を介して各部を制御するためのCPU56と、I/Oポート58にそれぞれ接続されるメモリカード61並びに時計62とを備えている。   The arithmetic processing unit 15 is also connected to the image compression unit 54 for compressing the image read from the server 53, and the graphic controller 55 that is connected to the server 53 and the image compression unit 54 and generates an image to be displayed on the display 6. A CPU 56 for controlling each unit via the controller bus 21, a memory card 61 and a clock 62 connected to the I / O port 58, respectively.

また操作部16は、ディスプレイ6上に表示されている画像からユーザが所望の画像領域、画像位置を指定するためのキーボード59並びにマウス60を備えている。   The operation unit 16 includes a keyboard 59 and a mouse 60 for the user to specify a desired image area and image position from the image displayed on the display 6.

Tilt部3a並びにPan部3bは、CPU56からの駆動信号に基づき、回転台の駆動源として構成されているステッピングモータを回転させる。これにより回転台上に載置されてなるカメラ部4の撮影方向を水平方向、或いは垂直方向に変更することができる。   The Tilt unit 3a and the Pan unit 3b rotate a stepping motor configured as a drive source for the turntable based on a drive signal from the CPU 56. Thereby, the photographing direction of the camera unit 4 placed on the turntable can be changed to the horizontal direction or the vertical direction.

レンズ制御部23は、CPU56からの駆動信号に基づき、レンズ部22に対して自動絞り制御動作や自動焦点制御動作を実行する。またこのレンズ制御部23は、かかる駆動信号に基づき、被写体に対する撮影画角を変更する。これにより、カメラ部4は、撮影倍率を順次調整して被写体を撮像することも可能となる。   The lens control unit 23 performs an automatic aperture control operation and an automatic focus control operation on the lens unit 22 based on the drive signal from the CPU 56. The lens control unit 23 changes the shooting angle of view for the subject based on the drive signal. As a result, the camera unit 4 can also adjust the shooting magnification sequentially to capture the subject.

撮像部24は、例えばCCD(Charge Coupled Device )等の固体撮像素子により構成され、レンズ部22を介して入射される被写体像を撮像面上に結像させ、光電変換により画像信号を生成し、これをIEEE1394インターフェース25へ送信する。   The imaging unit 24 is configured by a solid-state imaging device such as a CCD (Charge Coupled Device), for example, forms an object image incident through the lens unit 22 on the imaging surface, generates an image signal by photoelectric conversion, This is transmitted to the IEEE 1394 interface 25.

GPS受信部28は、GPSシステムにより送出される信号に基づき、カメラユニット2の設置場所や撮影方向を検出する。このGPS受信部28を設けることにより、特に複数のカメラユニット2を設置する場合において、双方の撮影方向を連動して制御することが可能となる。GPS受信部28からの出力信号は、メタデータ生成部29に供給され、GPSによる測位結果に基づく、緯度、経度、方位、高度等の位置情報、並びに時刻や各種パラメータ等からなるメタデータが生成される。メタデータ生成部29は、この生成した位置情報やメタデータをエンコーダ52へ供給する。なお本発明では、このGPS受信部28、メタデータ生成部29の構成を省略してもよい。   The GPS receiver 28 detects the installation location and shooting direction of the camera unit 2 based on a signal transmitted by the GPS system. By providing the GPS receiving unit 28, particularly when a plurality of camera units 2 are installed, it is possible to control both shooting directions in conjunction with each other. The output signal from the GPS receiving unit 28 is supplied to the metadata generating unit 29, and metadata including position information such as latitude, longitude, azimuth, altitude, time, various parameters, etc. is generated based on the positioning result by GPS. Is done. The metadata generation unit 29 supplies the generated position information and metadata to the encoder 52. In the present invention, the configuration of the GPS receiving unit 28 and the metadata generating unit 29 may be omitted.

バッファメモリ51は、CPU56からの制御信号に基づき、IEEE1394インターフェース25から供給される画像信号を一時的に格納する。このバッファメモリ51において一時的に格納された画像信号は、エンコーダ52に供給され、例えばJPEG(Joint Photographic Experts Group)等の規格に基づいて圧縮符号化される。ちなみに、このエンコーダ52は、圧縮符号化する画像信号に対して、メタデータ生成部29から供給される位置情報やメタデータを付加してもよい。エンコーダ52は、圧縮符号化した画像信号をサーバ53或いは画像圧縮部54へ出力する。なお供給される画像信号につき、圧縮符号化を行わない場合には、このエンコーダ52における処理は省略される。   The buffer memory 51 temporarily stores an image signal supplied from the IEEE 1394 interface 25 based on a control signal from the CPU 56. The image signal temporarily stored in the buffer memory 51 is supplied to the encoder 52, and is compressed and encoded based on a standard such as JPEG (Joint Photographic Experts Group). Incidentally, the encoder 52 may add position information and metadata supplied from the metadata generation unit 29 to an image signal to be compressed and encoded. The encoder 52 outputs the compressed and encoded image signal to the server 53 or the image compression unit 54. Note that the processing in the encoder 52 is omitted when compression encoding is not performed on the supplied image signal.

サーバ53は、エンコーダ52から出力される画像信号を位置情報やメタデータと関連付けて順次記録する。ちなみに、このサーバ53は、例えばハードディスクや、着脱自在なディスク状記録媒体に代替してもよい。サーバ53に記録された画像信号は、CPU56による制御に基づき、画像圧縮部54やグラフィックコントローラ55へ読み出される。なおサーバ53に記録される画像信号をメモリカード61へ記録するように制御することにより、ユーザは、かかる撮像した画像を他のPCへ移し換えることも可能となる。また、このサーバ53に記録されている画像信号を上述した図示しないネットワークサーバに記録するように制御することにより、サーバ53を図示しないネットワークサーバに代替することも可能となる。   The server 53 sequentially records the image signal output from the encoder 52 in association with the position information and metadata. Incidentally, the server 53 may be replaced with, for example, a hard disk or a removable disk-shaped recording medium. The image signal recorded in the server 53 is read out to the image compression unit 54 and the graphic controller 55 based on control by the CPU 56. By controlling the image signal recorded in the server 53 to be recorded in the memory card 61, the user can also transfer the captured image to another PC. Further, by controlling the image signal recorded in the server 53 to be recorded in the network server (not shown), the server 53 can be replaced with a network server (not shown).

画像圧縮部54は、サーバ53から読み出したJPEG形式の画像信号につき、それぞれ圧縮画像又はサムネイル画像を生成する。また、この画像圧縮部54は、CPU56による制御に従い、サーバ53に記録されている画像を読み出して、動画像を生成する。ちなみにこの動画像を生成する際の圧縮方法としては、例えばMPEG、Motion−JPEG、Motion−JPEG2000等に基づき実行してもよい。   The image compression unit 54 generates a compressed image or a thumbnail image for each JPEG format image signal read from the server 53. In addition, the image compression unit 54 reads an image recorded in the server 53 and generates a moving image in accordance with control by the CPU 56. Incidentally, as a compression method for generating this moving image, it may be executed based on, for example, MPEG, Motion-JPEG, Motion-JPEG2000 or the like.

グラフィックコントローラ55は、サーバ53から読み出した画像信号、又は画像圧縮部54から出力される画像信号に基づき、ディスプレイ6への絵画処理を実行する。また、このグラフィックコントローラ55は、CPU56による制御に基づき、ディスプレイ6におけるコントラスト、輝度の制御を実行する。   The graphic controller 55 executes a painting process on the display 6 based on the image signal read from the server 53 or the image signal output from the image compression unit 54. The graphic controller 55 controls contrast and luminance in the display 6 based on control by the CPU 56.

CPU56は、ユーザによりキーボード59やマウス60を介して画像領域、画像位置が指定された場合に、パンチルタ部3やレンズ制御部23を駆動するための駆動信号や、監視装置5内の各部を制御するための制御信号を、コントローラバス21を介して送信する。また、このCPU56は、端末装置9から所定の要求信号を受けて、サーバ53に記録されている最適な静止画像、動画像、或いは各種情報を選択し、これを当該端末装置9へ送信するように制御する。   The CPU 56 controls a drive signal for driving the pantilter unit 3 and the lens control unit 23 and each unit in the monitoring device 5 when an image area and an image position are designated by the user via the keyboard 59 and the mouse 60. A control signal for transmitting is transmitted via the controller bus 21. The CPU 56 receives a predetermined request signal from the terminal device 9, selects an optimal still image, moving image, or various information recorded in the server 53, and transmits this to the terminal device 9. To control.

次に本発明を適用した監視システム1における撮像動作について説明をする。   Next, an imaging operation in the monitoring system 1 to which the present invention is applied will be described.

図4は、カメラユニット2により、黒枠で示される撮影範囲内を撮影画角uで撮像する場合について示している。撮影範囲を撮影画角uで全て撮像するためには、撮影方向を水平方向又は垂直方向へ順にシフトさせて撮像する必要がある。仮に撮影範囲のサイズが、任意の撮影画角uで撮像することにより得られるフレーム(以下、単位画像という。)のサイズのi×j倍で表せるときには、少なくともi×j通りの撮影方向を設定する必要がある。この撮影画角uで撮像したi×j個の単位画像を貼り合わせることにより撮影範囲全体を表した全体画像を合成することができる。   FIG. 4 shows a case where the camera unit 2 captures an image within a shooting range indicated by a black frame with a shooting angle of view u. In order to capture the entire imaging range with the imaging angle of view u, it is necessary to shift the imaging direction sequentially in the horizontal or vertical direction. If the size of the shooting range can be expressed by i × j times the size of a frame (hereinafter referred to as a unit image) obtained by imaging at an arbitrary shooting angle of view u, at least i × j shooting directions are set. There is a need to. An entire image representing the entire imaging range can be synthesized by pasting i × j unit images captured at the imaging angle of view u.

ここで、撮影範囲の各単位画像の座標(M,N)を、水平方向につき、左端から順に1、2、・・M・、iとし、垂直方向につき上端から順に1、2、・・N・、jとしたとき、CPU56は、Tilt部3a並びにPan部3bに対して駆動信号を送信することにより、カメラ部4の撮影方向を、先ず左上に位置する座標(1,1)に合わせて撮像を実行させる。この座標(1,1)について撮像することにより生成された単位画像に基づく画像信号は、バッファメモリ51に一時的に格納され、エンコーダ52において、JPEG規格に基づいて圧縮符号化される。そしてこの画像信号は、GPS28から送信される撮影方向等を示す位置情報やメタデータが同時に付加され、サーバ53に記録される。   Here, the coordinates (M, N) of each unit image in the photographing range are 1, 2,..., M, i from the left end in the horizontal direction, and 1, 2,. .., J, the CPU 56 sends a drive signal to the Tilt unit 3a and the Pan unit 3b, so that the shooting direction of the camera unit 4 is first matched with the coordinates (1, 1) located at the upper left. Perform imaging. An image signal based on the unit image generated by imaging the coordinates (1, 1) is temporarily stored in the buffer memory 51, and is compressed and encoded by the encoder 52 based on the JPEG standard. This image signal is simultaneously recorded with position information and metadata indicating the shooting direction transmitted from the GPS 28 and recorded in the server 53.

同様にCPU56は、Tilt部3a並びにPan部3bに対して駆動信号を送信することにより、カメラ部4の撮影方向を、右側に1画枠分シフトさせて座標(2,1)に合わせて撮像を実行する。この座標(2,1)について撮像することにより生成された画像信号も同様にサーバ53へ記録される。CPU56による制御に基づき、カメラ部4は、撮影方向を座標(3,1)、(4,1)・・(i,1)と水平方向へ順次変更させて撮像を実行する。   Similarly, the CPU 56 transmits a drive signal to the Tilt unit 3a and the Pan unit 3b, thereby shifting the shooting direction of the camera unit 4 to the right by one frame and taking an image in accordance with the coordinates (2, 1). Execute. An image signal generated by taking an image of the coordinates (2, 1) is also recorded in the server 53. Based on the control by the CPU 56, the camera unit 4 executes imaging by sequentially changing the imaging direction in the horizontal direction as coordinates (3, 1), (4, 1)... (I, 1).

カメラ部4は、1列目の撮像を終了させた後、CPU56による制御に基づき、撮影方向を2列目の座標(1,2)に調整して撮像を実行し、その後、水平方向へ順次シフトさせながら撮像を実行する。かかる動作を繰り返して座標(i,j)まで撮像を終了させた時、サーバ53は、座標毎に撮像したi×j個の単位画像に基づく画像信号が記録されている状態になる。   After the imaging of the first row is completed, the camera unit 4 adjusts the shooting direction to the coordinates (1, 2) of the second row based on the control by the CPU 56, executes the imaging, and then sequentially in the horizontal direction. Imaging is performed while shifting. When such an operation is repeated and imaging is finished up to the coordinates (i, j), the server 53 enters a state in which image signals based on i × j unit images taken for each coordinate are recorded.

ちなみに、このサーバ53に記録されている各単位画像に基づく画像信号は、画像圧縮部54により順次読み出されて、ディスプレイ6の表示画面のサイズに適合するように縮小される。この縮小された各単位画像は、グラフィックコントローラ15を経てディスプレイ6に表示される。サーバ53に記録されたi×j個の単位画像を全てディスプレイ6に表示させることにより、1枚のパノラマ状の全体画像(パノラマ画像)が合成されることになる。上述の撮像動作を一定の間隔で実行することにより、撮影範囲の最新の状況を示す全体画像を取得することが可能となる。   Incidentally, the image signal based on each unit image recorded in the server 53 is sequentially read out by the image compression unit 54 and reduced so as to fit the size of the display screen of the display 6. Each reduced unit image is displayed on the display 6 via the graphic controller 15. By displaying all the i × j unit images recorded in the server 53 on the display 6, one panoramic overall image (panoramic image) is synthesized. By executing the above imaging operation at regular intervals, it is possible to acquire an entire image showing the latest situation of the imaging range.

図5は、撮像したi×j個の単位画像を貼り合わせることにより合成した全体画像を、ディスプレイ6の全体画像表示部70に表示する例を示している。なお、この監視装置5は、全体画像表示部70に対して、全体画像を構成する各単位画像間の境界を表示させてもよいし、シームレスな全体画像のみを表示させてもよい。また監視装置5は、パノラマ状の全体画像の代替として、撮影範囲全体を捉えることができる撮影画角で撮影した1枚の全体画像を、この全体画像表示部70に表示させてもよい。   FIG. 5 shows an example in which the entire image synthesized by pasting together the captured i × j unit images is displayed on the entire image display unit 70 of the display 6. The monitoring device 5 may cause the entire image display unit 70 to display a boundary between the unit images constituting the entire image, or may display only a seamless entire image. In addition, the monitoring device 5 may cause the entire image display unit 70 to display one entire image captured at an imaging angle of view that can capture the entire imaging range as an alternative to the panoramic entire image.

ちなみに表示画面45には、単位画像を拡大した拡大画像を表示するための拡大画像表示部71がさらに設けられている。この拡大画像表示部71は、全体画像表示部70に表示される全体画像を構成する単位画像のうち、ユーザにより指定された一の単位画像を拡大して表示してもよいし、またかかる一の単位画像の撮影方向につき、動画を順次表示してもよい。これによりユーザは、指定した単位画像における撮影方向の状況につき、リアルタイムに確認することもできる。   Incidentally, the display screen 45 is further provided with an enlarged image display unit 71 for displaying an enlarged image obtained by enlarging the unit image. The enlarged image display unit 71 may enlarge and display one unit image designated by the user among unit images constituting the entire image displayed on the entire image display unit 70. A moving image may be sequentially displayed for each unit image shooting direction. Thereby, the user can also confirm in real time the situation of the shooting direction in the specified unit image.

ユーザは、全体画像表示部70や拡大画像表示部71に対して、キーボード59やマウス60を用いて、所望の画像領域、画像位置を指定することができる。なお、各表示部70,71には、マウス60等の動きに連動させて上述の指定操作を実行するための照準線やポインタをさらに表示させてもよい。   The user can designate a desired image region and image position on the entire image display unit 70 and the enlarged image display unit 71 using the keyboard 59 and the mouse 60. The display units 70 and 71 may further display a line of sight and a pointer for executing the above-described designation operation in conjunction with the movement of the mouse 60 or the like.

また表示画面45上においてマウス60を介した入力動作を実行することにより、拡大画像表示部71に表示されている単位画像につき撮影倍率を拡大又は縮小させ、カメラ部4の撮影方向を水平、垂直方向において調整するための撮影方向制御、各種モードの設定を行うことができる。ちなみに、全体画像表示部70において表示される全体画像の履歴は、履歴表示部81を介して表示され、全体画像表示部70に表示される全体画像の濃淡については、濃淡表示部82を介して表示される。また拡大画像表示部71に表示されている単位画像につき変更された撮影倍率は、倍率表示部83を介して表示される。   Further, by executing an input operation via the mouse 60 on the display screen 45, the shooting magnification of the unit image displayed on the enlarged image display unit 71 is enlarged or reduced, and the shooting direction of the camera unit 4 is set to be horizontal or vertical. It is possible to perform shooting direction control for adjustment in the direction and setting of various modes. Incidentally, the history of the whole image displayed on the whole image display unit 70 is displayed via the history display unit 81, and the density of the whole image displayed on the whole image display unit 70 is shown via the shading display unit 82. Is displayed. The shooting magnification changed for each unit image displayed on the enlarged image display unit 71 is displayed via the magnification display unit 83.

また、この表示画面45上に表示されている差異検出ボタン84がマウス60を介してクリックされると、後述の差異検出時において、生成された全体画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異が検出される。   In addition, when the difference detection button 84 displayed on the display screen 45 is clicked via the mouse 60, one unit image constituting the generated whole image and the unit when the difference detection described later is performed. A difference in luminance level is detected from a unit image in the same shooting direction that is imaged before the image.

この差異検出は、サーバ53に記録されている単位画像から構成される全体画像につき、基準となる全体画像との間で輝度レベルを比較することにより実行する。ここで画像上の差異を検出する全体画像を比較全体画像といい、基準となる全体画像を基準全体画像という。   This difference detection is executed by comparing the brightness level of the entire image composed of unit images recorded in the server 53 with the reference entire image. Here, the entire image for detecting a difference on the image is referred to as a comparison entire image, and the reference entire image is referred to as a reference entire image.

図6(a)に示すように、基準全体画像を全体画像a1とした場合において、比較全体画像としての全体画像a2につき画像上に生じた差異を検出する場合には、全体画像a2を構成する単位画像と、全体画像a1を構成する単位画像との間で輝度レベルを比較する。この輝度レベルの比較は、図6(a)に示すように、同一座標(1,1)、(2,1)、(3,1)、・・・、(M,N)にある単位画像間で、換言すれば同一撮影方向にある単位画像間で実行する。これにより、基準全体画像に対する比較全体画像の輝度レベルの変化を、各撮影方向に応じて検出することができる。   As shown in FIG. 6A, in the case where the reference entire image is the entire image a1, the entire image a2 is formed when a difference occurring on the image is detected for the entire image a2 as the comparison entire image. The luminance level is compared between the unit image and the unit images constituting the entire image a1. As shown in FIG. 6A, the luminance levels are compared by unit images at the same coordinates (1, 1), (2, 1), (3, 1),..., (M, N). In other words, it is executed between unit images in the same shooting direction. Thereby, the change of the luminance level of the comparison whole image with respect to the reference whole image can be detected according to each photographing direction.

CPU56は、比較全体画像(全体画像a2)と基準全体画像(全体画像a1)との間で、例えば座標(M,N)にある単位画像の輝度レベルを比較する場合には、先ず、これら二つの単位画像をサーバ53から読み出す。次にCPU56は、例えば図6(b)に示すように、読み出した二つの単位画像間において同一位置にある各画素(m,n)につき輝度レベルを比較する。この輝度レベルの比較は、同一位置にある画素(m,n)につき、輝度レベルの差分を求めるようにしてもよい。CPU56は、読み出した単位画像間の輝度レベルの差異を、各画素につき求めた輝度レベルの差分値を介して検出することができる。ちなみに、この各画素間の輝度レベルの比較は、単位画像を構成する全ての画素につき実行してもよいし、単位画像を構成する一部の画素のみに対して実行するようにしてもよい。   When comparing the luminance level of the unit image at the coordinates (M, N), for example, between the comparison whole image (whole image a2) and the reference whole image (whole image a1), the CPU 56 firstly compares these two images. One unit image is read from the server 53. Next, for example, as shown in FIG. 6B, the CPU 56 compares the luminance level for each pixel (m, n) at the same position between the two read unit images. In the comparison of the luminance levels, the luminance level difference may be obtained for the pixel (m, n) at the same position. The CPU 56 can detect the difference in luminance level between the read unit images via the luminance level difference value obtained for each pixel. Incidentally, the comparison of the luminance levels between the pixels may be performed for all the pixels constituting the unit image, or may be performed for only some of the pixels constituting the unit image.

ちなみに、本発明では、比較全体画像を構成する一部の単位画像のみについて、上述の如く輝度レベルを比較してもよい。このときユーザは、マウス60等を用いて、所望の単位画像を指定することにより、かかる指定された単位画像のみにつき輝度レベルの差異を検出することが可能となる。   Incidentally, in the present invention, the luminance levels may be compared as described above for only some of the unit images constituting the comparison overall image. At this time, the user can detect a difference in luminance level of only the designated unit image by designating a desired unit image using the mouse 60 or the like.

なお、次のタイミングにおいてサーバ53に全体画像a3を構成する単位画像が記録された場合には、当該全体画像a3が比較全体画像となり、基準全体画像としての全体画像a1の間で、同一撮影方向における単位画像間で差異が検出されることになる。さらに次のタイミングにおいて、サーバ53に全体画像a4を構成する単位画像が記録された場合には、当該全体画像a4が比較全体画像となり、基準全体画像としての全体画像a1の間で、同一撮影方向における単位画像間で差異が検出されることになる。   When a unit image constituting the entire image a3 is recorded on the server 53 at the next timing, the entire image a3 becomes a comparison entire image, and the same shooting direction is set between the entire image a1 as the reference entire image. A difference is detected between the unit images at. Further, at the next timing, when a unit image constituting the entire image a4 is recorded in the server 53, the entire image a4 becomes a comparison entire image, and the same shooting direction is obtained between the entire image a1 as the reference entire image. A difference is detected between the unit images at.

次に、本発明を適用した監視システム1により着席状況を監視する手順につき図7を用いて説明をする。   Next, a procedure for monitoring the seating situation by the monitoring system 1 to which the present invention is applied will be described with reference to FIG.

先ずステップS11以降において、観客の着席前におけるいわゆる空席状態の全体画像を取得する。ステップS12において監視装置5は、操作部16を介したユーザの命令に基づいて、移動被写体(観客)が着席する座席を全て捉えることができるように撮影範囲を設定し、また撮影画角uを決定する。   First, after step S11, a so-called vacant seat whole image is acquired before the audience is seated. In step S <b> 12, the monitoring device 5 sets a shooting range based on a user instruction via the operation unit 16 so that all seats where the moving subject (audience) is seated can be captured, and the shooting angle of view u is set. decide.

次にステップS13へ移行し、監視システム1は、かかる空席状態の全体画像の撮像を実行し、これをサーバ53へ記録する。このサーバ53に記録された全体画像が基準全体画像となる。基準全体画像は、画像圧縮部54により順次読み出されてディスプレイ6における全体画像表示部70に表示されることになる。   Next, the process proceeds to step S <b> 13, and the monitoring system 1 captures the entire image in the vacant seat state and records this in the server 53. The whole image recorded in the server 53 becomes the reference whole image. The reference whole image is sequentially read out by the image compression unit 54 and displayed on the whole image display unit 70 in the display 6.

次にステップS14へ移行し、ユーザ(監視員)は、全体画像表示部70に表示されている基準全体画像を視認しつつ、操作部16を介して画像上の差異を検出する領域(以下、差異検出枠という。)を設定する。図8は、ユーザにより設定された差異検出枠の一例を示している。空席状態の基準全体画像の各座席位置に対して差異検出枠(ID−1〜ID−8)が設定されていることが分かる。   Next, the process proceeds to step S <b> 14, and the user (monitor) monitors an area for detecting a difference on the image via the operation unit 16 (hereinafter, referred to as “visual difference”) while viewing the reference entire image displayed on the entire image display unit 70. This is called the difference detection frame.) FIG. 8 shows an example of the difference detection frame set by the user. It can be seen that the difference detection frames (ID-1 to ID-8) are set for each seat position in the reference whole image in the vacant seat state.

ちなみに、この差異検出枠については任意に設定することができ、例えば指定席についてのみ着席状況を監視する場合には、かかる指定席のみに差異検出枠を設定するようにしてもよい。また本実施例では、設定される差分検出枠として、上記取得した基準全体画像のBitmap上に矩形を表示する場合につき説明しているが、かかる場合に限定されるものではなく、円形や不均等枠を表示するようにしてもよい。また各差異検出枠にID番号(ID−n)を付す場合には、これを座席番号と一義的に連関させることにより、データベース上における照合の便宜を図るようにしてもよい。更に、この差異検出枠を設ける場合に限定されることなく、例えば全体画像を構成する全ての単位画像につき輝度レベルの差異を検出するようにしてもよい。   Incidentally, the difference detection frame can be arbitrarily set. For example, when the seating situation is monitored only for the designated seat, the difference detection frame may be set only for the designated seat. In this embodiment, the case where a rectangle is displayed on the bitmap of the acquired reference whole image as the difference detection frame to be set has been described. However, the present invention is not limited to such a case. A frame may be displayed. In addition, when an ID number (ID-n) is attached to each difference detection frame, it is possible to facilitate the collation on the database by uniquely associating it with the seat number. Further, the present invention is not limited to the case where the difference detection frame is provided, and for example, a difference in luminance level may be detected for all unit images constituting the entire image.

次に、ステップS15へ移行し、観客の着席時における全体画像を取得する。この全体画像の撮像については、上述したステップS11において設定した撮影範囲内で、かつ同一の撮影画角uの下、実行する。このステップS15における全体画像の撮像タイミングは、例えばこの撮影システム1を映画館に設置する場合であれば、上映時となるが、使用状況に応じて任意に決定できるようにしてもよい。また短い時間間隔で観客が移動する場合に、特定の時点のみ全体画像を取得するだけでは差異検出の実効が図れないことから、連続して何枚かの全体画像を取得するようにしてもよい。   Next, the process proceeds to step S15, and the entire image when the audience is seated is acquired. The entire image is captured within the imaging range set in step S11 described above and under the same imaging angle of view u. For example, if the photographing system 1 is installed in a movie theater, the timing for capturing the entire image in step S15 is during screening, but it may be arbitrarily determined according to the usage situation. In addition, when the spectator moves at short time intervals, it is not possible to effectively detect the difference only by acquiring the entire image only at a specific time point. Therefore, several entire images may be acquired continuously. .

次にステップS15へ移行し、監視システム1は、かかる着席時の全体画像の撮像を実行し、これをサーバ53へ記録する。このサーバ53に記録された全体画像が比較全体画像となる。この比較全体画像は、画像圧縮部54により順次読み出されてディスプレイ6における全体画像表示部70に表示されることになる。   Next, the process proceeds to step S <b> 15, and the monitoring system 1 captures the whole image when seated and records this in the server 53. The whole image recorded in the server 53 becomes a comparison whole image. The comparison whole images are sequentially read out by the image compression unit 54 and displayed on the whole image display unit 70 in the display 6.

ここで、この表示画面45上に表示されている差異検出ボタン84がマウス60を介してクリックされると、基準全体画像と比較全体画像との間で、同一撮影方向上の単位画像間で輝度レベルの差異が検出される。検出された輝度レベルの差異の中から、差異検出枠を構成する画素における輝度レベルの差異を抽出する。なお、この監視装置5において、差異検出ボタン84がマウスクリックされた場合に、輝度レベルの差異を検出する場合のみならず、所定の間隔毎に差異検出されるようにしてもよいし、またカメラ部4における撮像の都度、差異検出するようにしてもよい。   Here, when the difference detection button 84 displayed on the display screen 45 is clicked via the mouse 60, the luminance between the unit images in the same shooting direction between the reference whole image and the comparison whole image. A level difference is detected. From the detected luminance level difference, the luminance level difference in the pixels constituting the difference detection frame is extracted. In this monitoring apparatus 5, when the difference detection button 84 is clicked with the mouse, the difference may be detected not only when the difference in luminance level is detected, but also at a predetermined interval, or the camera. You may make it detect a difference for every imaging in the part 4. FIG.

このとき、監視装置5は、基準全体画像並びに比較全体画像を構成する全ての単位画像間において輝度レベルの差異を比較する場合に限定されるものではなく、例えば差異検出枠が設定された単位画像のみに焦点をあてて差異検出を行うようにしてもよい。例えば図9に示すように、差異検出枠ID−nが単位画像(1,1)、(2,1)、(1,2)、(2,2)にかけて設定されている場合には、当該単位画像(1,1)、(2,1)、(1,2)、(2,2)のみについて、同一撮影方向上の単位画像間で輝度レベルの差異を検出し、他の単位画像(3,1)、(1,3)、(2,3)については、かかる差異検出を省略することができる。これにより、処理速度を高速化することができ、高効率な差異検出を実現することができる。   At this time, the monitoring device 5 is not limited to the case of comparing the difference in luminance level between all the unit images constituting the reference whole image and the comparison whole image. For example, the unit image in which a difference detection frame is set. Difference detection may be performed by focusing only on the image. For example, as shown in FIG. 9, when the difference detection frame ID-n is set over the unit images (1, 1), (2, 1), (1, 2), (2, 2), For only the unit images (1, 1), (2, 1), (1, 2), (2, 2), a difference in luminance level is detected between unit images in the same shooting direction, and other unit images ( Such difference detection can be omitted for (3, 1), (1, 3), and (2, 3). Thereby, the processing speed can be increased, and highly efficient difference detection can be realized.

差異検出枠を含む各単位画像につき輝度レベルの差異検出がなされた後、ステップS17へ移行する。このステップS17では、ステップS16において検出された輝度レベルの差異を予め設定された閾値と比較する。   After the luminance level difference is detected for each unit image including the difference detection frame, the process proceeds to step S17. In step S17, the brightness level difference detected in step S16 is compared with a preset threshold value.

ここで、差異検出枠の輝度レベルの差異を、各画素につき求めた輝度レベルの差分値を介して検出した場合には、当該差分値が閾値を超えているか否か判別する。その結果、求めた差分値が閾値を超えている場合には、当該差異検出枠内にある画像領域において、基準全体画像と比較して何らかの差異が生じたことを判別する。これに対して、求めた差分値が閾値以下の場合には、当該差異検出枠内にある画像領域において、基準全体画像と比較しても差異が生じなかったことを判別する。   Here, when the difference in the luminance level of the difference detection frame is detected through the difference value of the luminance level obtained for each pixel, it is determined whether or not the difference value exceeds the threshold value. As a result, when the obtained difference value exceeds the threshold value, it is determined that some difference has occurred in the image region within the difference detection frame as compared with the reference whole image. On the other hand, when the obtained difference value is equal to or smaller than the threshold value, it is determined that no difference has occurred in the image area within the difference detection frame even when compared with the reference whole image.

また、この判別に用いる閾値を、撮影対象としての観客の輝度レベルに応じて設定しておくことにより、差異検出枠が設定されている各座席に観客が着席したときに、求めた差分値が閾値を超えることになる。また空席のときには、求めた差分値が閾値以下となる。   In addition, by setting the threshold value used for this determination according to the luminance level of the audience as the shooting target, the difference value obtained when the audience is seated in each seat where the difference detection frame is set is obtained. The threshold will be exceeded. When the seat is vacant, the obtained difference value is equal to or less than the threshold value.

図10は、ステップS14において差異検出枠(ID−1〜ID−8)が設定された座席のいくつかにおいて観客が着席した状態を撮像した比較全体画像を示している。この図10に示すように、観客が着席した座席における差異検出枠ID−3,ID−4,ID−6,ID−7については、基準全体画像と比較して観客の輝度レベルが重畳されるため、求められた差分値が閾値を超えることになる。これに対して、空席における差異検出枠ID−1,ID−2,ID−5,ID−8については、基準全体画像と比較して輝度レベルが変化することはなく、求められた差分値が閾値以下となる。   FIG. 10 shows a comparative overall image obtained by imaging the state in which the audience is seated in some of the seats in which the difference detection frames (ID-1 to ID-8) are set in step S14. As shown in FIG. 10, for the difference detection frames ID-3, ID-4, ID-6, and ID-7 in the seat where the spectator is seated, the luminance level of the spectator is superimposed as compared with the entire reference image. Therefore, the obtained difference value exceeds the threshold value. In contrast, for the difference detection frames ID-1, ID-2, ID-5, and ID-8 in the vacant seat, the luminance level does not change compared to the reference overall image, and the obtained difference value is Below threshold.

監視装置5は、求められた差分値が閾値を超えている場合のみに、その差異検出枠のみについて監視員に注意を喚起して、観客の着席を通知すべく、ディスプレイ6上に表示される全体画像と共に何らかの情報を表示する(ステップS18)。これにより、監視員は、監視装置5から注意喚起された場合に始めてその詳細につき確認すれば足りるため、監視労力を大幅に低減させることができる。このとき、表示する情報として全体画像表示部70に表示されている差異検出枠中にハッチングや色彩を施すようにしてもよい。また、差異検出枠毎に予め識別情報を入力しておき、求められた差分値が閾値を超えている場合のみにこれを表示するようにしてもよい。これにより、識別情報として座席の予約状況を予め入力しておき、観客の着席を検知した場合に当該座席の予約状況を識別情報として表示することが可能となる。   The monitoring device 5 is displayed on the display 6 only when the calculated difference value exceeds the threshold value, in order to alert the monitoring staff about only the difference detection frame and notify the seating of the audience. Some information is displayed together with the entire image (step S18). As a result, it is sufficient for the monitoring staff to confirm the details only when the monitoring device 5 is alerted, and the monitoring effort can be greatly reduced. At this time, hatching or color may be applied to the difference detection frame displayed on the entire image display unit 70 as information to be displayed. Alternatively, identification information may be input in advance for each difference detection frame, and this may be displayed only when the obtained difference value exceeds the threshold value. As a result, it is possible to input the seat reservation status as the identification information in advance and display the seat reservation status as the identification information when the seating of the audience is detected.

また、監視装置5は、このステップS17における比較結果や観客、座席の輝度レベル等の各種情報を累積的に記憶しておき、ステップS17において新たに取得された比較結果にこれらを照らし合わせてこれをディスプレイ6を介して表示してもよい。 また監視装置5は、例えば図10に示すように、差異検出枠ID−3,ID−6,ID−7において予約済みを示す識別情報が割り当てられており、差異検出枠ID−4において未予約を示す識別情報が割り当てられている場合に、それぞれの予約状況を出力画面45上に同時に表示してもよい。このとき、求められた差分値が閾値以下の差異検出枠についても、未着席であることを示す”empty”の文字を出力画面45上において同時に表示してもよい。   Further, the monitoring device 5 cumulatively stores various information such as the comparison result in this step S17, the audience, and the brightness level of the seat, and compares them with the comparison result newly acquired in step S17. May be displayed via the display 6. For example, as shown in FIG. 10, the monitoring device 5 is assigned identification information indicating reserved in the difference detection frames ID-3, ID-6, and ID-7, and is not reserved in the difference detection frame ID-4. May be displayed on the output screen 45 at the same time. At this time, the characters “empty” indicating that they are not seated may be displayed on the output screen 45 at the same time for the difference detection frame whose calculated difference value is equal to or less than the threshold value.

監視員は、差異検出枠の色彩や識別情報の表示を視認することにより、例えば未予約の座席に観客が座っていることを容易に識別することができる。また、監視員がディスプレイ6における表示画面45を視認していない場合においても、監視装置5側において、これを履歴として残しておくこともできる。これにより、監視員が観客の着席状況を事後的に解析することができる。   By visually recognizing the color of the difference detection frame and the display of the identification information, the monitor can easily identify, for example, that the spectator is sitting in an unreserved seat. Even when the monitor does not visually recognize the display screen 45 on the display 6, this can be left as a history on the monitoring device 5 side. Thereby, the observer can analyze the seating situation of the audience after the fact.

さらにこの監視装置5は、ステップS17における比較結果をディスプレイ6を介して表示する場合に加え、図11に示す手順に基づいて、ネットワーク8を介して他の端末装置9へ送信するようにしてもよい。   Further, in addition to displaying the comparison result in step S17 via the display 6, the monitoring device 5 may transmit it to another terminal device 9 via the network 8 based on the procedure shown in FIG. Good.

先ずステップS31において、端末装置9を操作する各ユーザは、ネットワーク8に接続されている監視装置5にアクセスする。   First, in step S31, each user who operates the terminal device 9 accesses the monitoring device 5 connected to the network 8.

次にステップS32に移行し、監視装置5は、自身のサーバ53に記録されている全体画像のうち、ユーザに対して公開できるものについて、公開可能画像リストを作成し、これを端末装置9へ送信する。ちなみに、この公開可能画像リストには、各全体画像のファイル名やファイルサイズのみならず、縮小された全体画像が貼り付けられる場合もある。この公開可能画像リストは、ネットワーク8、端末装置9を介して、端末ディスプレイ10上に表示される。   Next, the process proceeds to step S <b> 32, and the monitoring device 5 creates a publicly available image list for all images recorded in its own server 53 that can be disclosed to the user, and sends this to the terminal device 9. Send. Incidentally, in this publicly available image list, not only the file name and file size of each whole image but also a reduced whole image may be pasted. This publicly available image list is displayed on the terminal display 10 via the network 8 and the terminal device 9.

次にステップS33へ移行し、ユーザは、公開可能画像リストから所望の全体画像を選択する。端末装置9は、ユーザによる選択操作に応じて、全体画像送信要求C1を監視装置5へ送信する。   Next, the process proceeds to step S33, and the user selects a desired entire image from the publicly available image list. The terminal device 9 transmits an entire image transmission request C1 to the monitoring device 5 in response to a selection operation by the user.

ステップS34において、監視装置5は、かかる全体画像送信要求C1を受けて、ユーザにより選択された全体画像並びにその累積差異情報をサーバ53から読み出し、これを端末装置9へ送信する。送信された全体画像は、上述の如く累積差異情報と重ね合わせてネットワーク8、端末装置9を介して、端末ディスプレイ10に表示される(ステップS65)。これにより、遠隔地からの監視も実現可能となる。   In step S <b> 34, the monitoring device 5 receives the entire image transmission request C <b> 1, reads the entire image selected by the user and the accumulated difference information from the server 53, and transmits this to the terminal device 9. The transmitted whole image is displayed on the terminal display 10 through the network 8 and the terminal device 9 in a superimposed manner with the accumulated difference information as described above (step S65). Thereby, monitoring from a remote location can also be realized.

このような監視システム1を、いわゆるシネマコンプレックスと呼ばれる複合映画館の各映写室内に設置することもできる。図12(a)は、観客の着席前におけるいわゆる空席状態の基準全体画像を取得した結果を示している。各座席につき個別に差異検出枠を設定することができることが分かる。また図12(b)は、差異検出枠が設定された映写室内の一の座席に観客が座った場合につき示している。この図12(b)に示すように、座席毎に設定された差異検出枠は、当該座席に座った観客の輝度レベル分だけ差異が生じ、求められた差分値が閾値を超える結果、ハッチングや色彩が施されて監視員に対して注意喚起される。監視員は、出力画面45上において注意喚起された差異検出枠を視認するのみで、予約されていない座席に観客が着いたことを容易に識別することができる。これにより、特に映写室毎に別途入場料金を課す料金体系を採用する複合映画館において、館内に入場した観客による映写室間の自由な出入りを逐一チェックすることができる。   Such a monitoring system 1 can also be installed in each projection room of a complex movie theater called a so-called cinema complex. FIG. 12 (a) shows a result of obtaining a so-called empty reference overall image before the audience is seated. It can be seen that a difference detection frame can be set for each seat individually. FIG. 12B shows the case where the audience sits on one seat in the projection room where the difference detection frame is set. As shown in FIG. 12 (b), the difference detection frame set for each seat has a difference corresponding to the luminance level of the spectator sitting on the seat, and as a result that the obtained difference value exceeds the threshold, hatching or Colors are applied to alert the observer. The monitor can easily identify that the spectator has arrived at the unreserved seat only by visually recognizing the difference detection frame alerted on the output screen 45. In this way, it is possible to check the free entry and exit between the projection rooms by the spectators who enter the hall, particularly in a complex movie theater that adopts a fee structure that charges a separate entrance fee for each projection room.

即ち、この監視システム1は、画素の輝度レベルを介して観客の着席状況を監視することができるため、圧電素子が内蔵されたスイッチを用いる場合と比較して極めて精度よく、僅かな変化までも正確に捉えることができる。また観客の輝度レベルに応じた閾値をより精度よく設定しておくことにより、例えば座席に荷物や他の運搬物等が置かれた場合であってもこれを容易に識別し、あくまで監視対象として観客に焦点を当てた監視を実現することができる。即ち、所望の監視対象に応じた閾値を最適化することにより、監視員自身が監視対象を取捨選択することができ、不要な移動被写体の累積的な監視を回避するとともに、解析の利便性を向上させることもできる。   In other words, since the monitoring system 1 can monitor the seating situation of the audience through the luminance level of the pixel, it is extremely accurate as compared with the case where the switch incorporating the piezoelectric element is used, and even a slight change is observed. It can be accurately captured. In addition, by setting the threshold according to the audience brightness level more accurately, for example, even when luggage or other transported items are placed on the seat, this can be easily identified, and only as a monitoring target Monitoring that focuses on the audience can be realized. In other words, by optimizing the threshold value according to the desired monitoring target, the monitoring person can select the monitoring target himself, avoiding cumulative monitoring of unnecessary moving subjects, and improving the convenience of analysis. It can also be improved.

また、本発明を適用した監視システム1では、上映中に置いて映写室内における照明が消されている状態であっても、スクリーンの照明のみに基づいて撮像を実行することができる。これにより取得することができる全体画像は見かけ上暗くなるが、観客の着席に応じたわずかな輝度レベルの変化を検出することができる。このため、スクリーンの照明のみに基づいて撮像する場合を想定して上記閾値を予め設定しておき、当該設定した閾値との比較により、わずかな輝度レベルの変化であってもこれを見逃すことなく捉えて、観客の着席を随時監視することができる。即ち、本発明を適用した監視システム1では、更に撮影環境に応じた閾値を予め最適化することにより解析の利便性を向上させることができる。   In the monitoring system 1 to which the present invention is applied, even when the illumination in the projection room is turned off during the screening, it is possible to perform imaging based only on the screen illumination. As a result, the entire image that can be acquired is apparently dark, but a slight change in luminance level according to the seating of the audience can be detected. For this reason, the above threshold value is set in advance assuming that the image is picked up based only on the screen illumination, and it is not overlooked even by a slight change in luminance level by comparison with the set threshold value. It is possible to monitor the seating of the audience at any time. In other words, in the monitoring system 1 to which the present invention is applied, the convenience of analysis can be improved by further optimizing the threshold corresponding to the photographing environment in advance.

本発明を適用した監視システム1では、暗い場所における撮像を実行する場合において、更に検出精度を向上させるべく、赤外線カットフィルタを用いて撮像を行うようにしてもよい。以下、この赤外線カットフィルタを介して撮像を行う場合につき、Nightモードという。通常の明るい場所において撮像した画像については、R、G、B、Grey要素のデータを元に差分検出を行うが、このNightモードでは、Grey要素のデータのみを元に差分検出を行う。これは、Nightモード画像が主として明るさのみのデータとなるためである。   In the monitoring system 1 to which the present invention is applied, when performing imaging in a dark place, imaging may be performed using an infrared cut filter in order to further improve detection accuracy. Hereinafter, when imaging is performed through the infrared cut filter, it is referred to as a Night mode. For an image captured in a normal bright place, difference detection is performed based on the data of the R, G, B, and Gray elements. In this Night mode, difference detection is performed based only on the data of the Gray element. This is because the Night mode image is mainly data of brightness only.

図13は、かかるNightモードが導入された場合における差異検出手順を示している。上述したステップS16に移行して差異検出枠内において差分検出が開始された場合(ステップS71)には、ステップS72へ移行し、得られた画像からNightモードに移行するか否か決定する。その結果、Nightモードに入ることを決定した場合には、ステップS74へ移行し、それ以外の場合にはステップS73へ移行する。   FIG. 13 shows a difference detection procedure when such a Night mode is introduced. When the process proceeds to step S16 described above and difference detection is started within the difference detection frame (step S71), the process proceeds to step S72, and it is determined whether or not to shift to the Night mode from the obtained image. As a result, if it is determined to enter the Night mode, the process proceeds to step S74, and otherwise, the process proceeds to step S73.

ステップS73へ移行した場合には、撮像した画像につきR、G、B、Grey要素のデータを元に差分検出を実行し、その後ステップS75へ移行する。これに対して、ステップS74へ移行した場合には、撮像した画像につき、Grayデータのみを元に差分検出を実行し、その後ステップS75へ移行する。   When the process proceeds to step S73, difference detection is performed based on the data of the R, G, B, and Gray elements for the captured image, and then the process proceeds to step S75. On the other hand, when the process proceeds to step S74, the difference detection is executed based on only the gray data for the captured image, and then the process proceeds to step S75.

ステップS75では、検出された輝度レベルの差異を予め設定された閾値と比較する。これ以降の処理は、上述したステップS16と同様であるため、説明を省略する。   In step S75, the detected luminance level difference is compared with a preset threshold value. Since the subsequent processing is the same as that in step S16 described above, description thereof is omitted.

また監視システム1は、この撮影対象の輝度レベルや撮影環境に応じた閾値の最適化を図ることにより、複合映画館の映写室内の適用に限定されることなく、例えば図14に示すようにスタジアムの座席状況についても同様に監視することができる。先ず、広角撮影を実行することにより図14(a)に示すような広範囲の座席を撮像する。この撮像した座席において、例えば図14(a)中に示す点線枠内が特別指定席である場合には、当該領域を拡大し、図14(b)に示すように座席毎に差異検出枠を設定する。また、スタジアムが屋内型か屋外型かに応じて明るさも異なってくることから、撮影環境に応じて予め閾値を最適化しておくようにしてもよい。   Further, the monitoring system 1 optimizes the threshold according to the luminance level of the subject to be photographed and the photographing environment, so that the monitoring system 1 is not limited to the application in the movie room of the complex movie theater, but for example, as shown in FIG. It is possible to monitor the seating situation in the same manner. First, wide-angle imaging is performed to image a wide range of seats as shown in FIG. In this imaged seat, for example, when the inside of the dotted line frame shown in FIG. 14 (a) is a specially designated seat, the area is enlarged, and a difference detection frame is provided for each seat as shown in FIG. 14 (b). Set. Further, since the brightness varies depending on whether the stadium is indoor type or outdoor type, the threshold value may be optimized in advance according to the shooting environment.

また本発明を適用した監視システム1では、カメラユニット2を例えばオープンスペースの駐車場に設置することにより、センサを用いることなく、各駐車スペースの空き状況を取得することができる。かかる場合において、カメラ部4の撮影方向、撮影画角は、空き状況を取得する駐車場を含むように調整し、監視する自動車の輝度レベルに応じて予め閾値を設定しておく。また差異検出枠は、駐車スペース毎に設定しておく。これにより、各駐車スペースにつき空き状況を監視することができる。また、低照度下においても監視の実効を図ることができる本システム1では、特に昼夜に限らず空き状況を随時監視することができる。   Moreover, in the monitoring system 1 to which the present invention is applied, by installing the camera unit 2 in, for example, an open space parking lot, it is possible to acquire the availability of each parking space without using a sensor. In such a case, the shooting direction and the shooting angle of view of the camera unit 4 are adjusted so as to include a parking lot for acquiring the availability, and a threshold value is set in advance according to the luminance level of the car to be monitored. A difference detection frame is set for each parking space. Thereby, the vacancy situation can be monitored for each parking space. In addition, in the present system 1 capable of monitoring effectively even under low illuminance, it is possible to monitor the vacant situation at any time, not limited to day and night.

また本発明を適用した監視システム1では、カメラユニット2を例えば電車内に設置することにより、予約乗車券を確認することができる。かかる場合において、カメラ部4の撮影方向、撮影画角は、予約席を含むように調整し、予約乗車券の確認を当該予約席に座っている乗客を監視することにより実現すべく、乗客の輝度レベルに応じて予め上記閾値を設定しておく。また差異検出枠は、座席毎に設定しておく。これにより、車掌が座席を巡回して乗客が持参する切符を逐一確認する手間を省くことができる。特に差異検出枠における輝度レベルの比較結果を無線通信網としてのネットワーク8を介して外部の端末装置9へ送信することにより、路線を走行する全ての電車につき、座席の空き状況を中央で監視することもできる。   Moreover, in the monitoring system 1 to which the present invention is applied, the reserved boarding ticket can be confirmed by installing the camera unit 2 in, for example, a train. In such a case, the shooting direction and the shooting angle of view of the camera unit 4 are adjusted so as to include the reserved seat, and the confirmation of the reserved ticket is realized by monitoring the passenger sitting in the reserved seat. The threshold value is set in advance according to the luminance level. The difference detection frame is set for each seat. As a result, it is possible to save time for the conductor to go around the seats and check the tickets brought by the passengers one by one. In particular, by transmitting the comparison result of the luminance level in the difference detection frame to the external terminal device 9 via the network 8 as a wireless communication network, the seat availability is monitored centrally for all trains traveling on the route. You can also.

即ち本発明は、観客や自動車、乗客等の移動被写体であればいかなるものを監視対象としてもよく、また当該監視対象が収容される座席や駐車スペース等の収容位置を捉えるように上記撮影範囲を設定しておけば、いかなる状況監視に対して適用可能となる。   That is, in the present invention, any moving subject such as a spectator, a car, or a passenger may be a monitoring target, and the shooting range is set so as to capture a storage position such as a seat or a parking space in which the monitoring target is stored. Once set, it can be applied to any situation monitoring.

また、本発明を適用した監視システム1では、上述した単位画像間における輝度レベルの比較を、R,G,Bの原色成分毎に実行してもよい。この輝度レベルの比較は、上述の如く、同一座標(M,N)にある単位画像間で、換言すれば同一撮影方向にある単位画像間で実行する。これにより、基準全体画像に対する比較全体画像の各原色成分における輝度レベルの変化を、換言すれば、各原色成分における輝度レベルの差分値を撮影方向毎に検出することができる。   Further, in the monitoring system 1 to which the present invention is applied, the above-described comparison of luminance levels between unit images may be executed for each of R, G, and B primary color components. As described above, this luminance level comparison is performed between unit images at the same coordinate (M, N), in other words, between unit images in the same shooting direction. Thereby, the change of the luminance level in each primary color component of the comparison entire image with respect to the reference entire image, in other words, the difference value of the luminance level in each primary color component can be detected for each photographing direction.

また、本発明を適用した監視システム1では、上述した単位画像間において輝度レベルを比較する代わりに、正規化相関値に基づくベクトルを順次検出するようにしてもよい。   Further, in the monitoring system 1 to which the present invention is applied, a vector based on the normalized correlation value may be sequentially detected instead of comparing the luminance levels between the above-described unit images.

かかる場合において演算処理部15では、一方の単位画像の差異検出枠内における基準画素位置に対して、他方の単位画像を少なくとも1画素ずつずらしながら正規化相関値を計算することにより最大の相関が得られるターゲット位置を特定する。次にこのターゲット位置と基準画素位置との間で得られるベクトル(以下、輝度ベクトルという。)を抽出していく。演算処理部15は、かかる動作を上述した差異検出枠全てにつき実行する。   In such a case, the arithmetic processing unit 15 calculates the normalized correlation value while shifting the other unit image by at least one pixel with respect to the reference pixel position in the difference detection frame of one unit image, thereby obtaining the maximum correlation. The obtained target position is specified. Next, a vector (hereinafter referred to as a luminance vector) obtained between the target position and the reference pixel position is extracted. The arithmetic processing unit 15 executes this operation for all the difference detection frames described above.

次に演算処理部15は、この求めた輝度ベクトルの方向を順次識別していく。そして識別した輝度ベクトルの方向が、以前識別した同一画素位置の輝度ベクトルの方向と一致しているか否か判別する。その結果、両者間における輝度ベクトルの変化が検出された場合には、当該画素位置につき何らかの差異が検出されたものとして判断する。一方、両者間における輝度ベクトルの変化が検出されなかった場合には、当該画素位置につき何ら差異が生じていないものとして判断する。   Next, the arithmetic processing unit 15 sequentially identifies the direction of the obtained luminance vector. Then, it is determined whether or not the direction of the identified luminance vector matches the direction of the luminance vector of the same pixel position identified previously. As a result, if a change in luminance vector between the two is detected, it is determined that some difference has been detected for the pixel position. On the other hand, if no change in the luminance vector between the two is detected, it is determined that no difference has occurred for the pixel position.

ちなみにこの正規化相関値は、比較する画素が共に明るい領域を構成している場合には高くなり、何れか一方が明るい領域を構成しているものの他方が暗い領域を構成している場合には低くなる。このため、これら正規化相関値に基づく輝度ベクトルを識別することにより、ただ全体的に明るいだけで何ら変化がない画像領域については、輝度ベクトルの方向が変化していないため差異が生じていないものとして判断することができる。また全体的に暗くて輝度レベルの差分は少ないが何らかの変化が生じている領域については、輝度ベクトルの方向が変化するため、差異部分と判断することができる。   By the way, this normalized correlation value becomes high when the pixels to be compared together constitute a bright area, and when either one constitutes a bright area but the other constitutes a dark area. Lower. Therefore, by identifying the luminance vector based on these normalized correlation values, there is no difference because the direction of the luminance vector does not change for the image area that is only bright overall and has no change. It can be judged as. Further, an area that is dark overall and has a small difference in luminance level but has some change, can be determined as a difference portion because the direction of the luminance vector changes.

これにより、この輝度ベクトルを順次検出し得る監視システム1では、光源の照度変動や周囲の明るさ等の微妙な変動による影響を受ける場合においても、監視の有効性を担保することができる。   Thereby, in the monitoring system 1 which can detect this brightness | luminance vector sequentially, the effectiveness of monitoring can be ensured, even when it receives influence by subtle changes, such as illumination intensity fluctuation | variation of a light source, and ambient brightness.

更に本発明は、上述した処理をコンピュータに実行させるためのプログラムや、かかるプログラムが記録された記録媒体に適用してもよいことは勿論である。   Furthermore, it goes without saying that the present invention may be applied to a program for causing a computer to execute the processing described above, or a recording medium on which such a program is recorded.

本発明を適用した監視システムの構成を示す図である。It is a figure which shows the structure of the monitoring system to which this invention is applied. 本発明を適用した監視システムの構成につき更に説明するための図である。It is a figure for demonstrating further about the structure of the monitoring system to which this invention is applied. カメラユニット,監視装置のブロック構成図である。It is a block block diagram of a camera unit and a monitoring device. カメラユニットにより、黒枠で示される撮影範囲内を撮影画角uで撮像する場合について説明するための図である。It is a figure for demonstrating the case where the camera unit images within the imaging | photography range shown with a black frame with the imaging | photography angle of view u. ディスプレイ上の表示画面の構成例を示す図である。It is a figure which shows the structural example of the display screen on a display. 本発明を適用した監視システムの動作について説明するための図である。It is a figure for demonstrating operation | movement of the monitoring system to which this invention is applied. 輝度レベルの差異を比較する手順につき説明するためのフローチャートである。It is a flowchart for demonstrating about the procedure which compares the difference of a luminance level. ユーザにより設定された差異検出枠の一例を示す図である。It is a figure which shows an example of the difference detection frame set by the user. 差異検出枠が設定された単位画像のみに焦点をあてて差異検出を行う場合につき説明するための図である。It is a figure for demonstrating about the case where a difference detection is focused on only the unit image in which the difference detection frame was set. 予約状況を示す識別情報を全体画像と共に出力画面上に示す場合につき説明するための図である。It is a figure for demonstrating about the case where the identification information which shows a reservation condition is shown on an output screen with a whole image. ステップS17における比較結果を端末装置へ送信する手順を示すフローチャートである。It is a flowchart which shows the procedure which transmits the comparison result in step S17 to a terminal device. 複合映画館に設置された本発明に係る監視システムにより取得した全体画像を示す図である。It is a figure which shows the whole image acquired by the monitoring system which concerns on this invention installed in the compound movie theater. Nightモードを導入した監視システムにおける差分検出手順を示すフローチャートである。It is a flowchart which shows the difference detection procedure in the monitoring system which introduced Night mode. スタジアムの座席状況を監視する場合につき説明するための図である。It is a figure for demonstrating about the case where the seat condition of a stadium is monitored.

符号の説明Explanation of symbols

1 監視システム、2 カメラユニット、3 パンチルタ部、4 カメラ部、5 監視装置、6 ディスプレイ、8 ネットワーク、9 端末装置、10 端末ディスプレイ、22 レンズ部、23 レンズ制御部、24 撮像部、25 IEEE1394インターフェース、28 GPS受信部、29 メタデータ生成部、51 バッファメモリ、52 エンコーダ、53 サーバ、54 画像圧縮部、55 グラフィックコントローラ、56 CPU、58 I/Oポート、59 キーボード、60 マウス
DESCRIPTION OF SYMBOLS 1 Monitoring system, 2 Camera unit, 3 Pantilta part, 4 Camera part, 5 Monitoring apparatus, 6 Display, 8 Network, 9 Terminal apparatus, 10 Terminal display, 22 Lens part, 23 Lens control part, 24 Imaging part, 25 IEEE1394 interface , 28 GPS reception unit, 29 metadata generation unit, 51 buffer memory, 52 encoder, 53 server, 54 image compression unit, 55 graphic controller, 56 CPU, 58 I / O port, 59 keyboard, 60 mouse

Claims (16)

撮影方向を順次変化させて撮影範囲を撮像することにより生成されたパノラマ画像を監視する監視装置において、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定する撮影設定手段と、
上記生成されたパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出する差異検出手段と、
上記差異検出手段により検出された輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較する比較手段と、
上記比較手段による比較結果に基づき、上記生成されたパノラマ画像と共に所定の情報を表示面上に表示させる表示制御手段とを備えること
を特徴とする監視装置。
In a monitoring device that monitors a panoramic image generated by imaging a shooting range by sequentially changing shooting directions,
Shooting setting means for setting the shooting range so as to capture a storage position where a moving subject as a monitoring target is stored;
A difference detecting means for sequentially detecting a difference in luminance level between one unit image constituting the generated panoramic image and a unit image in the same photographing direction imaged before the unit image;
Comparing means for comparing the difference in brightness level detected by the difference detection means with a threshold value set in advance according to the brightness level of the moving subject;
A monitoring apparatus comprising: display control means for displaying predetermined information together with the generated panoramic image on a display surface based on a comparison result by the comparison means.
上記差異検出手段は、上記生成されたパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差分値を順次検出し、
上記比較手段は、上記差異検出手段により得られた輝度レベルの差分値を、上記設定された閾値と比較し、
上記表示制御手段は、上記輝度レベルの差分値が上記設定された閾値を超えるときに上記所定の情報を上記表示面へ表示させること
を特徴とする請求項1記載の監視装置。
The difference detection means sequentially detects a difference value of a luminance level between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image. And
The comparison means compares the difference value of the luminance level obtained by the difference detection means with the set threshold value,
The monitoring apparatus according to claim 1, wherein the display control unit displays the predetermined information on the display surface when a difference value of the luminance level exceeds the set threshold value.
上記差異検出手段は、上記収容位置を構成する画像領域を含む単位画像間で輝度レベルの差異を検出すること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, wherein the difference detection unit detects a difference in luminance level between unit images including an image area constituting the accommodation position.
上記比較手段は、上記差異検出手段により検出された輝度レベルの差異を、さらに撮影環境に応じて予め設定された閾値と比較すること
を特徴とする請求項1記載の監視装置。
The monitoring device according to claim 1, wherein the comparison unit compares the difference in luminance level detected by the difference detection unit with a threshold value set in advance in accordance with a photographing environment.
上記輝度レベルの差異を検出する単位画像を選択するための選択手段をさらに備えること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, further comprising selection means for selecting a unit image for detecting the difference in luminance level.
上記設定された閾値を調整するための調整手段をさらに備えること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, further comprising adjusting means for adjusting the set threshold value.
上記比較手段による比較結果を、接続された通信網を介して他の電子機器へ送信する送信手段を備えること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, further comprising: a transmission unit that transmits a comparison result by the comparison unit to another electronic device via a connected communication network.
上記撮影設定手段は、上記収容位置としての座席を捉えるように上記撮影範囲を設定し、
上記比較手段は、上記輝度レベルの差異を、上記移動被写体としての人間の輝度レベルに応じて予め設定された閾値と比較すること
を特徴とする請求項1記載の監視装置。
The shooting setting means sets the shooting range so as to capture the seat as the accommodation position,
The monitoring device according to claim 1, wherein the comparison unit compares the difference in luminance level with a threshold value set in advance according to a luminance level of the human being as the moving subject.
上記パノラマ画像を構成する各単位画像に撮影方向を順次合わせて撮像する撮像手段を更に備えること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, further comprising an imaging unit that sequentially images the unit images constituting the panoramic image in the imaging direction.
上記撮像された単位画像を記録媒体へ記録するサーバをさらに備えること
を特徴とする請求項1記載の監視装置。
The monitoring apparatus according to claim 1, further comprising a server that records the captured unit image on a recording medium.
撮影方向を順次変化させて撮影範囲を撮像することにより生成されたパノラマ画像を監視する監視装置において、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定する撮影設定手段と、
上記生成されたパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で求めた正規化相関値に基づくベクトルを順次検出するベクトル検出手段と、
上記ベクトル検出手段により検出されたベクトルの方向を、先に検出された当該ベクトルとの間で比較する比較手段と、
上記比較手段による比較結果に基づき、上記生成されたパノラマ画像と共に所定の情報を表示面上に表示させる表示制御手段とを備えること
を特徴とする監視装置。
In a monitoring device that monitors a panoramic image generated by imaging a shooting range by sequentially changing shooting directions,
Shooting setting means for setting the shooting range so as to capture a storage position where a moving subject as a monitoring target is stored;
A vector for sequentially detecting a vector based on a normalized correlation value obtained between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image. Detection means;
Comparing means for comparing the direction of the vector detected by the vector detecting means with the previously detected vector;
A monitoring apparatus comprising: display control means for displaying predetermined information together with the generated panoramic image on a display surface based on a comparison result by the comparison means.
上記ベクトル検出手段は、上記収容位置を構成する画像領域を含む単位画像間で上記正規化相関値を求めること
を特徴とする請求項11記載の監視装置。
The monitoring apparatus according to claim 11, wherein the vector detection unit obtains the normalized correlation value between unit images including an image region constituting the accommodation position.
撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視する監視方法において、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、
上記生成したパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、
上記検出した輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、
上記比較した結果に基づき、上記生成したパノラマ画像と共に所定の情報を表示面に表示すること
を特徴とする監視方法。
In a monitoring method for monitoring a panoramic image generated by imaging a shooting range by sequentially changing shooting directions,
Set the shooting range to capture the storage position where the moving subject as the monitoring target is stored,
A difference in luminance level is sequentially detected between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image,
The detected brightness level difference is compared with a threshold set in advance according to the brightness level of the moving subject,
A monitoring method, comprising: displaying predetermined information together with the generated panoramic image on a display surface based on the comparison result.
撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視することをコンピュータに実行させるためのプログラムにおいて、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、
上記生成したパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、
上記検出した輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、
上記比較した結果に基づき、上記生成したパノラマ画像と共に所定の情報を表示面上に表示することをコンピュータに実行させるためのプログラム。
In a program for causing a computer to monitor a panoramic image generated by sequentially changing a shooting direction and imaging a shooting range,
Set the shooting range to capture the storage position where the moving subject as the monitoring target is stored,
A difference in luminance level is sequentially detected between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image,
The detected brightness level difference is compared with a threshold set in advance according to the brightness level of the moving subject,
A program for causing a computer to display predetermined information on a display surface together with the generated panoramic image based on the comparison result.
撮影方向を順次変化させて撮影範囲を撮像することにより生成したパノラマ画像を監視することをコンピュータに実行させるためのプログラムが記録された記録媒体において、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、
上記生成したパノラマ画像を構成する一の単位画像と、当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、
上記検出した輝度レベルの差異を、上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、
上記比較した結果に基づき、上記生成したパノラマ画像と共に所定の情報を表示面上に表示することをコンピュータに実行させるためのプログラムが記録された記録媒体。
In a recording medium recorded with a program for causing a computer to monitor a panoramic image generated by sequentially changing the shooting direction and imaging a shooting range,
Set the shooting range to capture the storage position where the moving subject as the monitoring target is stored,
A difference in luminance level is sequentially detected between one unit image constituting the generated panoramic image and a unit image taken in the same shooting direction before the unit image,
The detected brightness level difference is compared with a threshold set in advance according to the brightness level of the moving subject,
A recording medium on which is recorded a program for causing a computer to display predetermined information on a display surface together with the generated panoramic image based on the comparison result.
撮影方向を順次変化させて撮影範囲を撮像することによりパノラマ画像を生成する撮像装置と、
監視対象としての移動被写体が収容される収容位置を捉えるように上記撮影範囲を設定し、上記生成したパノラマ画像を構成する一の単位画像と当該単位画像よりも先に撮像された同一撮影方向上の単位画像との間で輝度レベルの差異を順次検出し、上記検出した輝度レベルの差異を上記移動被写体の輝度レベルに応じて予め設定された閾値と比較し、上記比較した比較結果を接続された通信網を介して送信する制御装置と、
少なくとも上記制御装置から通信網を介して受信した上記比較結果を表示面に表示させる端末装置とを備えること
を特徴とする監視システム。
An imaging device that generates a panoramic image by imaging a shooting range by sequentially changing shooting directions;
The photographing range is set so as to capture the accommodation position where the moving subject as the monitoring target is accommodated, and one unit image constituting the generated panoramic image and the same photographing direction captured before the unit image are captured. The difference in luminance level between the unit images is sequentially detected, the difference in the detected luminance level is compared with a threshold value set in advance according to the luminance level of the moving subject, and the comparison result is compared. A control device for transmitting via a communication network;
A monitoring system comprising: at least a terminal device that displays the comparison result received from the control device via a communication network on a display surface.
JP2004052031A 2004-02-26 2004-02-26 Monitoring device Expired - Fee Related JP4367177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004052031A JP4367177B2 (en) 2004-02-26 2004-02-26 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004052031A JP4367177B2 (en) 2004-02-26 2004-02-26 Monitoring device

Publications (2)

Publication Number Publication Date
JP2005244626A true JP2005244626A (en) 2005-09-08
JP4367177B2 JP4367177B2 (en) 2009-11-18

Family

ID=35025864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004052031A Expired - Fee Related JP4367177B2 (en) 2004-02-26 2004-02-26 Monitoring device

Country Status (1)

Country Link
JP (1) JP4367177B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210125A (en) * 2010-03-30 2011-10-20 Ns Solutions Corp Information processing unit, display control system, and method of controlling display and program
CN105607627A (en) * 2016-03-17 2016-05-25 盐城工学院 Movie theatre 4D equipment monitoring device and system
CN107181933A (en) * 2017-06-22 2017-09-19 合肥佳洋电子科技有限公司 A kind of cinema's intercom system
WO2018109797A1 (en) * 2016-12-12 2018-06-21 株式会社オプティム Image processing system, image processing method, and program
JP7284331B1 (en) * 2022-09-02 2023-05-30 キヤノンマーケティングジャパン株式会社 Information processing system, information processing system control method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6485709B2 (en) * 2016-05-26 2019-03-20 パナソニックIpマネジメント株式会社 Seat monitoring device, seat monitoring system, and seat monitoring method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210125A (en) * 2010-03-30 2011-10-20 Ns Solutions Corp Information processing unit, display control system, and method of controlling display and program
CN105607627A (en) * 2016-03-17 2016-05-25 盐城工学院 Movie theatre 4D equipment monitoring device and system
WO2018109797A1 (en) * 2016-12-12 2018-06-21 株式会社オプティム Image processing system, image processing method, and program
CN107181933A (en) * 2017-06-22 2017-09-19 合肥佳洋电子科技有限公司 A kind of cinema's intercom system
JP7284331B1 (en) * 2022-09-02 2023-05-30 キヤノンマーケティングジャパン株式会社 Information processing system, information processing system control method and program

Also Published As

Publication number Publication date
JP4367177B2 (en) 2009-11-18

Similar Documents

Publication Publication Date Title
JP4614653B2 (en) Monitoring device
CN100525424C (en) Imaging device and method, and imaging system
JP3849645B2 (en) Monitoring device
US7459685B2 (en) Imaging device and method, computer program product on computer-readable medium, and imaging system
EP1536633A1 (en) Photographing apparatus and method, supervising system, program and recording medium
JP2006013923A (en) Surveillance apparatus
KR101149651B1 (en) Parking lot real time detection system using image analysis of omnidirectional camera and detection method thereof
JP4736381B2 (en) Imaging apparatus and method, monitoring system, program, and recording medium
KR101238989B1 (en) Parking lot real time detection system using image analysis of omnidirectional camera and detection method thereof
US20220353410A1 (en) Apparatus and method for remote image capture with automatic subject selection
JP4367177B2 (en) Monitoring device
JP2004266670A (en) Image pickup device and method, image information providing system and program
JP4449525B2 (en) Monitoring device
JP2004228711A (en) Supervisory apparatus and method, program, and supervisory system
JP4438396B2 (en) Monitoring device
JP4172352B2 (en) Imaging apparatus and method, imaging system, and program
JP4333255B2 (en) Monitoring device
JP2004274735A (en) Imaging apparatus and image processing apparatus
JP7085925B2 (en) Information registration device, information processing device, control method of information registration device, control method of information processing device, system, and program
JP2006014215A (en) Monitoring apparatus
JP2005277582A (en) Panorama imaging apparatus, control program thereof, panorama imaging method, monitoring system, and program recording medium
JP2004266669A (en) Monitoring camera and image pickup method
JP4127080B2 (en) Imaging apparatus and method
JP2005176141A (en) Monitoring apparatus
JP2006054785A (en) Photographic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090817

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees