JP2011071920A - Remote video monitoring system - Google Patents

Remote video monitoring system Download PDF

Info

Publication number
JP2011071920A
JP2011071920A JP2009223369A JP2009223369A JP2011071920A JP 2011071920 A JP2011071920 A JP 2011071920A JP 2009223369 A JP2009223369 A JP 2009223369A JP 2009223369 A JP2009223369 A JP 2009223369A JP 2011071920 A JP2011071920 A JP 2011071920A
Authority
JP
Japan
Prior art keywords
video
encoder
data
camera
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009223369A
Other languages
Japanese (ja)
Other versions
JP2011071920A5 (en
Inventor
Takashi Takeda
隆史 武田
Mitsugu Sasayama
貢 笹山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2009223369A priority Critical patent/JP2011071920A/en
Publication of JP2011071920A publication Critical patent/JP2011071920A/en
Publication of JP2011071920A5 publication Critical patent/JP2011071920A5/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To transfer an abnormal portion in a video to another person so as to easily discriminate the portion. <P>SOLUTION: A monitor camera apparatus, in which a video captured by a camera is video-encoded by an encoder and outputted, and a lookout facility, in which the encoded video is inputted, decoded and reproduced on a display device, are connected communicably over an IP network. The lookout facility includes an input means (mouse, touch panel) for receiving a handwriting operation from a guardian, and a handwriting data transmitting means (personal computer terminal 22, management server 21) for converting data of the received handwriting operation into plotting data and transmitting them to the encoder with a predetermined protocol. The monitor camera apparatus includes the encoder for combining a plotting video signal, which is generated by processing the plotting data from the handwriting data transmitting means, with a signal of the inputted video and then video-encoding the combined signal. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、遠隔映像監視システムに関し、特に操作者の操作に応じた映像の配信を行う遠隔映像監視システムに関する。   The present invention relates to a remote video monitoring system, and more particularly to a remote video monitoring system that distributes video according to an operation of an operator.

従来、監視カメラで撮影した映像を符号化し、IPネットワークを介して監視センタ等に伝送するCCTV(Closed Circuit TeleVsion)システムが知られる(例えば、特許文献1乃至3参照。)。   2. Description of the Related Art Conventionally, CCTV (Closed Circuit TeleVsion) systems are known that encode video captured by a surveillance camera and transmit it to a surveillance center or the like via an IP network (see, for example, Patent Documents 1 to 3).

監視の対象の一例として、道路、河川等の公共建造物が挙げられる。これらの監視では、災害等により異常が発生したときに、映像を見て状況を観察し、必要に応じて現地確認を行い、復旧作業や交通規制、避難等の対応を行うことが考えられる。監視センタにおいて、映像から亀裂や漏水のような異常の兆候を発見した場合には、関係者やパトロール員にその映像を配信する。   Public buildings such as roads and rivers are examples of monitoring targets. In such monitoring, when an abnormality occurs due to a disaster or the like, it is conceivable to observe the situation by watching a video, check the site as necessary, and take measures such as restoration work, traffic regulation, and evacuation. In the monitoring center, when a sign of abnormality such as a crack or water leakage is found from the video, the video is distributed to related persons and patrol personnel.

状況説明のない映像だけの配信では、状況の把握が十分にできない恐れがあり、映像の取扱者にとって監視上便利な文字情報をインポーズした合成画像を表示できると便利である。   If only video without a situation description is distributed, it may not be possible to fully grasp the situation, and it would be convenient to be able to display a composite image with character information that is convenient for monitoring for video handlers.

特許文献1には、監視エリアのカメラ画像データを取得するカメラ装置、及びこのカメラ画像データを符号化した符号化画像データを生成するエンコーダを有するカメラシステムと、インポーズ文字列データを送信する映像管理サーバと、前記符号化画像データに前記インポーズ文字列データを合成して合成画像データを生成すると共に、この合成画像データを復号化して復号画像データを生成するデコーダと、前記復号画像データを受信して前記インポーズ文字列を含むカメラ画像を画面表示する表示装置とを有する映像監視ターミナルと、を備えた映像監視システムが開示されている。   Patent Document 1 discloses a camera system that acquires camera image data in a surveillance area, a camera system that includes an encoder that generates encoded image data obtained by encoding the camera image data, and a video that transmits impose character string data. A management server, a decoder for synthesizing the impose character string data with the encoded image data to generate composite image data, a decoder for decoding the composite image data to generate decoded image data, and the decoded image data There is disclosed a video monitoring system including a video monitoring terminal having a display device that receives and displays a camera image including the imposed character string on a screen.

特許文献2には、カメラや文字信号発生部を有する複数の監視装置が、ネットワークを介して外部から受信した監視コードに対応する警報文字を前記カメラの映像に重畳して、映像集配装置にネットワークを介して送信する監視システムが開示されている。   In Patent Document 2, a plurality of monitoring devices having a camera and a character signal generation unit superimpose alarm characters corresponding to a monitoring code received from the outside via a network on the video of the camera, and connect the network to the video collection and delivery device. A monitoring system is disclosed for transmitting over the network.

この他、本発明に関連する技術として、無線式のリモコンによりモニター表示器を操作可能な無線制御モニター装置が知られる(例えば、特許文献4参照。)。   In addition, as a technique related to the present invention, there is known a wireless control monitor device capable of operating a monitor display by a wireless remote controller (see, for example, Patent Document 4).

特開2007−67974号公報JP 2007-67974 A 特開2005−136557号公報JP 2005-136557 A 特開2004−96197号公報JP 2004-96197 A 特開2002−112247号公報JP 2002-112247 A

映像に異常兆候があっても、熟練した監視員以外は、映像中のどこに異常があるのか容易に判らない場合がある。しかしながら、特許文献1や2の監視システムでは、監視映像に重畳できるのは文字であり、手書き入力された図形等は表示できないため、映像中の異常な部分を指し示すような使い方ができないという問題があった。
また、文字を映像に重畳させるとしても、監視センタでも通常はほとんど使用しないキーボード等から文字を入力しなければならず、またキーボードを有しない携帯通信端末等も考慮すると、映像に応じた機敏な入力が難しいという問題があった。
Even if there are signs of anomalies in the video, it may not be easy to know where the anomalies are in the video, except for experienced observers. However, in the monitoring systems of Patent Documents 1 and 2, characters can be superimposed on the monitoring video, and handwritten input graphics and the like cannot be displayed. Therefore, there is a problem that it cannot be used to indicate an abnormal part in the video. there were.
Even if characters are superimposed on the video, characters must be input from a keyboard or the like that is rarely used even in a surveillance center, and if a mobile communication terminal or the like that does not have a keyboard is taken into account, it is agile. There was a problem that input was difficult.

本発明は、上記の事情に鑑みてなされたもので、映像中の異常な部分を関係者等に容易に判るように伝達する遠隔映像監視システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a remote video monitoring system that transmits an abnormal part in a video so that it can be easily understood by a person concerned.

本発明の遠隔映像監視システム。   The remote video surveillance system of this invention.

本発明によれば、監視者による任意図形等の入力操作を受け付けて、その任意図形等を映像の配信元で重畳してから映像符号化するようにしたので、映像中の異常な部分を容易に他の映像閲覧者に指し示すことができる。   According to the present invention, an input operation of an arbitrary graphic or the like by a supervisor is accepted, and the arbitrary graphic or the like is superimposed on the video distribution source and then encoded, so that an abnormal portion in the video can be easily processed. Can point to other video viewers.

監視システム1の構成図(実施例1、2)Configuration diagram of monitoring system 1 (Examples 1 and 2) エンコーダ13の機能ブロック図(実施例1、2)Functional block diagram of the encoder 13 (first and second embodiments) パソコン端末22等で入力操作された描画データが、エンコーダ13で監視カメラ映像に重畳されるまで流れを示すフローチャート(実施例1、2)The flowchart which shows a flow until the drawing data input-inputted with the personal computer terminal 22 etc. are superimposed on the surveillance camera image | video by the encoder 13 (Example 1, 2). 無線リモコン26の外観図(実施例1)External view of wireless remote control 26 (Example 1) Javaアプリを起動させた状態の携帯通信端末40の画面表示例(実施例2)Example of screen display of mobile communication terminal 40 in a state where a Java application is activated (Example 2)

以下、本発明の遠隔映像監視システムの実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of a remote video monitoring system of the present invention will be described with reference to the drawings.

図1は、実施例1に係る監視システム1の構成図である。   FIG. 1 is a configuration diagram of a monitoring system 1 according to the first embodiment.

監視システム1は、複数の監視カメラ装置10と、監視員が監視を行う監視所20によって構築される。監視カメラ装置10のそれぞれと監視所20とは、IPネットワーク30で接続されている。
監視カメラ装置10は、雲台カメラ11、雲台カメラ制御器12、エンコーダ13、伝送装置14から構成されている。
The monitoring system 1 is constructed by a plurality of monitoring camera devices 10 and a monitoring station 20 where monitoring personnel monitor. Each of the monitoring camera devices 10 and the monitoring station 20 are connected by an IP network 30.
The surveillance camera device 10 includes a camera platform camera 11, a camera platform camera controller 12, an encoder 13, and a transmission device 14.

雲台カメラ11は、電動雲台と一体化された監視用ビデオカメラであり、撮像した映像をアナログ信号で雲台カメラ制御器12に出力する。また雲台カメラ制御器12からの雲台制御信号に従い、雲台のパンチルトやズームを駆動して、撮像範囲(画各)を所望の向き及び倍率にする。   The pan head camera 11 is a surveillance video camera integrated with an electric pan head, and outputs the captured image to the pan head camera controller 12 as an analog signal. Further, in accordance with a pan head control signal from the pan head camera controller 12, pan head tilt and zoom are driven to set the imaging range (each image) in a desired direction and magnification.

雲台カメラ制御器12は、雲台カメラ11と専用のケーブルで接続され、雲台カメラ制御器12からのアナログ映像信号を、標準的なアナログ映像信号にしてエンコーダに出力する。また伝送装置14を介して受信した制御コマンドパケットに従い、雲台制御コマンドや、カメラ制御コマンドを雲台カメラ11に出力するとともに、それらコマンドの応答を雲台カメラ11から受信して制御元に応答パケットとして送出する。カメラ制御コマンドは、AGC(自動利得制御)やホワイトバランス、自動電子シャッター等を設定したり、カメラをセルフチェックするためものである。   The pan / tilt camera controller 12 is connected to the pan / tilt camera 11 with a dedicated cable, and the analog video signal from the pan / tilt camera controller 12 is converted into a standard analog video signal and output to the encoder. In addition, according to the control command packet received via the transmission device 14, the pan head control command and the camera control command are output to the pan head camera 11, and responses to these commands are received from the pan head camera 11 and responded to the control source. Send out as a packet. The camera control command is used to set AGC (automatic gain control), white balance, automatic electronic shutter, etc., and to self-check the camera.

エンコーダ13は、アナログビデオ入力端子とネットワークインタフェースを備え、監視カメラ11が撮影した映像のアナログ信号を、監視所20からの映像要求に応じて映像符号化データに変換しIPパケット化して出力するネットワーク機器であり、ビデオIPサーバ等とも呼ばれる。RTSP等を用いたライブ映像(動画)の送信の他、HTTP等を用いた静止画の送信機能も有している。本実施例では、監視所20から受信した重畳画像データを監視カメラ11が撮影した映像にオーバレイさせてから、映像符号化を行うことが特徴である。   The encoder 13 includes an analog video input terminal and a network interface. The encoder 13 converts an analog signal of a video captured by the monitoring camera 11 into video encoded data in response to a video request from the monitoring station 20, and outputs the IP packet as an IP packet. It is a device and is also called a video IP server or the like. In addition to transmitting live video (moving images) using RTSP or the like, it also has a function of transmitting still images using HTTP or the like. The present embodiment is characterized in that video coding is performed after overlaying image data received from the monitoring station 20 is overlaid on video captured by the monitoring camera 11.

伝送装置14は、雲台カメラ制御器12及びエンコーダ13をIPネットワーク30に接続しIP通信を行えるようにする装置であり、ハブ装置、ネットワークスイッチ(L2/L3)、ルータ、イーサネット(商標)−SDH(Synchronous Digital Hierarchy)変換器等を適宜用いる。   The transmission device 14 is a device that connects the camera platform camera controller 12 and the encoder 13 to the IP network 30 to perform IP communication. The transmission device 14 is a hub device, a network switch (L2 / L3), a router, Ethernet (trademark)- An SDH (Synchronous Digital Hierarchy) converter or the like is appropriately used.

次に監視所20について説明する。監視所20には、管理サーバ21、パソコン端末22、デコーダ23、大型表示装置24、無線操作中継装置25、無線リモコン26、伝送装置27、ルータ28が設置され、各装置は監視所LAN29で接続されている。   Next, the monitoring station 20 will be described. The monitoring station 20 is provided with a management server 21, a personal computer terminal 22, a decoder 23, a large display device 24, a wireless operation relay device 25, a wireless remote controller 26, a transmission device 27, and a router 28. Has been.

管理サーバ21は、監視システム全体を管理するサーバであり、監視員によるパソコン端末22や無線リモコン26からの各種操作による信号や操作権を問合せる信号や、監視カメラ装置10からのアラーム信号を受信し、それに応じて監視カメラ装置10やデコーダ23を制御したり、操作権の情報や映像の受信に必要な情報を要求元のパソコン端末22等に通知したり、回転灯等(図示せず)を作動させて発報したりする。監視カメラ装置10やパソコン端末22、デコーダとの制御上の通信には、例えばONVIF(Open Network Video Interface Forum Core Specification Version 1.0
2008年11月)を利用でき、無線リモコン26(無線操作中継装置25)との通信には、より単純なプロトコルを利用できる。
また、携帯通信端末(図示せず)への映像(静止画も含む)の配信を行うための、メールサーバ機能やWebサーバ機能を有してもよい。
The management server 21 is a server that manages the entire monitoring system, and receives signals from the personal computer terminal 22 and the wireless remote control 26 by the monitoring personnel and signals for inquiring operation rights, and alarm signals from the monitoring camera device 10. In response to this, the surveillance camera device 10 and the decoder 23 are controlled, the operation right information and the information necessary for receiving the video are notified to the requesting personal computer terminal 22 and the like, and a rotating lamp (not shown) is provided. It can be activated to trigger a report. For control communication with the monitoring camera device 10, the personal computer terminal 22, and the decoder, for example, ONVIF (Open Network Video Interface Forum Core Specification Version 1.0).
November 2008), and a simpler protocol can be used for communication with the wireless remote controller 26 (wireless operation relay device 25).
Moreover, you may have a mail server function and a web server function for delivering the image | video (a still image is also included) to a portable communication terminal (not shown).

パソコン端末22は、監視員が使用する端末であり、ソフトウェアデコード機能を有し、任意の複数の監視カメラ装置10の雲台カメラ制御器12やエンコーダ13に直接あるいは管理サーバ21を介して映像要求をし、映像を周期的或いは巡回的に受信して、それらを選択可能に一覧表示(タイル表示)したり、選択された映像1つを全画面表示したり、雲台を操作したりする。またエンコーダ13あるいはデコーダ23に、直接あるいは管理サーバ21を介してアクセスし、デコーダ23が受信すべき映像の指示等の操作を行う。なお、パソコン端末22は複数台備えられ得るが、デコーダの表示出力を変更操作できるのは、特定の1台のみとする。
本実施例の特徴として、パソコン端末22は更に、画面に表示されるポインタをマウス等で操作することで、表示された映像上に任意の線を描画するとともに、描画された線のデータ(ラスターあるいはベクトルイメージデータ)を圧縮して、エンコーダに送信する。
The personal computer terminal 22 is a terminal used by an observer, has a software decoding function, and requests a video request directly or via the management server 21 to the camera platform camera controller 12 or the encoder 13 of any of a plurality of surveillance camera devices 10. The images are received periodically or cyclically and displayed in a list (tile display) so that they can be selected, one selected image is displayed in full screen, or the pan head is operated. Further, the encoder 13 or the decoder 23 is accessed directly or via the management server 21, and the decoder 23 performs an operation such as an instruction of a video to be received. A plurality of personal computer terminals 22 can be provided, but only one specific terminal can change the display output of the decoder.
As a feature of the present embodiment, the personal computer terminal 22 further draws an arbitrary line on the displayed video by operating a pointer displayed on the screen with a mouse or the like, and data of the drawn line (raster Alternatively, vector image data) is compressed and transmitted to the encoder.

デコーダ23は、複数の監視カメラ装置10から送信される映像符号化データを受信して復号し、それらの映像をタイル状に結合して、RGB信号等の汎用のインターフェースで大型表示装置24に出力する、HD対応型の映像復号化装置である。デコーダ23は、パソコン端末22に指示された映像を受信できるように自らエンコーダ13に映像要求してもよく、単に自身のIPアドレス宛に送られてきた映像を復号するようにしてもよい。   The decoder 23 receives and decodes the encoded video data transmitted from the plurality of surveillance camera devices 10, combines these images in a tile shape, and outputs them to the large display device 24 by a general-purpose interface such as an RGB signal. This is an HD compatible video decoding device. The decoder 23 may request the encoder 13 to receive the video instructed to the personal computer terminal 22 or may simply decode the video sent to its own IP address.

大型表示装置24は、1920×1080画素の高解像度の映像を表示することができる。
無線操作中継装置25は、ZigBee―IPゲートウェイであり、IEEE802.15.4として規格化された無線ネットワークと、IPネットワークとの間で通信できるように、アドレス変換やプロトコル変換等を行う。必要に応じ、IPネットワーク上の通信相手となる管理サーバ21等のIPアドレスを記憶する。
The large display device 24 can display a high-resolution image of 1920 × 1080 pixels.
The wireless operation relay device 25 is a ZigBee-IP gateway, and performs address conversion, protocol conversion, and the like so that communication can be performed between a wireless network standardized as IEEE802.15.4 and an IP network. If necessary, the IP address of the management server 21 or the like as a communication partner on the IP network is stored.

無線リモコン26は、パソコン端末22が行うことができる操作機能の一部を有し、ボタンの押下により、操作対象の監視カメラ装置10を選択し、雲台やズーム、フォーカス等を操作する。
無線リモコン26は例えば、パソコン端末22が用いるものと同じ形態の制御コマンド(ONVIFのSOAPメッセージ)をIPパケット化(ヘッダは未完成でもよい)し、無線ネットワークに送出する。操作コマンドは無線操作中継装置25のネットワーク層ゲートウェイ機能により完全なIPパケットになって、エンコーダ13やデコーダ23等に伝送される。あるいは、無線リモコン26等においてパソコン端末22が用いる操作コマンド(或いは無線リモコン26の各ボタン類)に対応するApplication Objectを定義しておき、無線リモコン26は、ボタン押下時にこのObjectを利用してメッセージを送信し、無線操作中継装置25のアプリケーションがこのメッセージを操作コマンドに変換してそのメッセージ(Object)に対応付けれたURIを宛先としてIPネットワークに送出する。このとき変換される操作コマンドは、パソコン端末22が用いるものと同じでくても管理サーバ21で解釈できればよく、より単純な数バイトのキーコードのようなものでもよい。
The wireless remote controller 26 has a part of the operation functions that can be performed by the personal computer terminal 22, and selects a monitoring camera device 10 to be operated by pressing a button, and operates a pan head, zoom, focus, and the like.
For example, the wireless remote controller 26 converts the control command (ONVIF SOAP message) in the same form as that used by the personal computer terminal 22 into an IP packet (the header may be incomplete) and sends it to the wireless network. The operation command becomes a complete IP packet by the network layer gateway function of the wireless operation relay device 25 and is transmitted to the encoder 13 and the decoder 23. Alternatively, an Application Object corresponding to an operation command (or each button of the wireless remote control 26) used by the personal computer terminal 22 in the wireless remote control 26 or the like is defined, and the wireless remote control 26 uses this Object to send a message when the button is pressed. And the application of the wireless operation relay device 25 converts this message into an operation command, and sends the URI associated with the message (Object) to the IP network as a destination. The operation command converted at this time may be the same as that used by the personal computer terminal 22 as long as it can be interpreted by the management server 21 and may be a simpler key code of several bytes.

伝送装置27は、伝送装置14と同様の装置であり、監視所LAN29をIPネットワーク30に接続する。
ルータ28は、監視所LAN29をインターネットや携帯電話のパケット網等に接続する。
The transmission device 27 is the same device as the transmission device 14 and connects the monitoring station LAN 29 to the IP network 30.
The router 28 connects the monitoring station LAN 29 to the Internet, a cellular phone packet network, or the like.

図2は、エンコーダ13の機能ブロック図である。実際には、符号31、32、40、44、45以外のブロックは、DSP等のソフトウェア実行手段で実現される。また、各ブロックには、一時メモリや不揮発メモリを要するものがあるが、図示を省略した。
AFE(Analog Front-End)31は、コンポジットビデオ信号等を入力し、A/D変換後、くし型フィルタやノッチフィルタによるY−C分離、クロマ処理等を行う。
デインタレース部32は、AFE31から入力されたインタレース映像をプログレッシブ映像に変換する。
FIG. 2 is a functional block diagram of the encoder 13. Actually, blocks other than the reference numerals 31, 32, 40, 44, and 45 are realized by software execution means such as a DSP. Each block requires a temporary memory or a non-volatile memory, but the illustration is omitted.
An AFE (Analog Front-End) 31 inputs a composite video signal or the like, performs A / D conversion, Y-C separation by a comb filter or notch filter, chroma processing, and the like.
The deinterlace unit 32 converts the interlaced video input from the AFE 31 into a progressive video.

映像処理部33は、デインタレース部32から入力された映像信号に対して、視覚的ダイナミックレンジ拡張作用があるニー補正、ゆれ補正、超解像処理、デジタルズーム(部分切り出し)等、デジタル信号処理による各種映像変換を行う。
OSD(On Screen Display)部34は、映像処理部33から入力された映像信号に、監視所20から送られてきた描画データに基づいて生成した描画映像信号を合成(スーパインポーズ)して出力する。
The video processing unit 33 performs digital signal processing on the video signal input from the deinterlacing unit 32, such as knee correction, shake correction, super-resolution processing, digital zoom (partial cutout), etc. that have a visual dynamic range expansion function. Performs various video conversions.
An OSD (On Screen Display) unit 34 synthesizes (superimposes) a drawing video signal generated based on the drawing data sent from the monitoring station 20 with the video signal input from the video processing unit 33 and outputs the resultant signal. To do.

映像符号化部35は、OSD部34から入力された映像信号をJPEG、MPEG4、H.264等の方式で符号化し、符号化映像データを出力する。符号化方式やフレームレート等のパラメータは制御部42(後述)から与えられる。
メモリ36は、現在から過去一定量の符号化映像データを常時記憶するリングバッファであり、RTP処理部に読み出された後も最新の映像に上書きされるまで保持されるので、プリアラーム録画や、通信速度変動への対処に用いられる。
The video encoding unit 35 converts the video signal input from the OSD unit 34 into JPEG, MPEG4, H.264. H.264 or the like is used to output encoded video data. Parameters such as an encoding method and a frame rate are given from the control unit 42 (described later).
The memory 36 is a ring buffer that always stores a predetermined amount of encoded video data from the present, and is stored until it is overwritten with the latest video after being read by the RTP processing unit. Used to cope with communication speed fluctuations.

RTP処理部37は、メモリ36から符号化映像データを順次読み出してRTPパケット化し、トンネル処理部38(後述)に出力する。RTCPの送信者レポートや受信レポートをトンネル処理部38を介して監視所20側と送受信し、RTPパケット化のレートを制御する。パケット化のサイズは、後段のカプセル化(トンネリング処理)のオーバヘッドを見込んで1500バイト以下に調整する。RTP処理部37は、制御部42からの指示により、レートを固定にしたり、RTPパケット化せずに読み出した符号化映像データをそのまま出力したりする。   The RTP processing unit 37 sequentially reads the encoded video data from the memory 36 to form an RTP packet, and outputs the packet to the tunnel processing unit 38 (described later). An RTCP sender report and reception report are transmitted to and received from the monitoring station 20 via the tunnel processing unit 38 to control the rate of RTP packetization. The packetization size is adjusted to 1500 bytes or less in consideration of the subsequent encapsulation (tunneling processing) overhead. In response to an instruction from the control unit 42, the RTP processing unit 37 fixes the rate or outputs the encoded video data read without being converted into RTP packets.

トンネル処理部38は、RTSPやHTTPプロトコル機能を有し、RFC2326の“10.12 Embedded (Interleaved) Binary Data”の規定に従い、RTPパケットやRTCPパケットを1つずつ、”$”文字で始まる簡易なヘッダを付してカプセル化する。RTSPトンネリングのみ用いる場合は、このデータをRTSPのポート番号を指定してL2−l3処理部39(後述)に出力する。HTTPトンネリングを行う場合は、生のあるいはカプセル化さらたRTP(RTCP)パケットに、HTTPヘッダを付してカプセル化したhttpメッセージとして、HTTPのポート番号を指定してL2−l3処理部39に送出する。逆に受信の際は、これと反対の処理を行う。   The tunnel processing unit 38 has RTSP and HTTP protocol functions, and in accordance with the provisions of RFC2326 “10.12 Embedded (Interleaved) Binary Data”, each RTP packet or RTCP packet is a simple header starting with a “$” character. Add and encapsulate. When only RTSP tunneling is used, this data is output to the L2-l3 processing unit 39 (described later) by designating the RTSP port number. When performing HTTP tunneling, the HTTP port number is specified and sent to the L2-l3 processing unit 39 as an http message encapsulated in a raw or encapsulated RTP (RTCP) packet with an HTTP header. To do. On the contrary, when receiving, the opposite process is performed.

L2−L3処理部39は、ソケット通信を提供するものであり、トンネル処理部38等から入力されたデータをTCPやUDPでパケット化し、更にIPパケット化してLAN
I/F40(後述)に出力するとともに、LAN I/F40から受け取ったIPパケットに対してはこれと逆の処理をし、バインドされたコネクション毎に振り分けてトンネル処理部38等に出力する。
LAN I/F40は、IPネットワーク30に応じたMAC層及び物理層の処理を行う。
The L2-L3 processing unit 39 provides socket communication, and data input from the tunnel processing unit 38 or the like is packetized by TCP or UDP, and further converted into an IP packet to be converted into a LAN.
In addition to being output to the I / F 40 (described later), the IP packet received from the LAN I / F 40 is processed in the reverse manner, distributed to each bound connection, and output to the tunnel processing unit 38 and the like.
The LAN I / F 40 performs MAC layer and physical layer processing according to the IP network 30.

HTTP処理部41は、HTTP(及びHTTPS)サーバ機能を有し、RTSPのセッション開始に必要なメタファイルの送信や、エンコーダ13の各種設定を行うWebページの提供を行う。HTTP処理部41は、cgiパラメータによる設定変更や、POSTメソッドによるデータ送信(OSD描画データ)を監視所20のパソコン端末22等から受け付け、制御部42に渡す。例えば、パソコン端末22は、下記の2行で始まるヘッダを有するHTTPリクエストメッセージを送信する。
GET cgi-bin/ctrl.cgi?(設定項目名)=(設定値)
Host: www.******.ne.jp
HTTP処理部41はまた、HTTPトンネリングで受信した、雲台制御コマンドやカメラ制御コマンドを、デカプセル化して、プロトコル変換部43(後述)に渡すとともに、プロトコル変換部43から受け取った雲台制御コマンド等に対してその逆の処理をする(本実施例では使用しない)。
The HTTP processing unit 41 has an HTTP (and HTTPS) server function, and provides a web page for transmitting a metafile necessary for starting an RTSP session and performing various settings of the encoder 13. The HTTP processing unit 41 accepts a setting change by the cgi parameter and data transmission (OSD drawing data) by the POST method from the personal computer terminal 22 of the monitoring station 20 and passes them to the control unit 42. For example, the personal computer terminal 22 transmits an HTTP request message having a header starting with the following two lines.
GET cgi-bin / ctrl.cgi? (Setting item name) = (Setting value)
Host: www. ******. Ne.jp
The HTTP processing unit 41 also decapsulates the camera platform control command and the camera control command received by HTTP tunneling and passes them to the protocol conversion unit 43 (described later). The camera platform control command received from the protocol conversion unit 43, etc. The reverse process is performed for (not used in this embodiment).

制御部42は、エンコーダ13全体の動作を司る部分であり、HTTP処理部41が受け付けた各種設定やデータを、映像符号化部35、OSD部33等に出力して、設定を反映させる。
プロトコル変換部43は、接続される雲台カメラのコマンド体系に合うように、雲台制御コマンドやカメラ制御コマンドを変換する。
The control unit 42 is a part that controls the operation of the entire encoder 13, and outputs various settings and data received by the HTTP processing unit 41 to the video encoding unit 35, the OSD unit 33, and the like to reflect the settings.
The protocol conversion unit 43 converts the pan head control command and the camera control command so as to match the command system of the connected pan head camera.

RS―485I/F44は、プロトコル変換部43が変換したコマンド等を雲台カメラ等と双方向に通信するための物理インタフェースを提供する。
接点I/O45は、雲台カメラ11付近に設けられる人感センサ等や緊急ボタン等の信号を入力したり、雲台カメラのワイパーやデフロスタ、あるいは警報ブザー等のON/OFF制御信号を出力したりするための、汎用の接点入出力回路であり、制御部42により制御される。プロトコル変換部43やRS―485I/F44は、雲台カメラ制御器12に備えられるものと同じであり、本例では特に使用しない。
The RS-485 I / F 44 provides a physical interface for bidirectionally communicating a command or the like converted by the protocol conversion unit 43 with a pan head camera or the like.
The contact I / O 45 inputs signals such as a human sensor provided in the vicinity of the pan head camera 11 and an emergency button, and outputs ON / OFF control signals such as a wiper and a defroster of the pan head camera or an alarm buzzer. Is a general-purpose contact input / output circuit, and is controlled by the control unit 42. The protocol conversion unit 43 and the RS-485 I / F 44 are the same as those provided in the pan / tilt camera controller 12, and are not particularly used in this example.

音声符号化部46は、雲台カメラ11付近に設けられるマイク等から入力される音声信号を、ADPCM等の方式で符号化した音声符号化データを出力する。
メモリ47は、メモリ36同様のリングバッファである。
なお、トンネル処理部38において、映像符号化データと音声符号化データのRTPパケット等は、1つのコネクションあるいはセッションにまとめられる場合がある。
The voice encoding unit 46 outputs voice encoded data obtained by encoding a voice signal input from a microphone or the like provided near the camera platform 11 by a method such as ADPCM.
The memory 47 is a ring buffer similar to the memory 36.
Note that in the tunnel processing unit 38, RTP packets of video encoded data and audio encoded data may be combined into one connection or session.

音声復号化部48は、パソコン端末22等から送信されRTP処理部37を介して受け取ったRTPパケット等を復号化し、アナログ音声信号に変換して出力する。この音声出力は、雲台カメラ11付近に設けられるスピーカ等に接続される。   The voice decoding unit 48 decodes an RTP packet or the like transmitted from the personal computer terminal 22 or the like and received via the RTP processing unit 37, converts it into an analog voice signal, and outputs it. This audio output is connected to a speaker or the like provided near the pan head camera 11.

図3は、パソコン端末22等で入力操作された描画データが、エンコーダ13で監視カメラ映像に重畳されるまで流れを示すフローチャートである。
ステップS101において、パソコン端末22は、マウスやタブレット等のポインティングデバイスからの入力を受け付ける。これは、OSやデバイスドライバにより実現され、この入力イベントによりこのフローが開始する。例えば、OSが米国マイクロソフト社のWindows XPであれば、画面に表示されるウィンドウ内に、自由曲線、矢印、矩形枠、文字等の描画入力指示のボタンコントロールをそれぞれ設けておく。
FIG. 3 is a flowchart showing a flow until drawing data input by the personal computer terminal 22 or the like is superimposed on the surveillance camera video by the encoder 13.
In step S101, the personal computer terminal 22 receives an input from a pointing device such as a mouse or a tablet. This is realized by the OS or device driver, and this flow is started by this input event. For example, if the OS is Windows XP of Microsoft Corporation in the United States, button controls for drawing input instructions such as a free curve, an arrow, a rectangular frame, and a character are provided in a window displayed on the screen.

ステップS102において、パソコン端末22は、ステップS101で受け付けた入力が描画入力か否かを判断する。例えば、User32.dll等で提供されるAPIを利用することにより、自由曲線のボタンコントロールからの押下メッセージ後に、マウスの左ボタンが押された状態でマウスの座標が変化したかどうか(つまり直近の処理済の座標を受け取った後、マウスの左ボタンが離されたというイベントを挟まないで、現在の座標を受け取っかどうか)を判断する。あるいは、矢印(矩形)のボタンコントロールからの押下メッセージ後に、マウスの左ボタンが押され、その後異なるの座標に移動して左ボタンが離されたかを判断する。描画入力でないと判断した場合、このフローの処理は終了する。   In step S102, the personal computer terminal 22 determines whether or not the input accepted in step S101 is a drawing input. For example, by using the API provided by User32.dll etc., whether or not the coordinates of the mouse have changed with the left mouse button pressed after the press message from the button control of the free curve (that is, the latest After receiving the processed coordinates, it is determined whether or not the current coordinates are received without pinching the event that the left button of the mouse is released. Alternatively, after a press message from the arrow (rectangular) button control, it is determined whether the left button of the mouse has been pressed and then moved to a different coordinate to release the left button. If it is determined that the input is not a drawing input, the processing of this flow ends.

ステップS103において、パソコン端末22は、描画入力に従って、その描画入力に軌跡を画面に表示する。例えば、GDIオブジェクトを作成しておき、直近の処理済の座標と現在の座標を結ぶような直線を描画するAPI関数を用いて描画する。なお、マウス等による描画入力のほか、テレメータ等で取得した数値から自動生成した文字や図形等を、描画入力同様に映像に重畳させて表示するようにしてもよい。   In step S <b> 103, the personal computer terminal 22 displays a locus for the drawing input on the screen according to the drawing input. For example, a GDI object is created and drawn using an API function that draws a straight line connecting the latest processed coordinates and the current coordinates. In addition to drawing input using a mouse or the like, characters, figures, or the like automatically generated from numerical values acquired by a telemeter or the like may be displayed superimposed on the video in the same manner as drawing input.

ステップS104において、パソコン端末22は、描画入力(自動生成文字/図形を含む)あるいはその描画結果のデータをデータ形式を適宜変換して、描画データとして、映像の送信元の監視カメラ装置10のエンコーダ13に送信する。データ形式としては、S103で描画する直線と同様に2点の座標を指定するもの(ベクトルデータ)や、GDIオブジェクトから取得できるビットマップ(表示すべき全ての描画入力が反映されている)をLZH形式で圧縮したもの等が利用できる。また、線の色、太さ等の情報を含んでもよい。これらの描画データは、HTTPのPOSTあるいはPUTメッセージに同封するか、GETメッセージ等のcgiパラメータとして与えて、エンコーダ13のURI宛に送信する。   In step S104, the personal computer terminal 22 appropriately converts the data format of the drawing input (including automatically generated characters / graphics) or the drawing result data, and uses it as drawing data as the encoder of the monitoring camera device 10 that is the transmission source of the video. 13 to send. As the data format, LZH that specifies coordinates of two points (vector data) in the same manner as the straight line drawn in S103, or a bitmap that can be acquired from a GDI object (all drawing inputs to be displayed are reflected) The one compressed in the format can be used. Information such as line color and thickness may also be included. These drawing data are enclosed in an HTTP POST or PUT message, or given as cgi parameters such as a GET message, and transmitted to the URI of the encoder 13.

ステップS105において、描画入力された現在の座標を、直近の処理済の座標として保存する。   In step S105, the current coordinates input by drawing are stored as the most recently processed coordinates.

ステップS106において、エンコーダ13のHTTP処理部41は、S105でパソコン端末22から送信されたHTTPメッセージを受信し、描画データを制御部41に渡すか、一時メモリ(不図示)に保存する。また受信に対する応答メッセージを返信する。受信した描画データにおいて線の色、太さ等が指定されていない場合、デフォルトの値を適用する。これらの指定のない描画データが、異なる複数のパソコン端末22等から送信されHTTP処理部41で受信された場合は、後から描画データを受信したパソコン端末22のデフォルト値を、先に描画データを受信していたパソコン端末22のデフォルト値とは、自動的に異ならせて設定する。   In step S106, the HTTP processing unit 41 of the encoder 13 receives the HTTP message transmitted from the personal computer terminal 22 in S105, and passes the drawing data to the control unit 41 or stores it in a temporary memory (not shown). A response message to the reception is returned. If the line color, thickness, etc. are not specified in the received drawing data, the default values are applied. When drawing data without these designations is transmitted from a plurality of different personal computer terminals 22 and received by the HTTP processing unit 41, the default value of the personal computer terminal 22 that received the drawing data later is changed to the drawing data first. The default value of the received personal computer terminal 22 is automatically set differently.

ステップS107において、制御部41は、S105で受信した描画データを処理して、OSD部33のビデオメモリ(1フレーム分のビットマップ)に書き込む。書き込むタイミングは、映像符号化部35がIピクチャ(IDRピクチャ)で符号化するフレームの直前とする。そして、雲台のパンチルトやズームが駆動された時点で、ビデオメモリを全て消去する(自動生成文字/図形はこの限りではない)。
OSD部33は、Iピクチャに同期してその整数倍の周期で、ビデオメモリに書き込まれた描画データのカラーテーブルを変化させてもよい。これにより描画データを点滅等させて視認性を高めることができる。
In step S <b> 107, the control unit 41 processes the drawing data received in S <b> 105 and writes it in the video memory (bit map for one frame) of the OSD unit 33. The writing timing is immediately before the frame that the video encoding unit 35 encodes with an I picture (IDR picture). When the pan / tilt or zoom of the pan / tilt head is driven, the entire video memory is erased (automatically generated characters / graphics are not limited to this).
The OSD unit 33 may change the color table of the drawing data written in the video memory in an integer multiple cycle in synchronization with the I picture. Thereby, the visibility can be improved by blinking the drawing data.

図4は、無線リモコン26の外観図である。無線リモコン26は、箱型の外形であり、操作面となる上面に、電源ボタン51と、多画面表示ボタン52と、1対の映像選択ボタン53と、INITIALボタン54と、WIPERボタン55と、LIGHTボタン56と、1対のFOCUSボタン57と、1対のZOOMボタン58と、雲台制御十字キー59と、0〜9に対応するPRESETボタン群60と、LED61とを有している。また、顕示手段62(不図示)を内蔵している。大勢で閲覧する大型表示装置24等の表示を直接操作することも想定し、画面上にガイダンス等は表示させず、ボタン類の1回の押下で直接的に操作が反映されるようになっている。   FIG. 4 is an external view of the wireless remote controller 26. The wireless remote control 26 has a box-shaped outer shape. On the upper surface serving as an operation surface, a power button 51, a multi-screen display button 52, a pair of video selection buttons 53, an INITIAL button 54, a WIPER button 55, It has a LIGHT button 56, a pair of FOCUS buttons 57, a pair of ZOOM buttons 58, a pan head control cross key 59, a PRESET button group 60 corresponding to 0 to 9, and an LED 61. Moreover, the revealing means 62 (not shown) is incorporated. Assuming that the display of the large display device 24 or the like to be viewed in large numbers is directly operated, the guidance is not displayed on the screen, and the operation is directly reflected by pressing the buttons once. Yes.

電源ボタン51は、無線リモコン26の電源を入切するボタンである。LED61は、電源ボタン51および電源入り時には他の全てのボタンを押下したときに、一定時間点灯する。   The power button 51 is a button for turning on / off the power of the wireless remote controller 26. The LED 61 lights for a certain time when the power button 51 and all other buttons are pressed when the power is turned on.

多画面表示ボタン52は、押下するたびに、画面表示の形態を1画面表示か多画面表示かを切り替えるものである。
映像選択ボタン53は、1画面表示中は、表示対象の監視カメラ装置10を複数の中から所定の順序で1つずつ順送りあるいは逆送りするものであり、多画面表示中は現に表示中の複数の映像内で、1つを選択するためのものである。後者の選択操作は、選択された映像に一定時間、枠がついて表示されることで画面上に反映される。
Each time the multi-screen display button 52 is pressed, the screen display mode is switched between single-screen display and multi-screen display.
The video selection button 53 is to forward or reverse the monitoring camera device 10 to be displayed one by one in a predetermined order one by one during a one-screen display, and during a multi-screen display, This is for selecting one of the images. The latter selection operation is reflected on the screen by displaying the selected image with a frame for a certain period of time.

INITIALボタン54は、画面表示を初期状態に戻すためのものであり、例えば、短く押したときは、所定の監視カメラ装置10の所定のプリセットにおける映像を表示するようにし、長く押したときは、エンコーダ13やデコーダ23や雲台カメラ制御器12、雲台カメラ11にリセット信号を送り、その後無線リモコン26自身もリセットして以前の操作を全て解除してから、上記同様の表示をする。なお、プリセットとは、同じ画各でいつでも撮影できるように、雲台カメラの少なくともパン、チルト及びズームの位置を定めたものであり、更にホワイトバランスや逆光補正、解像度等の設定も含みうる。   The INITIAL button 54 is for returning the screen display to the initial state. For example, when the button is pressed briefly, an image in a predetermined preset of the predetermined monitoring camera device 10 is displayed, and when the button is pressed long, A reset signal is sent to the encoder 13, the decoder 23, the pan head camera controller 12, and the pan head camera 11, and then the wireless remote control 26 itself is also reset to cancel all previous operations and display the same display as above. Note that a preset defines at least the pan, tilt, and zoom positions of the camera platform so that the same image can be taken at any time, and can also include settings such as white balance, backlight correction, and resolution.

FOCUSボタン57と、ZOOMボタン58は、1画面表示中のときは表示された、多画面表示中は選択された映像に対して、それを撮影した監視カメラ装置10の雲台カメラ11の焦点とズームとをそれぞれ操作するためのものである。
雲台制御十字キー59は、望ましくは2軸のポジションセンサであり、左右及び上下方向の押下量に応じて雲台カメラ11のパン及びチルトの駆動速度を与えるものである。
The FOCUS button 57 and the ZOOM button 58 are displayed when one screen is displayed, and when the multi-screen display is selected, the selected camera image and the focus of the camera platform camera 11 of the surveillance camera device 10 that captured the selected video are displayed. It is for operating the zoom.
The pan / tilt head control cross key 59 is preferably a biaxial position sensor, and gives the pan / tilt driving speed of the pan / tilt camera 11 in accordance with the pressing amount in the horizontal and vertical directions.

PRESETボタン群60は、1画面表示中は、表示中の監視カメラ装置10に予め設定された複数あるプリセットの番号に対応付けられて、押下により、そのプリセットに雲台カメラが向くようにするものである。多画面表示中は、複数ある多画面割付設定に対応付けられて、押下により、その割付設定で表示が行われる。なお多画面割付設定とは、例えば4画面の場合、4つの監視カメラ装置10およびそれらのプリセットの組を定義する設定情報である。   The PRESET button group 60 is associated with a plurality of preset numbers preset in the monitoring camera device 10 being displayed during one screen display, and when pressed, the pan head camera faces the preset. It is. During multi-screen display, a plurality of multi-screen assignment settings are associated with each other, and display is performed with the assignment settings when pressed. The multi-screen assignment setting is setting information that defines a set of four surveillance camera devices 10 and their presets, for example, in the case of four screens.

顕示手段62は、ブザーあるはバイブレータであって、エンコーダ13等の接点I/O45から入力されたセンサ信号等が、管理サーバ21や無線操作中継装置25を経由して無線リモコン26に伝達された時や、無線リモコン26からした操作に対して管理サーバ21から操作権がない旨或いはエラーの応答が返ってきた時に、鳴動する。   The revealing means 62 is a buzzer or a vibrator, and a sensor signal or the like input from the contact I / O 45 of the encoder 13 or the like is transmitted to the wireless remote controller 26 via the management server 21 or the wireless operation relay device 25. It rings when there is no operation right from the management server 21 or when an error response is returned for the operation performed from the wireless remote controller 26.

本実施例に拠れば、パソコン端末22での操作で、自由曲線、矢印、矩形枠、文字等が書き込まれた監視映像を、監視カメラ装置10から配信するので、他の閲覧者に同じ監視映像を容易に提供できる。   According to the present embodiment, the surveillance video in which a free curve, an arrow, a rectangular frame, characters, etc. are written by the operation on the personal computer terminal 22 is distributed from the surveillance camera device 10, so that the same surveillance video is sent to other viewers. Can be easily provided.

実施例2に係る監視システムは、携帯通信端末等からも映像への手書き入力を可能にした点で実施例1と異なる。   The monitoring system according to the second embodiment is different from the first embodiment in that handwritten input to a video can be performed from a mobile communication terminal or the like.

本例の携帯通信端末40は、J2ME(Java 2 Micro Edition。javaは商標)の実行環境を有した一般的な携帯電話、PDA等であり、ルータ28を介して監視システム1と通信可能になっている。また表示画面に抵抗膜式或いは静電式のタッチパネルを有しており、指先やスタイラスペン等で手書き入力ができるようになっている。そして最初に、映像閲覧及び手書き入力を行うためのJavaアプリ(MIDLet)が、管理サーバ21から携帯通信端末40にダウンロード及びインストールされる。その際、そのJavaアプリの通信接続先の設定として、管理サーバ21のURI等が自動的に保存される。   The mobile communication terminal 40 of this example is a general mobile phone, PDA or the like having an execution environment of J2ME (Java 2 Micro Edition, java is a trademark), and can communicate with the monitoring system 1 via the router 28. ing. In addition, the display screen has a resistive film type or electrostatic type touch panel so that handwriting can be input with a fingertip, a stylus pen, or the like. First, a Java application (MIDLet) for video browsing and handwriting input is downloaded and installed from the management server 21 to the mobile communication terminal 40. At that time, the URI or the like of the management server 21 is automatically saved as the communication connection destination setting of the Java application.

図5は、Javaアプリを起動させ、管理サーバ21からの映像を表示させた状態の画面表示例である。画面の左下にある「メニュー」から管理サーバ21のアドレス等を設定しておくと、Javaアプリの起動後、管理サーバ21からPUSH配信された映像(動画や静止画)があると自動的に受信して表示する。   FIG. 5 is a screen display example in a state where a Java application is activated and a video from the management server 21 is displayed. If you set the address of the management server 21 from the “menu” at the bottom left of the screen, you will automatically receive any video (videos or still images) delivered from the management server 21 after the Java application is started. And display.

例えばiモード(商標)の場合、”com.docomostar.opt.ui.TouchDevice”クラスによりタッチパネルからの入力を、キーと同様にイベント受信することができる。
Javaアプリは、図4の”手書き”ボタンが押されると、タッチパネルからの入力を受けて、入力に応じた画面の座標に、軌跡を表示すると共に、冗長な入力を除く全てのタッチパネル入力をベクトルデータ等で蓄積する。”矢印”ボタンを押した場合、タッチした座標とリリースした座標のみを組にして扱う以外は”手書き”と同様である。
”戻す”ボタンが押されると、直近の蓄積ベクトルデータを所定の単位で削除し、削除後の蓄積ベクトルデータで軌跡の再表示を行い、記入操作を戻せるようになっている。
そして”記入結果をメール送信”ボタンが押されると、蓄積したベクトルデータおよび”文字”ボタンを押して記入したテキストを、HTTPのPOSTメソッド或いはEメールにより管理サーバ21に送信する。
なお映像の右下の領域には、”文字”ボタン押下時の入力テキストや、監視カメラの設置位置や撮影方向を表した地図等が表示される。
For example, in the case of i-mode (trademark), an input from the touch panel can be received by the “com.docomostar.opt.ui.TouchDevice” class in the same manner as a key.
When the “handwriting” button in FIG. 4 is pressed, the Java application receives input from the touch panel, displays the locus at the coordinates of the screen according to the input, and vectorizes all touch panel input except redundant input. Accumulate with data. When the “arrow” button is pressed, it is the same as “handwriting” except that only the touched coordinates and the released coordinates are handled as a pair.
When the “Return” button is pressed, the latest accumulated vector data is deleted in a predetermined unit, and the locus is redisplayed with the deleted accumulated vector data so that the entry operation can be returned.
When the “send result mail” button is pressed, the stored vector data and the text entered by pressing the “character” button are sent to the management server 21 by the HTTP POST method or e-mail.
In the lower right area of the video, an input text when the “character” button is pressed, a map showing the installation position and shooting direction of the surveillance camera, and the like are displayed.

管理サーバ21は、携帯通信端末40からベクトルデータを受信すると、実施例1においてパソコン端末22から送信したのと同じプロトコルで、それをエンコーダ13に送信する。
本実施例1では、パソコン端末22から手書き入力が逐次(リアルタイムに)エンコーダ13に送信されたが、本例では、携帯通信端末40で描き終えたデータが一括して管理サーバ21に届き、エンコーダ13に反映される。
When receiving the vector data from the mobile communication terminal 40, the management server 21 transmits it to the encoder 13 by the same protocol as that transmitted from the personal computer terminal 22 in the first embodiment.
In the first embodiment, handwritten input is sequentially transmitted from the personal computer terminal 22 to the encoder 13 (in real time). 13 is reflected.

1 監視システム、 10 監視カメラ装置、
20 監視所、 30 IPネットワーク、
11 雲台カメラ、 12 雲台カメラ制御器、
13 エンコーダ、 14 伝送装置、
21 管理サーバ、 22 パソコン端末、
23 デコーダ、 24 大型表示装置、
25 無線操作中継装置、 26 無線リモコン、
27 伝送装置、 28 ルータ、
29 監視所LAN。
1 surveillance system, 10 surveillance camera device,
20 monitoring stations, 30 IP networks,
11 pan head camera, 12 pan head camera controller,
13 Encoder, 14 Transmission device,
21 management server, 22 PC terminal,
23 Decoder, 24 Large display device,
25 wireless operation relay device, 26 wireless remote control,
27 transmission equipment, 28 routers,
29 Monitoring LAN.

Claims (1)

カメラで撮影した映像をエンコーダで映像符号化してIPネットワークに出力する監視カメラ装置と、該IPネットワークを介して受信した該映像符号化された映像を復号して表示装置に再生する監視所設備と、を備える遠隔映像監視システムにおいて、
前記監視所設備は、
監視員からの手書き操作を受け付ける入力手段と、
前記受け付けた手書き操作のデータを描画データに変換し、所定のプロトコルで前記エンコーダに送信する手書きデータ送信手段と、を有し、
監視カメラ装置は、
入力された映像の信号に、前記手書きデータ送信手段からの該描画データを処理して生成した描画映像信号を合成した後、該合成された信号を映像符号化するエンコーダを有することを特徴とする遠隔映像監視システム。
A surveillance camera device that encodes video captured by a camera with an encoder and outputs the video to an IP network, and a monitoring station facility that decodes the video encoded video received via the IP network and reproduces it on a display device In a remote video surveillance system comprising
The monitoring station equipment is
An input means for accepting a handwriting operation from a monitor;
Handwritten data transmitting means for converting the accepted handwriting operation data into drawing data and transmitting to the encoder with a predetermined protocol;
The surveillance camera device
An encoder for synthesizing a drawing video signal generated by processing the drawing data from the handwritten data transmission means and encoding the synthesized signal with the input video signal. Remote video surveillance system.
JP2009223369A 2009-09-28 2009-09-28 Remote video monitoring system Pending JP2011071920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009223369A JP2011071920A (en) 2009-09-28 2009-09-28 Remote video monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009223369A JP2011071920A (en) 2009-09-28 2009-09-28 Remote video monitoring system

Publications (2)

Publication Number Publication Date
JP2011071920A true JP2011071920A (en) 2011-04-07
JP2011071920A5 JP2011071920A5 (en) 2012-11-01

Family

ID=44016719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009223369A Pending JP2011071920A (en) 2009-09-28 2009-09-28 Remote video monitoring system

Country Status (1)

Country Link
JP (1) JP2011071920A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227602A (en) * 2011-04-15 2012-11-15 Canon Inc Encoder
WO2017047687A1 (en) * 2015-09-17 2017-03-23 株式会社日立国際電気 Monitoring system
JP2020036293A (en) * 2018-08-31 2020-03-05 キヤノン株式会社 Processing device, control method, and program
WO2020045186A1 (en) * 2018-08-31 2020-03-05 キヤノン株式会社 Information processing device, method, and program
CN112822447A (en) * 2021-01-07 2021-05-18 云南电网有限责任公司电力科学研究院 Robot remote monitoring video transmission method and system based on 5G network

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196404A (en) * 1997-12-25 1999-07-21 Canon Inc Video transmitter, video receiver, their control method and storage medium
JP2006197485A (en) * 2005-01-17 2006-07-27 Fujitsu Ltd Moving picture data management method and device, and moving picture display device
JP2006234654A (en) * 2005-02-25 2006-09-07 Hitachi Kokusai Electric Inc System for providing river information
JP2006301756A (en) * 2005-04-18 2006-11-02 Toshiba Corp Disaster prevention system and disaster prevention method using flood prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196404A (en) * 1997-12-25 1999-07-21 Canon Inc Video transmitter, video receiver, their control method and storage medium
JP2006197485A (en) * 2005-01-17 2006-07-27 Fujitsu Ltd Moving picture data management method and device, and moving picture display device
JP2006234654A (en) * 2005-02-25 2006-09-07 Hitachi Kokusai Electric Inc System for providing river information
JP2006301756A (en) * 2005-04-18 2006-11-02 Toshiba Corp Disaster prevention system and disaster prevention method using flood prediction

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227602A (en) * 2011-04-15 2012-11-15 Canon Inc Encoder
WO2017047687A1 (en) * 2015-09-17 2017-03-23 株式会社日立国際電気 Monitoring system
JPWO2017047687A1 (en) * 2015-09-17 2018-08-02 株式会社日立国際電気 Monitoring system
JP2020036293A (en) * 2018-08-31 2020-03-05 キヤノン株式会社 Processing device, control method, and program
WO2020045186A1 (en) * 2018-08-31 2020-03-05 キヤノン株式会社 Information processing device, method, and program
US11627256B2 (en) 2018-08-31 2023-04-11 Canon Kabushiki Kaisha Information processing apparatus, method, and non-transitory computer-readable storage medium
CN112822447A (en) * 2021-01-07 2021-05-18 云南电网有限责任公司电力科学研究院 Robot remote monitoring video transmission method and system based on 5G network
CN112822447B (en) * 2021-01-07 2023-04-14 云南电网有限责任公司电力科学研究院 Robot remote monitoring video transmission method and system based on 5G network

Similar Documents

Publication Publication Date Title
JP6460228B2 (en) Information processing apparatus, information processing method, and information processing program
JP4508981B2 (en) Monitor display device and monitoring system using the same
US9143730B2 (en) Information processing apparatus, transmission system and program
JP2016511603A (en) System and method for media streaming for multi-user control and shared display
JP2010074382A (en) Monitor camera system and monitor video generation method
US20070112971A1 (en) Real time video streaming and data collaboration over wireless networks
CN107357585B (en) Video acquisition method and device, video equipment and storage medium
JP2011071920A (en) Remote video monitoring system
US10244207B2 (en) Videoconference communication device
JP2004348189A (en) Communication terminal device
CN106603537A (en) System and method for marking video signal source of mobile intelligent terminal
US20080244405A1 (en) Gui display system recording apparatus, and gui display method
JP2006014119A (en) Photography image transceiver system
JP2007074338A (en) Network camera system for crime prevention and network camera selecting method thereof
JP2007194796A (en) Remote control system, remote-controlled communication apparatus, and controlled-side communication apparatus
JP5266000B2 (en) Intercom device
WO2019026666A1 (en) Image capture device, information processing method, and program
JP5399144B2 (en) Intercom device
JP2007221362A (en) Data communication apparatus and video conference system
JP2003256958A (en) Device and system of remote monitoring
JP2010200148A (en) Intercom device
JP2001285840A (en) Picture transmitter and picture receiver
JP2004019360A (en) Field management system in construction work using information communication technique
JP2005286445A (en) Image transmission terminal, system thereof and terminal image transmitting method
JP2022167047A (en) Camera device, control method for camera device, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130321

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130613