JP5105190B2 - Remote monitoring system and server - Google Patents

Remote monitoring system and server Download PDF

Info

Publication number
JP5105190B2
JP5105190B2 JP2008251261A JP2008251261A JP5105190B2 JP 5105190 B2 JP5105190 B2 JP 5105190B2 JP 2008251261 A JP2008251261 A JP 2008251261A JP 2008251261 A JP2008251261 A JP 2008251261A JP 5105190 B2 JP5105190 B2 JP 5105190B2
Authority
JP
Japan
Prior art keywords
mobile terminal
server
image
terminal device
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008251261A
Other languages
Japanese (ja)
Other versions
JP2010087582A (en
Inventor
涼子 宇野
吉則 小関
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2008251261A priority Critical patent/JP5105190B2/en
Publication of JP2010087582A publication Critical patent/JP2010087582A/en
Application granted granted Critical
Publication of JP5105190B2 publication Critical patent/JP5105190B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、遠隔地に設置されたカメラの画像を通信ネットワーク経由で携帯端末装置へ送信して表示することが可能な遠隔監視システム及びそのサーバに関し、さらに詳しくは、携帯端末装置の使い勝手を向上させた遠隔監視システム及びそのサーバに関する。   The present invention relates to a remote monitoring system capable of transmitting and displaying an image of a camera installed in a remote place to a mobile terminal device via a communication network and a server thereof, and more specifically, improving the usability of the mobile terminal device. The present invention relates to a remote monitoring system and a server thereof.

遠隔地に設置されたカメラの画像を通信ネットワーク経由で携帯端末装置により閲覧できるシステムがある(特許文献1参照)。このシステムでは、カメラサーバと携帯端末装置とを通信ネットワーク経由で通信可能に構成するとともに、カメラサーバにカメラを接続し、カメラで撮影したリアルタイム画像を携帯端末装置で表示可能にするとともに、携帯端末装置によるカメラの遠隔制御を可能にしている。   There is a system in which an image of a camera installed at a remote place can be viewed by a mobile terminal device via a communication network (see Patent Document 1). In this system, the camera server and the mobile terminal device are configured to be communicable via a communication network, the camera is connected to the camera server, and a real-time image captured by the camera can be displayed on the mobile terminal device. The camera can be remotely controlled by the device.

このシステムでは、カメラで撮影した横長の画像の全体を携帯端末装置の縦長の表示画面の中央部に表示する。そして、携帯端末装置の利用者がカメラのパン、チルト、或いはズームを行う場合、予め設定されたキー(例えば、パンであれば左右のカーソルキー、チルトであれば上下のカーソルキー)を押下することにより、カメラの遠隔制御を行うことができる。   In this system, the entire landscape image captured by the camera is displayed at the center of the portrait display screen of the mobile terminal device. When the user of the mobile terminal device pans, tilts, or zooms the camera, the user presses a preset key (for example, left and right cursor keys for panning and up and down cursor keys for tilting). Thus, remote control of the camera can be performed.

しかしながら、従来のシステムには下記(1)〜(3)の欠点があるため、携帯端末装置の使い勝手が悪いという問題がある。
(1)携帯端末装置の小さな表示画面では、監視対象が小さくなって見づらい。
(2)カーソルキーによる表示箇所の指定(パン、チルト)では、見たい箇所の迅速かつ正確な指定が困難である。
(3)監視対象が移動している場合、表示箇所を指定してもすぐに画面外に移動してしまうことがあるため、見たい箇所を見ることが困難である。
特開2005−20099号公報
However, since the conventional system has the following disadvantages (1) to (3), there is a problem that the usability of the mobile terminal device is poor.
(1) On a small display screen of a mobile terminal device, the monitoring target becomes small and difficult to see.
(2) It is difficult to quickly and accurately specify a desired location by specifying the display location with the cursor keys (pan, tilt).
(3) When the monitoring target is moving, even if the display location is specified, it may move immediately outside the screen, so it is difficult to see the desired location.
JP 2005-200999 A

本発明は、このような問題を解決するためになされたもので、その目的は、遠隔地に設置されたカメラの制御、及びそのカメラにより撮影された画像の取得と表示が、通信ネットワークを介して携帯端末装置により可能な遠隔監視システムにおいて、携帯端末装置の使い勝手を向上させることである。   The present invention has been made to solve such problems, and its purpose is to control a camera installed at a remote place and to acquire and display an image photographed by the camera via a communication network. In a remote monitoring system that is possible with a mobile terminal device, the convenience of the mobile terminal device is improved.

本発明のサーバは、カメラの制御及びそのカメラにより撮影された画像をネットワーク経由で携帯端末装置へ送信することが可能であり、かつ前記携帯端末装置のキー操作に応じて前記カメラを制御する機能を有するサーバであって、前記カメラにより撮影された画像が前記携帯端末装置で表示されているとき、前記携帯端末装置の所定方向のカーソルキーの操作に応じて、前記携帯端末装置で表示されている画像の中心から所定方向に位置する移動体を検出する移動体検出手段と、検出された移動体が前記携帯端末装置の表示画面の中央に表示されるように、その移動体を含む箇所を切り出す移動体画像切り出し手段とを有するサーバである。
ここで、移動体画像切り出し手段は、携帯端末装置の表示画面全体に画像が表示されるように、携帯端末装置の表示画面のサイズに合わせて切り出すことが好適である。
また、ズーム用に設定された、前記携帯端末装置のキーの操作に応じて、前記携帯端末装置で表示されている画像中の顔を検出する顔検出手段と、検出された顔が前記携帯端末装置の表示画面の中央に表示されるように、その顔を含む箇所をズームインして切り出す顔画像切り出し手段を設けてもよい。
本発明の遠隔監視システムは、本発明のサーバと、そのサーバにより制御され、かつ撮影した画像を前記サーバへ送信可能なカメラと、ネットワークにより前記サーバに接続される携帯端末装置とからなる遠隔監視システムである。
The server of the present invention is capable of controlling a camera and transmitting an image photographed by the camera to a mobile terminal device via a network, and controlling the camera according to a key operation of the mobile terminal device And when the image captured by the camera is displayed on the mobile terminal device, the image is displayed on the mobile terminal device in response to an operation of a cursor key in a predetermined direction of the mobile terminal device. A moving body detecting means for detecting a moving body located in a predetermined direction from the center of the image, and a location including the moving body so that the detected moving body is displayed at the center of the display screen of the portable terminal device. It is a server having a moving body image cutout means to cut out.
Here, it is preferable that the moving body image cutout means cuts out according to the size of the display screen of the mobile terminal device so that the image is displayed on the entire display screen of the mobile terminal device.
Further, face detection means for detecting a face in an image displayed on the mobile terminal device in response to an operation of a key of the mobile terminal device set for zooming, and the detected face is the mobile terminal You may provide the face image clipping means which zooms out and cuts out the location containing the face so that it may be displayed on the center of the display screen of an apparatus.
The remote monitoring system of the present invention includes a remote monitoring system comprising the server of the present invention, a camera controlled by the server and capable of transmitting captured images to the server, and a mobile terminal device connected to the server via a network. System.

本発明によれば、遠隔地に設置されたカメラの制御、及びそのカメラにより撮影された画像の取得と表示が、ネットワークを介して携帯端末装置により可能な遠隔監視システムにおいて、携帯端末装置の使い勝手が向上する。   According to the present invention, in a remote monitoring system in which a mobile terminal device can control a camera installed in a remote place and acquire and display an image captured by the camera via a network, the usability of the mobile terminal device Will improve.

以下、本発明を実施するための最良の形態について図面を参照しながら説明する。
図1は、本発明の実施形態の遠隔監視システムの構成を示す図である。この遠隔監視システムは、それぞれがインターネットなどの通信ネットワーク1に接続されるサーバ2及び複数の携帯端末3と、ケーブル等によりサーバ2に接続されたカメラ4とからなる。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a configuration of a remote monitoring system according to an embodiment of the present invention. This remote monitoring system includes a server 2 and a plurality of portable terminals 3 each connected to a communication network 1 such as the Internet, and a camera 4 connected to the server 2 by a cable or the like.

サーバ2は、カメラ4を制御する機能、及びカメラ4で撮影された画像の画像データを受信し、後述する処理を施した後、通信ネットワーク1を介して、携帯端末3へ送信する機能を持っている。サーバ2の構成及び機能の詳細については図2を参照しながら後述する。   The server 2 has a function of controlling the camera 4 and a function of receiving image data of an image taken by the camera 4 and performing processing described later, and then transmitting the data to the portable terminal 3 via the communication network 1. ing. Details of the configuration and functions of the server 2 will be described later with reference to FIG.

携帯端末3は、所定のキーを操作し、通信ネットワーク1を介してサーバ2に制御信号を送信することにより、カメラ4の遠隔制御を行うことができる。また、カメラ4で撮影され、サーバ2で処理された画像を通信ネットワーク1経由で受信し、表示することができる。携帯端末3の構成及び機能の詳細については図3を参照しながら後述する。   The portable terminal 3 can perform remote control of the camera 4 by operating a predetermined key and transmitting a control signal to the server 2 via the communication network 1. Further, an image photographed by the camera 4 and processed by the server 2 can be received via the communication network 1 and displayed. Details of the configuration and functions of the portable terminal 3 will be described later with reference to FIG.

カメラ4は、CCDやMOSなどの撮像素子と、撮像素子で生成された画像信号に所定のアナログ信号処理及びA/D変換を行うカメラ信号処理部と、サーバ2に対するインタフェースである外部インタフェースとを備えており、サーバ2からの制御信号により、パン、チルト、及びズームイン/アウトが可能であり、撮影した画像をサーバ2へ送信することが可能である。カメラ4はPTZカメラと呼ばれるカメラである。   The camera 4 includes an image sensor such as a CCD or MOS, a camera signal processing unit that performs predetermined analog signal processing and A / D conversion on an image signal generated by the image sensor, and an external interface that is an interface to the server 2. It is possible to pan, tilt, and zoom in / out by a control signal from the server 2, and to transmit the captured image to the server 2. The camera 4 is a camera called a PTZ camera.

図2は、サーバ2の内部のブロック図である。サーバ2は、バス21と、それぞれがバス21に接続された通信インタフェース部22、外部インタフェース部23、画像処理部24を備えている。画像処理部24は、移動体検出部25、トラッキング部26、顔検出部27、及び画像サイズ調整部28を備えている。ここでは、画像処理部24内の各部は、図示されていないCPU、及びメモリに格納されたプログラムにより実現される機能ブロックであるが、これらの機能ブロックの一部をハードウェアで構成することもできる。   FIG. 2 is a block diagram of the inside of the server 2. The server 2 includes a bus 21, a communication interface unit 22, an external interface unit 23, and an image processing unit 24 each connected to the bus 21. The image processing unit 24 includes a moving body detection unit 25, a tracking unit 26, a face detection unit 27, and an image size adjustment unit 28. Here, each unit in the image processing unit 24 is a functional block realized by a CPU (not shown) and a program stored in a memory. However, a part of these functional blocks may be configured by hardware. it can.

通信インタフェース部22は、通信ネットワーク1を介して携帯端末3と通信を行う手段であり、外部インタフェース部23は、カメラ4と通信を行う手段である。   The communication interface unit 22 is a unit that communicates with the mobile terminal 3 via the communication network 1, and the external interface unit 23 is a unit that communicates with the camera 4.

移動体検出部25は、カメラ4から送られてきた画像データのフレーム差分などを用いて、カメラ4で撮影された画像中の移動体を検出する手段である。移動体が複数存在する場合は、携帯端末3のユーザにより設定された一つの移動体、例えば現フレームの画像の中心に対し所定の方向(例.左方)に存在し、かつ中心に最も近い移動体のみを検出結果として出力する機能を有する。   The moving body detection unit 25 is a means for detecting a moving body in an image captured by the camera 4 using a frame difference of image data sent from the camera 4. When there are a plurality of moving objects, one moving object set by the user of the mobile terminal 3, for example, exists in a predetermined direction (eg, left) with respect to the center of the image of the current frame, and is closest to the center It has a function of outputting only a moving object as a detection result.

トラッキング部26は、移動体検出部25で検出された移動体の位置データをフレーム毎に保存することで、移動体を追跡する手段である。顔検出部27は、カメラ4から送られてきた画像データを基に画像中の人物の顔を検出する手段である。   The tracking unit 26 is means for tracking the moving body by storing the position data of the moving body detected by the moving body detecting unit 25 for each frame. The face detection unit 27 is a means for detecting the face of a person in the image based on the image data sent from the camera 4.

画像サイズ調整部28は、携帯端末3へ送信する画像のサイズ(縦、横の画素数)を携帯端末3の表示部33に合うように調整する手段である。   The image size adjustment unit 28 is a unit that adjusts the size (number of vertical and horizontal pixels) of an image to be transmitted to the mobile terminal 3 so as to fit the display unit 33 of the mobile terminal 3.

図3は、携帯端末3の内部のブロック図である。携帯端末3は、バス31と、それぞれがバス31に接続された通信インタフェース部32、画像表示部33、操作入力部34、制御部35、及び記憶部36を備えている。   FIG. 3 is a block diagram of the interior of the mobile terminal 3. The mobile terminal 3 includes a bus 31, a communication interface unit 32, an image display unit 33, an operation input unit 34, a control unit 35, and a storage unit 36 that are connected to the bus 31.

通信インタフェース部32は、通信ネットワーク1を介してサーバ2や他の携帯端末3と通信を行う手段である。表示部33は、LCDなどを備えており、携帯端末3の動作状態、操作入力部34からユーザが入力した情報、サーバ2から送信された画像などを表示する手段である。   The communication interface unit 32 is means for communicating with the server 2 and other portable terminals 3 via the communication network 1. The display unit 33 includes an LCD and the like, and is a unit that displays an operation state of the mobile terminal 3, information input by the user from the operation input unit 34, an image transmitted from the server 2, and the like.

操作入力部34は、ユーザが携帯端末3を使用するときに用いる各種キー(数字キー、カーソルキー、決定キー、終了キーなど)を備えた入力手段である。制御部35は、CPUを備えており、この携帯端末3全体の動作を制御する手段である。記憶部36は、制御部35が実行するプログラムが記憶されているROM、制御部36の動作中にワークエリアとなるRAMなどからなる。   The operation input unit 34 is an input unit that includes various keys (numeric keys, cursor keys, a determination key, an end key, and the like) used when the user uses the mobile terminal 3. The control unit 35 includes a CPU and is means for controlling the operation of the entire mobile terminal 3. The storage unit 36 includes a ROM that stores a program to be executed by the control unit 35, a RAM that serves as a work area during the operation of the control unit 36, and the like.

以上の構成を備えた遠隔監視システムの動作について、図4及び図5に示すサーバ2の動作フローチャート、並びに図6〜図8に示す携帯端末3の操作入力部33の操作内容に応じた表示部33の画像の変化を示す図を参照しながら説明する。   Regarding the operation of the remote monitoring system having the above configuration, the operation flowchart of the server 2 shown in FIGS. 4 and 5 and the display unit corresponding to the operation content of the operation input unit 33 of the portable terminal 3 shown in FIGS. A description will be given with reference to FIG.

携帯端末3のユーザが、操作入力部34を操作し、通信ネットワーク1を介してサーバ2にアクセスすることで、図4のフローが開始される。なお、このフローでは、携帯端末3のキー操作に応じて、サーバ2及びカメラ4の動作が遠隔制御されるとともに、カメラ4で撮影された画像が携帯端末3の表示部33で表示されるが、そのために必要なプログラムは予めサーバ2から携帯端末3に通信ネットワーク1を介してダウンロードされ、記憶部36に保存されている。   When the user of the portable terminal 3 operates the operation input unit 34 and accesses the server 2 via the communication network 1, the flow of FIG. In this flow, the operations of the server 2 and the camera 4 are remotely controlled according to the key operation of the mobile terminal 3, and an image taken by the camera 4 is displayed on the display unit 33 of the mobile terminal 3. The program necessary for this is downloaded in advance from the server 2 to the mobile terminal 3 via the communication network 1 and stored in the storage unit 36.

図4に示すように、まずカメラ4で撮影された画像の基準点をリセットし(ステップS1)、初期画像表示処理のサブルーチンへ移行する(ステップS2、図5)。初期画像表示処理では、まずカメラ4が撮影中の監視画像の中心点を算出する(ステップS31)。次いで監視画像全体を携帯端末3の表示部33のサイズに縮小し(ステップS32)、中心点の位置データとともに携帯端末3へ送信する(ステップS33)。携帯端末3は、受信した初期画像及び中心点を表示部33で表示する。   As shown in FIG. 4, first, the reference point of the image taken by the camera 4 is reset (step S1), and the process proceeds to a subroutine for initial image display processing (step S2, FIG. 5). In the initial image display process, first, the center point of the monitoring image being photographed by the camera 4 is calculated (step S31). Next, the entire monitoring image is reduced to the size of the display unit 33 of the portable terminal 3 (step S32), and transmitted to the portable terminal 3 together with the position data of the center point (step S33). The portable terminal 3 displays the received initial image and center point on the display unit 33.

図6Aに、初期画像331の一例を示す。ここでは、縦長の表示部33の中央部に横長の監視画像が配置され、その上下は画像の無いエリアとなっている。なお、この初期画像331の中心に表示されている○と×の組み合わせからなる記号は、監視画像の中心点を表している。   FIG. 6A shows an example of the initial image 331. Here, a horizontally long monitoring image is arranged at the center of the vertically long display unit 33, and the upper and lower areas are areas without an image. Note that a symbol composed of a combination of ◯ and x displayed at the center of the initial image 331 represents the center point of the monitoring image.

サーバ2では、ステップS33を実行した後、メインルーチンに戻り、現在端末装置3へ送信している画像の中心点を基準点に設定した後に移動体を検出する(ステップS3、S4)。ステップS4では、カメラ4の監視画像のフレーム差分などをとることで、監視画像中の移動体を検出する。検出した移動体の画面内の位置データはサーバ2内の記憶部(図示省略)に保存される。   After executing step S33, the server 2 returns to the main routine, sets the center point of the image currently being transmitted to the terminal device 3 as a reference point, and detects a moving object (steps S3 and S4). In step S4, a moving object in the monitoring image is detected by taking a frame difference of the monitoring image of the camera 4 or the like. The detected position data in the screen of the moving body is stored in a storage unit (not shown) in the server 2.

次にサーバ2は、携帯端末3で初期画面が表示されているかどうかを調べる(ステップS5)。ここでは、ステップS33で初期画像を送信し、それ以後、送信画像を変えていないので(S5:YES)、ステップS6へ進む。   Next, the server 2 checks whether the initial screen is displayed on the mobile terminal 3 (step S5). Here, the initial image is transmitted in step S33, and since then the transmitted image is not changed (S5: YES), the process proceeds to step S6.

ステップS6では、携帯端末3で操作入力部34の右カーソルキー又は左カーソルキーが押されたかどうか調べる。ここでは、図6Bに示すように、右カーソルキー341が押されたものとする。従って、ステップS7へ進んで、監視画像中の全ての移動体の重心位置を求め、次いでステップS8へ進み、基準点より指定方向(ここでは右方)に移動体があるかどうか調べる。   In step S6, it is checked whether the right cursor key or the left cursor key of the operation input unit 34 is pressed on the portable terminal 3. Here, as shown in FIG. 6B, it is assumed that the right cursor key 341 is pressed. Accordingly, the process proceeds to step S7, the barycentric positions of all the moving objects in the monitoring image are obtained, and then the process proceeds to step S8 to check whether there is a moving object in the designated direction (here, right) from the reference point.

そして、移動体がある場合は(S8:YES)、基準点と重心との間の距離が最も近い移動体を選択した後に、その選択した移動体の中心を監視画像の基準点とする(ステップS9、S10)。次いで基準点を中心に、携帯端末3の表示部33のサイズに合わせて監視画像を切り出し、携帯端末3へ送信する(ステップS11、S12)。   If there is a moving object (S8: YES), after selecting the moving object having the closest distance between the reference point and the center of gravity, the center of the selected moving object is set as the reference point of the monitoring image (step S9, S10). Next, a monitoring image is cut out in accordance with the size of the display unit 33 of the mobile terminal 3 around the reference point, and transmitted to the mobile terminal 3 (steps S11 and S12).

図6Aの場合、基準点の右側で三輪車に乗っている子供を中心とする監視画像が切り出され、図6Cに示すように、縦長の表示部33の全体に表示される。ここで、切り出し範囲は携帯端末3の表示画面サイズに応じて変化する。   In the case of FIG. 6A, a monitoring image centered on a child riding a tricycle is cut out on the right side of the reference point, and is displayed on the entire vertically long display unit 33 as shown in FIG. 6C. Here, the cutout range changes according to the display screen size of the mobile terminal 3.

ステップS6で、右ボタン又は左ボタンが押されていないと判断した場合、ステップS8で、基準点より指定方向に移動体が無いと判断した場合は、いずれもステップS1に戻る。   If it is determined in step S6 that the right button or the left button is not pressed, or if it is determined in step S8 that there is no moving body in the specified direction from the reference point, both return to step S1.

上記のようにステップS12を実行した後にステップS4へ移行し、再び移動体検出を行い、次にステップS5で、携帯端末3で初期画面が表示されているかどうか調べる。今回は、図6Cに示すように、移動体の切り出し画面が表示されているので(S5:NO)、ステップS13へ進み、現フレームの移動体の位置情報を取得する。この位置情報は、前フレームの移動体のトラッキング結果から取得する。ここでは、図6Cに示されているように、三輪車とそれに乗っている子供が移動体として検出され、保存されているので、その移動体の現フレームの位置情報を取得する。   After executing step S12 as described above, the process proceeds to step S4, where the moving body is detected again, and then in step S5, it is checked whether the initial screen is displayed on the portable terminal 3. In this time, as shown in FIG. 6C, since the moving body cut-out screen is displayed (S5: NO), the process proceeds to step S13, and the position information of the moving body of the current frame is acquired. This position information is acquired from the tracking result of the moving body in the previous frame. Here, as shown in FIG. 6C, since the tricycle and the child riding on the tricycle are detected and stored as the moving body, the position information of the current frame of the moving body is acquired.

次にステップS14で、その移動体の重心位置を新たな基準点とする。ここでは、三輪車とそれに乗っている子供の現フレームの重心が新たな基準点とされる。   In step S14, the center of gravity of the moving body is set as a new reference point. Here, the center of gravity of the current frame of the tricycle and the child riding on it is taken as the new reference point.

次いで携帯端末3で、上カーソルキー又は下カーソルキーが押されたかどうか調べ(ステップS15)、押された場合は(S15:YES)、それが上カーソルキーかどうか調べる(ステップS16)。ここでは、図7Aに示すように、上カーソルキー342が押されたものとする。   Next, the mobile terminal 3 checks whether the up cursor key or the down cursor key is pressed (step S15). If it is pressed (S15: YES), it is checked whether it is the up cursor key (step S16). Here, it is assumed that the up cursor key 342 is pressed as shown in FIG. 7A.

従って、ステップS17に進んで、顔検出を行い、次にステップS18に進んで、顔が検出されたかどうか調べる。そして、検出された場合は(S18:YES)、顔部分にズームインし(ステップS19)、そのズームイン画像を携帯端末3の表示部33のサイズに合わせて切り出し(ステップS20)、携帯端末3へ送信する(ステップS12)。この結果、携帯端末3の表示部33には図7Bに示す顔ズーム画像334が表示される。   Accordingly, the process proceeds to step S17 to perform face detection, and then proceeds to step S18 to check whether a face has been detected. If detected (S18: YES), the face is zoomed in (step S19), and the zoomed-in image is cut out in accordance with the size of the display unit 33 of the mobile terminal 3 (step S20) and transmitted to the mobile terminal 3. (Step S12). As a result, the face zoom image 334 shown in FIG. 7B is displayed on the display unit 33 of the portable terminal 3.

ステップ12を実行した後、ステップS4へ移行して、移動体検出を行う。前回と同様、ステップS13→S14→S15へと移動する。ここで、図7Cに示すように、下カーソルキー343が押されたものとすると、S15:YES→S16:NO→S21へと移動し、顔ズーム画像が表示されているかどうか調べる。   After executing step 12, the process proceeds to step S4 to detect a moving object. As in the previous time, the process moves from step S13 to S14 to S15. Here, as shown in FIG. 7C, if the down cursor key 343 is pressed, the process moves from S15: YES → S16: NO → S21 to check whether a face zoom image is displayed.

ここでは、図7Bに示すように、顔ズーム画像が表示されているので(S21:YES)、ステップS22へ進み、基準点(ここでは、三輪車とそれに乗っている子供からなる移動体の重心)を中心に、携帯端末3の表示部33のサイズに合わせて切り出し(ステップS22)、携帯端末3へ送信する(ステップS12)。この結果、携帯端末3の表示部33には、図7Bに示す画像がズームアウトされ、図6Cと同じく、図7Dに示す画像332が表示される。   Here, as shown in FIG. 7B, since the face zoom image is displayed (S21: YES), the process proceeds to step S22, and the reference point (here, the center of gravity of the moving body including the tricycle and the child riding on it) Is cut out in accordance with the size of the display unit 33 of the mobile terminal 3 (step S22) and transmitted to the mobile terminal 3 (step S12). As a result, the image shown in FIG. 7B is zoomed out on the display unit 33 of the mobile terminal 3, and the image 332 shown in FIG. 7D is displayed as in FIG. 6C.

なお、ステップS15で、上カーソルキー又は下カーソルキーが押されていないと判断した場合は(S15:NO)、ステップS22→S12へと進む。この場合も、携帯端末3の表示部3には、図6C又は図7Dに示されている画像332が表示される。   If it is determined in step S15 that the up cursor key or the down cursor key is not pressed (S15: NO), the process proceeds from step S22 to S12. Also in this case, the image 332 shown in FIG. 6C or FIG. 7D is displayed on the display unit 3 of the mobile terminal 3.

ステップ12を実行した後、ステップS4→S13→S14→S15へと移動する。ここで、図7Eに示すように、下ボタン343が押されたものとすると、S15:YES→S16:NO→S21へと移動し、顔ズーム画像が表示されているかどうか調べる。   After executing step 12, the process proceeds from step S4 to S13 to S14 to S15. Here, as shown in FIG. 7E, if the down button 343 is pressed, the process moves from S15: YES → S16: NO → S21 to check whether a face zoom image is displayed.

今回は、図7Dに示すように、ズームアウトした画像が表示されているので(S21:NO)、ステップS1へ移行する。そして、次のステップS2を実行することで、携帯端末3の表示部33には、図7Fに示す初期画面331が表示される。   This time, as shown in FIG. 7D, since the zoomed out image is displayed (S21: NO), the process proceeds to step S1. And the initial screen 331 shown in FIG. 7F is displayed on the display part 33 of the portable terminal 3 by performing next step S2.

なお、図4のフローでは、S15:NOの場合、S22へ進んでいるが、さらに右カーソルキー又は左カーソルキーが押されたかどうかを調べるステップを追加し、押されていた場合、ステップS7に進むように構成してもよい。このように構成すると、携帯端末3の表示部33に図6Cに示されている、三輪車とそれに乗っている子供を中心とした画像332が表示されている状態で、図8Aに示すように、右カーソルキー341を押すと、S7→S8:YES→S9→S10→S11→S12のように進むことで、図8Bに示すように、その三輪車及び子供の右方の移動体である別の子供が表示される。また、この状態から、図8Cに示すように、右カーソルキー341を押すと、S7→S8:NO→S1→S2のように進むことで、図8Dに示すように初期画像が表示される。   In the flow of FIG. 4, when S15 is NO, the process proceeds to S22. However, a step for checking whether or not the right cursor key or the left cursor key is pressed is added. If the key is pressed, the process proceeds to step S7. It may be configured to proceed. If comprised in this way, as shown in FIG. 8A in the state where the image 332 centering on the tricycle and the child riding on it is displayed on the display unit 33 of the portable terminal 3 as shown in FIG. When the right cursor key 341 is pressed, the process proceeds as S7 → S8: YES → S9 → S10 → S11 → S12, and as shown in FIG. Is displayed. Further, when the right cursor key 341 is pressed from this state as shown in FIG. 8C, the initial image is displayed as shown in FIG. 8D by proceeding in the order of S7 → S8: NO → S1 → S2.

なお、図示を省略したが、この図のフローは、携帯端末3の操作入力部34の終了ボタンを押すことをサーバ2が検知すると終了する。   Although not shown in the drawing, the flow in this figure ends when the server 2 detects that the end button of the operation input unit 34 of the mobile terminal 3 is pressed.

以上説明したように、本実施形態の遠隔監視システムによれば、携帯端末3の表示部33に、カメラ4で撮影され、サーバ2で切り出された画像が表示されているときに、携帯端末3の操作入力部33の右カーソルキー或いは左カーソルキーを押すことにより、現在表示されている画像の中心の右方又は左方の移動体を中心にして新たに画像を切り出し、携帯端末3の表示部33に表示することができるので、カーソルキーを1回押すだけで、見たい箇所を迅速、確実に見ることができる。このとき、画像処理は全てサーバ2側で行うため、端末装置3側の負荷は増加しない。   As described above, according to the remote monitoring system of the present embodiment, when the image captured by the camera 4 and cut out by the server 2 is displayed on the display unit 33 of the mobile terminal 3, the mobile terminal 3. When the right cursor key or the left cursor key of the operation input unit 33 is pressed, a new image is cut out centering on the right or left moving body of the center of the currently displayed image, and the mobile terminal 3 is displayed. Since it can be displayed on the part 33, the place to be seen can be seen quickly and surely only by pressing the cursor key once. At this time, since all image processing is performed on the server 2 side, the load on the terminal device 3 side does not increase.

また、フレーム毎に移動体を追跡するので、右カーソルキー又は左カーソルキーにより検出して表示した箇所が画面外に移動する事態を防止することができる。さらに、携帯端末3の表示部33のサイズに合わせて画像を切り出すので、携帯端末3の小さな表示部でも、監視対象が見易い状態で表示される。   In addition, since the moving body is tracked for each frame, it is possible to prevent a situation where a portion detected and displayed by the right cursor key or the left cursor key moves outside the screen. Furthermore, since an image is cut out in accordance with the size of the display unit 33 of the mobile terminal 3, even a small display unit of the mobile terminal 3 can display the monitoring target in an easily viewable state.

また、上カーソルキーの操作により、顔検出を行うとともに、予め設定しておいたズーム倍率に拡大し、携帯端末3の表示部33のサイズに合わせて顔の周辺を切り出すので、見たい人物の顔を迅速かつ正確に明瞭に見ることができる。   In addition, by operating the up cursor key, face detection is performed, the magnification is set to a preset zoom magnification, and the periphery of the face is cut out in accordance with the size of the display unit 33 of the mobile terminal 3, so that You can see your face quickly and accurately clearly.

次に、サーバ2内の記憶装置(ハードディスクなど)に保存されている画像の中から、携帯端末3のユーザが、希望の移動体が撮影されている画像を抽出し、保存する編集処理について、図9のフローチャートを参照しながら説明する。この図のフローは、携帯端末3のユーザが通信ネットワーク1を介してサーバ2にアクセスし、サーバ2に保存されている画像の中から編集したい画像を選択し、実行指示を入力したときに、開始される。   Next, with respect to an editing process in which the user of the mobile terminal 3 extracts and saves an image of a desired mobile object from images stored in a storage device (such as a hard disk) in the server 2. This will be described with reference to the flowchart of FIG. In the flow of this figure, when the user of the mobile terminal 3 accesses the server 2 via the communication network 1, selects an image to be edited from the images stored in the server 2, and inputs an execution instruction. Be started.

サーバ2は、ユーザが選択した画像を記憶装置から読み出し、図4のステップS4と同様な手順で移動体を検出する(ステップS41)。移動体が検出された場合は(ステップS42:YES)、それを編集対象とし(ステップS43)、その移動体の周囲に矩形の枠を付与した画像を端末装置3へ送信する(ステップS44)。   The server 2 reads the image selected by the user from the storage device, and detects the moving object in the same procedure as in step S4 in FIG. 4 (step S41). When a moving body is detected (step S42: YES), it is set as an editing target (step S43), and an image with a rectangular frame around the moving body is transmitted to the terminal device 3 (step S44).

携帯端末3のユーザが、表示部33に表示されている画像を見ながら、カーソルキーを操作して、移動体の周囲の枠を選択し、決定ボタンを押すと(ステップS45)、サーバ2はそれを検出して、決定された移動体が映っているフレームの画像からその移動体の画像を切り出し、編集済み画像としてサーバ2内の記憶装置に保存する処理を開始する(ステップS46)。携帯端末3のユーザが編集の終了を指示するまで(ステップS47:YES)、編集を続ける。   When the user of the mobile terminal 3 operates the cursor key while viewing the image displayed on the display unit 33 to select a frame around the moving body and presses the enter button (step S45), the server 2 This is detected, and an image of the moving body is cut out from the image of the frame in which the determined moving body is shown, and the process of saving the edited image in the storage device in the server 2 is started (step S46). Editing is continued until the user of the portable terminal 3 instructs the end of editing (step S47: YES).

図9に示すフローを実行することにより、長時間にわたる録画画像の中から、希望の人物、対象物のみを切り出して編集し、保存することができる。また、時系列で画像を観察し、動きのない時間の画像は編集対象から外すだけでなく、広範囲の画像の中から、希望の人物の箇所のみを切り出して編集することができる。従って、例えば保育園やペットホテルにカメラを設置したシステムの場合、録画画像の中から自分の子供やペットが映っている部分のみを切り出して保存することができる。   By executing the flow shown in FIG. 9, it is possible to cut out, edit, and save only a desired person and object from long-time recorded images. In addition to observing images in time series, images with no movement are not excluded from editing targets, and only a desired person's part can be cut out and edited from a wide range of images. Therefore, for example, in the case of a system in which a camera is installed in a nursery school or a pet hotel, it is possible to cut out and save only the portion of the recorded image showing the child or pet.

また、移動中の人物を切り出した画像を検索用のインデックスとして保存することにより、広範囲を撮影した画像の検索を容易にすることができる。さらに、警察が長時間の録画画像中から犯人を探す場合、自動的に人物を抽出し、拡大などが簡単な操作で行える機能を利用することにより、犯人検索の手間を大幅に削減することができる。   In addition, by storing an image obtained by cutting out a moving person as a search index, it is possible to easily search for an image captured over a wide range. Furthermore, when the police search for a criminal from long-time recorded images, it is possible to greatly reduce the labor of searching for the criminal by using a function that can automatically extract a person and enlarge it with a simple operation. it can.

なお、以上の実施形態では、カメラ4としてPZTカメラを用いたが、広角の固定カメラを用いてもよい。また、広角の固定カメラと、PTZカメラとを併用してもよい。固定カメラの場合、パン、チルトは出来ないが、広角であればその必要はない。ズームについては、電子ズーム(デジタルズーム)により対応可能である。また、PTZカメラと比べると、複数の携帯端末間のカメラの制御権のコントロールが不要になるという利点がある。   In the above embodiment, a PZT camera is used as the camera 4, but a wide-angle fixed camera may be used. A wide-angle fixed camera and a PTZ camera may be used in combination. In the case of a fixed camera, panning and tilting cannot be performed. The zoom can be handled by electronic zoom (digital zoom). Further, compared with the PTZ camera, there is an advantage that it is not necessary to control the control right of the camera between a plurality of portable terminals.

また、以上の実施形態では、カメラとサーバとを別の装置としたが、カメラにサーバ機能を持たせた単一の装置として構成してもよい。   In the above embodiment, the camera and the server are separate devices. However, the camera and the server may be configured as a single device.

さらに、以上の実施形態では、図4〜図8に示す処理及び操作はライブ画像に対するものであるが、これらの処理及び操作はサーバ2に保存した録画画像に対しても可能である。   Furthermore, in the above embodiment, the processes and operations shown in FIGS. 4 to 8 are for live images, but these processes and operations are also possible for recorded images stored in the server 2.

本発明の実施形態の遠隔監視システムの構成を示す図である。It is a figure which shows the structure of the remote monitoring system of embodiment of this invention. 図1のサーバの内部のブロック図である。It is a block diagram inside the server of FIG. 図1の端末装置の内部のブロック図である。It is a block diagram inside the terminal device of FIG. 本発明の実施携帯の遠隔監視システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the remote monitoring system of the implementation mobile of this invention. 図4のフローチャートにおける初期画像処理のサブルーチンのフローチャートである。5 is a flowchart of an initial image processing subroutine in the flowchart of FIG. 4. 携帯端末の操作入力部の操作内容に応じた表示部の画像の変化を示す図である。It is a figure which shows the change of the image of a display part according to the operation content of the operation input part of a portable terminal. 携帯端末の操作入力部の操作内容に応じた表示部の画像の変化を示す図である。It is a figure which shows the change of the image of a display part according to the operation content of the operation input part of a portable terminal. 携帯端末の操作入力部の操作内容に応じた表示部の画像の変化を示す図である。It is a figure which shows the change of the image of a display part according to the operation content of the operation input part of a portable terminal. サーバ2に保存されている画像の中から、携帯端末3のユーザが希望の移動体が撮影されている画像を抽出し、保存する編集処理を示すフローチャートである。It is a flowchart which shows the edit process which extracts the image by which the user of the portable terminal 3 image | photographed the desired mobile body from the image preserve | saved at the server 2, and preserve | saves it.

符号の説明Explanation of symbols

1・・・通信ネットワーク、2・・・サーバ、3・・・携帯端末、4・・・カメラ、24・・・画像処理部、25・・・移動体検出部、26・・・トラッキング部、27・・・顔検出部、28・・・画像サイズ調整部。   DESCRIPTION OF SYMBOLS 1 ... Communication network, 2 ... Server, 3 ... Portable terminal, 4 ... Camera, 24 ... Image processing part, 25 ... Moving body detection part, 26 ... Tracking part, 27... Face detection unit, 28... Image size adjustment unit.

Claims (6)

カメラの制御及びそのカメラにより撮影された画像を通信ネットワーク経由で携帯端末装置へ送信することが可能であり、かつ前記携帯端末装置のキー操作に応じて前記カメラを制御する機能を有するサーバであって、
前記カメラにより撮影された画像が前記携帯端末装置で表示されているとき、前記携帯端末装置の所定方向のカーソルキーの操作に応じて、前記携帯端末装置で表示されている画像の中心から所定方向に位置する移動体を検出する移動体検出手段と、検出された移動体が前記携帯端末装置の表示画面の中央に表示されるように、その移動体を含む箇所を切り出す移動体画像切り出し手段とを有することを特徴とするサーバ。
A server capable of controlling a camera and transmitting an image captured by the camera to a mobile terminal device via a communication network and having a function of controlling the camera in accordance with a key operation of the mobile terminal device. And
When an image photographed by the camera is displayed on the mobile terminal device, a predetermined direction from the center of the image displayed on the mobile terminal device in response to an operation of a cursor key in the predetermined direction of the mobile terminal device Mobile object detection means for detecting a mobile object located in the mobile terminal, and mobile object image clipping means for cutting out a location including the mobile object so that the detected mobile object is displayed at the center of the display screen of the mobile terminal device. The server characterized by having.
請求項1に記載されたサーバにおいて、
移動体画像切り出し手段は、携帯端末装置の表示画面全体に画像が表示されるように、携帯端末装置の表示画面のサイズに合わせて切り出すことを特徴とするサーバ。
In the server of claim 1,
The server is characterized in that the moving body image cutout means cuts out according to the size of the display screen of the mobile terminal device so that the image is displayed on the entire display screen of the mobile terminal device.
請求項1に記載されたサーバにおいて、
移動体検出手段は、複数の移動体を検出したときは、前記携帯端末装置で表示されている画像の中心に最も近い移動体を選択することを特徴とするサーバ。
In the server of claim 1,
The moving body detecting means, when detecting a plurality of moving bodies, selects the moving body closest to the center of the image displayed on the portable terminal device.
請求項1に記載されたサーバにおいて、
ズーム用に設定された、前記携帯端末装置のキーの操作に応じて、前記携帯端末装置で表示されている画像中の顔を検出する顔検出手段と、検出された顔が前記携帯端末装置の表示画面の中央に表示されるように、その顔を含む箇所をズームインして切り出す顔画像切り出し手段とを有することを特徴とするサーバ。
In the server of claim 1,
A face detection unit configured to detect a face in an image displayed on the mobile terminal device in response to an operation of a key of the mobile terminal device set for zooming, and the detected face of the mobile terminal device A server comprising face image cutout means for zooming out and cutting out a portion including the face so as to be displayed in the center of the display screen.
請求項4に記載されたサーバにおいて、
顔検出手段により顔が検出されなかった場合、初期設定された監視対象エリアの画像が前記携帯端末装置の表示画面に表示されるように切り出す初期設定画像切り出し手段を有することを特徴とするサーバ。
In the server according to claim 4,
A server, comprising: an initial setting image cutout unit that cuts out an image of an initially set monitoring target area to be displayed on the display screen of the mobile terminal device when a face is not detected by the face detection unit.
請求項1〜5のいずれか1項に記載されたサーバと、そのサーバにより制御され、かつ撮影した画像を前記サーバへ送信可能なカメラと、通信ネットワークにより前記サーバに接続される携帯端末装置とからなる遠隔監視システム。   A server according to any one of claims 1 to 5, a camera controlled by the server and capable of transmitting captured images to the server, and a mobile terminal device connected to the server via a communication network Remote monitoring system consisting of
JP2008251261A 2008-09-29 2008-09-29 Remote monitoring system and server Active JP5105190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008251261A JP5105190B2 (en) 2008-09-29 2008-09-29 Remote monitoring system and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008251261A JP5105190B2 (en) 2008-09-29 2008-09-29 Remote monitoring system and server

Publications (2)

Publication Number Publication Date
JP2010087582A JP2010087582A (en) 2010-04-15
JP5105190B2 true JP5105190B2 (en) 2012-12-19

Family

ID=42251136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008251261A Active JP5105190B2 (en) 2008-09-29 2008-09-29 Remote monitoring system and server

Country Status (1)

Country Link
JP (1) JP5105190B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174090A (en) * 1996-12-11 1998-06-26 Matsushita Electric Ind Co Ltd Monitor supporting device
JP3820586B2 (en) * 2002-10-18 2006-09-13 ソニー株式会社 Information processing system and method, recording medium, and program
JP2005020099A (en) * 2003-06-23 2005-01-20 Canon Inc Mobile terminal and program for controlling mobile terminal
JP2005244562A (en) * 2004-02-26 2005-09-08 Chuo Electronics Co Ltd Remote control method and apparatus for camera
JP2007158421A (en) * 2005-11-30 2007-06-21 Matsushita Electric Ind Co Ltd Monitoring camera system and face image tracing recording method

Also Published As

Publication number Publication date
JP2010087582A (en) 2010-04-15

Similar Documents

Publication Publication Date Title
KR101810935B1 (en) Method, device, program and recording medium for adjusting and displaying image
JP4864295B2 (en) Image display system, image display apparatus, and program
US10742888B2 (en) Image display device displaying partial areas and positional relationship therebetween
KR100672338B1 (en) Mobile communication terminal having dual display equipment and method of taking picture using same
US20170026569A1 (en) Method and apparatus for operating camera function in portable terminal
JPWO2004066632A1 (en) Remote video display method, video acquisition device, method and program thereof
KR101793183B1 (en) Method, device, program and recording medium for setting shooting parameter
US20110063457A1 (en) Arrangement for controlling networked PTZ cameras
KR20080075954A (en) Method and apparatus for panorama photography
JP4910584B2 (en) Imaging device, mobile phone, imaging control method, imaging control program, and program recording medium
US20120242868A1 (en) Image capturing device
JP7528285B2 (en) Information processing device
JP2008097571A (en) Electronic equipment and method for selecting valid function
JP6266577B2 (en) Electronics
CN113676655B (en) Shooting method and device, mobile terminal and chip system
KR101998903B1 (en) Server, client terminal, system, and program
JP4757934B2 (en) Portable electronic device and method for operating portable electronic device
CN109104564B (en) Shooting prompting method and terminal equipment
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
CN113286085B (en) Display control method and device and electronic equipment
JP4314266B2 (en) Image control apparatus and control method thereof
JP5105190B2 (en) Remote monitoring system and server
US10877648B2 (en) Client device, monitoring system, method for displaying images on a screen and computer program
JP6808424B2 (en) Image recording device and its control method
KR20100062575A (en) Method to control monitoring camera and control apparatus using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

R150 Certificate of patent or registration of utility model

Ref document number: 5105190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350