JP2013183349A - Imaging controller, control method of the same and program - Google Patents

Imaging controller, control method of the same and program Download PDF

Info

Publication number
JP2013183349A
JP2013183349A JP2012046847A JP2012046847A JP2013183349A JP 2013183349 A JP2013183349 A JP 2013183349A JP 2012046847 A JP2012046847 A JP 2012046847A JP 2012046847 A JP2012046847 A JP 2012046847A JP 2013183349 A JP2013183349 A JP 2013183349A
Authority
JP
Japan
Prior art keywords
mask
camera
unit
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012046847A
Other languages
Japanese (ja)
Inventor
Motohiro Onishi
元大 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012046847A priority Critical patent/JP2013183349A/en
Publication of JP2013183349A publication Critical patent/JP2013183349A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily check whether a desired mask is set or not.SOLUTION: An image controller controls an imaging section which can image an image from a different camera position by moving a direction of a camera to one of a panning direction and a tilt direction and sets a mask for covering a specified region in the image imaged by the imaging section. The imaging controller includes: control calculation means for calculating a control method for imaging by the imaging section according to position information of the mask to be set; and display means for displaying a synthesis image obtained by synthesizing the image imaged by the imaging section according to the control method calculated by the control calculation means with the mask.

Description

本発明は、撮像制御装置、その制御方法およびプログラムに関するものである。特に、撮像部をパン方向、チルト方向にカメラの向きを移動することで異なるカメラ位置から撮像される画像に対して特定の領域にプライバシー保護などのためのマスクを設定する場合に用いられて好適である。   The present invention relates to an imaging control apparatus, a control method thereof, and a program. Especially suitable for setting a mask for privacy protection in a specific area for images taken from different camera positions by moving the camera in the pan and tilt directions. It is.

監視カメラには、プライバシー保護などのために撮像された画像中の一部の特定の領域を塗りつぶすことで被覆した画像を出力するプライバシーマスク機能を備えるものが知られている。
特許文献1に開示された監視カメラは、プライバシーマスクの中央座標と形状サイズを示すパラメータとを保持している。この監視カメラはパン方向、チルト方向に移動したときに、撮像する画像の変化に合わせプライバシーマスクの形状を維持したままプライバシーマスクの位置を移動させることができる。
Some surveillance cameras are provided with a privacy mask function that outputs an image covered by painting a specific area in a part of an image taken for privacy protection.
The surveillance camera disclosed in Patent Document 1 holds a central coordinate of a privacy mask and a parameter indicating a shape size. When the surveillance camera moves in the pan direction and the tilt direction, the position of the privacy mask can be moved while maintaining the shape of the privacy mask in accordance with changes in the image to be captured.

また、特許文献2に開示された監視カメラは、プライバシーマスクの各頂点に対応する角度情報を保持している。この監視カメラはパン方向、チルト方向に移動したときに、各頂点に対応する画像上の座標を算出することで、撮像する画像の変化に合わせプライバシーマスクの形状と位置とを変化させることができる。   The surveillance camera disclosed in Patent Document 2 holds angle information corresponding to each vertex of the privacy mask. When this surveillance camera moves in the pan direction and tilt direction, it calculates the coordinates on the image corresponding to each vertex, so that the shape and position of the privacy mask can be changed according to the change in the image to be captured. .

特許第3722653号公報Japanese Patent No. 3722653 特許第3996805号公報Japanese Patent No. 3996805

特許文献1に開示された監視カメラでは、プライバシーマスクの中央座標から離れたところに映っている特定の物体でも、特定のパン角度およびチルト角度では被覆することができる。しかしながら、別のパン角度およびチルト角度では被覆することができずに表示されてしまうという問題が生じる。また、常に被覆したくない物体があったとしても、特定のパン角度およびチルト角度では表示されるのに別のパン角度およびチルト角度では被覆されてしまうという問題が生じる。   In the surveillance camera disclosed in Patent Document 1, even a specific object reflected away from the central coordinates of the privacy mask can be covered with a specific pan angle and tilt angle. However, another pan angle and tilt angle cannot be covered and displayed. Even if there is an object that is not always desired to be covered, there is a problem that it is displayed at a specific pan angle and tilt angle but is covered at another pan angle and tilt angle.

このような現象は、チルト角度が天頂部の近傍である場合に生じることが多くなる。すなわち、点頂部の近傍では特定のパン角度およびチルト角度で撮像された画像上の物体は別のパン角度およびチルト角度で撮像された物体との間で、形状が変化してしまう。一方、別のパン角度およびチルト角度で撮像されたとしても、プライバシーマスクの形状は変化せずに維持されたままのためである。   Such a phenomenon often occurs when the tilt angle is in the vicinity of the zenith. That is, the shape of the object on the image picked up at a specific pan angle and tilt angle changes between the object picked up at a different pan angle and tilt angle in the vicinity of the vertex. On the other hand, even if images are taken at different pan and tilt angles, the shape of the privacy mask remains unchanged.

なお、特許文献2に開示された監視カメラでは、画像の変化に合わせてプライバシーマスクの形状も変化するので、上述したような問題は生じない。しかしながら、監視カメラがプライバシーマスクの形状を変更するための描画処理の負荷が大きくなってしまう。したがって、監視カメラをパン方向およびチルト方向などに移動したときにプライバシーマスクの追随性が悪くなり、画像上の物体よりも遅れてプライバシーマスクの位置や形状が変化するため、移動速度が速くなるほど物体を被覆できないという問題が生じる。   In the surveillance camera disclosed in Patent Document 2, the shape of the privacy mask changes in accordance with the change of the image, so the above-described problem does not occur. However, the load of the drawing process for the surveillance camera to change the shape of the privacy mask increases. Therefore, when the surveillance camera is moved in the pan direction and tilt direction, the followability of the privacy mask deteriorates, and the position and shape of the privacy mask change later than the object on the image. The problem that the coating cannot be performed occurs.

こうした問題はパン角度およびチルト角度を変更したとき場合のみに限られず、監視カメラの光軸を中心に回転するローテーション角度を変更した場合であっても同様である。すなわちパン方向、チルト方向、ローテーション方向に少なくとも何れかにカメラの向きを移動する場合に発生する。   Such a problem is not limited to the case where the pan angle and the tilt angle are changed, and the same applies even when the rotation angle that rotates around the optical axis of the surveillance camera is changed. That is, it occurs when the camera is moved in at least one of the pan direction, the tilt direction, and the rotation direction.

本発明は、上述したような問題点に鑑みてなされたものであり、形状を維持したまま位置のみが移動するマスクを設定したときに、どのようなカメラ位置であっても被覆される領域や被覆されない領域をユーザが簡単に確認できるようにする。すなわち、本発明は、ユーザが所望するマスクが設定されているかを簡単に確認できるようにすることを目的とする。   The present invention has been made in view of the above-described problems. When a mask is set in which only the position moves while maintaining the shape, the area covered by any camera position is The user can easily check the uncovered area. That is, an object of the present invention is to make it possible to easily check whether a mask desired by a user is set.

本発明は、カメラの向きを移動することで異なるカメラ位置から撮像可能な撮像部を制御すると共に、前記撮像部により撮像される画像のうち特定の領域を被覆するためのマスクを設定する撮像制御装置であって、設定されるマスクの位置情報に基づいて、前記撮像部により撮像させるための制御方法を算出する制御算出手段と、前記制御算出手段により算出された制御方法に基づいて前記撮像部により撮像される画像に、前記マスクが合成された合成画像を表示する表示手段と、を有することを特徴とする。   The present invention controls an image pickup unit that can pick up an image from different camera positions by moving the direction of the camera, and also sets an image pickup control that sets a mask for covering a specific area of an image picked up by the image pickup unit. A control calculation unit that calculates a control method for causing the imaging unit to capture an image based on position information of a set mask, and the imaging unit based on the control method calculated by the control calculation unit Display means for displaying a composite image in which the mask is combined with an image picked up by the above method.

本発明によれば、特定の領域を被覆するマスクを設定するときに、ユーザが所望するマスクが設定されるかを簡単に確認することができる。   ADVANTAGE OF THE INVENTION According to this invention, when setting the mask which covers a specific area | region, it can be confirmed easily whether the mask which a user desires is set.

第1の実施形態の監視カメラおよびマスク設定装置の構成を示す図である。It is a figure which shows the structure of the monitoring camera and mask setting apparatus of 1st Embodiment. マスク設定の画面の一例を示す図である。It is a figure which shows an example of the screen of a mask setting. カメラ制御を算出する処理を示すフローチャートである。It is a flowchart which shows the process which calculates camera control. マスクの領域を算出する方法を説明するための図である。It is a figure for demonstrating the method to calculate the area | region of a mask. 監視カメラの制御範囲を示す図である。It is a figure which shows the control range of a surveillance camera. マスクの位置および大きさを制御範囲に示した図である。It is the figure which showed the position and magnitude | size of a mask in the control range. マスクの位置および大きさを制御範囲に示した図である。It is the figure which showed the position and magnitude | size of a mask in the control range. 撮像画像の変化により表示されるマスクを示す図である。It is a figure which shows the mask displayed by the change of a captured image. 撮像画像の変化により表示されるマスクを示す図である。It is a figure which shows the mask displayed by the change of a captured image. 第2の実施形態の監視カメラおよびマスク設定装置の構成を示す図である。It is a figure which shows the structure of the surveillance camera and mask setting apparatus of 2nd Embodiment. 第2の実施形態のマスクを合成する処理を示すフローチャートである。It is a flowchart which shows the process which synthesize | combines the mask of 2nd Embodiment.

以下に、本発明の好ましい実施形態を、添付の図面に基づいて説明する。
本実施形態では、撮像装置として監視カメラ1を用い、撮像制御装置としてマスク設定装置2を用いる場合について説明する。
<第1の実施形態>
第1の実施形態では、マスク設定装置2によりプライバシーマスク(以下、マスクという)が設定されると、監視カメラ1はマスクが表示される複数のカメラ位置において実際に撮像し、撮像した画像にマスクを合成した合成画像を生成する。マスク設定装置2は監視カメラ1が生成した合成画像を表示することで、ユーザは所望するマスクが設定されているかを簡単に確認することができる。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
In the present embodiment, a case will be described in which the monitoring camera 1 is used as the imaging device and the mask setting device 2 is used as the imaging control device.
<First Embodiment>
In the first embodiment, when a privacy mask (hereinafter referred to as a mask) is set by the mask setting device 2, the surveillance camera 1 actually captures images at a plurality of camera positions where the mask is displayed, and masks the captured images. To generate a composite image. The mask setting device 2 displays the composite image generated by the monitoring camera 1 so that the user can easily confirm whether the desired mask is set.

図1は、監視カメラ1とマスク設定装置2とがネットワーク3を介して接続されるカメラシステム10の構成を示す図である。監視カメラ1は、撮像装置の一例であって、パン方向、チルト方向、ローテーション方向にカメラの向きを移動して異なるカメラ位置から撮像可能であり、撮像している画像に特定の領域を被覆するマスクを合成する機能を有している。マスク設定装置2は、監視カメラ1を制御する撮像制御装置の一例であって、マスクの設定を行うマスク設定ツールとして機能する。   FIG. 1 is a diagram illustrating a configuration of a camera system 10 in which a monitoring camera 1 and a mask setting device 2 are connected via a network 3. The surveillance camera 1 is an example of an imaging device, and can capture images from different camera positions by moving the direction of the camera in the pan direction, the tilt direction, and the rotation direction, and covers a specific area in the captured image. It has a function to synthesize a mask. The mask setting device 2 is an example of an imaging control device that controls the monitoring camera 1 and functions as a mask setting tool for setting a mask.

ここでは、監視カメラ1とマスク設定装置2とはそれぞれ一つずつネットワーク3を介して接続されているが、この場合に限られず、複数接続されていてもよい。また、カメラシステム10には、画像を閲覧したり監視カメラ1を制御したりするビューワクライアントが接続されていてもよい。ネットワーク3は、後述するカメラ制御信号、圧縮した画像信号を送信できる十分な帯域があるインターネットやイントラネットなどのディジタルネットワークが用いられる。ネットワークプロトコルはTCP/IP(UDP/IP)プロトコルを想定している。監視カメラ1およびマスク設定装置2には、それぞれIPアドレスが割り当てられている。   Here, the surveillance camera 1 and the mask setting device 2 are connected one by one via the network 3, but the present invention is not limited to this, and a plurality of them may be connected. The camera system 10 may be connected to a viewer client that browses images and controls the monitoring camera 1. As the network 3, a digital network such as the Internet or an intranet having a sufficient bandwidth capable of transmitting a camera control signal and a compressed image signal described later is used. The network protocol assumes the TCP / IP (UDP / IP) protocol. An IP address is assigned to each of the monitoring camera 1 and the mask setting device 2.

監視カメラ1はレンズ101、回転機構102、可動雲台103、撮像部104、カメラ制御部105、マスク合成部106、画像圧縮部107、通信制御部108、記憶部109、コマンド解釈部110を有している。
レンズ101はズームレンズなどを含むレンズ群であって、光学像を撮像部104に結像させる役割を有する。撮像部104は結像された光学像を動画または静止画などの画像として出力する。回転機構102はレンズ101および撮像部104を光軸方向であるローテーション方向に回転させる。可動雲台103はレンズ101、撮像部104および回転機構102をパン方向およびチルト方向に回転させる。カメラ制御部105は通信制御部108を介して受信したコマンドに応じてレンズ101、回転機構102、可動雲台103を制御することでパン、チルト、ローテーションおよびズームなどのカメラ操作を実行する。
The surveillance camera 1 includes a lens 101, a rotation mechanism 102, a movable pan head 103, an imaging unit 104, a camera control unit 105, a mask composition unit 106, an image compression unit 107, a communication control unit 108, a storage unit 109, and a command interpretation unit 110. doing.
The lens 101 is a lens group including a zoom lens, and has a role of forming an optical image on the imaging unit 104. The imaging unit 104 outputs the formed optical image as an image such as a moving image or a still image. The rotation mechanism 102 rotates the lens 101 and the imaging unit 104 in the rotation direction that is the optical axis direction. The movable camera platform 103 rotates the lens 101, the imaging unit 104, and the rotation mechanism 102 in the pan direction and the tilt direction. The camera control unit 105 performs camera operations such as panning, tilting, rotation, and zooming by controlling the lens 101, the rotation mechanism 102, and the movable pan head 103 according to the command received via the communication control unit 108.

マスク合成部106はマスクの設定が有効になっている場合には撮像部104により出力された画像にマスクを合成した合成画像を生成する。画像圧縮部107は、撮像部104あるいはマスク合成部106から出力される画像を例えばMotionJPEGなどの配信しやすいデータに圧縮し、通信制御部108からネットワーク3に配信する。記憶部109はマスク設定装置2から受信したマスクの各種設定値である位置情報、パノラマ画像およびプログラムなどを記憶する。パノラマ画像とは、監視カメラ1がパン方向およびチルト方向に全て移動して撮像したときの画像である。パノラマ画像は監視カメラ1が初めて設置されたときやマスク設定装置2からの指示に応じて撮像される。コマンド解釈部110はマスク設定装置2やビューワクライアントから受信したコマンドを解釈し、カメラ制御部105などに送信する。   When the mask setting is valid, the mask composition unit 106 generates a composite image obtained by compositing the mask with the image output from the imaging unit 104. The image compression unit 107 compresses the image output from the imaging unit 104 or the mask composition unit 106 into data that can be easily distributed, such as Motion JPEG, and distributes it to the network 3 from the communication control unit 108. The storage unit 109 stores position information, panoramic images, programs, and the like, which are various mask setting values received from the mask setting device 2. The panoramic image is an image when the surveillance camera 1 is moved and imaged in the pan direction and the tilt direction. The panoramic image is taken when the surveillance camera 1 is first installed or according to an instruction from the mask setting device 2. The command interpreter 110 interprets a command received from the mask setting device 2 or the viewer client and transmits it to the camera controller 105 or the like.

監視カメラ1は通信制御部108を介してマスク設定装置2やビューワクライアントからコマンドを受信し、受信したコマンドに応じて撮像画像を配信したり、各種カメラ操作を実行したりする。なお、画像の圧縮形式をMotionJPEGとして説明したが、この圧縮形式に限定されるものではない。   The monitoring camera 1 receives commands from the mask setting device 2 and the viewer client via the communication control unit 108, distributes captured images according to the received commands, and executes various camera operations. Although the image compression format has been described as Motion JPEG, the present invention is not limited to this compression format.

マスク設定装置2は監視カメラ1毎に割り当てられているIPアドレスを指定することによって監視カメラ1に接続する。
マスク設定装置2は画面表示部201、カメラ操作入力部202、カメラ設定入力部203、表示制御部204、操作コマンド生成部205、設定コマンド生成部206、カメラ制御算出部207、画像伸長部208、通信制御部209、記憶部210を有している。
通信制御部209は監視カメラ1から配信された撮像画像および監視カメラ1の記憶部109に記憶されているパノラマ画像を受信したり、各種カメラ操作の結果を受信したりする。表示制御部204は監視カメラ1から配信された撮像画像およびパノラマ画像を画面表示部201に表示したり、各種カメラ操作の結果からグラフィカルユーザーインタフェース(GUI)を生成し、画面表示部201に表示したりする。このとき、表示制御部204は画像伸長部208により伸長された画像を受信したり、操作コマンド生成部205によって解釈された後のカメラ操作の結果を受信したりする。
The mask setting device 2 connects to the surveillance camera 1 by designating an IP address assigned to each surveillance camera 1.
The mask setting device 2 includes a screen display unit 201, a camera operation input unit 202, a camera setting input unit 203, a display control unit 204, an operation command generation unit 205, a setting command generation unit 206, a camera control calculation unit 207, an image expansion unit 208, A communication control unit 209 and a storage unit 210 are included.
The communication control unit 209 receives a captured image distributed from the monitoring camera 1 and a panoramic image stored in the storage unit 109 of the monitoring camera 1 and receives results of various camera operations. The display control unit 204 displays the captured image and panoramic image distributed from the monitoring camera 1 on the screen display unit 201, generates a graphical user interface (GUI) from the results of various camera operations, and displays the graphical user interface (GUI) on the screen display unit 201. Or At this time, the display control unit 204 receives the image expanded by the image expansion unit 208 or receives the result of the camera operation after being interpreted by the operation command generation unit 205.

カメラ操作入力部202はカメラ操作のためのマウスやキーボードによる入力を受け付け、受け付けた入力を操作コマンド生成部205に送信する。操作コマンド生成部205は、スライダーやボタンなどの操作やパノラマ画像上でのマウスクリックといったGUI操作からパン、チルト、ローテーション、ズームなどの各種カメラ操作コマンドを生成する。
カメラ設定入力部203は、マスク設定に関する入力を受け付け、受け付けた入力を設定コマンド生成部206に送信する。設定コマンド生成部206は、マスク設定コマンドを生成する。
The camera operation input unit 202 receives input from the mouse or keyboard for camera operation, and transmits the received input to the operation command generation unit 205. The operation command generation unit 205 generates various camera operation commands such as pan, tilt, rotation, and zoom from GUI operations such as operations of sliders and buttons and mouse clicks on panoramic images.
The camera setting input unit 203 receives an input related to mask setting and transmits the received input to the setting command generation unit 206. The setting command generation unit 206 generates a mask setting command.

通信制御部209は、操作コマンド生成部205によって生成された各種カメラ操作コマンドおよび設定コマンド生成部206によって生成されたマスク設定コマンドを監視カメラ1に送信する。
カメラ設定入力部203が受け付けたマスク設定の入力や通信制御部209が監視カメラ1から受信した設定結果は、設定コマンド生成部206を介して表示制御部204に送信される。表示制御部204はマスク設定の入力および設定結果をGUIに反映し画面表示部201に表示することで、ユーザに視覚的にフィードバックされる。
カメラ制御算出部207はユーザに対してマスクが合成された合成画像を表示するために、マスクが表示される複数のカメラ位置を抽出する。カメラ制御算出部207の詳細な処理は、後述する。
記憶部210は監視カメラ1から受信したパノラマ画像やマスク設定を実行させるためのプログラムなどを記憶する。
The communication control unit 209 transmits the various camera operation commands generated by the operation command generation unit 205 and the mask setting command generated by the setting command generation unit 206 to the monitoring camera 1.
The mask setting input received by the camera setting input unit 203 and the setting result received from the monitoring camera 1 by the communication control unit 209 are transmitted to the display control unit 204 via the setting command generation unit 206. The display control unit 204 reflects the input of the mask setting and the setting result on the GUI and displays them on the screen display unit 201, thereby providing visual feedback to the user.
The camera control calculation unit 207 extracts a plurality of camera positions at which the mask is displayed in order to display a composite image obtained by combining the mask with the user. Detailed processing of the camera control calculation unit 207 will be described later.
The storage unit 210 stores a panoramic image received from the monitoring camera 1, a program for executing mask setting, and the like.

図2(a)は、マスク設定の画面の一例を示す図である。図2(a)に示す表示は、カメラ操作入力部202によりマスク設定の開始を受け付けたときに、表示制御部204が画面表示部201に表示する。   FIG. 2A shows an example of a mask setting screen. The display shown in FIG. 2A is displayed on the screen display unit 201 when the camera operation input unit 202 accepts the start of mask setting.

マスク設定画面300には、カメラ操作入力部202に相当するパンスライダー302、チルトスライダー303、ズームスライダー304およびローテーションボタン305・306などが構成される。マスク設定画面300からカメラ操作入力部202を介して入力された操作は、操作コマンド生成部205によってカメラ操作コマンドに変換された後、監視カメラ1に送信される。したがって、ユーザはマスク設定装置2を通して監視カメラ1のパン、チルト、ローテーション、ズームなどのカメラ操作を実行することができる。
また、監視カメラ1から受信した撮像画像を表示する画像表示部301にはマスクのプレビュー枠307が表示される。ユーザがプレビュー枠307の位置および大きさを変更することで、所望する位置および大きさのマスクを入力することができる。
The mask setting screen 300 includes a pan slider 302, a tilt slider 303, a zoom slider 304, and rotation buttons 305 and 306 corresponding to the camera operation input unit 202. An operation input from the mask setting screen 300 via the camera operation input unit 202 is converted into a camera operation command by the operation command generation unit 205 and then transmitted to the monitoring camera 1. Therefore, the user can execute camera operations such as panning, tilting, rotation, and zooming of the monitoring camera 1 through the mask setting device 2.
In addition, a mask preview frame 307 is displayed on the image display unit 301 that displays the captured image received from the monitoring camera 1. The user can input a mask having a desired position and size by changing the position and size of the preview frame 307.

次に、想定されるマスク設定について説明する。
ユーザはプレビュー枠307を所望する位置および大きさになるように操作し、追加ボタン308や変更ボタン309を押す。プレビュー枠307は撮像画像中に含まれる被写体312よりも前面に表示されるので、プレビュー枠307への操作を容易に行うことができる。ここで、追加ボタン308および変更ボタン309はカメラ設定入力部203に相当する。
カメラ設定入力部203が受け付けたマスク設定の入力は、設定コマンド生成部206によってマスク設定コマンドに変換された後、監視カメラ1に送信される。監視カメラ1はプレビュー枠307の位置および大きさでマスクを設定する。監視カメラ1は撮像画像の一部を被覆するマスク311を合成した撮像画像をマスク設定装置2に配信することで、マスク設定装置2の画像表示部301には一部にマスク311が表示された撮像画像が表示される。マスク311は撮像画像中に含まれる被写体312よりも前面に表示されるので、監視カメラ1はプレイバシーが保護された撮像画像を配信することができる。図2(a)に示すマスク311は矩形状としているが、この形状に限られず、例えば円形などであってもよい。
また、監視カメラ1はパン、チルトおよびローテーションなどのカメラ操作に応じて、マスクの位置を変えて合成した撮像画像を配信する。このとき、マスクの形状は維持したままにし、その形状を変化させないので、監視カメラ1は変化する撮像画像にマスク311を容易に追従させて撮像画像を配信することができる。なお、ユーザは削除ボタン310を押すことで、設定されたマスク311を削除することができる。
Next, assumed mask setting will be described.
The user operates the preview frame 307 so as to have a desired position and size, and presses the add button 308 and the change button 309. Since the preview frame 307 is displayed in front of the subject 312 included in the captured image, the operation to the preview frame 307 can be easily performed. Here, the add button 308 and the change button 309 correspond to the camera setting input unit 203.
The mask setting input received by the camera setting input unit 203 is converted into a mask setting command by the setting command generation unit 206 and then transmitted to the monitoring camera 1. The surveillance camera 1 sets a mask with the position and size of the preview frame 307. The surveillance camera 1 distributes the captured image obtained by synthesizing the mask 311 covering a part of the captured image to the mask setting device 2, so that the mask 311 is partially displayed on the image display unit 301 of the mask setting device 2. A captured image is displayed. Since the mask 311 is displayed in front of the subject 312 included in the captured image, the surveillance camera 1 can distribute the captured image in which the privacy is protected. The mask 311 shown in FIG. 2A is rectangular, but is not limited to this shape, and may be circular, for example.
In addition, the surveillance camera 1 delivers a combined captured image by changing the position of the mask in accordance with camera operations such as panning, tilting, and rotation. At this time, since the shape of the mask is maintained and the shape is not changed, the surveillance camera 1 can easily follow the mask 311 to the changed captured image and distribute the captured image. The user can delete the set mask 311 by pressing the delete button 310.

このように想定されるマスク設定では、カメラ設定入力部203がマスク設定の入力を受け付けると、監視カメラ1は設定したマスクを合成した撮像画像を配信する。しかし、監視カメラ1がパン、チルトおよびローテーションなどのカメラ操作を実行したとき、常に被覆したい領域が表示されたり、常に被覆したくない領域が表示されなかったりする場合がある。   In the mask setting assumed in this way, when the camera setting input unit 203 receives an input of mask setting, the surveillance camera 1 delivers a captured image obtained by synthesizing the set mask. However, when the surveillance camera 1 performs camera operations such as panning, tilting, and rotation, there are cases where an area that is desired to be covered is always displayed, or an area that is not always desired is not displayed.

そこで、本実施形態では、カメラ設定入力部203がマスク設定の入力を受け付けると、カメラ制御算出部207はマスクが表示されるカメラ位置を抽出し、抽出したカメラ位置に監視カメラ1を移動させるようにカメラ制御を行う。監視カメラ1はカメラ位置を移動しながらマスクを合成した撮像画像を配信することで、ユーザは所望するマスクが設定されるか否かを確認することができる。
この後、マスク設定装置2は画面表示部201に表示されたマスクを登録するか否かを確認するための表示を行う。図2(b)は、マスクを登録するか否かを確認するためのメッセージ313の一例を示す図である。監視カメラ1はユーザにより「はい」が選択された場合にはマスクを設定し、「いいえ」が選択された場合にはマスクを設定しない。
Therefore, in this embodiment, when the camera setting input unit 203 receives an input of mask setting, the camera control calculation unit 207 extracts the camera position where the mask is displayed, and moves the monitoring camera 1 to the extracted camera position. Control the camera. The monitoring camera 1 distributes the captured image obtained by combining the mask while moving the camera position, so that the user can confirm whether or not the desired mask is set.
Thereafter, the mask setting device 2 performs a display for confirming whether or not to register the mask displayed on the screen display unit 201. FIG. 2B is a diagram showing an example of a message 313 for confirming whether or not to register a mask. The surveillance camera 1 sets a mask when “Yes” is selected by the user, and does not set a mask when “No” is selected.

以下、具体的にカメラ制御算出部207が行う処理について図3に示すフローチャートを参照して説明する。図3に示すフローチャートは、マスク設定装置2のCPUがプログラムを実行することで実現され、カメラ設定入力部203がマスク設定の入力を受け付けたときに開始される。
まず、ステップS101ではカメラ制御算出部207は、監視カメラ1のパン、チルトおよびローテーションなどのカメラ操作によって、入力されたマスクの少なくとも一部が表示される可能性がある複数のカメラ位置を抽出する。このとき、抽出するカメラ位置の数が多いほど、ユーザは多くのカメラ位置でマスクにより被覆される領域や被覆されない領域を確認しやすくなる。しかし、カメラ位置の数が多くなると相対的にカメラ位置を算出する時間や、監視カメラ1がカメラ位置を移動する時間が長くなってしまうことから、なるだけ範囲を絞り込むと共に離散的なカメラ位置を抽出することが望ましい。
Hereinafter, the processing performed by the camera control calculation unit 207 will be specifically described with reference to the flowchart shown in FIG. The flowchart shown in FIG. 3 is realized when the CPU of the mask setting device 2 executes a program, and is started when the camera setting input unit 203 receives an input of mask setting.
First, in step S101, the camera control calculation unit 207 extracts a plurality of camera positions at which at least part of the input mask may be displayed by camera operations such as panning, tilting, and rotation of the monitoring camera 1. . At this time, the larger the number of camera positions to be extracted, the easier it is for the user to check the area covered by the mask and the area not covered by the mask at many camera positions. However, as the number of camera positions increases, the time for calculating the camera position and the time for the surveillance camera 1 to move the camera position become longer. It is desirable to extract.

次に、ステップS102ではカメラ制御算出部207は抽出されたカメラ位置のうち選択されていないカメラ位置があるか否かを判定する。選択されていないカメラ位置がある場合にはステップS103に進み、選択されていないカメラ位置がない場合にはステップS107に進む。
ステップS103ではカメラ制御算出部207は抽出された複数のカメラ位置から選択されていないカメラ位置を選択する。
Next, in step S102, the camera control calculation unit 207 determines whether there is an unselected camera position among the extracted camera positions. If there is an unselected camera position, the process proceeds to step S103, and if there is no unselected camera position, the process proceeds to step S107.
In step S103, the camera control calculation unit 207 selects an unselected camera position from the extracted plurality of camera positions.

ステップS104ではカメラ制御算出部207は選択されたカメラ位置での撮像画像に対して、入力されたマスクの中心位置および大きさを含む位置情報に基づいて、表示されるマスクの領域を算出する。具体的には、カメラ制御算出部207は、監視カメラ1の撮像中心(投影中心)を基準にして、選択されたカメラ位置に応じた射影変換を行うことで、マスクの領域を算出する。なお、カメラ制御算出部207は、射影変換を行う場合に限られず、次の図4に示すような処理により、マスクの領域を算出してもよい。   In step S <b> 104, the camera control calculation unit 207 calculates a mask area to be displayed based on position information including the center position and size of the input mask for the captured image at the selected camera position. Specifically, the camera control calculation unit 207 calculates a mask area by performing projective transformation in accordance with the selected camera position with reference to the imaging center (projection center) of the monitoring camera 1. Note that the camera control calculation unit 207 is not limited to the case where the projective transformation is performed, and may calculate the mask region by the process as shown in FIG.

ここで、図4(a)に示すような、中心位置Oおよび大きさ(幅W×長さL)のマスクが入力された場合に、カメラ制御算出部207は中心位置Oのパン角度およびチルト角度を取得する。次に、カメラ制御算出部207は中心位置Oから、選択されたカメラ位置に移動したと仮定し、入力されたマスクの中心位置Oと、選択されたカメラ位置の中心位置O´との間の距離を算出する。選択されたカメラ位置は、後述する図6および図7で説明するように、パン角度およびチルト角度により特定される。したがって、カメラ制御算出部207が、中心位置Oから中心位置O´までのチルト角度およびパン角度を取得できる。カメラ制御算出部207は、取得したチルト角度およびパン角度に応じて、図4(b)に示すような撮像画像内における中心位置Oから中心位置O´までチルト方向の距離tおよびパン方向の距離pを算出することができる。次に、図4(c)に示すように、カメラ制御算出部207は移動した中心位置Oを中心に、入力されたマスクと同じ大きさ(幅W×長さL)のマスク314を描画することで、選択されたカメラ位置での撮像画像に対するマスクの領域を算出することができる。したがって、カメラ制御算出部207は、実際に監視カメラ1を移動させることなく、選択されたカメラ位置での撮像画像に対するマスクの領域を算出することができる。
なお、ズームが変わると、撮像画像の大きさが変化するため、選択されたカメラ位置での撮像画像に対するマスクの領域も変化する。したがって、カメラ制御算出部207はカメラ設定入力部203がマスク設定の入力を受け付けたときのズームに基づいてマスクの領域を算出するものとする。
Here, when a mask having a center position O and a size (width W × length L) as shown in FIG. 4A is input, the camera control calculation unit 207 determines the pan angle and tilt of the center position O. Get the angle. Next, it is assumed that the camera control calculation unit 207 has moved from the center position O to the selected camera position, and between the input mask center position O and the selected camera position center position O ′. Calculate the distance. The selected camera position is specified by the pan angle and the tilt angle, as will be described later with reference to FIGS. Therefore, the camera control calculation unit 207 can acquire the tilt angle and pan angle from the center position O to the center position O ′. The camera control calculation unit 207 determines the distance t in the tilt direction and the distance in the pan direction from the center position O to the center position O ′ in the captured image as shown in FIG. 4B according to the acquired tilt angle and pan angle. p can be calculated. Next, as shown in FIG. 4C, the camera control calculation unit 207 draws a mask 314 having the same size (width W × length L) as the input mask, with the moved center position O as the center. Thus, it is possible to calculate the mask area for the captured image at the selected camera position. Therefore, the camera control calculation unit 207 can calculate the mask area for the captured image at the selected camera position without actually moving the monitoring camera 1.
Note that when the zoom changes, the size of the captured image changes, so the mask area for the captured image at the selected camera position also changes. Therefore, the camera control calculation unit 207 calculates the mask area based on the zoom when the camera setting input unit 203 receives an input of the mask setting.

ステップS105ではカメラ制御算出部207は選択されたカメラ位置での撮像画像に算出されたマスクの領域が含まれるか否かを判定する。すなわち、この判定は、選択されたカメラ位置での撮像画像内に、入力されたマスクの少なくとも一部が表示されるか否かを判定する処理に相当する。ステップS101で抽出するカメラ位置は、入力されたマスクの少なくとも一部が表示される可能性があるカメラ位置を抽出することから、マスクが表示されないカメラ位置も抽出されている。したがって、ステップS105によって、撮像画像にマスクの少なくとも一部が表示されるカメラ位置のみを抽出することができる。上述した図4(c)は撮像画像にマスクの一部が表示されている場合を示している。   In step S105, the camera control calculation unit 207 determines whether or not the calculated mask area is included in the captured image at the selected camera position. That is, this determination corresponds to a process of determining whether or not at least a part of the input mask is displayed in the captured image at the selected camera position. As the camera position extracted in step S101, the camera position at which at least a part of the input mask is likely to be displayed is extracted, and therefore the camera position where the mask is not displayed is also extracted. Therefore, only the camera position where at least a part of the mask is displayed in the captured image can be extracted in step S105. FIG. 4C described above shows a case where a part of the mask is displayed on the captured image.

マスクの領域が含まれている場合にはステップS106に進み、カメラ制御算出部207は選択されたカメラ位置をカメラ位置配列に追加する。カメラ位置配列は、実際に監視カメラ1を移動させる複数のカメラ位置の情報およびカメラ位置を移動する順序が記述されたデータである。したがって、カメラ位置配列に追加されたカメラ位置は、監視カメラ1が実際に移動するカメラ位置となる。
一方、ステップS105によりマスクの領域が含まれていないと判定された場合にはステップS102に戻り、全てのカメラ位置について、ステップS102からステップS106までの処理を繰り返す。その後、ステップS102により選択されていないカメラ位置がないと判定された場合には、ステップS107に進む。
If the mask area is included, the process advances to step S106, and the camera control calculation unit 207 adds the selected camera position to the camera position array. The camera position array is data describing information on a plurality of camera positions for actually moving the monitoring camera 1 and the order of moving the camera positions. Therefore, the camera position added to the camera position array is the camera position where the surveillance camera 1 actually moves.
On the other hand, if it is determined in step S105 that the mask area is not included, the process returns to step S102, and the processing from step S102 to step S106 is repeated for all camera positions. Thereafter, if it is determined in step S102 that there is no unselected camera position, the process proceeds to step S107.

ステップS107ではカメラ制御算出部207は現在のカメラ位置をカメラ位置配列に追加する。
ステップS108ではカメラ制御算出部207は監視カメラ1がカメラ位置配列の各カメラ位置を全て移動したときの総移動量から所定時間内にカメラ制御が完了するような移動速度を算出する。
ステップS109ではカメラ制御算出部207はカメラ位置配列と移動速度とを含むカメラ制御情報を操作コマンド生成部205に送信する。カメラ制御情報は、マスク設定装置2が監視カメラ1の撮像部104に撮像させるときの制御方法に関する情報である。操作コマンド生成部205が受信したカメラ制御情報からカメラ操作コマンドを生成し、通信制御部209が生成されたカメラ操作コマンドを監視カメラ1に送信する。また、通信制御部209が設定コマンド生成部206によって生成されたマスク設定コマンドを監視カメラ1に送信する。
In step S107, the camera control calculation unit 207 adds the current camera position to the camera position array.
In step S108, the camera control calculation unit 207 calculates a moving speed at which the camera control is completed within a predetermined time from the total movement amount when the surveillance camera 1 moves all the camera positions in the camera position array.
In step S <b> 109, the camera control calculation unit 207 transmits camera control information including the camera position array and the moving speed to the operation command generation unit 205. The camera control information is information relating to a control method when the mask setting device 2 causes the image capturing unit 104 of the monitoring camera 1 to capture an image. The operation command generation unit 205 generates a camera operation command from the received camera control information, and the communication control unit 209 transmits the generated camera operation command to the monitoring camera 1. In addition, the communication control unit 209 transmits the mask setting command generated by the setting command generation unit 206 to the monitoring camera 1.

監視カメラ1では、カメラ操作コマンドに応じてパン、チルトおよびローテーションなどのカメラ操作を実行し、カメラ位置配列に含まれるカメラ位置を順番に、算出された移動速度で移動しながら撮影する。このとき、監視カメラ1はマスク設定コマンドに含まれるマスクの位置情報に基づいて撮像画像にマスクを合成し、マスク設定装置2に配信する。   The surveillance camera 1 performs camera operations such as panning, tilting, and rotation in accordance with the camera operation command, and shoots while sequentially moving the camera positions included in the camera position array at the calculated moving speed. At this time, the monitoring camera 1 synthesizes a mask with the captured image based on the mask position information included in the mask setting command, and distributes the mask to the mask setting device 2.

なお、監視カメラ1がカメラ位置配列に含まれるカメラ位置を順番に移動した後に、元のカメラ位置に戻す必要がない場合は、ステップS107を省略してもよい。また、マスク設定の画面には、監視カメラ1によるカメラ制御情報に基づいた移動を中断させるための中断ボタンを有していてもよい。中断ボタンが押された場合には、監視カメラ1はステップS107で追加された元のカメラ位置に戻すカメラ操作コマンドを送信してもよい。   Note that step S107 may be omitted if the surveillance camera 1 does not need to return to the original camera position after sequentially moving the camera positions included in the camera position array. Further, the mask setting screen may have an interrupt button for interrupting movement based on the camera control information by the monitoring camera 1. When the interrupt button is pressed, the monitoring camera 1 may transmit a camera operation command for returning to the original camera position added in step S107.

次に、ステップS101により抽出されるカメラ位置およびステップS104によりカメラ位置配列に追加されるカメラ位置について説明する。
図5は、監視カメラ1のパン角度を横軸、チルト角度を縦軸とする2次元座標空間であり、監視カメラ1を制御する制御範囲401を示す図である。制御範囲401全体をパン角度およびチルト角度のそれぞれ一定角度毎に区切ったとき、区切った縦軸および横軸それぞれの交わる各格子点がステップS101で抽出されるカメラ位置となる。図5では、パン角度を20°で区切り、チルト角度を10°で区切った例を示している。
Next, the camera position extracted in step S101 and the camera position added to the camera position array in step S104 will be described.
FIG. 5 is a two-dimensional coordinate space in which the pan angle of the monitoring camera 1 is the horizontal axis and the tilt angle is the vertical axis, and shows a control range 401 for controlling the monitoring camera 1. When the entire control range 401 is divided at each fixed angle of the pan angle and the tilt angle, each lattice point where the divided vertical and horizontal axes intersect becomes the camera position extracted in step S101. FIG. 5 shows an example in which the pan angle is divided by 20 ° and the tilt angle is divided by 10 °.

図6は、入力されたマスク402の位置と大きさを制御範囲401に示した図である。水平方向がチルト角度の基準角(0°)とすると、マスク402の中心位置をチルト角度が90度付近、つまり垂直方向に設定しようとしている。入力されたマスク402の大きさは、マスク402の矩形の大きさで示される。また、図6には、図6に示すマスク402の位置と大きさの場合に、ステップS106においてカメラ位置配列に追加されるカメラ位置403を示している。
図8は、チルト角度が90度付近のマスクの場合に、監視カメラ1がパン方向に移動したときの撮像画像とマスクの関係を示す図である。図8(a)〜(d)に示すように、パン方向に移動しても常にマスク311の領域が撮像画像301の内部に表示される。すなわち、カメラ位置配列に追加されるカメラ位置403は、図6に示すような同じチルト角度の全てのパン角度の格子点が含まれることになる。
FIG. 6 is a diagram showing the position and size of the input mask 402 in the control range 401. If the horizontal direction is the reference angle (0 °) of the tilt angle, the center position of the mask 402 is set to a tilt angle near 90 degrees, that is, in the vertical direction. The size of the input mask 402 is indicated by the rectangular size of the mask 402. 6 shows the camera position 403 added to the camera position array in step S106 in the case of the position and size of the mask 402 shown in FIG.
FIG. 8 is a diagram showing the relationship between the captured image and the mask when the surveillance camera 1 moves in the pan direction when the mask has a tilt angle near 90 degrees. As shown in FIGS. 8A to 8D, the area of the mask 311 is always displayed inside the captured image 301 even when moving in the pan direction. That is, the camera position 403 added to the camera position array includes all pan angle grid points having the same tilt angle as shown in FIG.

図7は、入力されたマスク404の位置と大きさを制御範囲401に示した図である。水平方向がチルト角度の基準角(0°)とすると、マスク404の中心位置をチルト角度が0度付近、つまり水平方向に設定しようとしている。入力されたマスク404の大きさは、マスク404の矩形の大きさで示される。また、図7には、図7に示すマスク404の位置と大きさの場合に、ステップS106においてカメラ位置配列に追加されるカメラ位置405を示している。
図9は、チルト角度が0度付近のマスクの場合に、監視カメラ1をパン方向およびチルト方向に移動したときの撮像画像とマスクの関係を示す図である。図9(a)はマスクの中心位置に対応するカメラ位置からの撮影画像であり、図9(b)〜(e)はマスクの中心位置からパン方向およびチルト方向にそれぞれ移動したときの撮像画像である。図9(b)〜(e)に示すようにマスクの中心位置に対応するカメラ位置からパン方向およびチルト方向に近傍したカメラ位置での撮像画像301にマスク311が表示される。すなわち、カメラ位置配列に追加されるカメラ位置405は、格子点の間隔にもよるが、図7に示すようなマスクの中心位置に隣接する格子点となる。
FIG. 7 is a diagram showing the position and size of the input mask 404 in the control range 401. If the horizontal direction is the reference angle (0 °) for the tilt angle, the center position of the mask 404 is set to a tilt angle near 0 degrees, that is, in the horizontal direction. The size of the input mask 404 is indicated by the rectangular size of the mask 404. 7 shows the camera position 405 added to the camera position array in step S106 in the case of the position and size of the mask 404 shown in FIG.
FIG. 9 is a diagram showing the relationship between the captured image and the mask when the surveillance camera 1 is moved in the pan direction and the tilt direction when the mask has a tilt angle near 0 degrees. FIG. 9A is a captured image from a camera position corresponding to the center position of the mask, and FIGS. 9B to 9E are captured images when moving from the center position of the mask in the pan direction and the tilt direction, respectively. It is. As shown in FIGS. 9B to 9E, the mask 311 is displayed on the captured image 301 at the camera position close to the pan direction and the tilt direction from the camera position corresponding to the center position of the mask. That is, the camera position 405 added to the camera position array is a lattice point adjacent to the center position of the mask as shown in FIG.

このように、カメラ制御算出部207は撮影画像にマスクの少なくとも一部が表示されるカメラ位置を抽出し、カメラ位置配列に追加する。すなわち、カメラ位置配列にしたがって撮像する監視カメラ1は、例えば図8(a)〜(d)や図9(a)〜(e)に示すようなマスクの位置が変化する撮影画像を配信することができる。ユーザは配信された画像を視認することで所望するマスクが設定されるかを確認することができる。所望するマスクであれば、ユーザは図2(b)に示す画面によりマスクを登録する選択を行う。所望するマスクでなければ、ユーザは図2(b)に示す画面を通してマスクを登録しない選択を行い、必要に応じて所望するマスクになるようにプレビュー枠307の位置および大きさを変更する操作を再び行う。   As described above, the camera control calculation unit 207 extracts the camera position at which at least a part of the mask is displayed in the captured image, and adds it to the camera position array. That is, the surveillance camera 1 that captures images according to the camera position array distributes captured images in which the mask positions change as shown in FIGS. 8A to 8D and FIGS. 9A to 9E, for example. Can do. The user can confirm whether a desired mask is set by visually recognizing the distributed image. If it is a desired mask, the user selects to register the mask on the screen shown in FIG. If it is not the desired mask, the user selects not to register the mask through the screen shown in FIG. 2B, and performs an operation of changing the position and size of the preview frame 307 so that the desired mask is obtained as necessary. Do it again.

<第2の実施形態>
第2の実施形態は、マスク設定装置2がマスク設定の入力を受け付けると、マスク設定装置2自身がマスクの少なくとも一部が表示される複数のカメラ位置での撮像画像を生成し、生成した撮影画像にマスクを合成した合成画像を生成する。マスク設定装置2が自ら合成画像を生成することで仮想的に監視カメラ1を制御したような撮像画像を表示でき、ユーザは所望するマスクが設定されるかを確認することができる。
<Second Embodiment>
In the second embodiment, when the mask setting device 2 receives an input of mask setting, the mask setting device 2 itself generates captured images at a plurality of camera positions where at least a part of the mask is displayed, and the generated photographing A composite image is generated by combining a mask with an image. The mask setting device 2 can generate a composite image by itself to display a captured image as if the surveillance camera 1 was virtually controlled, and the user can check whether a desired mask is set.

図10は、監視カメラ1とマスク設定装置2とがネットワーク3を介して接続されるカメラシステム20の構成を示す図である。本実施形態のカメラシステム20は第1の実施形態のカメラシステム10と同様であるが、マスク設定装置2に被覆領域合成部211が追加されている。本実施形態では、マスク設定装置2のカメラ制御算出部207の処理および図2に示すマスク設定の画面は第1の実施形態と同様である。   FIG. 10 is a diagram illustrating a configuration of a camera system 20 in which the monitoring camera 1 and the mask setting device 2 are connected via the network 3. The camera system 20 according to the present embodiment is the same as the camera system 10 according to the first embodiment, except that a covering region combining unit 211 is added to the mask setting device 2. In the present embodiment, the processing of the camera control calculation unit 207 of the mask setting device 2 and the mask setting screen shown in FIG. 2 are the same as those in the first embodiment.

第2の実施形態では、カメラ制御算出部207で算出したカメラ制御情報が被覆領域合成部211に送信される。被覆領域合成部211は、カメラ位置配列に含まれる各カメラ位置でのマスクが表示される撮像画像を現在の撮像画像から生成しマスクを合成して、画像表示部301に表示される。   In the second embodiment, the camera control information calculated by the camera control calculation unit 207 is transmitted to the covering region synthesis unit 211. The covering region combining unit 211 generates a captured image in which a mask at each camera position included in the camera position array is displayed from the current captured image, combines the mask, and displays the combined image on the image display unit 301.

図11は、被覆領域合成部211が行うカメラ位置配列に含まれる各カメラ位置でのマスクが表示された撮像画像を合成する処理を示すフローチャートである。図11に示すフローチャートは、マスク設定装置2のCPUがプログラムを実行することにより実現し、カメラ制御算出部207からカメラ制御情報を受信することにより開始される。
まず、ステップS201では被覆領域合成部211は取得したカメラ制御情報のカメラ位置配列から選択していないカメラ位置があるか否かを判定する。選択されていないカメラ位置がある場合にはステップS202に進み、選択されていないカメラ位置がない場合にはステップS205に進む。
FIG. 11 is a flowchart illustrating a process of combining the captured image on which the mask at each camera position included in the camera position array is displayed, which is performed by the covering region combining unit 211. The flowchart shown in FIG. 11 is realized when the CPU of the mask setting device 2 executes a program, and is started when camera control information is received from the camera control calculation unit 207.
First, in step S201, the covering region combining unit 211 determines whether there is an unselected camera position from the camera position array of the acquired camera control information. If there is an unselected camera position, the process proceeds to step S202, and if there is no unselected camera position, the process proceeds to step S205.

ステップS202では被覆領域合成部211はカメラ位置配列に含まれる各カメラ位置から選択されていないカメラ位置を選択する。被覆領域合成部211は選択したカメラ位置の撮像画像を現在の撮像画像から生成する。例えばカメラ位置配列に含まれるカメラ位置が、図6に示すようなカメラ位置403である場合には、選択されたカメラ位置に応じて、現在の撮影画像をパン方向に移動させた画像を生成する。また、図7に示すようなカメラ位置405である場合には、選択されたカメラ位置に応じて、現在の撮影画像をパン方向およびチルト方向にカメラの向きを移動させた画像を生成する。具体的には、被覆領域合成部211は、現在の撮影画像だけから選択されたカメラ位置の撮影画像を射影変換で生成する。すなわち、被覆領域合成部211は、現在のカメラ位置と選択されたカメラ位置とのパン角度、チルト角度およびズームの値に基づいて、射影変換を行うことで、選択されたカメラ位置の仮想的な撮影画像を生成する。なお、現在の撮影画像を移動させることで、一部の画像が欠けてしまう場合がある。この場合、被覆領域合成部211は、欠けた部分を黒塗りにしてもよく、記憶部210に記憶しているパノラマ画像から欠けた画像を合成して選択されたカメラ位置に対応する撮像画像を生成してもよい。   In step S202, the covering region combining unit 211 selects a camera position that has not been selected from the camera positions included in the camera position array. The covering region combining unit 211 generates a captured image at the selected camera position from the current captured image. For example, when the camera position included in the camera position array is a camera position 403 as shown in FIG. 6, an image obtained by moving the current captured image in the pan direction is generated according to the selected camera position. . In the case of the camera position 405 as shown in FIG. 7, an image is generated by moving the current captured image in the pan direction and the tilt direction according to the selected camera position. Specifically, the covering region combining unit 211 generates a captured image at the camera position selected from only the current captured image by projective transformation. In other words, the covering region composition unit 211 performs a projective transformation based on the pan angle, tilt angle, and zoom values between the current camera position and the selected camera position, thereby virtually adding the selected camera position. Generate a captured image. Note that a part of the image may be lost by moving the current captured image. In this case, the covering region combining unit 211 may black out the missing portion, and the captured image corresponding to the camera position selected by combining the missing image from the panoramic image stored in the storage unit 210 is displayed. It may be generated.

ステップS203では被覆領域合成部211は選択されたカメラ位置における撮像画像に対して、入力されたマスクの位置情報に基づいて表示されるマスクの領域を算出する。この処理は、上述したステップS104と同様な処理である。
ステップS204では被覆領域合成部211は、ステップS201で生成された撮像画像にステップS202で算出された領域にマスクを合成した合成画像を生成する。その後、ステップS201に戻り、カメラ位置配列に含まれるカメラ位置が全て選択されるまでステップS201〜ステップS204までの処理を繰り返す。全てのカメラ位置が選択された場合には、ステップS205に進む。
ステップS205では被覆領域合成部211は表示制御部204を介してステップS204で生成した合成画像をカメラ位置配列に含まれるカメラ位置の順序で画面表示部201に表示する。
In step S <b> 203, the covering region composition unit 211 calculates a mask region to be displayed based on the input mask position information with respect to the captured image at the selected camera position. This process is the same process as step S104 described above.
In step S204, the covering region combining unit 211 generates a combined image obtained by combining the captured image generated in step S201 with the mask calculated in the region calculated in step S202. Then, it returns to step S201 and repeats the process from step S201 to step S204 until all the camera positions included in the camera position array are selected. If all the camera positions have been selected, the process proceeds to step S205.
In step S205, the covering area composition unit 211 displays the composite image generated in step S204 via the display control unit 204 on the screen display unit 201 in the order of camera positions included in the camera position array.

このように、マスク設定装置2はマスクの少なくとも一部が表示されるカメラ位置の撮像画像を自らが生成し、生成した撮像画像にマスクを合成した合成画像を生成する。マスク設定装置2では生成した合成画像を、例えば図8(a)〜(d)や図9(a)〜(e)に示すようなマスクの位置が変化する撮像画像として表示することができる。ユーザは表示された画像を視認することで所望するマスクが設定されるかを確認することができる。所望するマスクであれば、ユーザは図2(b)に示す画面によりマスクを登録する選択を行うことで、通信制御部209が設定コマンド生成部206によって生成されたマスク設定コマンドを監視カメラ1に送信する。監視カメラ1はマスク設定コマンドに含まれるマスクの位置情報に基づいてマスクを設定し、マスクが表示された撮像画像をマスク設定装置2やビューワクライアントに配信する。   As described above, the mask setting device 2 itself generates a captured image at the camera position where at least a part of the mask is displayed, and generates a composite image in which the mask is combined with the generated captured image. In the mask setting device 2, the generated composite image can be displayed as a captured image in which the position of the mask changes as shown in FIGS. 8A to 8D and FIGS. 9A to 9E, for example. The user can confirm whether a desired mask is set by viewing the displayed image. If the mask is a desired mask, the user selects the mask to be registered on the screen shown in FIG. 2B, so that the communication control unit 209 transmits the mask setting command generated by the setting command generation unit 206 to the monitoring camera 1. Send. The monitoring camera 1 sets a mask based on the mask position information included in the mask setting command, and distributes the captured image on which the mask is displayed to the mask setting device 2 and the viewer client.

本実施形態によれば、第1の実施形態の効果に加え、マスク設定装置2が仮想的に監視カメラ1を制御したような撮像画像を表示するので、監視カメラ1から撮像画像を受信する必要がなく、マスクが表示された撮像画像を迅速に表示されることができる。   According to the present embodiment, in addition to the effects of the first embodiment, the captured image as if the mask setting device 2 virtually controlled the surveillance camera 1 is displayed, and therefore it is necessary to receive the captured image from the surveillance camera 1. The captured image on which the mask is displayed can be quickly displayed.

<第3の実施形態>
第3の実施形態は、第1の実施形態と異なりマスク設定の入力を受け付けるとマスクが表示されるカメラ位置を抽出することなく直接、マスク設定装置2が監視カメラ1の撮像部104に画像を撮像させるためのカメラ制御情報を算出する。本実施形態では、第1の実施形態のカメラシステム10と同様に構成することができ、図2に示すマスク設定の画面は第1の実施形態と同様である。
<Third Embodiment>
Unlike the first embodiment, in the third embodiment, when an input of mask setting is received, the mask setting device 2 directly outputs an image to the imaging unit 104 of the monitoring camera 1 without extracting the camera position where the mask is displayed. Camera control information for imaging is calculated. The present embodiment can be configured in the same manner as the camera system 10 of the first embodiment, and the mask setting screen shown in FIG. 2 is the same as that of the first embodiment.

具体的にカメラ制御算出部207が行う処理について説明する。なお、以下に説明する処理は、マスク設定装置のCPUがプログラムを実行することで実現され、カメラ設定入力部203がマスク設定の入力を受け付けたときに開始される。
カメラ制御算出部207は、入力されたマスクの位置情報に基づいて撮像部104に画像を撮像させるためのカメラ位置配列や移動速度が含まれるカメラ制御情報を算出する。
具体的には、カメラ制御算出部207は入力されたマスクの中心位置のパン角度およびチルト角度を取得する。カメラ制御算出部207は、取得したチルト角度が例えば90度付近である場合には、チルト角度を90度にしたままパン方向を180度回転させるような撮像部104のカメラ位置配列を算出する。本実施形態では、マスク設定装置2の記憶部210にマスクの位置情報とカメラ位置配列とが関連付けられた組み合わせのテーブルが記憶されている。この組み合わせは、入力されたマスクの位置情報に基づいて、予めマスクの一部が表示されるカメラ位置配列が求められている組み合わせである。カメラ制御算出部207が、入力されたマスクの位置情報を記憶されたテーブルと参照することで、カメラ位置配列を算出することができる。なお、テーブルには、監視カメラ1がカメラ位置配列にしたがって移動するときの移動速度を関連付けて記憶してもよい。
The processing performed by the camera control calculation unit 207 will be specifically described. The process described below is realized by the CPU of the mask setting device executing a program, and is started when the camera setting input unit 203 receives an input of mask setting.
The camera control calculation unit 207 calculates camera control information including a camera position array and a moving speed for causing the imaging unit 104 to capture an image based on the input mask position information.
Specifically, the camera control calculation unit 207 acquires the pan angle and tilt angle of the input mask center position. When the acquired tilt angle is, for example, around 90 degrees, the camera control calculation unit 207 calculates the camera position array of the imaging unit 104 that rotates the pan direction by 180 degrees while maintaining the tilt angle at 90 degrees. In the present embodiment, the storage unit 210 of the mask setting device 2 stores a combination table in which the mask position information and the camera position array are associated with each other. This combination is a combination in which a camera position array in which a part of the mask is displayed is obtained in advance based on the input mask position information. The camera control calculating unit 207 can calculate the camera position array by referring to the stored mask position information with the stored table. In the table, the moving speed when the monitoring camera 1 moves according to the camera position array may be stored in association with each other.

その後、カメラ制御算出部207は図3のフローチャートのステップS109以降の処理と同様な処理を行うことで、監視カメラ1では、カメラ位置配列に応じて撮影した撮像画像にマスクを合成し、マスク設定装置2に配信する。
本実施形態によれば、第1の実施形態の効果に加え、入力されたマスクが表示されるカメラ位置を抽出する処理を省略することができるので、マスクが表示された撮像画像を迅速に表示されることができる。
Thereafter, the camera control calculation unit 207 performs processing similar to the processing from step S109 onward in the flowchart of FIG. 3, so that the monitoring camera 1 synthesizes a mask with the captured image taken according to the camera position array, and sets the mask. Delivered to the device 2.
According to the present embodiment, in addition to the effect of the first embodiment, the process of extracting the camera position where the input mask is displayed can be omitted, so that the captured image on which the mask is displayed can be quickly displayed. Can be done.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能であり、上述した第1〜第3の実施形態を適宜組み合わせることも可能である。例えば、第2および第3の実施形態を組み合わせ、マスク設定装置2自身がテーブルを用いて算出したカメラ位置配列に基づいて撮像画像を生成し、生成した撮像画像にマスクを合成した合成画像を生成してもよい。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary, The 1st-3rd implementation mentioned above. It is also possible to appropriately combine the forms. For example, the second and third embodiments are combined to generate a captured image based on the camera position arrangement calculated by the mask setting device 2 using a table, and a combined image is generated by combining the generated captured image with a mask. May be.

また、例えば、図2(a)に示すマスク設定の画面にはプレビューボタンを追加して構成してよい。プレビューボタンを押した場合にはメッセージ313の表示は行わず、追加ボタン308や変更ボタン309を押した場合と同様のカメラ制御のみを実行させることができるように構成することができる。
また、上述した実施形態ではパン方向、チルト方向およびローテーション方向にカメラの向きを移動することができる監視カメラ1について説明したが、この場合に限られずパン方向、チルト方向の少なくとも何れかに移動する監視カメラ1に適用することができる。
Further, for example, a preview button may be added to the mask setting screen shown in FIG. When the preview button is pressed, the message 313 is not displayed, and only the camera control similar to that when the add button 308 or the change button 309 is pressed can be executed.
Further, in the above-described embodiment, the surveillance camera 1 that can move the camera in the pan direction, the tilt direction, and the rotation direction has been described. It can be applied to the surveillance camera 1.

また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するプログラムをネットワークや各種記録媒体を介して監視カメラ1およびマスク設定装置2に供給し、監視カメラ1およびマスク設定装置2のコンピュータ(CPU)がプログラムコードを読み出して実行する処理である。この場合、そのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, a program that realizes the functions of the above-described embodiment is supplied to the monitoring camera 1 and the mask setting device 2 via a network and various recording media, and the computer (CPU) of the monitoring camera 1 and the mask setting device 2 stores the program code. It is a process to read and execute. In this case, the program and a computer-readable recording medium recording the program constitute the present invention.

1:監視カメラ(撮像装置) 2:マスク設定装置(撮像制御装置) 3:ネットワーク 10:カメラシステム 20:カメラシステム 201:画面表示部 202:カメラ操作入力部 203:カメラ設定入力部 204:表示制御部 205:操作コマンド生成部 206:設定コマンド生成部 207:カメラ制御算出部 208:画像伸長部 209:通信制御部 210:記憶部 211:被覆領域合成部 300:マスク設定の画面 301:画像表示部 302:パンスライダー 303:チルトスライダー 304:ズームスライダー 305:ローテーションボタン 306:ローテーションボタン 307:プレビューワーク 308:追加ボタン 309:変更ボタン 310:削除ボタン 311:マスク 312:物体 313:メッセージ   1: surveillance camera (imaging device) 2: mask setting device (imaging control device) 3: network 10: camera system 20: camera system 201: screen display unit 202: camera operation input unit 203: camera setting input unit 204: display control Unit 205: Operation command generation unit 206: Setting command generation unit 207: Camera control calculation unit 208: Image expansion unit 209: Communication control unit 210: Storage unit 211: Covered region composition unit 300: Screen for mask setting 301: Image display unit 302: Pan slider 303: Tilt slider 304: Zoom slider 305: Rotation button 306: Rotation button 307: Preview work 308: Add button 309: Change button 310: Delete button 311: Mask 312: Object 313: message

Claims (11)

カメラの向きを移動することで異なるカメラ位置から撮像可能な撮像部を制御すると共に、前記撮像部により撮像される画像のうち特定の領域を被覆するためのマスクを設定する撮像制御装置であって、
設定されるマスクの位置情報に基づいて、前記撮像部により撮像させるための制御方法を算出する制御算出手段と、
前記制御算出手段により算出された制御方法に基づいて前記撮像部により撮像される画像に、前記マスクが合成された合成画像を表示する表示手段と、を有することを特徴とする撮像制御装置。
An imaging control device that controls an imaging unit capable of imaging from different camera positions by moving a camera direction and sets a mask for covering a specific region of an image captured by the imaging unit. ,
Control calculation means for calculating a control method for causing the imaging unit to perform imaging based on position information of the set mask;
An imaging control apparatus comprising: a display unit configured to display a composite image in which the mask is combined with an image captured by the imaging unit based on a control method calculated by the control calculation unit.
前記制御算出手段は、前記設定されるマスクの位置情報に基づいて、前記撮像部により撮像される画像に前記マスクの少なくとも一部が含まれて表示される複数のカメラ位置を抽出する抽出手段を有し、
前記表示手段は、前記抽出手段により抽出された複数のカメラ位置から撮像される画像ごとに前記マスクが合成された合成画像を表示することを特徴とする請求項1に記載の撮像制御装置。
The control calculation means includes an extraction means for extracting a plurality of camera positions displayed by including at least a part of the mask in an image picked up by the image pickup unit based on the set mask position information. Have
The imaging control apparatus according to claim 1, wherein the display unit displays a combined image in which the mask is combined for each image captured from a plurality of camera positions extracted by the extracting unit.
複数のカメラ位置を一つずつ選択する選択手段と、
前記選択手段により選択されたカメラ位置と前記マスクの位置情報とに基づいて、前記選択手段により選択されたカメラ位置で撮像される画像に前記マスクの少なくとも一部が表示されるか否かを判定する判定手段と、を有し、
前記抽出手段は、前記判定手段によって前記マスクの少なくとも一部が表示されると判定されるカメラ位置を抽出することを特徴とする請求項2に記載の撮像制御装置。
A selection means for selecting a plurality of camera positions one by one;
Based on the camera position selected by the selection means and the position information of the mask, it is determined whether or not at least a part of the mask is displayed in an image captured at the camera position selected by the selection means. Determination means for
The imaging control apparatus according to claim 2, wherein the extraction unit extracts a camera position at which at least a part of the mask is displayed by the determination unit.
前記抽出手段により抽出された複数のカメラ位置の情報を、前記撮像部を備える撮像装置に送信する送信手段と、
前記送信手段により送信された複数のカメラ位置の情報に基づいて前記撮像部をパン方向、チルト方向の少なくとも何れかに移動して撮像された画像に前記マスクが合成された画像を受信する受信手段と、を有し、
前記表示手段は、前記受信手段により受信された合成画像を表示することを特徴とする請求項3に記載の撮像制御装置。
Transmitting means for transmitting information of a plurality of camera positions extracted by the extracting means to an imaging device including the imaging unit;
Receiving means for receiving an image in which the mask is combined with an image captured by moving the imaging unit in at least one of a pan direction and a tilt direction based on information on a plurality of camera positions transmitted by the transmitting means. And having
The imaging control apparatus according to claim 3, wherein the display unit displays the composite image received by the receiving unit.
前記抽出手段により抽出された複数のカメラ位置を所定時間内で移動する前記撮像部の移動速度を算出する算出手段を有し、
前記送信手段は、前記複数のカメラ位置の情報と前記算出手段により算出された前記撮像部の移動速度の情報とを送信することを特徴とする請求項4に記載の撮像制御装置。
A calculating unit that calculates a moving speed of the imaging unit that moves the plurality of camera positions extracted by the extracting unit within a predetermined time;
The imaging control apparatus according to claim 4, wherein the transmission unit transmits information on the plurality of camera positions and information on a moving speed of the imaging unit calculated by the calculation unit.
前記抽出手段により抽出された複数のカメラ位置で撮像される画像を、前記撮像部により撮像されている現在の画像を用いて生成する生成手段を有し、
前記表示手段は、前記生成手段により生成された画像に前記マスクが合成された合成画像を表示することを特徴とする請求項2に記載の撮像制御装置。
Generating means for generating images picked up at a plurality of camera positions extracted by the extracting means using a current image picked up by the image pickup unit;
The imaging control apparatus according to claim 2, wherein the display unit displays a composite image in which the mask is combined with the image generated by the generation unit.
前記生成手段は、前記抽出手段により抽出された複数のカメラ位置で撮像される画像を、前記撮像部により撮像されている現在の画像を射影変換することにより生成することを特徴とする請求項6に記載の撮像制御装置。   The generation unit generates an image captured at a plurality of camera positions extracted by the extraction unit by performing projective conversion on a current image captured by the imaging unit. The imaging control device according to 1. 前記表示手段は、前記マスクが合成された合成画像を表示した後に、ユーザに対して前記マスクを登録するか否かを確認する表示を行うことを特徴とする請求項1乃至7の何れか1項に記載の撮像制御装置。   8. The display device according to claim 1, wherein after displaying the composite image in which the mask is combined, the display unit performs display for confirming whether or not to register the mask to the user. The imaging control device according to item. 前記表示手段により前記マスクが合成された合成画像を表示された後に、ユーザに対して前記マスクを登録するか否かを確認する確認手段と、
前記確認手段により前記マスクを登録することが確認された場合に、前記マスクの位置情報を、前記撮像部を備える撮像装置に送信する送信手段と、を有することを特徴とする請求項6または7に記載の撮像制御装置。
Confirmation means for confirming whether or not to register the mask to the user after the composite image in which the mask is synthesized is displayed by the display means;
8. The transmission device according to claim 6, further comprising: a transmission unit configured to transmit the position information of the mask to an imaging apparatus including the imaging unit when it is confirmed that the mask is registered by the confirmation unit. The imaging control device according to 1.
カメラの向きを移動することで異なるカメラ位置から撮像可能な撮像部を制御すると共に、前記撮像部により撮像される画像のうち特定の領域を被覆するためのマスクを設定する撮像制御装置の制御方法であって、
設定されるマスクの位置情報に基づいて、前記撮像部により撮像させるための制御方法を算出する制御算出ステップと、
前記制御算出ステップにより算出された制御方法に基づいて前記撮像部により撮像される画像に、前記マスクが合成された合成画像を表示する表示ステップと、を有することを特徴とする制御方法。
A method for controlling an imaging control apparatus that controls an imaging unit that can capture images from different camera positions by moving the direction of the camera, and sets a mask for covering a specific region of an image captured by the imaging unit Because
A control calculation step of calculating a control method for causing the imaging unit to capture an image based on position information of the set mask;
And a display step of displaying a composite image in which the mask is combined with an image captured by the imaging unit based on the control method calculated in the control calculation step.
カメラの向きを移動することで異なるカメラ位置から撮像可能な撮像部を制御すると共に、前記撮像部により撮像される画像のうち特定の領域を被覆するためのマスクを設定する撮像制御装置を制御するためのプログラムであって、
設定されるマスクの位置情報に基づいて、前記撮像部により撮像させるための制御方法を算出する制御算出ステップと、
前記制御算出ステップにより算出された制御方法に基づいて前記撮像部により撮像される画像に、前記マスクが合成された合成画像を表示する表示ステップと、をコンピュータに実行させるためのプログラム。
The image pickup unit that can pick up images from different camera positions is controlled by moving the direction of the camera, and the image pickup control device that sets a mask for covering a specific area of the image picked up by the image pickup unit is controlled. A program for
A control calculation step of calculating a control method for causing the imaging unit to capture an image based on position information of the set mask;
A program for causing a computer to execute a display step of displaying a composite image in which the mask is combined with an image captured by the imaging unit based on the control method calculated in the control calculation step.
JP2012046847A 2012-03-02 2012-03-02 Imaging controller, control method of the same and program Pending JP2013183349A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012046847A JP2013183349A (en) 2012-03-02 2012-03-02 Imaging controller, control method of the same and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012046847A JP2013183349A (en) 2012-03-02 2012-03-02 Imaging controller, control method of the same and program

Publications (1)

Publication Number Publication Date
JP2013183349A true JP2013183349A (en) 2013-09-12

Family

ID=49273711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012046847A Pending JP2013183349A (en) 2012-03-02 2012-03-02 Imaging controller, control method of the same and program

Country Status (1)

Country Link
JP (1) JP2013183349A (en)

Similar Documents

Publication Publication Date Title
JP6587113B2 (en) Image processing apparatus and image processing method
JP5791256B2 (en) Display control apparatus and display control method
US10297005B2 (en) Method for generating panoramic image
CN102202168B (en) control device, camera system and program
JP5569329B2 (en) Conference system, monitoring system, image processing apparatus, image processing method, image processing program, etc.
JP6633862B2 (en) Information processing apparatus and control method thereof
JP6647433B1 (en) Point cloud data communication system, point cloud data transmission device, and point cloud data transmission method
JP6976719B2 (en) Display control device, display control method and program
WO2013168387A1 (en) Display image formation device and display image formation method
JP2016178534A (en) Image processing device and method thereof, and image processing system
US20210266511A1 (en) Information processing system, information processing method, and storage medium
JP2016096481A (en) Control apparatus, photographing system, control method, and program
CN111787224B (en) Image acquisition method, terminal device and computer-readable storage medium
JP2008252331A (en) Digital monitoring system
KR102009988B1 (en) Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it
JP5509986B2 (en) Image processing apparatus, image processing system, and image processing program
JP2013183349A (en) Imaging controller, control method of the same and program
JP5865052B2 (en) Image display device, control method for image display device, and program
JP2013085041A (en) Information processing apparatus, processing method thereof, and program
JP6128966B2 (en) Image processing apparatus, image processing method, and program
JP7130976B2 (en) Display information creation device, imaging system and program
JP2015228549A (en) Information processing device for controlling camera, method therefor, program and storage medium
JP5937871B2 (en) Stereoscopic image display device, stereoscopic image display method, and stereoscopic image display program
JP2024001477A (en) Image processing system, image processing method, and program
JP2014030089A (en) Camera control device, camera control method, and camera control program