JP2017118318A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2017118318A
JP2017118318A JP2015251650A JP2015251650A JP2017118318A JP 2017118318 A JP2017118318 A JP 2017118318A JP 2015251650 A JP2015251650 A JP 2015251650A JP 2015251650 A JP2015251650 A JP 2015251650A JP 2017118318 A JP2017118318 A JP 2017118318A
Authority
JP
Japan
Prior art keywords
mask
zoom lens
zoom
unit
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015251650A
Other languages
Japanese (ja)
Inventor
宏幸 宮原
Hiroyuki Miyahara
宏幸 宮原
穣 工藤
Minoru Kudo
穣 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2015251650A priority Critical patent/JP2017118318A/en
Publication of JP2017118318A publication Critical patent/JP2017118318A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately mask a subject to be masked by appropriate size in an imaging apparatus for monitoring.SOLUTION: In an imaging apparatus, a zoom lens 102 and a focus lens 103 are installed as imaging lenses. The imaging apparatus includes a mask control section 230 for acquiring setting information of a mask display position previously set in a specific focal distance and a mask signal addition section 113 for adding a mask signal for covering a specific range calculated on the basis of setting information of an imaging position including the zoom lens and the setting information of the mask display position to a video signal. The mask control section has two tables indicating correspondence between the focal distance of the zoom lens and the position of the zoom lens and having respectively different focal positions, calculates a present focal distance corresponding to a present focus lens position by operation using the two tables and makes a range for adding the mask signal coincide with a range indicated by the setting information.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

監視カメラにおいて、パン(PAN:横振り)回転、チルト(TILT:縦振り)回転、ズーム(ZOOM)が可能なカメラ(以下、PTZ監視カメラと称する)が実用化されている。PTZ監視カメラは、パン方向、チルト方向に自由に回転できるカメラ用回転台に、カメラ本体を固定して使用している。このPTZ監視カメラは、外部のコントローラ部によりカメラ回転台及びカメラのズーム等を操作して、カメラが映す映像を自由に選択できるシステムである。PTZ監視カメラは一般的に、複数の映像位置を記憶し、記憶した映像位置を一定の時間で順次映し出すシーケンス制御機能を備える。また、監視エリアに人感センサ等を設置し、異常検知があった時に瞬時にカメラをパン・チルト・ズームして、異常を検知した方向にカメラを向けさせるアラーム機能等を備えている。   As surveillance cameras, cameras (hereinafter referred to as PTZ surveillance cameras) capable of pan (PAN: horizontal swing) rotation, tilt (TILT: vertical swing) rotation, and zoom (ZOOM) have been put into practical use. A PTZ surveillance camera uses a camera body fixed to a camera turntable that can freely rotate in a pan direction and a tilt direction. This PTZ monitoring camera is a system that can freely select an image projected by a camera by operating a camera turntable and a zoom of the camera by an external controller unit. A PTZ surveillance camera generally has a sequence control function that stores a plurality of video positions and sequentially displays the stored video positions at a predetermined time. In addition, a human sensor or the like is installed in the monitoring area, and when an abnormality is detected, an alarm function is provided that instantly pans, tilts, and zooms the camera and points the camera in the direction in which the abnormality is detected.

このような監視システムを、街路等の公共な場所に設置した場合、設置場所の周囲に存在する民間の家や撮影禁止対象物等、プライバシー保護のため撮影することが好ましくない箇所の処理の問題がある。そこで、プライバシー保護が必要な対象物を別の映像でマスクして、映像上見えなくするマスク方法が従来から提案されている。例えば特許文献1には、監視カメラに適用されるカメラ画像のマスク方法が記載されている。   When such a monitoring system is installed in a public place such as a street, there is a problem of processing in places where it is not desirable to take pictures for privacy protection, such as private houses and objects that are not allowed to be taken around the installation place. There is. In view of this, a masking method has been conventionally proposed in which an object that requires privacy protection is masked with another image so that the object is not visible on the image. For example, Patent Literature 1 describes a camera image masking method applied to a surveillance camera.

特許文献1に記載されたマスク方法は、カメラが、レンズと撮像素子との間の距離(レンズ焦点距離)であるf値と、ズームレンズ位置との対応を示した、レンズメーカから提供される関係テーブルを保持する。そして、カメラがマスクを付加する際に、マスク設定時のズームレンズ位置情報で示されるf値と、現在のズームレンズ位置情報で示されるf値を、関係テーブルから得る。そして、参照した2つのf値を用いて現在のズーム倍率を計算することで、カメラは、設定するマスクのサイズを、ズーム位置に連動させるものである。   The mask method described in Patent Document 1 is provided by a lens manufacturer, in which the camera indicates the correspondence between the f value, which is the distance between the lens and the image sensor (lens focal length), and the zoom lens position. Holds relationship table. Then, when the camera adds a mask, the f value indicated by the zoom lens position information at the time of mask setting and the f value indicated by the current zoom lens position information are obtained from the relation table. Then, by calculating the current zoom magnification using the two referenced f values, the camera links the size of the mask to be set to the zoom position.

特許第5389879号Japanese Patent No. 5389879

特許文献1に記載されるように、レンズ位置とf値との対応を示した関係テーブルを単純に利用するだけでは、正確なマスク設定ができないケースが存在する。
例えば、ズームレンズ位置とf値の関係テーブルをフォーカスレンズ位置が使用用途の多い無限遠時の1テーブルのみとするケースが想定される。このようなケースでは、f値はズームレンズ位置とフォーカスレンズ位置によって決まるのに対して、フォーカスレンズ位置が無限遠時しか考慮できていないため、フォーカスレンズ位置の違いによるf値を正しく算出できない。具体的には、フォーカス位置が無限遠の位置から移動した場合には計算によって求めたズーム倍率と実際のズーム倍率との差が大きくなり、ズーム倍率に連動して可変しているマスクサイズが、対象物のサイズ変化に正確に追従できなくなってしまう。マスクサイズが正しく追随できない場合、マスク対象物がマスクからはみだしたり、マスク対処物以外をマスクし過ぎてしまうといった問題が生じる。
As described in Patent Document 1, there are cases in which accurate mask setting cannot be performed simply by using a relationship table that shows correspondence between lens positions and f values.
For example, a case is assumed where the relationship table between the zoom lens position and the f value is only one table at infinity where the focus lens position is frequently used. In such a case, the f value is determined by the zoom lens position and the focus lens position. However, since the focus lens position can be considered only when the focus lens position is at infinity, the f value due to the difference in the focus lens position cannot be calculated correctly. Specifically, when the focus position moves from a position at infinity, the difference between the calculated zoom magnification and the actual zoom magnification increases, and the mask size that is variable in conjunction with the zoom magnification is It becomes impossible to accurately follow the change in size of the object. If the mask size cannot be followed correctly, there arises a problem that the mask object protrudes from the mask or masks other than the mask countermeasure object.

本発明は、マスク対象となる被写体を適正なサイズで正確にマスクすることができる撮像装置及び撮像方法を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus and an imaging method capable of accurately masking a subject to be masked with an appropriate size.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならは、撮像用のレンズとしてズームレンズとフォーカスレンズが装着された撮像装置であり、
特定の焦点距離で予め設定されたマスク表示位置の設定情報を取得するマスク制御部と、
前記ズームレンズを含む撮像位置の設定情報と前記マスク表示位置の設定情報とに基づいて算出した特定範囲を覆うためのマスク信号を映像信号に付加するマスク信号付加部とを備え、
前記マスク制御部は、前記ズームレンズの焦点距離と前記ズームレンズの位置との対応を示した、フォーカス位置が異なる2つのテーブルを有し、前記2つのテーブルを使った演算で現在のフォーカスレンズ位置に対応した現在の焦点距離を算出し、算出された現在の焦点距離に基づいてズーム倍率を計算し、計算したズーム倍率に基づいて、前記マスク信号付加部がマスク信号を付加する範囲を、前記マスク表示位置の設定情報で示された範囲に一致させる処理を行うものである。
In order to solve the above problems, for example, the configuration described in the claims is adopted.
The present application includes a plurality of means for solving the above-described problems. For example, an imaging apparatus in which a zoom lens and a focus lens are mounted as imaging lenses.
A mask control unit for acquiring setting information of a mask display position set in advance at a specific focal length;
A mask signal adding unit that adds a mask signal for covering a specific range calculated based on the setting information of the imaging position including the zoom lens and the setting information of the mask display position to the video signal;
The mask control unit has two tables with different focus positions indicating the correspondence between the focal length of the zoom lens and the position of the zoom lens, and the current focus lens position is calculated using the two tables. And calculating a zoom magnification based on the calculated current focal distance, and a range in which the mask signal adding unit adds a mask signal based on the calculated zoom magnification, Processing to match the range indicated by the mask display position setting information is performed.

本発明によれば、正確なズーム倍率を求めることができ、いずれのズーム倍率であってもマスクサイズやマスク位置を正確に設定することができ、マスク対象物を確実にマスクした画像が得られる効果を有する。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, an accurate zoom magnification can be obtained, a mask size and a mask position can be accurately set at any zoom magnification, and an image in which a mask object is reliably masked can be obtained. Has an effect.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の一実施の形態例によるシステム構成図である。1 is a system configuration diagram according to an embodiment of the present invention. 本発明の一実施の形態例による関係テーブルの例を示す説明図である。It is explanatory drawing which shows the example of the relationship table by one embodiment of this invention. 本発明の一実施の形態例による関係テーブルの3つの領域を示す説明図である。It is explanatory drawing which shows three area | regions of the relationship table by the example of 1 embodiment of this invention. 本発明の一実施の形態例による関係テーブルの3つの領域の正規化状態を示す説明図である。It is explanatory drawing which shows the normalization state of three area | regions of the relationship table by the example of 1 embodiment of this invention. 本発明の一実施の形態例による関係テーブルの3つの領域の選択処理を示すフローチャートである。It is a flowchart which shows the selection process of three area | regions of the relationship table by the example of 1 embodiment of this invention. 本発明の一実施の形態例によるf値の計算状態の例を示す説明図である。It is explanatory drawing which shows the example of the calculation state of f value by one embodiment of this invention. 本発明の一実施の形態例によるマスク設定時とマスク有効時の処理を示すフローチャートである。It is a flowchart which shows the process at the time of mask setting and mask effective by the example of 1 embodiment of this invention. 本発明の一実施の形態例によるマスク範囲の例(マスク範囲の中心の設定例)を示す説明図である。It is explanatory drawing which shows the example (setting example of the center of a mask range) of the mask range by one embodiment of this invention. 本発明の一実施の形態例によるマスク範囲の例(マスク範囲の四隅の設定例)を示す説明図である。It is explanatory drawing which shows the example (setting example of the four corners of a mask range) of the mask range by one embodiment of this invention. 本発明の一実施の形態例によるマスク信号の付加例を示す説明図である。It is explanatory drawing which shows the example of addition of the mask signal by one embodiment of this invention. 本発明の一実施の形態例による1画素の角度の計算例を示す説明図である。It is explanatory drawing which shows the example of calculation of the angle of 1 pixel by one embodiment of this invention. 本発明の一実施の形態例によるマスク有効時のパン角度、チルト角度に応じたマスクの移動量の計算例を示す説明図である。It is explanatory drawing which shows the example of calculation of the moving amount | distance of the mask according to the pan angle and tilt angle at the time of mask effective by one example of this invention.

以下、本発明の一実施の形態例(以下、「本例」と称する。)を、添付図面を参照して説明する。
[1.システム構成例]
図1は、本例の撮像装置である監視カメラ全体の構成例を示す。
本例の監視カメラは、カメラ本体がパン回転及びチルト回転が可能な回転台(不図示)に装着されると共に、ズームレンズ102を備えたレンズユニット101が装着され、PTZ監視カメラとして構成される。
Hereinafter, an embodiment of the present invention (hereinafter referred to as “this example”) will be described with reference to the accompanying drawings.
[1. System configuration example]
FIG. 1 shows a configuration example of the entire surveillance camera which is the imaging apparatus of this example.
The surveillance camera of this example is configured as a PTZ surveillance camera with a camera body mounted on a turntable (not shown) capable of panning and tilting rotation and a lens unit 101 having a zoom lens 102 mounted thereon. .

レンズユニット101は、ズームレンズ102とフォーカスレンズ103とアイリス104を備え、ズームレンズ102の位置により焦点距離の調整ができ、フォーカスレンズ103の位置によりフォーカス調整ができる。アイリス104は、レンズユニット101により取り込まれる外部光の光量を調整することができる。
レンズユニット101を通過した外部光は、撮像素子105に照射される。撮像素子105は、照射された光の光電変換で映像信号を取得する。撮像素子105としては、CCD(Charge-Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等、いずれの方式のイメージを適用してもよい。
撮像素子105で得られた映像信号は、アナログフロントエンド回路(AFE回路)106に供給される。AFE回路106では、相関二重サンプリング(CDS)処理、自動ゲイン調整(AGC)処理、デジタル変換処理などが行われる。AFE回路106でデジタル変換された映像信号が、画像処理部110に供給される。
The lens unit 101 includes a zoom lens 102, a focus lens 103, and an iris 104. The focal length can be adjusted by the position of the zoom lens 102, and the focus can be adjusted by the position of the focus lens 103. The iris 104 can adjust the amount of external light captured by the lens unit 101.
The external light that has passed through the lens unit 101 is applied to the image sensor 105. The image sensor 105 acquires a video signal by photoelectric conversion of the irradiated light. As the image sensor 105, any type of image such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be applied.
The video signal obtained by the image sensor 105 is supplied to an analog front end circuit (AFE circuit) 106. The AFE circuit 106 performs correlated double sampling (CDS) processing, automatic gain adjustment (AGC) processing, digital conversion processing, and the like. The video signal digitally converted by the AFE circuit 106 is supplied to the image processing unit 110.

画像処理部110は、エッジレベル算出部111を備え、オートフォーカス制御に必要な映像信号に含まれる輝度信号の変化レベル(エッジレベル)を算出する。エッジレベルは、画像処理部110に入力される映像信号で、画素間の輝度レベルの差が大きい程大きな値となる。エッジレベル算出部111が算出したエッジレベルの情報は、後述するオートフォーカス制御部203に供給され、エッジレベルに基づいたオートフォーカス制御に用いられる。エッジレベル算出部111が出力する映像信号は、信号処理部112に供給され、ノイズ低減処理、感度UP処理、色再現性向上処理等の各種信号処理が行われる。信号処理部112が出力する映像信号は、加算器114に供給され、マスク有効時にマスク信号付加部113が出力するマスク信号が付加される。ここで付加されるマスク信号は、予め設定されたプライバシー保護領域を隠すための信号である。   The image processing unit 110 includes an edge level calculation unit 111, and calculates a change level (edge level) of a luminance signal included in a video signal necessary for autofocus control. The edge level is a video signal input to the image processing unit 110, and increases as the difference in luminance level between pixels increases. Information on the edge level calculated by the edge level calculation unit 111 is supplied to an autofocus control unit 203 described later, and is used for autofocus control based on the edge level. The video signal output from the edge level calculation unit 111 is supplied to the signal processing unit 112 and subjected to various signal processing such as noise reduction processing, sensitivity enhancement processing, and color reproducibility improvement processing. The video signal output from the signal processing unit 112 is supplied to the adder 114, and a mask signal output from the mask signal adding unit 113 when the mask is valid is added. The mask signal added here is a signal for hiding a preset privacy protection area.

加算器114で加算処理が行われた映像信号は、画像処理部110の出力としてアナログ/デジタル変換部107に供給されてアナログ映像信号に変換される。この変換されたアナログ映像信号は、映像信号出力部108からモニタ等の表示機器(不図示)に供給され、撮像映像が表示される。なお、アナログ映像信号を出力するのは1つの例であり、デジタル映像信号を映像信号出力部108から表示機器に供給する構成としてもよい。また、映像信号出力部108が出力する映像信号を、記録装置が記録するようにしてもよい。   The video signal subjected to the addition processing by the adder 114 is supplied to the analog / digital conversion unit 107 as an output of the image processing unit 110 and converted into an analog video signal. The converted analog video signal is supplied from the video signal output unit 108 to a display device (not shown) such as a monitor, and a captured image is displayed. Note that outputting an analog video signal is one example, and the digital video signal may be supplied from the video signal output unit 108 to the display device. Further, the recording device may record the video signal output from the video signal output unit 108.

次に、撮像装置での撮像動作を制御するカメラ制御部200について説明する。
カメラ制御部200は、パン・チルト・ズーム情報取得部204を備える。パン・チルト・ズーム情報取得部204は、カメラ操作部131によるユーザ操作に基づいた操作情報を取得する。パン・チルト・ズーム情報取得部204は、取得した操作情報に基づいて、不図示の回転台に、パンの回転角度情報及びチルトの回転角度情報を供給し、回転台がカメラ本体を指示された回転角に設定する。また、パン・チルト・ズーム情報取得部204は、取得した操作情報に基づいて、ズームレンズモータ制御部201にズームレンズモータ121の駆動を指示する。ズームレンズモータ制御部201は、ズームレンズモータ121を駆動させて、ズームレンズ102の位置を移動させる。このズームレンズ102の位置を移動により、ユーザ操作で指示されたズームレンズ位置とする制御が行われる。
また、パン・チルト・ズーム情報取得部204は、パンの回転角度情報とチルトの回転角度情報とズームレンズ位置情報をマスク制御部230に供給する。マスク制御部230は、これらの情報に基づいて、マスク信号付加部113でマスクを付加する位置を算出する。マスク制御部230の詳細については後述する。
Next, the camera control unit 200 that controls the imaging operation of the imaging apparatus will be described.
The camera control unit 200 includes a pan / tilt / zoom information acquisition unit 204. The pan / tilt / zoom information acquisition unit 204 acquires operation information based on a user operation by the camera operation unit 131. Based on the acquired operation information, the pan / tilt / zoom information acquisition unit 204 supplies pan rotation angle information and tilt rotation angle information to a turntable (not shown), and the turntable is instructed to the camera body. Set to rotation angle. Further, the pan / tilt / zoom information acquisition unit 204 instructs the zoom lens motor control unit 201 to drive the zoom lens motor 121 based on the acquired operation information. The zoom lens motor control unit 201 drives the zoom lens motor 121 to move the position of the zoom lens 102. By moving the position of the zoom lens 102, the zoom lens position designated by the user operation is controlled.
Further, the pan / tilt / zoom information acquisition unit 204 supplies pan rotation angle information, tilt rotation angle information, and zoom lens position information to the mask control unit 230. Based on these pieces of information, the mask control unit 230 calculates the position where the mask signal adding unit 113 adds a mask. Details of the mask controller 230 will be described later.

また、カメラ制御部200のオートフォーカス制御部203が、フォーカスレンズモータ制御部202にフォーカスレンズモータ122の駆動を指示する。このオートフォーカス制御部203には、先に説明したようにエッジレベルの情報が供給され、エッジレベルが最大となるようにオートフォーカス制御部203がフォーカスレンズモータ122を駆動することで、被写体が合焦した状態で撮像することができる。   The autofocus control unit 203 of the camera control unit 200 instructs the focus lens motor control unit 202 to drive the focus lens motor 122. As described above, edge level information is supplied to the autofocus control unit 203, and the autofocus control unit 203 drives the focus lens motor 122 so that the edge level is maximized. Images can be taken in a focused state.

また、カメラ制御部200は、f値算出部210を備える。f値算出部210は、レンズユニット101のf値(焦点距離)を算出する処理部であり、ズームレンズ位置情報取得部211と、フォーカスレンズ位置情報取得部212と、f値計算部213とを備える。
ズームレンズ位置情報取得部211は、ズームレンズモータ制御部201からズームレンズ位置情報を取得する。フォーカスレンズ位置情報取得部212は、オートフォーカス制御部203からフォーカスレンズ位置情報を取得する。なお、ズームレンズモータ制御部201やオートフォーカス制御部203からレンズ位置情報を取得するのは一例であり、各レンズ102,103に装着されたセンサ(ポテンショメータなど)から直接取得するようにしてもよい。
In addition, the camera control unit 200 includes an f value calculation unit 210. The f value calculation unit 210 is a processing unit that calculates the f value (focal length) of the lens unit 101, and includes a zoom lens position information acquisition unit 211, a focus lens position information acquisition unit 212, and an f value calculation unit 213. Prepare.
The zoom lens position information acquisition unit 211 acquires zoom lens position information from the zoom lens motor control unit 201. The focus lens position information acquisition unit 212 acquires focus lens position information from the autofocus control unit 203. Note that the lens position information is acquired from the zoom lens motor control unit 201 or the autofocus control unit 203 is an example, and may be directly acquired from a sensor (potentiometer or the like) mounted on each of the lenses 102 and 103. .

ズームレンズ位置情報取得部211が取得したズームレンズ位置情報と、フォーカスレンズ位置情報取得部212が取得したフォーカスレンズ位置情報とは、f値計算部213に供給される。f値計算部213は、メモリ220の関係テーブル記憶部221に記憶されたレンズ位置とf値との関係テーブルの情報を参照して、供給される各レンズ位置情報からレンズユニット101の現在のf値を算出する。本例では、関係テーブル記憶部221には、関係テーブルAと関係テーブルBの2つのテーブルが記憶される。この2つのテーブルの具体例については後述する。
f値計算部213が算出したレンズユニット101のf値の情報は、マスク制御部230のマスク設定情報取得部241及びマスク表示位置計算部245に供給される。
The zoom lens position information acquired by the zoom lens position information acquisition unit 211 and the focus lens position information acquired by the focus lens position information acquisition unit 212 are supplied to the f value calculation unit 213. The f value calculation unit 213 refers to the information of the relationship table between the lens position and the f value stored in the relationship table storage unit 221 of the memory 220, and determines the current f of the lens unit 101 from the supplied lens position information. Calculate the value. In this example, the relationship table storage unit 221 stores two tables, a relationship table A and a relationship table B. Specific examples of these two tables will be described later.
Information on the f value of the lens unit 101 calculated by the f value calculation unit 213 is supplied to the mask setting information acquisition unit 241 and the mask display position calculation unit 245 of the mask control unit 230.

マスク制御部230は、マスク状態判定部231とマスク設定時処理部232とマスク有効時処理部233とマスク表示位置情報生成部234とを備える。マスク状態判定部231は、カメラ操作部131からの指示に基づいて、マスク設定時処理部232とマスク有効時処理部233とを選択的に作動させる。
マスク設定時処理部232は、マスク設定情報取得部241とマスク表示位置計算部242とマスク表示処理部243とを備える。マスク設定情報取得部241は、カメラ操作部131でのユーザ操作に基づいたマスク設定情報を取得する。また、マスク設定情報取得部241は、マスク設定時のパンの回転角度情報及びチルトの回転角度情報とズームレンズ位置情報を、パン・チルト・ズーム情報取得部204から取得する。
そして、マスク設定情報取得部241が取得した各情報から、マスク表示位置計算部242がマスク表示位置を計算し、計算したマスク表示位置情報が、メモリ220のカメラ表示位置情報記憶部223に記憶される。このとき、マスク表示位置情報を計算した際のf値と画面サイズや画角情報などのマスク設定時の情報が、カメラ表示位置情報記憶部223に記憶される。なお、メモリ220のカメラ情報記憶部222には、現在の画面サイズや画角情報などが記憶される。
The mask control unit 230 includes a mask state determination unit 231, a mask setting time processing unit 232, a mask valid time processing unit 233, and a mask display position information generation unit 234. The mask state determination unit 231 selectively activates the mask setting time processing unit 232 and the mask effective time processing unit 233 based on an instruction from the camera operation unit 131.
The mask setting time processing unit 232 includes a mask setting information acquisition unit 241, a mask display position calculation unit 242, and a mask display processing unit 243. The mask setting information acquisition unit 241 acquires mask setting information based on a user operation at the camera operation unit 131. Also, the mask setting information acquisition unit 241 acquires pan rotation angle information, tilt rotation angle information, and zoom lens position information at the time of mask setting from the pan / tilt / zoom information acquisition unit 204.
Then, from each information acquired by the mask setting information acquisition unit 241, the mask display position calculation unit 242 calculates a mask display position, and the calculated mask display position information is stored in the camera display position information storage unit 223 of the memory 220. The At this time, the f-value at the time of calculating the mask display position information and information at the time of mask setting such as the screen size and the angle of view information are stored in the camera display position information storage unit 223. The camera information storage unit 222 of the memory 220 stores the current screen size, field angle information, and the like.

そして、マスク表示位置計算部242が計算したマスク表示位置情報が、マスク表示処理部243に供給され、マスク表示処理部243で該当する位置にマスクを表示させるための処理が行われる。マスク表示処理部243は、マスク表示位置情報生成部234に対して、マスク表示位置情報を生成させる。マスク表示位置情報生成部234で生成されたマスク表示位置情報は、画像処理部110のマスク信号付加部113に供給され、マスク表示位置情報で指示されたマスク信号が生成される。   Then, the mask display position information calculated by the mask display position calculation unit 242 is supplied to the mask display processing unit 243, and the mask display processing unit 243 performs a process for displaying the mask at the corresponding position. The mask display processing unit 243 causes the mask display position information generation unit 234 to generate mask display position information. The mask display position information generated by the mask display position information generation unit 234 is supplied to the mask signal addition unit 113 of the image processing unit 110, and a mask signal specified by the mask display position information is generated.

マスク有効時処理部233は、マスク表示位置計算部245とマスク表示処理部246とを備える。マスク表示位置計算部245は、現在のパンの回転角度情報及びチルトの回転角度情報とズームレンズ位置情報を、パン・チルト・ズーム情報取得部204から取得する。また、マスク表示位置計算部245は、レンズユニット101のf値の情報を取得する。そして、マスク表示位置計算部245では、これらの情報に基づいてマスク表示位置が計算され、マスク表示処理部246で、該当する位置にマスクを表示させるための処理が行われる。マスク表示処理部246は、マスク表示位置情報生成部234に対して、マスク表示位置情報を生成させる。マスク表示位置情報生成部234で生成されたマスク表示位置情報は、画像処理部110のマスク信号付加部113に供給され、マスク表示位置情報で指示されたマスク信号が生成される。なお、これらのマスク有効時処理部233での処理はリアルタイムに実行され、リアルタイムでその時点のマスク表示位置情報が得られる。   The mask valid time processing unit 233 includes a mask display position calculation unit 245 and a mask display processing unit 246. The mask display position calculation unit 245 acquires the current pan rotation angle information, tilt rotation angle information, and zoom lens position information from the pan / tilt / zoom information acquisition unit 204. Further, the mask display position calculation unit 245 acquires information on the f value of the lens unit 101. The mask display position calculation unit 245 calculates the mask display position based on these pieces of information, and the mask display processing unit 246 performs a process for displaying the mask at the corresponding position. The mask display processing unit 246 causes the mask display position information generation unit 234 to generate mask display position information. The mask display position information generated by the mask display position information generation unit 234 is supplied to the mask signal addition unit 113 of the image processing unit 110, and a mask signal specified by the mask display position information is generated. Note that the processing in the mask valid time processing unit 233 is executed in real time, and the mask display position information at that time is obtained in real time.

なお、図1に示すカメラ制御部200内の各処理部は、ハードウェアで構成する場合の他に、一部又は全ての処理部をソフトウェアで構成してもよい。すなわち、メモリ220に各処理部で実行される機能を実現するプログラムが記憶され、そのプログラムを実行することでカメラ制御部200が得られるようにしてもよい。   Note that each processing unit in the camera control unit 200 shown in FIG. 1 may be configured by software, with some or all of the processing units being configured in addition to hardware. That is, a program that realizes a function executed by each processing unit may be stored in the memory 220, and the camera control unit 200 may be obtained by executing the program.

[2.メモリの記憶データの例]
次に、メモリ220の各記憶部221,222,223に記憶されるデータについて説明する。
関係テーブル記憶部221には、レンズの関係テーブルが2種類記憶される。レンズの関係テーブルの詳細は後述する。
[2. Example of stored data in memory]
Next, data stored in the storage units 221, 222, and 223 of the memory 220 will be described.
The relationship table storage unit 221 stores two types of lens relationship tables. Details of the lens relationship table will be described later.

カメラ情報記憶部222には、映像信号出力部108から出力される映像信号の水平方向の画素数MONI_Hと垂直方向のライン数MONI_Vの画面サイズ情報、そして、カメラ画面の水平画角と垂直画角からなる画角情報が記憶される。
カメラ表示位置情報記憶部223には、マスク設定時の情報が記憶される。マスク設定時の情報としては、パン角度、チルト角度、ズームレンズ位置(焦点距離:f値、正規化情報)、マスク位置、マスクサイズがある。
The camera information storage unit 222 stores the screen size information of the number of pixels MONI_H in the horizontal direction and the number of lines MONI_V in the vertical direction of the video signal output from the video signal output unit 108, and the horizontal and vertical angles of view of the camera screen. Is stored.
The camera display position information storage unit 223 stores information at the time of mask setting. Information at the time of mask setting includes pan angle, tilt angle, zoom lens position (focal length: f value, normalization information), mask position, and mask size.

図2は、メモリ220の関係テーブル記憶部221に記憶されるレンズの関係テーブルの例を示す。
本例のレンズの関係テーブルは、ズームレンズ102の位置とf値との関係を示す。ズームレンズ102の位置とf値との関係のデータは、例えばレンズユニット101を製作するメーカーより提供される。レンズユニット101は、フォーカスレンズ103の位置が変化すると、ズームレンズ102の位置とf値との関係が変化し、関係テーブルではその変化状態が示される。本例の場合には、関係テーブルとして、フォーカスレンズ103が無限遠時のときの焦点距離とズームレンズ位置の対応を示すテーブルAと、フォーカスレンズ103が最至近距離のときの焦点距離とズームレンズ位置の対応を示すテーブルBとが設けられる。
FIG. 2 shows an example of a lens relationship table stored in the relationship table storage unit 221 of the memory 220.
The lens relationship table of this example shows the relationship between the position of the zoom lens 102 and the f value. Data on the relationship between the position of the zoom lens 102 and the f value is provided by, for example, a manufacturer that manufactures the lens unit 101. In the lens unit 101, when the position of the focus lens 103 changes, the relationship between the position of the zoom lens 102 and the f value changes, and the change state is shown in the relationship table. In the case of this example, as a relation table, table A indicating the correspondence between the focal length and the zoom lens position when the focus lens 103 is at infinity, and the focal length and zoom lens when the focus lens 103 is the closest distance. A table B indicating the correspondence between positions is provided.

すなわち、図2に示すように、関係テーブル記憶部221には、ズームレンズ102のワイド端(W端)からテレ端(T端)までのf値の変化が、フォーカスレンズ103の位置に応じて2種類記憶される。図2にテーブルAで示される特性は、フォーカスレンズ103が無限遠時のときである。図2にテーブルBで示される特性は、フォーカスレンズ103が最至近距離のときである。   That is, as shown in FIG. 2, the relationship table storage unit 221 changes the f value from the wide end (W end) to the tele end (T end) of the zoom lens 102 according to the position of the focus lens 103. Two types are stored. The characteristics shown in Table A in FIG. 2 are when the focus lens 103 is at infinity. The characteristic shown by Table B in FIG. 2 is when the focus lens 103 is at the closest distance.

このレンズ位置とf値の関係テーブルは、複数の領域に分割され、領域ごとに正規化した値としてメモリ220に記憶される。
図3は、領域の設定状態と正規化の例を示す。
この例では、W端からT端までのズームレンズ位置を0から255の256段階の値とし、値が0から84までの範囲を領域1とし、85から169までの範囲を領域2とし、値が170から255までの範囲を領域3とする。そして、領域1は256で正規化し、領域2は512で正規化し、領域3は1024で正規化する。なお、256で正規化したデータは8ビットで表現され、512で正規化したデータは9ビットで表現され、1024で正規化したデータは10ビットで表現される。
このように正規化することで、領域1はf値が比較的小さな値であり、領域2,領域3と進むに従ってf値が大きくなるため、それぞれの領域に適した分解能で正規化される。
This relationship table between the lens position and the f value is divided into a plurality of areas, and is stored in the memory 220 as a normalized value for each area.
FIG. 3 shows an example of region setting status and normalization.
In this example, the zoom lens position from the W end to the T end is set to 256 steps of values from 0 to 255, the range from 0 to 84 is set as region 1, the range from 85 to 169 is set as region 2, and the value Is a region 3 from 170 to 255. Area 1 is normalized by 256, area 2 is normalized by 512, and area 3 is normalized by 1024. Data normalized by 256 is represented by 8 bits, data normalized by 512 is represented by 9 bits, and data normalized by 1024 is represented by 10 bits.
By normalizing in this way, the f value in the region 1 is relatively small, and the f value increases as the region 2 and the region 3 are advanced. Therefore, the region 1 is normalized with a resolution suitable for each region.

なお、正規化する際には、例えば以下の(1)式で計算することができる。
Y=INT((f_data_a*X)/f_data_max)・・・(1)
(1)式において、Yは正規化後のf値、f_data_aは実際のf値、f_data_maxはf値の最大値、INTは小数点以下を切り捨てて整数値として扱うことを意味する。
このように正規化することで、f値は全て整数値になり、f値算出部210での演算負荷を軽減することができる。
When normalizing, for example, the following equation (1) can be used.
Y = INT ((f_data_a * X) / f_data_max) (1)
In the equation (1), Y means the normalized f value, f_data_a means the actual f value, f_data_max means the maximum value of the f value, and INT means that the fractional part is rounded down and treated as an integer value.
By normalizing in this way, all the f values become integer values, and the calculation load on the f value calculation unit 210 can be reduced.

図4は、領域1,2,3のテーブルの具体例を示す。
領域1では、ズームレンズ位置を示す0から84までの値ごとに、f値として最小値(ここでは7)から最大値(ここでは255)までが割り当てられる。
領域2では、ズームレンズ位置を示す0から84までの値(ズームレンズ位置85から169までの値から85を減算した値)ごとに、f値として最小値(ここでは128)から最大値(ここでは511)までが割り当てられる。
領域3では、ズームレンズ位置を示す0から84までの値(ズームレンズ位置170から255までの値から170を減算した値)ごとに、f値として最小値(ここでは256)から最大値(ここでは1023)までが割り当てられる。
このように256,512,1024と徐々に大きくなる値を割り当てて正規化することで、現在のf値を求める際の演算誤差を極力最小化することができる。また、f値が小さい領域では、ビット数が少ないデータで表現されるため、テーブル全体のデータ量の低減に貢献する。
FIG. 4 shows a specific example of the table of the areas 1, 2 and 3.
In area 1, for each value from 0 to 84 indicating the zoom lens position, a minimum value (here 7) to a maximum value (here 255) is assigned as the f value.
In region 2, for each value from 0 to 84 indicating the zoom lens position (a value obtained by subtracting 85 from the values from zoom lens position 85 to 169), the f value is changed from the minimum value (128 here) to the maximum value (here). Then, up to 511) is allocated.
In the area 3, for each value from 0 to 84 indicating the zoom lens position (a value obtained by subtracting 170 from the value from the zoom lens position 170 to 255), the f value is set from the minimum value (here 256) to the maximum value (here Up to 1023) are allocated.
In this way, by assigning and gradually increasing values such as 256, 512, and 1024, normalization errors in obtaining the current f value can be minimized. In addition, since the area where the f value is small is expressed by data with a small number of bits, it contributes to the reduction of the data amount of the entire table.

具体的には、ズームレンズ位置のデータ範囲が0〜255である場合、正規化値をズームレンズ位置によらず1024(0〜1023)とした場合は、1データは10ビットとなる。このとき、f値のデータ量は、256×10ビット=2560ビット(320バイト)となり、それをテーブルAとテーブルBの2種類保持するので、計640バイトとなる。   Specifically, when the data range of the zoom lens position is 0 to 255, when the normalized value is 1024 (0 to 1023) regardless of the zoom lens position, one data is 10 bits. At this time, the data amount of the f value is 256 × 10 bits = 2560 bits (320 bytes), and two types of table A and table B are held, so the total amount is 640 bytes.

一方、領域別に正規化値を変えた図3の例の場合、領域1の正規化値は256であるため1単位のデータは8ビット、領域2の正規化値は512であるため1単位のデータは9ビット、領域3の正規化値は1024であるため1単位のデータは10ビットとなる。このため、3つの領域の合計は85×8ビット+85×9ビット+86×10ビット=2305ビット(約289バイト)となる。これをテーブルAとテーブルBの2種類保持するため、合計で578バイトとなり、全領域を同じ正規化値で正規化した場合に比べ62バイトのデータ量節約が可能である。   On the other hand, in the example of FIG. 3 in which the normalization value is changed for each region, the normalization value for region 1 is 256, so one unit of data is 8 bits, and the normalization value for region 2 is 512. Since the data is 9 bits and the normalized value of area 3 is 1024, one unit of data is 10 bits. Therefore, the total of the three areas is 85 × 8 bits + 85 × 9 bits + 86 × 10 bits = 2305 bits (about 289 bytes). Since this is stored in two types, table A and table B, the total is 578 bytes, and a data amount of 62 bytes can be saved as compared to the case where all areas are normalized with the same normalized value.

なお、図2及び図3に示すように2つの関係テーブルとして、無限遠時のテーブルと最至近距離時のテーブルの2つを用意するのは1つの例であり、その他の2つのフォーカスレンズ位置のテーブルを用意してもよい。テーブルが2つあるのも1つの例であり、3つ以上のテーブルを用意してもよい。また、図3に示すように3つの領域を設定して正規化する点についても一例であり、2つ又は4つ以上の領域を設定して正規化するようにしてもよい。正規化の値を256,512,1024とする点についても一例であり、その他の値で正規化してもよい。   As shown in FIG. 2 and FIG. 3, as two relational tables, preparing two tables, one at infinity and the one at the closest distance, is one example, and the other two focus lens positions. The table may be prepared. There are two tables as an example, and three or more tables may be prepared. In addition, as shown in FIG. 3, the setting of three areas and normalization is an example, and two or more areas may be set and normalized. The point where normalization values are 256, 512, and 1024 is also an example, and normalization may be performed with other values.

[3.f値の計算処理例]
次に、f値算出部210がf値を算出する処理の詳細について説明する。
f値算出部210内のズームレンズ位置情報取得部211が現在のズームレンズ位置を取得し、フォーカスレンズ位置情報取得部212が現在のフォーカスレンズ位置を取得する。そして、f値計算部213は、現在のフォーカスレンズ位置focus_position_nowと、現在のズームレンズ位置zoom_position_nowと、2つの関係テーブルA,Bのデータを参照して、現在のf値f_data_nowを計算する。このf値の計算時には、フォーカスレンズ稼働範囲focus_rangeについても参照する。
ズームレンズ位置focus_position_nowの範囲は0〜1023(最至近側を0、無限遠側を1023とする)とする。フォーカスレンズ稼働範囲focus_rangeは1024、現在のズームレンズ位置zoom_position_nowの範囲は0〜255(0:W端、255:T端とする)とする。これらの値の範囲は一例である。
[3. Example of f-value calculation processing]
Next, details of the process in which the f value calculation unit 210 calculates the f value will be described.
The zoom lens position information acquisition unit 211 in the f value calculation unit 210 acquires the current zoom lens position, and the focus lens position information acquisition unit 212 acquires the current focus lens position. Then, the f value calculation unit 213 calculates the current f value f_data_now by referring to the data in the two relationship tables A and B, the current focus lens position focus_position_now, the current zoom lens position zoom_position_now. When calculating the f value, the focus lens operating range focus_range is also referred to.
The range of the zoom lens position focus_position_now is 0 to 1023 (the closest side is 0 and the infinity side is 1023). The focus lens operating range focus_range is 1024, and the current zoom lens position zoom_position_now is 0 to 255 (0: W end, 255: T end). The range of these values is an example.

f値算出部210がf値を算出する処理を順に説明する。
まずf値算出部210は、現在のズームレンズ位置zoom_position_nowと2つの関係テーブルA,Bから、ズームレンズ位置zoom_position_nowにおける無限遠時のf値f_data_aと最至近距離時f_data_bを求める。
図5は、f値算出部210が、関係テーブル記憶部221からf値を読み出す際の処理例を示すフローチャートである。
まず、f値算出部210は、現在のズームレンズ位置zoom_position_nowが”領域1:0〜84の範囲”であるか、” 領域2:85〜169の範囲”であるか、”3領域:170〜255の範囲”のいずれであるかを判断する(ステップS11)。
ここで、現在のズームレンズ位置zoom_position_nowが”領域1:0〜84の範囲”のとき、領域1の配列番号[zoom_position_now]の時のf値と正規化値normalize_nowを読み出す(ステップS12)。
また、現在のズームレンズ位置zoom_position_nowが” 領域2:85〜169の範囲”のとき、領域2の配列番号[zoom_position_now−85]の時のf値と正規化値normalize_nowを読み出す(ステップS13)。
また、現在のズームレンズ位置zoom_position_nowが”領域3:170〜255の範囲”であれば、領域3の配列番号[zoom_position_now−170]の時のf値と正規化値normalize_nowを読み出す(ステップS14)。
The process in which the f value calculation unit 210 calculates the f value will be described in order.
First, the f value calculation unit 210 obtains the f value f_data_a at the infinity and the f_data_b at the closest distance in the zoom lens position zoom_position_now from the current zoom lens position zoom_position_now and the two relationship tables A and B.
FIG. 5 is a flowchart illustrating a processing example when the f value calculation unit 210 reads the f value from the relationship table storage unit 221.
First, the f-value calculation unit 210 determines whether the current zoom lens position zoom_position_now is “area 1 to 84 range”, “area 2: 85 to 169 range”, or “3 area: 170 to 170”. It is determined which of the range “255” (step S11).
Here, when the current zoom lens position zoom_position_now is “range 1 to 84”, the f value and the normalized value normalize_now at the time of the array number [zoom_position_now] of the region 1 are read (step S12).
When the current zoom lens position zoom_position_now is “region 2: range of 85 to 169”, the f value and the normalized value normalize_now at the time of the array number [zoom_position_now-85] of the region 2 are read (step S13).
If the current zoom lens position zoom_position_now is “region 3: range of 170 to 255”, the f value and the normalized value normalize_now at the time of the array number [zoom_position_now−170] of the region 3 are read (step S14).

この図5に示す読み出し処理を関係テーブルA,Bそれぞれに対して行うことで、現在のズームレンズ位置zoom_position_nowにおける無限遠時のf値f_data_aと最至近距離時のf値f_data_bを得る。   The readout process shown in FIG. 5 is performed for each of the relationship tables A and B, thereby obtaining the f value f_data_a at infinity and the f value f_data_b at the closest distance at the current zoom lens position zoom_position_now.

次に、フォーカスレンズ稼働範囲focus_rangeと、現在のフォーカスレンズ位置focus_position_nowと、無限遠時のf値f_data_a、最至近距離時f_data_bから、フォーカス位置を考慮した現在のf値を得る。以下の(2)式は、これらの値から現在のf値f_data_nowを計算する式である。
f_data_now=|f_data_a−f_data_b|×focus_position_now/focus_range+f_data_b・・・(2)
Next, the current f value considering the focus position is obtained from the focus lens operating range focus_range, the current focus lens position focus_position_now, the f value f_data_a at infinity, and f_data_b at the closest distance. The following expression (2) is an expression for calculating the current f value f_data_now from these values.
f_data_now = | f_data_a−f_data_b | × focus_position_now / focus_range + f_data_b (2)

以上により、現在のf値f_data_nowを求めることができ、f値算出部210で求められた現在のf値f_data_nowと正規化値normalize_nowが、リアルタイムでマスク制御部230に供給される。
なお、図6に、これらの各値の関係を関係テーブルの特性曲線上に示す。
As described above, the current f value f_data_now can be obtained, and the current f value f_data_now obtained by the f value calculation unit 210 and the normalized value normalize_now are supplied to the mask control unit 230 in real time.
FIG. 6 shows the relationship between these values on the characteristic curve of the relationship table.

[4.マスク制御処理例]
次に、図7のフローチャートを参照して、カメラ制御部200内のマスク制御部230での処理について説明する。
まず、マスク状態判定部231では、画面にマスクを付加しない制御オフ状態か、マスクの範囲を設定する状態か、マスクを画面に付加するマスク付加有効状態か、のいずれかを判断する(ステップS21)。
[4. Example of mask control processing]
Next, processing in the mask control unit 230 in the camera control unit 200 will be described with reference to the flowchart in FIG.
First, the mask state determination unit 231 determines one of a control-off state in which no mask is added to the screen, a state in which a mask range is set, and a mask addition valid state in which a mask is added to the screen (step S21). ).

ここで、画面にマスクを付加しない制御オフ状態の場合には、マスク付加に関して何も処理を行わずに終了する。
そして、マスクの範囲を設定する状態の際には、マスク設定時処理部232がマスク設定時処理を行う(ステップS22)。このマスク設定時には、映像信号出力部108が出力する映像に、マスクされるプライバシー保護領域を表示させる。このとき、ユーザによる操作で、映像上の任意の位置(範囲)を、マスク領域(プライバシー保護領域)として設定することが行われる。そして、このプライバシー保護領域を表示させる処理が、マスク信号付加部113で実行される(ステップS23)。
Here, in the case of a control-off state in which no mask is added to the screen, the process ends without performing any processing regarding mask addition.
When the mask range is set, the mask setting time processing unit 232 performs mask setting time processing (step S22). When the mask is set, the privacy protection area to be masked is displayed on the video output from the video signal output unit 108. At this time, an arbitrary position (range) on the video is set as a mask area (privacy protection area) by an operation by the user. Then, the process of displaying the privacy protection area is executed by the mask signal adding unit 113 (step S23).

また、マスク有効時の際には、マスク有効時処理部233がマスク有効時処理を行う(ステップS24)。ここで、ステップS22で設定されたマスク領域を隠すマスク信号が、マスク信号付加部113で映像信号に付加される(ステップS25)。このときには、撮像装置のパン角度、チルト角度、ズームレンズ位置のいずれが変化した場合でも、ステップS22で設定されたプライバシー保護領域に存在する被写体を隠すようにマスク信号が付加される。   When the mask is valid, the mask valid time processing unit 233 performs a mask valid time process (step S24). Here, a mask signal for hiding the mask area set in step S22 is added to the video signal by the mask signal adding unit 113 (step S25). At this time, a mask signal is added so as to hide the subject existing in the privacy protection area set in step S22 regardless of any change in pan angle, tilt angle, or zoom lens position of the imaging apparatus.

[5.マスク設定時の処理例]
次に、図8〜図10を参照して、マスク制御部230が行うマスク設定時の処理例について説明する。
カメラ操作部138とカメラ制御部200とで通信が行われることで、マスク設定情報取得部241では、ユーザがカメラ画面上(映像信号上)にマスクを設定する際に必要な情報を取得する。
[5. Example of processing when setting a mask]
Next, a processing example at the time of mask setting performed by the mask control unit 230 will be described with reference to FIGS.
Communication between the camera operation unit 138 and the camera control unit 200 causes the mask setting information acquisition unit 241 to acquire information necessary for the user to set a mask on the camera screen (on the video signal).

図8は、このときに取得する情報A,B,C,Dを示す。ここでは、マスク位置の情報A,Bは、moniMASK_Hposi,moniMASK_Vposiとし、マスクサイズの情報C,Dは、moniMASK_Hsize,moniMASK_Vsizeとする。図8ではカメラ画面の水平方向をX軸、垂直方向をY軸として、それぞれ右側を正、左側を負、下側を正、上側を負としており、ユーザがカメラ画面上の任意の位置にマスクを表示指定できるものとする。マスク位置の情報A,Bは、画面の中央からマスクの中心までのX軸及びY軸の距離を示し、マスクサイズの情報C,Dは、マスク範囲の中央から端までのX軸及びY軸のサイズを示す。図8の例では、マスク範囲は四角形としてある。   FIG. 8 shows information A, B, C, and D acquired at this time. Here, the mask position information A and B are moniMASK_Hposi and moniMASK_Vposi, and the mask size information C and D are moniMASK_Hsize and moniMASK_Vsize. In FIG. 8, the horizontal direction of the camera screen is the X axis and the vertical direction is the Y axis, the right side is positive, the left side is negative, the lower side is positive, the upper side is negative, and the user masks at an arbitrary position on the camera screen. Can be specified. Mask position information A and B indicate the distance between the X axis and the Y axis from the center of the screen to the center of the mask, and mask size information C and D indicate the X axis and Y axis from the center to the end of the mask range. Indicates the size. In the example of FIG. 8, the mask range is a rectangle.

ここでは例として、moniMASK_Hposi,moniMASK_Vposiは−127〜127の範囲で設定可能とし、moniMASK_Hsize,moniMASK_Vsizeは0〜128の範囲で設定可能なデータとする。この設定範囲は一例であり、その他の任意のマスク設定仕様としてよい。また、この例で設定するマスク形状は四角形としているが、マスク形状は四角形以外の例えば台形や円といった形状でもよい。   Here, as an example, moniMASK_Hposi and moniMASK_Vposi can be set in the range of −127 to 127, and moniMASK_Hsize and moniMASK_Vsize are data that can be set in the range of 0 to 128. This setting range is an example, and other arbitrary mask setting specifications may be used. Further, although the mask shape set in this example is a quadrangle, the mask shape may be other than a quadrangle, for example, a trapezoid or a circle.

また、マスク設定時のパンの回転角度情報及びチルトの回転角度情報とズームレンズ位置情報を、パン・チルト・ズーム情報取得部204が、それぞれPANs度、TILTs度として取得する。また、現在のf値f_data_nowと正規化値normalize_nowを、f値算出部210から取得する。   Also, the pan / tilt / zoom information acquisition unit 204 acquires pan rotation angle information, tilt rotation angle information, and zoom lens position information at the time of mask setting as PANs degrees and TILTs degrees, respectively. Also, the current f value f_data_now and the normalized value normalize_now are acquired from the f value calculation unit 210.

そして、マスク表示位置計算部242によって、カメラ操作部131から受け取った情報A,B,C,D(図8)を用いて、カメラ画面上にマスクを貼り付ける為の頂点座標p1,p2,p3,p4を計算する。
図9は、4つの頂点座標p1,p2,p3,p4を示す。ここでは、4つの頂点座標p1,p2,p3,p4は、以下のように示す。
p1_moniMASK(x1_moniMASK,y1_moniMASK),
p2_moniMASK(x2_moniMASK,y2_moniMASK),
p3_moniMASK(x3_moniMASK,y3_moniMASK),
p4_moni(x4_moniMASK,y4_moniMASK)
Then, using the information A, B, C, D (FIG. 8) received from the camera operation unit 131 by the mask display position calculation unit 242, vertex coordinates p1, p2, p3 for pasting the mask on the camera screen. , P4 is calculated.
FIG. 9 shows four vertex coordinates p1, p2, p3, and p4. Here, the four vertex coordinates p1, p2, p3, and p4 are shown as follows.
p1_moniMASK (x1_moniMASK, y1_moniMASK),
p2_moniMASK (x2_moniMASK, y2_moniMASK),
p3_moniMASK (x3_moniMASK, y3_moniMASK),
p4_moni (x4_moni MASK, y4_moni MASK)

マスク表示位置計算部242での頂点座標の計算は、メモリ220のカメラ情報記憶部222から、カメラ画面サイズ情報であるMONI_H、MONI_Vを参照して、以下の(3)、(4)、(5)、(6)式により計算を行なう。この際のカメラ画面の座標系は、図9に示すように取り扱うものとする。ただし、図9に示す座標軸の向きは一例であって、任意の方向であってもよい。   The calculation of the vertex coordinates in the mask display position calculation unit 242 is performed by referring to the camera screen size information MONI_H and MONI_V from the camera information storage unit 222 of the memory 220 as follows (3), (4), (5 ) And (6). The coordinate system of the camera screen at this time is assumed to be handled as shown in FIG. However, the direction of the coordinate axes shown in FIG. 9 is an example and may be an arbitrary direction.

x1_moniMASK=x3_moniMASK=(MONI_H/2)+
(MONI_H/256)×(−moniMASK_Hsize+moniMASK_Hposi)・・・(3)
x2_moniMASK=x4_monMASK=(MONI_H/2)+
(MONI_H/256)×(moniMASK_Hsize+moniMASK_Hposi)・・・(4)
y1_moniMASK=y2_moniMASK=(MONI_V/2)−
(MONI_V/256)×(moniMASK_Vsize+moniMASK_Vposi)・・・(5)
y3_moniMASK=y4_moniMASK=(MONI_V/2)−
(MONI_V/256)×(−moniMASK_Vsize+moniMASK_Vposi)・・・(6)
x1_moniMASK = x3_moniMASK = (MONI_H / 2) +
(MONI_H / 256) × (−moniMASK_Hsize + moniMASK_Hposi) (3)
x2_monMASK = x4_monMASK = (MONI_H / 2) +
(MONI_H / 256) × (moniMASK_Hsize + moniMASK_Hposi) (4)
y1_moniMASK = y2_moniMASK = (MONI_V / 2) −
(MONI_V / 256) × (moniMASK_Vsize + moniMASK_Vposi) (5)
y3_moniMASK = y4_moniMASK = (MONI_V / 2) −
(MONI_V / 256) × (−moniMASK_Vsize + moniMASK_Vposi) (6)

これらの式で求めたマスク表示位置情報と、パン・チルト・ズーム情報取得部204から取得したPANs度、TILTs度と、マスク設定時のf値f_data_nowと正規化値normalize_nowとを、メモリ220に記憶させる。これらの情報は、カメラ表示位置情報記憶部223に、f_data_set、normalize_setとして記憶される。   The memory 220 stores the mask display position information obtained by these equations, the PANs degree and the TILTs degree acquired from the pan / tilt / zoom information acquisition unit 204, the f value f_data_now and the normalized value normalize_now at the time of mask setting. Let These pieces of information are stored in the camera display position information storage unit 223 as f_data_set and normalize_set.

そして、マスク表示処理部243により、マスク表示位置計算部242で求めた座標情報を用いて、画像処理部110のマスク信号付加部113に、マスクを表示するための設定を行う。この設定で、マスク表示位置情報生成部244がマスク表示位置の情報を生成して、マスク信号付加部113に送る。
図10は、マスク表示位置情報生成部244からマスク信号付加部113に指示された、マスク信号の水平方向の発生タイミングと垂直方向の発生タイミングの例を示す。
水平方向のマスク信号の発生タイミングとしては、開始点mask_h_startと終了点mask_h_endを指定し、垂直方向のマスク信号の発生タイミングとしては、開始点mask_v_startと終了点mask_v_endを指定する。
水平方向の開始点mask_h_startは、図9に示すx1_moniMASK(=x3_moniMASK)を使用する。水平方向の終了点mask_h_endは、図9に示すx2_moniMASK(=x4_moniMASK)を使用する。
垂直方向の開始点mask_v_startは、図9に示すy1_moniMASK(=y2_moniMASK)を使用する。垂直方向の終了点mask_v_endは、図9に示すy3_moniMASK(=y4_monMASK)を使用する。
Then, the mask display processing unit 243 performs setting for displaying the mask on the mask signal adding unit 113 of the image processing unit 110 using the coordinate information obtained by the mask display position calculation unit 242. With this setting, the mask display position information generation unit 244 generates mask display position information and sends it to the mask signal addition unit 113.
FIG. 10 shows an example of the generation timing of the mask signal in the horizontal direction and the generation timing in the vertical direction instructed from the mask display position information generation unit 244 to the mask signal addition unit 113.
The start point mask_h_start and the end point mask_h_end are specified as the generation timing of the mask signal in the horizontal direction, and the start point mask_v_start and the end point mask_v_end are specified as the generation timing of the mask signal in the vertical direction.
As the horizontal start point mask_h_start, x1_moniMASK (= x3_moniMASK) shown in FIG. 9 is used. As the horizontal end point mask_h_end, x2_moniMASK (= x4_moniMASK) shown in FIG. 9 is used.
As the vertical start point mask_v_start, y1_moniMASK (= y2_moniMASK) shown in FIG. 9 is used. As the vertical end point mask_v_end, y3_moniMASK (= y4_monMASK) shown in FIG. 9 is used.

これらのマスク信号発生タイミングの水平方向及び垂直方向の信号は、例えば図10に示すように、マスク発生期間でハイレベル“H”となり、マスク発生期間以外でローレベル“L”となる信号である。
これらの情報に基づいて、図10に示すようにカメラ画面内にマスク表示予定箇所が設定される。なお、本明細書でのカメラ画面は、映像信号出力部108から出力される映像信号によりディスプレイ上に表示される画面を示す。
These horizontal and vertical signals of the mask signal generation timing are, for example, as shown in FIG. 10, a signal that is at a high level “H” during the mask generation period and is at a low level “L” during other periods than the mask generation period. .
Based on these pieces of information, a mask display scheduled portion is set in the camera screen as shown in FIG. Note that the camera screen in this specification indicates a screen displayed on the display by the video signal output from the video signal output unit 108.

[6.マスク有効時の処理例]
次に、マスク有効時の処理例について説明する。
図11は、マスク有効時の1画素あたりの角度を得る処理を示す。
まず、マスク表示位置計算部245にて、カメラ表示位置情報記憶部223に記憶されたマスクを貼り付ける為の頂点座標p1,p2,p3,p4(図9)の情報の取得処理を行う。そして、取得した頂点座標p1,p2,p3,p4を、そのときのパン・チルト・ズームの状態に応じて補正する演算を行う。
この演算のために、カメラ表示位置情報記憶部223に記憶された画像の水平画角H_GAKAKU、垂直画角V_GAKAKU(図11)を参照する。
[6. Example of processing when mask is enabled]
Next, a processing example when the mask is valid will be described.
FIG. 11 shows a process for obtaining an angle per pixel when the mask is valid.
First, the mask display position calculation unit 245 performs processing for acquiring information of vertex coordinates p1, p2, p3, and p4 (FIG. 9) for pasting the mask stored in the camera display position information storage unit 223. Then, calculation is performed to correct the acquired vertex coordinates p1, p2, p3, and p4 according to the pan, tilt, and zoom states at that time.
For this calculation, the horizontal angle of view H_GAKAKU and the vertical angle of view V_GAKAKU (FIG. 11) of the image stored in the camera display position information storage unit 223 are referred to.

そして、下記の(7)、(8)式により垂直画角H_GAKAKU、水平画角V_GAKAKUをカメラ画面サイズ情報であるMONI_H、MONI_Vで割り算して、1画素あたりの角度H_1PIXEL_KAKU、V_1PIXEL_KAKUを得る。
H_1PIXEL_KAKU=H_GAKAKU/MONI_H・・・(7)
V_1PIXEL_KAKU=V_GAKAKU/MONI_V・・・(8)
Then, by dividing the vertical field angle H_GAKAKU and the horizontal field angle V_GAKAKU by the camera screen size information MONI_H and MONI_V by the following formulas (7) and (8), angles H_1PIXEL_KAKU and V_1PIXEL_KAKU per pixel are obtained.
H_1PIXEL_KAKU = H_GAKAKU / MONI_H (7)
V_1PIXEL_KAKU = V_GAKAKU / MONI_V (8)

図12は、マスク有効時にマスクを付加する際の、パン角度、チルト角度、ズーム位置の設定例を示す。
図12に示すように、マスク設定時のパン角度、チルト角度、ズーム位置情報であるPANs度、TILTs度、f_data_set、normalize_setを基準として、マスク設定時から水平方向、垂直方向に何画素移動したのかを計算する。ここでは、ここで計算される水平方向、垂直方向の移動量を画素移動量と称する。
この計算により、カメラ画面に表示するマスクの座標p1,p2,p3,p4を得る。p1,p2,p3,p4は、以下のように示される。
p1_moniMASK’(x1_moniMASK’,y1_moniMASK’),
p2_moniMASK’(x2_moniMASK’,y2_moniMASK’),
p3_moniMASK’(x3_moniMASK’,y3_moniMASK’),
p4_moni’(x4_moniMASK’,y4_moniMASK’)
FIG. 12 shows an example of setting the pan angle, tilt angle, and zoom position when adding a mask when the mask is valid.
As shown in FIG. 12, the number of pixels moved in the horizontal and vertical directions from the mask setting with reference to the pan angle, tilt angle, zoom position information PANs degree, TILTs degree, f_data_set, and normalize_set at the time of mask setting. Calculate Here, the movement amounts in the horizontal direction and the vertical direction calculated here are referred to as pixel movement amounts.
By this calculation, the coordinates p1, p2, p3, and p4 of the mask displayed on the camera screen are obtained. p1, p2, p3, and p4 are shown as follows.
p1_moniMASK ′ (x1_moniMASK ′, y1_moniMASK ′),
p2_moniMASK ′ (x2_moniMASK ′, y2_moniMASK ′),
p3_moniMASK ′ (x3_moniMASK ′, y3_moniMASK ′),
p4_moni '(x4_moniMASK', y4_moniMASK ')

マスク有効時のパン角をPANa度、チルト角をTILTa度とすると、水平方向と垂直方向の画素移動量H_IDORYO、V_IDORYOは(9)、(10)式で計算できる。
H_IDORYO=(PANa−PANs)/H_1PIXEL_KAKU・・・(9)
V_IDORYO=(TILTa−TILTs)/V_1PIXEL_KAKU・・・(10)
When the pan angle when the mask is valid is PANa degrees and the tilt angle is TILTa degrees, the pixel movement amounts H_IDORYO and V_IDORYO in the horizontal direction and the vertical direction can be calculated by the equations (9) and (10).
H_IDORYO = (PANa-PANs) / H_1PIXEL_KAKU (9)
V_IDORYO = (TILTa-TILTs) / V_1PIXEL_KAKU (10)

そして、(9)、(10)式を用いて以下の(11)、(12)、(13)、(14)式よりマスク有効時にカメラ画面に表示するマスク座標p1_moniMASK’、p3_moniMASK’、p1_moniMASK’、p4_moniMASK’を計算する。
x1_moniMASK’=x3_moniMASK’=x1_moniMASK−H_IDORYO・・・(11)
x2_moniMASK’=x4_moniMASK’=x2_moniMASK−H_IDORYO・・・(12)
y1_moniMASK’=y2_moniMASK’=y1_moniMASK−V_IDORYO・・・(13)
y3_moniMASK’=y4_moniMASK’=y3_moniMASK−V_IDORYO・・・(14)
The mask coordinates p1_moniMASK ′, p3_moniMASK ′, and p1_moniMASK ′ displayed on the camera screen when the mask is valid from the following equations (11), (12), (13), and (14) using the equations (9) and (10). , P4_moniMASK ′.
x1_moniMASK ′ = x3_moniMASK ′ = x1_moniMASK−H_IDORYO (11)
x2_moniMASK ′ = x4_moniMASK ′ = x2_moniMASK−H_IDORYO (12)
y1_moniMASK ′ = y2_moniMASK ′ = y1_moniMASK−V_IDORYO (13)
y3_moniMASK ′ = y4_moniMASK ′ = y3_moniMASK−V_IDORYO (14)

次に、マスク設定時のズーム倍率(位置)からマスク有効時のズーム倍率になった際にマスクを拡大または、縮小するためにズーム位置の変化に応じて、マスク座標を補間する演算を行う。すなわち、マスク座標p1_moniMASK’、p2_moniMASK’、p3_moniMASK’、p4_moniMASK’を補間する演算を行う。この演算により、マスク座標p1_moniMASK’’(x1_moniMASK’’,y1_moniMASK’’),p2_moniMASK’’(x2_moniMASK’’,y2_moniMASK’’),p3_moniMASK’’(x3_moniMASK’’,y3_moniMASK’’),p4_moni’’(x4_moniMASK’’,y4_moniMASK’’)を得る。   Next, in order to enlarge or reduce the mask when the zoom magnification (position) at the time of mask setting becomes the zoom magnification at the time when the mask is valid, a calculation for interpolating the mask coordinates is performed in accordance with the change of the zoom position. That is, an operation for interpolating the mask coordinates p1_moniMASK ′, p2_moniMASK ′, p3_moniMASK ′, and p4_moniMASK ′ is performed. By this calculation, the mask coordinates p1_moni MASK ″ (x1_moni MASK ″, y1_moni MASK ″), p2_moni MASK ″ (x2_moni MASK ″, y2_moni MASK ″), p3_moni MASK ″ (x3_moniSm ″ i × Mi ″ m iSkin_i_M i_Sm_i_M i_Sm '', Y4_moniMASK '').

そして、カメラ表示位置情報記憶部223に記憶されたマスク設定時のf値と正規化値と、f値算出部210からリアルタイムに取得される現在のf値とその正規化値を用いて、マスク設定時から変化したズーム倍率ZOOMsを以下(15)式により計算する。
ここで、マスク設定時のf値はf_data_set、マスク設定時の正規化値normalize_setであり、現在のf値はf_data_now、現在の正規化値は、normalize_nowである。
ZOOMs=(f_data_now×normalize_set)/(f_data_set×normalize_now)・・・(15)
Then, using the f value and the normalized value at the time of mask setting stored in the camera display position information storage unit 223, the current f value acquired in real time from the f value calculation unit 210, and the normalized value, the mask is used. The zoom magnification ZOOMs changed from the setting time is calculated by the following equation (15).
Here, the f value at the time of mask setting is f_data_set and the normalized value normalize_set at the time of mask setting, the current f value is f_data_now, and the current normalized value is normalize_now.
ZOOMs = (f_data_now × normalize_set) / (f_data_set × normalize_now) (15)

したがって、マスク座標の演算には以下の(16)、(17)、(18)、(19)式により計算を行う。
x1_moniMASK’’=x3_moniMASK’’=(x1_moniMASK’−MONI_H/2)*ZOOMs+MONI_H/2・・・(16)
x1_moniMASK’’=x3_moniMASK’’=(x1_moniMASK’−MONI_H/2)*ZOOMs+MONI_H/2…(17)
y1_moniMASK’’=y2_moniMASK’’=(y1_moniMASK’−MONI_V/2)*ZOOMs+MONI_V/2・・・(18)
y3_moniMASK’’=y4_moniMASK’’=(y3_moniMASK’−MONI_V/2)*ZOOMs+MONI_V/2・・・(19)
Therefore, the calculation of the mask coordinates is performed by the following equations (16), (17), (18), and (19).
x1_moniMASK ″ = x3_moniMASK ″ = (x1_moniMASK′−MONI_H / 2) * ZOOMs + MONI_H / 2 (16)
x1_moniMASK ″ = x3_moniMASK ″ = (x1_moniMASK′−MONI_H / 2) * ZOOMs + MONI_H / 2 (17)
y1_moniMASK ″ = y2_moniMASK ″ = (y1_moniMASK′−MONI_V / 2) * ZOOMs + MONI_V / 2 (18)
y3_moniMASK ″ = y4_moniMASK ″ = (y3_moniMASK′−MONI_V / 2) * ZOOMs + MONI_V / 2 (19)

このようにして計算したマスク座標を用いて、マスク信号を生成するために必要な情報をマスク表示処理部243からマスク表示位置情報生成部234に送り、マスク信号付加部113にマスクを付加させるための設定を行う。
マスク信号付加部113では、マスク設定時と同様に、水平開始点mask_h_start、水平終了点mask_h_end、垂直開始点mask_v_start、水平終了点mask_v_endを設定する。このようにして、映像信号出力部108から出力される映像信号によるカメラ画面に、適正な位置やサイズに調整されたマスクが付加され、隠したい領域が見えない画面になる。
Information necessary for generating a mask signal is sent from the mask display processing unit 243 to the mask display position information generating unit 234 using the mask coordinates calculated in this way, and the mask signal adding unit 113 adds a mask. Set up.
The mask signal adding unit 113 sets a horizontal start point mask_h_start, a horizontal end point mask_h_end, a vertical start point mask_v_start, and a horizontal end point mask_v_end, as in the mask setting. In this way, a mask adjusted to an appropriate position and size is added to the camera screen based on the video signal output from the video signal output unit 108, so that the area to be hidden cannot be seen.

ここでは、図12に示すように、マスク表示位置情報生成部234は、画像処理部110のマスク信号付加部113に、水平開始点mask_h_startとして、座標x1_moniMASK’’を与える。また、水平終了点mask_h_endとして、座標x2_moniMASK’’を与える。また、垂直開始点mask_v_startとして、座標y1_moniMASK’’を与える。さらに、垂直終了点mask_v_endとして、座標y3_moniMASK’’を与える。   Here, as illustrated in FIG. 12, the mask display position information generation unit 234 gives the coordinate x1_moniMASK ″ as the horizontal start point mask_h_start to the mask signal addition unit 113 of the image processing unit 110. Further, the coordinate x2_moniMASK ″ is given as the horizontal end point mask_h_end. Also, the coordinate y1_moniMASK ″ is given as the vertical start point mask_v_start. Further, the coordinate y3_moniMASK ″ is given as the vertical end point mask_v_end.

以上説明したように、本例の撮像装置によると、パン角度、チルト角度の変化や、フォーカスレンズ位置とズームレンズ位置の変化に応じてマスク表示サイズと位置を可変させることができるため、マスクしたい対象物を精度よく確実にマスクすることができる。特に、フォーカスレンズ位置の変化を考慮したf値を計算しているため、フォーカスレンズ位置の変化を考慮に入れた正確なズーム倍率を計算でき、フォーカスレンズ位置がいずれであっても正確なマスク位置や範囲の設定が可能になる。一般的にズーム倍率が高倍率のレンズ程、テレ端側のフォーカスレンズ位置におけるf値の差が大きくなりフォーカスレンズ位置によりf値の変動が無視できなくなる。したがって、本例の監視カメラによると、高倍率なレンズを装着した場合であっても、精度よくズーム倍率を求めることができ、対象物を正確にマスクし続けることが可能となる。   As described above, according to the imaging apparatus of this example, the mask display size and position can be changed according to changes in pan angle and tilt angle, and changes in focus lens position and zoom lens position. An object can be masked accurately and reliably. In particular, since the f value is calculated in consideration of the change in the focus lens position, an accurate zoom magnification that takes into account the change in the focus lens position can be calculated, and the correct mask position regardless of the focus lens position. And range can be set. In general, the higher the zoom magnification, the larger the difference in f value at the focus lens position on the telephoto end, and the fluctuation of the f value cannot be ignored depending on the focus lens position. Therefore, according to the surveillance camera of this example, even when a high-magnification lens is mounted, the zoom magnification can be obtained with high accuracy, and the object can be continuously masked accurately.

[7.変形例]
なお、上述した実施の形態例で説明したマスク設定時とマスク有効時の具体的な処理内容に関しては、一例を示したものであり、これに限定されるものではない。例えば、マスク設定時のf値から現在のf値に変化した際のズーム倍率を説明した数式により計算し、その計算で得た情報を使用して、別のアルゴリズムでマスクの表示範囲の制御を行うようにしてもよい。また、マスクはカメラ画面内に1つのみを設定した例を示したが、複数のマスクを1つのカメラ画面内に設定してもよい。
[7. Modified example]
It should be noted that the specific processing contents at the time of mask setting and mask validity described in the above-described embodiment are merely examples, and the present invention is not limited to this. For example, the zoom magnification at the time of changing from the f value at the time of mask setting to the current f value is calculated by a mathematical expression, and the information obtained by the calculation is used to control the display range of the mask with another algorithm. You may make it perform. Moreover, although the example which set only one mask in the camera screen was shown, you may set a some mask in one camera screen.

また、算出したf値の情報は、マスク制御以外に利用してもよい。例えば、算出したf値は、映像信号出力部108から出力される映像信号によるカメラ画面内に、数値などで表示されるようにして、正確なズーム倍率情報をユーザに伝えるようにしてもよい。   Further, the calculated f value information may be used in addition to mask control. For example, the calculated f value may be displayed as a numerical value or the like on the camera screen based on the video signal output from the video signal output unit 108, so that accurate zoom magnification information may be transmitted to the user.

また、上述した実施の形態例では、撮像装置は、パンの回転とチルトの回転とズームとの全ての機能を備えた、いわゆるPTZ監視カメラに適用した。これに対して、例えば固定された撮像装置にズームレンズが装着された場合に、正確なズーム倍率を求めて、マスク位置を正確に設定するようにしてもよい。
あるいは、撮像装置本体を回転させる回転台として、パンの回転とチルトの回転のいずれか一方のみを行うものに適用してもよい。
In the above-described embodiment, the imaging apparatus is applied to a so-called PTZ monitoring camera having all functions of pan rotation, tilt rotation, and zoom. On the other hand, for example, when a zoom lens is attached to a fixed imaging apparatus, an accurate zoom magnification may be obtained and the mask position may be set accurately.
Alternatively, the rotating table that rotates the imaging apparatus main body may be applied to one that performs only one of pan rotation and tilt rotation.

また、発明は上記した実施の形態例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Further, the invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to easily understand the present invention, and are not necessarily limited to those having all the configurations described.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101…レンズユニット、102…ズームレンズ、103…フォーカスレンズ、104…アイリス、105…撮像素子、106…アナログフロントエンド回路(AFE回路)、107…デジタル/アナログ変換部、108…映像信号出力部、110…画像処理部、111…エッジレベル算出部、112…信号処理部、113…マスク信号付加部、114…加算器、121…ズームレンズ制御用モータ、122…フォーカスレンズ制御用モータ、131…カメラ操作部、200…カメラ制御部、201…ズームレンズモータ制御部、202…フォーカスレンズモータ制御部、203…オートフォーカス制御部、204…パン・チルト・ズーム情報取得部、210…f値算出部、211…ズームレンズ位置情報取得部、212…フォーカスレンズ位置情報取得部、213…f値計算部、220…メモリ、221…関係テーブル記憶部、222…カメラ情報記憶部、223…カメラ表示位置情報記憶部、230…マスク制御部、231…マスク状態判定部、232…マスク設定時処理部、233…マスク有効時処理部、234…マスク表示位置情報生成部、241…マスク設定情報取得部、242,245…マスク表示位置計算部、243,246…マスク表示処理部
DESCRIPTION OF SYMBOLS 101 ... Lens unit, 102 ... Zoom lens, 103 ... Focus lens, 104 ... Iris, 105 ... Imaging element, 106 ... Analog front end circuit (AFE circuit), 107 ... Digital / analog conversion part, 108 ... Video signal output part, DESCRIPTION OF SYMBOLS 110 ... Image processing part, 111 ... Edge level calculation part, 112 ... Signal processing part, 113 ... Mask signal addition part, 114 ... Adder, 121 ... Motor for zoom lens control, 122 ... Motor for focus lens control, 131 ... Camera Operation unit 200 ... Camera control unit 201 ... Zoom lens motor control unit 202 ... Focus lens motor control unit 203 ... Auto focus control unit 204 ... Pan / tilt / zoom information acquisition unit 210 ... f value calculation unit 211 ... Zoom lens position information acquisition unit, 212 ... Focus lens Position information acquisition unit, 213... F value calculation unit, 220... Memory, 221... Relationship table storage unit, 222... Camera information storage unit, 223 ... camera display position information storage unit, 230. , 232... Mask setting processing unit, 233. Mask effective processing unit, 234. Mask display position information generation unit, 241. Mask setting information acquisition unit, 242 and 245. Mask display position calculation unit, 243 and 246. Display processing section

Claims (8)

撮像用のレンズとしてズームレンズとフォーカスレンズが装着された撮像装置であり、
特定の焦点距離で予め設定されたマスク表示位置の設定情報を取得するマスク制御部と、
前記ズームレンズを含む撮像位置の設定情報と前記マスク表示位置の設定情報とに基づいて算出した特定範囲を覆うためのマスク信号を映像信号に付加するマスク信号付加部とを備え、
前記マスク制御部は、前記ズームレンズの焦点距離と前記ズームレンズの位置との対応を示した、フォーカス位置が異なる2つのテーブルを有し、前記2つのテーブルを使った演算で現在のフォーカスレンズ位置に対応した現在の焦点距離を算出し、算出された現在の焦点距離に基づいてズーム倍率を計算し、計算したズーム倍率に基づいて、前記マスク信号付加部がマスク信号を付加する範囲を、前記マスク表示位置の設定情報で示された範囲に一致させる処理を行う
撮像装置。
An imaging device equipped with a zoom lens and a focus lens as imaging lenses,
A mask control unit for acquiring setting information of a mask display position set in advance at a specific focal length;
A mask signal adding unit that adds a mask signal for covering a specific range calculated based on the setting information of the imaging position including the zoom lens and the setting information of the mask display position to the video signal;
The mask control unit has two tables with different focus positions indicating the correspondence between the focal length of the zoom lens and the position of the zoom lens, and the current focus lens position is calculated using the two tables. And calculating a zoom magnification based on the calculated current focal distance, and a range in which the mask signal adding unit adds a mask signal based on the calculated zoom magnification, An imaging device that performs processing to match the range indicated by the mask display position setting information.
前記2つのテーブルは、無限遠時の焦点距離とズームレンズ位置の対応を示すテーブルと、最至近距離時の焦点距離とズームレンズ位置の対応を示すテーブルである
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the two tables are a table that indicates a correspondence between a focal length at infinity and a zoom lens position, and a table that indicates a correspondence between a focal length at a closest distance and a zoom lens position.
前記2つのテーブルのそれぞれは、少なくとも2つの領域に分割され、それぞれの領域毎に正規化した値を格納したテーブルである
請求項2に記載の撮像装置。
The imaging device according to claim 2, wherein each of the two tables is a table that is divided into at least two regions and stores a normalized value for each region.
パンの回転とチルトの回転が可能な回転台を備え、
前記マスク表示位置は、特定の回転方向で特定の焦点距離で予め設定された情報である
請求項1〜3のいずれか1項に記載の撮像装置。
It has a turntable that can rotate pan and tilt,
The imaging device according to any one of claims 1 to 3, wherein the mask display position is information preset at a specific focal length in a specific rotation direction.
撮像用のレンズとしてズームレンズとフォーカスレンズが装着された撮像装置に適用される撮像方法であり、
特定の焦点距離で予め設定されたマスク表示位置の設定情報を取得するマスク表示位置設定情報の取得処理と、
前記ズームレンズの焦点距離と前記ズームレンズの位置との対応を示した、フォーカス位置が異なる2つのテーブルを使った演算で、現在のフォーカスレンズ位置から現在の焦点距離を算出し、算出された焦点距離に基づいてズーム倍率を算出し、算出されたズーム倍率に基づいてマスク信号を付加する範囲を、前記マスク表示位置の設定情報で示された範囲に一致させるマスク制御処理とを含む
撮像方法。
An imaging method applied to an imaging device equipped with a zoom lens and a focus lens as an imaging lens,
Mask display position setting information acquisition processing for acquiring mask display position setting information set in advance at a specific focal length;
The current focal length is calculated from the current focus lens position by calculation using two tables with different focus positions, showing the correspondence between the focal length of the zoom lens and the position of the zoom lens, and the calculated focus A mask control process that calculates a zoom magnification based on the distance and matches a range in which a mask signal is added based on the calculated zoom magnification with a range indicated by the setting information of the mask display position.
前記2つのテーブルは、無限遠時の焦点距離とズームレンズ位置の対応を示すテーブルと、最至近距離時の焦点距離とズームレンズ位置の対応を示すテーブルである
請求項5に記載の撮像方法。
The imaging method according to claim 5, wherein the two tables are a table indicating a correspondence between a focal length and a zoom lens position at infinity, and a table indicating a correspondence between a focal length and a zoom lens position at the closest distance.
前記2つのテーブルのそれぞれは、少なくとも2つの領域に分割され、それぞれの領域毎に正規化した値を格納したテーブルである
請求項6に記載の撮像方法。
The imaging method according to claim 6, wherein each of the two tables is a table that is divided into at least two regions and stores a normalized value for each region.
前記撮像装置は、パンの回転とチルトの回転が可能な回転台に装着され、
前記マスク表示位置は、特定の回転方向で特定の焦点距離で予め設定された情報である
請求項5〜7のいずれか1項に記載の撮像方法。
The imaging device is mounted on a turntable capable of rotating a pan and a tilt,
The imaging method according to claim 5, wherein the mask display position is information preset at a specific focal length in a specific rotation direction.
JP2015251650A 2015-12-24 2015-12-24 Imaging apparatus and imaging method Pending JP2017118318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015251650A JP2017118318A (en) 2015-12-24 2015-12-24 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015251650A JP2017118318A (en) 2015-12-24 2015-12-24 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2017118318A true JP2017118318A (en) 2017-06-29

Family

ID=59230992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015251650A Pending JP2017118318A (en) 2015-12-24 2015-12-24 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2017118318A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110324519A (en) * 2019-06-20 2019-10-11 安徽亿联网络科技有限公司 A kind of real-time network project monitor and control warning device
JP2020088507A (en) * 2018-11-20 2020-06-04 キヤノン株式会社 Image processing device and image processing method
CN112419405A (en) * 2019-08-23 2021-02-26 杭州海康威视数字技术股份有限公司 Target tracking joint display method, security system and electronic equipment
CN113572960A (en) * 2021-07-23 2021-10-29 武汉星环恒宇信息科技有限公司 Video rapid label positioning method for water affair prevention and control
CN114554295A (en) * 2020-11-10 2022-05-27 财团法人工业技术研究院 Communication system and method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088507A (en) * 2018-11-20 2020-06-04 キヤノン株式会社 Image processing device and image processing method
JP7257778B2 (en) 2018-11-20 2023-04-14 キヤノン株式会社 Image processing device, image processing method
CN110324519A (en) * 2019-06-20 2019-10-11 安徽亿联网络科技有限公司 A kind of real-time network project monitor and control warning device
CN112419405A (en) * 2019-08-23 2021-02-26 杭州海康威视数字技术股份有限公司 Target tracking joint display method, security system and electronic equipment
CN112419405B (en) * 2019-08-23 2024-03-08 杭州海康威视数字技术股份有限公司 Target tracking joint display method, security system and electronic equipment
CN114554295A (en) * 2020-11-10 2022-05-27 财团法人工业技术研究院 Communication system and method thereof
CN114554295B (en) * 2020-11-10 2023-08-15 财团法人工业技术研究院 Communication system and method thereof
CN113572960A (en) * 2021-07-23 2021-10-29 武汉星环恒宇信息科技有限公司 Video rapid label positioning method for water affair prevention and control
CN113572960B (en) * 2021-07-23 2023-11-14 武汉星环恒宇信息科技有限公司 Video quick tag positioning method for water affair prevention and control

Similar Documents

Publication Publication Date Title
JP4245185B2 (en) Imaging device
JP6821339B2 (en) Image shake correction device, tilt correction device, control method of image shake correction device, control method of tilt correction device
JP2017118318A (en) Imaging apparatus and imaging method
US11190698B2 (en) Imaging apparatus, control method for imaging apparatus, information processing apparatus, and storage medium
JP5235910B2 (en) Camera head system
US10778896B2 (en) Image processing apparatus and image processing method
US11190747B2 (en) Display control apparatus, display control method, and storage medium
US11831979B2 (en) Image pickup apparatus, an image processing method and a non-transitory computer-readable medium for displaying a plurality of images different in in-focus position
JP2011142419A5 (en)
JP2006245793A (en) Imaging system
US9667853B2 (en) Image-capturing apparatus
JP2021105694A (en) Imaging apparatus and method for controlling the same
JP2014107784A (en) Monitoring camera apparatus, monitoring system including the same, mask processing method and mask processing program
KR20200064908A (en) Control apparatus, imaging apparatus, and storage medium
US11184549B2 (en) Image-capturing system, information processing apparatus, control method of information processing apparatus, and storage medium
US10979620B2 (en) Image processing apparatus for providing information for focus adjustment, control method of the same, and storage medium
US9300860B2 (en) Image-capturing apparatus
EP3165955B1 (en) Zoom control device, zoom control method, and program
JP6980450B2 (en) Controls, control methods, and programs
KR100664811B1 (en) Method and apparatus for controlling privacy mask display
JP2011188258A (en) Camera system
US9667869B2 (en) Camera apparatus for automatically maintaining horizontality and method for the same
JP2016111561A (en) Information processing device, system, information processing method, and program
JP2015177528A (en) image processing apparatus, image processing method, and program
JP6943151B2 (en) Display control device and display control system