JP2005175852A - Photographing apparatus and method of controlling photographing apparatus - Google Patents

Photographing apparatus and method of controlling photographing apparatus Download PDF

Info

Publication number
JP2005175852A
JP2005175852A JP2003412603A JP2003412603A JP2005175852A JP 2005175852 A JP2005175852 A JP 2005175852A JP 2003412603 A JP2003412603 A JP 2003412603A JP 2003412603 A JP2003412603 A JP 2003412603A JP 2005175852 A JP2005175852 A JP 2005175852A
Authority
JP
Japan
Prior art keywords
optical system
photographing
imaging
angle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003412603A
Other languages
Japanese (ja)
Other versions
JP2005175852A5 (en
Inventor
Takashi Kawai
川井  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003412603A priority Critical patent/JP2005175852A/en
Publication of JP2005175852A publication Critical patent/JP2005175852A/en
Publication of JP2005175852A5 publication Critical patent/JP2005175852A5/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing apparatus having a plurality of photographing optical systems with different photographing magnifications and capable of efficiently moving the direction of the line of sight of the photographing optical system with high photographing magnification into a direction in which an object is located. <P>SOLUTION: The photographing apparatus includes: a first photographing optical system (101) with first photographing magnification; and a second photographing optical system (102) with a second photographing magnification greater than the first photographing magnification. The second photographing optical system can be turned. The incidence pupil positions of the first and second photographing optical systems are located on the turning axis (301a) of the second photographing optical system. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、撮像倍率の異なる複数の撮像光学系を用い、特定領域を撮影する技術に関するものである。特に異なる複数の撮像光学系の空間的距離によって生じる撮影領域のずれを緩和する技術に関するものである。   The present invention relates to a technique for photographing a specific area using a plurality of imaging optical systems having different imaging magnifications. In particular, the present invention relates to a technique for alleviating a shift of a shooting area caused by a spatial distance between a plurality of different imaging optical systems.

従来撮像倍率の異なる複数のカメラを用いて撮影領域内の特定の場所を異なる撮影倍率で撮影する撮影装置として、撮影倍率の低い1台のカメラと、パン・チルト可能な雲台上に搭載された撮影倍率の高い1台のカメラを用いる方法が知られている(例えば、特許文献1参照)。   As a photographic device that shoots a specific place in the photographic area with different photographic magnifications using multiple cameras with different photographic magnifications, it is mounted on one camera with a low photographic magnification and a pan / tilt pan head. A method using a single camera with a high photographing magnification is known (for example, see Patent Document 1).

図17は、広角光学系を有する広角カメラ1701によって、広範囲な領域(広域監視領域1704)を撮影するとともに、広域監視領域1704内に存在する特定被写体1703を、広角カメラ1701より撮影倍率の高い変倍動作可能なズームカメラ1702によって拡大撮影するシステムを表す。   FIG. 17 shows that a wide-angle camera 1701 having a wide-angle optical system captures a wide area (wide-area monitoring area 1704), and a specific subject 1703 existing in the wide-area monitoring area 1704 has a higher imaging magnification than the wide-angle camera 1701. A system for enlarging an image with a zoom camera 1702 capable of double operation is shown.

広角カメラ1701は例えば立ち入り制限領域である広域監視領域1704を常時撮影し、広域監視領域1704内に侵入する特定被写体1703を検出する。   The wide-angle camera 1701, for example, always photographs the wide area monitoring area 1704, which is a restricted access area, and detects a specific subject 1703 that enters the wide area monitoring area 1704.

特定被写体1703は、その位置および大きさ情報が検出され、この検出結果がズームカメラ1702に送信される。そして、ズームカメラ1702が、パン方向及びチルト方向に駆動され、適当なズーム倍率に変倍して特定被写体の拡大像を撮影する。   The position and size information of the specific subject 1703 is detected, and the detection result is transmitted to the zoom camera 1702. Then, the zoom camera 1702 is driven in the pan direction and the tilt direction, and zooms in to an appropriate zoom magnification to capture an enlarged image of the specific subject.

広角カメラ1701は時系列に撮影した画像から画像毎に特定被写体1703の検知、被写体位置および大きさの検出、ズームカメラ1702への伝送を行い、ズームカメラ1702は時系列に順次伝送されてくる位置情報からパン・チルト角に変換し、大きさ情報から変倍率を確定し、図示されてない雲台とズーム機構を制御することによって、特定被写体すなわち侵入者の拡大映像を追尾していく。   The wide-angle camera 1701 detects a specific subject 1703 for each image, detects the subject position and size, and transmits the image to the zoom camera 1702, and the zoom camera 1702 is a position sequentially transmitted in time series. The information is converted into the pan / tilt angle, the magnification is determined from the size information, and the enlarged image of the specific subject, that is, the intruder, is tracked by controlling the camera platform and the zoom mechanism (not shown).

カメラによって撮影された画像中の特定点から実空間上の位置情報は、一般に行列(以後この行列をカメラパラメータと呼ぶ)によって与えられ、カメラパラメータの各要素は実空間上の絶対座標、カメラの光軸方向とその垂直平面によって張られるカメラ座標、カメラの焦点距離によって与えられる。   The position information in the real space from a specific point in the image photographed by the camera is generally given by a matrix (hereinafter this matrix is referred to as a camera parameter), and each element of the camera parameter is an absolute coordinate in the real space, the camera's It is given by the camera coordinate stretched by the optical axis direction and its vertical plane, and the focal length of the camera.

またパラメータ決定には少なくとも同一平面上にない6個以上の基準点(以降これをランドマークと呼ぶ)を必要とするが、実際には多くのランドマークからパラメータを最適化し、精度向上を図っている。   In addition, parameter determination requires at least six reference points (hereinafter referred to as landmarks) that are not on the same plane. In practice, parameters are optimized from many landmarks to improve accuracy. Yes.

この方法は3次元空間上の座標が精度よく得られるものの、カメラパラメータを得るには多くの労力を広角カメラとズームカメラの2台について必要とし、またカメラを移動する度に再度カメラパラメータを求めなければならない。   Although this method can obtain coordinates in a three-dimensional space with high accuracy, it requires a lot of effort to obtain camera parameters for both the wide-angle camera and the zoom camera, and the camera parameters are obtained again each time the camera is moved. There must be.

ただし、図17に示すような監視目的で使用する場合は、屋内外を問わずに地上の上方にカメラを設置し、地表面を移動する侵入者を広範囲に鳥瞰できることが望ましい。この場合、侵入者すなわち特定被写体1703の位置情報は地平面上の点として2次元空間上の座標点と近似できる場合も多い。   However, when used for the purpose of monitoring as shown in FIG. 17, it is desirable that a camera is installed above the ground regardless of whether it is indoors or outdoors so that an intruder moving on the ground surface can be seen from a wide range. In this case, the position information of the intruder, that is, the specific subject 1703 can often be approximated as a coordinate point on the two-dimensional space as a point on the ground plane.

すなわち、ランドマークA,B,Cを同一直線上にない実空間上の3点に設定し、各ランドマークの実空間上の絶対座標およびカメラ撮影像のカメラ座標を予め調べておく事によって、地平面上の任意の場所に侵入者がいても位置情報を得ることができる。   That is, the landmarks A, B, and C are set at three points on the real space that are not on the same straight line, and by checking the absolute coordinates of each landmark in the real space and the camera coordinates of the camera photographed image in advance, Position information can be obtained even if there is an intruder at an arbitrary place on the ground plane.

このようにして取得された位置情報は、ズームカメラ1702に伝送され、ズームカメラは侵入者位置座標が光軸方向に配置されるようにパン・チルトを行なう。さらに広角カメラによって検出された特定被写体へのズームカメラのパン動作・チルト動作に限定するならば、被写体の実空間上の絶対座標を介さない方法もある。   The position information acquired in this way is transmitted to the zoom camera 1702, and the zoom camera performs pan / tilt so that the intruder position coordinates are arranged in the optical axis direction. Further, if the zoom camera is limited to panning and tilting operations on a specific subject detected by a wide-angle camera, there is a method that does not involve absolute coordinates of the subject in real space.

第18図は、ズームカメラ1702のパン・チルトに広角カメラ1701が干渉しない程度の間隔Dだけ離して配置した2台のカメラを表している。ズームカメラ1702はその初期状態においてズームカメラ視線方向1802(光軸方向)が広角カメラ1701の光軸方向1801と平行になるよう設定してある。   FIG. 18 shows two cameras arranged at a distance D such that the wide-angle camera 1701 does not interfere with the pan / tilt of the zoom camera 1702. In the initial state of the zoom camera 1702, the zoom camera viewing direction 1802 (optical axis direction) is set to be parallel to the optical axis direction 1801 of the wide-angle camera 1701.

特定被写体1703が広角カメラ1701によって検出されたとき、広角カメラ光軸1801と広角カメラ1701から特定被写体1703に延びる直線とのなす角度θを求める。   When the specific subject 1703 is detected by the wide-angle camera 1701, an angle θ formed by the wide-angle camera optical axis 1801 and a straight line extending from the wide-angle camera 1701 to the specific subject 1703 is obtained.

この角度θを予め決めておいた直交軸(パン軸、チルト軸と仮に呼ぶ)に投影し、パン角θpおよびチルト角θtを求め、ズームカメラ1702に伝送する。ズームカメラ1702は、ズームカメラ初期視線方向1802に対し、その視線方向をパン角θpおよびチルト角θtだけ移動し、特定被写体1703を捕捉する。   This angle θ is projected onto a predetermined orthogonal axis (provisionally called a pan axis and a tilt axis), and a pan angle θp and a tilt angle θt are obtained and transmitted to the zoom camera 1702. The zoom camera 1702 moves the line-of-sight direction by the pan angle θp and the tilt angle θt with respect to the zoom camera initial line-of-sight direction 1802 and captures the specific subject 1703.

以上のように、従来撮像倍率の異なる複数のカメラを用いて空間上の特定領域を異なる撮影倍率で撮影する装置には、いったん特定領域の実空間上の絶対座標を用いてカメラ視線方向を制御する方法や、特定領域を検出した映像からカメラと特定領域のなす角度を求めカメラ視線方向を制御する方法などが知られている。
特開2000−295600号公報(段落番号0019,0022,図22)
As described above, for a device that uses a plurality of cameras with different imaging magnifications to capture a specific area in space at different shooting magnifications, the camera gaze direction is controlled once using the absolute coordinates of the specific area in real space. And a method for determining the angle between the camera and the specific area from the video in which the specific area is detected and controlling the camera viewing direction.
JP 2000-295600 A (paragraph number 0019,0022, FIG. 22)

しかしながら、上記従来の方法においては、以下に説明する多くの課題が残されている。まず図17で説明したような特定被写体の実空間上の絶対座標を用いてカメラ視線方向を制御する場合、少なくとも3点のランドマークを決め、広角カメラにおいてはカメラに撮影された特定被写体1703の位置と画像上の3点のランドマークの内分比を求め、3点のランドマークの実空間上の絶対座標を前記内分比で分割する点を求めることによって侵入者の絶対座標を得る演算が必要なこと。   However, in the conventional method, many problems described below remain. First, when the camera viewing direction is controlled using the absolute coordinates of the specific subject in the real space as described with reference to FIG. 17, at least three landmarks are determined, and in the wide-angle camera, the specific subject 1703 photographed by the camera is determined. An operation for obtaining the absolute coordinates of the intruder by obtaining the internal division ratio between the position and the three landmarks on the image and obtaining the points that divide the absolute coordinates of the three landmarks in the real space by the internal division ratio. Is necessary.

また、ズームカメラにおいては、侵入者の絶対座標からズームカメラのパン・チルト角を演算が必要となる。   In a zoom camera, it is necessary to calculate the pan / tilt angle of the zoom camera from the absolute coordinates of the intruder.

また、これらの演算は動画像のように時系列に得られる各シーン画像のシーンサンプリング時間に対し充分に短い時間となる。   In addition, these calculations are sufficiently shorter than the scene sampling time of each scene image obtained in time series like a moving image.

さらには、広角カメラまたはズームカメラいずれのカメラにおいてもその設置場所を変えたとき、全ての初期設定が必要となるなど多くの計算負荷や労力を要する問題がある。   Furthermore, there is a problem that requires a lot of calculation load and labor, for example, when all the initial settings are required when the installation location is changed in either the wide-angle camera or the zoom camera.

また、図20は図17で示した監視領域内に特定被写体1703以上の大きさを有する障害物2003が存在する状態を示した図である。   FIG. 20 is a diagram showing a state where an obstacle 2003 having a size larger than the specific subject 1703 exists in the monitoring area shown in FIG.

障害物2003によって、広角カメラ1701とズームカメラ1702にはそれぞれ、死角2001と死角2002が生じるが、死角はカメラの設置場所によって異なる。   The obstacle 2003 causes a blind spot 2001 and a blind spot 2002 in the wide-angle camera 1701 and the zoom camera 1702, respectively, but the blind spot differs depending on the installation location of the camera.

例えば図20において、広角カメラ1701は特定被写体1703を検出することが可能でその位置情報を演算しズームカメラ1702に伝送しているが、特定被写体1703は障害物2003による死角2002の領域内に位置しているため、ズームカメラ1702は、障害物2003が陰となって特定被写体1703を撮影することができない。   For example, in FIG. 20, the wide-angle camera 1701 can detect the specific subject 1703 and calculates the position information thereof and transmits it to the zoom camera 1702, but the specific subject 1703 is positioned within the blind spot 2002 area due to the obstacle 2003. Therefore, the zoom camera 1702 cannot photograph the specific subject 1703 due to the obstacle 2003 being shaded.

このような不具合は、広角カメラ1701とズームカメラ1702の設置場所が離れているほど起こりやすく、障害物2003の死角にならない別の場所にズームカメラを新たに設置するしか侵入者の拡大映像を撮影する方法はない。   Such a problem is more likely to occur as the installation positions of the wide-angle camera 1701 and the zoom camera 1702 are farther apart, and an enlarged image of the intruder can be captured only by installing a new zoom camera in another place where the obstacle 2003 does not become a blind spot. There is no way to do it.

次に、第18図に示したようなズームカメラ1702のパン・チルトに広角カメラ1701が干渉しない程度の間隔Dだけ離して配置した2台のカメラで、広角カメラ光軸1801と特定被写体1703のなす角θを伝達し、ズームカメラ1702を制御する場合の課題について説明する。   Next, as shown in FIG. 18, the wide-angle camera optical axis 1801 and the specific subject 1703 are separated by two cameras arranged at a distance D that does not interfere with the pan / tilt of the zoom camera 1702. A problem in the case of controlling the zoom camera 1702 by transmitting the formed angle θ will be described.

第19図は第18図を図中上方から見た図である。前述のように広角カメラ1701とズームカメラ1702はズームカメラ1702の回転によって干渉しない十分な間隔D(以降Dを広角カメラ1701とズームカメラ1702の基線長と呼ぶ)だけ離して設置してあり、その初期状態では広角カメラ光軸1801とズームカメラ初期視線方向1802(光軸)は平行に設定してある。   FIG. 19 is a view of FIG. 18 as viewed from above. As described above, the wide-angle camera 1701 and the zoom camera 1702 are separated from each other by a sufficient distance D that does not interfere with the rotation of the zoom camera 1702 (hereinafter, D is referred to as the baseline length of the wide-angle camera 1701 and the zoom camera 1702). In the initial state, the wide-angle camera optical axis 1801 and the zoom camera initial line-of-sight direction 1802 (optical axis) are set in parallel.

いま、広角カメラ1701によって監視範囲領域内の侵入者である特定被写体1703を検知したとき、広角レンズ1901の中心(主点位置)から特定被写体1703に延びる線(広角カメラ視線方向1804)と光軸1801のなす角度θが得られたとする。   Now, when the specific object 1703 that is an intruder in the monitoring range area is detected by the wide-angle camera 1701, a line (wide-angle camera viewing direction 1804) extending from the center (principal point position) of the wide-angle lens 1901 to the specific object 1703 and the optical axis. Assume that an angle θ formed by 1801 is obtained.

角度θはズームカメラ1702に伝送され回転軸1902を中心に初期状態の光軸方向1802に対して角度θだけ回転する。しかしながら角度θ回転後のズームカメラ1702の光軸(ズームカメラ視線方向1803)は、広角カメラ視線方向1804とd(=Dcos(θ))だけ離れており、またズーミングによるズームカメラ視野領域1903は撮影倍率が高いほど狭くなる。   The angle θ is transmitted to the zoom camera 1702 and rotates about the rotation axis 1902 by the angle θ with respect to the optical axis direction 1802 in the initial state. However, the optical axis (zoom camera line-of-sight direction 1803) of the zoom camera 1702 after the rotation of the angle θ is separated from the wide-angle camera line-of-sight direction 1804 by d (= Dcos (θ)), and the zoom camera field of view 1903 by zooming is photographed. The higher the magnification, the narrower.

例えば、長辺方向の長さが40cmのズームカメラ1702と広角カメラ1701とを回転しても互いににぶつからないよう60cmの間隔(D=60cm)で設置したとき、dが最大値(=D)を取る正面方向(θ=0deg)では、ほぼ人間一人の肩幅(約60cmとする)分のずれが生じ、ズームカメラによる最適な拡大像が得られないという課題がある。   For example, when the zoom camera 1702 having a length of 40 cm in the long side direction and the wide-angle camera 1701 are rotated at intervals of 60 cm (D = 60 cm) so that they do not collide with each other, d is the maximum value (= D). In the front direction (θ = 0 deg.), A shift of approximately one person's shoulder width (about 60 cm) occurs, and there is a problem that an optimal enlarged image cannot be obtained by the zoom camera.

さらに、第21図は広角カメラ1701とズームカメラ1702を垂直に設置した図であり、第22図は第21図を上から見た図を表している。 本図が第18図と異なる所はカメラを垂直に設置したことと、ズームカメラのパン回転軸1902が広角レンズ1901主点位置と水平面上で距離Eだけ離れた位置にあることである。   Further, FIG. 21 is a view in which a wide-angle camera 1701 and a zoom camera 1702 are installed vertically, and FIG. 22 is a view of FIG. 21 as viewed from above. This figure is different from FIG. 18 in that the camera is installed vertically and that the pan rotation axis 1902 of the zoom camera is located at a distance E from the principal point position of the wide-angle lens 1901 on the horizontal plane.

動作に関しては前述と同様で、広角カメラによって監視範囲領域内の侵入者を検知したとき、広角カメラ視線方向と光軸のなす角度θを求め、ズームカメラは回転軸を中心に初期状態の光軸方向に対して角度θだけ回転する。   The operation is the same as described above. When an intruder in the surveillance area is detected by the wide-angle camera, the angle θ formed by the viewing direction of the wide-angle camera and the optical axis is obtained, and the zoom camera uses the optical axis in the initial state around the rotation axis. Rotate by an angle θ relative to the direction.

しかしながら図中eで示すように広角カメラ視線方向1804とズームカメラ視線方向1803は距離e=Esin(θ)のずれが生じる。以下、ずれ量eとズーミングによるズームカメラ視野領域の関係は前述と同様でズームカメラによる最適な拡大像が得られないという課題がある。   However, as indicated by e in the figure, the wide-angle camera line-of-sight direction 1804 and the zoom camera line-of-sight direction 1803 are shifted by a distance e = Esin (θ). Hereinafter, the relationship between the shift amount e and the zoom camera field of view by zooming is the same as described above, and there is a problem that an optimal enlarged image cannot be obtained by the zoom camera.

上記課題を解決するために、本願発明の撮影装置の第1の構成は、第1の撮影倍率を有する第1の撮影光学系(例えば広角光学系ユニット)と、第1の撮影倍率よりも大きい第2の撮影倍率を有する第2の撮影光学系(例えばズーム光学系ユニット)とを有し、第2の撮影光学系は回動が可能であり、かつ第1および第2の撮影光学系の入射瞳位置が、第2の撮影光学系の回動軸上に配置されていることを特徴とする。   In order to solve the above-described problem, the first configuration of the photographing apparatus of the present invention is a first photographing optical system (for example, a wide-angle optical system unit) having a first photographing magnification, and is larger than the first photographing magnification. A second imaging optical system (for example, a zoom optical system unit) having a second imaging magnification, the second imaging optical system is rotatable, and the first and second imaging optical systems The entrance pupil position is arranged on the rotation axis of the second photographing optical system.

ここで、第2の撮影光学系を、回動軸に直交する軸回りでも回動可能にするとよい。   Here, it is preferable that the second photographing optical system can be rotated around an axis orthogonal to the rotation axis.

また、第2の撮影光学系を、変倍可能とし、この変倍に応じて第2の撮影光学系を光軸方向に動かすようにしてもよい。   Further, the second photographic optical system may be variable in magnification, and the second photographic optical system may be moved in the optical axis direction in accordance with the variable magnification.

また、第1の撮影光学系を用いて得た撮影画像に基づいて第2の撮影光学系の撮影方向を決定し、該決定された撮影方向に2の撮影光学系を回動させる制御手段を設けるのが好ましい。   Control means for determining a shooting direction of the second shooting optical system based on a shot image obtained by using the first shooting optical system and rotating the second shooting optical system in the determined shooting direction. It is preferable to provide it.

また、制御手段に、撮影画像内から特定被写体領域を検出し、該特定被写体領域を含むように第2の撮影光学系の撮影方向を決定させるのが好ましい。   In addition, it is preferable that the control unit detects a specific subject area from the photographed image and determines a photographing direction of the second photographing optical system so as to include the specific subject area.

また、第1の撮影光学系を用いて得た撮影画像に基づいて第2の撮影倍率を決定し、第2の撮影光学系を該該決定した第2の撮影倍率に設定する制御手段を設けるのが好ましく、さらにこの制御手段に、撮影画像内から特定被写体領域を検出させ、該特定被写体領域に応じて第2の撮影倍率を決定するようにさせるのが好ましい。   Further, there is provided control means for determining a second photographing magnification based on a photographed image obtained using the first photographing optical system and setting the second photographing optical system to the determined second photographing magnification. Further, it is preferable that the control means detect a specific subject area from the photographed image and determine the second photographing magnification according to the specific subject area.

本願発明の撮影装置の制御方法の第1の構成は、第1の撮影倍率を有する第1の撮影光学系(例えば広角光学系ユニット)と、第1の撮影倍率よりも大きい第2の撮影倍率を有する第2の撮影光学系(例えばズーム光学系ユニット)とを有し、第2の撮影光学系は回動が可能であり、かつ第1および第2の撮影光学系の入射瞳位置が、第2の撮影光学系の回動軸上に配置されている撮影装置の制御方法であって、第2の撮影光学系の方向を初期化するステップと、第1の撮影光学系を用いて得た撮影画像内から特定被写体領域を検出するステップと、該検出した特定被写領域を含むように第2の撮影光学系の方向を決定するステップと、該決定した方向に第2の撮影光学系を回動軸回りで回動させるステップとを有することを特徴とする。   The first configuration of the control method of the photographing apparatus according to the present invention includes a first photographing optical system (for example, a wide-angle optical system unit) having a first photographing magnification, and a second photographing magnification larger than the first photographing magnification. A second imaging optical system (for example, a zoom optical system unit), the second imaging optical system is rotatable, and the entrance pupil positions of the first and second imaging optical systems are A method for controlling an imaging apparatus disposed on a rotation axis of a second imaging optical system, the method comprising: initializing the direction of the second imaging optical system; and using the first imaging optical system Detecting a specific subject area from within the captured image, determining a direction of the second imaging optical system so as to include the detected specific object area, and a second imaging optical system in the determined direction And a step of rotating around the rotation axis.

ここで、第2の撮影光学系は変倍可能とし、検出した特定被写領域を含むように第2の撮影倍率を決定するステップと、第2の撮影光学系を該決定した第2の撮影倍率に設定するステップと、第2の撮影光学系の変倍に応じて第2の撮影光学系を光軸方向に移動させるステップとを有するようにするのが好ましい。   Here, the second photographing optical system is capable of zooming, a step of determining the second photographing magnification so as to include the detected specific object region, and the second photographing optical system determined by the second photographing optical system. It is preferable to have a step of setting the magnification and a step of moving the second imaging optical system in the optical axis direction in accordance with the magnification of the second imaging optical system.

方向を初期化するステップを除く他のステップを、順次繰り返し行うように構成するのが好ましい。   It is preferable that the steps other than the step for initializing the direction are sequentially repeated.

上述の本願発明の撮影装置の第1の構成によれば、第2の撮影光学系の回動軸上に第1及び第2の撮影光学系の入射瞳位置が配置されるため、第1の撮影光学系と被写体との相対位置に関連した位置情報を補正せずに第2の撮影光学系に適用することが可能となり、第2の撮影光学系を撮影位置に迅速かつ正確に回動させることができる。しかも、第2の撮影光学系の撮影倍率は第1の撮影光学系の撮影倍率よりも高いため、被写体の詳細な画像を得ることが出来る。   According to the first configuration of the imaging apparatus of the present invention described above, since the entrance pupil positions of the first and second imaging optical systems are arranged on the rotation axis of the second imaging optical system, the first The position information related to the relative position between the photographing optical system and the subject can be applied to the second photographing optical system without correction, and the second photographing optical system can be quickly and accurately rotated to the photographing position. be able to. In addition, since the photographing magnification of the second photographing optical system is higher than the photographing magnification of the first photographing optical system, a detailed image of the subject can be obtained.

また、第2の撮影光学系を変倍可能とした場合、位置変更手段により第2の撮影光学系が光軸方向に進退して、入射瞳位置が回動軸上に配置されるため、第2の撮影光学系を撮影位置に迅速かつ正確に移動させることができるとともに撮影者の好みに応じた変倍率で被写体を撮影することができる。   Further, when the second imaging optical system can be changed in magnification, the second imaging optical system is advanced and retracted in the optical axis direction by the position changing means, and the entrance pupil position is arranged on the rotation axis. The second photographic optical system can be quickly and accurately moved to the photographing position, and the subject can be photographed at a variable magnification according to the photographer's preference.

本願発明の撮影装置の制御方法の第1の構成によれば、第1および第2の撮影光学系の入射瞳位置が、第2の撮影光学系の回動軸上に配置されていて、第1の撮影光学系を用いて得た撮影画像内から特定被写体領域を検出するステップと、該検出した特定被写領域を含むように第2の撮影光学系の方向を決定するステップと、該決定した方向に第2の撮影光学系を回動軸回りで回動させるステップとにより撮影装置が制御されるため、第2の撮影光学系の視線方向移動を効率よく正確に制御することができる。しかも、第2の撮影光学系の撮影倍率は第1の撮影光学系の撮影倍率よりも高いため、被写体の詳細な画像を得ることが出来る。   According to the first configuration of the control method of the imaging apparatus of the present invention, the entrance pupil positions of the first and second imaging optical systems are arranged on the rotation axis of the second imaging optical system, A step of detecting a specific subject region from a captured image obtained by using the first photographing optical system, a step of determining a direction of the second photographing optical system so as to include the detected specific subject region, and the determination Since the photographing apparatus is controlled by the step of rotating the second photographing optical system around the rotation axis in the direction as described above, the movement of the second photographing optical system in the line-of-sight direction can be controlled efficiently and accurately. In addition, since the photographing magnification of the second photographing optical system is higher than the photographing magnification of the first photographing optical system, a detailed image of the subject can be obtained.

また、第2の撮影光学系を変倍可能とした場合、第2の撮影光学系が光軸方向に進退させ、入射瞳位置を回動軸上とするステップがあるため、第2の撮影光学系の視線方向移動を効率よく制御することができるとともに撮影者の好みに応じた変倍率で被写体を撮影することができる。   In addition, when the second photographing optical system can be changed in magnification, there is a step in which the second photographing optical system advances and retracts in the optical axis direction and the entrance pupil position is on the rotation axis. It is possible to efficiently control the movement of the system in the line-of-sight direction and to photograph the subject at a variable magnification according to the photographer's preference.

以下、本発明の実施例について図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1を用いて、本発明の実施例1について説明する。図1は本発明の実施例1である撮影装置における広角光学系ユニット(第1の撮影光学系)及びズーム光学系ユニット(第2の撮影光学系)の光軸方向断面図である。   A first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a sectional view in the optical axis direction of a wide-angle optical system unit (first imaging optical system) and a zoom optical system unit (second imaging optical system) in an imaging apparatus that is Embodiment 1 of the present invention.

図中矢印は、実3次元空間上の3座標軸、XYZ軸のうちの2軸で、地面に水平な平面上の直交する2軸をXY軸、地面に垂直な軸をZ軸とした。 また、地面に水平な2軸(XY軸)のうち、水平面上に設置された撮影装置の広角光学系ユニット101の光軸に平行な軸をX軸とし、この光軸に直交する軸をY軸とした。   The arrows in the figure are two of the three coordinate axes and the XYZ axes in the actual three-dimensional space. The two orthogonal axes on the plane horizontal to the ground are the XY axes, and the axis perpendicular to the ground is the Z axis. Of the two axes (XY axes) horizontal to the ground, the axis parallel to the optical axis of the wide-angle optical system unit 101 of the photographing apparatus installed on the horizontal plane is defined as the X axis, and the axis orthogonal to the optical axis is defined as Y. The axis.

図1はこのように定義したXYZ軸のうち、本撮影装置のXZ平面投影像を表している。すなわち本撮影装置を側面から見たときの投影図を表している。ただし、図1ではその内部構成を明確にするため、本装置の外形枠は図示していないが、後述の複数の光学ユニットは本装置の共通基板を絶対座標系として搭載されている。   FIG. 1 shows an XZ plane projection image of the photographing apparatus among the XYZ axes defined as described above. That is, a projection view when the photographing apparatus is viewed from the side is shown. However, in order to clarify the internal configuration in FIG. 1, the outer frame of the apparatus is not shown, but a plurality of optical units to be described later are mounted with the common substrate of the apparatus as an absolute coordinate system.

図1において、101は撮影倍率の低い光学系で広角視野範囲を有する広角光学系ユニットである。広角光学系ユニット101の撮影倍率は、監視領域の広さと装置の設置場所で最適な倍率が決まる。なお、広角光学系ユニット101は、単焦点光学系であっても、監視領域の範囲に応じて焦点距離を変え、最適な撮影倍率で撮影動作を行う可変倍率光学系であってもよい。ただし、本実施例においては、監視動作中は撮影倍率を固定しておくことが望ましく、説明を簡単化するため本実施例では単焦点光学系とする。   In FIG. 1, reference numeral 101 denotes an optical system having a low photographing magnification and a wide-angle optical system unit having a wide-angle visual field range. The imaging magnification of the wide-angle optical system unit 101 is determined optimally depending on the size of the monitoring area and the installation location of the apparatus. Note that the wide-angle optical system unit 101 may be a single-focus optical system or a variable-magnification optical system that changes the focal length according to the range of the monitoring area and performs a shooting operation at an optimal shooting magnification. However, in this embodiment, it is desirable to fix the photographing magnification during the monitoring operation, and in this embodiment, a single focus optical system is used for the sake of simplicity.

また、広角光学系ユニット101は、パン方向及びチルト方向に駆動できるように雲台に搭載してもよく、固定式であってもよい。ただし、本実施例においては、監視動作中は光軸方向を固定しておくことが望ましく、説明を簡単化するため本実施例ではパン・チルト機構を有さず、広角光学系ユニットの光軸方向の設定は本装置の設置方向を変えることによって行なうものとする。   The wide-angle optical system unit 101 may be mounted on a pan head so that it can be driven in the pan direction and the tilt direction, or may be a fixed type. However, in this embodiment, it is desirable to fix the direction of the optical axis during the monitoring operation, and in order to simplify the explanation, this embodiment does not have a pan / tilt mechanism, and the optical axis of the wide-angle optical system unit. The direction is set by changing the installation direction of the apparatus.

広角光学系ユニット101は、物体側から順に魚眼レンズなど超広角レンズを含む広角レンズ1011、絞り103及び撮像素子104(例えば、CCD、CMOSイメージセンサ)から構成され、特に本実施例においては、図示しないレンズ鏡筒、撮像素子駆動回路、イメージプロセッサなど一般的にデジタル動画像を撮影するのに必要な構成部品も含まれる。また、広角光学系ユニット101の入射瞳1012は、絞り103よりも物体側に位置する。   The wide-angle optical system unit 101 includes, in order from the object side, a wide-angle lens 1011 including a super-wide-angle lens such as a fisheye lens, an aperture 103, and an image sensor 104 (for example, a CCD or CMOS image sensor). In general, components necessary for taking a digital moving image, such as a lens barrel, an image sensor driving circuit, and an image processor are also included. Further, the entrance pupil 1012 of the wide-angle optical system unit 101 is located closer to the object side than the stop 103.

102は、ズーム光学系ユニットである。前述の広角光学系ユニット101における単焦点光学系に関連して、広角光学系ユニット101の撮影倍率よりも撮影倍率の高い撮影像を映し出すことができれば、ズーム光学系ユニット102は単焦点距離光学系でもよいが、装置から特定被写体までの距離、特定被写体の大きさに対応して最適な拡大像を得るには、可変焦点距離光学系が望ましい。   Reference numeral 102 denotes a zoom optical system unit. In relation to the single-focus optical system in the wide-angle optical system unit 101 described above, the zoom optical system unit 102 is a single-focal length optical system as long as it can display a photographed image having a photographing magnification higher than that of the wide-angle optical system unit 101. However, in order to obtain an optimal magnified image corresponding to the distance from the apparatus to the specific subject and the size of the specific subject, a variable focal length optical system is desirable.

そこで、本実施例のズーム光学系ユニット102は、可変焦点距離光学系により構成している。ズーム光学系ユニット102も部品構成は広角光学系ユニット101とほぼ同じで、物体側から順にズームレンズ1021、絞り103及び撮像素子104から構成されており、図示しないレンズ鏡筒、CCD駆動回路、イメージプロセッサなども含んでいる。なお、ズーム光学系ユニットには、ズームレンズ1021を駆動制御する制御装置や、ズーム光学系ユニットをパン方向及びチルト方向に駆動する駆動機構を有しているが、詳細は後述するので図1では不図示としている。また、このズーム光学系ユニットの入射瞳1022は絞り1022よりも物体側に位置する。   Therefore, the zoom optical system unit 102 of this embodiment is configured by a variable focal length optical system. The zoom optical system unit 102 has almost the same component configuration as the wide-angle optical system unit 101, and includes a zoom lens 1021, an aperture 103, and an image sensor 104 in order from the object side. It also includes a processor. Note that the zoom optical system unit has a control device that drives and controls the zoom lens 1021 and a drive mechanism that drives the zoom optical system unit in the pan direction and the tilt direction. Not shown. Further, the entrance pupil 1022 of this zoom optical system unit is located closer to the object side than the stop 1022.

さて、広角光学系ユニット101およびズーム光学系ユニット102は、Z軸方向(垂直方向)に間隔Hだけ離して配置されており、間隔Hはズーム光学系ユニット102がパン方向及びチルト方向に駆動された場合であっても、広角光学系ユニット101と干渉しない最小距離とし、本実施例では垂直(Z軸)方向上部に広角光学系ユニット101、下部にズーム光学系ユニット102を配置し、監視動作前の初期状態においては両ユニットの光軸は平行となるよう設定してある。   Now, the wide-angle optical system unit 101 and the zoom optical system unit 102 are arranged apart from each other by an interval H in the Z-axis direction (vertical direction). The interval H drives the zoom optical system unit 102 in the pan direction and the tilt direction. Even in this case, the minimum distance that does not interfere with the wide-angle optical system unit 101 is set, and in this embodiment, the wide-angle optical system unit 101 is disposed at the upper part in the vertical (Z-axis) direction, and the zoom optical system unit 102 is disposed at the lower part. In the previous initial state, the optical axes of both units are set to be parallel.

一方、図1のX軸方向に関する両ユニットの配置関係は、それぞれの入射瞳位置1012および1022が同じ位置(そのX座標をX0とする)となるよう搭載してある。 On the other hand, the arrangement relationship between the two units in the X-axis direction in FIG. 1 is such that the entrance pupil positions 1012 and 1022 are at the same position (the X coordinate is X 0 ).

ここで、図2を用いて、水平面(XY軸平面)を含む面内における両ユニットの位置関係を説明する。図2はZ軸方向視における、広角光学系ユニット101及びズーム光学系ユニット102の投影図である。   Here, the positional relationship of both units in a plane including a horizontal plane (XY axis plane) will be described with reference to FIG. FIG. 2 is a projection view of the wide-angle optical system unit 101 and the zoom optical system unit 102 when viewed in the Z-axis direction.

撮影装置は、広角光学系ユニット101およびズーム光学系ユニット102それぞれの入射瞳位置がXY平面上の座標(X0,Y0)で一致するように配置されており、また初期状態においては両ユニットの光軸は図のようにXY平面で一致するようにしてある。 The photographing apparatus is arranged so that the entrance pupil positions of the wide-angle optical system unit 101 and the zoom optical system unit 102 coincide with each other on the coordinates (X 0 , Y 0 ) on the XY plane, and both units in the initial state. These optical axes are made to coincide with each other on the XY plane as shown in the figure.

以上のように、広角光学系ユニット101およびズーム光学系ユニット102の配置関係は、XY平面上で両ユニットの入射瞳位置の一致、XY面垂直方向にはなるべく近づけた配置とし、その初期状態では両ユニットの光軸がXY平面で一致、XZ面で平行となるようにしてある。   As described above, the arrangement relationship between the wide-angle optical system unit 101 and the zoom optical system unit 102 is such that the entrance pupil positions of both units coincide on the XY plane and are arranged as close as possible in the direction perpendicular to the XY plane. The optical axes of both units coincide with each other on the XY plane and are parallel with each other on the XZ plane.

次に、図3を用いてズーム光学系ユニット102をパン方向及びチルト方向に駆動するパンニング機構について説明する。第3図はズーム光学系ユニット102とパンニング機構を前述のXZ平面で見た図である。   Next, a panning mechanism for driving the zoom optical system unit 102 in the pan direction and the tilt direction will be described with reference to FIG. FIG. 3 is a view of the zoom optical system unit 102 and the panning mechanism as seen on the XZ plane.

図中301はズーム光学系ユニット102の視線方向をパンするためのパンニングモータである。実際にはモータはステッピングモータなどにより高精度に回転数などが制御された上で、さらにモータによる回転を適当な回転比率でズーム光学系ユニットに伝達するギア機構や、ズーム光学系レンズ鏡筒を固定し、モータまたはギア機構などと連結する三脚座のような部材、モータを撮像装置基板などに固定する固定部材なども必須であり、必要に応じて振動などによる撮影画像のぶれを抑制する防振機構も搭載されても良いが、本実施例はそれら全て含めて301をパンニングモータと呼ぶこととする。   In the figure, reference numeral 301 denotes a panning motor for panning the viewing direction of the zoom optical system unit 102. Actually, the motor is controlled by a stepping motor or the like with high precision, and a gear mechanism that transmits the rotation by the motor to the zoom optical system unit at an appropriate rotation ratio or a zoom optical system lens barrel A member such as a tripod base that is fixed and connected to a motor or gear mechanism, a fixing member that fixes the motor to the imaging device substrate, etc. are also indispensable. Although a vibration mechanism may be mounted, in this embodiment, all of them including 301 are referred to as a panning motor.

図3で示すように、パンニングモータ301は、光軸直交方向に延びる回転軸301a上(回転軸301aを含む直線上に)に入射瞳1022が位置するように、ズーム光学系ユニット102に取り付けられており、ズーム光学系ユニット102はパンニングモータ30が駆動されることにより、図中矢印方向に回転する。   As shown in FIG. 3, the panning motor 301 is attached to the zoom optical system unit 102 so that the entrance pupil 1022 is located on a rotation axis 301a extending in a direction orthogonal to the optical axis (on a straight line including the rotation axis 301a). The zoom optical system unit 102 rotates in the direction of the arrow in the figure when the panning motor 30 is driven.

すなわち、パンニングモータ301によるパンニングは入射瞳位置を回転中心とし、前述のXY平面に平行に行なわれ、ズーム光学系の視線方向もXY平面に平行移動する。   That is, panning by the panning motor 301 is performed in parallel with the XY plane, with the entrance pupil position as the rotation center, and the viewing direction of the zoom optical system is also translated in the XY plane.

図4は図3をZ軸方向から見た図で、図4を用いてズーム光学系ユニット102とチルト機構を説明する。第4図中の点線で示す円は前述のパンニングモータ301を表し、パンニングモータ301は本図ではズーム光学系ユニット102の下に配置され、その回転軸は入射瞳位置のXY座標(X0,Y0)で示される。   FIG. 4 is a view of FIG. 3 as viewed from the Z-axis direction. The zoom optical system unit 102 and the tilt mechanism will be described with reference to FIG. A circle indicated by a dotted line in FIG. 4 represents the panning motor 301 described above, and the panning motor 301 is arranged below the zoom optical system unit 102 in this figure, and its rotation axis is the XY coordinates (X0, Y0) of the entrance pupil position. ).

また、図中401はズーム光学系ユニット102の視線方向をチルトするためのチルティングモータである。チルティングモータ401の構成はパンニングモータ301とほぼ同様である。   Reference numeral 401 in the figure denotes a tilting motor for tilting the viewing direction of the zoom optical system unit 102. The configuration of the tilting motor 401 is almost the same as that of the panning motor 301.

図4に示すように、チルティングモータ401は、光軸直交方向に延びる回転軸401a上に入射瞳1022が位置するように、ズーム光学系ユニット102に取り付けられており、ズーム光学系ユニット102は、チルティングモータ401が駆動されることにより、図中矢印方向に回転する。すなわち、チルティングモータ401によるチルトは入射瞳位置を回転中心とし、チルト方向を含む平面は前述のXY平面に直交する。   As shown in FIG. 4, the tilting motor 401 is attached to the zoom optical system unit 102 so that the entrance pupil 1022 is positioned on a rotation axis 401a extending in the direction orthogonal to the optical axis. The tilting motor 401 is driven to rotate in the direction of the arrow in the figure. That is, the tilt by the tilting motor 401 is centered on the entrance pupil position, and the plane including the tilt direction is orthogonal to the XY plane.

ここで図5を用いて、従来例の図19を参考に本実施例の撮像装置の動作について説明する。図5は撮影装置を上から見た図で、前述の図2、図4に対応している。まず、初期状態においては、広角光学系ユニット101およびズーム光学系ユニット102の光軸は図中点線で示す方向で一致しており、この光軸方向を後述のなす角θを求める時の基準方向とする。   Here, the operation of the imaging apparatus of the present embodiment will be described with reference to FIG. FIG. 5 is a top view of the photographing apparatus, and corresponds to FIGS. 2 and 4 described above. First, in the initial state, the optical axes of the wide-angle optical system unit 101 and the zoom optical system unit 102 coincide with each other in a direction indicated by a dotted line in the figure, and a reference direction for obtaining an angle θ which will be described later. And

次に、広角光学系ユニット101がその監視視野領域に侵入者である特定被写体1703を検出すると、本撮像装置は物体から光学系への入射角、すなわち入射瞳位置を原点とした光軸とのなす角度θを求める。   Next, when the wide-angle optical system unit 101 detects a specific subject 1703 that is an intruder in the monitoring visual field region, the imaging apparatus detects the incident angle from the object to the optical system, that is, the optical axis with the entrance pupil position as the origin. Find the angle θ to make.

説明をわかりやすくするために、角度θはパンニング角度のみで表すものとし、パンニング角度θは直ちにズーム光学系ユニット102に伝達され、ズーム光学系ユニット102はパンニング角度θを受け、ズーム光学系視線方向がθだけ移動するようにパンニングモータ301の回転数を決定し、入射瞳位置を含む回転軸301aを中心に角度θだけ回転する。   For ease of explanation, it is assumed that the angle θ is represented only by the panning angle, and the panning angle θ is immediately transmitted to the zoom optical system unit 102, and the zoom optical system unit 102 receives the panning angle θ and receives the zoom optical system line-of-sight direction. Is rotated by θ, and the rotation speed of the panning motor 301 is determined to rotate about the rotation axis 301a including the entrance pupil position by the angle θ.

変倍による視野範囲は前述の従来例と同じとすると、本実施例では、図中ハッチングで示すズーム光学系視野領域501(ズーム光学系ユニット102の撮像領域)に広角光学系ユニット101の視線方向が含まれ、特定被写体1703を完全に捉えていることがわかる。   Assuming that the field of view by zooming is the same as that of the above-described conventional example, in this embodiment, the viewing direction of the wide-angle optical system unit 101 is in the zoom optical system field of view 501 (the imaging region of the zoom optical system unit 102) indicated by hatching in the figure. It can be seen that the specific subject 1703 is completely captured.

次に、本発明の信号処理形態について図6を用いて説明する。第6図は本発明の信号処理の流れを説明するためのブロック図である。図中601は広範囲監視領域を視野範囲とする広角光学ユニットであり、上述のように魚眼レンズなど超広角レンズを含む広角レンズ、絞り、ピント調整機構などの光学部品から構成される。   Next, the signal processing mode of the present invention will be described with reference to FIG. FIG. 6 is a block diagram for explaining the flow of signal processing of the present invention. In the figure, reference numeral 601 denotes a wide-angle optical unit having a wide monitoring area as a visual field range, and includes a wide-angle lens including a super-wide-angle lens such as a fisheye lens, and optical components such as a diaphragm and a focus adjustment mechanism as described above.

602は撮像素子であり、広角光学ユニット601の光軸が撮像素子の中央または、撮像素子からの撮影像領域中央となり、かつ光軸に対し垂直面となるよう配置してある。   Reference numeral 602 denotes an image sensor, which is arranged so that the optical axis of the wide-angle optical unit 601 is the center of the image sensor or the center of the imaged image area from the image sensor and is a plane perpendicular to the optical axis.

広角光学ユニット601は監視領域を撮像素子602の撮像面に結像し、図示してない画像信号処理部でA/D変換、露出補正、オートホワイトバランス、階調補正、色補正などの信号処理を経て画像メモリ603および被写体抽出部604へと映像信号を送る。   The wide-angle optical unit 601 forms an image of the monitoring area on the imaging surface of the image sensor 602, and performs signal processing such as A / D conversion, exposure correction, auto white balance, gradation correction, and color correction by an image signal processing unit (not shown). Then, a video signal is sent to the image memory 603 and the subject extraction unit 604.

画像メモリ603は後述する被写体抽出処理に使用される映像信号で、t時刻過去の映像を静止画として記憶する場合や、τ時刻過去から現在までの動画像を記憶する場合などがあり被写体抽出の方式に依存する。   The image memory 603 is a video signal used for subject extraction processing, which will be described later. The image memory 603 stores a video image at a time t past as a still image, or stores a moving image from the past τ time to the present. Depends on the method.

被写体抽出部604は、監視領域内の撮影像から特定の被写体を検出する信号処理部である。以下簡単に、良く知られている被写体抽出方式について説明する。   The subject extraction unit 604 is a signal processing unit that detects a specific subject from the captured image in the monitoring area. A well-known subject extraction method will be briefly described below.

図7(a)は、あるオフィス内を撮像装置で監視している状態を表している。ここで、図7(a)で示すエリアは通常、関係者以外立ち入り禁止領域で、エリア内に物体や人物などが侵入した場合、警報を発し監視員等に注意を促すとともに、映像を録画するなどが必要である。   FIG. 7A shows a state in which a certain office is monitored by an imaging device. Here, the area shown in FIG. 7 (a) is usually an area that is not allowed for persons other than those involved, and when an object or person enters the area, an alarm is issued to alert the monitoring staff and the like, and a video is recorded. Etc. are necessary.

そのために、エリア内の侵入者に対し以下に説明する被写体抽出が行なわれる。良く知られている第1の方法は通常背景差分方式と呼ばれており、監視領域内が正常状態においてエリア内を静止画像で記憶しておく。この静止画像をよく「背景画像」と呼ばれており、本実施例でもそう呼ぶこととする。   Therefore, subject extraction described below is performed for intruders in the area. The first well-known method is usually called a background difference method, and the area in the monitoring area is stored in a normal state as a still image. This still image is often referred to as a “background image” and is also referred to in this embodiment.

よって図7(a)は、監視領域が正常状態の様子であり、同時にある時刻tで撮影された「背景画像」を表している。また、背景画像は例えば照明光などの環境変動によって一定ではないので、一定の間隔を置いて更新される場合が多い。   Therefore, FIG. 7A shows a state in which the monitoring area is in a normal state, and represents a “background image” taken at a certain time t at the same time. Also, since the background image is not constant due to environmental fluctuations such as illumination light, for example, it is often updated at regular intervals.

さて、図7(a)に示すような背景画像を取得した後、時系列に監視領域内の動画像映像が撮影され、監視状態に入る。逐次撮影される監視領域映像(以降この映像を現画像と呼ぶ)は、そのフレーム毎にフレーム座標の対応する「背景画像」との差分が計算される。 監視領域が正常状態を保っている場合、現画像は背景画像と変わりなくフレーム内の差分はノイズ等の影響を排除すればほぼゼロに等しい。   Now, after obtaining the background image as shown in FIG. 7A, the moving image video in the monitoring area is photographed in time series and enters the monitoring state. For the monitoring area video (hereinafter referred to as the current image) that is sequentially captured, the difference from the “background image” corresponding to the frame coordinates is calculated for each frame. When the monitoring area is in a normal state, the current image is not different from the background image, and the difference in the frame is almost equal to zero if the influence of noise or the like is excluded.

これを式で表すと、
d(x,y)=(Ir(x,y)−Ib(x,y))2 − I)
d(x,y)<Thのときd(x,y)=0 − II)
d(x,y)>=Thのときd(x,y)=1
ここで、Ir(x,y)は現画像の座標(x,y)における信号値、Ib(x,y)背景画像の座標(x,y)における信号値、Thは予め決められた閾値である。
I)式では原画画像と背景画像の差の2乗を計算している。差信号を正符号にそろえるもので、2乗のかわりに差の絶対値|Ir(x,y)−Ib(x,y)|を用いても構わない。
This can be expressed as an expression:
d (x, y) = (Ir (x, y) −Ib (x, y)) 2 −I)
When d (x, y) <Th, d (x, y) = 0−II)
When d (x, y)> = Th, d (x, y) = 1
Here, Ir (x, y) is a signal value at the coordinates (x, y) of the current image, Ib (x, y) is a signal value at the coordinates (x, y) of the background image, and Th is a predetermined threshold value. is there.
In equation (I), the square of the difference between the original image and the background image is calculated. The difference signal is aligned with a positive sign, and the absolute value of the difference | Ir (x, y) −Ib (x, y) | may be used instead of the square.

II)式で画像中に含まれるノイズ等による影響を排除する為、差分が一定の値以下のときは差分を0とする。また、II)式は同時に照明などにより環境変化があるときでも、次に背景画像を取得するまでの耐性も兼ね備えている。   In order to eliminate the influence of noise or the like contained in the image in the formula II), the difference is set to 0 when the difference is equal to or smaller than a certain value. In addition, the formula II) also has the tolerance until the next background image is acquired even when the environment changes due to illumination or the like.

すなわち、雲の見え隠れなどによる太陽光の強弱が多少あって、現画像が背景画像より若干暗くなった場合でも、閾値Thによって侵入物とカウントしない役目を果たしている。
I)II)式は画像の全画素について計算され、各画素について閾値以上の画素と閾値以下の画素とをビットマッププレーンで表す。
In other words, even if there is some intensity of sunlight due to cloud visibility, etc., and the current image becomes slightly darker than the background image, it plays the role of not counting as an intruder by the threshold Th.
The formula I) II) is calculated for all pixels of the image, and for each pixel, the pixels above the threshold and the pixels below the threshold are represented by a bitmap plane.

第7図(b)は、監視領域内に人間が侵入してきた様子を表しており、II)式を用いて第7図(b)の画像信号と第7図(a)の画像信号が画素毎に差分計算される。   FIG. 7 (b) shows a situation where a human has entered the monitoring area, and the image signal of FIG. 7 (b) and the image signal of FIG. The difference is calculated every time.

第7図(c)は、画像中の各画素をII)式によって閾値以上の画素を白、閾値以下の画素を黒で表したビットマッププレーンである。   FIG. 7 (c) is a bitmap plane in which each pixel in the image is represented by white in the pixel above the threshold and black in the pixel below the threshold according to the formula II).

では、背景差分方式を用いた場合の本撮影装置の動作について説明する。決められた監視領域に視野範囲を設定した広角光学系ユニット601はまず、監視動作に入る前に、背景画像を取得する。例えば、図示しないユーザーインターフェースから開始スイッチなどがオンされると、広角光学系ユニット101は監視領域を数秒間動画像として撮像し、撮像素子602から出力された全フレーム画像は、一旦画像メモリ603に記憶される。   Now, the operation of the photographing apparatus when the background difference method is used will be described. The wide-angle optical system unit 601 that sets the visual field range in the determined monitoring area first acquires a background image before entering the monitoring operation. For example, when a start switch or the like is turned on from a user interface (not shown), the wide-angle optical system unit 101 captures the monitoring area as a moving image for several seconds, and all frame images output from the image sensor 602 are temporarily stored in the image memory 603. Remembered.

次に画像メモリ603に記憶されたフレーム画像を、図示しないCPUなどによって再び読み出し、各フレームに混入するノイズなどを平均化するため数秒間撮影された各フレーム画像の平均像を作成し、背景像として再び画像メモリ603に記憶する。   Next, the frame image stored in the image memory 603 is read again by a CPU (not shown) or the like, and an average image of each frame image taken for several seconds is created to average noise mixed in each frame, and a background image is created. Is stored in the image memory 603 again.

背景像の画像メモリ603への記録が完了すると、監視が始まり、広角光学系ユニット101による撮影像は被写体抽出部604に入力し、前述の方式で被写体抽出が行なわれる。   When the recording of the background image in the image memory 603 is completed, monitoring starts, and the photographed image by the wide-angle optical system unit 101 is input to the subject extraction unit 604, and subject extraction is performed by the method described above.

また被写体抽出部では、侵入者の検出結果も同時に出力する。例えばフレーム内全画素についてII)式のd(x,y)の累積を取ると、背景とは異なる画素の総数を得ることができる。
s=ΣyΣxd(x,y)
これをフレーム全画素数で割れば、背景とは異なるがその画面全体との比率がわかり、一定以上の大きさの侵入物が監視領域内に存在するときにのみ、侵入者が存在すると判定してもよい。
The subject extraction unit also outputs an intruder detection result at the same time. For example, by accumulating d (x, y) in the formula II) for all pixels in the frame, the total number of pixels different from the background can be obtained.
s = ΣyΣxd (x, y)
If this is divided by the total number of pixels in the frame, the ratio to the entire screen is known, but it is determined that an intruder exists only when there is an intruder of a certain size or larger in the monitoring area. May be.

以上が背景差分方式による被写体抽出の基本的であるが、その他にI)式で得られた差分二乗値の分布から照明光と人物の判別を行なったり、背景画像平均濃度を現画像平均濃度などから補正をした上でI)式の差分二乗値を求めたり、また、差分ビットマップの白点連結度などから孤立点や微小領域を削除し、最大連結領域を侵入者と判定するなど様々な工夫も試みられている。   The above is the basic of subject extraction by the background difference method. In addition, the illumination light and the person are discriminated from the distribution of the difference square value obtained by the formula (I), the background image average density is the current image average density, etc. The difference square value of the formula (I) is obtained after correction, and isolated points and minute areas are deleted from the white point connectivity of the difference bitmap, and the maximum connected area is determined as an intruder. Attempts have also been made to devise.

また、背景差分方式の他、フレーム間差分方式も被写体抽出では良く行なわれる方式であり、簡単に説明をする。フレーム間差分方式も原理的には背景差分方式と同様に、過去の映像と現時刻の映像との差分をとる方式であるが、背景画像のような予め正常状態での監視領域画像を参照するのではなく、現時刻から一定時間過去の画像を記憶しておきそれとの差分を取る方式である。   In addition to the background difference method, the inter-frame difference method is a method often used in subject extraction, and will be described briefly. Similar to the background difference method, the inter-frame difference method is also a method for taking a difference between a past video and a current time video, but refers to a monitoring region image in a normal state in advance such as a background image. Instead of this, it is a method in which an image past a certain time from the current time is stored and a difference is obtained.

式で表すと、
d(x,y)=(I(x,y,t)−I(x,y,t−τ))2 − I)
d(x,y)<Thのときd(x,y)=0 − II)
d(x,y)>=Thのときd(x,y)=1
ここで、I(x,y,t)は現時刻(t)での画像の座標(x,y)における信号値、I(x,y,t−τ)は現時刻(t)から時間τだけ過去の画像の座標(x,y)における信号値、Thは予め決められた閾値である。フレーム間差分の長所は予め背景画像を取得する手間が要らないことの他、差分を取る参照画像が比較的短い時間(τ)である為、前述の照明などによる環境の変動に影響されにくい点である。
Expressed as a formula:
d (x, y) = (I (x, y, t) −I (x, y, t−τ)) 2 −I)
When d (x, y) <Th, d (x, y) = 0−II)
When d (x, y)> = Th, d (x, y) = 1
Here, I (x, y, t) is a signal value at the coordinates (x, y) of the image at the current time (t), and I (x, y, t−τ) is a time τ from the current time (t). Only the signal value at the coordinates (x, y) of the past image, Th is a predetermined threshold value. The advantage of inter-frame difference is that it does not require the effort to acquire a background image in advance, and the reference image for which the difference is taken is a relatively short time (τ), so that it is not easily affected by environmental fluctuations due to the illumination described above. It is.

一方フレーム間差分の短所は、短い時間(τ)間隔の過去の映像との差分の為、侵入者が時間(τ)以上同じ姿勢で静止していると差分はゼロとなり侵入者領域が検出できないなどの問題もある。   On the other hand, the disadvantage of the interframe difference is the difference from the past video with a short time (τ) interval, so if the intruder is stationary in the same posture for more than time (τ), the difference is zero and the intruder area cannot be detected. There are also problems such as.

しかし、この点についてもフレーム間差分で一旦抽出された領域はテンプレートが作成され、侵入者の静止による抽出領域の消滅時でも同領域がテンプレートに記憶された像と一致するならば静止状態であると判定し、同領域を被写体領域と判定するなどの試みもなされている。   However, even for this point, a template is created for the region once extracted by the inter-frame difference, and even if the extracted region disappears due to the intruder's stillness, if the same region matches the image stored in the template, it is still. Attempts have also been made to determine that the region is the subject region.

本方式の動作については図示しないユーザーインターフェースから開始スイッチなどが入れられると、直ちに監視が開始される。初めのτ時間だけフレーム画像を、画像メモリ603に記憶する。   Regarding the operation of this method, monitoring is started immediately when a start switch or the like is turned on from a user interface (not shown). The frame image is stored in the image memory 603 for the first τ time.

τ時間後は、現時刻の画像を被写体抽出部604に入力するとともに画像メモリ603に記憶し、またτ時間前のフレーム像を画像メモリ603から読み出し、被写体抽出部604に入力することにより、現画像とτ時間前の画像の差分が取られる。   After τ time, an image at the current time is input to the subject extraction unit 604 and stored in the image memory 603, and a frame image before τ time is read from the image memory 603 and input to the subject extraction unit 604. The difference between the image and the image before τ time is taken.

以上、背景差分方式とフレーム間差分方式による被写体抽出について説明したが、本実施例では侵入者が広角光学系ユニットからの撮影像から検出できればその方式は限定しない。通常監視領域内に侵入者がいない場合、すなわち被写体抽出部604で侵入者が検出されない場合は、監視領域撮影像は画像合成部613を介して画像表示部614に表示される。   As described above, the subject extraction by the background difference method and the inter-frame difference method has been described. However, in this embodiment, the method is not limited as long as the intruder can detect from the photographed image from the wide-angle optical system unit. When there is no intruder in the normal monitoring area, that is, when no intruder is detected by the subject extracting unit 604, the captured image of the monitoring area is displayed on the image display unit 614 via the image composition unit 613.

一方、被写体抽出部604で侵入者が検出された場合、前述のビットマップ像は被写体方向検出部606と変倍率決定部605に送られる。以下、図8を用いて被写体方向検出部606と変倍率決定部605について説明する。   On the other hand, when an intruder is detected by the subject extraction unit 604, the aforementioned bitmap image is sent to the subject direction detection unit 606 and the scaling factor determination unit 605. Hereinafter, the subject direction detection unit 606 and the scaling factor determination unit 605 will be described with reference to FIG.

第8図(a)は前述の被写体検出された侵入者のビットマップ画像(図7(c)参照)であり、見やすくするため、特定被写体領域を黒、背景領域を白で図示してある。被写体方向検出部606と変倍率決定部605に入力したビットマップ像(図8(a)参照)は、801で示すような特定被写体領域を包括する矩形領域を作成する。実際にはビットマッププレーンに図のようなXY座標を定義し、矩形左上の座標(Xs、Ys)と矩形右下の座標(Xe、Ye)を記憶することでよい。   FIG. 8 (a) is a bitmap image (see FIG. 7 (c)) of the intruder in which the subject is detected, and the specific subject region is shown in black and the background region is shown in white for easy viewing. A bitmap image (see FIG. 8A) input to the subject direction detection unit 606 and the scaling factor determination unit 605 creates a rectangular region including a specific subject region as indicated by 801. In practice, XY coordinates as shown in the figure may be defined in the bitmap plane, and the upper left corner coordinates (Xs, Ys) and the lower right corner coordinates (Xe, Ye) may be stored.

次に、被写体方向検出部606では、第8図(b)で示すような画像中心oから矩形中央cまでの距離DのX軸、Y軸成分(Dx、Dy)を求める。   Next, the subject direction detection unit 606 obtains the X-axis and Y-axis components (Dx, Dy) of the distance D from the image center o to the rectangular center c as shown in FIG. 8B.

ここで画像中心oは広角光学ユニットの光軸に一致するよう、かつ画像Y座標方向は本撮影装置の入射瞳を結ぶ2点と平行に、またX軸方向は本撮影装置の入射瞳を結ぶ2点と垂直するよう設定されている。さらに、Y軸方向はズーム光学系ユニットのチルト方向を含む平面、X軸方向はパンニング方向を含む平面と平行している。   Here, the image center o coincides with the optical axis of the wide-angle optical unit, the image Y coordinate direction is parallel to two points connecting the entrance pupil of the imaging apparatus, and the X axis direction connects the entrance pupil of the imaging apparatus. It is set to be perpendicular to the two points. Furthermore, the Y-axis direction is parallel to the plane including the tilt direction of the zoom optical system unit, and the X-axis direction is parallel to the plane including the panning direction.

そしてこの関係は、本装置製造時光学ユニットとエリアセンサの配置調整によって行なわれるものである。よって画像中心oから画像中の任意の点までの距離は入射瞳位置を原点とし物点を見たときのなす角に対応していて、広角光学系の撮影倍率(または焦点距離)よって一義的に決まるもので図(b)のように(Dx、Dy)が求まると一義的にDxからパン角θp,Dyからチルト角θtが求まる。   This relationship is achieved by adjusting the arrangement of the optical unit and the area sensor when the apparatus is manufactured. Therefore, the distance from the image center o to an arbitrary point in the image corresponds to the angle formed when viewing the object point with the entrance pupil position as the origin, and is unambiguous depending on the imaging magnification (or focal length) of the wide-angle optical system. When (Dx, Dy) is obtained as shown in FIG. 5B, the pan angle θp is uniquely obtained from Dx, and the tilt angle θt is obtained from Dy.

被写体方向検出部606では例えば数式、ルックアップテーブルなどを用いて(Dx、Dy)からパン角θp,チルト角θtを求め、これを出力値とし第6図の光学系回転制御部609へと送る。   The subject direction detection unit 606 obtains the pan angle θp and tilt angle θt from (Dx, Dy) using, for example, mathematical formulas, a look-up table, and the like, and outputs them to the optical system rotation control unit 609 in FIG. .

光学系回転制御部609は、前述のパンニングモータ、チルティングモータから構成される光学系回転駆動部610に対し、パン角θp, チルト角θtから必要な回転数、回転方向、回転スピードなどを制御し、ズーム光学系ユニットはパン、チルトを行なう。   The optical system rotation control unit 609 controls the necessary rotation speed, rotation direction, rotation speed, etc. from the pan angle θp and tilt angle θt for the optical system rotation drive unit 610 composed of the panning motor and tilting motor described above. The zoom optical system unit performs panning and tilting.

次に変倍率決定部605について説明する。 まず図8(b)の示すように、被写体検出されたビットマッププレーン上の特定被写体領域を包括する矩形領域801の幅wと高さhを求める。 これは前述の(Xs、Ys)と(Xe、Ye)を用いる。
w=Xe−Xs
h=Ye−Ys
次に予め決めておいた特定被写体をズーム光学系ユニットで拡大表示するときの幅Wと高さHを用いて幅、高さの変倍率(Mw、Mh)を計算する。幅Wと高さHはズーム光学系ユニットのイメージセンサ有効領域いっぱいでも良いし、若干の余裕を持たせ有効領域の内側に取ってもよい。
Next, the scaling factor determination unit 605 will be described. First, as shown in FIG. 8B, a width w and a height h of a rectangular area 801 that includes a specific subject area on a bitmap plane in which a subject is detected are obtained. This uses the above-mentioned (Xs, Ys) and (Xe, Ye).
w = Xe-Xs
h = Ye-Ys
Next, the magnifications (Mw, Mh) of the width and height are calculated using the width W and the height H when a predetermined specific subject is enlarged and displayed by the zoom optical system unit. The width W and the height H may be the entire image sensor effective area of the zoom optical system unit, or may be within the effective area with some margin.

図8(c)は、ズーム光学系ユニットによる侵入者の拡大撮影像を表しており、図中実線枠がイメージセンサ有効領域で、有効領域の内側に点線枠で示す拡大表示領域(W,H)を設けている所を表している。   FIG. 8C shows an enlarged photographed image of an intruder by the zoom optical system unit. In the figure, the solid line frame is the image sensor effective area, and the enlarged display area (W, H) indicated by the dotted line frame inside the effective area. ).

そしてズーム光学系ユニット拡大時、縦または横方向に被写体が表示領域からはみ出さないように、実際のズーム光学系ユニットで変倍する時の変倍率MはMwとMhのうち小さい方とする。
Mw=W/w
Mh=H/h
M=Min(Mw,Mh)
変倍率Mは光学系変倍制御部609へと送られ、光学系変倍制御部609では、予め既知の広角光学系ユニットの焦点距離fwを用いて、ズーム光学系ユニットの焦点距離fz(=M・fw)が計算され、光学系変倍駆動部608に対し焦点距離fzとなるよう指示する。
Then, when the zoom optical system unit is enlarged, the magnification M when zooming with the actual zoom optical system unit is set to the smaller one of Mw and Mh so that the subject does not protrude from the display area in the vertical or horizontal direction.
Mw = W / w
Mh = H / h
M = Min (Mw, Mh)
The variable magnification M is sent to the optical system magnification control unit 609. The optical system magnification control unit 609 uses the focal length fw of the known wide-angle optical system unit in advance to use the focal length fz (= M · fw) is calculated, and the optical system magnification driving unit 608 is instructed to have the focal length fz.

次に、撮影装置の制御方法について図25を用いて説明する。ここで、図25は、撮影装置の動作制御の手順を示したフローチャートである。   Next, a method for controlling the photographing apparatus will be described with reference to FIG. Here, FIG. 25 is a flowchart showing a procedure of operation control of the photographing apparatus.

まず、ステップ1でズームカメラ光学系ユニット102の光軸方向を初期化し(図5に示すズームカメラ初期視線方向に光軸が重なるようにする)、ステップ2で広角光学系ユニット101を駆動して監視エリア内を撮影させる。   First, in step 1, the optical axis direction of the zoom camera optical system unit 102 is initialized (the optical axis is overlapped with the zoom camera initial line-of-sight direction shown in FIG. 5), and in step 2, the wide-angle optical system unit 101 is driven. Take a picture of the surveillance area.

そして、ステップ3において、監視エリア内における侵入者の有無が検出される。この侵入者検出は、背景差分方式やフレーム間差分方式によって被写体抽出部604が行ない、侵入者が検出された場合には、ステップ4に進む。   In step 3, the presence or absence of an intruder in the monitoring area is detected. This intruder detection is performed by the subject extraction unit 604 using the background difference method or the inter-frame difference method, and if an intruder is detected, the process proceeds to step 4.

ステップ4では、ズーム光学系ユニット102のパン角、チルト角及びズーム倍率が決定される。具体的には、被写体方向検出部606及び変倍率決定部605が被写体抽出部604から入力する上述のビットマップ像に基づき決定する。   In step 4, the pan angle, tilt angle, and zoom magnification of the zoom optical system unit 102 are determined. Specifically, the subject direction detection unit 606 and the scaling factor determination unit 605 determine based on the above-described bitmap image input from the subject extraction unit 604.

ステップ5では、被写体方向検出部606で算出されたパン角及びチルト角に基づき光学系回転駆動部610が駆動され、ズーム光学系ユニット102は、ズーム光学系視野領域501(図5参照)内に侵入者が含まれるような位置(撮影位置)まで移動する。撮影位置に移動したズーム光学系ユニット102は、変倍率決定部605で算出された変倍率となるような位置にズームレンズ1021が駆動された後、撮影動作を開始する。   In step 5, the optical system rotation drive unit 610 is driven based on the pan angle and tilt angle calculated by the subject direction detection unit 606, and the zoom optical system unit 102 is within the zoom optical system field area 501 (see FIG. 5). Move to a position (shooting position) where an intruder is included. The zoom optical system unit 102 that has moved to the shooting position starts the shooting operation after the zoom lens 1021 is driven to a position where the zoom ratio calculated by the zoom ratio determination unit 605 is obtained.

侵入者が監視エリア内を移動している間は、ステップ3〜ステップ5までのステップが繰り返し行われ、侵入者の動きに追従するようにズーム光学系ユニット102が駆動される。   While the intruder is moving in the monitoring area, steps 3 to 5 are repeatedly performed, and the zoom optical system unit 102 is driven so as to follow the movement of the intruder.

以上のようにズーム光学系ユニットが特定被写体の方向に向けられ適当な倍率で撮影されると、その撮影像は画像合成部613へと送られる。 画像合成部では広角光学系ユニットによる撮影像とズーム光学系ユニットによる撮影像とのミキシングが行なわれる。ミキシングの種類としては例えば図9で示すような、場合が考えられる。   As described above, when the zoom optical system unit is directed toward the specific subject and photographed at an appropriate magnification, the photographed image is sent to the image composition unit 613. The image composition unit mixes the image captured by the wide-angle optical system unit and the image captured by the zoom optical system unit. As a type of mixing, for example, a case as shown in FIG. 9 can be considered.

図9(a)は監視領域全域のみを全画面表示。(b)は監視領域全域を全画面に表示し侵入者拡大像を小ウィンドウで表示。(c)は侵入者拡大像を全画面に表示し監視領域全域を小ウィンドウで表示。(d)は侵入者拡大像のみを全画面表示。   FIG. 9A shows only the entire monitoring area on the full screen. (B) displays the entire surveillance area on the entire screen and displays an enlarged image of the intruder in a small window. (C) displays a magnified image of an intruder on the entire screen and displays the entire monitoring area in a small window. (D) displays only the magnified image of the intruder in full screen.

これら表示方法の選択は図示していないウィンドウ表示操作部で監視者が選択可能となっている。また、図6では図示してないが、それぞれの映像は外部記憶装置に接続され記録されてもよい。   These display methods can be selected by a monitor using a window display operation unit (not shown). Although not shown in FIG. 6, each video may be connected to an external storage device and recorded.

本発明の実施例2について説明する。実施例1では、入射瞳位置をズーム光学系ユニットの回転軸上に配置することにより、広角光学系ユニットで得られた特定被写体へのパンニング角がズーム光学系ユニットのパンニング角と完全に一致することを示したが、本実施例では実施例1の被写体方向検出部606に改良を加えた。   A second embodiment of the present invention will be described. In the first embodiment, by arranging the entrance pupil position on the rotation axis of the zoom optical system unit, the panning angle to the specific subject obtained by the wide-angle optical system unit completely matches the panning angle of the zoom optical system unit. In this embodiment, the subject direction detection unit 606 of the first embodiment is improved.

第10図は本実施例を表す図で、図中Oは撮影装置を設置する場所の座標系の原点を表す。撮影装置は、原点Oから図中上方に延びる直線上に配置されており、原点0側から広角光学系ユニット101、ズーム光学系ユニット102の順序で配置されている。   FIG. 10 is a diagram showing the present embodiment, where O represents the origin of the coordinate system of the place where the photographing apparatus is installed. The photographing devices are arranged on a straight line extending upward in the figure from the origin O, and are arranged in the order of the wide-angle optical system unit 101 and the zoom optical system unit 102 from the origin 0 side.

ここで、原点0から広角光学系ユニット101の入射瞳位置までの距離をHとし、ズーム光学系ユニット102の入射瞳位置は、広角光学系ユニット101の入射瞳位置から距離hの位置にある。Hは撮影装置の設置時に測定しておく。なお、上記各光学系ユニットの順番は、反対であってもかまわない。   Here, the distance from the origin 0 to the entrance pupil position of the wide-angle optical system unit 101 is H, and the entrance pupil position of the zoom optical system unit 102 is at a distance h from the entrance pupil position of the wide-angle optical system unit 101. H is measured when the photographing apparatus is installed. The order of the optical system units may be reversed.

ここで、原点OからLだけ離れた距離に侵入者がいるとして、広角光学系ユニット101は図中点線で示す光軸方向に対して、チルト角θwで侵入者を検出したとする。パン角については実施例1と同様なので本実施例での説明は省略する。   Here, it is assumed that the intruder is at a distance L from the origin O, and the wide-angle optical system unit 101 detects the intruder at the tilt angle θw with respect to the optical axis direction indicated by the dotted line in the figure. Since the pan angle is the same as that in the first embodiment, the description in this embodiment is omitted.

一方、原点0からの距離H+hの位置にあるズーム光学系ユニット102が侵入者を中心に捉えるために必要なチルト角をθzとする。ここで、
H=Ltan(θw)
(H+h)=Ltan(θz)
であるから、実際には測定不可能なLを消去し、
tan(θz)=(H+h/H)tan(θw)
θz=tan-1{(H+h/H)tan(θw)}
となる。
On the other hand, a tilt angle necessary for the zoom optical system unit 102 at a distance H + h from the origin 0 to capture the intruder as a center is defined as θz. here,
H = Ltan (θw)
(H + h) = Ltan (θz)
Therefore, L that cannot actually be measured is deleted,
tan (θz) = (H + h / H) tan (θw)
θz = tan −1 {(H + h / H) tan (θw)}
It becomes.

ここで本実施例の撮影装置ブロック図を図11に示す。実施例1の図6と異なる所は、図6に加え、前述の装置設置時に設置高さを入力するインターフェース部(UI)1101と、被写体方向検出部にtan-1θを引用するルックアップテーブル1102が追加されていることである。 Here, a block diagram of the photographing apparatus of this embodiment is shown in FIG. 6 differs from FIG. 6 in the first embodiment in addition to FIG. 6, an interface unit (UI) 1101 that inputs the installation height when the apparatus is installed, and a lookup table that quotes tan −1 θ in the subject direction detection unit. 1102 has been added.

本装置は、装置設置時に床面からの高さHを入力インターフェースUI1101から入力する。図示されてないCPUは、入力されたH、既知の入射瞳位置間隔hを用いて適当精度のサンプリング間隔で0度から90度までのθwについてθz=tan-1{(H+h/H)tan(θw)}を計算し、RAMからなるルックアップテーブル1102にθwを入力、θzを出力とするテーブルを作成しておく。 This apparatus inputs the height H from the floor surface from the input interface UI1101 when the apparatus is installed. The CPU (not shown) uses the input H and the known entrance pupil position interval h, and θz = tan −1 {(H + h / H) tan ( θw)} is calculated, and a table having θw as an input and θz as an output is created in a lookup table 1102 made of RAM.

以上は装置設置時に一回だけ行なえば良く、設置高さを入力するだけで済むので労力もいらない。   The above only needs to be performed once at the time of installation of the apparatus, and it is only necessary to input the installation height, so no labor is required.

さて実際の監視時、監視領域中侵入者を検知し、広角光学系ユニット101の入射瞳位置からのなす角θを求めると、パン角θwpはそのままズーム光学系ユニット102のパンニング角となり、チルト角θwtはルックアップテーブル1102で角度補正しチルト角θztが光学系回転制御部609へと送られる。   When an intruder in the monitoring area is detected during actual monitoring and the angle θ formed from the entrance pupil position of the wide-angle optical system unit 101 is obtained, the pan angle θwp becomes the panning angle of the zoom optical system unit 102 as it is, and the tilt angle The angle θwt is corrected by the look-up table 1102 and the tilt angle θzt is sent to the optical system rotation control unit 609.

以上本実施例は、特定被写体が本装置設置時の床面Oの高さにいるとき有効であり、図9で示すようなオフィスなど屋内の監視では通常床面高さは一定で十分、本手法が有効である。   As described above, this embodiment is effective when the specific subject is at the height of the floor O when the apparatus is installed, and the floor height is usually constant and sufficient for indoor monitoring such as that shown in FIG. The method is effective.

また屋外においては本装置が十分な高さに設置されている場合(H>>h)や、侵入者が装置から十分離れている場合(L>>H)については実用上全く問題ない。   Moreover, there is no practical problem at all when the apparatus is installed at a sufficient height outdoors (H >> h) or when an intruder is sufficiently away from the apparatus (L >> H).

また、本実施例では、θz=tan-1{(H+h/H)tan(θw)}の計算を事前に行なっておき、ルックアップテーブルに記憶させ、監視時ルックアップテーブルによる補正を行なうこととしたが、十分高速な演算処理により処理速度に十分な余裕がある場合は、逐次計算を行なっても全く問題ないことは言うまでもない。 In the present embodiment, θz = tan −1 {(H + h / H) tan (θw)} is calculated in advance, stored in the lookup table, and corrected by the monitoring lookup table. However, it is needless to say that there is no problem even if the sequential calculation is performed when there is a sufficient margin in processing speed due to sufficiently high-speed arithmetic processing.

図12に本発明の実施例3を示す。本実施例では実施例1の広角光学系ユニットにミラー光学部品1201を追加し、一般に全方位型カメラと呼ばれている光学系を用いたものである。ここでミラー光学部品1201(以降単にミラーと呼ぶ)について簡単に説明する。   FIG. 12 shows a third embodiment of the present invention. In this embodiment, a mirror optical component 1201 is added to the wide-angle optical system unit of Embodiment 1, and an optical system generally called an omnidirectional camera is used. Here, the mirror optical component 1201 (hereinafter simply referred to as a mirror) will be briefly described.

ミラー1201は例えばその断面を双曲面形状に形成した、回転体(以降これを双曲面鏡と呼ぶ)となっていて、ミラー1201の下の特定位置に撮影装置を設置することによってミラー1201からの反射光を受光することによってミラーを中心とする周囲360°の画角を撮像するものである。   The mirror 1201 is, for example, a rotating body (hereinafter referred to as a hyperboloid mirror) whose cross section is formed into a hyperboloid shape, and the imaging device is installed at a specific position below the mirror 1201 to remove the mirror 1201 from the mirror 1201. By receiving the reflected light, an angle of view of 360 ° around the mirror is imaged.

一般に双曲線は2つの焦点を持ち、撮影レンズの主点を双曲線の1つの焦点に合わせることで、取得画像は例えば実空間を円筒状投影面とするパノラマ画像に変換するなど、適当な変換式によって様々な投影座標に変換することができる。   In general, the hyperbola has two focal points, and by adjusting the principal point of the taking lens to one focal point of the hyperbola, the acquired image is converted into a panoramic image having a real space as a cylindrical projection surface, for example, by an appropriate conversion formula. It can be converted into various projected coordinates.

本実施例では図12のように広角光学系ユニット101にこのミラーを用い、ミラーを中心とする周囲360°(全方位)を監視領域として撮像し、この広角光学系ユニット101により検出された特定被写体は後述する変換式を用いてその方向θを決定し、その方向θにズーム光学系ユニットをパンチルトズームするようにしたものである。   In this embodiment, as shown in FIG. 12, this mirror is used for the wide-angle optical system unit 101, and a 360 ° circumference (omnidirectional) around the mirror is imaged as a monitoring region, and the specific detected by the wide-angle optical system unit 101 is detected. The direction θ of the subject is determined using a conversion formula described later, and the zoom optical system unit is pan-tilt zoomed in the direction θ.

図13は、本実施例での広角光学系ユニット101とズーム光学系ユニット102との配置関係を図示したもので、ミラー1201の双曲面回転軸と広角光学系ユニット102のレンズ光軸を一致させ、レンズ主点を双曲面のレンズ側焦点に合わせた所を表している。   FIG. 13 illustrates the positional relationship between the wide-angle optical system unit 101 and the zoom optical system unit 102 in the present embodiment. The hyperbolic surface rotation axis of the mirror 1201 and the lens optical axis of the wide-angle optical system unit 102 are matched. , Where the lens principal point is aligned with the lens side focal point of the hyperboloid.

さらに、実施例1と同様に広角光学系ユニット101の入射瞳位置とズーム光学系入射瞳位置は垂直方向に一致させており、すなわち、ミラー1201の双曲面回転軸、広角光学系ユニット101の入射瞳位置、ズーム光学系ユニット102の入射瞳が一直線上に配置されている。   Further, as in the first embodiment, the entrance pupil position of the wide-angle optical system unit 101 and the entrance pupil position of the zoom optical system coincide with each other in the vertical direction, that is, the hyperboloid rotation axis of the mirror 1201 and the entrance of the wide-angle optical system unit 101. The pupil position and the entrance pupil of the zoom optical system unit 102 are arranged on a straight line.

次に、これらの光学系を用いて特定被写体の角度検知について説明する。図14はミラー1201で反射した実空間上の被写体が広角光学系ユニット101の撮像面(ここでは画像面とよぶ)1401上に結像されるときの関係について説明する図である。   Next, angle detection of a specific subject will be described using these optical systems. FIG. 14 is a diagram for explaining the relationship when a subject in real space reflected by the mirror 1201 forms an image on the imaging surface (herein referred to as an image surface) 1401 of the wide-angle optical system unit 101.

前述の回転双曲面の二つの焦点をOmとOcとし、前述のように双曲面外側の焦点Ocにレンズ主点がくるように設置されている。画像平面は、仮想的に焦点Ocから焦点距離fだけ上方に存在する。   The two focal points of the rotating hyperboloid are Om and Oc, and the lens principal point is placed at the focal point Oc outside the hyperboloid as described above. The image plane is virtually above the focal point Oc by the focal length f.

いま図のように焦点OmとOcの中心に座標軸原点を置き(図中O)、互いに直交するXYZ軸を定義する。ミラー回転軸をZ軸に一致させるとともに、画像平面1401をXY軸を含む平面に対して平行にとる。   As shown in the figure, the origin of the coordinate axes is placed at the centers of the focal points Om and Oc (O in the figure), and XYZ axes orthogonal to each other are defined. The mirror rotation axis coincides with the Z axis, and the image plane 1401 is parallel to the plane including the XY axes.

また画像平面1401上に、Z軸との交点を原点としX軸に平行な軸をx軸、Y軸に平行な軸をy軸とする二次元軸を定義する。原点のZ座標は(Z=f−c)となる。   Also, a two-dimensional axis is defined on the image plane 1401 with the intersection point with the Z axis as the origin, the axis parallel to the X axis as the x axis, and the axis parallel to the Y axis as the y axis. The Z coordinate of the origin is (Z = fc).

いま、実空間上の物点P0(X0,Y0,Z0)はミラー面P(X,Y,Z)で反射して,カメラ撮像面の位置p(x,y)に結像するとする。そして焦点Omから見て物点P0(X0,Y0,Z0)のなす角をXY平面に平行にパン角θ、XY平面と直交してチルト角φを図のように定義する。 Now, the object point P 0 (X 0 , Y 0 , Z 0 ) in the real space is reflected by the mirror surface P (X, Y, Z) and imaged at the position p (x, y) on the camera imaging surface. Then. The angle formed by the object point P 0 (X 0 , Y 0 , Z 0 ) as viewed from the focal point Om is defined as a pan angle θ parallel to the XY plane and a tilt angle φ perpendicular to the XY plane as shown in the figure.

よって、以上のように定義した画像平面上の点p(x,y)を用いて物点パン角θ、チルト角φを求める。   Therefore, the object pan angle θ and the tilt angle φ are obtained using the point p (x, y) on the image plane defined as described above.

まずパン角θについて説明する。図15は図14のXY平面投影面を表した図であり、図よりパン角θはtan-1(x/y)で求まる。次に、チルト角φについて説明する。 First, the pan angle θ will be described. FIG. 15 is a diagram showing the XY plane projection plane of FIG. 14, and the pan angle θ can be obtained from tan −1 (x / y). Next, the tilt angle φ will be described.

図16は図14のZ軸と物点のミラー反射点P(XYZ)を含む断面図を表している。いま、この二次元平面においてZ軸に垂直に取った座標軸、R座標軸を定義し、RZ平面で説明する。   FIG. 16 is a cross-sectional view including the Z-axis and the object mirror reflection point P (XYZ) in FIG. Now, in this two-dimensional plane, a coordinate axis and an R coordinate axis taken perpendicular to the Z axis are defined, and the description will be made on the RZ plane.

ここで、物点P0、ミラー反射点P、画像平面結像点pの座標はそれぞれP0(R0,Z0)、P(R,Z)、p(r,f−c)とする。 Here, the coordinates of the object point P 0 , the mirror reflection point P, and the image plane imaging point p are P 0 (R 0 , Z 0 ), P (R, Z), and p (r, fc), respectively. .

また、図のようにミラー断面は双曲線   Also, the mirror cross section is hyperbola as shown in the figure.

数式1Formula 1



・・・I)


... I)

で表され、物点P0と焦点Omを結ぶ直線を
Z=kR+c ・・・II)
とする。
いま、ミラー反射点PではI)式II)式が成り立つ。
The straight line connecting the object point P 0 and the focal point Om is represented by Z = kR + c (II)
And
Now, at the mirror reflection point P, I) and II) are established.

一方、三角形Oc−P−ZPと三角形Oc−p−Zpからミラー反射点PのR座標Rは
R=r(c+Z)/f ・・・III)
ただし、
On the other hand, the R coordinate R of the mirror reflection point P from the triangle Oc-P-ZP and the triangle Oc-p-Zp is R = r (c + Z) / f (III)
However,

数式2Formula 2




ところで、チルト角φは図より直線II)の傾きに他ならない。
φ=tan-1(k) ・・・IV)
よって、I)II)III)式よりkを求めIV)式に代入してやれば、チルト角φが得られる。



By the way, the tilt angle φ is nothing but the inclination of the straight line II).
φ = tan −1 (k) ・ ・ ・ IV)
Therefore, if k is obtained from the formulas I) II) III) and substituted into the formula IV), the tilt angle φ can be obtained.

II)式より
k=(Z−c)/R ・・・V)
I)III)式よりRを消去して
22−a22)Z2+2cb22Z+(b222+a222)=0 ・・・VI)
VI)式のZについての2次方程式を解きZを求め、III)式にZ代入してRを求め、Z及びRをV)式に代入してkを得る。
II) From the formula, k = (Zc) / R (V)
I) R is eliminated from the formula III) and b 2 r 2 −a 2 f 2 ) Z 2 + 2cb 2 r 2 Z + (b 2 c 2 r 2 + a 2 b 2 f 2 ) = 0... VI)
VI) Solve the quadratic equation for Z in equation (3) to obtain Z, III) substitute Z into equation (3) to obtain R, and substitute Z and R into equation (V) to obtain k.

kが求まると、実施例2で説明したように予め作成しておいたy=tan-1(x)のルックアップテーブルを利用してチルト角φを得ることができる。以上のように求まったパン角θ、チルト角φはそれぞれ光学系回転制御部609に送信され、ズーム光学系ユニットが回転する。 When k is obtained, the tilt angle φ can be obtained by using a lookup table of y = tan −1 (x) prepared in advance as described in the second embodiment. The pan angle θ and the tilt angle φ obtained as described above are transmitted to the optical system rotation control unit 609, and the zoom optical system unit rotates.

図23に本発明の実施例4を示す。本実施例では第1の実施例の図3で示すズーム光学系ユニットの鏡筒と三脚座の位置関係が光軸方向に前後するような機構を追加したものである。ズーム光学系においてその入社瞳位置は変倍率に応じて変わる。   FIG. 23 shows a fourth embodiment of the present invention. In this embodiment, a mechanism is added so that the positional relationship between the lens barrel and tripod seat of the zoom optical system unit shown in FIG. 3 of the first embodiment moves back and forth in the optical axis direction. In the zoom optical system, the entrance pupil position changes according to the magnification.

よって、前述のように、広角光学系ユニット入射瞳位置、ズーム光学系ユニット入射瞳位置、およびズーム光学系ユニットパンニング回転軸とが一致する為にはズーム光学系の変倍率に応じてズーム光学ユニットを調整移動する必要がある。   Therefore, as described above, in order for the wide-angle optical system unit entrance pupil position, the zoom optical system unit entrance pupil position, and the zoom optical system unit panning rotation axis to coincide, the zoom optical unit according to the zoom magnification of the zoom optical system Need to move adjust.

図23はそのような機構の一実施例を表す。図23(a)はズーム光学系ユニット鏡筒2301に取り付けられたスライダー2302であり、スライダー2302には極微小間隔で溝が刻まれている。   FIG. 23 represents one embodiment of such a mechanism. FIG. 23A shows a slider 2302 attached to the zoom optical system unit barrel 2301, and grooves are carved in the slider 2302 at extremely small intervals.

また、図23(b)は、パンニングモータ301と鏡筒を支持する三脚座で、三脚座の近傍には三脚座の鏡筒支持位置を移動させる三脚座位置調整モータ2303が配置されている。   FIG. 23B shows a tripod seat for supporting the panning motor 301 and the lens barrel. A tripod seat position adjusting motor 2303 for moving the lens barrel support position of the tripod seat is arranged in the vicinity of the tripod seat.

三脚座位置調整モータ2303の出力軸先端部には回転プレートがあり、回転プレートにもスライダー2302同様、極微小間隔で溝が刻まれている。また23図(c)は、三脚座のリング内側から見た図で、図の様に三脚座のリング内側にも前述の溝が刻まれている。   At the tip of the output shaft of the tripod seat position adjustment motor 2303, there is a rotating plate, and the rotating plate is also grooved at extremely small intervals like the slider 2302. FIG. 23 (c) is a view from the inside of the ring of the tripod seat. As shown in the figure, the aforementioned groove is also carved on the inside of the ring of the tripod seat.

なお、本実施例ではスライダー2302、および三脚座リング内側には、図をわかりやすくするためその一部に溝を図示したが、より安定した鏡筒の支持と移動のため、鏡筒および三脚座リング内側全面に溝が刻まれていても構わない。   In this embodiment, the slider 2302 and the inside of the tripod seat ring are shown with grooves in a part thereof for easy understanding of the figure. However, in order to support and move the barrel more stably, the barrel and tripod seat Grooves may be carved on the entire inner surface of the ring.

このような機構によって、ズーム光学系ユニットが変倍したとき、三脚座位置調整モータ2303が回転し、鏡筒の入射瞳位置がパンニング回転軸中心(図23(c)2304)とくるように鏡筒を光軸方向に前後させる。この様子を図24で示す。   By such a mechanism, when the zoom optical system unit is zoomed, the tripod seat position adjustment motor 2303 rotates and the entrance pupil position of the lens barrel is in the center of the panning rotation axis (FIG. 23 (c) 2304). The tube is moved back and forth in the optical axis direction. This is shown in FIG.

このように、予め撮像倍率に応じた入射瞳位置を記憶しておき、撮影倍率に応じた瞳位置にパンニング回転軸がくるように鏡筒を前後することによって、変倍時でも常に入射瞳位置の一致が得られる。   In this way, the entrance pupil position corresponding to the imaging magnification is stored in advance, and the entrance pupil position is always maintained even during zooming by moving the lens barrel back and forth so that the panning rotation axis comes to the pupil position corresponding to the imaging magnification. Is obtained.

本発明の実施例1では、撮像倍率の異なる複数の撮像光学系を用い、撮像倍率の低い撮像光学系による撮影像から特定被写体を抽出し、抽出結果から撮像倍率の高い撮像光学系の視線方向移動する複眼撮像装置において、入射瞳位置をパンニング回転平面垂直方向に揃えることで、広角光学系から得られたパン角を補正することなく、ズーム光学系に適応できることが可能となり、すばやくかつ正確に目標物に視線を向ける事が可能となる。   In Embodiment 1 of the present invention, a plurality of imaging optical systems with different imaging magnifications are used, a specific subject is extracted from a captured image by an imaging optical system with a low imaging magnification, and the line-of-sight direction of the imaging optical system with a high imaging magnification is extracted from the extraction result. In a moving compound eye imaging device, by aligning the entrance pupil position in the vertical direction of the panning rotation plane, it is possible to adapt to the zoom optical system without correcting the pan angle obtained from the wide-angle optical system, and quickly and accurately. It is possible to turn the line of sight toward the target.

また、実施例2では、本撮影装置設置時に設置状態を入力するだけでパンニングおよびチルティングもすばやくかつ正確に目標物に視線を向ける事が可能となる。   Further, in the second embodiment, it is possible to quickly and accurately turn the line of sight to the target object simply by inputting the installation state when installing the photographing apparatus.

また、実施例3では広角光学系を周囲360°の全方位を撮像する光学部材を本撮影装置に追加するだけで全周囲死角のない監視領域を得ると供に、侵入者に対し、正確にズーム光学系が視線移動し、拡大映像を撮影することが可能となる。   Further, in the third embodiment, a wide-angle optical system can be obtained by adding an optical member that captures all directions of 360 ° around the image capturing apparatus to obtain a monitoring area free from all-around blind spots, and can accurately detect intruders. The zoom optical system moves its line of sight, and an enlarged image can be taken.

本発明の実施例1の装置構成例で本装置構成を横から見た図を表す。The figure which looked at this apparatus structure from the side in the apparatus structural example of Example 1 of this invention is represented. 本発明の実施例1の装置構成例で本装置構成を上から見た図を表す。The figure which looked at this apparatus structure from the top by the apparatus structural example of Example 1 of this invention is represented. 本発明の実施例1の装置構成例で本装置のパン回転軸について説明する図である。It is a figure explaining the pan rotating shaft of this apparatus by the apparatus structural example of Example 1 of this invention. 本発明の実施例1の装置構成例で本装置のチルト回転軸について説明する図である。It is a figure explaining the tilt rotation axis | shaft of this apparatus by the apparatus structural example of Example 1 of this invention. 本発明の実施例1の本装置の動作例を表す図である。It is a figure showing the operation example of this apparatus of Example 1 of this invention. 本発明の実施例1の信号処理を説明するブロック図である。It is a block diagram explaining the signal processing of Example 1 of this invention. 本発明の実施例1の本装置の被写体抽出処理について説明する図である。It is a figure explaining the to-be-photographed object extraction process of this apparatus of Example 1 of this invention. 本発明の実施例1の本装置の被写体抽出処理の結果から被写体の方向検知および変倍率を決定する処理について説明する図である。It is a figure explaining the process which determines the direction of a to-be-photographed object and determines a magnification from the result of the to-be-extracted object of this apparatus of Example 1 of this invention. 本発明の実施例1の本装置の表示装置の表示例を説明する図である。It is a figure explaining the example of a display of the display apparatus of this apparatus of Example 1 of this invention. 本発明の実施例1の被写体方向検知について説明する図である。It is a figure explaining the to-be-photographed object direction detection of Example 1 of this invention. 本発明の実施例2の信号処理を説明するブロック図である。It is a block diagram explaining the signal processing of Example 2 of this invention. 本発明の実施例3の装置構成例で本装置構成の鳥瞰図を表す。The bird's-eye view of this apparatus structure is represented by the apparatus structural example of Example 3 of this invention. 本発明の実施例3の装置構成例で本装置構成を横から見た図を表す。The figure which looked at this apparatus structure from the side in the apparatus structural example of Example 3 of this invention is represented. 本発明の実施例3の双曲面鏡と画像平面の関係を説明する図である。It is a figure explaining the relationship between the hyperboloid mirror of Example 3 of this invention, and an image plane. 本発明の実施例3の双曲面鏡と画像平面の関係を説明する図であるり、14図をXY平面上に射影したである。It is a figure explaining the relationship between the hyperboloid mirror of Example 3 of this invention, and an image plane, and FIG. 14 was projected on XY plane. 本発明の実施例3の双曲面鏡と画像平面の関係を説明する図であるり、14図の1断面図である。It is a figure explaining the relationship between the hyperboloid mirror of Example 3 of this invention, and an image plane, or 1 sectional drawing of FIG. 従来の技術の撮像装置を説明する図で地上のランドマークの利用を説明する図である。It is a figure explaining the imaging device of a prior art, and it is a figure explaining utilization of the landmark on the ground. 従来の技術の撮像装置を説明する図で広角カメラのパン・チルト角の利用を説明する図である。It is a figure explaining the imaging device of a prior art, and is a figure explaining utilization of the pan / tilt angle of a wide-angle camera. 従来の技術の撮像装置を説明する図で、図18を上から見た図である。It is a figure explaining the imaging device of a prior art, and is the figure which looked at FIG. 18 from the top. 従来の技術の撮像装置を説明する図で、カメラの設置位置から死角になる問題を説明する図である。It is a figure explaining the imaging device of a prior art, and is a figure explaining the problem which becomes a blind spot from the installation position of a camera. 従来の技術の撮像装置を説明する図で、カメラを縦に積んだ例を説明する図である。It is a figure explaining the imaging device of a prior art, and is a figure explaining the example which piled up the camera vertically. 従来の技術の撮像装置を説明する図で、回転軸のずれによる問題について説明する図である。It is a figure explaining the imaging device of a prior art, and is a figure explaining the problem by the shift | offset | difference of a rotating shaft. 実施例4のスライドを示した図である。It is the figure which showed the slide of Example 4. 入射瞳の位置に応じて光軸方向に進退するズーム光学系ユニットの動作説明図である。It is operation | movement explanatory drawing of the zoom optical system unit which advances / retreats in an optical axis direction according to the position of an entrance pupil. 撮影装置の動作制御を説明するフローチャートである。It is a flowchart explaining the operation control of an imaging device.

Claims (10)

第1の撮影倍率を有する第1の撮影光学系と、
前記第1の撮影倍率よりも大きい第2の撮影倍率を有する第2の撮影光学系とを有し、
前記第2の撮影光学系は回動が可能であり、
かつ前記第1および第2の撮影光学系の入射瞳位置が、前記第2の撮影光学系の回動軸上に配置されていることを特徴とする撮影装置。
A first imaging optical system having a first imaging magnification;
A second imaging optical system having a second imaging magnification larger than the first imaging magnification;
The second imaging optical system can be rotated,
An imaging apparatus, wherein the entrance pupil positions of the first and second imaging optical systems are arranged on a rotation axis of the second imaging optical system.
前記第2の撮影光学系は、前記回動軸に直交する軸回りでも回動可能であることを特徴とする請求項1に記載の撮影装置。   The imaging apparatus according to claim 1, wherein the second imaging optical system is rotatable even about an axis orthogonal to the rotation axis. 前記第2の撮影光学系は、変倍が可能であり、
前記変倍に応じて前記第2の撮影光学系を光軸方向に動かす位置変更手段を有することを特徴とする請求項1又は2に記載の撮影装置。
The second photographing optical system is capable of zooming,
The photographing apparatus according to claim 1, further comprising a position changing unit that moves the second photographing optical system in an optical axis direction in accordance with the zooming.
前記第1の撮影光学系を用いて得た撮影画像に基づいて前記第2の撮影光学系の撮影方向を決定し、該決定された撮影方向に前記2の撮影光学系を回動させる制御手段を有することを特徴とする請求項1又は2に記載の撮影装置。   Control means for determining a photographing direction of the second photographing optical system based on a photographed image obtained using the first photographing optical system and rotating the second photographing optical system in the determined photographing direction. The imaging apparatus according to claim 1, further comprising: 前記制御手段は、前記撮影画像内から特定被写体領域を検出し、該特定被写体領域を含むように前記第2の撮影光学系の撮影方向を決定することを特徴とする請求項4に記載の撮影装置。   5. The photographing according to claim 4, wherein the control means detects a specific subject area from the photographed image and determines a photographing direction of the second photographing optical system so as to include the specific subject area. apparatus. 前記第1の撮影光学系を用いて得た撮影画像に基づいて前記第2の撮影倍率を決定し、前記第2の撮影光学系を該該決定した第2の撮影倍率に設定する制御手段を有することを特徴とする請求項3に記載の撮影装置。   Control means for determining the second photographing magnification based on a photographed image obtained by using the first photographing optical system and setting the second photographing optical system to the determined second photographing magnification. The photographing apparatus according to claim 3, further comprising: 前記制御手段は、前記撮影画像内から特定被写体領域を検出し、該特定被写体領域に応じて前記第2の撮影倍率を決定することを特徴とする請求項6に記載の撮影装置。   The photographing apparatus according to claim 6, wherein the control unit detects a specific subject area from the photographed image and determines the second photographing magnification according to the specific subject area. 第1の撮影倍率を有する第1の撮影光学系と、前記第1の撮影倍率よりも大きい第2の撮影倍率を有する第2の撮影光学系とを有し、前記第2の撮影光学系は回動が可能であり、かつ前記第1および第2の撮影光学系の入射瞳位置が、前記第2の撮影光学系の回動軸上に配置されている撮影装置の制御方法であって、
前記第2の撮影光学系の方向を初期化するステップと、
前記第1の撮影光学系を用いて得た撮影画像内から特定被写体領域を検出するステップと、
該検出した特定被写領域を含むように前記第2の撮影光学系の方向を決定するステップと、
該決定した方向に前記第2の撮影光学系を前記回動軸回りで回動させるステップとを有することを特徴とする撮影装置の制御方法。
A first photographing optical system having a first photographing magnification; and a second photographing optical system having a second photographing magnification larger than the first photographing magnification. The second photographing optical system includes: A method of controlling an imaging apparatus that is rotatable and the entrance pupil positions of the first and second imaging optical systems are arranged on a rotation axis of the second imaging optical system,
Initializing the direction of the second imaging optical system;
Detecting a specific subject area from within a photographed image obtained using the first photographing optical system;
Determining the direction of the second imaging optical system so as to include the detected specific object region;
And a step of rotating the second imaging optical system about the rotation axis in the determined direction.
前記第2の撮影光学系は変倍が可能であり、
前記検出した特定被写領域を含むように前記第2の撮影倍率を決定するステップと、
前記第2の撮影光学系を該決定した第2の撮影倍率に設定するステップと、
前記第2の撮影光学系の変倍に応じて前記第2の撮影光学系を光軸方向に移動させるステップと
を有することを特徴とする請求項8に記載の撮影装置の制御方法。
The second photographic optical system is capable of zooming,
Determining the second imaging magnification so as to include the detected specific subject area;
Setting the second imaging optical system to the determined second imaging magnification;
9. The method of controlling an imaging apparatus according to claim 8, further comprising a step of moving the second imaging optical system in an optical axis direction in accordance with zooming of the second imaging optical system.
前記方向を初期化するステップを除く他の前記ステップを順次繰り返し行うことを特徴とする請求項8又は9に記載の撮影装置の制御方法。

10. The method of controlling an imaging apparatus according to claim 8, wherein the steps other than the step of initializing the direction are sequentially repeated.

JP2003412603A 2003-12-10 2003-12-10 Photographing apparatus and method of controlling photographing apparatus Withdrawn JP2005175852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003412603A JP2005175852A (en) 2003-12-10 2003-12-10 Photographing apparatus and method of controlling photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003412603A JP2005175852A (en) 2003-12-10 2003-12-10 Photographing apparatus and method of controlling photographing apparatus

Publications (2)

Publication Number Publication Date
JP2005175852A true JP2005175852A (en) 2005-06-30
JP2005175852A5 JP2005175852A5 (en) 2007-02-01

Family

ID=34732967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003412603A Withdrawn JP2005175852A (en) 2003-12-10 2003-12-10 Photographing apparatus and method of controlling photographing apparatus

Country Status (1)

Country Link
JP (1) JP2005175852A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264396A (en) * 2006-03-29 2007-10-11 Canon Inc Camera system
JP2010153946A (en) * 2008-12-23 2010-07-08 Brother Ind Ltd Head mount display
JPWO2017038160A1 (en) * 2015-09-01 2018-06-14 日本電気株式会社 Surveillance information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
US10638030B1 (en) * 2017-01-31 2020-04-28 Southern Methodist University Angular focus stacking
JP2020068423A (en) * 2018-10-22 2020-04-30 三菱重工業株式会社 Display device and display method
JP7379228B2 (en) 2020-03-18 2023-11-14 京セラ株式会社 Imaging device and vehicle

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264396A (en) * 2006-03-29 2007-10-11 Canon Inc Camera system
JP2010153946A (en) * 2008-12-23 2010-07-08 Brother Ind Ltd Head mount display
JPWO2017038160A1 (en) * 2015-09-01 2018-06-14 日本電気株式会社 Surveillance information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
US10748010B2 (en) 2015-09-01 2020-08-18 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US10977499B2 (en) 2015-09-01 2021-04-13 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US11710322B2 (en) 2015-09-01 2023-07-25 Nec Corporation Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
US10638030B1 (en) * 2017-01-31 2020-04-28 Southern Methodist University Angular focus stacking
JP2020068423A (en) * 2018-10-22 2020-04-30 三菱重工業株式会社 Display device and display method
JP7266989B2 (en) 2018-10-22 2023-05-01 三菱重工業株式会社 Display device and display method
JP7379228B2 (en) 2020-03-18 2023-11-14 京セラ株式会社 Imaging device and vehicle

Similar Documents

Publication Publication Date Title
EP2563009B1 (en) Method and electric device for taking panoramic photograph
JP4188394B2 (en) Surveillance camera device and surveillance camera system
US7256817B2 (en) Following device
WO2016119301A1 (en) Terminal, and image capturing method and device
US20130135480A1 (en) Thermal imaging camera for taking thermographic images
KR101339193B1 (en) Camera platform system
KR101776702B1 (en) Monitoring camera for generating 3 dimensional scene and method thereof
JP2005094048A (en) Photographing apparatus with image correcting function and method thereof, and photographing apparatus and method thereof
WO1999017543A1 (en) Virtual reality camera
JP2006352851A (en) Method and device for acquiring image of scene using composite camera
WO2006050430A2 (en) Optical tracking system using variable focal length lens
US9936112B2 (en) Monitoring camera
KR101452342B1 (en) Surveillance Camera Unit And Method of Operating The Same
JP2003134375A (en) Image pickup system
JP2011109630A (en) Universal head for camera apparatus
JP4254667B2 (en) Wide viewing angle imaging device
JP2005175852A (en) Photographing apparatus and method of controlling photographing apparatus
JP7254562B2 (en) Imaging device and its control device
JP5277600B2 (en) Overhead radiography system and method
CN113645397A (en) Tracking method, device and system for moving target object
KR100958352B1 (en) Monitoring method
CN116112794A (en) Aerial image generation method and device, computer readable medium and aerial unmanned aerial vehicle
US9667869B2 (en) Camera apparatus for automatically maintaining horizontality and method for the same
KR101341632B1 (en) Optical axis error compensation system of the zoom camera, the method of the same
JP2007081826A (en) Monitoring system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081023

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090126