JP2017098613A - Imaging apparatus, its control method, and control program - Google Patents

Imaging apparatus, its control method, and control program Download PDF

Info

Publication number
JP2017098613A
JP2017098613A JP2015225753A JP2015225753A JP2017098613A JP 2017098613 A JP2017098613 A JP 2017098613A JP 2015225753 A JP2015225753 A JP 2015225753A JP 2015225753 A JP2015225753 A JP 2015225753A JP 2017098613 A JP2017098613 A JP 2017098613A
Authority
JP
Japan
Prior art keywords
imaging
shooting
subject
image
aperture value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015225753A
Other languages
Japanese (ja)
Other versions
JP6635764B2 (en
Inventor
小林 繁之
Shigeyuki Kobayashi
繁之 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015225753A priority Critical patent/JP6635764B2/en
Publication of JP2017098613A publication Critical patent/JP2017098613A/en
Application granted granted Critical
Publication of JP6635764B2 publication Critical patent/JP6635764B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically select a photographic mode that has a satisfactory SNR in photographing as in a dark place, regardless of a condition of a subject.SOLUTION: A distance measurement part 110 obtains distance information by measuring the distance of a subject located in an image photographing range from a camera. In a first photographing mode in which photographing is carried out by exerting tilt control in which an angle formed by the optical axis of an imaging optical system 101 and the imaging surface of an imager 102 is controlled, a tilt angle and a first diaphragm value are obtained for focusing on all subjects located in the photographing range. In a second photographing mode in which photographing is carried out, with the optical axis of the imaging optical system intersecting the imaging surface of the imager, a second diaphragm value is obtained for focusing on all subjects located in the photographing range. On the basis of the result of a comparison between the first and second diaphragm values, a photographing mode selection part 109 selects the first or second photographing mode.SELECTED DRAWING: Figure 10

Description

本発明は、チルト駆動可能なレンズ又はチルト駆動可能な撮像素子を備える撮像装置、およびその制御方法、および制御プログラムに関する。   The present invention relates to an imaging apparatus including a tilt-driven lens or a tilt-driven imaging element, a control method thereof, and a control program.

従来、撮影の際に、撮像装置からの距離が異なる複数の被写体に合焦した画像を得るため、次の第1又は第2の手法が用いられている。第1の手法は、適切な絞り値によって、複数の被写体を包括しうる被写界深度を得る手法である(特許文献1参照)。以下、第1の手法を用いた撮影をノーマル撮影と呼ぶ。   Conventionally, at the time of shooting, the following first or second method is used in order to obtain an image focused on a plurality of subjects at different distances from the imaging device. The first method is a method of obtaining a depth of field that can include a plurality of subjects with an appropriate aperture value (see Patent Document 1). Hereinafter, photographing using the first technique is referred to as normal photographing.

一方、第2の手法では、後述するシャインプルフの法則を用いて、撮影光学系をチルト動作することによって、撮像光学系を撮像素子面に対して傾斜させて、撮像素子からの距離が異なる複数の被写体に関して合焦像を得る(特許文献2参照)。以下、第2の手法を用いた撮影をアオリ撮影と呼ぶ。   On the other hand, in the second method, the imaging optical system is tilted with respect to the imaging element surface by tilting the imaging optical system using Shine-Pluff's law, which will be described later, and a plurality of distances from the imaging element are different. A focused image is obtained for the subject (see Patent Document 2). Hereinafter, shooting using the second method is referred to as tilt shooting.

特開昭62−52538号公報JP-A-62-52538 特開平5−53166号公報JP-A-5-53166

ところで、監視カメラなどの撮像装置において、暗所(低照度環境)においても被写体を認識するためには、可能な限り絞りを開き小さいF値で撮影を行って高いSNR(Signal to Noise ratio)を確保することが必要である。ところが、複数の被写体が存在する場合には、後述するように、ノーマル撮影およびアオリ撮影のどちらがより小さいF値で全ての被写体に合焦できるかについては、被写体の配置状況によって変化する。   By the way, in an imaging apparatus such as a surveillance camera, in order to recognize a subject even in a dark place (low illuminance environment), the aperture is opened as much as possible, and shooting is performed with a small F value to obtain a high SNR (Signal to Noise ratio). It is necessary to secure. However, when there are a plurality of subjects, as will be described later, which of normal photographing and tilt photographing can focus on all subjects with a smaller F value varies depending on the state of the subject.

よって、被写体の状況が刻々と変化する環境下においては、特許文献1および2に記載のように、ノーマル撮影およびアオリ撮影のいずれか一方を用いた撮像装置では、被写体の状況に対応することが困難である。その結果、特に、暗所における撮影では不適切な撮影モードで撮影が継続されることになる。   Therefore, in an environment where the situation of the subject changes every moment, as described in Patent Documents 1 and 2, an imaging apparatus using either normal photography or tilt photography can deal with the situation of the subject. Have difficulty. As a result, shooting continues in an inappropriate shooting mode, particularly when shooting in a dark place.

そこで、本発明の目的は、被写体の状況に拘わらず、暗所における撮影においてSNRが良好な撮影モードを自動的に選択することができる撮像装置、その制御方法、および制御プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus capable of automatically selecting a shooting mode with a good SNR in shooting in a dark place regardless of the state of the subject, a control method thereof, and a control program. is there.

上記の目的を達成するため、本発明による撮像装置は、撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置であって、前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択手段と、前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距手段と、前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算手段と、前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算手段とを有し、前記選択手段は前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus that includes an imaging element on which an optical image is formed via an imaging optical system and obtains an image according to the output of the imaging element. The first imaging mode for performing imaging by performing tilt control for controlling the angle between the lens main surface of the imaging optical system and the imaging plane, and the lens main surface of the imaging optical system and the imaging plane are orthogonal to each other Selection means for selecting one of the second shooting modes for shooting in a state, and distance measuring means for measuring distance from the imaging device to a subject existing in the shooting range of the image to obtain distance information; A first computing means for obtaining a tilt angle and a first aperture value for focusing a plurality of subjects existing in the photographing range in the first photographing mode; and in the second photographing mode. Multiple subjects within the shooting range. Second calculating means for obtaining a second aperture value for causing the first aperture value to be selected, wherein the selecting means is based on a result of comparison between the first aperture value and the second aperture value. One of the second shooting modes is selected as a selected shooting mode.

本発明による制御方法は、撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置の制御方法であって、前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択ステップと、前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距ステップと、前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算ステップと、前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算ステップとを有し、前記選択ステップでは前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする。   A control method according to the present invention is a method for controlling an imaging apparatus that includes an imaging element on which an optical image is formed via an imaging optical system and obtains an image according to an output of the imaging element. Shooting is performed in a first shooting mode in which shooting is performed by performing tilt control for controlling the angle between the lens main surface and the imaging surface, and the lens main surface of the imaging optical system and the imaging surface are orthogonal to each other. A selection step of selecting one of the second shooting modes, a distance measurement step of measuring distance from the imaging device to a subject existing in the shooting range of the image, and obtaining distance information; and the first step A first calculation step for obtaining a tilt angle and a first aperture value for focusing on a plurality of subjects existing in the shooting range in the shooting mode, and in the shooting range in the second shooting mode. Focus on multiple existing subjects And a second calculation step for obtaining a second aperture value for the first imaging mode based on a comparison result between the first aperture value and the second aperture value in the selection step. One of the second shooting modes is selected as a selected shooting mode.

本発明による制御プログラムは、撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択ステップと、前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距ステップと、前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算ステップと、前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算ステップとを実行させ、前記選択ステップでは前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする。   A control program according to the present invention is a control program used in an imaging apparatus that includes an imaging element on which an optical image is formed via an imaging optical system and obtains an image according to an output of the imaging element. A first photographing mode for performing photographing by performing tilt control for controlling an angle formed between the lens main surface of the imaging optical system and the imaging surface, and the lens main surface of the imaging optical system and the connection. A selection step for selecting one of the second shooting modes for shooting in a state where the image planes are orthogonal to each other, and a distance information from the imaging device to a subject existing in the shooting range of the image is obtained. A distance measurement step, a first calculation step for obtaining a tilt angle and a first aperture value for focusing on a plurality of subjects existing in the shooting range in the first shooting mode, and the second of In the shadow mode, a second calculation step for obtaining a second aperture value for focusing on a plurality of subjects existing in the shooting range is executed, and in the selection step, the first aperture value and the first aperture value are calculated. One of the first shooting mode and the second shooting mode is selected as a selected shooting mode based on a comparison result with an aperture value of 2.

本発明によれば、撮影範囲に存在する被写体に合焦させつつ、絞り値を適切に選択することができる結果、被写体の状況に拘わらず、暗所などにおける撮影においてSNRが良好な画像を得ることができる。   According to the present invention, it is possible to appropriately select an aperture value while focusing on a subject existing in the photographing range, and as a result, an image having a good SNR in photographing in a dark place or the like can be obtained regardless of the state of the subject. be able to.

シャインプルフの法則を説明するための図であり、(a)はノーマル撮影における撮像素子とレンズの配置および合焦面の位置関係を示す図、(b)は撮像素子に対してレンズを傾けた状態を示す図である。It is a figure for demonstrating a Shine-Pluff's law, (a) is a figure which shows arrangement | positioning of an image pick-up element and a lens in normal imaging | photography, and the positional relationship of a focusing surface, (b) inclined the lens with respect to the image pick-up element. It is a figure which shows a state. 第1の撮影シーンで得られた画像の一例を示す図である。It is a figure which shows an example of the image acquired by the 1st imaging | photography scene. 図2に示す撮影シーンにおいて被写体の配置関係をモデル化して示す図である。FIG. 3 is a diagram showing a model of an arrangement relationship of subjects in the shooting scene shown in FIG. 2. 図3に示す被写体の配置についてノーマル撮影によって全被写体に対して合焦を行う状態を示す図である。FIG. 4 is a diagram showing a state in which all the subjects are focused by normal photographing with respect to the arrangement of the subjects shown in FIG. 3. 図3に示す被写体の配置についてアオリ撮影によって全被写体に対して合焦を行う状態を示す図である。FIG. 4 is a diagram illustrating a state in which all the subjects are focused by tilt shooting with respect to the arrangement of the subjects illustrated in FIG. 3. 第2の撮影シーンで得られた画像の一例を示す図である。It is a figure which shows an example of the image obtained in the 2nd imaging | photography scene. 図6に示す撮影シーンにおいて被写体の配置関係をモデル化して示す図である。FIG. 7 is a diagram showing a model of an arrangement relationship of subjects in the shooting scene shown in FIG. 6. 図7に示す被写体の配置においてノーマル撮影の際の合焦面中心と被写体との位置関係を示す図である。FIG. 8 is a diagram illustrating a positional relationship between a focus plane center and a subject in normal photographing in the subject arrangement shown in FIG. 7. 図7に示す被写体の配置についてアオリ撮影によって全被写体に対して合焦を行う状態を示す図である。FIG. 8 is a diagram illustrating a state in which all the subjects are focused by tilt shooting with respect to the arrangement of the subjects illustrated in FIG. 7. 本発明の第1の実施形態によるカメラの一例について構成を示すブロック図である。It is a block diagram which shows a structure about an example of the camera by the 1st Embodiment of this invention. 図10に示すカメラで行われる撮影処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the imaging | photography process performed with the camera shown in FIG. 図1に示す被写体座標演算部で設定される見かけ位置(見かけ座標)の一例を示す図である。It is a figure which shows an example of the apparent position (apparent coordinate) set by the subject coordinate calculating part shown in FIG. 図1に示す被写体座標演算部で設定されるz軸座標の一例を示す図である。It is a figure which shows an example of the z-axis coordinate set by the to-be-photographed coordinate calculation part shown in FIG. 図1に示す撮像素子とレンズおよび合焦面との配置関係を示す図である。It is a figure which shows the arrangement | positioning relationship between the image pick-up element shown in FIG. 1, a lens, and a focusing surface. 本発明の第2の実施形態によるカメラの一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of the camera by the 2nd Embodiment of this invention. 図15に示すカメラで行われる撮影処理の一例を説明するためのフローチャートである。16 is a flowchart for explaining an example of a photographing process performed by the camera shown in FIG. 本発明の第3の実施形態によるカメラで用いられる被写体検知部の構成を示すブロック図である。It is a block diagram which shows the structure of the to-be-photographed object detection part used with the camera by the 3rd Embodiment of this invention. 本発明の第3の実施形態によるカメラで行われる撮影処理を説明するためフローチャートである。It is a flowchart for demonstrating the imaging | photography process performed with the camera by the 3rd Embodiment of this invention. 本発明の第4の実施形態によるカメラの一例についてその構成を示すブロック図である。It is a block diagram which shows the structure about an example of the camera by the 4th Embodiment of this invention. 図19に示すカメラで行われる撮影処理を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining a photographing process performed by the camera shown in FIG. 19. FIG. 図19に示す表示部に表示された画像において設定されたマスク範囲の一例を示す図である。It is a figure which shows an example of the mask range set in the image displayed on the display part shown in FIG.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

ここでは、本発明の実施の形態による撮像装置について説明する前に、シャインプルフの法則について概説する。   Here, before explaining the imaging apparatus according to the embodiment of the present invention, Shine-Pruff's law will be outlined.

図1は、シャインプルフの法則を説明するための図である。そして、図1(a)はノーマル撮影における撮像素子とレンズの配置および合焦面の位置関係を示す図である。また、図1(b)は撮像素子に対してレンズを傾けた状態を示す図である。   FIG. 1 is a diagram for explaining Shine-Pluff's law. FIG. 1A is a diagram showing the positional relationship between the imaging element and the lens and the focal plane in normal shooting. FIG. 1B is a diagram illustrating a state in which the lens is tilted with respect to the image sensor.

図1(a)においては、撮像素子200aとレンズ201aとは撮像素子面(結像面)とレンズ主面とが平行となるよう配置されており、合焦面202a、撮像素子200a、およびレンズ201aは全てが平行となる。一方、図1(b)においては、シャインプルフの法則を用いたアオリ撮影における撮像素子200bおよびレンズ201bの配置と合焦面202bの位置関係が示されており、撮像素子200bに対してレンズ201bが傾けられている。   In FIG. 1A, the image sensor 200a and the lens 201a are arranged so that the image sensor surface (imaging plane) and the lens main surface are parallel to each other, and the focusing surface 202a, the image sensor 200a, and the lens are arranged. All 201a are parallel. On the other hand, FIG. 1B shows the arrangement of the imaging element 200b and the lens 201b and the positional relationship between the focal plane 202b and the positional relationship between the focusing surface 202b in the tilt shooting using Shine-Pruff's law. Is tilted.

撮像素子200bの延長線と合焦面202bの延長線とが交わる点をCPとする。この際、レンズ201bをレンズ主面の延長線が点CPを通過するように傾斜させると、合焦面202bに合焦させることができる。これをシャインプルフの法則という。   A point where an extension line of the imaging element 200b and an extension line of the focusing surface 202b intersect is defined as CP. At this time, if the lens 201b is tilted so that the extension line of the lens main surface passes through the point CP, the lens 201b can be focused on the focusing surface 202b. This is called Shine-Pluff's law.

ここで、上述のシャインプルフの法則について2つの撮影シーンを例に挙げて説明する。   Here, the above-described Shine-Pluff's law will be described by taking two shooting scenes as an example.

図2は、第1の撮影シーンで得られた画像の一例を示す図である。   FIG. 2 is a diagram illustrating an example of an image obtained in the first shooting scene.

第1の撮影シーンで得られた画像(撮影画像)10においては、被写体11、12、15,および16が建物の一階エリアに立っており、被写体13、14、17、および18が建物の2階エリアに立っている。   In the image (captured image) 10 obtained in the first shooting scene, the subjects 11, 12, 15, and 16 are standing on the first floor area of the building, and the subjects 13, 14, 17, and 18 are the buildings. Standing in the 2nd floor area.

図3は図2に示す撮影シーンにおいて被写体の配置関係をモデル化して示す図である。   FIG. 3 is a diagram showing a model of the positional relationship of subjects in the shooting scene shown in FIG.

図示の例では、被写体11〜18は直径w1の黒い球体で近似されている。そして、被写体11〜18はそれぞれ一辺の長さがd1の立方体の頂点に位置づけられており、撮像装置(以下単にカメラと呼ぶ)19によって図示の立方体を撮像する。   In the illustrated example, the subjects 11 to 18 are approximated by black spheres having a diameter w1. Each of the subjects 11 to 18 is positioned at the apex of a cube having a side length of d1, and the illustrated cube is imaged by an imaging device (hereinafter simply referred to as a camera) 19.

図4は、図3に示す被写体の配置についてノーマル撮影によって全被写体に対して合焦を行う状態を示す図である。   FIG. 4 is a diagram illustrating a state in which all the subjects are focused by normal photographing with respect to the subject arrangement illustrated in FIG. 3.

ノーマル撮影(第2の撮影モード)においては、合焦面の中心20を被写体11および12によって規定される辺の中点と、被写体13と14、被写体15、16、および被写体17と18がそれぞれ規定する辺の中点とを通る平面に設定する。この際、全ての被写体を合焦範囲に収めるために必要な被写界深度L1は、L1=d1+w1となる。   In normal shooting (second shooting mode), the center 20 of the in-focus plane is the midpoint of the side defined by the subjects 11 and 12, the subjects 13 and 14, the subjects 15 and 16, and the subjects 17 and 18 respectively. Set to a plane that passes through the midpoint of the specified side. At this time, the depth of field L1 necessary for keeping all the subjects in the in-focus range is L1 = d1 + w1.

図5は、図3に示す被写体の配置についてアオリ撮影によって全被写体に対して合焦を行う状態を示す図である。   FIG. 5 is a diagram illustrating a state in which all the subjects are focused by tilt shooting with respect to the arrangement of the subjects illustrated in FIG. 3.

アオリ撮影(第1の撮影モード)においては、合焦面中心21は、被写体11、14、15、および18を通る平面に設定される。この際、全ての被写体を合焦範囲に収めるために必要な被写界深度L2は、L2=√2×d1+w1となる。   In tilt shooting (first shooting mode), the focal plane center 21 is set to a plane that passes through the subjects 11, 14, 15, and 18. At this time, the depth of field L2 necessary for keeping all the subjects in the in-focus range is L2 = √2 × d1 + w1.

被写界深度L1およびL2を比較すると、被写界深度L1<被写体深度L2であるので、第1の撮影シーンにおいてはノーマル撮影の方がF値(絞り値)を小さくして撮影することができる。   Comparing the depths of field L1 and L2, since the depth of field L1 is smaller than the subject depth L2, normal shooting may be performed with a smaller F-number (aperture value) in the first shooting scene. it can.

なお、図示の例では、ノーマル撮影とアオリ撮影との差を説明するために特殊な状況を仮定しているものの、実際の撮影シーンにおいても同様な状況は多様に存在する。そして、このことは、後述する第2の撮影シーンについても言えることである。   In the illustrated example, a special situation is assumed to explain the difference between normal photography and tilt photography, but there are various similar situations in actual photography scenes. This is also true for the second shooting scene described later.

図6は、第2の撮影シーンで得られた画像の一例を示す図である。   FIG. 6 is a diagram illustrating an example of an image obtained in the second shooting scene.

第2の撮影シーンで得られた画像10においては、被写体11〜16が建物の一階エリアに立っている。そして、これら被写体11〜16は画面奥行き方向に向かって一列に並んでいる。   In the image 10 obtained in the second shooting scene, the subjects 11 to 16 are standing in the first floor area of the building. These subjects 11 to 16 are arranged in a line in the depth direction of the screen.

図7は、図6に示す撮影シーンにおいて被写体の配置関係をモデル化して示す図である。   FIG. 7 is a diagram showing a model of the positional relationship of subjects in the shooting scene shown in FIG.

ここでは、被写体11〜16が直径w1の円で近似されている。そして、被写体11〜16は各々一定距離d3をおいて並んでいる。   Here, the subjects 11 to 16 are approximated by a circle having a diameter w1. The subjects 11 to 16 are arranged at a fixed distance d3.

図8は、図7に示す被写体の配置においてノーマル撮影の際の合焦面中心と被写体との位置関係を示す図である。   FIG. 8 is a diagram showing the positional relationship between the center of the focal plane and the subject at the time of normal shooting in the subject arrangement shown in FIG.

図示のように、合焦面の中心23は被写体13と14との中間に位置し、この際に全ての被写体を合焦範囲に収めるために必要な被写界深度d4は、d4=5×d3+w1となる。   As shown in the figure, the center 23 of the in-focus plane is located between the subjects 13 and 14, and the depth of field d4 required to bring all the subjects into the focus range at this time is d4 = 5 × d3 + w1.

図9は、図7に示す被写体の配置についてアオリ撮影によって全被写体に対して合焦を行う状態を示す図である。   FIG. 9 is a diagram showing a state in which all the subjects are focused by tilt shooting with respect to the subject arrangement shown in FIG.

ここでは、合焦面の中心24は被写体11〜16の各々の中心を結ぶ直線分を含んでいる。全ての被写体を合焦範囲に収めるために必要な被写界深度d5は、d5=w1となる。被写界深度d4およびd5を比較すると、被写界深度d5<被写体深度d4であるので、第2の撮影シーンにおいてはアオリ撮影の方がF値を小さくして撮影することができる。   Here, the center 24 of the focal plane includes a straight line connecting the centers of the subjects 11 to 16. The depth of field d5 necessary for keeping all subjects within the in-focus range is d5 = w1. Comparing the depths of field d4 and d5, the depth of field d5 <the subject depth d4. Therefore, in the second shooting scene, the tilt shooting can be performed with a smaller F value.

このように、ノーマル撮影およびアオリ撮影のどちらがより小さいF値で全ての被写体に合焦できるかについては、被写体の配置状況によって変化することになる。   As described above, which of normal shooting and tilt shooting can focus on all subjects with a smaller F-number varies depending on the arrangement state of the subjects.

[第1の実施形態]
図10は、本発明の第1の実施形態によるカメラの一例について構成を示すブロック図である。
[First Embodiment]
FIG. 10 is a block diagram showing the configuration of an example of the camera according to the first embodiment of the present invention.

カメラ100は、チルト機構を備える撮像光学系101を有しており、撮像光学系101を介して、光学像(被写体像)がCCD、CMOSセンサ、又はInGaAsセンサなどの撮像素子102に結像する。撮像光学系制御部111は、システムコントローラ112の制御下で、撮像光学系101の合焦制御、チルト制御、および露出制御などを行う。   The camera 100 includes an imaging optical system 101 having a tilt mechanism, and an optical image (subject image) is formed on an imaging element 102 such as a CCD, CMOS sensor, or InGaAs sensor via the imaging optical system 101. . The imaging optical system control unit 111 performs focusing control, tilt control, exposure control, and the like of the imaging optical system 101 under the control of the system controller 112.

撮像素子102は光学像に応じた画像信号(アナログ信号)を出力する。画像処理部103は画像信号をA/D変換してデジタル画像信号とする。そして、画像処理部103は、当該デジタル画像信号に対してガンマ補正およびカラーバランス調整など所定の画像処理を行って、JPEGなどの画像データを生成する。   The image sensor 102 outputs an image signal (analog signal) corresponding to the optical image. The image processing unit 103 A / D converts the image signal into a digital image signal. The image processing unit 103 performs predetermined image processing such as gamma correction and color balance adjustment on the digital image signal to generate image data such as JPEG.

画像処理部103の出力である画像データは、被写体検知部104およびシステムコントローラ112に送られる。そして、システムコントローラ112は、画像データを映像として表示部113に表示する。   Image data that is an output of the image processing unit 103 is sent to the subject detection unit 104 and the system controller 112. Then, the system controller 112 displays the image data on the display unit 113 as a video.

被写体検知部104は画像データを解析して被写体を検知する。そして、被写体検知部104は被写体検知結果とともに画像データを被写体座標演算部105に送る。被写体座標演算部105には、撮像素子102の縦横寸法、画素ピッチ寸法、および許容錯乱円径が予め保持されているとともに、撮像光学系101の焦点距離を示す焦点距離情報が保持されている。   The subject detection unit 104 detects the subject by analyzing the image data. Then, the subject detection unit 104 sends the image data together with the subject detection result to the subject coordinate calculation unit 105. The subject coordinate calculation unit 105 holds the vertical and horizontal dimensions, the pixel pitch dimension, and the allowable confusion circle diameter of the image sensor 102 in advance, and also holds focal length information indicating the focal length of the imaging optical system 101.

被写体座標演算部105は、まず被写体検知結果および画像データを用いて、画像上における被写体の位置を示す被写体情報を生成する。そして、被写体座標演算部105は当該被写体情報をシステムコントローラ112に送る。   The subject coordinate calculation unit 105 first uses the subject detection result and the image data to generate subject information indicating the position of the subject on the image. Then, the subject coordinate calculation unit 105 sends the subject information to the system controller 112.

システムコントローラ112は、被写体情報に基づいて測距部110を制御して各被写体を測距する。そして、測距部110は被写体を測距した測距結果を被写体座標演算部105に送る。被写体座標演算部105は、測距結果を参照して被写体の各々について3次元座標を求める。被写体座標演算部105は画像データとともに当該3次元座標をアオリ撮影用合焦面演算部106およびノーマル撮影用被写界深度演算部108に送る。   The system controller 112 controls the distance measuring unit 110 based on the subject information to measure each subject. Then, the distance measurement unit 110 sends a distance measurement result obtained by measuring the subject to the subject coordinate calculation unit 105. The subject coordinate calculation unit 105 obtains a three-dimensional coordinate for each subject with reference to the distance measurement result. The subject coordinate calculation unit 105 sends the three-dimensional coordinates together with the image data to the tilt shooting focus plane calculation unit 106 and the normal shooting depth of field calculation unit 108.

アオリ撮影用合焦面演算部106は被写体の3次元座標に基づいてアオリ撮影を行う際に必要な合焦面を示す平面式を求める。そして、アオリ撮影用合焦面演算部10は合焦面を示す平面式と被写体の3次元座標とをアオリ撮影用被写界深度演算部107に送る。アオリ撮影用被写界深度演算部107は、合焦面を示す平面式および被写体の3次元座標に基づいて、全被写体を合焦するために必要なF値(以下アオリ撮影用F値と呼ぶ)を求める。   The tilting focus plane calculation unit 106 obtains a plane expression indicating a focus plane necessary for tilt tilting based on the three-dimensional coordinates of the subject. Then, the tilt shooting focus plane calculation unit 10 sends the plane expression indicating the focus plane and the three-dimensional coordinates of the subject to the tilt shooting depth of field calculation unit 107. A tilt shooting depth-of-field calculating unit 107 is an F value (hereinafter referred to as a tilt shooting F value) necessary for focusing all subjects based on a plane expression indicating a focal plane and the three-dimensional coordinates of the subject. )

なお、第1の撮影モードであるアオリ撮影においては、撮像光学系101のレンズ主面と撮像光学系101によって形成される結像面とのなす角度(チルト角度)を制御するチルト制御を行って撮影が行われる。なお、レンズ主面と結像面とのなす角度を制御することによって、撮像素子102の光軸と結像面となす角度も変化する。また、結像面は撮像素子102上に形成される。   In the tilt shooting, which is the first shooting mode, tilt control is performed to control the angle (tilt angle) formed between the lens main surface of the imaging optical system 101 and the imaging plane formed by the imaging optical system 101. Shooting is performed. Note that the angle formed between the optical axis of the image sensor 102 and the imaging plane is also changed by controlling the angle formed between the lens main surface and the imaging plane. The imaging plane is formed on the image sensor 102.

一方、ノーマル撮影用被写界深度演算部108は被写体の3次元座標に基づいてノーマル撮影を行う際に全被写体を合焦するために必要なF値(以下ノーマル撮影用F値と呼ぶ)を求める。そして、アオリ撮影用被写界深度演算部107およびノーマル撮影用被写界深度演算部108は、それぞれアオリ撮影用F値およびノーマル撮影用F値を撮影モード選択部109に送る。   On the other hand, the normal shooting depth-of-field calculating unit 108 calculates an F value (hereinafter referred to as a normal shooting F value) necessary for focusing all subjects when performing normal shooting based on the three-dimensional coordinates of the subject. Ask. Then, the tilt shooting depth-of-field calculation unit 107 and the normal shooting depth of field calculation unit 108 send the tilt shooting F value and the normal shooting F value to the shooting mode selection unit 109, respectively.

なお、第2の撮影モードであるノーマル撮影においては、撮像光学系101のレンズ主面と撮像光学系101によって形成される結像面とが直交する状態で撮影が行われる。   Note that in normal shooting, which is the second shooting mode, shooting is performed in a state where the lens main surface of the imaging optical system 101 and the imaging plane formed by the imaging optical system 101 are orthogonal to each other.

撮影モード選択部109はアオリ撮影用F値とノーマル撮影用F値とを比較して、小さい方のF値を選択F値(選択絞り値)として選択する。そして、撮影モード選択部109は選択F値に対応する撮影モードを選択して選択撮影モードとしてシステムコントローラ112に送る。システムコントローラ112は、選択撮影モードに基づいて撮像光学系制御部111に制御して撮像光学系101を駆動する。   The shooting mode selection unit 109 compares the tilt shooting F value and the normal shooting F value, and selects the smaller F value as the selected F value (selected aperture value). Then, the shooting mode selection unit 109 selects a shooting mode corresponding to the selected F value and sends it to the system controller 112 as the selected shooting mode. The system controller 112 controls the imaging optical system control unit 111 to drive the imaging optical system 101 based on the selected shooting mode.

図11は、図10に示すカメラで行われる撮影処理の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システムコントローラ112の制御下で行われる。   FIG. 11 is a flowchart for explaining an example of a photographing process performed by the camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the system controller 112.

撮影処理が開始されると、システムコントローラ112は、被写体検知部104によって被写体が検知されたか否かを判定する(ステップS2)。画像において被写体が検知されないと(ステップS2において、NO)、システムコントローラ112は待機する。一方、画像において被写体が検知されると(ステップS2において、YES)、システムコントローラ112は、測距部110を制御して検知された全ての被写体について測距を行う(ステップS3)。   When the photographing process is started, the system controller 112 determines whether or not a subject is detected by the subject detection unit 104 (step S2). If no subject is detected in the image (NO in step S2), system controller 112 stands by. On the other hand, when a subject is detected in the image (YES in step S2), the system controller 112 controls the distance measuring unit 110 to perform distance measurement on all detected subjects (step S3).

続いて、システムコントローラ112の制御下で、被写体座標演算部105は、画像(画面)上の被写体の見かけの位置に応じて実際の被写体位置を算出する(ステップS4)。   Subsequently, under the control of the system controller 112, the subject coordinate calculation unit 105 calculates the actual subject position according to the apparent position of the subject on the image (screen) (step S4).

図12は、図1に示す被写体座標演算部で設定される見かけ位置(見かけ座標)の一例を示す図である。   12 is a diagram illustrating an example of an apparent position (apparent coordinate) set by the subject coordinate calculation unit illustrated in FIG.

図12に示す撮影画像には、複数の被写体301〜304が存在する。被写体301〜304の見かけ位置から被写体301〜304の被写体位置を算出する際には、被写体座標演算部105は撮影画像300の中心を原点として横方向にX軸、縦方向にY軸を設定する。なお、X軸およびY軸の単位は画素数である。   The captured image shown in FIG. 12 includes a plurality of subjects 301 to 304. When calculating the subject positions of the subjects 301 to 304 from the apparent positions of the subjects 301 to 304, the subject coordinate calculation unit 105 sets the X axis in the horizontal direction and the Y axis in the vertical direction with the center of the captured image 300 as the origin. . The unit of the X axis and the Y axis is the number of pixels.

被写体座標演算部105は、XY座標において被写体301〜303にそれぞれ座標(X1、Y1)、(X2、Y2)、(X3、Y3)、および(X4、Y4)を付与する。以下これらの座標を画像上のみかけ座標と呼ぶ。   The subject coordinate calculation unit 105 assigns coordinates (X1, Y1), (X2, Y2), (X3, Y3), and (X4, Y4) to the subjects 301 to 303 in the XY coordinates. Hereinafter, these coordinates are called apparent coordinates on the image.

図13は、図1に示す被写体座標演算部で設定されるz軸座標の一例を示す図である。   FIG. 13 is a diagram illustrating an example of z-axis coordinates set by the subject coordinate calculation unit illustrated in FIG. 1.

被写体座標演算部105は、被写体301〜304について、測距部110で得られた測距値をそれぞれZ座標Z1、Z2、Z3、およびZ4として付与する。そして、被写体座標演算部105は、Z座標を用いて、被写体301〜304の見かけXY座標から被写体の実際の座標である被写体位置(被写体座標)を算出する。   The subject coordinate calculation unit 105 assigns the distance measurement values obtained by the distance measurement unit 110 to the subjects 301 to 304 as Z coordinates Z1, Z2, Z3, and Z4, respectively. Then, the subject coordinate calculation unit 105 calculates a subject position (subject coordinate) that is an actual coordinate of the subject from the apparent XY coordinates of the subjects 301 to 304 using the Z coordinate.

ここで、被写体301を例に挙げて、被写体位置算出の一例について説明する。   Here, an example of subject position calculation will be described using the subject 301 as an example.

まず、被写体座標演算部105は画面(つまり、画像)上の見かけのXY座標に撮像素子102の画素ピッチを乗算して、撮像素子面上における座標を算出する。画素ピッチをp(mm)とすると、被写体の撮像素子面上の実座標は(Xp、Xp)となる。なお、この座標はmm単位である。   First, the subject coordinate calculation unit 105 multiplies the apparent XY coordinates on the screen (that is, the image) by the pixel pitch of the image sensor 102 to calculate coordinates on the image sensor surface. When the pixel pitch is p (mm), the actual coordinates of the subject on the image sensor surface are (Xp, Xp). This coordinate is in mm.

続いて、被写体座標演算部105は、撮像光学系101(レンズ)の焦点距離f(mm)と撮像素子102の縦寸法V(mm)および横寸法H(mm)とに基づいて、被写体301の実空間におけるXY座標(X1、Y1)を、次の式(1)および式(2)によって求める。   Subsequently, the subject coordinate calculation unit 105 determines the subject 301 based on the focal length f (mm) of the imaging optical system 101 (lens) and the vertical dimension V (mm) and horizontal dimension H (mm) of the imaging element 102. The XY coordinates (X1, Y1) in the real space are obtained by the following expressions (1) and (2).

これによって、被写体301の実空間における3次元座標は(X1、Y1、Z1)となる。同様にして、被写体302〜304について、実空間における3次元座標を求めると、それぞれ(X2、Y2、Z2)、(X3、Y3、Z3)、および(X4、Y4、Z4)となる。   As a result, the three-dimensional coordinates in the real space of the subject 301 are (X1, Y1, Z1). Similarly, when the three-dimensional coordinates in the real space are obtained for the subjects 302 to 304, they become (X2, Y2, Z2), (X3, Y3, Z3), and (X4, Y4, Z4), respectively.

再び図11を参照して、被写体位置の算出の後、システムコントローラ112の制御下で、アオリ撮影用合焦面演算部106はアオリ撮影の際の合焦面を求める(ステップS5)。アオリ撮影の際の合焦面を求める際には、例えば、最小二乗近似が用いられる。   Referring to FIG. 11 again, after the calculation of the subject position, under the control of the system controller 112, the in-focus shooting focus plane calculation unit 106 obtains the in-focus plane for the tilt shooting (step S5). For example, the least square approximation is used when obtaining the in-focus plane in the tilt shooting.

ここでは、被写体301〜304の実空間における3次元座標(X1、Y1、Z1)〜(X4、Y4、Z4)を点列と見做して、アオリ撮影用合焦面演算部106はこれらの点列をz軸方向の距離において最小二乗近似した平面を求める。   Here, the three-dimensional coordinates (X1, Y1, Z1) to (X4, Y4, Z4) in the real space of the subjects 301 to 304 are regarded as point sequences, and the in-focus photographing focal plane calculation unit 106 performs these operations. A plane is obtained by approximating the point sequence by least squares in the distance in the z-axis direction.

まず、アオリ撮影用合焦面演算部106は近似平面の式を、式(3)とする。   First, the tilting-focusing-plane calculating unit 106 sets the equation of the approximate plane as equation (3).

Z方向の距離を考えた場合には、点(Xi、Yi、Zi)(但しi=1〜4)と式(3)で示す平面との距離diは、次の式(4)で表される。   When the distance in the Z direction is considered, the distance di between the point (Xi, Yi, Zi) (where i = 1 to 4) and the plane indicated by the expression (3) is expressed by the following expression (4). The

そして、全ての点列と平面との距離の二乗和Ωを考えると、二乗和Ωは、次の式(5)で表される。   Then, considering the sum of squares Ω of the distances between all point sequences and the plane, the sum of squares Ω is expressed by the following equation (5).

アオリ撮影用合焦面演算部106は、式(5)を最小にするための係数a、b、およびcを求めるために、式(5)を計数a、b、およびcの各々について、式(6)〜式(8)で示すように偏微分する。   In order to obtain the coefficients a, b, and c for minimizing the equation (5), the tilting focus surface calculation unit 106 calculates the equation (5) for each of the counts a, b, and c. Partial differentiation is performed as shown in (6) to (8).

ここで、As=ΣX 、Bs=ΣY 、Cs=ΣX、Ds=ΣX、Es=ΣY、Fs=ΣX、Gs=ΣY、およびHs=Σzとおくと、式(6)〜式(8)はそれぞれ式(9)〜式(10)で表される。 Where As = ΣX i 2 , Bs = ΣY i 2 , Cs = ΣX i Y i , Ds = ΣX i z i , Es = ΣY i z i , Fs = ΣX i , Gs = ΣY i , and Hs = Σz If i is set, Formula (6)-Formula (8) will be represented by Formula (9)-Formula (10), respectively.

式(9)〜式(11)で示す連立方程式を解けば、係数a、b、およびcはそれぞれ式(12)〜式(14)で示される。   If the simultaneous equations shown by the equations (9) to (11) are solved, the coefficients a, b, and c are expressed by the equations (12) to (14), respectively.

そして、式(12)〜式(14)を式(3)式に代入すれば、最小二乗近似平面の平面式が得られる。この最小二乗近似平面がアオリ撮影における合焦面の平面式となる。そして、以後、z=ax+by+cがアオリ撮影における合焦面の平面式として用いられる。   Then, by substituting Equations (12) to (14) into Equation (3), a plane equation of the least square approximation plane can be obtained. This least square approximation plane is a plane expression of a focal plane in tilt shooting. Thereafter, z = ax + by + c is used as a plane expression of the in-focus plane in tilt shooting.

次に、アオリ撮影用合焦面演算部106は、合焦面z=ax+by+cを得るために必要なレンズ主面が配置されるべき平面式を算出する。   Next, the in-focus photographing focal plane calculation unit 106 calculates a plane formula on which the lens principal plane necessary for obtaining the focal plane z = ax + by + c is to be arranged.

図14は、図1に示す撮像素子とレンズおよび合焦面との配置関係を示す図である。   FIG. 14 is a diagram illustrating an arrangement relationship between the imaging element illustrated in FIG. 1, a lens, and a focusing surface.

図示の合焦面300は、上述の式(3)および式(12)〜式(14)式で得られた合焦面である。そして、撮像素子102から焦点距離fだけ離れたZ軸上に撮像光学系101であるレンズが配置されている。撮像素子面はz=0の平面であって、合焦面の平面式との公線は、次の式(15)によって求めることができる。   The illustrated focal plane 300 is a focal plane obtained by the above-described formulas (3) and (12) to (14). A lens that is the imaging optical system 101 is arranged on the Z axis that is separated from the imaging element 102 by the focal length f. The imaging element plane is a plane with z = 0, and the public line with the plane formula of the focusing plane can be obtained by the following formula (15).

式(15)で示す公線上の2点として、X軸との交点E1、Y軸との交点E2をとると、その座標はE1=(−c/a、0、0)、E2=(0、−c/b、0)となる。また、レンズの中心点E3の座標はE3=(0、0、f)であり、これら3点を通る平面が所望の合焦面を得るために必要なレンズ主面の平面式に相当する。座標E1〜E3の3点から平面上のベクトルK1=(c/a、−c/b、0)、K2=(c/a、0、f)を生成して、これらの外積をとることによって、式(16)に示すよう、レンズ主面の平面に対する法線ベクトルが算出される。   When the intersection point E1 with the X-axis and the intersection point E2 with the Y-axis are taken as two points on the public line shown by the equation (15), the coordinates are E1 = (− c / a, 0, 0), E2 = (0 , −c / b, 0). Further, the coordinates of the center point E3 of the lens are E3 = (0, 0, f), and a plane passing through these three points corresponds to a plane expression of the lens main surface necessary for obtaining a desired focal plane. By generating vectors K1 = (c / a, −c / b, 0) and K2 = (c / a, 0, f) on the plane from the three points of coordinates E1 to E3, and taking these outer products As shown in Expression (16), a normal vector with respect to the plane of the lens principal surface is calculated.

さらに、点E3を通って、式(16)の法線ベクトルを有する平面の式は、次の式(17)で与えられる。   Further, a plane expression having a normal vector of the expression (16) through the point E3 is given by the following expression (17).

また、上記の式(18)で与えられる平面とレンズ主面とが合致するようにレンズのチルト制御を行えば、前述のシャインプルフの法則からアオリ撮影における所望の合焦面z=ax+by+cが得られる。   Further, if the tilt control of the lens is performed so that the plane given by the above equation (18) and the lens main surface coincide with each other, a desired focal plane z = ax + by + c in tilt shooting can be obtained from the above-mentioned Shine-Pruff's law. It is done.

再び図11を参照して、システムコントローラ112の制御下で、アオリ撮影用被写界深度演算部107はアオリ撮影において全ての被写体に合焦するために必要なF値を算出する(ステップS6)。ここでは、まず、アオリ撮影用被写界深度演算部107は次の式(19)を用いて被写体301〜304とアオリ撮影における合焦面z=ax+by+cとの距離を算出する。   Referring to FIG. 11 again, under the control of the system controller 112, the tilt shooting depth-of-field calculating unit 107 calculates an F value necessary for focusing on all subjects in tilt shooting (step S6). . Here, first, the tilt shooting depth-of-field calculating unit 107 calculates the distance between the subjects 301 to 304 and the focal plane z = ax + by + c in tilt shooting using the following equation (19).

但しi=1〜4である。 However, i = 1 to 4.

そして、アオリ撮影用被写界深度演算部107は合焦面との距離において正の最大値と負の最小値の絶対値との和Smを算出する。この和Smが被写体301〜304を全て合焦範囲に収めるために必要な被写界深度となる。   The tilt shooting depth-of-field calculating unit 107 calculates the sum Sm of the absolute value of the positive maximum value and the negative minimum value in the distance from the focal plane. This sum Sm is the depth of field necessary to bring all the subjects 301 to 304 into the in-focus range.

次に、アオリ撮影用被写界深度演算部107は被写界深度が和SmとなるF値を算出する。被写界深度Tは前方被写界深度Tfと後方被写界深度Trの合算で求められる。許容錯乱円径をRとし、レンズの絞り値をFとする。さらに、撮像素子面の中心からアオリ撮影における合焦面までの距離をZvとすると、被写界深度Tは、次の式(20)で求めることができる。但し、Zvは式(21)で与えられる。   Next, the tilt shooting depth-of-field calculating unit 107 calculates an F value at which the depth of field is the sum Sm. The depth of field T is obtained by adding the front depth of field Tf and the rear depth of field Tr. Let R be the permissible circle of confusion and F be the aperture value of the lens. Furthermore, if the distance from the center of the image sensor surface to the focal plane in tilt shooting is Zv, the depth of field T can be obtained by the following equation (20). However, Zv is given by equation (21).

そして、アオリ撮影用被写界深度演算部107は、次の式(21)によって、式(20)で示す被写界深度Tが前述の和(必要被写界深度)Smと等しいときのF値を算出する。   Then, the tilt depth-of-field calculating unit 107 calculates the F when the depth of field T shown in the equation (20) is equal to the aforementioned sum (required depth of field) Sm by the following equation (21). Calculate the value.

式(22)をF値に関して解くと、式(23)で示すように、アオリ撮影において全被写体を合焦範囲に収めるために必要なF値を算出することができる。   When equation (22) is solved with respect to the F value, as shown by equation (23), the F value necessary for keeping all subjects in the in-focus range in tilt shooting can be calculated.

続いて、システムコントローラ122の制御下で、ノーマル撮影用被写界深度演算部108は、ノーマル撮影を用いた際に全被写体に合焦するために必要なF値を算出する(ステップS7)。前述のように、被写体301〜304の各々には、測距部110において得られた距離情報がz座標として付与されている。そして、このZ座標はそれぞれZ1、Z2、Z3、およびZ4である。   Subsequently, under the control of the system controller 122, the normal shooting depth-of-field calculating unit 108 calculates an F value necessary for focusing on all subjects when using normal shooting (step S7). As described above, the distance information obtained by the distance measuring unit 110 is assigned to each of the subjects 301 to 304 as the z coordinate. The Z coordinates are Z1, Z2, Z3, and Z4, respectively.

ノーマル撮影用被写界深度演算部108は、これらZ座標Z1〜Z4の内で最大値Zmaxおよび最小値Zminを選択して、その差分(Zmax−Zmin)を算出する。この差分(Zmax−Zmin)がノーマル撮影において全被写体に合焦するために必要な被写界深度となる。   The normal shooting depth-of-field calculating unit 108 selects the maximum value Zmax and the minimum value Zmin among these Z coordinates Z1 to Z4, and calculates the difference (Zmax−Zmin). This difference (Zmax−Zmin) is the depth of field necessary for focusing on all subjects in normal shooting.

次に、アオリ撮影において用いた手法と同様にして、ノーマル撮影用被写界深度演算部108は、被写界深度が(Zmax−Zmin)となるために必要なF値を算出する。この際の被写界深度Tは前方被写界深度Tfと後方被写界深度Trとの合算で求められる。許容錯乱円径をRとし、レンズの絞り値をFとして、撮像素子面の中心からノーマル撮影における合焦面までの距離をZvとすると、被写界深度Tは、次の式(24)によって得られる。但し、ここでは、Zvは式(25)で与えられる。   Next, in the same manner as the method used in tilt shooting, the normal shooting depth-of-field calculating unit 108 calculates an F value necessary for the depth of field to be (Zmax−Zmin). The depth of field T at this time is obtained by adding the front depth of field Tf and the rear depth of field Tr. Assuming that the permissible circle of confusion is R, the aperture value of the lens is F, and the distance from the center of the image sensor surface to the focusing surface in normal shooting is Zv, the depth of field T is expressed by the following equation (24). can get. However, here, Zv is given by equation (25).

F値に関して整理すると、式(26)によってノーマル撮影におけるF値(ノーマル撮影F値)が得られる。   When the F value is arranged, the F value in normal shooting (normal shooting F value) is obtained by the equation (26).

式(26)で示すF値がノーマル撮影において全被写体に合焦するために必要なF値となる。   The F value represented by Expression (26) is an F value necessary for focusing on all subjects in normal shooting.

続いて、システムコントローラ112の制御下で、撮影モード選択部109はアオリ撮影F値とノーマル撮影F値とを比較して、当該比較結果に基づいて最小のF値で撮影可能なモードはアオリ撮影であるか否かを判定する(ステップS8)。つまり、撮影モード選択部109はより小さいF値で撮影可能な撮影モードを選択することになる。   Subsequently, under the control of the system controller 112, the shooting mode selection unit 109 compares the tilt shooting F value and the normal shooting F value, and the mode that can be shot with the minimum F value based on the comparison result is the tilt shooting. It is determined whether or not (step S8). That is, the shooting mode selection unit 109 selects a shooting mode in which shooting can be performed with a smaller F value.

モード選択結果がアオリ撮影を示していると(ステップS8において、YES)、システムコントローラ112は撮像光学系制御部111を制御して、撮像光学系101をチルト(TILT)駆動する(ステップS9)。この際、システムコントローラ112は、レンズの主面が式(3)および式(12)〜式(14)式で求めた合焦面となるようにチルト制御を行う。   If the mode selection result indicates tilt shooting (YES in step S8), the system controller 112 controls the imaging optical system control unit 111 to drive the imaging optical system 101 by tilt (TILT) (step S9). At this time, the system controller 112 performs tilt control so that the main surface of the lens becomes the in-focus surface obtained by the equations (3) and (12) to (14).

続いて、システムコントローラ112は撮像光学系制御部111を制御して、撮像光学系101を合焦制御する(ステップS10)。そして、システムコントローラ112はアオリ撮影を実行する。その後、システムコントローラ112はステップS2の処理に戻る。   Subsequently, the system controller 112 controls the imaging optical system control unit 111 to control the focusing of the imaging optical system 101 (step S10). Then, the system controller 112 executes tilt shooting. Thereafter, the system controller 112 returns to the process of step S2.

一方、モード選択結果がノーマル撮影を示していると(ステップS8において、NO)、システムコントローラ112はステップS10の処理に進んで、撮像光学系101を合焦制御する。そして、システムコントローラ112はノーマル撮影を実行する。   On the other hand, if the mode selection result indicates normal shooting (NO in step S8), the system controller 112 proceeds to the process of step S10 and performs focus control of the imaging optical system 101. The system controller 112 executes normal shooting.

このように、本発明の第1の実施形態では、アオリ撮影およびノーマル撮影のいずれにおいてより小さいF値で全被写体を合焦できるか否かを判定する。そして、当該判定結果に基づいて撮影モードを切り替えるようにしたので、被写体の状況が変化したとしても最適な撮影モードで被写体を撮影することができる。   As described above, in the first embodiment of the present invention, it is determined whether or not all subjects can be focused with a smaller F value in either the tilt shooting or the normal shooting. Since the photographing mode is switched based on the determination result, the subject can be photographed in the optimum photographing mode even if the state of the subject changes.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described.

図15は、本発明の第2の実施形態によるカメラの一例についてその構成を示すブロック図である。なお、図15において、図10に示すカメラと同一の構成要素について同一の参照番号を付す。   FIG. 15 is a block diagram showing the configuration of an example of a camera according to the second embodiment of the present invention. In FIG. 15, the same components as those of the camera shown in FIG.

図示のカメラ100は、撮像素子制御部114を有している。撮像素子102はチルト機構を備えており、このチルト機構によって撮像光学系101に対して撮像素子面を傾斜させることができる。撮像素子制御部114は、システムコントローラ112の制御下で撮像素子102をチルト制御する。   The illustrated camera 100 includes an image sensor control unit 114. The imaging element 102 includes a tilt mechanism, and the tilting mechanism can tilt the imaging element surface with respect to the imaging optical system 101. The image sensor control unit 114 performs tilt control of the image sensor 102 under the control of the system controller 112.

図16は、図15に示すカメラで行われる撮影処理の一例を説明するためのフローチャートである。なお、図16において、図11に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 16 is a flowchart for explaining an example of a photographing process performed by the camera shown in FIG. In FIG. 16, the same steps as those in the flowchart shown in FIG. 11 are denoted by the same reference numerals, and the description thereof is omitted.

モード選択結果がアオリ撮影を示していると(ステップS8において、YES)、システムコントローラ112は撮像素子制御部114によって撮像素子102をチルト駆動(チルト制御)する(ステップS11)。   If the mode selection result indicates tilt shooting (YES in step S8), the system controller 112 drives the image sensor 102 to tilt (tilt control) by the image sensor control unit 114 (step S11).

ここで、撮像素子102のチルト制御の際の駆動量の算出について説明する。   Here, calculation of the drive amount for tilt control of the image sensor 102 will be described.

まず、アオリ撮影における合焦面の平面式をz=ax+by+cとする。第2の実施形態においては、撮像光学系101のチルト制御は行われず、この結果、レンズ主面の平面式はz=fとなる。当該レンズ主面と合焦面z=ax+by+cとの公線は、0=ax+by−f+cとなる。そして、求めるべき撮像素子102の撮像面の平面式は、この公線を含み撮像素子中心の座標I1(0、0、0)を含む。   First, the plane expression of the focal plane in tilt shooting is set to z = ax + by + c. In the second embodiment, the tilt control of the imaging optical system 101 is not performed, and as a result, the planar expression of the lens main surface is z = f. The public line between the lens main surface and the focusing surface z = ax + by + c is 0 = ax + by−f + c. The planar expression of the imaging surface of the image sensor 102 to be obtained includes the coordinates I1 (0, 0, 0) of the center of the image sensor including this public line.

公線0=ax+by−f+c上の2点としてX軸との交点I2とY軸との交点I3を考えると、交点I2は((f−c)/a、0 、f)、交点I3は(0、(f−c)/b、f)である。システムコントローラ112は交点I1およびI2を用いてベクトルT1を生成し、交点I1およびI3を用いてベクトルT2を生成する。そして、システムコントローラ112は、式(27)によってベクトルT1およびT2の外積を求めて、撮像面の平面の法線ベクトルを算出する。   Considering the intersection point I2 between the X axis and the Y axis as two points on the public line 0 = ax + by−f + c, the intersection point I2 is ((f−c) / a, 0, f), and the intersection point I3 is ( 0, (f−c) / b, f). The system controller 112 generates a vector T1 using the intersection points I1 and I2, and generates a vector T2 using the intersection points I1 and I3. Then, the system controller 112 obtains the outer product of the vectors T1 and T2 by Expression (27), and calculates the normal vector of the plane of the imaging surface.

式(27)で示す法線ベクトルを備え、点I1(0、0、0)を含む平面の式は、次の式(28)で表される。   A plane equation including the normal vector represented by the equation (27) and including the point I1 (0, 0, 0) is represented by the following equation (28).

式(28)式を整理すると、式(29)が得られる。   Rearranging equation (28) yields equation (29).

システムコントローラ112は式(29)で示す平面に撮像素子面(結像面)が合致するように、撮像素子102をチルト駆動する。これによって、アオリ撮影における合焦面z=ax+by+cを得ることができる。なお、ステップS11の処理の後、システムコントローラ112はステップS10の処理に進む。   The system controller 112 tilts the image sensor 102 so that the image sensor surface (imaging surface) coincides with the plane represented by Expression (29). Thereby, the in-focus plane z = ax + by + c in the tilt shooting can be obtained. Note that after the process of step S11, the system controller 112 proceeds to the process of step S10.

このように、本発明の第2の実施形態では、上述の第1の実施形態と同様に、判定結果に基づいて撮影モードを切り替えることによって、被写体の状況が変化したとしても、SNRの良好な撮影モードで撮影を行うことができる。さらに、撮像光学系に比べて小型である撮像素子をチルト制御するようにしたので、撮像光学系101をチルト制御する場合に比べて、カメラを小型化することができる。   As described above, in the second embodiment of the present invention, as in the first embodiment described above, even if the subject situation changes by switching the shooting mode based on the determination result, the SNR is good. Shooting can be performed in shooting mode. Furthermore, since the image pickup device that is smaller than the image pickup optical system is tilt-controlled, the camera can be downsized compared to the case where the image pickup optical system 101 is tilt-controlled.

[第3の実施形態]
続いて、本発明の第3の実施形態によるカメラの一例について説明する。なお、第3の実施形態によるカメラの構成は図15に示すカメラと同様である。
[Third Embodiment]
Next, an example of a camera according to the third embodiment of the present invention will be described. The configuration of the camera according to the third embodiment is the same as that of the camera shown in FIG.

図17は、本発明の第3の実施形態によるカメラで用いられる被写体検知部の構成を示すブロック図である。   FIG. 17 is a block diagram showing a configuration of a subject detection unit used in a camera according to the third embodiment of the present invention.

図示の被写体検知部104は、動体検知部114および顔検知部115を有している。そして、画像処理部103から画像データが動体検知部114および顔検知部115に送られる。動体検知部114は画像データを解析して、動いている被写体である動体を検知して、動体検知結果を被写体座標演算部105に出力する。顔検知部115は画像データを解析して、被写体である人物の顔領域(特定領域)を検知して、顔検知結果を被写体座標演算部105に出力する。   The illustrated subject detection unit 104 includes a moving body detection unit 114 and a face detection unit 115. Then, image data is sent from the image processing unit 103 to the moving object detection unit 114 and the face detection unit 115. The moving object detection unit 114 analyzes the image data, detects a moving object that is a moving subject, and outputs the moving object detection result to the subject coordinate calculation unit 105. The face detection unit 115 analyzes the image data, detects the face area (specific area) of the person who is the subject, and outputs the face detection result to the subject coordinate calculation unit 105.

被写体座標演算部105は動体検知結果および顔検知結果を用いて合焦すべき被写体と合焦の対象外とする被写体とを判定する。ここでは、被写体座標演算部105は動体として検知されたが、顔が検知されない被写体を合焦の対象外と判定する。このようにして、合焦の対象とする被写体を選択することによって、合焦対象が減少するので、全被写体を合焦対象とするよりも被写界深度を浅くできる可能性が高まる。この結果、さらに小さなF値で撮影を行うことができることになる。   The subject coordinate calculation unit 105 determines a subject to be focused and a subject not to be focused using the moving object detection result and the face detection result. Here, the subject coordinate calculation unit 105 detects a moving object, but determines that a subject whose face is not detected is out of focus. In this way, by selecting the subject to be focused, the number of focused targets is reduced, so that the possibility that the depth of field can be made shallower than when all the subjects are focused is increased. As a result, photographing can be performed with a smaller F value.

図18は、本発明の第3の実施形態によるカメラで行われる撮影処理を説明するためフローチャートである。なお、図18において、図11又は図16に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 18 is a flowchart for explaining a photographing process performed by the camera according to the third embodiment of the present invention. In FIG. 18, the same steps as those in the flowchart shown in FIG. 11 or FIG.

撮影処理が開始されると、システムコントローラ112の制御下で、被写体検知部104は動体の検知を行う。そして、システムコントローラ112は被写体検知部104で動体が検知されたか否かを判定する(ステップS12)。動体が検知されないと(ステップS12において、NO)、システムコントローラ112は待機する。   When the photographing process is started, the subject detection unit 104 detects a moving object under the control of the system controller 112. Then, the system controller 112 determines whether or not a moving object is detected by the subject detection unit 104 (step S12). If no moving object is detected (NO in step S12), system controller 112 stands by.

動体が検知されると(ステップS12において、YES)、システムコントローラ112の制御下で、被写体検知部104は動体について顔検知を行う。そして、システムコントローラ112は被写体検知部104によって顔が検知されたか否かを判定する(ステップS13)。顔が検知されないと(ステップS13において、NO)、システムコントローラ112はステップS12の処理に戻る。   When a moving object is detected (YES in step S12), the subject detection unit 104 performs face detection on the moving object under the control of the system controller 112. Then, the system controller 112 determines whether or not a face is detected by the subject detection unit 104 (step S13). If no face is detected (NO in step S13), system controller 112 returns to the process in step S12.

一方、顔が検知されると(ステップS13において、YES)、システムコントローラ112は、顔が検知された動体(被写体)について測距部110によって測距を行う(ステップS14)。その後、システムコントローラ112はステップS4の処理に進む。   On the other hand, when a face is detected (YES in step S13), the system controller 112 performs distance measurement on the moving object (subject) from which the face is detected by the distance measuring unit 110 (step S14). Thereafter, the system controller 112 proceeds to the process of step S4.

このように、本発明の第3の実施形態では、動体、つまり、行動している人物の顔を検知して、当該人物に注目して撮影処理を行う。つまり、不審者監視又は異常行動監視を行う際に注目したい被写体のみを合焦対象として、動体であっても人物以外のもののように監視上重要度の低い被写体を合焦の対象外とする。これによって、必要な合焦幅をより小さく抑えることが可能となる。この結果、必要となるF値をさらに小さくすることができ、SNRが良好な画像を得ることができる。   As described above, in the third embodiment of the present invention, a moving object, that is, the face of a person acting is detected, and imaging processing is performed while paying attention to the person. That is, only a subject that is desired to be noticed when performing suspicious person monitoring or abnormal behavior monitoring is set as a focusing target, and a subject that is not important for monitoring, such as a moving object other than a person, is excluded from focusing. As a result, the required focus width can be further reduced. As a result, the required F value can be further reduced, and an image with a good SNR can be obtained.

[第4の実施形態]
続いて、本発明の第4の実施形態によるカメラの一例について説明する。
[Fourth Embodiment]
Next, an example of a camera according to the fourth embodiment of the present invention will be described.

図19は、本発明の第4の実施形態によるカメラの一例についてその構成を示すブロック図である。なお、図19において、図15に示すカメラと同一の構成要素について同一の参照番号を付す。   FIG. 19 is a block diagram showing the configuration of an example of a camera according to the fourth embodiment of the present invention. In FIG. 19, the same reference numerals are assigned to the same components as those of the camera shown in FIG.

図19に示すカメラにおいては、撮像被写体座標演算部105および表示部113とシステムコントローラ112とが双方向で接続されている。前述のように、システムコントローラ112は画像データに応じた画像を表示部113に表示する。ユーザーは表示部113に表示された画像を目視して、操作部(図示せず)によって画像において合焦対象からマスクしたい3次元範囲をマスク範囲として選択的に指定する。   In the camera shown in FIG. 19, the imaging subject coordinate calculation unit 105, the display unit 113, and the system controller 112 are connected bidirectionally. As described above, the system controller 112 displays an image corresponding to the image data on the display unit 113. The user visually observes the image displayed on the display unit 113, and selectively designates a three-dimensional range to be masked from the in-focus object in the image by an operation unit (not shown) as a mask range.

ユーザーがマスク範囲を指定すると、マスク範囲を示す情報が表示部113からシステムコントローラ112に送られる。そして、システムコントローラ112は当該マスク範囲情報を被写体座標演算部105に送る。被写体座標演算部105は、後述するように、マスク範囲情報によって規定されるマスク範囲を除いて被写体座標を求める。   When the user designates a mask range, information indicating the mask range is sent from the display unit 113 to the system controller 112. Then, the system controller 112 sends the mask range information to the subject coordinate calculation unit 105. As will be described later, the subject coordinate calculation unit 105 obtains subject coordinates excluding the mask range defined by the mask range information.

図20は、図19に示すカメラで行われる撮影処理を説明するためのフローチャートである。なお、図20において、図11および図16に示すフローチャートのステップと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 20 is a flowchart for explaining a photographing process performed by the camera shown in FIG. In FIG. 20, the same steps as those in the flowcharts shown in FIGS. 11 and 16 are denoted by the same reference numerals, and the description thereof is omitted.

撮影処理が開始されると、前述のようにして、ユーザーは必要に応じてマスク範囲を設定する(ステップS15)。   When the photographing process is started, as described above, the user sets a mask range as necessary (step S15).

図21は、図19に示す表示部に表示された画像において設定されたマスク範囲の一例を示す図である。   FIG. 21 is a diagram showing an example of a mask range set in the image displayed on the display unit shown in FIG.

図示の例では、ユーザーは合焦対象外とするため3次元マスク範囲20を設定したものとする。この結果、被写体16は合焦対象外とされる。そして、システムコントローラ112は3次元マスク範囲20を示すマスク範囲情報(マスク範囲の座標)を被写体座標演算部105に送る。   In the example shown in the figure, it is assumed that the user has set the three-dimensional mask range 20 so as not to be focused. As a result, the subject 16 is not focused. Then, the system controller 112 sends mask range information (mask range coordinates) indicating the three-dimensional mask range 20 to the subject coordinate calculation unit 105.

続いて、システムコントローラ112は、ステップS2において被写体検知部104によって被写体が検知されたか否かを判定する。ステップS4の処理の後、システムコントローラ112の制御下で、被写体座標演算部105は、検知された被写体がマスク範囲(マスク領域ともいう)に存在するか否かを判定する(ステップS16)。   Subsequently, the system controller 112 determines whether or not a subject is detected by the subject detection unit 104 in step S2. After the process of step S4, under the control of the system controller 112, the subject coordinate calculation unit 105 determines whether or not the detected subject exists in the mask range (also referred to as a mask region) (step S16).

被写体がマスク範囲に存在すると(ステップS16において、YES)、システムコントローラ112はステップS2の処理に戻る。一方、被写体がマスク範囲に存在しないと(ステップS16において、NO)、システムコントローラ112はステップS5の処理に進み、アオリ撮影用合焦面演算部106によってアオリ撮影の際の合焦面が求められる。   If the subject exists in the mask range (YES in step S16), system controller 112 returns to the process in step S2. On the other hand, if the subject does not exist in the mask range (NO in step S16), the system controller 112 proceeds to the process in step S5, and the focus plane for tilt shooting is obtained by the tilt shooting focus plane calculation unit 106. .

なお、第4の実施形態では、ステップS11において撮像素子をチルト制御するようにしたが、撮像光学系101をチルト制御するようにしてもよい。この際には、図19に示す撮像素子制御部114は不要となる。   In the fourth embodiment, the image pickup element is tilt-controlled in step S11. However, the image pickup optical system 101 may be tilt-controlled. At this time, the image sensor control unit 114 shown in FIG. 19 is not necessary.

このように、本発明の第4の実施形態では、画像、つまり、撮影範囲に他のカメラによって撮影された範囲が存在する場合などにおいて、ユーザーが当該範囲をマスクすれば、不要な被写体を合焦対象から外すことができる。この結果、合焦に必要なF値をさらに小さくできる可能性を高めることができる。   As described above, in the fourth embodiment of the present invention, in the case where an image, that is, a range shot by another camera exists in the shooting range, an unnecessary subject can be combined if the user masks the range. It can be removed from the focus object. As a result, the possibility that the F value required for focusing can be further reduced can be increased.

以上のように、本発明の実施の形態では、被写体の状況に拘わらず、暗所などにおける撮影においてSNRが良好な撮影モードを自動的に選択することができる。   As described above, in the embodiment of the present invention, it is possible to automatically select a shooting mode having a good SNR in shooting in a dark place or the like regardless of the state of the subject.

上述の説明から明らかなように、図10に示す例では、システムコントローラ112および撮影モード選択部109が選択手段として機能し、システムコントローラ112、被写体座標演算部105、アオリ撮影用合焦面演算部106、およびアオリ撮影用被写界深度演算部107が第1の演算手段として機能する。また、システムコントローラ112、被写体座標演算部105、およびノーマル撮影用被写界深度演算部108が第2の演算手段として機能する。そして、測距部110およびシステムコントローラ112は測距手段として機能し、システムコントローラ112および撮像光学系制御部111は制御手段として機能する。   As is clear from the above description, in the example shown in FIG. 10, the system controller 112 and the shooting mode selection unit 109 function as selection means, and the system controller 112, the subject coordinate calculation unit 105, and the in-focus shooting focus plane calculation unit. 106 and the tilt shooting depth-of-field calculating unit 107 function as first calculating means. Further, the system controller 112, the subject coordinate calculation unit 105, and the normal shooting depth of field calculation unit 108 function as a second calculation unit. The distance measuring unit 110 and the system controller 112 function as distance measuring means, and the system controller 112 and the imaging optical system control unit 111 function as control means.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

104 被写体検知部
105 被写体座標演算部
106 アオリ撮影用合焦面演算部
107 アオリ撮影用被写界深度演算部
108 ノーマル撮影用被写界深度演算部
109 撮影モード選択部
110 測距部
111 撮像光学系制御部
112 システムコントーラ
114 撮像素子制御部
DESCRIPTION OF SYMBOLS 104 Subject detection part 105 Subject coordinate calculation part 106 Focusing plane calculation part for tilt shooting 107 Depth of field calculation part for tilt shooting 108 Depth of field calculation part for normal photography 109 Shooting mode selection part 110 Distance measuring part 111 Imaging optics System control unit 112 System controller 114 Image sensor control unit

Claims (10)

撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置であって、
前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択手段と、
前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距手段と、
前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算手段と、
前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算手段とを有し、
前記選択手段は前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする撮像装置。
An imaging device that includes an imaging device on which an optical image is formed via an imaging optical system, and obtains an image according to the output of the imaging device,
The first imaging mode for performing imaging by performing tilt control for controlling the angle between the lens main surface of the imaging optical system and the imaging plane, and the lens main surface of the imaging optical system and the imaging plane are orthogonal to each other Selecting means for selecting one of the second shooting modes for shooting in a state;
Ranging means for obtaining distance information by measuring the distance from the imaging device to a subject existing in the shooting range of the image;
First calculating means for obtaining a tilt angle and a first aperture value for focusing on a plurality of subjects existing in the shooting range in the first shooting mode;
Second calculating means for determining a second aperture value for focusing on a plurality of subjects existing in the shooting range in the second shooting mode;
The selection unit selects either the first shooting mode or the second shooting mode as a selected shooting mode based on a comparison result between the first aperture value and the second aperture value. An imaging device.
前記選択手段は、前記第1の絞り値と前記第2の絞り値とを比較して、その値が小さい方の絞り値に対応する撮影モードを前記選択撮影モードとして選択することを特徴とする請求項1に記載の撮像装置。   The selection unit compares the first aperture value and the second aperture value, and selects a shooting mode corresponding to a smaller aperture value as the selected shooting mode. The imaging device according to claim 1. 前記第1の演算手段は、前記チルト角度を求める際に前記撮影範囲に存在する被写体の全てが前記結像面に合焦するための前記結像面の前記レンズ主面に対する角度を求めて、当該角度に応じて前記チルト角度を求めることを特徴とする請求項1又は2に記載の撮像装置。   The first calculation means obtains an angle of the imaging surface with respect to the lens main surface for focusing all of the subjects existing in the imaging range on the imaging surface when obtaining the tilt angle, The imaging apparatus according to claim 1, wherein the tilt angle is obtained according to the angle. 前記第1の撮影モードで撮影を行う際、前記撮像光学系および前記撮像素子の少なくとも一方の傾きを制御して前記チルト角度とする制御手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. The apparatus according to claim 1, further comprising a control unit configured to control the tilt of at least one of the image pickup optical system and the image pickup device to obtain the tilt angle when shooting is performed in the first shooting mode. 5. The imaging apparatus of Claim 1. 前記撮影範囲において被写体を検知する検知手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a detection unit configured to detect a subject in the imaging range. 前記検知手段は、前記被写体を検知する際、前記被写体が動体であるか否かを検知するとともに、前記被写体に予め定められた特定領域が存在するか否かを検知し、
前記測距手段は、前記検知手段によって前記被写体が動体であり、かつ前記特定領域が存在すると検知された場合に、当該被写体までの距離を測距することを特徴とする請求項5に記載の撮像装置。
The detecting means detects whether or not the subject is a moving object and detects whether or not a predetermined specific area exists in the subject when detecting the subject.
6. The distance measuring unit according to claim 5, wherein the distance measuring unit measures a distance to the subject when the detecting unit detects that the subject is a moving object and the specific area exists. Imaging device.
前記特定領域は人物の顔領域であることを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the specific area is a human face area. 前記画像の撮影範囲に存在する被写体を選択的にマスクするマスク手段を有し、
前記第1の演算手段および前記第2の演算手段の各々は、前記マスク手段によってマスクされた被写体を合焦の対象外とすることを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
Mask means for selectively masking a subject existing in the imaging range of the image;
8. The method according to claim 1, wherein each of the first calculation unit and the second calculation unit excludes the subject masked by the mask unit from being focused. Imaging device.
撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置の制御方法であって、
前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択ステップと、
前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距ステップと、
前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算ステップと、
前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算ステップとを有し、
前記選択ステップでは前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする制御方法。
An imaging device control method comprising an imaging device on which an optical image is formed via an imaging optical system, and obtaining an image according to the output of the imaging device,
The first imaging mode for performing imaging by performing tilt control for controlling the angle between the lens main surface of the imaging optical system and the imaging plane, and the lens main surface of the imaging optical system and the imaging plane are orthogonal to each other A selection step for selecting one of the second shooting modes for shooting in a state;
A distance measuring step for measuring distance from the imaging device to a subject existing in the imaging range of the image to obtain distance information;
A first calculation step for obtaining a tilt angle and a first aperture value for focusing on a plurality of subjects existing in the shooting range in the first shooting mode;
A second calculation step of obtaining a second aperture value for focusing on a plurality of subjects existing in the shooting range in the second shooting mode;
In the selection step, either the first shooting mode or the second shooting mode is selected as a selected shooting mode based on a comparison result between the first aperture value and the second aperture value. Control method.
撮像光学系を介して光学像が結像される撮像素子を備え、前記撮像素子の出力に応じて画像を得る撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記撮像光学系のレンズ主面と結像面とのなす角度を制御するチルト制御を行って撮影を行う第1の撮影モードと、前記撮像光学系のレンズ主面と前記結像面が直交した状態で撮影を行う第2の撮影モードとのいずれかを選択する選択ステップと、
前記撮像装置から前記画像の撮影範囲に存在する被写体までの距離を測距して距離情報を得る測距ステップと、
前記第1の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるためのチルト角度および第1の絞り値を求める第1の演算ステップと、
前記第2の撮影モードの際に前記撮影範囲に存在する複数の被写体に合焦させるための第2の絞り値を求める第2の演算ステップとを実行させ、
前記選択ステップでは前記第1の絞り値と前記第2の絞り値との比較結果に基づいて前記第1の撮影モードおよび前記第2の撮影モードのいずれかを選択撮影モードとして選択することを特徴とする制御プログラム。
A control program used in an imaging apparatus that includes an imaging element on which an optical image is formed via an imaging optical system and obtains an image according to an output of the imaging element,
In the computer provided in the imaging device,
The first imaging mode for performing imaging by performing tilt control for controlling the angle between the lens main surface of the imaging optical system and the imaging plane, and the lens main surface of the imaging optical system and the imaging plane are orthogonal to each other A selection step for selecting one of the second shooting modes for shooting in a state;
A distance measuring step for measuring distance from the imaging device to a subject existing in the imaging range of the image to obtain distance information;
A first calculation step for obtaining a tilt angle and a first aperture value for focusing on a plurality of subjects existing in the shooting range in the first shooting mode;
Executing a second calculation step for obtaining a second aperture value for focusing on a plurality of subjects existing in the shooting range in the second shooting mode;
In the selection step, either the first shooting mode or the second shooting mode is selected as a selected shooting mode based on a comparison result between the first aperture value and the second aperture value. Control program.
JP2015225753A 2015-11-18 2015-11-18 Imaging device, control method thereof, and control program Active JP6635764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015225753A JP6635764B2 (en) 2015-11-18 2015-11-18 Imaging device, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225753A JP6635764B2 (en) 2015-11-18 2015-11-18 Imaging device, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2017098613A true JP2017098613A (en) 2017-06-01
JP6635764B2 JP6635764B2 (en) 2020-01-29

Family

ID=58817405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225753A Active JP6635764B2 (en) 2015-11-18 2015-11-18 Imaging device, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6635764B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126184A (en) * 2019-02-06 2020-08-20 キヤノン株式会社 Imaging device
JP2021027400A (en) * 2019-07-31 2021-02-22 キヤノン株式会社 Imaging apparatus and control method of imaging apparatus
CN113709379A (en) * 2018-07-30 2021-11-26 佳能株式会社 Image pickup apparatus, control method of image pickup apparatus, and storage medium
US11310431B2 (en) 2019-03-20 2022-04-19 Canon Kabushiki Kaisha Control apparatus, image pickup system, and storage medium for changing in-focus range
JP7433848B2 (en) 2019-03-15 2024-02-20 キヤノン株式会社 Imaging device, computer program, storage medium, and imaging control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04194916A (en) * 1990-11-27 1992-07-14 Minolta Camera Co Ltd Multipoint range-finding camera
JPH07140373A (en) * 1993-11-12 1995-06-02 Olympus Optical Co Ltd Image input device
JP2002027305A (en) * 2000-07-04 2002-01-25 Canon Inc Image pickup system and its control method
JP2006128995A (en) * 2004-10-28 2006-05-18 Pentax Corp Imaging apparatus
JP2008035308A (en) * 2006-07-31 2008-02-14 Casio Comput Co Ltd Electronic camera and lens unit
JP2011059283A (en) * 2009-09-08 2011-03-24 Nikon Corp Image capturing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04194916A (en) * 1990-11-27 1992-07-14 Minolta Camera Co Ltd Multipoint range-finding camera
JPH07140373A (en) * 1993-11-12 1995-06-02 Olympus Optical Co Ltd Image input device
JP2002027305A (en) * 2000-07-04 2002-01-25 Canon Inc Image pickup system and its control method
JP2006128995A (en) * 2004-10-28 2006-05-18 Pentax Corp Imaging apparatus
JP2008035308A (en) * 2006-07-31 2008-02-14 Casio Comput Co Ltd Electronic camera and lens unit
JP2011059283A (en) * 2009-09-08 2011-03-24 Nikon Corp Image capturing apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113709379A (en) * 2018-07-30 2021-11-26 佳能株式会社 Image pickup apparatus, control method of image pickup apparatus, and storage medium
US11656534B2 (en) 2018-07-30 2023-05-23 Canon Kabushiki Kaisha Imaging apparatus and monitoring system
JP2020126184A (en) * 2019-02-06 2020-08-20 キヤノン株式会社 Imaging device
JP7277160B2 (en) 2019-02-06 2023-05-18 キヤノン株式会社 Imaging device
JP7433848B2 (en) 2019-03-15 2024-02-20 キヤノン株式会社 Imaging device, computer program, storage medium, and imaging control method
US11310431B2 (en) 2019-03-20 2022-04-19 Canon Kabushiki Kaisha Control apparatus, image pickup system, and storage medium for changing in-focus range
JP2021027400A (en) * 2019-07-31 2021-02-22 キヤノン株式会社 Imaging apparatus and control method of imaging apparatus
JP7263177B2 (en) 2019-07-31 2023-04-24 キヤノン株式会社 IMAGING DEVICE AND METHOD OF CONTROLLING IMAGING DEVICE

Also Published As

Publication number Publication date
JP6635764B2 (en) 2020-01-29

Similar Documents

Publication Publication Date Title
WO2020088133A1 (en) Image processing method and apparatus, electronic device and computer-readable storage medium
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
JP4983905B2 (en) Imaging apparatus, 3D modeling data generation method, and program
US10277809B2 (en) Imaging device and imaging method
JP6635764B2 (en) Imaging device, control method thereof, and control program
US9531938B2 (en) Image-capturing apparatus
CN113141448B (en) Image pickup apparatus
JP2011182387A (en) Imaging device, warning method, and program
US11729503B2 (en) Image capturing apparatus and control method thereof
KR102529479B1 (en) Control apparatus, control method, and storage medium
JP2019129410A (en) Monitoring camera, control method thereof, and program
JP5703788B2 (en) Imaging apparatus, image processing apparatus, and image processing program
JP6357646B2 (en) Imaging device
JP2021039167A (en) Image processor and method for controlling image processor
JP6326631B2 (en) Imaging device
JP2021027584A (en) Image processing device, image processing method, and program
CN110998404B (en) Information processing apparatus, imaging system, control method for imaging system, and storage medium
US10432916B2 (en) Measurement apparatus and operation method of measurement apparatus
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
JP2020193820A (en) Measurement device, imaging device, control method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2010154323A (en) Image processing apparatus, image extraction method, and, program
US12003854B2 (en) Imaging device, storage medium, and method of controlling imaging device
WO2021020358A1 (en) Image processing device, image processing method, program, and storage medium
JP2020036091A (en) Imaging device and control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191217

R151 Written notification of patent or utility model registration

Ref document number: 6635764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151