JP2015025852A - Imaging apparatus, control method thereof, and control program - Google Patents

Imaging apparatus, control method thereof, and control program Download PDF

Info

Publication number
JP2015025852A
JP2015025852A JP2013153593A JP2013153593A JP2015025852A JP 2015025852 A JP2015025852 A JP 2015025852A JP 2013153593 A JP2013153593 A JP 2013153593A JP 2013153593 A JP2013153593 A JP 2013153593A JP 2015025852 A JP2015025852 A JP 2015025852A
Authority
JP
Japan
Prior art keywords
main subject
focal point
focus lens
subjects
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013153593A
Other languages
Japanese (ja)
Inventor
剛史 諏訪
Takashi Suwa
剛史 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013153593A priority Critical patent/JP2015025852A/en
Publication of JP2015025852A publication Critical patent/JP2015025852A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To focus on a main subject without additional image processing, and to simultaneously blur subjects located in front and back to obtain a natural image.SOLUTION: An imaging apparatus includes an optical part 101 having a focus lens. In capturing an image of a composition including a plurality of subjects located from front to rear, at least one of the subjects is imaged as a main subject, while blurring subjects other than the main subject. A CPU 1004 controls a DSP 1007 to detect a distance between the main subject and the imaging apparatus, obtains distance information, and determines a focal point of the focus lens so that the main subject falls within a depth of field, according to the distance information. The CPU move-controls the focal point of the focus lens along an optical axis of the optical part during an exposure period for capturing a composition in a range so that the main subject falls within the depth of field.

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、撮像装置による撮影の結果得られる画像のぼかしに関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly, to blurring of an image obtained as a result of imaging by the imaging apparatus.

一般に、写真撮影において、撮影レンズの効果によって画像の一部を意図的にぼかす表現手法が知られている。この表現手法は、ボケ表現手法と呼ばれ、この手法を用いると、注目させたい部分(例えば、主被写体)を浮き立たせて強調することができる。   In general, in photography, an expression technique is known in which a part of an image is intentionally blurred by the effect of a photographing lens. This expression technique is called a blur expression technique, and when this technique is used, it is possible to highlight and emphasize a portion (for example, a main subject) to be noticed.

ところで、上記のボケ表現手法には、背景をぼかすことによって主被写体(主役)を引き立たせる所謂後ろボケ手法、主被写体の手前に位置する物体(被写体)をぼかす所謂前ボケ手法、そして、被写体の前後に位置する物体をぼかす所謂前後ボケ手法などがある。   By the way, the above-described blur expression method includes a so-called back blur method that enhances the main subject (main role) by blurring the background, a so-called front blur method that blurs an object (subject) located in front of the main subject, There is a so-called back-and-forth blur method for blurring an object positioned in the front-rear direction.

図9は、撮像装置からの距離と画像ボケとの関係を説明するための図である。そして、図9(a)は撮影する構図を示す図であり、図9(b)および図9(c)はそれぞれ撮像装置からの距離に対する合焦点および合焦範囲を示す図である。   FIG. 9 is a diagram for explaining the relationship between the distance from the imaging device and the image blur. FIG. 9A is a diagram showing a composition to be photographed, and FIG. 9B and FIG. 9C are diagrams showing a focal point and a focusing range with respect to the distance from the imaging device, respectively.

いま、ユーザが、図9(a)に示すように撮像装置9000を構えて、撮影する構図を決定したものとする。ここで、図9(b)および図9(c)において、撮像装置9000に備えられた光学部(例えば、フォーカスレンズ)9005から合焦点までの距離をW(M)とする。   Now, assume that the user holds the imaging device 9000 as shown in FIG. 9A and determines the composition to be photographed. Here, in FIGS. 9B and 9C, the distance from the optical unit (for example, focus lens) 9005 provided in the imaging device 9000 to the focal point is defined as W (M).

また、被写体に合焦する範囲のうち光学部9005から被写界深度の手前側端部までの距離をL1(M)、そして、光学部9005から被写界深度の奥側端部までの距離をL2(M)とする。なお、手前側端部から奥側端部までの距離を被写界深度と呼ぶ。   In addition, the distance from the optical unit 9005 to the near end of the depth of field in the range focused on the subject is L1 (M), and the distance from the optical unit 9005 to the far end of the depth of field Is L2 (M). Note that the distance from the front end to the back end is called the depth of field.

図9(b)および図9(c)に示すグラフにおいて、実線は撮像装置9000(つまり、光学部9005)からの距離に応じた錯乱円径σの変化を示し、破線は撮像装置9000からの距離に応じた合焦度の変化を示す。ここで、合焦度は、錯乱円径σおよびボケ量に逆比例する。なお、錯乱円径σは、点で表される被写体を撮影した際に撮像素子9004の受光面における像の広がりを示す径である。   In the graphs shown in FIG. 9B and FIG. 9C, the solid line indicates the change in the circle of confusion circle σ according to the distance from the imaging device 9000 (that is, the optical unit 9005), and the broken line indicates the distance from the imaging device 9000. The change of the degree of focus according to distance is shown. Here, the degree of focus is inversely proportional to the circle of confusion circle σ and the amount of blur. The circle of confusion diameter σ is a diameter indicating the spread of an image on the light receiving surface of the image sensor 9004 when a subject represented by a point is photographed.

錯乱円径σは、ボケ量と比例する物理量として扱われるが、詳細については既知であるので説明を省略する。また、δは撮像装置9000における許容錯乱円径を示し、錯乱円径径σが許容錯乱円径δに達する範囲においては、ボケ量は最小となる。   The circle of confusion σ is treated as a physical quantity proportional to the amount of blur, but the details are known and will not be described. Further, δ represents the allowable confusion circle diameter in the image pickup apparatus 9000, and the amount of blur is minimum in the range where the confusion circle diameter σ reaches the allowable confusion circle diameter δ.

さらに、図9(b)に示すグラフにおいて、破線で示すように、合焦度は合焦点に近づくほど高くなって被写界深度内で最大となる。また、許容錯乱円径δは、撮像素子9004の画素ピッチの他に画像処理などによって決定され、一般に、撮像素子9004の画素間のピッチ(間隔)をdとすると、許容錯乱円径は、δ=kdで表される。   Further, in the graph shown in FIG. 9B, as indicated by a broken line, the degree of focusing becomes higher as it gets closer to the focal point, and becomes maximum within the depth of field. The permissible circle of confusion δ is determined by image processing or the like in addition to the pixel pitch of the image sensor 9004. Generally, when the pitch (interval) between the pixels of the image sensor 9004 is d, the permissible circle of confusion is δ = Kd.

ここで、kは、撮像装置9000に固有の定数であり、光学ローパスフィルタおよび画像処理による解像度の低下量によって定まる。   Here, k is a constant specific to the imaging device 9000 and is determined by the amount of decrease in resolution caused by the optical low-pass filter and image processing.

ここで、図9(b)を参照して、光学部9005から主被写体9001までの距離をW、光学部9005に含まれる絞りの開口径をD、光学部9005の焦点距離をf、そして、光学部9005に備えられたズームレンズのFナンバー(絞り値)をF=f/Dとする。   9B, the distance from the optical unit 9005 to the main subject 9001 is W, the aperture diameter of the diaphragm included in the optical unit 9005 is D, the focal length of the optical unit 9005 is f, The F number (aperture value) of the zoom lens provided in the optical unit 9005 is F = f / D.

この際、被写界深度は、距離L1(M)から距離L2(M)までとなる。つまり、
被写界深度=L2(M)−L1(M)によって求めることができる。そして、距離L1(M)およびL2(M)はそれぞれ次の式(1)および式(2)で表される。
At this time, the depth of field is from the distance L1 (M) to the distance L2 (M). That means
Depth of field = L2 (M) −L1 (M). The distances L1 (M) and L2 (M) are expressed by the following expressions (1) and (2), respectively.

L1(M)=W(M)×F×(f−k×F×d×(W(M)−f)) (1)
L2(M)=W(M)×F×(f+k×F×d×(W(M)−f)) (2)
ところで、コンパクトデジタルカメラのような撮像素子の受光面サイズが小さい撮像装置においては、受光面サイズの大きい所謂一眼カメラに比べて相対的に被写界深度が深くなる。このため、受光面サイズの小さい撮像装置では、主被写体以外の被写体像のボケを大きして撮影することは困難である。
L1 (M) = W (M) × F 2 × (f 2 −k × F × d × (W (M) −f)) (1)
L2 (M) = W (M) × F 2 × (f 2 + k × F × d × (W (M) −f)) (2)
By the way, in an imaging device having a small light receiving surface size of an image sensor such as a compact digital camera, the depth of field is relatively deeper than a so-called single-lens camera having a large light receiving surface size. For this reason, it is difficult for an imaging device with a small light receiving surface size to capture a subject image other than the main subject with a large blur.

このような点を改善するため、例えば、主被写体と奥行き方向における距離が異なる被写体が存在する場合に、主被写体以外の被写体が被写界深度(L1(M)とL2(M)の間)に入らない合焦点において撮影を行うようにした撮像装置が知られている(特許文献1参照)。   In order to improve such a point, for example, when there is a subject whose distance in the depth direction is different from that of the main subject, a subject other than the main subject has a depth of field (between L1 (M) and L2 (M)). There is known an imaging apparatus that performs imaging at a focal point that does not fall within (see Patent Document 1).

特許文献1に記載の撮像装置では、前ボケ手法および後ろボケ手法を用いて、主被写体9001および主被写体9001と奥行き方向の距離が異なる被写体9002および9003との距離感を強調して主被写体の存在を強調して浮き立たせるするようにしている。   In the imaging apparatus described in Patent Document 1, the sense of distance between the main subject 9001 and the main subject 9001 and the subjects 9002 and 9003 having different distances in the depth direction is emphasized by using the front blur method and the rear blur method. Emphasizes the existence and makes it stand out.

特開2003−125281号公報JP 2003-125281 A

ところが、特許文献1に記載の撮像装置では、例えば、図9(a)に示す構図で撮影を行う場合、図9(c)に示すように、主被写体9001が奥行き方向において他の被写体9002および9003に挟まれると次のような不都合が生じる。   However, in the imaging apparatus described in Patent Document 1, for example, when shooting with the composition shown in FIG. 9A, as shown in FIG. 9C, the main subject 9001 and other subjects 9002 in the depth direction and When sandwiched between 9003, the following inconvenience occurs.

いま、主被写体9001よりも奥側に合焦点を設定したものとする。この際の光学部9005から合焦点までの距離をW(T)とする。主被写体9001よりも手前側に位置する被写体9003は被写界深度における手前側端部(光学部9005からの距離をL1(T)とする)よりも手前側に位置する。このため、被写体9003に対する合焦度が低下して、被写体9033をぼかして撮影することができる(前ボケ状態)。   Assume that the in-focus point is set on the back side of the main subject 9001. In this case, the distance from the optical unit 9005 to the focal point is defined as W (T). A subject 9003 located on the near side of the main subject 9001 is located on the near side with respect to the near end (the distance from the optical unit 9005 is L1 (T)) in the depth of field. Therefore, the degree of focus with respect to the subject 9003 decreases, and the subject 9033 can be blurred and photographed (pre-blurred state).

一方、主被写体9001よりも奥側に位置する被写体9002は被写界深度における奥側端部(光学部9005からの距離をL2(T))よりも手前側に位置する。この結果、被写体9002に対する合焦度は向上して、被写体9002にピントが合ってしまうことになる。   On the other hand, the subject 9002 located on the far side of the main subject 9001 is located on the near side of the far side end (the distance from the optical unit 9005 is L2 (T)) in the depth of field. As a result, the degree of focus on the subject 9002 is improved and the subject 9002 is in focus.

このように、特許文献1に記載の撮像装置では、主被写体9001を挟むようして手前側に被写体9003が存在し、さらに、奥側に被写体9002が存在すると、主被写体9001を挟んで一方の被写体をボケさせようとすると、他方の被写体が被写界深度に収まることがある。このような場合、被写界深度に収まった被写体の合焦度は主被写体と同様に高くなって、主被写体の存在のみを強調して浮き立たせることが困難となってしまう。   As described above, in the imaging device described in Patent Document 1, when the subject 9003 exists on the front side with the main subject 9001 sandwiched therebetween and further the subject 9002 exists on the back side, one of the main subjects 9001 is sandwiched therebetween. When trying to blur the subject, the other subject may fall within the depth of field. In such a case, the degree of focus of the subject that falls within the depth of field becomes high in the same way as the main subject, and it becomes difficult to emphasize and emphasize only the presence of the main subject.

そこで、本発明の目的は、追加の画像処理を必要としない簡単な構成で、主被写体に合焦させ、かつ奥側および手前側に存在する被写体を同時にボケさせるとともに、自然な画像を得ることのできる撮像装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to obtain a natural image with a simple configuration that does not require additional image processing, focusing on the main subject, and simultaneously blurring the subject existing on the back side and the near side. An imaging device capable of performing the same, a control method thereof, and a control program are provided.

上記の目的を達成するため、本発明による撮像装置は、フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置であって、前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出手段と、前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出手段と、前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging optical system having a focus lens, and when shooting a composition in which a plurality of subjects are positioned from the near side to the back side, An imaging apparatus that blurs and shoots a subject other than the main subject with at least one as a main subject, the distance detecting means for obtaining distance information by detecting the distance between the main subject and the imaging device, and the distance information And a focus calculation means for obtaining a focal point of the focus lens so that the main subject falls within the depth of field, and the focus during the exposure period for photographing the composition within a range where the main subject falls within the depth of field. Control means for controlling movement of the focal point of the lens along the optical axis of the imaging optical system.

本発明による制御方法は、フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置の制御方法であって、前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出ステップと、前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出ステップと、前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御ステップと、を有することを特徴とする。   The control method according to the present invention includes an imaging optical system having a focus lens, and when photographing a composition in which a plurality of subjects are located from the front side to the back side, at least one of the plurality of subjects is used as a main subject. A method for controlling an imaging apparatus that shoots a subject other than a main subject while blurring, wherein a distance detection step of obtaining a distance information by detecting a distance between the main subject and the imaging apparatus, and the main information according to the distance information A focal point calculating step for obtaining a focal point of the focus lens in which the subject is within the depth of field; and a focal point of the focus lens during an exposure period in which the composition is photographed in a range where the main subject is within the depth of field. And a control step for controlling movement along the optical axis of the imaging optical system.

本発明による制御プログラムは、フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出ステップと、前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出ステップと、前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御ステップと、を実行させることを特徴とする。   The control program according to the present invention includes an imaging optical system having a focus lens, and when photographing a composition in which a plurality of subjects are located from the front side to the back side, at least one of the plurality of subjects as a main subject. A distance detection step for obtaining distance information by detecting a distance between the main subject and the imaging apparatus in a computer provided in the imaging apparatus, which is a control program used to blur and photograph a subject other than the main subject And a focal point calculating step for obtaining a focal point of the focus lens in which the main subject is within the depth of field according to the distance information, and an exposure for photographing the composition in a range where the main subject is within the depth of field. And a control step for controlling movement of the focal point of the focus lens along the optical axis of the imaging optical system during the period. The features.

本発明によれば、主被写体と撮像装置との距離を示す距離情報に応じて主被写体が被写界深度に収まるフォーカスレンズの合焦点を求めて、被写界深度に主被写体が収まる範囲において構図を撮影する露光期間中にフォーカスレンズの合焦点を撮像光学系の光軸に沿って移動制御するようにしたので、追加の画像処理を必要とせず、主被写体に合焦させ、かつその奥側と手前側に存在する被写体を同時にボケさせて、かつ自然な画像を得ることができる。   According to the present invention, the focal point of the focus lens at which the main subject falls within the depth of field is obtained according to the distance information indicating the distance between the main subject and the imaging device, and the main subject falls within the depth of field. Since the focus of the focus lens is controlled to move along the optical axis of the imaging optical system during the exposure period for photographing the composition, no additional image processing is required and the main subject is focused and It is possible to blur a subject existing on the side and the near side at the same time and obtain a natural image.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示す光学部および撮像素子の構成についてその一例を示す図である。It is a figure which shows the example about the structure of the optical part and imaging device which are shown in FIG. 図1に示すカメラで行われるボケ処理を説明するための図であり、(a)は合焦点、被写界深度、および合焦度を説明するための図、(b)は合焦点をカメラに近い位置から奥側に振った際のカメラからの距離と錯乱円径との関係を示す図、(c)は露光期間中に合焦点を移動した際のボケ効果を示す図、(d)はカメラからの距離と露光時間との関係を示す図である。2A and 2B are diagrams for explaining a blur process performed by the camera shown in FIG. 1, in which FIG. 1A is a diagram for explaining a focal point, a depth of field, and a degree of focus, and FIG. The figure which shows the relationship between the distance from a camera when it shakes to the back side from the position close | similar to 3 and the diameter of a circle of confusion, FIG. These are the figures which show the relationship between the distance from a camera, and exposure time. 図1に示すカメラにおける撮影動作を説明するためのフローチャートである。3 is a flowchart for explaining a photographing operation in the camera shown in FIG. 1. 図1に示すカメラにおける撮影動作を説明するためのタイミングチャートである。2 is a timing chart for explaining a photographing operation in the camera shown in FIG. 1. 本発明の第2の実施形態によるカメラで撮影される構図の一例を示す図である。It is a figure which shows an example of the composition image | photographed with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラにおける撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement in the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラにおける撮影動作を説明するためのタイミングチャートである。It is a timing chart for demonstrating imaging | photography operation | movement in the camera by the 2nd Embodiment of this invention. 撮像装置からの距離と画像ボケとの関係を説明するための図であり、(a)は撮影する構図を示す図、(b)および(c)はそれぞれ撮像装置からの距離に対する合焦点および合焦する距離の範囲を示す図である。It is a figure for demonstrating the relationship between the distance from an imaging device, and an image blur, (a) is a figure which shows the composition which image | photographs, (b) and (c) are the in-focus and focusing with respect to the distance from an imaging device, respectively. It is a figure which shows the range of the distance to focus.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置は、例えば、デジタルコンパクトカメラ(以下単にカメラと呼ぶ)であり、光学部(撮像光学系)1001を有している。光学部1001は、レンズ鏡筒と当該レンズ鏡筒内に配置されたズームレンズ、フォーカスレンズ、および絞り機構とを有し、撮像素子102の受光部に被写体像(光学像ともいう)を結像させる。そして、光学部1001はCPU1004によって駆動制御されてオートフォーカスなどが行われる。   The illustrated imaging apparatus is, for example, a digital compact camera (hereinafter simply referred to as a camera), and includes an optical unit (imaging optical system) 1001. The optical unit 1001 includes a lens barrel and a zoom lens, a focus lens, and a diaphragm mechanism arranged in the lens barrel, and forms a subject image (also referred to as an optical image) on the light receiving unit of the image sensor 102. Let The optical unit 1001 is driven and controlled by the CPU 1004 to perform autofocus and the like.

撮像素子1002は、光学部1001によって結像された光学像を電気信号(アナログ信号)に変換する。そして、撮像素子1002は、アナログ信号に対してOB(オプティカルブラック)クランプ処理およびA/D変換処理などを行って、デジタル撮像信号を生成して当該デジタル撮像信号をDSP(デジタルシグナルプロセッサ)1007に出力する。   The image sensor 1002 converts the optical image formed by the optical unit 1001 into an electrical signal (analog signal). The image sensor 1002 performs an OB (optical black) clamp process and an A / D conversion process on the analog signal, generates a digital image signal, and sends the digital image signal to the DSP (digital signal processor) 1007. Output.

CPU1004はカメラ全体の制御を司る。カメラの制御に当たって、CPU1004はROM1005およびRAM1006を用いてカメラの制御を行う。ROM1005には、カメラを駆動制御するためのファームウェアなどのプログラムが記憶されている。RAM1006には、カメラに係る制御情報が一時的に蓄えられ、さらに、RAM1006はCPU1004のワークエリアとして用いられる。   The CPU 1004 controls the entire camera. In controlling the camera, the CPU 1004 controls the camera using the ROM 1005 and the RAM 1006. The ROM 1005 stores a program such as firmware for driving and controlling the camera. The RAM 1006 temporarily stores control information related to the camera, and the RAM 1006 is used as a work area for the CPU 1004.

DSP1007は、撮像素子1002からデジタル撮像信号を受け、当該デジタル撮像信号に対して各種の信号処理を行って、所定のフォーマットによる静止画又は動画の映像信号(画像データ:例えば、YUV信号など)を生成する。さらに、DSP1007は、ライブビュー駆動の際に撮像素子1002から受けるデジタル画像信号に応じて、CPU1004の制御下で、露出制御、主被写体の検出、そして、カメラから主被写体までの距離の検出を行う。   The DSP 1007 receives a digital image signal from the image sensor 1002, performs various signal processing on the digital image signal, and generates a still image or moving image video signal (image data: for example, a YUV signal) in a predetermined format. Generate. Further, the DSP 1007 performs exposure control, detection of the main subject, and detection of the distance from the camera to the main subject under the control of the CPU 1004 in accordance with the digital image signal received from the image sensor 1002 during live view driving. .

外部インターフェース1008には、各種エンコーダおよびD/A変換器が備えられ、外部要素(例えば、ディスプレイ1012、メモリ媒体コントローラ1010、および操作パネル1011)との間で各種の制御信号およびデータ(画像データ)を送受する。これによって、ディスプレイ1012には撮像の結果得られた画像が表示される。そして、ディスプレイ1012にはライブビュー駆動の際の画像も表示される。   The external interface 1008 includes various encoders and D / A converters, and various control signals and data (image data) with external elements (for example, the display 1012, the memory medium controller 1010, and the operation panel 1011). Send and receive. As a result, an image obtained as a result of imaging is displayed on the display 1012. The display 1012 also displays an image in live view driving.

なお、図示のディスプレイ102は、カメラに組み込まれているが、カメラ外部の表示装置に画像データを伝送して、当該表示装置に画像データに応じた画像を表示するようにしてもよい。   Although the illustrated display 102 is incorporated in the camera, image data may be transmitted to a display device outside the camera, and an image corresponding to the image data may be displayed on the display device.

図示のように、外部インターフェース1008にはメモリ媒体コントローラ1010が接続されており、このメモリ媒体コントローラ1010にはメモリ媒体1009が着脱可能に挿入される。メモリ媒体1009は、例えば、メモリカードであり、撮像の結果得られた画像データがメモリ媒体1009に保存される。なお、メモリ媒体1009として、メモリカードの他に、例えば、磁気又は光を用いたディスク媒体を用いるようにしてもよい。   As shown in the figure, a memory medium controller 1010 is connected to the external interface 1008, and the memory medium 1009 is detachably inserted into the memory medium controller 1010. The memory medium 1009 is, for example, a memory card, and image data obtained as a result of imaging is stored in the memory medium 1009. In addition to the memory card, for example, a disk medium using magnetism or light may be used as the memory medium 1009.

操作パネル1011は、ユーザによって操作され、ユーザは操作パネル1011によって各種指示の入力を行う。CPU1004は、操作パネル1011の操作による指示を監視して、当該指示に応じてカメラを制御する。   The operation panel 1011 is operated by a user, and the user inputs various instructions using the operation panel 1011. The CPU 1004 monitors instructions by operating the operation panel 1011 and controls the camera according to the instructions.

図2は、図1に示す光学部1001および撮像素子1002の構成についてその一例を示す図である。   FIG. 2 is a diagram illustrating an example of the configuration of the optical unit 1001 and the image sensor 1002 illustrated in FIG.

図示のように、光学部1001の後段に撮像素子1002が配置される。光学部1001はズームレンズユニット(以下単にズームレンズと呼ぶ)2001、フォーカスレンズユニット(以下単にフォーカスレンズと呼ぶ)2002、および絞り2003を有している。   As shown in the figure, an image sensor 1002 is arranged at the subsequent stage of the optical unit 1001. The optical unit 1001 includes a zoom lens unit (hereinafter simply referred to as a zoom lens) 2001, a focus lens unit (hereinafter simply referred to as a focus lens) 2002, and a diaphragm 2003.

ズームレンズ2001はズーム倍率を変更するためのレンズである。フォーカスレンズ2002は合焦点を変更するためのレンズである。絞り2003は撮像素子1002に入射する光量を制御するためのものである。絞り2003はその開口径を広げることによって入射光量を増加させ、開口径を狭めることによって入射光量を低減する。   The zoom lens 2001 is a lens for changing the zoom magnification. A focus lens 2002 is a lens for changing the focal point. The stop 2003 is for controlling the amount of light incident on the image sensor 1002. The diaphragm 2003 increases the amount of incident light by widening the aperture diameter, and reduces the amount of incident light by narrowing the aperture diameter.

ズームレンズ2001はズームモータ2101によって光軸に沿って駆動されて、そのズーム倍率を変化させる。同様に、フォーカスレンズ2002はフォーカスモータ2102によって光軸に沿って駆動されて、合焦点を変化させる。そして、絞り2002は絞りモータ2103によって駆動されて、その開口径を変化させる。なお、絞り2002はズームレンズ2001内に設けられている。   The zoom lens 2001 is driven along the optical axis by a zoom motor 2101 to change its zoom magnification. Similarly, the focus lens 2002 is driven along the optical axis by the focus motor 2102 to change the focal point. The diaphragm 2002 is driven by a diaphragm motor 2103 to change its opening diameter. The diaphragm 2002 is provided in the zoom lens 2001.

上述のズームモータ2101、フォーカスモータ2102、および絞りモータ2103は、CPU1004の制御下で駆動回路2004によって駆動される。   The zoom motor 2101, the focus motor 2102, and the aperture motor 2103 described above are driven by the drive circuit 2004 under the control of the CPU 1004.

図3は、図1に示すカメラで行われるボケ処理(ボケ効果)を説明するための図である。そして、図3(a)は合焦点、被写界深度、および合焦度を説明するための図であり、図3(b)は、合焦点をカメラに近い位置から奥側に振った際のカメラからの距離と錯乱円径との関係を示す図である。また、図3(c)は露光期間中に合焦点が移動した際のボケ効果を示す図であり、図3(d)はカメラからの距離と露光時間との関係を示す図である。   FIG. 3 is a diagram for explaining a blur process (blur effect) performed by the camera shown in FIG. 3A is a diagram for explaining the focal point, the depth of field, and the degree of focusing, and FIG. 3B is a diagram when the focal point is moved from a position close to the camera to the back side. It is a figure which shows the relationship between the distance from the camera, and a confusion circle diameter. FIG. 3C is a diagram showing the blur effect when the focal point is moved during the exposure period, and FIG. 3D is a diagram showing the relationship between the distance from the camera and the exposure time.

図3(a)においては、カメラ、つまり、光学部1001から距離W(C)離れた主被写体3001に合焦した状態が示されている。つまり、主被写体3001の位置に合焦点があり、光学部1001と合焦点との距離がW(C)である。ここで、距離L1(C)は光学部1001と被写界深度の手前側端部との距離を示し、距離L2(C)は光学部1001と被写界深度の奥側端部との距離を示す。   FIG. 3A shows a state in which a main subject 3001 that is a distance W (C) away from the camera, that is, the optical unit 1001, is in focus. That is, the main subject 3001 has a focal point, and the distance between the optical unit 1001 and the focal point is W (C). Here, the distance L1 (C) indicates the distance between the optical unit 1001 and the near end of the depth of field, and the distance L2 (C) indicates the distance between the optical unit 1001 and the far end of the depth of field. Indicates.

図3(a)に示すグラフにおいて、実線は合焦度の変化を示している。ここでは、合焦点を除く被写界深度(手前側端部から奥側端部)のほとんどの領域で合焦度が低下している。合焦度の低下はボケ量の増加となる。合焦点に位置する主被写体3001のみ高い解像度が得られるようにすると、主被写体3001の奥側および手前に存在する被写体3002および3003を同時にボケさせて(前後ボケ)、かつ自然な画像を得ることができる。   In the graph shown in FIG. 3A, the solid line indicates a change in the degree of focus. Here, the degree of focus is reduced in almost all regions of the depth of field (from the front side end to the back side end) excluding the focal point. Decreasing the degree of focus increases the amount of blur. When a high resolution is obtained only for the main subject 3001 located at the focal point, the subjects 3002 and 3003 existing on the back side and the front side of the main subject 3001 are simultaneously blurred (front and back blur), and a natural image is obtained. Can do.

ここで、図3(b)および図3(c)を参照して、図1に示すカメラによる画像ボケについて説明する。   Here, with reference to FIG. 3B and FIG. 3C, image blurring by the camera shown in FIG. 1 will be described.

前述のように、L1(C)は、合焦点までの距離がW(C)である際の被写界深度の手前側端部までの距離を示し、L2(C)は合焦点までの距離がW(C)である際の被写界深度の奥側端部までの距離を示す。   As described above, L1 (C) represents the distance to the near end of the depth of field when the distance to the focal point is W (C), and L2 (C) represents the distance to the focal point. Indicates the distance to the far end of the depth of field when is W (C).

さらに、L1(S)およびL2(S)はそれぞれ合焦点までの距離がW(S)である際の被写界深度の手前側端部までの距離および被写界深度の奥側端部までの距離を示す。同様に、L1(E)およびL2(E)はそれぞれ合焦点までの距離がW(E)である際の被写界深度の手前側端部までの距離および被写界深度の奥側端部までの距離を示す。   Further, L1 (S) and L2 (S) are the distance to the near end of the depth of field and the far end of the depth of field when the distance to the focal point is W (S), respectively. Indicates the distance. Similarly, L1 (E) and L2 (E) are the distance to the near end of the depth of field and the far end of the depth of field when the distance to the focal point is W (E), respectively. Indicates the distance to.

なお、以下の説明では、距離W(C)、W(S)、およびW(E)をそれぞれ合焦点W(C)、W(S)、およびW(E)と呼ぶことがある。また、距離L1(C)、L1(S)、およびL1(E)をそれぞれ手前側端部L1(C)、L1(S)、およびL1(E)と呼び、距離L2(C)、L2(S)、およびL2(E)をそれぞれ奥側端部L2(C)、L2(S)、およびL2(E)と呼ぶことがある。   In the following description, the distances W (C), W (S), and W (E) may be referred to as in-focus points W (C), W (S), and W (E), respectively. Further, the distances L1 (C), L1 (S), and L1 (E) are referred to as front end portions L1 (C), L1 (S), and L1 (E), respectively, and the distances L2 (C), L2 ( S) and L2 (E) may be referred to as back side end portions L2 (C), L2 (S), and L2 (E), respectively.

図3(b)に示すグラフにおいて実線は、合焦点までの距離がW(C)である際に露光を行った場合のカメラからの距離と錯乱円径σとの関係を示している。錯乱円径σが許容錯乱円径δよりも小さな領域(手前側端部L1(C)から奥側端部L2(C))においては合焦状態となる。   In the graph shown in FIG. 3B, the solid line indicates the relationship between the distance from the camera and the circle of confusion σ when exposure is performed when the distance to the focal point is W (C). In a region where the circle of confusion σ is smaller than the permissible circle of confusion δ (from the front end L1 (C) to the back end L2 (C)), a focused state is obtained.

同様に、図3(b)に示すグラフにおいて点線は、合焦点までの距離がW(C)よりも手前側である距離W(S)である際に露光を行った場合のカメラからの距離と錯乱円径σとの関係を示している。錯乱円径σが許容錯乱円径δよりも小さな領域(手前側端部L1(S)から奥側端部L2(S))においては合焦状態となる。   Similarly, in the graph shown in FIG. 3B, the dotted line indicates the distance from the camera when exposure is performed when the distance to the focal point is the distance W (S) on the near side of W (C). And the circle of confusion circle σ. In a region where the circle of confusion σ is smaller than the allowable circle of confusion δ (from the front side end L1 (S) to the back side end L2 (S)), a focused state is obtained.

なお、合焦点W(S)と手前側端部L1(S)および奥側端部L2(S)との関係は、合焦点W(C)と手前側端部L1(C)および奥側端部L2(C)との関係と同様である。   Note that the relationship between the focal point W (S), the front side end L1 (S), and the back side end L2 (S) is as follows: the focal point W (C), the front side end L1 (C), and the back side end This is the same as the relationship with the part L2 (C).

図3(b)に示すグラフにおいて一点鎖線は、合焦点までの距離がW(C)よりも奥側である距離W(E)である際に露光を行った場合のカメラからの距離と錯乱円径σとの関係を示している。錯乱円径σが許容錯乱円径δよりも小さな領域(手前側端部L1(E)から奥側端部L2(E))においては合焦状態となる。   In the graph shown in FIG. 3B, the alternate long and short dash line indicates the distance and confusion from the camera when the exposure is performed when the distance to the focal point is the distance W (E) which is the back side of W (C). The relationship with the circle diameter σ is shown. In a region where the circle of confusion circle σ is smaller than the allowable circle of confusion circle δ (from the front side end L1 (E) to the back side end L2 (E)), a focused state is obtained.

なお、合焦点W(E)と手前側端部L1(E)および奥側端部L2(E)との関係は、合焦点W(C)と手前側端部L1(C)および奥側端部L2(C)との関係と同様である。   The relationship between the focal point W (E), the front side end L1 (E), and the back side end L2 (E) is as follows: the focal point W (C), the front side end L1 (C), and the back side end This is the same as the relationship with the part L2 (C).

上述のように、カメラからの合焦点までの距離に応じて被写界深度は変化する。なお、ここでは、説明の便宜上、錯乱円径σは合焦点付近においては、許容錯乱円径δに等しいものとした。この理由は、許容錯乱円径δとボケ量とを比例する物理量として扱い、かつ、許容錯乱円径δよりも錯乱円径σが小さくなっても、ボケ量はσ=δの状態と変わらないことによる。   As described above, the depth of field changes according to the distance from the camera to the focal point. Here, for convenience of explanation, the circle of confusion σ is assumed to be equal to the allowable circle of confusion δ near the focal point. This is because the permissible circle of confusion δ and the amount of blur are treated as proportional physical quantities, and even if the circle of confusion circle σ is smaller than the permissible circle of confusion δ, the amount of blur remains the same as when σ = δ. It depends.

また、合焦点W(S)における被写界深度の奥側端部L2(S)と合焦点W(E)における被写界深度の手前側端部L1(E)とはともに、カメラからの距離W(C)に等しいとした。つまり、W(C)=L2(S)=L1(E)となる。この条件は、主被写体3001が被写界深度の手前側端部から被写界深度の奥側端部まで移動する場合を想定して、本実施形態における最大の効果が得られる条件である。   In addition, both the back side end L2 (S) of the depth of field at the focal point W (S) and the near side end L1 (E) of the depth of field at the focal point W (E) are both from the camera. It is assumed that it is equal to the distance W (C). That is, W (C) = L2 (S) = L1 (E). This condition is a condition for obtaining the maximum effect in the present embodiment, assuming that the main subject 3001 moves from the near-side edge of the depth of field to the far-side edge of the depth of field.

上記の距離L2(S)およびL1(E)はそれぞれ次の式(3)および式(4)で表される。   The distances L2 (S) and L1 (E) are expressed by the following formulas (3) and (4), respectively.

L2(S)=W(S)×F×(f−k×F×d×(W(S)−f)) (3)
L1(E)=W(E)×F×(f+k×F×d×(W(E)−f)) (4)
前述のように、W(S)=L2(S)=L1(E)であるから、式(3)および式(4)はそれぞれ式(5)および式(6)に変形することができる。
L2 (S) = W (S) × F 2 × (f 2 −k × F × d × (W (S) −f)) (3)
L1 (E) = W (E) × F 2 × (f 2 + k × F × d × (W (E) −f)) (4)
As described above, since W (S) = L2 (S) = L1 (E), Expression (3) and Expression (4) can be transformed into Expression (5) and Expression (6), respectively.

k×F×d×W(S)−(f+k×F×d×f)×W(S)+W(C)/F=0 (5)
k×F×d×W(E)+(f−k×F×d×f)×W(E)−W(S)/F=0 (6)
式(5)および式(6)において、W(S)およびW(E)について二次方程式の解を求めると、W(S)およびW(E)はそれぞれ式(7)および式(8)によって表される。
k × F × d × W (S) 2 − (f 2 + k × F × d × f) × W (S) + W (C) / F 2 = 0 (5)
k × F × d × W ( E) 2 + (f 2 -k × F × d × f) × W (E) -W (S) / F 2 = 0 (6)
In Equation (5) and Equation (6), when the solution of the quadratic equation is obtained for W (S) and W (E), W (S) and W (E) are expressed by Equation (7) and Equation (8), respectively. Represented by

W(S)=(−(f+k×F×d×f)+((f+k×F×d×f)−4×k×d×W(C)/F)1/2)/(2×k×F×d) (7)
W(E)=((f+k×F×d×f)−((f+k×F×d×f)+4×k×d×W(C)/F)1/2)/(2×k×F×d) (8)
なお、W(S)およびW(E)に関してそれぞれ解が1つになるのは、W(S)についてはW(C)が被写界深度の奥側端部となり、W(E)についてはW(C)が被写界深度の手前側端部となるからである。
W (S) = (− (f 2 + k × F × d × f) + ((f 2 + k × F × d × f) 2 −4 × k × d × W (C) / F) 1/2 ) / (2 × k × F × d) (7)
W (E) = ((f 2 + k × F × d × f) − ((f 2 + k × F × d × f) 2 + 4 × k × d × W (C) / F) 1/2 ) / ( 2 × k × F × d) (8)
Note that there is one solution for each of W (S) and W (E). For W (S), W (C) is the far end of the depth of field, and for W (E) This is because W (C) is the front end of the depth of field.

次に、図3(c)を参照して、露光期間中に合焦点を移動させた場合のボケ効果について説明する。なお、ここでは、距離W(C)に位置する主被写体3001のみに合焦が行われる被写界深度の浅い画像を撮影する場合について説明する。   Next, with reference to FIG. 3C, the blur effect when the focal point is moved during the exposure period will be described. Here, a case will be described in which an image with a shallow depth of field in which only the main subject 3001 located at the distance W (C) is focused is captured.

図3(c)において、横軸はカメラからの距離を示し、縦軸は錯乱円径σの時間平均値を示す。一般に、被写体のボケ量は錯乱円径σに比例するが、露光期間中にフォーカスレンズ2002を移動させると、ボケ量はそのポイント(つまり、ピント位置)における錯乱円径σの露光期間内時間平均値に比例する。   In FIG. 3C, the horizontal axis indicates the distance from the camera, and the vertical axis indicates the time average value of the circle of confusion diameter σ. In general, the amount of blur of the subject is proportional to the circle of confusion diameter σ, but if the focus lens 2002 is moved during the exposure period, the amount of blur is the time average within the exposure period of the circle of confusion diameter σ at that point (that is, the focus position). Proportional to value.

図3(c)に示すグラフにおいて点線は、フォーカスレンズ2002を合焦点W(C)で合焦する位置に固定した際のボケ効果を示している。一方、図3(c)に示すグラフにおいて実線は、露光期間中に、主被写体3001が被写界深度の手前側端部にある合焦点W(S)から被写界深度の奥側端部にある合焦点W(E)に移動した際に、フォーカスレンズ2002を所定の速度で移動した場合のカメラからの距離毎の錯乱円径δの時間平均値を示している。   In the graph shown in FIG. 3C, a dotted line indicates a blur effect when the focus lens 2002 is fixed at a position where the focus lens 2002 is in focus. On the other hand, in the graph shown in FIG. 3C, the solid line indicates the end portion on the far side of the depth of field from the focal point W (S) where the main subject 3001 is on the near side end portion of the depth of field during the exposure period. 3 shows the time average value of the circle of confusion diameter δ for each distance from the camera when the focus lens 2002 is moved at a predetermined speed when moving to the in-focus point W (E).

露光期間中にフォーカスレンズ2002を移動させると、カメラからの距離が主被写体3001と異なる他の被写体3002又は3003について、錯乱円径σに関する露光期間中の時間平均値を許容錯乱円径δよりも大きくすることができる。この結果、手前側端部L1(C)および奥側端部L2(C)に位置する被写体3003および3002について、1度の撮影でぼかすことができる。   When the focus lens 2002 is moved during the exposure period, the time average value during the exposure period with respect to the confusion circle diameter σ is set to be larger than the allowable confusion circle diameter δ for another subject 3002 or 3003 whose distance from the camera is different from the main subject 3001. Can be bigger. As a result, the subjects 3003 and 3002 positioned at the front end L1 (C) and the back end L2 (C) can be blurred by one shooting.

ここでは、最大の効果が得られる条件(つまり、W(C)=L2(S)=L1(E)となるW(S)およびW(E))を例に挙げて説明したが、W(S)およびW(E)を式(7)および式(8)で示す状態よりもW(C)に近い位置に設定した場合には、主被写体周辺のボケ量が徐々に小さくなって、W(C)=W(S)=W(E)において主被写体周辺におけるボケ量は最小となる。そして、W(C)=W(S)=W(E)においては、フォーカスレンズの移動距離が0となって、前述の従来の撮影手法と同等となる。   Here, the conditions for obtaining the maximum effect (that is, W (S) and W (E) satisfying W (C) = L2 (S) = L1 (E)) have been described as an example. When S) and W (E) are set to positions closer to W (C) than the states shown in equations (7) and (8), the amount of blur around the main subject gradually becomes smaller. (C) = W (S) = W (E), the amount of blur around the main subject is minimized. When W (C) = W (S) = W (E), the moving distance of the focus lens is 0, which is equivalent to the conventional imaging method described above.

図3(d)に斜線で示す部分は露光時間毎の被写界深度を示しており、露光期間中に合焦点を変更した場合の合焦度は、この被写界深度の時間方向の積算値で表わされることになる。   In FIG. 3D, the hatched portion indicates the depth of field for each exposure time, and the degree of focus when the focus is changed during the exposure period is the sum of the depth of field in the time direction. It will be expressed as a value.

図4は、図1に示すカメラにおける撮影動作(撮影処理)を説明するためのフローチャートである。なお、図4に示すフローチャートに係る処理は、CPU1004の制御下で行われる。   FIG. 4 is a flowchart for explaining a photographing operation (photographing process) in the camera shown in FIG. 4 is performed under the control of the CPU 1004.

また、図5は、図1に示すカメラにおける撮影動作(撮影処理)を説明するためのタイミングチャートである。   FIG. 5 is a timing chart for explaining a photographing operation (photographing process) in the camera shown in FIG.

図4および図5を参照して、いま、時刻t1で、ユーザが電源ボタンを押下げたとする。電源ボタンの押下げによってカメラが起動して、CPU1004はディスプレイ1012にライブビューを表示する(ステップS4001)。   Referring to FIGS. 4 and 5, it is assumed that the user presses the power button at time t1. The camera is activated by pressing the power button, and the CPU 1004 displays a live view on the display 1012 (step S4001).

時刻t1〜t2のライブビュー期間において、DSP1007はCPU1004の制御下で、撮像素子1002からの出力であるデジタル撮像信号(以下単に画像ともいう)に対して、主被写体を検出する主被写体検出処理を行う。   During the live view period from time t1 to time t2, the DSP 1007 performs main subject detection processing for detecting the main subject with respect to a digital image pickup signal (hereinafter also simply referred to as an image) output from the image pickup device 1002 under the control of the CPU 1004. Do.

なお、主被写体を検出する際には、例えば、顔領域を検出する顔検出が用いられる。さらには、予めカメラに設定された画角領域に主被写体が存在するものとして主被写体検出処理を行うようにしてもよい。いずれにしても主被写体を検出する手法は既知であるので、ここでは説明を省略する。   When detecting the main subject, for example, face detection for detecting a face area is used. Furthermore, the main subject detection process may be performed on the assumption that the main subject exists in an angle of view area set in advance in the camera. In any case, since the method for detecting the main subject is known, the description is omitted here.

続いて、時刻t2において、CPU1004はシャッターボタン(SW)が押下げられたか否かを判定する(ステップS4002)。シャッターボタンが押下げられないと(ステップS4002において、NO)、CPU1004はステップS4001の処理に戻ってライブビュー表示を行う。   Subsequently, at time t2, the CPU 1004 determines whether or not the shutter button (SW) has been pressed (step S4002). If the shutter button is not pressed (NO in step S4002), CPU 1004 returns to the process in step S4001 and performs live view display.

シャッターボタンが押下げられると(ステップS4002において、YES)、CPU1004はDSP1007を制御して露出測定(露出条件の検出)を行い(ステップS4003)、露出検出結果に応じて主被写体に対する適正露出量を求める。そして、DSP1007は、CPU1004の制御下で適正露出量に応じて、絞り値、シャッタースピード、およびISO感度を求める。   When the shutter button is pressed (YES in step S4002), CPU 1004 controls DSP 1007 to perform exposure measurement (detection of exposure conditions) (step S4003), and sets an appropriate exposure amount for the main subject according to the exposure detection result. Ask. The DSP 1007 obtains the aperture value, shutter speed, and ISO sensitivity according to the appropriate exposure amount under the control of the CPU 1004.

ステップS4003で行われる露出制御(つまり、露出測定)は既知であるので詳細な説明は行わないが、DSP1007は撮像素子1002の出力に応じて、被写体輝度を測光して、ユーザによって選択された撮影モード(例えば、絞り優先、シャッタースピード優先など)に応じて絞り値、シャッタースピード、およびISO感度を決定する。   The exposure control (that is, exposure measurement) performed in step S4003 is known and will not be described in detail. However, the DSP 1007 measures the subject brightness in accordance with the output of the image sensor 1002, and selects the image selected by the user. The aperture value, shutter speed, and ISO sensitivity are determined according to the mode (for example, aperture priority, shutter speed priority, etc.).

続いて、時刻t3〜t4において、CPU1004の制御下で、DSP1007は主被写体3001までの距離W(C)を測定する(ステップS4004)。ここでは、既知のコントラストAF方式を用いて距離測定を行って距離情報を得るものとするが、例えば、位相差AF方式など他の方式を用いるようにしてもよい。   Subsequently, at times t3 to t4, the DSP 1007 measures the distance W (C) to the main subject 3001 under the control of the CPU 1004 (step S4004). Here, distance information is obtained by performing distance measurement using a known contrast AF method, but other methods such as a phase difference AF method may be used.

時刻t4において、CPU1004の制御下で、DSP1007は主被写体3001までの距離W(C)が被写界深度の端部となる合焦点の距離(W(S)およびW(E))を、前述したようにして求める(ステップS4005)。さらに,DSP1007は、露光時間内において距離W(S)から距離W(E)まで移動する際のフォーカスレンズ2002の移動速度(つまり、合焦点の移動速度)Vを算出する(ステップS4006)。   At time t4, under the control of the CPU 1004, the DSP 1007 calculates the in-focus distances (W (S) and W (E)) at which the distance W (C) to the main subject 3001 is the end of the depth of field. In this way, it is obtained (step S4005). Further, the DSP 1007 calculates the moving speed (that is, the moving speed of the focal point) V of the focus lens 2002 when moving from the distance W (S) to the distance W (E) within the exposure time (step S4006).

ここでは、フォーカスレンズ2002による合焦点の移動速度V=(W(E)−W(S)(つまり、フォーカスレンズ2002による合焦点の移動距離))÷露光時間となる。   Here, the moving speed V of the focal point by the focus lens 2002 = (W (E) −W (S) (that is, the moving distance of the focal point by the focus lens 2002)) ÷ exposure time.

時刻t5〜t6において、CPU1004は主被写体3001の位置が被写界深度の一方の端部である手前側端部(L2(S))となる合焦点W(S)に合焦するように、フォーカスレンズ2002における合焦点を移動する(ステップS4007)。そして、時刻t7〜t8において、CPU1004は露光およびフォーカスレンズ2002の合焦点の移動を行う。   At times t5 to t6, the CPU 1004 focuses so as to focus on the focal point W (S) at which the position of the main subject 3001 becomes the front end (L2 (S)) that is one end of the depth of field. The focal point in the focus lens 2002 is moved (step S4007). Then, from time t7 to t8, the CPU 1004 performs exposure and movement of the focal point of the focus lens 2002.

そして、CPU1004は、ステップS4003に示す露出測定で求められた所定の時間の間露光を行うととともに、被写界深度の他方の端部である奥側端部(L1(E))に位置する合焦点W(E)にフォーカスレンズ2002における合焦点を移動制御する(ステップS4008)。   Then, the CPU 1004 performs exposure for a predetermined time obtained by the exposure measurement shown in step S4003, and is positioned at the back end (L1 (E)) that is the other end of the depth of field. The focal point in the focus lens 2002 is controlled to move to the focal point W (E) (step S4008).

露光が完了すると、CPU1002は撮像素子1002からデジタル撮像信号をDSP1007に出力して(画像信号読み出し)、DSP1007による画像処理を行う(ステップS4009)。その後、CPU1004は電源ボタンによって電源がオフとされたか否かを判定する(ステップS4010)。電源がオフとされると(ステップS4010において、YES)、CPU1004は撮影動作を終了する。   When the exposure is completed, the CPU 1002 outputs a digital image signal from the image sensor 1002 to the DSP 1007 (image signal reading), and performs image processing by the DSP 1007 (step S4009). Thereafter, the CPU 1004 determines whether or not the power is turned off by the power button (step S4010). When the power is turned off (YES in step S4010), CPU 1004 ends the shooting operation.

一方、電源がオフとされないと(ステップS4010において、NO)、CPU1004はステップS4001の処理に戻ってライブビュー表示を行う。   On the other hand, if the power is not turned off (NO in step S4010), CPU 1004 returns to the process in step S4001 and performs live view display.

図5に示す例では、時刻t8〜t9において、ライブビュー表示に戻り、CPU1004は主被写体3001に合焦するように、フォーカスレンズ2002の合焦点を合焦点W(C)まで移動する。そして、時刻t10において、再びライブビュー表示が行われる。   In the example illustrated in FIG. 5, at time t8 to t9, the display returns to the live view display, and the CPU 1004 moves the focal point of the focus lens 2002 to the focal point W (C) so as to focus on the main subject 3001. At time t10, live view display is performed again.

このように、本発明の第1の実施形態では、露光の際にフォーカスレンズの位置を、被写界深度の手前側端部(L2(S))となる合焦点W(S)に合焦するように、フォーカスレンズ2002の合焦点を移動する。   As described above, in the first embodiment of the present invention, the position of the focus lens at the time of exposure is focused on the focal point W (S) that is the front end (L2 (S)) of the depth of field. As described above, the focal point of the focus lens 2002 is moved.

その後、所定の時間の間露光を行って、被写界深度の奥側端部(L1(E))に位置する合焦点W(E)にフォーカスレンズ2002の合焦点を移動する。この結果、追加の画像処理を必要としない簡単な構成で、主被写体に合焦させ、かつその奥側および手前側に存在する被写体を同時にボケさせるとともに、自然な画像を得ることができる。   Thereafter, exposure is performed for a predetermined time, and the focal point of the focus lens 2002 is moved to the focal point W (E) located at the far side end (L1 (E)) of the depth of field. As a result, with a simple configuration that does not require additional image processing, it is possible to focus on the main subject and blur the subject existing on the back side and the near side at the same time, and obtain a natural image.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は、図1および図2に関連して説明したカメラと同様である。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera described with reference to FIGS.

第2の実施形態においては、カメラからの距離が互いに異なる複数の被写体に対して、連続的に撮影を行う連写を行った際に、第1の実施形態と同様のボケ効果を得る手法について説明する。   In the second embodiment, a method for obtaining a blur effect similar to that in the first embodiment when continuous shooting is performed for a plurality of subjects having different distances from the camera. explain.

図6は、本発明の第2の実施形態によるカメラで撮影される構図の一例を示す図である。   FIG. 6 is a diagram showing an example of a composition photographed by the camera according to the second embodiment of the present invention.

図示の例では、被写体6001〜6003が存在し、ここでは、1回の露光における主被写体は1つであるとし、露光毎に互いに異なる被写体を主被写体として撮影するものとする。さらに、光学部1001側から被写体6001、被写体6002、および被写体6003の順で被写体が位置するものとし、被写体6001、6002、および6003に対するフォーカスレンズ2002の合焦点(つまり、光学部1001からの距離)をそれぞれW(C,6001)、W(C,6002)、W(C,6003)とする。   In the illustrated example, there are subjects 6001 to 6003. Here, it is assumed that there is one main subject in one exposure, and different subjects are photographed as main subjects for each exposure. Furthermore, it is assumed that the subject is positioned in the order of the subject 6001, the subject 6002, and the subject 6003 from the optical unit 1001 side, and the focal point of the focus lens 2002 with respect to the subjects 6001, 6002, and 6003 (that is, the distance from the optical unit 1001). Are W (C, 6001), W (C, 6002), and W (C, 6003), respectively.

なお、図6に示す例では、被写体の数を3つとしたが、少なくとも3つの被写体が存在すればよい。   In the example shown in FIG. 6, the number of subjects is three, but it is sufficient that at least three subjects exist.

図7は、本発明の第2の実施形態によるカメラにおける撮影動作(撮影処理)を説明するためのフローチャートである。なお、図7に示すフローチャートに係る処理は、CPU1004の制御下で行われる。また、図7において、図4に示すフローチャートと同一のステップについては同一の参照符号を付して説明を省略する。   FIG. 7 is a flowchart for explaining a photographing operation (photographing process) in the camera according to the second embodiment of the present invention. 7 is performed under the control of the CPU 1004. Further, in FIG. 7, the same steps as those in the flowchart shown in FIG.

図8は、本発明の第2の実施形態によるカメラにおける撮影動作(撮影処理)を説明するためのタイミングチャートである。   FIG. 8 is a timing chart for explaining a photographing operation (photographing process) in the camera according to the second embodiment of the present invention.

時刻t1において、前述のステップS4001の処理が行われた後、時刻t2において、ステップS4002およびS4003の処理が行われる。   After the process of step S4001 described above is performed at time t1, the processes of steps S4002 and S4003 are performed at time t2.

続いて、時刻t3〜t4において、CPU1004の制御下で、DSP1007は図6に示す被写体6001〜6003の各々までの距離を測定する(ステップS7004)。ここでは、既知のコントラストAF方式を用いて距離測定を行うものとするが、例えば、位相差AF方式など他の方式を用いるようにしてもよい。   Subsequently, at time t3 to t4, under the control of the CPU 1004, the DSP 1007 measures the distance to each of the subjects 6001 to 6003 shown in FIG. 6 (step S7004). Here, distance measurement is performed using a known contrast AF method, but other methods such as a phase difference AF method may be used.

なお、ステップS7004においては、一度の距離測定によって、被写体6001〜6003の各々までの距離を測定する。これによって、露光の度に距離測定を行う場合に比べて、トータルの撮影時間を短くすることが可能となる。   In step S7004, the distance to each of the subjects 6001 to 6003 is measured by one distance measurement. This makes it possible to shorten the total shooting time compared to the case where distance measurement is performed for each exposure.

時刻t4において、CPU1004の制御下で、DSP1007は被写体6001〜6003の位置を測定する。ここでは、DSP1007はカメラから最も近い被写体6001までの距離W(C,6001)、次に近い被写体6002までの距離W(C,6002)、および3番目の被写体6003までの距離W(C、6003)を測定する。   At time t4, the DSP 1007 measures the positions of the subjects 6001 to 6003 under the control of the CPU 1004. Here, the DSP 1007 has a distance W (C, 6001) from the camera to the nearest subject 6001, a distance W (C, 6002) to the next nearest subject 6002, and a distance W (C, 6003) to the third subject 6003. ).

さらに、DSP1007は、被写界深度の端部となるフォーカスレンズ2002の合焦点(W(S,6001),W(E,6001),W(S,6002),W(E,6002),W(S,6003),W(E,6003))を、前述のようにして求める(ステップS7005)。   Further, the DSP 1007 has a focus point (W (S, 6001), W (E, 6001), W (S, 6002), W (E, 6002), W) of the focus lens 2002 that is an end of the depth of field. (S, 6003), W (E, 6003)) are obtained as described above (step S7005).

そして、DSP1007は各被写体6001〜6003の番号をNとして、露光時間内において合焦点W(S、N)からW(E、N)まで移動する際のフォーカスレンズ2002の移動速度V(N)を求める(ステップS7006)。ここでは、移動速度は、V(N)=(W(E,N)−W(S,N))÷蓄積時間となる。   The DSP 1007 sets the number of each of the subjects 6001 to 6003 to N, and sets the moving speed V (N) of the focus lens 2002 when moving from the focal point W (S, N) to W (E, N) within the exposure time. Obtained (step S7006). Here, the moving speed is V (N) = (W (E, N) −W (S, N)) ÷ accumulation time.

例えば、最も手前の被写体6001を撮影する際のフォーカスレンズ2002の合焦点の移動速度V(6001)は、V(6001)=(W(E,6001)−W(S,6001))÷蓄積時間となる。   For example, the moving speed V (6001) of the in-focus point of the focus lens 2002 when shooting the foremost subject 6001 is V (6001) = (W (E, 6001) −W (S, 6001)) ÷ accumulation time. It becomes.

時刻t5〜t6において、CPU1004は被写界深度の端部(手前側端部)となる位置W(S,6001)までフォーカスレンズ2002の合焦点を移動する(ステップS7007)。そして、時刻t7〜t8において、CPU1004は、ステップS4003に示す露出測定で求められた所定の時間の間露光を行うととともに、被写界深度の奥側端部W(E,6001)までフォーカスレンズ2002の合焦点を移動させる(ステップS7008)。   At times t5 to t6, the CPU 1004 moves the focal point of the focus lens 2002 to the position W (S, 6001) that is the end (front end) of the depth of field (step S7007). Then, from time t7 to t8, the CPU 1004 performs exposure for a predetermined time obtained by the exposure measurement shown in step S4003, and at the same time, the focus lens up to the back end W (E, 6001) of the depth of field. The focal point 2002 is moved (step S7008).

ここでは、露光中におけるフォーカスレンズ2002の移動方向は、端部W(S,6001)から端部W(E,6001)としたが、距離測定直後においてフォーカルレンズ2002の移動直前に、フォーカスレンズ2002の合焦点に端部W(E,6001)の方が近い場合には、端部W(E,6001)から端部W(S,6001)にフォーカスレンズ2002を移動した方がシャッタタイムラグは短くなる。   Here, the moving direction of the focus lens 2002 during exposure is from the end W (S, 6001) to the end W (E, 6001), but immediately after the distance measurement, immediately before the focal lens 2002 is moved, the focus lens 2002 is moved. When the end W (E, 6001) is closer to the in-focus point, the shutter time lag is shorter when the focus lens 2002 is moved from the end W (E, 6001) to the end W (S, 6001). Become.

露光が完了すると、CPU1002は、前述のステップS4009の処理に進んで、DSP1007による画像処理を行う。続いて、CPU1004は連写モードで設定された全枚数の撮影が完了したか否かを判定して(ステップS7010)、全枚数の撮影が完了していないと(ステップS7010において、NO)、ステップS7007の処理に戻る。   When the exposure is completed, the CPU 1002 proceeds to the process of step S4009 described above and performs image processing by the DSP 1007. Subsequently, the CPU 1004 determines whether or not shooting of all the sheets set in the continuous shooting mode is completed (step S7010). If shooting of all the sheets is not completed (NO in step S7010), step 1007 is performed. The process returns to S7007.

図8に示す例では、時刻t8〜t9において、CPU1004は、ステップS7007の処理に戻ってフォーカスレンズ2002を次の撮影の初期位置に移動させる。この際には、CPU1004は、端部W(S,6002)と端部W(E,6002)とを比較して、現在位置から近い方を初期位置としてフォーカスレンズ2002の合焦点を移動させる。   In the example shown in FIG. 8, from time t8 to time t9, the CPU 1004 returns to the process of step S7007 and moves the focus lens 2002 to the initial position for the next shooting. At this time, the CPU 1004 compares the end portion W (S, 6002) and the end portion W (E, 6002), and moves the focal point of the focus lens 2002 using the one closer to the current position as the initial position.

続いて、時刻t9〜t10では、ステップS7008において、CPU1004は2番目にカメラに近い被写体6002について、最も近い被写体の場合と同様な手順で露光とフォーカスレンズ2002の合焦点の移動とを行う。   Subsequently, from time t9 to t10, in step S7008, the CPU 1004 performs exposure and movement of the focal point of the focus lens 2002 for the subject 6002 closest to the camera in the same procedure as that for the closest subject.

今回の条件では、端部W(S,6002)よりも端部W(E,6002)の方が端部W(E,6001)に近いので、2度目の撮影におけるフォーカスレンズ2002の移動方向は、奥側から手前側方向となる。   Under this condition, the end W (E, 6002) is closer to the end W (E, 6001) than the end W (S, 6002), so the moving direction of the focus lens 2002 in the second shooting is From the back side to the near side direction.

このようにして、CPU1004は全ての被写体について撮影が終了するまで(つまり、全枚数の撮影が完了するまで)、ステップS7007〜S7009の処理を繰り返す。   In this way, the CPU 1004 repeats the processing of steps S7007 to S7009 until shooting of all subjects is completed (that is, until shooting of all the sheets is completed).

ここでは、3つの被写体をそれぞれ主被写体として撮影を行うので、時刻t10〜t12においては、時刻t8〜t10の区間と同様にして、フォーカスレンズ2002における合焦点の移動方向と移動範囲とを変更して同様の処理が行われる。   Here, since the three subjects are each photographed as the main subject, the moving direction and moving range of the in-focus point in the focus lens 2002 are changed from time t10 to t12 in the same manner as the time t8 to t10. The same processing is performed.

全枚数の撮影が完了すると(ステップS7010において、YES)、CPU1004は、ステップS4010の処理に進んで電源がオフとされたか否かを判定する。そして、前述したように、電源がオフとされると、CPU1004は撮影動作を終了する。一方、電源がオフとされないと、CPU1004はステップS4001の処理に戻ってライブビュー表示を行う。   When all the images have been shot (YES in step S7010), CPU 1004 proceeds to the process in step S4010 and determines whether the power is turned off. Then, as described above, when the power is turned off, the CPU 1004 ends the photographing operation. On the other hand, if the power is not turned off, the CPU 1004 returns to the process of step S4001 and performs live view display.

図8に示す例では、時刻t13において、CPU1004は、フォーカスレンズ2002の合焦点を合焦点W(C,6001)に戻すため、フォーカスレンズ2002の移動を開始する。そして、時刻t14において、CPU1004は再びライブビュー表示を行う。   In the example shown in FIG. 8, at time t13, the CPU 1004 starts moving the focus lens 2002 to return the focus point of the focus lens 2002 to the focus point W (C, 6001). At time t14, the CPU 1004 performs live view display again.

なお、第2の実施形態においては、露光の都度、フォーカスレンズ2002を手前側から奥側に、そして、奥側から手前側に交互に移動させている。これによって、1つ前の露光完了の際におけるフォーカスレンズ2002の合焦点の位置に対して、次の露光ではより近い方の端部から露光を開始して、連写における次の露光開始までの時間を短縮している。   In the second embodiment, the focus lens 2002 is alternately moved from the near side to the far side and from the far side to the near side every time exposure is performed. As a result, with respect to the position of the focal point of the focus lens 2002 at the time of completion of the previous exposure, the next exposure starts exposure from the end closer to the start of the next exposure in continuous shooting. Time has been shortened.

このように、本発明の第2の実施形態では、複数の被写体を順次主被写体として当該主被写体以外の被写体をぼかして連続撮影を行う際においても、追加の画像処理を必要としない簡単な構成で、主被写体に合焦点させつつ、主被写体の奥側および手前側に存在する被写体を同時にボケさせて、かつ自然な撮影画像とすることができる。   As described above, in the second embodiment of the present invention, a simple configuration that does not require additional image processing even when performing continuous shooting with a plurality of subjects as main subjects sequentially and blurring subjects other than the main subject. Thus, while focusing on the main subject, the subject existing on the back side and the near side of the main subject can be blurred simultaneously and a natural photographed image can be obtained.

上述の説明から明らかなように、図1に示す例においては、CPU1004およびDSP1007が距離検出手段および合焦点算出手段として機能し、CPU1004が制御手段として機能する。また、CPU1004およびDSP1007は露出検出手段および露光算出手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the CPU 1004 and the DSP 1007 function as distance detection means and in-focus calculation means, and the CPU 1004 functions as control means. The CPU 1004 and the DSP 1007 function as an exposure detection unit and an exposure calculation unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも距離検出ステップ、合焦点算出ステップ、および制御ステップを有している。   Each of the above control method and control program has at least a distance detection step, a focal point calculation step, and a control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

1001 光学部
1002 撮像素子
1004 CPU
1005 ROM
1006 RAM
1007 DSP
1008 外部インターフェース
1010 メモリ媒体コントローラ
1011 操作パネル
1012 ディスプレイ
1001 Optical unit 1002 Imaging element 1004 CPU
1005 ROM
1006 RAM
1007 DSP
1008 External interface 1010 Memory medium controller 1011 Operation panel 1012 Display

Claims (7)

フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置であって、
前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出手段と、
前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出手段と、
前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御手段と、
を有することを特徴とする撮像装置。
An imaging optical system having a focus lens is provided, and when shooting a composition in which a plurality of subjects are located from the front side to the back side, at least one of the plurality of subjects is used as a main subject and subjects other than the main subject are blurred. An imaging device for shooting
Distance detection means for detecting distance between the main subject and the imaging device to obtain distance information;
A focal point calculation means for obtaining a focal point of the focus lens in which the main subject falls within the depth of field according to the distance information;
Control means for moving and controlling the focal point of the focus lens along the optical axis of the imaging optical system during an exposure period for photographing the composition within a range in which the main subject is within the depth of field;
An imaging device comprising:
前記主被写体に対する露出条件を検出して露出検出結果を得る露出検出手段と、
前記露出検出結果に基づいて露光期間を求める露光算出手段とを有し、
前記制御手段は、前記露光算出手段によって得られた露光期間で露光を行って、前記フォーカスレンズの露光期間中における移動速度を、前記被写界深度の範囲で定まる前記フォーカスレンズの移動距離と前記露光期間とに応じて算出することを特徴とする請求項1に記載の撮像装置。
Exposure detection means for detecting an exposure condition for the main subject and obtaining an exposure detection result;
Exposure calculation means for obtaining an exposure period based on the exposure detection result,
The control means performs exposure in the exposure period obtained by the exposure calculation means, and moves the focus lens during the exposure period in a range of the depth of field and the movement distance of the focus lens. The imaging apparatus according to claim 1, wherein calculation is performed according to an exposure period.
前記制御手段は、前記移動速度でフォーカスレンズの合焦点を移動しつつ露光を行うことを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the control unit performs exposure while moving a focal point of a focus lens at the moving speed. 前記複数の被写体を順に主被写体として連続して撮影を行う連写の際、前記距離検出手段は前記複数の被写体についてそれぞれ前記撮像装置との距離を検出して前記距離情報を得ており、
前記合焦点算出手段は、前記距離情報に基づいて前記複数の被写体の各々について当該被写体がその被写界深度に収まる前記フォーカスレンズの合焦点を求めて、
前記制御手段は、前記連写に当たって前記複数の被写体を順に主被写体として露光を行う都度、前記フォーカスレンズの合焦点を、当該合焦点で定まる被写界深度の範囲で移動制御することを特徴とする請求項1に記載の撮像装置。
In continuous shooting in which the plurality of subjects are sequentially photographed as a main subject, the distance detection unit detects the distance from the imaging device for each of the plurality of subjects to obtain the distance information;
The in-focus calculation means obtains the in-focus point of the focus lens at which the subject falls within the depth of field for each of the plurality of subjects based on the distance information;
The control means controls the movement of the focal point of the focus lens within a range of the depth of field determined by the focal point every time the plurality of subjects are sequentially exposed as main subjects in the continuous shooting. The imaging device according to claim 1.
前記制御手段は、前記フォーカスレンズの合焦点を移動させる際、当該移動の直前に前記フォーカスレンズの合焦点の位置が近い方の前記被写界深度の一方の端部から他方の端部に前記フォーカスレンズの合焦点を移動制御することを特徴とする請求項4に記載の撮像装置。   When the control unit moves the focal point of the focus lens, the control unit moves the focal point of the focus lens from one end of the depth of field closer to the other end immediately before the movement. The imaging apparatus according to claim 4, wherein movement control of a focal point of the focus lens is performed. フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置の制御方法であって、
前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出ステップと、
前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出ステップと、
前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御ステップと、
を有することを特徴とする制御方法。
An imaging optical system having a focus lens is provided, and when shooting a composition in which a plurality of subjects are located from the front side to the back side, at least one of the plurality of subjects is used as a main subject and subjects other than the main subject are blurred. A method of controlling an imaging device for photographing,
A distance detection step of detecting distance between the main subject and the imaging device to obtain distance information;
A focal point calculating step for obtaining a focal point of the focus lens in which the main subject falls within the depth of field according to the distance information;
A control step of moving and controlling the focal point of the focus lens along the optical axis of the imaging optical system during an exposure period for photographing the composition within a range in which a main subject falls within the depth of field;
A control method characterized by comprising:
フォーカスレンズを有する撮像光学系を備え、複数の被写体が手前側から奥側に位置する構図を撮影する際、前記複数の被写体のうちの少なくとも1つを主被写体として当該主被写体以外の被写体をぼかして撮影する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記主被写体と前記撮像装置との距離を検出して距離情報を得る距離検出ステップと、
前記距離情報に応じて前記主被写体が被写界深度に収まる前記フォーカスレンズの合焦点を求める合焦点算出ステップと、
前記被写界深度に主被写体が収まる範囲において前記構図を撮影する露光期間中に前記フォーカスレンズの合焦点を前記撮像光学系の光軸に沿って移動制御する制御ステップと、
を実行させることを特徴とする制御プログラム。
An imaging optical system having a focus lens is provided, and when shooting a composition in which a plurality of subjects are located from the front side to the back side, at least one of the plurality of subjects is used as a main subject and subjects other than the main subject are blurred. A control program used in an imaging device for photographing,
In the computer provided in the imaging device,
A distance detection step of detecting distance between the main subject and the imaging device to obtain distance information;
A focal point calculating step for obtaining a focal point of the focus lens in which the main subject falls within the depth of field according to the distance information;
A control step of moving and controlling the focal point of the focus lens along the optical axis of the imaging optical system during an exposure period for photographing the composition within a range in which a main subject falls within the depth of field;
A control program characterized by causing
JP2013153593A 2013-07-24 2013-07-24 Imaging apparatus, control method thereof, and control program Pending JP2015025852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153593A JP2015025852A (en) 2013-07-24 2013-07-24 Imaging apparatus, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013153593A JP2015025852A (en) 2013-07-24 2013-07-24 Imaging apparatus, control method thereof, and control program

Publications (1)

Publication Number Publication Date
JP2015025852A true JP2015025852A (en) 2015-02-05

Family

ID=52490577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153593A Pending JP2015025852A (en) 2013-07-24 2013-07-24 Imaging apparatus, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP2015025852A (en)

Similar Documents

Publication Publication Date Title
JP5484631B2 (en) Imaging apparatus, imaging method, program, and program storage medium
US9313419B2 (en) Image processing apparatus and image pickup apparatus where image processing is applied using an acquired depth map
US9674408B2 (en) Image pickup apparatus that utilizes a refocusable range, image processing method, and recording medium
JP2009115981A (en) Photographing device, its control method, and program
JP5938281B2 (en) Imaging apparatus, control method therefor, and program
JP2007124398A (en) Photographing device
US20130286254A1 (en) Image capturing apparatus, control method, and recording medium
JP6432038B2 (en) Imaging device
JP4866317B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6932531B2 (en) Image blur correction device, image pickup device, control method of image pickup device
JPWO2019064988A1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
US20160275657A1 (en) Imaging apparatus, image processing apparatus and method of processing image
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP2011239131A (en) Imaging apparatus
US10917556B2 (en) Imaging apparatus
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP6032967B2 (en) IMAGING DEVICE, LENS DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP5104645B2 (en) Digital camera
JP6226536B2 (en) Imaging apparatus and control method thereof
JP2012142729A (en) Camera
JP2009232348A (en) Imaging apparatus, distance information acquiring method, image processing method, and drive control method of optical system
JP2015025852A (en) Imaging apparatus, control method thereof, and control program
JP6525710B2 (en) Imaging device, control method therefor, and program
JP2020017851A (en) Imaging apparatus, control method of imaging apparatus, and program