JP6057627B2 - Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium - Google Patents

Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium Download PDF

Info

Publication number
JP6057627B2
JP6057627B2 JP2012195694A JP2012195694A JP6057627B2 JP 6057627 B2 JP6057627 B2 JP 6057627B2 JP 2012195694 A JP2012195694 A JP 2012195694A JP 2012195694 A JP2012195694 A JP 2012195694A JP 6057627 B2 JP6057627 B2 JP 6057627B2
Authority
JP
Japan
Prior art keywords
subject
imaging
distance
convergence angle
stereoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012195694A
Other languages
Japanese (ja)
Other versions
JP2014053707A (en
Inventor
小林 寛和
寛和 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012195694A priority Critical patent/JP6057627B2/en
Publication of JP2014053707A publication Critical patent/JP2014053707A/en
Application granted granted Critical
Publication of JP6057627B2 publication Critical patent/JP6057627B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置およびその制御方法に関し、特に立体画像を撮像可能な撮像装置およびその制御方法に関するものである。   The present invention relates to an imaging apparatus and a control method thereof, and more particularly to an imaging apparatus capable of capturing a stereoscopic image and a control method thereof.

特許文献1には、立体映像を撮像するために、単一の撮影光学系および単一の検出器アレイ上に設けられた一対の右目用の検出器と左目用の検出器を用いることが開示されている。   Patent Document 1 discloses the use of a single imaging optical system and a pair of right-eye detectors and left-eye detectors provided on a single detector array in order to capture a stereoscopic image. Has been.

ところで、立体視には、ステレオカメラ式で言うところの基線長及び輻輳角を大きくすることで得られるより立体的な鑑賞と、実際に人が鑑賞するときに考慮するべき融合許容範囲という、相対する課題がある。特許文献2には、選択した構図から、最も近点の被写体および最も遠点の被写体ともに、この融合許容範囲に入るように、複数の撮像部の輻輳角及び基線長を制御する手法が開示されている。   By the way, for stereoscopic vision, the relative distance between the stereoscopic view obtained by increasing the base line length and the convergence angle in the stereo camera system and the fusion tolerance range that should be taken into consideration when people actually appreciate it. There is a problem to do. Patent Document 2 discloses a method for controlling the convergence angles and the base line lengths of a plurality of imaging units so that both the closest subject and the farthest subject fall within the fusion allowable range from the selected composition. ing.

一方、表示装置の種類、大きさ、撮影シーンや観察者(ユーザー)の好みに応じた立体画像を得る要求もある。特許文献3には、このような課題に対応し、1回のシャッタレリーズ操作で複数の撮像部の輻輳角及び基線長の少なくとも一方が異なる複数の多視点画像を連続的に撮影(3Dブラケット撮影)できるように制御する手法が開示されている。   On the other hand, there is also a demand for obtaining a stereoscopic image according to the type, size, shooting scene, and observer (user) preference of the display device. In Japanese Patent Laid-Open No. 2004-318, in response to such a problem, a plurality of multi-viewpoint images in which at least one of convergence angles and base line lengths of a plurality of imaging units is different are continuously photographed by a single shutter release operation (3D bracket photography). ) A technique for performing control is disclosed.

特開昭58−24105号公報JP-A-58-24105 特開平7−167633号公報JP-A-7-167633 特開2008−312058号公報JP 2008-312058 A

特許文献2によれば、選択した構図全体の立体画像を鑑賞する際に、観察者の輻輳と調節(目のピント調節)の矛盾は起こりにくく、したがって疲労を伴わずに鑑賞することができる。   According to Patent Document 2, when viewing a stereoscopic image of the entire selected composition, a contradiction between the observer's convergence and adjustment (eye focus adjustment) is unlikely to occur, and therefore, it can be viewed without fatigue.

しかしながら、デジタル画像技術の進展に伴い、立体画像の使い方も多様化していると言われ、必ずしも選択した構図の通りに鑑賞されるとは限らなくなってきた。例えば、得られた立体画像から主要被写体を切り出し保存して、これを鑑賞するといった立体画像の使い方などがでてきた。ここで、構図全体の奥行きが大きい場合は遠方に行くほど主要被写体の立体感は乏しくなる傾向にある。したがって、当該主要被写体を切り出し保存して鑑賞する場合に、必ずしもその主要被写体について十分な立体感が得られているとはいえず、観察者は所望の立体画像を鑑賞できない場合があるといった問題があった。   However, with the progress of digital image technology, it is said that the usage of stereoscopic images is diversified, and it is not always appreciated according to the selected composition. For example, the use of a stereoscopic image has come out, such as cutting out and saving a main subject from an obtained stereoscopic image and viewing it. Here, when the depth of the entire composition is large, the stereoscopic effect of the main subject tends to become poorer as the distance increases. Therefore, when the main subject is cut out, stored, and viewed, it cannot always be said that a sufficient stereoscopic effect is obtained with respect to the main subject, and the observer may not be able to view a desired stereoscopic image. there were.

この点において、特許文献3によれば、構図全体での立体感にとらわれない撮影ができる可能性はあるが、特許文献3には、3Dブラケット撮影の範囲に関する示唆がない。   In this regard, according to Patent Literature 3, there is a possibility that photography can be performed without being constrained by the stereoscopic effect of the entire composition, but Patent Literature 3 has no suggestion regarding the range of 3D bracket photography.

本発明は、各種ユーザーの鑑賞時の要請に応えることのできる立体画像を撮影することを例示的目的とする。   An object of the present invention is to shoot a stereoscopic image that can meet the demands of various users during viewing.

本発明の一側面としての立体画像撮像装置は、異なる複数の視点から被写体を撮像する複数の撮像手段と、前記複数の撮像手段の間の輻輳角を設定する輻輳角設定手段と、前記撮像手段から前記被写体までの距離を計測する被写体距離計測手段と、前記撮像手段を用いて第1の撮影と第2の撮影を行う制御部と、を有し、前記複数の撮像手段は、撮像素子の1画素内に設けられた複数の光電変換部であり、前記輻輳角設定手段は、前記第1の撮影において、前記被写体距離計測手段にて計測された前記距離のうち前記撮像手段に最も近い第1の距離にある点が撮像面上でなす視差量を、所定の第1の閾値以下とするように、第1の輻輳角を設定し、前記第2の撮影において、前記被写体距離計測手段にて計測された前記距離のうち前記第1の距離よりも遠い第2の距離にある被写体上の複数の点が撮像面上でなす視差変化量を、所定の第2の閾値以上とするように、かつ、前記光電変換部への最大光入射角度を算出し、前記最大光入射角度が所定の第3の閾値よりも小さくなるように、前記第1の輻輳角とは異なる第2の輻輳角を設定することを特徴とする。
A stereoscopic image capturing apparatus according to an aspect of the present invention includes a plurality of imaging units that capture a subject from a plurality of different viewpoints, a convergence angle setting unit that sets a convergence angle between the plurality of imaging units, and the imaging unit. A subject distance measuring unit that measures a distance from the subject to the subject, and a control unit that performs a first shooting and a second shooting using the imaging unit, and the plurality of imaging units include: A plurality of photoelectric conversion units provided in one pixel, wherein the convergence angle setting unit is the first closest to the imaging unit among the distances measured by the subject distance measuring unit in the first imaging. The first convergence angle is set so that the amount of parallax formed on the imaging surface by a point at a distance of 1 is equal to or less than a predetermined first threshold value. The first of the distances measured A parallax variation in which a plurality of points forming on the imaging surface of the object at a distant second distance than away, so that the above predetermined second threshold value, and the maximum light incident on the photoelectric conversion portion An angle is calculated, and a second convergence angle different from the first convergence angle is set so that the maximum light incident angle is smaller than a predetermined third threshold value .

本発明の更なる目的又はその他の特徴は、以下、添付図面を参照して説明される好ましい実施例によって明らかにされるであろう。   Further objects and other features of the present invention will become apparent from the preferred embodiments described below with reference to the accompanying drawings.

本発明によれば、撮影構図全体につき違和感なく鑑賞できる第一の立体撮影と、注目した被写体や遠方の被写体の立体感を損なわない第二の立体撮影とを行うことができる。したがって、第一の立体撮影で撮影した立体画像および第二の立体撮影で撮影した立体画像を用いることで各種ユーザーの鑑賞時の要請に応えることができる。   According to the present invention, it is possible to perform the first stereoscopic shooting that allows the entire shooting composition to be viewed without a sense of incongruity and the second stereoscopic shooting that does not impair the stereoscopic effect of the subject of interest or a distant subject. Therefore, it is possible to meet the demands of various users at the time of viewing by using the stereoscopic image captured by the first stereoscopic shooting and the stereoscopic image captured by the second stereoscopic shooting.

本発明に係る立体画像撮像装置の構成を表すブロック図である。It is a block diagram showing the structure of the stereo image imaging device which concerns on this invention. 本発明に係る固体撮像素子の撮像面構成を表す平面図である。It is a top view showing the imaging surface composition of the solid-state image sensing device concerning the present invention. 本発明に係る光線図の一例を示す図である。It is a figure which shows an example of the ray diagram which concerns on this invention. 本発明に係る結像関係式を表すグラフである。It is a graph showing the image formation relational expression concerning this invention. 本発明第1の実施例に係る立体画像撮像装置の制御を表すフローチャートである。It is a flowchart showing control of the three-dimensional image pick-up device concerning the 1st example of the present invention. 本発明第2の実施例に係る立体画像撮像装置の制御を表すフローチャートである。It is a flowchart showing control of the stereo image imaging device which concerns on 2nd Example of this invention. 本発明に係る固体撮像素子の単位画素の断面図と瞳強度分布図である。It is sectional drawing and the pupil intensity distribution figure of the unit pixel of the solid-state image sensor concerning this invention. 本発明第3の実施例に係る立体画像撮像装置の制御を表すフローチャートである。It is a flowchart showing control of the three-dimensional image pick-up device concerning the 3rd example of the present invention. 本発明第4の実施例に係る立体画像撮像装置の制御を表すフローチャートである。It is a flowchart showing control of the stereo image imaging device which concerns on the 4th Example of this invention. 本発明第5の実施例に係る立体画像撮像装置の一例を示す図である。It is a figure which shows an example of the stereo image imaging device which concerns on the 5th Example of this invention. 本発明第5の実施例に係る立体画像撮像装置の制御を表すフローチャートである。It is a flowchart showing control of the stereo image imaging device which concerns on the 5th Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

まず、本発明の実施形態に係る立体画像撮像装置の全体構成について説明する。図1は、本発明の実施形態に係る立体画像撮像装置の全体構成を表すブロック図の一例である。なお、以下では、撮影光学系を含むレンズ一体型の立体画像撮像装置について説明するが、本発明は、立体画像撮像装置に対して撮影光学系(レンズ装置)が着脱可能な、いわゆるレンズ交換型のカメラシステムにも適用できることは言うまでもない。図1において、1は絞りやメカニカルシャッターを含むレンズ等の撮影光学系、2は撮影光学系1で結像された被写体像を光電変換し電気信号として取り出す固体撮像素子である。本発明の立体画像撮影を行うには、複数の視点からの撮像が可能な撮像手段と、その撮像手段間の輻輳角を制御することが必要となる。複数の視点からの撮像と輻輳角の制御は、撮影光学系1および固体撮像素子2の持つ特徴により具体的に実現されるが、本発明に特有の構造および制御であるため、詳細は後述することにする。   First, the overall configuration of a stereoscopic image capturing apparatus according to an embodiment of the present invention will be described. FIG. 1 is an example of a block diagram illustrating an overall configuration of a stereoscopic image capturing apparatus according to an embodiment of the present invention. In the following, a lens-integrated stereoscopic image capturing apparatus including a photographing optical system will be described. However, the present invention is a so-called interchangeable lens type in which a photographing optical system (lens apparatus) is detachable from the stereoscopic image capturing apparatus. Needless to say, it can be applied to other camera systems. In FIG. 1, reference numeral 1 denotes a photographing optical system such as a lens including a diaphragm and a mechanical shutter, and 2 denotes a solid-state imaging device that photoelectrically converts a subject image formed by the photographing optical system 1 and takes it out as an electrical signal. In order to perform stereoscopic image shooting according to the present invention, it is necessary to control an imaging unit capable of imaging from a plurality of viewpoints and a convergence angle between the imaging units. The imaging from a plurality of viewpoints and the control of the convergence angle are concretely realized by the characteristics of the imaging optical system 1 and the solid-state imaging device 2, but since it is a structure and control unique to the present invention, details will be described later. I will decide.

3は固体撮像素子2のアナログ電気信号をサンプリングするための相関二重サンプリング(CDS)回路、4はサンプリングされたアナログ信号をデジタル信号に変換するためのA/D変換器(A/D変換部)である。デジタル化された画像信号は、画像メモリ8を介して信号処理回路7により、ホワイトバランス補正、ガンマ補正をはじめとした各種信号処理が施されて、視差を有する画像信号として記録媒体10に記録される。記録回路9は、記録媒体10とのインターフェイス回路を指す。また信号処理の施された画像信号は、インターフェイス回路である表示回路11を通して液晶ディスプレーなどの画像表示装置12に直接表示することもできる。本発明により得られる立体撮影画像の確認もしくは鑑賞のため、画像表示装置12は、以下に述べるように構成してもよい。すなわち画像表示装置12は、特定の周期にしたがって画像を更新していく。ある時刻にて偶数行表示の更新を開始し、更新周期の半分が経過したところで偶数行表示の更新を完了する。次に更新周期の半分が経過した時刻から奇数行表示の更新を開始し、全更新周期が経過したところで奇数行表示の更新を完了する。奇数行表示を更新している間、偶数行表示はホールドしている。反対に偶数行表示を更新している間、奇数行表示はホールドしている。偶数行表示のための画像ソースを、例えば右目に対応して撮像した視点とし、奇数行表示のための画像ソースを、左目に対応して撮像した視点とする。その上で、観察者は、右目に対応した偶数行表示をホールドしている期間に左目を覆い隠して右目から画像を見て、左目に対応した奇数行表示をホールドしている期間に右目を覆い隠して左目から画像を見る、ことができれば立体視ができる。すなわち観察者は、画像表示装置12の更新周期に同期して左右の視界を覆い隠す液晶シャッターなどを備えた眼鏡等を装着することで、このような立体視による画像の確認もしくは鑑賞が可能となる。なお、画像表示装置12は、立体画像表示にとらわれず、これから撮像しようとする画面を連続的にライブで表示するライブビュー表示や、記録した動画の再生表示も可能である。   Reference numeral 3 denotes a correlated double sampling (CDS) circuit for sampling an analog electric signal of the solid-state imaging device 2, and reference numeral 4 denotes an A / D converter (A / D converter) for converting the sampled analog signal into a digital signal. ). The digitized image signal is subjected to various signal processing such as white balance correction and gamma correction by the signal processing circuit 7 via the image memory 8, and is recorded on the recording medium 10 as an image signal having parallax. The The recording circuit 9 indicates an interface circuit with the recording medium 10. Further, the image signal subjected to the signal processing can be directly displayed on the image display device 12 such as a liquid crystal display through the display circuit 11 which is an interface circuit. In order to confirm or appreciate the stereoscopic image obtained by the present invention, the image display device 12 may be configured as described below. That is, the image display device 12 updates the image according to a specific cycle. The update of the even line display is started at a certain time, and the update of the even line display is completed when half of the update cycle has elapsed. Next, the update of the odd-numbered line display is started from the time when half of the update cycle has elapsed, and the update of the odd-numbered line display is completed when the entire update period has elapsed. While updating the odd line display, the even line display is held. On the contrary, while the even line display is being updated, the odd line display is held. For example, an image source for even-numbered line display is set as a viewpoint picked up corresponding to the right eye, and an image source for odd-numbered line display is set as a viewpoint picked up corresponding to the left eye. Then, the observer covers the left eye during the period in which the even-line display corresponding to the right eye is held, looks at the image from the right eye, and observes the right eye in the period in which the odd-line display corresponding to the left eye is held. If you can see the image from your left eye while obscuring it, you can see stereoscopically. In other words, the observer can check or appreciate such a stereoscopic image by wearing glasses equipped with a liquid crystal shutter that covers the left and right fields of view in synchronization with the update cycle of the image display device 12. Become. Note that the image display device 12 is not limited to stereoscopic image display, and can also perform live view display for continuously displaying a screen to be captured in the future, and playback display of recorded moving images.

タイミング発生回路5は、駆動回路6を通してレンズの絞り、メカニカルシャッター、固体撮像素子2などの撮像系を駆動する。さらに、撮像系の駆動ひいては固体撮像素子2の出力信号に同期してCDS回路3、A/D変換器4を駆動・制御する。   The timing generation circuit 5 drives an imaging system such as a lens diaphragm, a mechanical shutter, and the solid-state imaging device 2 through a driving circuit 6. Further, the CDS circuit 3 and the A / D converter 4 are driven and controlled in synchronization with the driving of the imaging system and, in turn, the output signal of the solid-state imaging device 2.

システム制御部13は、揮発性メモリ(RAM)14に一時記憶されたプログラムにより立体画像撮像装置全体を制御する。   The system control unit 13 controls the entire stereoscopic image capturing apparatus with a program temporarily stored in a volatile memory (RAM) 14.

また、立体画像撮像装置は、本発明に特有の輻輳角設定手段16をさらに備えており、やはり駆動回路6を介して撮影光学系1および固体撮像素子2の輻輳角を設定する。輻輳角設定手段16は、システム制御部13を介して、被写体距離計測手段17からの被写体距離情報に対応した輻輳角の分布を割り出し、所定の閾値と比較して、撮影前に輻輳角を設定する。こうした輻輳角設定手段16の一連の機能については、本発明に特有の構造および制御であるため、詳細は各実施例の中で後述する。   The stereoscopic image capturing apparatus further includes a convergence angle setting unit 16 unique to the present invention, and also sets the convergence angles of the photographing optical system 1 and the solid-state image sensor 2 via the drive circuit 6. The convergence angle setting unit 16 determines the distribution of the convergence angle corresponding to the subject distance information from the subject distance measurement unit 17 via the system control unit 13, and sets the convergence angle before photographing by comparing with a predetermined threshold value. To do. Such a series of functions of the convergence angle setting means 16 has a structure and control unique to the present invention, and details will be described later in each embodiment.

被写体検知手段18は、撮像画像やライブビュー表示画像から主要な被写体を検索する。本発明の実施例によっては、このような主要な被写体を検索する機能を利用することもある。   The subject detection means 18 searches for a main subject from the captured image or the live view display image. Depending on the embodiment of the present invention, such a function of searching for a main subject may be used.

15は、システム制御部13による制御実行時に転送されるべきプログラム、各種データを格納した不揮発性メモリ(ROM)で、後述の輻輳角設定に使用する各種閾値や関数も格納している。   Reference numeral 15 denotes a non-volatile memory (ROM) storing a program and various data to be transferred when the system control unit 13 executes control, and also stores various threshold values and functions used for setting a convergence angle, which will be described later.

次に、本発明で用いる撮影光学系1と固体撮像素子2の詳細を説明する。これらは、先に述べた、立体画像撮像に必要な複数の視点を与えるものである。簡略化のため、まず、2つの視点を持つ系について説明する。   Next, details of the photographing optical system 1 and the solid-state imaging device 2 used in the present invention will be described. These provide a plurality of viewpoints necessary for the stereoscopic image capturing described above. For simplification, a system having two viewpoints will be described first.

図2は、固体撮像素子2の撮像面平面図を表す。固体撮像素子2は、左と右の2つに独立した一対の光電変換部(複数の撮像手段)20Lおよび20Rを覆う単一のマイクロレンズ21を含む画素を単位画素として、それらが水平および垂直に、N行M列分配列されている(図2ではN=4、M=6)。各画素(1画素内)に含まれる各光電変換部は、撮影光学系1により結像した光学像を1組の視点として受光しており、例えば左側の光電変換部20Lおよび右側の光電変換部20Rにより2組の視点を得ることができる。光電変換部は、例えばフォトダイオード(PD)などで構成すればよい。なお、本実施の形態においては、左と右の2つに独立した光電変換部により2組の視点を得る、と説明するが、必ずしも左右方向でなくてもよいし、独立した光電変換部の個数は2つに限られない。マイクロレンズ21の下にN(N≧2)個の独立した光電変換部を用いれば、N個の視点を有することができる。   FIG. 2 is a plan view of the imaging surface of the solid-state imaging device 2. The solid-state imaging device 2 uses a pixel including a single microlens 21 that covers a pair of photoelectric conversion units (a plurality of imaging units) 20L and 20R that are independent on the left and right as unit pixels, and these are horizontal and vertical. Are arranged in N rows and M columns (N = 4, M = 6 in FIG. 2). Each photoelectric conversion unit included in each pixel (within one pixel) receives an optical image formed by the photographing optical system 1 as one set of viewpoints. For example, the left photoelectric conversion unit 20L and the right photoelectric conversion unit Two sets of viewpoints can be obtained by 20R. The photoelectric conversion unit may be configured by, for example, a photodiode (PD). In the present embodiment, it is described that two sets of viewpoints are obtained by two independent photoelectric conversion units, left and right, but the left and right directions are not necessarily required. The number is not limited to two. If N (N ≧ 2) independent photoelectric conversion units are used under the micro lens 21, N viewpoints can be provided.

図3は、このような固体撮像素子2の構成で、複数の視点を得る仕組みを撮影光学系1とともに示した光線図である。撮影光学系1には、口径Dの絞り10が含まれている。図3(a)では、光軸上物体側の点Aから出た光は、絞り10等で規定された撮影光学系の口径Dにより、物体側の出射角度φ、固体撮像素子2への入射角度θまでに制限され、像側の点Bに結像する。撮影光学系1の焦点距離をfとすると、物体側に距離aだけ離れた点Aは、像側に距離bだけ進んだ点Bに結像し、以下の関係式を満たす。   FIG. 3 is a ray diagram illustrating a mechanism for obtaining a plurality of viewpoints together with the photographing optical system 1 in the configuration of the solid-state imaging device 2 as described above. The photographing optical system 1 includes a diaphragm 10 having an aperture D. In FIG. 3A, the light emitted from the point A on the object side on the optical axis is incident on the solid-state image sensor 2 with the exit angle φ on the object side by the aperture D of the photographing optical system defined by the diaphragm 10 or the like. The image is limited to the angle θ and forms an image at a point B on the image side. Assuming that the focal length of the photographing optical system 1 is f, a point A separated by a distance a on the object side forms an image at a point B advanced by a distance b on the image side, and satisfies the following relational expression.

1/a+1/b=1/f (数1)
このような結像状態は、撮影光学系1の合焦距離で規定され、撮影シーンごとに自動焦点検出(AutoFocus=AF)動作が行われて決定され、もしくはピントリングなどでユーザーにより設定される。図3(a)では、(数1)を満たしながら、点Bがちょうど固体撮像素子2のマイクロレンズ上の撮像面にくるように点Aを作図したので、点Aはピントの合った、いわゆる合焦距離にある。合焦距離にある点Aからの光のうち、光軸上の光線から口径Dの上端部を通過する上限光線は、左側の光電変換部20Lに入射し、光軸上の光線から口径Dの下端部を通過する下限光線は、同じ画素に含まれる右側の光電変換部20Rに入射する。このように、合焦距離にある点Aについては、左側の光電変換部20Lと同じ画素位置にある右側の光電変換部20Rとに結像するので、それゆえに20Lと20Rの示す電気信号の像は相互にずれのない状態となっている。
1 / a + 1 / b = 1 / f (Equation 1)
Such an imaging state is defined by the focusing distance of the photographing optical system 1 and is determined by performing an automatic focus detection (AutoFocus = AF) operation for each photographing scene, or set by a user by focusing or the like. . In FIG. 3A, the point A is drawn so that the point B comes to the imaging surface on the microlens of the solid-state imaging device 2 while satisfying (Equation 1). In focus distance. Of the light from the point A at the in-focus distance, the upper limit light beam that passes through the upper end of the aperture D from the light beam on the optical axis is incident on the left photoelectric conversion unit 20L, and the light beam with the aperture D from the light beam on the optical axis. The lower limit light beam passing through the lower end part enters the right photoelectric conversion unit 20R included in the same pixel. In this way, the point A at the in-focus distance is imaged on the right photoelectric conversion unit 20R at the same pixel position as the left photoelectric conversion unit 20L, and therefore, the electric signal image indicated by 20L and 20R. Are in a state without any deviation.

ところで、(数1)を満たす物体側の点A、像側の点Bの組み合わせは、上述のようなピントの合った状態に限られない。図3(b)は、点Aよりも撮影光学系1から離れた点A’から出た光が撮像面に結像せず、点Bよりも撮影光学系1に近い点B’に結像した光線図であり、(数1)のaをa’、bをb’と置き換えて適用される。改めて図示はしないが、反対に、点Aよりも撮影光学系1に近いところにある光軸上の1点から出た光は、点Bよりも撮影光学系1から離れた点に結像する。それゆえ、ピントが撮像面からずれている、いわゆる非合焦距離にある光軸上の点は、そのずれの分だけ(数1)にしたがって結像点が撮像面の前後にずれて結像する。したがって、光軸上の光線から上限光線までを集める左右一方の光電変換部と、光軸上の光線から下限光線までを集める他方の光電変換部との間には相互に像のずれが起こる。この像ずれを、視差と呼び、その絶対量を視差量と呼ぶ。   By the way, the combination of the point A on the object side and the point B on the image side that satisfies (Equation 1) is not limited to the above-described in-focus state. In FIG. 3B, the light emitted from the point A ′ farther from the photographing optical system 1 than the point A does not form an image on the imaging surface, and forms an image at a point B ′ closer to the photographing optical system 1 than the point B. In the ray diagram, (a) in (Equation 1) is replaced with a ′, and b is replaced with b ′. Although not shown again, conversely, light emitted from one point on the optical axis closer to the photographing optical system 1 than the point A forms an image at a point farther from the photographing optical system 1 than the point B. . Therefore, the point on the optical axis at a so-called out-of-focus distance that is out of focus from the imaging surface is imaged by shifting the imaging point forward and backward of the imaging surface according to (Equation 1). To do. Accordingly, an image shift occurs between one of the left and right photoelectric conversion units that collects light rays on the optical axis to the upper limit light beam and the other photoelectric conversion unit that collects light rays on the optical axis to the lower limit light. This image shift is called parallax, and its absolute amount is called parallax amount.

さらに図3(c)は、図3(a)に対し、撮影光学系1の口径Dが大きく、光電変換部20Lおよび20Rに入射する光線の最大角度θが大きく、それゆえ絞り10を介して光電変換部20Lおよび20Rが点Aを望む出射角度φも大きい状態を示している。φとDの関係は、点Aまでの距離aを用いて概略下式のように表される。   Further, in FIG. 3C, the aperture D of the photographing optical system 1 is larger than that in FIG. 3A, and the maximum angle θ of the light incident on the photoelectric conversion units 20L and 20R is large. The photoelectric conversion units 20L and 20R show a state where the emission angle φ at which the point A is desired is also large. The relationship between φ and D is roughly expressed by the following equation using the distance a to the point A.

tanφ=D/2a (数2)
ここで、光軸上の光線から口径Dの端部を通過する光線までの全光線うち、平均的な光線が絞り10を通過するときの仮想的な口径D0を定義する。(数2)のDをD0に置き換えて得られる角度φ0が、ステレオカメラ式における輻輳角に相当する角度である。(数2)より、輻輳角φ0は、仮想的な口径D0に対し単調増加であり、D0が絞り10等で規定される口径Dに対し単調増加であることを考慮すれば、輻輳角φ0は、絞り10の口径Dに対し単調増加することがわかる。さらに、図3(c)において、点Aよりも撮影光学系1から離れた点A’から出た光線を、図3(b)のごとく作図すれば、撮影光学系1の口径もしくは絞り10により、非合焦距離にある点の視差量が増加することもわかる。以上より、撮影光学系1の口径もしくは絞り10は、被写体の立体感を変え得るパラメータである。
tanφ = D / 2a (Equation 2)
Here, a virtual aperture D0 when an average ray passes through the stop 10 out of all rays from the ray on the optical axis to the ray passing through the end of the aperture D is defined. An angle φ0 obtained by replacing D in Equation 2 with D0 is an angle corresponding to the convergence angle in the stereo camera system. (Equation 2), the convergence angle φ0 is monotonically increasing with respect to the virtual aperture D0, and considering that D0 is monotonically increasing with respect to the aperture D defined by the aperture 10 or the like, the convergence angle φ0 is It can be seen that the diameter increases monotonously with the aperture D of the diaphragm 10. Further, in FIG. 3C, if a light beam emitted from a point A ′ farther from the photographing optical system 1 than the point A is plotted as shown in FIG. 3B, the aperture of the photographing optical system 1 or the diaphragm 10 is used. It can also be seen that the amount of parallax at a point at the non-focus distance increases. As described above, the aperture or aperture 10 of the photographing optical system 1 is a parameter that can change the stereoscopic effect of the subject.

ところで、撮影光学系1は、無限遠に存在する物体からの光線を、像側に焦点距離fだけ進んだ点に結像する。図4は、横軸に被写体距離を、縦軸に結像点までの距離をとって、このことを示したグラフである。遠方の被写体ほど、焦点距離fの近傍に結像していくので、所定よりも遠方の被写体の左右の視差量は一定量のまま変化が起こりにくく、近い距離にある被写体に比べて遠近差を生じにくい。このような傾向は、撮影光学系1の口径Dが小さいほど顕著である。   By the way, the photographing optical system 1 forms an image of a light beam from an object existing at infinity at a point advanced by the focal length f to the image side. FIG. 4 is a graph showing this by taking the subject distance on the horizontal axis and the distance to the imaging point on the vertical axis. The farther the subject is imaged near the focal length f, the left and right parallax amounts of the farther subject are less likely to change with a constant amount, and the perspective difference is less than that of the subject at a closer distance. Hard to occur. Such a tendency becomes more prominent as the aperture D of the photographing optical system 1 is smaller.

以上、固体撮像素子2の構成と併せ、撮影光学系1との組み合わせで成り立つ、複数の視点を得る基本的な仕組みについて説明した。なお、固体撮像素子2における電気信号転送のための構成については、電荷転送を伴うCCD型や画素ごとに増幅アンプを持つActive−CMOS型などが考え得る。しかし、本発明の複数の視点用の光電変換部からの電気信号を出力できるものであれば、その他いかなる構成も適用可能である。   Heretofore, the basic mechanism for obtaining a plurality of viewpoints, which is configured by the combination with the imaging optical system 1 in addition to the configuration of the solid-state imaging device 2 has been described. In addition, about the structure for the electrical signal transfer in the solid-state image sensor 2, the CCD type with charge transfer, the Active-CMOS type having an amplification amplifier for each pixel, and the like can be considered. However, any other configuration is applicable as long as it can output electrical signals from the photoelectric conversion units for a plurality of viewpoints of the present invention.

本実施例においては、合焦距離よりも近い距離にある被写体の視差量に制限を設けるための第1の撮影を行う一方で、合焦距離付近にある被写体の視差量をできるだけ大きくするための第2の撮影を行う。   In the present embodiment, the first shooting is performed to limit the amount of parallax of the subject that is closer than the in-focus distance, while the amount of parallax of the subject in the vicinity of the in-focus distance is increased as much as possible. A second image is taken.

図5は、このときの詳細な制御を示すフローである。   FIG. 5 is a flow showing detailed control at this time.

図1に図示しないスイッチによりメイン電源がオンされ、次にシステム制御部13の電源がオンされる(ステップS501)。   The main power supply is turned on by a switch not shown in FIG. 1, and then the power supply of the system control unit 13 is turned on (step S501).

次に、メカニカルシャッターを開き、固体撮像素子2に駆動設定信号を与える(ステップS502)。これにより、ライブの画像を画像表示装置12に連続的に映し出すモードが実行可能となると同時に、連続的に取得される画像を使って測光し、撮影に使用する露出を調整する、いわゆる自動露出調整動作(AE)も可能となる(ステップS503)。すなわち、システム制御部13は、撮像系からデジタル化された画像信号を画像メモリ8に取得して信号処理回路7に露出演算を行わせる。例えば画像信号から抽出した輝度情報を画面のエリア別に重み付け演算して、現状よりも何段明るくすればよいか(又は暗くすればよいか)を演算する。システム制御部13は当該演算結果を受けて撮影光学系1の絞りを駆動することで次フレームから適切な明るさの画像を得る。固体撮像素子2に電子シャッター機能がある場合は、同時にシャッター速度を変更してもよい。このAEでは、撮影に使用する絞り値とシャッター速度および必要に応じてISO感度、の組み合わせの候補を複数用意し、後述する第1の撮影と第2の撮影に備える。本実施例では、(表1)のような組み合わせを候補として検出する。   Next, the mechanical shutter is opened, and a drive setting signal is given to the solid-state imaging device 2 (step S502). As a result, a mode in which a live image is continuously displayed on the image display device 12 can be executed, and at the same time, photometry is performed using continuously acquired images and exposure used for photographing is adjusted, so-called automatic exposure adjustment. Operation (AE) is also possible (step S503). That is, the system control unit 13 acquires the digitized image signal from the imaging system in the image memory 8 and causes the signal processing circuit 7 to perform an exposure calculation. For example, the luminance information extracted from the image signal is weighted for each area of the screen to calculate how much brighter (or darker) the current information should be. The system control unit 13 receives the calculation result and drives the aperture of the photographing optical system 1 to obtain an image with appropriate brightness from the next frame. When the solid-state imaging device 2 has an electronic shutter function, the shutter speed may be changed at the same time. In this AE, a plurality of combinations of aperture values, shutter speeds, and ISO sensitivity as necessary are prepared for shooting, and prepared for first and second shooting described later. In this embodiment, a combination as shown in (Table 1) is detected as a candidate.

次に、2段階のストロークを有するシャッターレリーズボタン(不図示)のファーストストロークが行われたか否かを判定する(ステップS504)。ファーストストロークが行われていたと判定した場合は、被写体にピントが合うように焦点調節用レンズを自動的に駆動する焦点位置調整、いわゆるオートフォーカス(AF)が開始される(ステップS505)。一方、ファーストストロークが行われていないと判定した場合はステップS503に戻り、ステップS503〜ステップS504の動作を繰り返し行う。AFでは、まず、撮影光学系1の焦点調節用レンズを複数ステップ駆動して複数枚の画像信号を得る。被写体距離計測手段17は、それぞれの画像信号に演算処理を施して、被写体に最も焦点の合った焦点調節用レンズの位置を決定する。システム制御部13は、この検出結果を受けて、撮影光学系1の焦点調節用レンズを駆動することで次フレームから最適なピントの画像を得る。なお、撮像系とは別に設けた被写体距離計測手段17としての測距用センサーの信号から被写体距離を計測して、焦点調節用レンズを駆動する方式を用いてもよい。いずれの方式にしても、被写体の距離情報が取得できるので、これを後述する第1の撮影と第2の撮影に利用する。   Next, it is determined whether or not a first stroke of a shutter release button (not shown) having a two-stage stroke has been performed (step S504). When it is determined that the first stroke has been performed, focus position adjustment, so-called autofocus (AF), is automatically started to automatically drive the focus adjustment lens so that the subject is in focus (step S505). On the other hand, if it is determined that the first stroke is not performed, the process returns to step S503, and the operations of steps S503 to S504 are repeated. In AF, first, the focus adjustment lens of the photographing optical system 1 is driven in a plurality of steps to obtain a plurality of image signals. The subject distance measuring means 17 performs arithmetic processing on each image signal to determine the position of the focus adjustment lens that is most focused on the subject. In response to this detection result, the system control unit 13 drives the focus adjustment lens of the photographic optical system 1 to obtain an optimum focus image from the next frame. Note that a method of measuring a subject distance from a signal of a distance measuring sensor serving as a subject distance measuring unit 17 provided separately from the imaging system and driving a focus adjustment lens may be used. In either method, the distance information of the subject can be acquired, and this is used for the first shooting and the second shooting described later.

第1の撮影に先立って、システム制御部13は、最も撮影光学系1に近い被写体が融像できることを確認する。具体的には、(表1)に示した露出条件の候補と照らし合わせながら次のように演算する。演算には、(数1)を利用し、撮影光学系1の焦点距離をf、合焦距離をa、撮影光学系1に最も近い被写体までの距離(第1の距離)をs(s<a)とすると、この被写体の結像位置は、(数1)により
sf/(s−f) (数3)
と計算される。合焦距離はaなので、固体撮像素子2の撮像面(マイクロレンズ21面)は撮影光学系1からaf/(a−f)だけ離れたところにある。その撮像面上で、被写体距離sの点からの光線がなす光電変換部20Lおよび20Rの視差量は
D0((s−f)/sf)[(sf/(s−f))−(af/(a−f))] (数4)
と表される。ここでD0は、前述の通り、平均的な光線が絞り10を通過するときの仮想的な口径であり、絞り10の口径Dと略一定の相関関係がある。
Prior to the first photographing, the system control unit 13 confirms that the subject closest to the photographing optical system 1 can be fused. Specifically, the calculation is performed as follows while checking against the exposure condition candidates shown in (Table 1). In the calculation, (Equation 1) is used, the focal length of the photographic optical system 1 is f, the in-focus distance is a, and the distance to the subject closest to the photographic optical system 1 (first distance) is s (s < Assuming that a), the imaging position of this subject is expressed by (Equation 1) as follows: sf / (s−f) (Equation 3)
Is calculated. Since the in-focus distance is a, the imaging surface (the surface of the microlens 21) of the solid-state imaging device 2 is away from the imaging optical system 1 by af / (af). On the imaging surface, the parallax amount of the photoelectric conversion units 20L and 20R formed by the light rays from the point of the subject distance s is D0 ((s−f) / sf) [(sf / (s−f)) − (af / (Af))] (Equation 4)
It is expressed. Here, as described above, D0 is a virtual aperture when an average light beam passes through the aperture 10, and has a substantially constant correlation with the aperture D of the aperture 10.

そして、(表1)に存在する絞りの候補から(数4)の視差量を算出する(ステップS506)。例えば、(表1)の絞りF4に相当する口径Dは焦点距離の約1/4に相当する。平均的な光線が絞り10を通過するときの仮想的な口径D0を、その約半分の、焦点距離の1/8と見積もると、例えば焦点距離100mmの撮影条件で12.5mmとなる。(数4)より、合焦距離a=3100mmの状態における、s=2100mmの被写体の視差量は、およそ0.2mmと見積もられる。これは、固体撮像素子2の画素間隔が5μmであれば、40画素程度に相当する。   Then, the parallax amount of (Equation 4) is calculated from the aperture candidates present in (Table 1) (step S506). For example, the aperture D corresponding to the stop F4 in (Table 1) corresponds to about ¼ of the focal length. If the virtual aperture D0 when the average light beam passes through the stop 10 is estimated to be about 1/8 of the focal length, for example, it becomes 12.5 mm under the imaging condition of the focal length of 100 mm. From (Expression 4), the parallax amount of the subject with s = 2100 mm in the state where the focusing distance a = 3100 mm is estimated to be approximately 0.2 mm. This corresponds to about 40 pixels when the pixel interval of the solid-state imaging device 2 is 5 μm.

このような視差量が予め設定しておいた閾値(所定の第1の閾値)よりも大きい場合(ステップS507のNo)、(表1)の中から絞りF4よりも小さな口径の絞り(第二の候補であるF5.6)を適用して再度視差量を見積もる(ステップS508のYes)。所定の第1の閾値以下である場合は、融像可能と判定する(ステップS507のYes)。そして、輻輳角設定手段16は、当該絞りの値、すなわち第1の輻輳角を設定し、第1の撮影に備えたレリーズ待機に進む。   When such a parallax amount is larger than a preset threshold value (predetermined first threshold value) (No in step S507), a diaphragm with a smaller aperture than the diaphragm F4 (second table) is selected from (Table 1). Is applied again to estimate the amount of parallax (Yes in step S508). If it is equal to or less than the predetermined first threshold, it is determined that fusion is possible (Yes in step S507). Then, the convergence angle setting means 16 sets the aperture value, that is, the first convergence angle, and proceeds to the release standby in preparation for the first imaging.

第二の候補を適用した場合の視差量算出に当たっては、第一の候補での見積もり値を参照しつつ、(数4)で視差量はD0に比例することを利用すると簡便である。第二の候補でも融像可能と判断されない場合(ステップS507のNo)、さらに第三の候補を適用してもよい(ステップS508のYes)。もし予め候補に指定された絞りの中に、閾値を満足する条件が存在しなければ(ステップS508のNo)、測光データを利用して、より口径の小さな絞りを使用できるよう、撮影条件を再設定してもよい(ステップS509)。   When calculating the amount of parallax when the second candidate is applied, it is convenient to use the fact that the amount of parallax is proportional to D0 in (Equation 4) while referring to the estimated value of the first candidate. If it is not determined that fusion is possible even with the second candidate (No in step S507), a third candidate may be applied (Yes in step S508). If there is no condition that satisfies the threshold value among the diaphragms designated as candidates in advance (No in step S508), the imaging conditions are re-established so that a diaphragm with a smaller aperture can be used using the photometric data. It may be set (step S509).

以上により適正な絞りと合焦距離とが決定された後、シャッターレリーズボタンが押下(ON)されたか否かを判定する(ステップS510)。シャッターレリーズボタンが押下されていないと判定した場合(ステップS510のNo)は、シャッターレリーズボタンが押下されたと判定されるまでステップS510を繰り返す。一方、シャッターレリーズボタンが押下されたと判定した場合(ステップS510のYes)は、第1の撮影が実行される(ステップS511)。このように、第1の撮影は、最近接被写体の融像可能性を判定し、融像可能な絞りを用いて行う。第1の撮影動作が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS512)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第1の撮影が完了する(ステップS513)。   After the appropriate aperture and focus distance are determined as described above, it is determined whether or not the shutter release button has been pressed (ON) (step S510). If it is determined that the shutter release button has not been pressed (No in step S510), step S510 is repeated until it is determined that the shutter release button has been pressed. On the other hand, if it is determined that the shutter release button has been pressed (Yes in step S510), the first shooting is executed (step S511). As described above, the first photographing is performed by determining the possibility of fusing the closest subject and using the fusing stop. When the first photographing operation is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S512). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 1 is completed (step S513).

次に、ブラケット撮影を許可するか否かにより、許可があれば第2の撮影に移行する(ステップS514のYes)。許可がなければフローを終了する(ステップS514のNo)。第2の撮影は、最も遠い距離に存在する被写体に着目し、その輻輳角をできるだけ大きくする設定で行う。   Next, depending on whether or not to allow bracket shooting, if there is permission, the process proceeds to the second shooting (Yes in step S514). If there is no permission, the flow ends (No in step S514). The second imaging is performed by setting the angle of convergence as large as possible by paying attention to the subject existing at the farthest distance.

第2の撮影に先立って、システム制御部13は、撮影光学系1から最も遠い被写体に視差の変化量がどの程度発生するか確認する(ステップS515)。具体的には、(表1)に示した露出条件の候補と照らし合わせながら演算する。演算には、(数1)を利用し、撮影光学系1から最も遠い被写体までの距離(第2の距離)をs(s>a)とすると、当該被写体の視差量は、
−D0((s−f)/sf)[(sf/(s−f))−(af/(a−f))] (数5)
で表される。ここで符号−は、左右光電変換部間の視差の方向が(数4)の場合とは反対になっていることに対応するものである。
Prior to the second shooting, the system control unit 13 checks how much the amount of parallax change occurs in the subject farthest from the shooting optical system 1 (step S515). Specifically, the calculation is performed while checking against the exposure condition candidates shown in (Table 1). For the calculation, when (Equation 1) is used and the distance (second distance) from the photographing optical system 1 to the farthest subject is s (s> a), the parallax amount of the subject is
−D0 ((s−f) / sf) [(sf / (s−f)) − (af / (a−f))] (Equation 5)
It is represented by Here, “−” corresponds to the fact that the direction of the parallax between the left and right photoelectric conversion units is opposite to that in the case of (Equation 4).

撮影光学系1から最も遠い被写体に視差の変化量がどの程度発生するかは、該最も遠い被写体の奥行き量を確認することで求めることができる。最も単純には、撮影光学系1から最も遠い被写体上の複数の点、すなわち前端までの距離s1および後端までの距離s2とを確認すればよい。   The amount of change in parallax in the subject farthest from the photographic optical system 1 can be determined by confirming the depth of the farthest subject. Most simply, a plurality of points on the object farthest from the photographing optical system 1, that is, a distance s1 to the front end and a distance s2 to the rear end may be confirmed.

その場合、最も遠い被写体の前端s1および後端s2における視差量はそれぞれ、
−D0((s1−f)/s1f)[(s1f/(s1−f))−(af/(a−f))] (数6)
−D0((s2−f)/s2f)[(s2f/(s2−f))−(af/(a−f))] (数7)
で表され、その視差量変化は(数6)と(数7)との差分で得られる。
In that case, the parallax amounts at the front end s1 and the rear end s2 of the farthest subject are respectively
-D0 ((s1-f) / s1f) [(s1f / (s1-f))-(af / (af))] (Equation 6)
-D0 ((s2-f) / s2f) [(s2f / (s2-f))-(af / (af))] (Equation 7)
The change in parallax amount is obtained by the difference between (Equation 6) and (Equation 7).

例えば最も遠い被写体の一つがs=5100mm〜6100mmに分布しているものとする。そうすると、それぞれに対応する視差量は、0.164mm〜0.205mmであって、奥行き方向に1000mmの物体であるにも関わらず前端〜後端までの視差量の変化は0.04mm程度となる。したがって、固体撮像素子2の画素間隔が5μmであれば8画素分の違いしかない。すなわちこのような被写体は第1の撮影の下では、合焦距離よりも奥にある被写体であることは表現されるものの、当該被写体自体の立体感は実際と比較して十分には表現されていなかったのである。そこで、この視差変化量が予め設定された閾値(所定の第2の閾値)よりも小さい場合に遠方被写体の立体感が不足であると判断する(ステップS516のYes)。そして、輻輳角設定手段16は、(表1)の第四もしくは第五の候補、すなわち第2の輻輳角を設定し、第2の撮影に備えたレリーズ待機に進む。他方、遠方被写体の視差量変化が十分である(視差変化量が所定の第2の閾値以上である)と判断された場合はフローを終了する(ステップS516のNo)。第五の候補であるF2であれば口径はF4の2倍であるので、(数5)でわかる通り、当該遠方被写体の視差量の違いは2倍の0.08mmに拡大する。   For example, it is assumed that one of the farthest subjects is distributed in s = 5100 mm to 6100 mm. Then, the parallax amount corresponding to each is 0.164 mm to 0.205 mm, and the change in the parallax amount from the front end to the rear end is about 0.04 mm even though the object is 1000 mm in the depth direction. . Therefore, if the pixel interval of the solid-state imaging device 2 is 5 μm, there is only a difference of 8 pixels. In other words, although it is expressed that such a subject is a subject that is deeper than the in-focus distance under the first shooting, the stereoscopic effect of the subject itself is sufficiently expressed compared to the actual shooting. There was no. Therefore, when the amount of parallax change is smaller than a preset threshold (predetermined second threshold), it is determined that the stereoscopic effect of the distant subject is insufficient (Yes in step S516). Then, the convergence angle setting means 16 sets the fourth or fifth candidate of (Table 1), that is, the second convergence angle, and proceeds to the release standby in preparation for the second imaging. On the other hand, if it is determined that the disparity amount change of the distant subject is sufficient (the disparity change amount is equal to or larger than the predetermined second threshold value), the flow ends (No in step S516). In the case of F5, which is the fifth candidate, the aperture is twice that of F4. Therefore, as can be seen from (Equation 5), the difference in the amount of parallax between the distant subjects is doubled to 0.08 mm.

第2の撮影(ステップS517)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS518)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第2の撮影が完了する(ステップS519)。   When the second imaging (step S517) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S518). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 2 is completed (step S519).

このように第2の撮影は、撮影光学系1からの距離が長い遠方被写体は輻輳角が小さくなってしまうことを考慮して口径Dを設定することに加え、さらに遠方被写体の奥行き量に見合った視差変化量が発生するべく口径Dを設定することができる。なお、本実施例では、第2の撮影において、撮影光学系1から最も遠い被写体の視差の変化量について算出する例を示したが、本発明はこれに限定されず、合焦距離又は合焦距離より遠方の被写体の視差の変化量を算出してもよい。   As described above, in the second photographing, in addition to setting the aperture D in consideration of the fact that the convergence angle is small for a far subject that is a long distance from the photographing optical system 1, it is further commensurate with the depth amount of the far subject. The diameter D can be set so that the amount of parallax change is generated. In the present embodiment, an example in which the amount of change in parallax of a subject farthest from the photographing optical system 1 is calculated in the second shooting is shown, but the present invention is not limited to this, and the focus distance or focus is calculated. You may calculate the variation | change_quantity of the parallax of the to-be-distant subject from distance.

以上に述べた第1の実施例によれば、撮影構図全体につき違和感なく鑑賞できる第1の立体撮影と、注目した被写体や遠方の被写体の立体感を損なわない第2の立体撮影ができる。したがって、例えば、得られた立体画像から遠方の被写体を切り出し保存して、これを鑑賞する場合にも立体感を損なわずに鑑賞することができる。よって各種ユーザーの鑑賞時の要請に応えることができる。   According to the first embodiment described above, it is possible to perform the first stereoscopic shooting that allows the user to appreciate the entire shooting composition without feeling uncomfortable, and the second stereoscopic shooting that does not impair the stereoscopic effect of the subject of interest or a distant subject. Therefore, for example, when a distant subject is cut out and saved from the obtained stereoscopic image and viewed, it can be viewed without impairing the stereoscopic effect. Therefore, it is possible to meet the demands of various users during viewing.

実施例1における第2の撮影による立体画像の用途として、合焦距離もしくはそれよりも遠方の被写体を切り出し保存しての鑑賞することなどが考えられる。切り出し保存するような主要被写体を特定し、その奥行き量に応じて最適な視差量変化を与えることができれば、さらに効果を発揮することができる。   As a use of the stereoscopic image by the second photographing in the first embodiment, it is conceivable to view and view a subject at a focal distance or farther away. If a main subject to be cut out and stored is identified and an optimal change in parallax amount can be given according to the depth amount, the effect can be further exerted.

そこで本実施例では、被写体検知手段18をさらに設けて、合焦距離もしくはそれよりも遠方に主要な被写体があるか否かを判断する。そして、主要な被写体があると判断した場合は、当該主要被写体の奥行き量から視差の変化量を見積もり、これを予め設定された閾値以上となるように撮影する。   Therefore, in this embodiment, subject detection means 18 is further provided to determine whether or not there is a main subject at the in-focus distance or further away. If it is determined that there is a main subject, the amount of change in parallax is estimated from the depth of the main subject, and shooting is performed so that this is equal to or greater than a preset threshold.

図6は、このときの詳細な制御を示すフローである。第1の撮影に関しては実施例1と同等なので簡略化して説明する。第1の撮影(ステップS601)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS602)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第1の撮影が完了する(ステップS603)。   FIG. 6 is a flow showing detailed control at this time. Since the first imaging is the same as in the first embodiment, it will be described in a simplified manner. When the first imaging (step S601) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S602). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 1 is completed (step S603).

次に、ブラケット撮影を許可するか否かにより、許可があれば第2の撮影に移行する(ステップS604のYes)。許可がなければフローを終了する(ステップS604のNo)。   Next, depending on whether or not to allow bracket shooting, if there is permission, the process proceeds to the second shooting (Yes in step S604). If there is no permission, the flow ends (No in step S604).

第2の撮影に先立って、まず被写体検知手段18により、合焦距離aもしくはそれよりも遠方の被写体から、主要被写体を検索する(ステップS605)。そして、システム制御部13は、主要と判断された被写体までの距離(第2の距離)から、当該主要被写体の奥行き量を確認する(ステップS606)。最も単純には、撮影光学系1から主要被写体上の複数の点、すなわち前端までの距離s1および後端までの距離s2とを確認すればよい。   Prior to the second photographing, first, the subject detection means 18 searches for a main subject from subjects at or far from the focusing distance a (step S605). Then, the system control unit 13 confirms the depth amount of the main subject from the distance (second distance) to the subject determined to be main (step S606). Most simply, a plurality of points on the main subject from the photographing optical system 1, that is, a distance s1 to the front end and a distance s2 to the rear end may be confirmed.

次いで、当該主要被写体に視差量およびその変化がどの程度発生するか算出する(ステップS607)。当該主要被写体の視差量は、上述の(数6)および(数7)で表され、その視差量変化は(数6)と(数7)との差分で与えられる。この視差変化量が予め設定された閾値(所定の第2の閾値)よりも小さい場合に当該主要被写体の立体感が不足であると判断する(ステップS608のYes)。そして、輻輳角設定手段16は、絞りを開いた撮影条件(第2の輻輳角)を設定し、第2の撮影に備えたレリーズ待機に進む。他方、当該主要被写体の視差量変化が十分である(視差変化量が閾値以上である)と判断された場合はフローを終了する(ステップS608のNo)。このときの閾値は、被写体の距離もしくは奥行き量に応じたテーブルとして与えられていてもよい。   Next, the amount of parallax and how much the change occurs in the main subject is calculated (step S607). The parallax amount of the main subject is expressed by the above (Equation 6) and (Equation 7), and the change in the parallax amount is given by the difference between (Equation 6) and (Equation 7). When the amount of parallax change is smaller than a preset threshold (predetermined second threshold), it is determined that the stereoscopic effect of the main subject is insufficient (Yes in step S608). Then, the convergence angle setting means 16 sets the photographing condition (second convergence angle) with the aperture opened, and proceeds to the release standby in preparation for the second photographing. On the other hand, if it is determined that the parallax amount change of the main subject is sufficient (the parallax change amount is greater than or equal to the threshold value), the flow ends (No in step S608). The threshold value at this time may be given as a table corresponding to the distance or depth of the subject.

第2の撮影(ステップS609)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS610)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第2の撮影が完了する(ステップS611)。   When the second imaging (step S609) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S610). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 2 is completed (step S611).

以上に述べた第2の実施例によれば、第2の立体撮影において、撮影光学系1からの距離が長い主要被写体は輻輳角が小さくなってしまうことを考慮するに加え、主要被写体の奥行き量に応じた視差変化量をもたらすことが可能となる。   According to the second embodiment described above, in the second stereoscopic photographing, in addition to considering that the main subject having a long distance from the photographing optical system 1 has a smaller convergence angle, the depth of the main subject is also considered. It becomes possible to bring about a parallax change amount according to the amount.

本実施例においても、撮影構図全体につき違和感なく鑑賞できる第1の立体撮影と、注目した主要被写体や遠方の主要被写体の立体感を損なわない第2の立体撮影ができる。したがって、例えば、得られた立体画像から遠方の主要被写体を切り出し保存して、これを鑑賞する場合にも立体感を損なわずに鑑賞することができる。よって各種ユーザーの鑑賞時の要請に応えることができる。   Also in the present embodiment, the first stereoscopic shooting that allows the entire shooting composition to be viewed without a sense of incongruity, and the second stereoscopic shooting that does not impair the stereoscopic effect of the focused main subject or the distant main subject can be performed. Therefore, for example, when a distant main subject is cut out and saved from the obtained stereoscopic image and viewed, it can be viewed without impairing the stereoscopic effect. Therefore, it is possible to meet the demands of various users during viewing.

なお、実施例2における第2の撮影は、主要と考えられる複数の被写体に対して、複数枚実行してもよい。   Note that the second shooting in the second embodiment may be executed for a plurality of subjects considered to be main.

図7(b)は、図7(a)に示す部分概略断面図である固体撮像素子2の左側の光電変換部20Lの受光角度ごとの感度、すなわち瞳強度分布を例示したものである。図7(a)の紙面に平行な面内で、マイクロレンズ21の頂点に立てた垂線とのなす角度θは、図3のθと同義の光入射角度である。図7(b)では、光入射角度θを横軸にとって、光入射角度θごとの感度を縦軸にとり、左側の光電変換部20Lの瞳強度分布を表示すると、図7(b)の符号90のように表される。感度の高い角度範囲θ1≦θ≦θ2が、絞り10等で制限された撮影光学系1の口径Dから(数8)のように計算できる角度範囲θmaxと同程度に広ければ、輻輳角を規定する角度範囲は左側の光電変換部20Lの制限を受けることはない。そのため、本実施形態の理論は成り立つ。   FIG. 7B illustrates the sensitivity for each light receiving angle of the photoelectric conversion unit 20L on the left side of the solid-state imaging device 2 that is the partial schematic cross-sectional view illustrated in FIG. 7A, that is, the pupil intensity distribution. An angle θ formed with a perpendicular line standing at the apex of the microlens 21 in a plane parallel to the paper surface of FIG. 7A is a light incident angle having the same meaning as θ in FIG. In FIG. 7B, the light incident angle θ is the horizontal axis, the sensitivity for each light incident angle θ is the vertical axis, and the pupil intensity distribution of the left photoelectric conversion unit 20L is displayed. It is expressed as If the highly sensitive angle range θ1 ≦ θ ≦ θ2 is as wide as the angle range θmax that can be calculated from the aperture D of the photographing optical system 1 limited by the aperture 10 or the like as in (Equation 8), the convergence angle is defined. The angle range to be applied is not limited by the photoelectric conversion unit 20L on the left side. Therefore, the theory of this embodiment holds.

tanθmax=D/2b (数8)
ここでbは結像距離を表す。右側の光電変換部20Rについても同様である。
tan θmax = D / 2b (Equation 8)
Here, b represents the imaging distance. The same applies to the photoelectric conversion unit 20R on the right side.

反対に、
θ2<<θmax (数9)
などのように、光電変換部の受光可能な角度範囲がθmaxより著しく小さい場合は、試算した通りに視差変化量を拡大することはできない。さらに、試算の通りに絞り開放側で撮影することは、露出範囲の観点で自由度が減少する不利点も多い。この理由は、光入射角度範囲が制限されていることに対応して、通常感度ゲインなどで別途信号レベルを補っているので、結局、高速シャッターもしくは低いISO感度にシフトした撮影しかできないからである。
Conversely,
θ2 << θmax (Equation 9)
As described above, when the angular range in which the photoelectric conversion unit can receive light is significantly smaller than θmax, the parallax change amount cannot be increased as calculated. Furthermore, as estimated, photographing on the wide open side has many disadvantages in that the degree of freedom is reduced in terms of exposure range. This is because the signal level is supplemented separately by a normal sensitivity gain in response to the limited light incident angle range, so that only high-speed shutters or shooting with a low ISO sensitivity can be performed after all. .

そこで、本実施例においては、第2の撮影における口径Dの設定時に、光電変換部の瞳強度分布を考慮して光入射角度を制限するステップを加えている。   Therefore, in this embodiment, a step of limiting the light incident angle in consideration of the pupil intensity distribution of the photoelectric conversion unit is added when setting the aperture D in the second imaging.

図8は、このときの詳細な制御を示すフローである。   FIG. 8 is a flow showing detailed control at this time.

第1の撮影に関しては実施例1と同等なので簡略化して説明する。第1の撮影(ステップS801)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS802)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第1の撮影が完了する(ステップS803)。   Since the first imaging is the same as in the first embodiment, it will be described in a simplified manner. When the first imaging (step S801) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S802). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 1 is completed (step S803).

次に、ブラケット撮影を許可するか否かにより、許可があれば第2の撮影に移行する(ステップS804のYes)。許可がなければフローを終了する(ステップS804のNo)。   Next, depending on whether or not to allow bracket shooting, if there is permission, the process proceeds to the second shooting (Yes in step S804). If there is no permission, the flow ends (No in step S804).

第2の撮影に関しても、ステップS805〜ステップS808までのフローは、実施例2と共通である。すなわち、ステップS804のYesの後は、主要被写体を検索し(ステップS805)、主要被写体の距離および奥行き量を確認する(ステップS806)。次いで、主要被写体の視差変化量を算出し(ステップS807)、当該視差変化量を予め設定された閾値と比較する(ステップS808)。この視差変化量が予め設定された閾値よりも小さい場合には、当該主要被写体の立体感が不足であると判断する(ステップS808のYes)。そして、輻輳角設定手段16は、絞りを開いた撮影条件(第2の輻輳角)を設定し、第2の撮影に備えたレリーズ待機に進む。他方、当該主要被写体の視差量変化が十分である(視差変化量が閾値以上である)と判断された場合はフローを終了する(ステップS808のNo)。このときの閾値は、被写体の距離もしくは奥行き量に応じたテーブルとして与えられていてもよい。   Regarding the second imaging, the flow from step S805 to step S808 is the same as that in the second embodiment. That is, after Yes in step S804, the main subject is searched (step S805), and the distance and depth amount of the main subject are confirmed (step S806). Next, the parallax change amount of the main subject is calculated (step S807), and the parallax change amount is compared with a preset threshold value (step S808). If the parallax change amount is smaller than a preset threshold value, it is determined that the stereoscopic effect of the main subject is insufficient (Yes in step S808). Then, the convergence angle setting means 16 sets the photographing condition (second convergence angle) with the aperture opened, and proceeds to the release standby in preparation for the second photographing. On the other hand, if it is determined that the change in the amount of parallax of the main subject is sufficient (the amount of change in parallax is greater than or equal to the threshold value), the flow ends (No in step S808). The threshold value at this time may be given as a table corresponding to the distance or depth of the subject.

ステップS808のYesの後は、(数8)にしたがって、撮影光学系1の口径Dを通る最大光入射角度θmaxを求める(ステップS809)。θmaxを、センサー特性により予め設定された閾値(所定の第3の閾値)θ2と比較し、θmaxがθ2よりも小さい場合は第2の撮影に進む(ステップS810のYes)。他方、θmaxがθ2を上回った場合(もしくは、θ2を著しく上回った場合)は(ステップS810のNo)、撮影条件を再設定する(ステップS811)。ステップS811の後は、ステップS807に戻る。   After Yes in step S808, the maximum light incident angle θmax passing through the aperture D of the photographing optical system 1 is obtained according to (Equation 8) (step S809). θmax is compared with a threshold value (predetermined third threshold value) θ2 set in advance according to the sensor characteristics. If θmax is smaller than θ2, the process proceeds to the second imaging (Yes in step S810). On the other hand, when θmax exceeds θ2 (or when it significantly exceeds θ2) (No in step S810), the imaging condition is reset (step S811). After step S811, the process returns to step S807.

第2の撮影(ステップS812)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS813)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第2の撮影が完了する(ステップS814)。   When the second imaging (step S812) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S813). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 2 is completed (step S814).

本実施例では、実施例2との差を明確にするため、図8のステップS809やステップS810のような判断ステップを設けることを特徴として説明した。しかし、本実施例は、センサー特性に応じたθ2を著しく超えないよう調節しながら口径Dを設定することが特徴であって、上述したような判断ステップの構成にはとらわれない。例えばセンサーが固定であれば、(数8)および(数9)より口径Dを規定する条件は撮影光学系1の結像距離bのみとなる。このような場合は撮影光学系1により定められた所定値以上とならないように口径Dを設定するだけでよい。   In the present embodiment, in order to clarify the difference from the second embodiment, it has been described as a feature that a determination step such as step S809 or step S810 in FIG. 8 is provided. However, this embodiment is characterized in that the aperture D is set while adjusting so as not to significantly exceed θ2 according to the sensor characteristics, and is not limited to the configuration of the determination step as described above. For example, if the sensor is fixed, the condition for defining the aperture D from (Equation 8) and (Equation 9) is only the imaging distance b of the photographing optical system 1. In such a case, it is only necessary to set the aperture D so as not to exceed a predetermined value determined by the photographing optical system 1.

以上に述べた第3の実施例によれば、第2の立体撮影において、不用意に開放絞りを適用することなく、主要被写体の撮影光学系1からの距離や奥行き量に応じた視差変化量をもたらすことが可能となる。   According to the third embodiment described above, the amount of parallax change according to the distance and depth of the main subject from the photographing optical system 1 without inadvertently applying an open aperture in the second stereoscopic photographing. It becomes possible to bring

実施例1〜3では、第2の撮影で使用する口径の大きな絞りによって被写界深度が浅くなり、合焦距離よりも遠方の主要被写体に対しピントが合わなくなるといった問題が発生する可能性がある。   In the first to third embodiments, there is a possibility that the depth of field becomes shallow due to the large aperture used in the second shooting, and the main subject farther than the in-focus distance cannot be focused. is there.

そこで、本実施例においては、第2の撮影における口径Dの設定時に、撮影光学系1の被写界深度を考慮して合焦距離を再設定するステップを加えている。   Therefore, in this embodiment, a step of resetting the focusing distance in consideration of the depth of field of the photographing optical system 1 is added when the aperture D is set in the second photographing.

図9は、このときの詳細な制御を示すフローである。   FIG. 9 is a flow showing detailed control at this time.

第1の撮影に関しては実施例1と同等なので簡略化して説明する。第1の撮影(ステップS901)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS902)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第1の撮影が完了する(ステップS903)。   Since the first imaging is the same as in the first embodiment, it will be described in a simplified manner. When the first imaging (step S901) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S902). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 1 is completed (step S903).

次に、ブラケット撮影を許可するか否かにより、許可があれば第2の撮影に移行する(ステップS904のYes)。許可がなければフローを終了する(ステップS904のNo)。   Next, depending on whether or not the bracket shooting is permitted, if there is permission, the process proceeds to the second shooting (Yes in step S904). If there is no permission, the flow ends (No in step S904).

第2の撮影に関しても、ステップS905〜ステップS908までのフローは、実施例2又は3と共通である。すなわち、ステップS904のYesの後は、主要被写体を検索し(ステップS905)、主要被写体の距離および奥行き量を確認する(ステップS906)。次いで、主要被写体の視差変化量を算出し(ステップS907)、当該視差変化量を予め設定された閾値と比較する(ステップS908)。この視差変化量が予め設定された閾値よりも小さい場合には、当該主要被写体の立体感が不足であると判断する(ステップS908のYes)。そして、輻輳角設定手段16は、絞りを開いた撮影条件(第2の輻輳角)を設定し、第2の撮影に備えたレリーズ待機に進む。他方、当該主要被写体の視差量変化が十分である(視差変化量が閾値以上である)と判断された場合はフローを終了する(ステップS908のNo)。このときの閾値は、被写体の距離もしくは奥行き量に応じたテーブルとして与えられていてもよい。   Regarding the second imaging, the flow from step S905 to step S908 is the same as that in the second or third embodiment. That is, after Yes in step S904, the main subject is searched (step S905), and the distance and depth amount of the main subject are confirmed (step S906). Next, a parallax change amount of the main subject is calculated (step S907), and the parallax change amount is compared with a preset threshold value (step S908). If this parallax change amount is smaller than a preset threshold value, it is determined that the stereoscopic effect of the main subject is insufficient (Yes in step S908). Then, the convergence angle setting means 16 sets the photographing condition (second convergence angle) with the aperture opened, and proceeds to the release standby in preparation for the second photographing. On the other hand, if it is determined that the change in the amount of parallax of the main subject is sufficient (the amount of change in parallax is greater than or equal to the threshold value), the flow ends (No in step S908). The threshold value at this time may be given as a table corresponding to the distance or depth of the subject.

次に、(数10)にしたがって、撮影光学系1の後方被写界深度を求める(ステップS909)。   Next, the rear depth of field of the photographing optical system 1 is obtained according to (Equation 10) (step S909).

(a−f)/(fD/δ−a) (数10)
ここで、aは合焦距離、fは撮影光学系1の焦点距離、Dは撮影光学系1の口径、δは許容錯乱円である。
(Af) 2 / (fD / δ-a) (Equation 10)
Here, a is the focusing distance, f is the focal length of the photographing optical system 1, D is the aperture of the photographing optical system 1, and δ is an allowable circle of confusion.

主要被写体が被写界深度内に収まっていると判断できた場合は第2の撮影に進む(ステップS910のYes)。被写界深度に収まらない(もしくは、著しく被写界深度に収まらない)と判断された場合は(ステップS910のNo)、合焦距離を再設定し(ステップS911)、次のステップS912の第2の撮影へと進む。被写界深度内に収まっているかどうかの閾値には、主要被写体にどの程度の高周波成分が含まれているかを加味して上下させてもよい。主要被写体に高周波成分が多く含まれている場合は、特に合焦距離の再設定が効果的となる。   If it can be determined that the main subject is within the depth of field, the process proceeds to the second shooting (Yes in step S910). If it is determined that it does not fall within the depth of field (or does not fall significantly within the depth of field) (No in step S910), the in-focus distance is reset (step S911), and the next step S912 is performed. Proceed to the second shooting. The threshold for determining whether or not the depth of field is within the range may be increased or decreased in consideration of how much high frequency components are included in the main subject. If the main subject contains a lot of high frequency components, it is particularly effective to reset the in-focus distance.

第2の撮影(ステップS912)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS913)。次いで信号処理回路7により、光電変換部20Lの集合による画像と20Rの集合による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第2の撮影が完了する(ステップS914)。   When the second imaging (step S912) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S913). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image formed by the set of photoelectric conversion units 20L and the image formed by the set of 20R, and is recorded on the recording medium 10 to be recorded. 2 is completed (step S914).

以上に述べた第4の実施例によれば、第2の立体撮影において、視差変化量を拡大したい主要被写体のピント状態を維持することが可能となる。さらに、合焦距離を再設定して絞りを開放にすれば、撮影光学系1に近い被写体はそもそもピントが合わなくなるので、視差量が過大になってしまっても違和感なく鑑賞できるという副次的な効果もある。   According to the fourth embodiment described above, in the second stereoscopic shooting, it is possible to maintain the focus state of the main subject for which the amount of parallax change is to be enlarged. Furthermore, if the in-focus distance is reset and the aperture is opened, the subject close to the photographic optical system 1 will not be able to focus in the first place. Therefore, even if the amount of parallax becomes excessive, it is possible to view without discomfort. There are also positive effects.

第3の実施例は、すなわち口径Dを所定以下に制限する撮影条件を求め、第4の実施例は、すなわち口径Dを所定以上に拡大できるよう合焦距離を再設定する側面を持つ。第2の撮影における視差を拡大する目的からは、第4の実施例を基本として口径Dを拡大することが望ましいことが多い。ただし、ある口径以上となった場合の過大な角度の光入射を回避する目的で、さらに第3の実施例のような制限を付加するとよい。   The third embodiment obtains a photographing condition that restricts the aperture D to a predetermined value or less, and the fourth embodiment has a side surface that resets the in-focus distance so that the aperture D can be enlarged to a predetermined value or more. For the purpose of enlarging the parallax in the second shooting, it is often desirable to enlarge the aperture D on the basis of the fourth embodiment. However, for the purpose of avoiding light incident at an excessive angle when the aperture is larger than a certain diameter, it is preferable to add a restriction as in the third embodiment.

これまで、撮影光学系1と図2に示した単位画素内に複数の光電変換部を備えた固体撮像素子2とを使用した、立体画像撮像の課題と解決方法について述べてきた。しかし、本実施形態の一部は、必ずしもこのような撮像系の前提を必要とせず、いわゆるステレオカメラ式の立体画像撮像装置にも適用可能である。本実施例では、その適用例について述べる。   Up to now, there have been described problems and solutions for stereoscopic imaging using the imaging optical system 1 and the solid-state imaging device 2 having a plurality of photoelectric conversion units in the unit pixel shown in FIG. However, a part of the present embodiment does not necessarily require such an imaging system, and can also be applied to a so-called stereo camera type stereoscopic image capturing apparatus. In this embodiment, an application example will be described.

図10(a)は、ステレオカメラ式の立体画像撮像装置による撮像例を示す平面図である。1000〜1002は、被写界に含まれ、奥行き方向に分散する被写体を表す。1003および1004は、右および左それぞれの視点に対応する撮像部であり、各々独立に撮影光学系と固体撮像素子を含む。本実施例での固体撮像素子は、図2のような構成を必須としない。1003および1004の間の距離Dを基線長と呼ぶことがある。また、図10(a)では1003と1004からの視点がちょうど被写体1001で交差している。このような交差点を輻輳点と呼ぶことがある。また、1003からの視線と1004からの視線が交差する角度αを輻輳角と呼ぶことがある。また、輻輳点を含む面Rを基準面と呼ぶことがある。1005は、右側の視点からの撮像画面を模式的に示したものである。   FIG. 10A is a plan view illustrating an example of imaging by a stereo camera-type stereoscopic image capturing apparatus. 1000 to 1002 represent subjects included in the object scene and dispersed in the depth direction. Reference numerals 1003 and 1004 denote imaging units corresponding to the right and left viewpoints, and each independently includes a photographing optical system and a solid-state imaging element. The solid-state imaging device in the present embodiment does not necessarily have the configuration shown in FIG. The distance D between 1003 and 1004 may be referred to as the baseline length. Further, in FIG. 10A, the viewpoints from 1003 and 1004 intersect just at the subject 1001. Such an intersection may be referred to as a convergence point. In addition, an angle α at which the line of sight from 1003 and the line of sight from 1004 intersect may be referred to as a convergence angle. Further, the surface R including the convergence point may be referred to as a reference surface. Reference numeral 1005 schematically shows an imaging screen from the right viewpoint.

被写体の倍率は使用しているレンズの焦点距離等により異なるが、図10(a)に示す二つの撮像部の間の基線長Dおよび輻輳角φにより、右側の視点1003から見て、被写体1000との間は矢線1007の分だけ離れたものとして結像される。また、右側の視点1003から見て、被写体1002との間は矢線1006の分だけ離れたものとして結像される。これらの視差の方向が、左側の視点では反対になっていることを利用して、立体画像撮像を行うものである。なお、図10には図示していないが、本実施例のステレオカメラ式の立体画像撮像装置には、撮像部1003と撮像部1004を回転制御することで、当該複数の撮像部の輻輳角を調整・設定する輻輳角設定手段が設けられている。また、撮像部1003と撮像部1004との間の間隔を調整・設定する間隔設定手段が設けられている。   Although the magnification of the subject varies depending on the focal length of the lens used, the subject 1000 is viewed from the right viewpoint 1003 due to the base line length D and the convergence angle φ between the two imaging units shown in FIG. Are imaged as being separated by an arrow line 1007. Further, the image is formed as being separated from the subject 1002 by an arrow line 1006 when viewed from the right viewpoint 1003. Taking advantage of the fact that these parallax directions are opposite from the viewpoint on the left side, stereoscopic image capturing is performed. Although not shown in FIG. 10, in the stereo camera-type stereoscopic image capturing apparatus of the present embodiment, the angle of convergence of the plurality of image capturing units is controlled by rotating the image capturing unit 1003 and the image capturing unit 1004. A convergence angle setting means for adjusting and setting is provided. In addition, interval setting means for adjusting and setting the interval between the imaging unit 1003 and the imaging unit 1004 is provided.

図10(b)は、図10(a)の基線長Dを長くし、被写体1001を基準面としたまま輻輳角φを大きくした撮像例を示す平面図である。基準面よりも手前の被写体1000や後方の被写体1002との視差量を表す矢線1007および1006が長くなっていることがわかる。他の実施例で既に述べたように、視差量の大きい撮影条件および小さい撮影条件には、それぞれに利点がある。比較的視差量を小さくすれば、手前の被写体1000も、後方の被写体1002も、無理なく立体視を行うことができるのに対し、基準面付近の被写体1001の立体感は乏しいものとなりがちである。反対に視差量を大きくすれば、被写体1001の立体感を拡大することは可能であるが、手前の被写体1000や後方の被写体1002の視差量が大きすぎ、立体視鑑賞時に融像できなくなる可能性もある。   FIG. 10B is a plan view illustrating an imaging example in which the base line length D of FIG. 10A is increased and the convergence angle φ is increased with the subject 1001 as a reference plane. It can be seen that the arrows 1007 and 1006 representing the amount of parallax between the subject 1000 in front of the reference plane and the subject 1002 behind are longer. As already described in other embodiments, the shooting conditions with a large amount of parallax and the shooting conditions with a small amount of parallax have advantages. If the amount of parallax is relatively small, both the subject 1000 in the foreground and the subject 1002 in the back can reasonably perform stereoscopic viewing, whereas the subject 1001 near the reference plane tends to have poor stereoscopic effect. . Conversely, if the amount of parallax is increased, the stereoscopic effect of the subject 1001 can be expanded, but the amount of parallax of the subject 1000 in the foreground and the subject 1002 in the back may be too large, and fusion may not be possible during stereoscopic viewing. There is also.

そこで、本実施例においては、撮影構図に含まれる被写体の視差量に制限を設けるための第1の撮影を行う一方で、基準面近傍にある被写体の視差量をできるだけ大きくするための第2の撮影を行う。   Therefore, in the present embodiment, the first shooting for limiting the amount of parallax of the subject included in the shooting composition is performed, while the second for increasing the amount of parallax of the subject near the reference plane as much as possible. Take a picture.

図11は、このときの詳細な制御を示すフローである。   FIG. 11 is a flow showing detailed control at this time.

図1に図示しないスイッチによりメイン電源がオンされ、次にシステム制御部13の電源がオンされる(ステップS1101)。   The main power supply is turned on by a switch not shown in FIG. 1, and then the power supply of the system control unit 13 is turned on (step S1101).

次に、メカニカルシャッターを開き、固体撮像素子2に駆動設定信号を与える(ステップS1102)。これにより、ライブの画像を画像表示装置12に連続的に映し出すモードが実行可能となると同時に、連続的に取得される画像を使って測光し、撮影に使用する露出を調整する、いわゆる自動露出調整動作(AE)も可能となる(ステップS1103)。AEの詳細に関しては、他の実施例と共通なので省略する。   Next, the mechanical shutter is opened, and a drive setting signal is given to the solid-state imaging device 2 (step S1102). As a result, a mode in which a live image is continuously displayed on the image display device 12 can be executed, and at the same time, photometry is performed using continuously acquired images and exposure used for photographing is adjusted, so-called automatic exposure adjustment. Operation (AE) is also possible (step S1103). Details of AE are omitted because they are common to the other embodiments.

次に、2段階のストロークを有するシャッターレリーズボタン(不図示)のファーストストロークが行われたか否かを判定する(ステップS1104)。ファーストストロークが行われたと判定した場合は、被写体にピントが合うように焦点調節用レンズを自動的に駆動する焦点位置調整、いわゆるオートフォーカス(AF)が開始される(ステップS1105)。一方、ファーストストロークが行われていないと判定した場合はステップS1103に戻り、ステップS1103〜ステップS1104の動作を繰り返し行う。AFの詳細に関しても、他の実施例と共通なので省略する。AFでは、被写体の距離情報が取得できるので、これを後述する第1の撮影と第2の撮影に利用する。   Next, it is determined whether or not a first stroke of a shutter release button (not shown) having a two-stage stroke has been performed (step S1104). If it is determined that the first stroke has been performed, focus position adjustment for automatically driving the focus adjustment lens so as to focus on the subject, so-called autofocus (AF) is started (step S1105). On the other hand, if it is determined that the first stroke is not performed, the process returns to step S1103, and the operations of steps S1103 to S1104 are repeated. The details of AF are also omitted since they are common to the other embodiments. In AF, since distance information of a subject can be acquired, this is used for first and second imaging described later.

第1の撮影に先立って、システム制御部13は、撮影構図に含まれる被写体の奥行き量を確認しつつ、設定可能な輻輳角の範囲を算出する。まず、固体撮像素子2の対角サイズy、焦点距離f、基準面までの距離sなどの被写体距離情報および光学情報を取得し(ステップS1106)、左右の撮像部1003および1004が撮影する対角空間の大きさを算出する(ステップS1107)。対角空間の大きさは、おおよそ
y×s/f (数11)
で表される。このような対角空間に比して過大な視差量を与えると融像できなくなってしまう。そこで、(数11)の関数である、許容可能な最大の最大許容視差量Dif1を求める(ステップS1108)。
Prior to the first imaging, the system control unit 13 calculates a settable convergence angle range while confirming the depth of the subject included in the imaging composition. First, subject distance information and optical information such as the diagonal size y, the focal length f, and the distance s to the reference plane of the solid-state imaging device 2 are acquired (step S1106), and the diagonal images taken by the left and right imaging units 1003 and 1004 are captured. The size of the space is calculated (step S1107). The size of the diagonal space is approximately y × s / f (Equation 11)
It is represented by If an excessive amount of parallax is provided as compared to such a diagonal space, fusion cannot be performed. Therefore, the maximum allowable maximum parallax amount Dif1 which is a function of (Equation 11) is obtained (step S1108).

次に、輻輳角設定手段16が、輻輳角を算出し、設定する(ステップS1109)。撮像部1003および1004の中点から、最も近い被写体までの距離をs1、最も遠い被写体までの距離をs2とすると、撮影空間上での最大の視差量は輻輳角の正弦に(s2−s1)をかけたものとなるから、設定可能な輻輳角を、次のように演算する。   Next, the convergence angle setting means 16 calculates and sets the convergence angle (step S1109). Assuming that the distance from the midpoint of the imaging units 1003 and 1004 to the closest subject is s1, and the distance to the farthest subject is s2, the maximum amount of parallax in the shooting space is the sine of the convergence angle (s2-s1) Therefore, the settable convergence angle is calculated as follows.

φ=Arcsin[Dif1/(s2−s1)] (数12)
輻輳角設定手段16がこの輻輳角に設定した後、撮影に備えたレリーズ待機に進む。
φ = Arcsin [Dif1 / (s2-s1)] (Equation 12)
After the convergence angle setting means 16 sets the convergence angle, the process proceeds to a release standby in preparation for photographing.

次のステップでは、シャッターレリーズボタンが押下(ON)されたか否かを判定する(ステップS1110)。シャッターレリーズボタンが押下されていないと判定した場合(ステップS1110のNo)は、シャッターレリーズボタンが押下されたと判定されるまでステップS1110を繰り返す。一方、シャッターレリーズボタンが押下されたと判定した場合(ステップS1110のYes)は、第1の撮影が実行される(ステップS1111)。このように、第1の撮影は、撮影構図に含まれる被写体全ての融像可能性を判定し、融像可能な輻輳角を用いて行う。第1の撮影動作が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS1112)。次いで信号処理回路7により、撮像部1003による画像と撮像部1004による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第1の撮影が完了する(ステップS1113)。   In the next step, it is determined whether or not the shutter release button has been pressed (ON) (step S1110). If it is determined that the shutter release button has not been pressed (No in step S1110), step S1110 is repeated until it is determined that the shutter release button has been pressed. On the other hand, if it is determined that the shutter release button has been pressed (Yes in step S1110), the first shooting is executed (step S1111). As described above, the first imaging is performed by determining the possibility of fusion of all the subjects included in the imaging composition and using the convergence angle at which fusion is possible. When the first photographing operation is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S1112). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image captured by the image capturing unit 1003 and the image captured by the image capturing unit 1004, and is recorded on the recording medium 10 to be subjected to the first photographing. Is completed (step S1113).

次に、ブラケット撮影を許可するか否かにより、許可があれば第2の撮影に移行する(ステップS1114のYes)。許可がなければフローを終了する(ステップS1114のNo)。第2の撮影は、基準面付近から主要被写体を検索し、その輻輳角をできるだけ大きくする設定で行う。   Next, depending on whether or not the bracket shooting is permitted, if there is permission, the process proceeds to the second shooting (Yes in step S1114). If there is no permission, the flow ends (No in step S1114). The second imaging is performed by searching for the main subject from the vicinity of the reference plane and setting the convergence angle as large as possible.

第2の撮影に先立って、まず被写体検知手段18により、基準面近傍の被写体から、主要被写体を検索する(ステップS1115)。そして、システム制御部13は、主要と判断された被写体までの距離から、当該主要被写体の奥行き量を確認する(ステップS1116)。最も単純には、撮像部1003および1004の中点から、主要被写体1001の前端までの距離と後端までの距離との差分Δsを確認すればよい。   Prior to the second shooting, first, the subject detection means 18 searches for a main subject from subjects near the reference plane (step S1115). Then, the system control unit 13 confirms the depth amount of the main subject from the distance to the subject determined to be main (step S1116). Most simply, the difference Δs between the distance from the midpoint of the imaging units 1003 and 1004 to the front end of the main subject 1001 and the distance to the rear end may be confirmed.

次いで、当該主要被写体に撮影空間上で発生する視差量の変化から、設定可能な輻輳角の範囲を見積もり、輻輳角を決定する(ステップS1117)。下式で、Dif2は、Dif1とは異なり、立体感を拡大するために必要な最小の視差量として与えられ、必ずしも撮影対角空間を表す(数11)に依存していなくてもよい。輻輳角設定手段16は、輻輳角φを(数12)に準じて、(数13)のように演算する。   Next, the range of the convergence angle that can be set is estimated from the change in the amount of parallax generated in the imaging space for the main subject, and the convergence angle is determined (step S1117). In the following equation, Dif2 is given as the minimum amount of parallax necessary to expand the stereoscopic effect, unlike Dif1, and does not necessarily depend on (Equation 11) representing the imaging diagonal space. The convergence angle setting means 16 calculates the convergence angle φ according to (Equation 12) as shown in (Equation 13).

φ=Arcsin[Dif2/Δs] (数13)
第2の撮影(ステップS1118)が完了すると、固体撮像素子2の出力信号を読み出し、A/D変換器4でA/D変換が行われる(ステップS1119)。次いで信号処理回路7により、撮像部1003による画像と撮像部1004による画像とのそれぞれに対し、ホワイトバランス、ガンマ補正などの各種信号処理が行われて、記録媒体10に記録されて第2の撮影が完了する(ステップS1120)。
φ = Arcsin [Dif2 / Δs] (Equation 13)
When the second imaging (step S1118) is completed, the output signal of the solid-state imaging device 2 is read, and A / D conversion is performed by the A / D converter 4 (step S1119). Next, the signal processing circuit 7 performs various signal processing such as white balance and gamma correction on each of the image captured by the image capturing unit 1003 and the image captured by the image capturing unit 1004, and is recorded on the recording medium 10 to be second photographed. Is completed (step S1120).

以上に述べた第5の実施例によれば、撮影構図全体につき違和感なく鑑賞できる第1の立体撮影と、基準面近傍の主要被写体の立体感を損なわない第2の立体撮影ができる。したがって、例えば、得られた立体画像から基準面近傍の被写体を切り出し保存して、これを鑑賞する場合にも立体感を損なわずに鑑賞することができる。よって各種ユーザーの鑑賞時の要請に応えることができる。   According to the fifth embodiment described above, it is possible to perform the first stereoscopic shooting that allows the user to appreciate the entire shooting composition without feeling uncomfortable and the second stereoscopic shooting that does not impair the stereoscopic effect of the main subject near the reference plane. Therefore, for example, when a subject near the reference plane is cut out and saved from the obtained stereoscopic image and viewed, it can be viewed without impairing the stereoscopic effect. Therefore, it is possible to meet the demands of various users during viewing.

以上、好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず適用可能である。また、その要旨の範囲内で種々の変形及び変更が可能である。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
The preferred embodiments have been described above, but the present invention is not limited to these embodiments and can be applied. Various modifications and changes can be made within the scope of the gist.
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

本発明は、ステレオカメラ式あるいは一眼レフカメラなどの立体画像撮像装置に好適に利用できる。   The present invention can be suitably used for a stereoscopic image capturing apparatus such as a stereo camera type or a single-lens reflex camera.

13・・・システム制御部
16・・・輻輳角設定手段
17・・・被写体距離計測手段
20L・・・固体撮像素子2の単位画素に含まれる左側の光電変換部
20R・・・固体撮像素子2の単位画素に含まれる右側の光電変換部
1203・・・右側撮像部
1204・・・左側撮像部
DESCRIPTION OF SYMBOLS 13 ... System control part 16 ... Convergence angle setting means 17 ... Subject distance measurement means 20L ... Left photoelectric conversion part 20R contained in the unit pixel of the solid-state image sensor 2 ... Solid-state image sensor 2 Right-side photoelectric conversion unit 1203... Right-side imaging unit 1204.

Claims (11)

異なる複数の視点から被写体を撮像する複数の撮像手段と、
前記複数の撮像手段の間の輻輳角を設定する輻輳角設定手段と、
前記撮像手段から前記被写体までの距離を計測する被写体距離計測手段と、
前記撮像手段を用いて第1の撮影と第2の撮影を行う制御部と、を有し、
前記複数の撮像手段は、撮像素子の1画素内に設けられた複数の光電変換部であり、
前記輻輳角設定手段は、
前記第1の撮影において、前記被写体距離計測手段にて計測された前記距離のうち前記撮像手段に最も近い第1の距離にある点が撮像面上でなす視差量を、所定の第1の閾値以下とするように、第1の輻輳角を設定し、
前記第2の撮影において、前記被写体距離計測手段にて計測された前記距離のうち前記第1の距離よりも遠い第2の距離にある被写体上の複数の点が撮像面上でなす視差変化量を、所定の第2の閾値以上とするように、かつ、前記光電変換部への最大光入射角度を算出し、前記最大光入射角度が所定の第3の閾値よりも小さくなるように、前記第1の輻輳角とは異なる第2の輻輳角を設定することを特徴とする立体画像撮像装置。
A plurality of imaging means for imaging a subject from a plurality of different viewpoints;
A convergence angle setting means for setting a convergence angle between the plurality of imaging means;
Subject distance measuring means for measuring the distance from the imaging means to the subject;
A control unit that performs first imaging and second imaging using the imaging unit;
The plurality of imaging means are a plurality of photoelectric conversion units provided in one pixel of the imaging element,
The convergence angle setting means includes:
In the first photographing, a parallax amount formed on the imaging surface by a point at the first distance closest to the imaging means among the distances measured by the subject distance measuring means is a predetermined first threshold value. Set the first convergence angle to be
In the second shooting, the amount of parallax change made on the imaging surface by a plurality of points on the subject at a second distance farther than the first distance among the distances measured by the subject distance measurement unit Is equal to or greater than a predetermined second threshold, and the maximum light incident angle on the photoelectric conversion unit is calculated, and the maximum light incident angle is smaller than a predetermined third threshold. A stereoscopic image capturing apparatus, wherein a second convergence angle different from the first convergence angle is set.
前記第2の距離は、前記撮像手段から最も遠い距離であることを特徴とする請求項1に記載の立体画像撮像装置。   The stereoscopic image capturing apparatus according to claim 1, wherein the second distance is a distance farthest from the imaging unit. 前記被写体を検知する被写体検知手段をさらに備え、
前記輻輳角設定手段は、
前記第2の撮影において、前記被写体検知手段が検知した前記第2の距離にある被写体上の複数の点が撮像面上でなす視差変化量を、所定の第2の閾値以上とするように、前記第2の輻輳角を設定することを特徴とする請求項1又は2に記載の立体画像撮像装置。
Further comprising subject detection means for detecting the subject,
The convergence angle setting means includes:
In the second shooting, a parallax change amount formed on the imaging surface by a plurality of points on the subject at the second distance detected by the subject detection unit is set to be equal to or larger than a predetermined second threshold value. The stereoscopic image capturing apparatus according to claim 1, wherein the second convergence angle is set.
前記制御部は、前記被写体検知手段が複数の被写体を検出したときに、前記複数の被写体に対して、前記撮像手段を用いて複数の第2の撮影を行うことを特徴とする請求項3に記載の立体画像撮像装置。   4. The control unit according to claim 3, wherein when the subject detection unit detects a plurality of subjects, the control unit performs a plurality of second photographing using the imaging unit with respect to the plurality of subjects. The three-dimensional image pickup device described. 前記被写体上の複数の点は、前記被写体の前端と後端であることを特徴とする請求項1〜4のいずれか1項に記載の立体画像撮像装置。   5. The stereoscopic image capturing apparatus according to claim 1, wherein the plurality of points on the subject are a front end and a rear end of the subject. 前記輻輳角設定手段は、絞り設定手段であることを特徴とする請求項1〜5のいずれか1項に記載の立体画像撮像装置。 The stereoscopic image capturing apparatus according to claim 1, wherein the convergence angle setting unit is an aperture setting unit. 前記輻輳角設定手段は、
撮影光学系の被写界深度を算出し、前記被写体が前記被写界深度内に収まるように、前記第2の輻輳角を設定することを特徴とする請求項1〜のいずれか1項に記載の立体画像撮像装置。
The convergence angle setting means includes:
Calculating the depth of field of the imaging optical system, so that the subject fits into the depth of field in depth, any one of claims 1 to 6, characterized in that setting the second angle of convergence The three-dimensional image pickup device described in 1.
撮影光学系と、
請求項1〜のいずれか1項に記載の立体画像撮像装置と、を有することを特徴とするカメラシステム。
Photographic optics,
Camera system characterized by having a a stereoscopic image pickup apparatus according to any one of claims 1-7.
異なる複数の視点から被写体を撮像する複数の撮像手段を有する立体画像撮像装置の制御方法であって、
前記複数の撮像手段の間の輻輳角を設定する輻輳角設定ステップと、
前記撮像手段から前記被写体までの距離を計測する被写体距離計測ステップと、
前記撮像手段を用いて第1の撮影と第2の撮影を行う制御ステップと、を有し、
前記複数の撮像手段は、撮像素子の1画素内に設けられた複数の光電変換部であり、
前記輻輳角設定ステップは、
前記第1の撮影において、前記被写体距離計測ステップにて計測された前記距離のうち前記撮像手段に最も近い第1の距離にある点が撮像面上でなす視差量を、所定の第1の閾値以下とするように、第1の輻輳角を設定し、
前記第2の撮影において、前記被写体距離計測ステップにて計測された前記距離のうち前記第1の距離よりも遠い第2の距離にある被写体上の複数の点が撮像面上でなす視差変化量を、所定の第2の閾値以上とするように、かつ、前記光電変換部への最大光入射角度を算出し、前記最大光入射角度が所定の第3の閾値よりも小さくなるように、前記第1の輻輳角とは異なる第2の輻輳角を設定することを特徴とする立体画像撮像装置の制御方法。
A method for controlling a stereoscopic image capturing apparatus having a plurality of image capturing means for capturing a subject from a plurality of different viewpoints,
A convergence angle setting step of setting a convergence angle between the plurality of imaging means;
A subject distance measuring step for measuring a distance from the imaging means to the subject;
A control step of performing a first photographing and a second photographing using the imaging means,
The plurality of imaging means are a plurality of photoelectric conversion units provided in one pixel of the imaging element,
The convergence angle setting step includes:
In the first photographing, a parallax amount formed on the imaging surface by a point at the first distance closest to the imaging unit among the distances measured in the subject distance measurement step is a predetermined first threshold value. Set the first convergence angle to be
In the second shooting, the amount of parallax change made on the imaging surface by a plurality of points on the subject at a second distance farther than the first distance among the distances measured in the subject distance measurement step Is equal to or greater than a predetermined second threshold, and the maximum light incident angle on the photoelectric conversion unit is calculated, and the maximum light incident angle is smaller than a predetermined third threshold. A control method for a stereoscopic image capturing apparatus, wherein a second convergence angle different from the first convergence angle is set.
請求項に記載の立体画像撮像装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。 A computer-executable program in which a procedure of a control method for a stereoscopic image capturing apparatus according to claim 9 is described. コンピュータに、請求項に記載の立体画像撮像装置の制御方法の各ステップを実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute each step of the control method of the stereoscopic image capturing apparatus according to claim 9 .
JP2012195694A 2012-09-06 2012-09-06 Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium Active JP6057627B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012195694A JP6057627B2 (en) 2012-09-06 2012-09-06 Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012195694A JP6057627B2 (en) 2012-09-06 2012-09-06 Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2014053707A JP2014053707A (en) 2014-03-20
JP6057627B2 true JP6057627B2 (en) 2017-01-11

Family

ID=50611796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012195694A Active JP6057627B2 (en) 2012-09-06 2012-09-06 Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6057627B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015173888A (en) * 2014-03-17 2015-10-05 株式会社大一商会 Game machine
WO2019135365A1 (en) * 2018-01-05 2019-07-11 ソニー株式会社 Image processing device, image processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004309930A (en) * 2003-04-09 2004-11-04 Olympus Corp Stereoscopic observation system
JP4460560B2 (en) * 2006-09-29 2010-05-12 富士フイルム株式会社 Imaging apparatus and imaging method
JP5019939B2 (en) * 2007-04-19 2012-09-05 パナソニック株式会社 Imaging apparatus and imaging method
WO2011086630A1 (en) * 2010-01-13 2011-07-21 パナソニック株式会社 Image pickup device, image pickup method, program, and integrated circuit
JP2012015819A (en) * 2010-06-30 2012-01-19 Fujifilm Corp Stereoscopic image imaging apparatus

Also Published As

Publication number Publication date
JP2014053707A (en) 2014-03-20

Similar Documents

Publication Publication Date Title
JP5450200B2 (en) Imaging apparatus, method and program
US8599245B2 (en) Image processing apparatus, camera, and image processing method
JP5788518B2 (en) Monocular stereoscopic photographing apparatus, photographing method and program
JP5231277B2 (en) Imaging apparatus and imaging method
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JP5232330B2 (en) Stereo imaging device and auto focus adjustment method for stereo imaging device
US8823778B2 (en) Imaging device and imaging method
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP2013145314A (en) Image processing apparatus, imaging apparatus, control method and program
TW201200959A (en) One-eyed stereo photographic device
JP5571179B2 (en) Stereo imaging device and auto focus adjustment method for stereo imaging device
JP2016197179A (en) Focus detection device and method for controlling the same
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP5627438B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US20140176683A1 (en) Imaging apparatus and method for controlling same
JP6057627B2 (en) Stereoscopic image capturing apparatus, camera system, control method for stereoscopic image capturing apparatus, program, and storage medium
JP2013113857A (en) Imaging device, and control method therefor
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP5918982B2 (en) IMAGING DEVICE, REPRODUCTION DEVICE, ITS CONTROL METHOD, IMAGING SYSTEM, AND PROGRAM
JP2011151517A (en) Video processor
JP2005173270A (en) Optical device for stereoscopic photography, photographing device, and system and device for stereoscopic photography
KR101805006B1 (en) Photographing apparatus and photographing method
JP5351298B2 (en) Compound eye imaging device
JP5943693B2 (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161206

R151 Written notification of patent or utility model registration

Ref document number: 6057627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151