JP5224879B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5224879B2
JP5224879B2 JP2008098447A JP2008098447A JP5224879B2 JP 5224879 B2 JP5224879 B2 JP 5224879B2 JP 2008098447 A JP2008098447 A JP 2008098447A JP 2008098447 A JP2008098447 A JP 2008098447A JP 5224879 B2 JP5224879 B2 JP 5224879B2
Authority
JP
Japan
Prior art keywords
light receiving
image information
output
separated
solid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008098447A
Other languages
Japanese (ja)
Other versions
JP2009253623A (en
Inventor
重男 藤司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008098447A priority Critical patent/JP5224879B2/en
Publication of JP2009253623A publication Critical patent/JP2009253623A/en
Application granted granted Critical
Publication of JP5224879B2 publication Critical patent/JP5224879B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影装置に係り、特に、被写体の撮像に用いられると共に合焦制御に用いられる固体撮像素子を用いて撮影及び合焦制御を行う撮影装置に関する。 The present invention relates to a shooting device and, more particularly, to imaging apparatus performs imaging and focusing control by using a solid-state image pickup element used in the focusing control with use in imaging of the subject.

近年、CCD(Charge Coupled Device)エリアセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージ・センサ等の固体撮像素子の高解像度化に伴い、デジタル電子スチルカメラ、デジタルビデオカメラ、携帯電話機、PDA(Personal Digital Assistant,携帯情報端末)等の撮影機能を有する情報機器の需要が急増している。なお、以上のような撮影機能を有する情報機器を撮影装置と称する。   In recent years, with the increase in resolution of solid-state imaging devices such as CCD (Charge Coupled Device) area sensors and CMOS (Complementary Metal Oxide Semiconductor) image sensors, digital electronic still cameras, digital video cameras, mobile phones, PDAs (Personal Digital Assistants) , Portable information terminals) and other information devices having a photographing function are rapidly increasing. Note that an information device having the above photographing function is referred to as a photographing device.

ところで、この種の撮影装置に関する技術として、特許文献1には、カメラの機構部や消費電力を増すことなく、精度の高いAF(Auto Focus、自動合焦)制御ができる固体撮像装置を提供することを目的として、固体撮像素子によって得られた画像情報を用いて、位相差AF方式によるAF制御を行う技術が開示されている。   By the way, as a technique related to this type of imaging apparatus, Patent Document 1 provides a solid-state imaging apparatus capable of high-precision AF (Auto Focus) control without increasing the camera mechanism and power consumption. For this purpose, a technique for performing AF control by a phase difference AF method using image information obtained by a solid-state imaging device is disclosed.

以下、位相差AF方式の原理について説明する。   Hereinafter, the principle of the phase difference AF method will be described.

一例として図8に示されるように、被写体の特定点からの光は、A点に対応する瞳を通って当該A点に入る光線束ΦLaと、B点に対応する瞳を通って当該B点に入る光線束ΦLbに分けられる。この2つの光線束は、元々1点から発したものであるので、カメラレンズの焦点が固体撮像素子の受光面(撮像面)上に合っていれば、図8(a)に示されるように同一のマイクロレンズで括られる1点に到達することになる。しかし、例えば、カメラレンズの焦点が固体撮像素子の受光面から距離xだけ手前であれば、図8(b)に示されるように、2θxだけ互いにずれる。これに対し、カメラレンズの焦点が固体撮像素子の受光面から距離xだけ奥側であれば、到達点は2θxだけ逆方向にずれる。   As an example, as shown in FIG. 8, light from a specific point of the subject passes through the pupil corresponding to the point A and enters the point A and the light flux ΦLa and the point B through the pupil corresponding to the point B Into the light flux ΦLb entering. Since these two ray bundles are originally emitted from one point, if the focus of the camera lens is on the light receiving surface (imaging surface) of the solid-state imaging device, as shown in FIG. One point that is bundled with the same microlens is reached. However, for example, if the focal point of the camera lens is a distance x away from the light receiving surface of the solid-state imaging device, they are shifted from each other by 2θx as shown in FIG. On the other hand, if the focal point of the camera lens is a distance x away from the light receiving surface of the solid-state imaging device, the arrival point is shifted in the reverse direction by 2θx.

この原理に基づき、A点の並びによりできる像とB点の並びによりできる像は、カメラレンズにより合焦していれば一致し、合焦していなければずれることになる。   Based on this principle, the image formed at the point A and the image formed at the point B coincide with each other when they are in focus by the camera lens, and shift when they are not in focus.

この原理に基づいて、特許文献1に開示されている固体撮像素子は、開口位置の異なるマイクロレンズをもった画素を基本配列のなかに組み込み、第1の開口をもつ画素(S1)を含む基本配列の行と第2の開口をもつ画素(S2)を含む基本配列の行を隣接してならべる領域を設けたものである。この領域のS1群からの行像信号とS2群からの行像信号のずれ量を演算してカメラレンズのずれ量を求め、カメラのフォーカスを動かすことによりAF制御が可能となる。   Based on this principle, the solid-state imaging device disclosed in Patent Document 1 incorporates pixels having microlenses with different aperture positions into a basic array, and includes a basic (S1) pixel having a first aperture. An area in which the row of the basic array including the row of the array and the pixel (S2) having the second opening can be arranged adjacent to each other is provided. By calculating the shift amount of the row image signal from the S1 group and the row image signal from the S2 group in this area to obtain the shift amount of the camera lens, the AF control can be performed by moving the focus of the camera.

なお、位相差AF方式については、特許文献1の他、特開昭57−49841号公報等の多数の文献に開示されている技術であるので、これ以上の説明は省略する。   The phase difference AF method is disclosed in many documents such as Japanese Patent Application Laid-Open No. 57-49841 in addition to Patent Document 1, and further description thereof is omitted.

一方、特許文献2には、焦点距離が短く、絞り径の小さなレンズを用いても、主被写体の位置に影響されず、主被写体以外の焦点の合っていない部分を主被写体との距離に応じて自然にぼかした画像が得られるようにすることを目的として、撮影面における複数の被写体までの距離に基づいて主被写体を検出する検出手段と、検出された主被写体が存在する部分以外の撮影面を撮影して得た画像データを、上記主被写体との間の距離に応じてぼかす画像処理を行う画像処理手段とを設け、主被写体から離れるに従ってぼけるようにする技術が開示されている。
特開2000−156823号公報 特開平11−266388号公報
On the other hand, in Patent Document 2, even if a lens with a short focal length and a small aperture diameter is used, the position of the in-focus portion other than the main subject is not affected by the position of the main subject according to the distance from the main subject. In order to obtain a naturally blurred image, detection means for detecting the main subject based on the distance to a plurality of subjects on the shooting surface, and shooting other than the portion where the detected main subject exists There is disclosed a technique for providing image processing means for performing image processing for blurring image data obtained by photographing a surface in accordance with the distance to the main subject so that the image data is blurred as the distance from the main subject increases.
JP 2000-156823 A JP-A-11-266388

しかしながら、上記特許文献1に開示されている技術では、異なる2つの画素間の位相差に基づいてAF制御を行うものとされているので、必ずしも高精度に合焦制御を行うことができるとは限らない、という問題点があった。   However, in the technique disclosed in Patent Document 1, since AF control is performed based on the phase difference between two different pixels, it is not necessarily possible to perform focus control with high accuracy. There was a problem that it was not limited.

また、上記特許文献2に開示されている技術においても、画素単位で画像処理を行うことができないため、必ずしも高精度に主被写体以外の画像をぼかす処理を行うことができるとは限らない、という問題点があった。   Further, even in the technique disclosed in Patent Document 2, image processing cannot be performed on a pixel-by-pixel basis, and thus processing for blurring an image other than the main subject is not always performed with high accuracy. There was a problem.

本発明は上記問題点を解決するためになされたものであり、合焦に関する処理を高精度に行うことのできる撮影装置を提供することを目的とする。 The present invention has been made to solve the above problems, and an object thereof is to provide a can that shooting device that performs processing related to focus with high precision.

上記目的を達成するために、請求項1に記載の撮影装置は、各々マトリクス状に配置されると共に、画素単位で受光部が水平方向、垂直方向、及び斜め方向の少なくとも1つの方向に対して複数の分割領域に均等に分割され、かつ各々前記受光部の中央部にF値が所定値以上のレンズ用の受光部が設けられている複数の受光素子、各々前記複数の受光素子に1対1で対応して設けられ、対応する受光素子に被写体像を結像させる複数のマイクロレンズ、及び前記複数の受光素子によって得られた受光量を示す信号を出力する出力手段を備えた固体撮像素子と、前記固体撮像素子から出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報を生成する分離画像情報生成手段と、前記分離画像情報及び前記中央部に設けられた受光部による画像情報を対応する画素毎に加算することにより撮影画像情報を生成する撮影画像情報生成手段と、生成された分離画像情報及び生成された撮影画像情報を記憶する記憶手段と、前記記憶手段に記憶された前記分離画像情報に基づいて、前記固体撮像素子の受光素子の各々毎に前記被写体像のずれ量を導出する導出手段と、前記導出手段によって得られた受光素子毎のずれ量に基づいて、前記記憶手段に記憶された前記撮影画像情報に対して、当該ずれ量が大きいほどぼかし量を大きくする画像処理を行う画像処理手段と、を含むものである。 In order to achieve the above object, the imaging apparatus according to claim 1 is arranged in a matrix, and the light receiving unit is in units of pixels with respect to at least one of a horizontal direction, a vertical direction, and an oblique direction. is equally divided into a plurality of divided regions, and each light receiving portion a plurality of light receiving element that F values are provided light-receiving portion for a predetermined value or more lenses in central, each of the plurality of light receiving elements 1 provided corresponding in-one, with an output means to output a plurality of micro lenses for forming a subject image, and a signal indicating the amount of received light obtained by the plurality of light receiving elements corresponding light-receiving element A solid-state image sensor; and a separated image information generating unit configured to generate separated image information separated for each of the plurality of divided areas based on a signal output from the solid- state image sensor; and the separated image information and the central portion Set in Captured image information generating means for generating captured image information by adding image information from the received light receiving unit for each corresponding pixel, storage means for storing the generated separated image information and the generated captured image information, Based on the separated image information stored in the storage means, a derivation means for deriving a shift amount of the subject image for each of the light receiving elements of the solid-state imaging device, and for each light receiving element obtained by the derivation means And image processing means for performing image processing for increasing the blurring amount as the deviation amount increases with respect to the captured image information stored in the storage means based on the deviation amount.

請求項1に記載の固体撮像素子によれば、複数の受光素子が各々マトリクス状に配置されると共に、画素単位で受光部が複数の分割領域に均等に分割される。   According to the solid-state imaging device of the first aspect, the plurality of light receiving elements are each arranged in a matrix, and the light receiving unit is equally divided into a plurality of divided regions in units of pixels.

そして、本発明では、各々前記複数の受光素子に1対1で対応して設けられた複数のマイクロレンズにより、対応する受光素子に被写体像が結像される一方、前記複数の受光素子によって得られた受光量を示す信号が出力手段によって出力される。   In the present invention, a subject image is formed on the corresponding light receiving element by the plurality of microlenses provided in one-to-one correspondence with the plurality of light receiving elements, respectively, while the subject image is obtained by the plurality of light receiving elements. A signal indicating the received light amount is output by the output means.

従って、本発明に係る固体撮像素子を用いることにより、前述した位相差AF方式におけるずれ量を画素単位で得ることができる結果、このずれ量を用いてAF制御、撮影画像の背景部分をぼかす画像処理といった合焦に関する処理を実行することにより、当該処理を、より高精度に行うことができる。   Therefore, by using the solid-state imaging device according to the present invention, the shift amount in the phase difference AF method described above can be obtained in units of pixels. As a result, this shift amount is used for AF control and an image that blurs the background portion of the captured image. By executing the process related to focusing such as the process, the process can be performed with higher accuracy.

このように、請求項1に記載の固体撮像素子によれば、各々マトリクス状に配置されると共に、画素単位で受光部が複数の分割領域に均等に分割された複数の受光素子と、各々前記複数の受光素子に1対1で対応して設けられ、対応する受光素子に被写体像を結像させる複数のマイクロレンズと、前記複数の受光素子によって得られた受光量を示す信号を出力する出力手段と、を備えているので、合焦に関する処理を高精度に行うことができる。   Thus, according to the solid-state imaging device according to claim 1, a plurality of light-receiving elements that are arranged in a matrix and in which the light-receiving unit is equally divided into a plurality of divided regions in units of pixels, and A plurality of microlenses that are provided in a one-to-one correspondence with the plurality of light receiving elements, and that output a signal indicating the amount of light received by the plurality of light receiving elements, and a plurality of microlenses that form a subject image on the corresponding light receiving elements. And the processing relating to focusing can be performed with high accuracy.

なお、本発明は、請求項に記載の発明のように、前記複数の受光素子が、画素単位で受光部が水平方向、垂直方向、及び斜め方向の少なくとも1つの方向に対して均等に分割されていてもよい。前記受光部が水平方向に対して分割されている場合、主要被写体が縦方向に長く、その左右の少なくとも一方に背景部分が存在する被写体(以下、「縦方向被写体」という。)について高精度に合焦制御を行うことができる。また、前記受光部が垂直方向に対して分割されている場合、主要被写体が横方向に長く、その上下の少なくとも一方に背景部分が存在する被写体(以下、「横方向被写体」という。)について高精度に合焦制御を行うことができる。更に、前記受光部が斜め方向に対して分割されている場合、縦方向被写体及び横方向被写体の何れの被写体においても高精度に合焦制御を行うことができると共に、対応する分割領域間のピッチを、より狭くすることができる結果、より高精度に合焦制御することができる。 The present invention is preferable as defined in claim 1, equally divided plurality of light receiving elements, the horizontal direction the light receiving unit in units of pixels, for at least one direction of the vertical, and oblique directions May be. When the light receiving unit is divided with respect to the horizontal direction, the main subject is long in the vertical direction, and the subject having a background portion on at least one of the left and right sides thereof (hereinafter referred to as “vertical subject”) is highly accurate. Focus control can be performed. Further, when the light receiving unit is divided with respect to the vertical direction, the main subject is long in the horizontal direction, and a subject having a background portion at least in the upper and lower sides thereof (hereinafter referred to as “lateral subject”) is high. Focus control can be performed with high accuracy. Furthermore, when the light receiving unit is divided with respect to the oblique direction, it is possible to perform focus control with high accuracy on both the vertical subject and the horizontal subject, and the pitch between the corresponding divided regions. As a result, the focusing control can be performed with higher accuracy.

また、本発明は、請求項に記載の発明のように、前記複数の受光素子が、各々前記受光部(以下、「第1の受光部」という。)の中央部にF値(Fade Number)が所定値以のレンズ用の受光部(以下、「第2の受光部」という。)が更に設けられていてもよい。これにより、第2の受光部によって得られた受光量と、第1の受光部における複数の分割領域によって得られた受光量を加え合わせることにより、当該固体撮像素子による撮影画像のダイナミック・レンジを拡大することができる。 Further, the present invention is preferable as defined in claim 1, wherein the plurality of light receiving elements, each said light receiving section (hereinafter, "first light-receiving portion" hereinafter.) F value in a central portion of the (Fade Number ) is a light receiving portion of the lens on the predetermined value or more (hereinafter, referred to as a "second light-receiving portion.") it may be further provided. Accordingly, the dynamic range of the image captured by the solid-state imaging device is increased by adding the received light amount obtained by the second light receiving unit and the received light amounts obtained by the plurality of divided regions in the first light receiving unit. Can be enlarged.

また、本発明は、請求項に記載の発明のように、前記複数の受光素子が、ハニカム構造とされていてもよい。これにより、前記複数の受光素子を正体画素配列構造とする場合に比較して、より各画素の受光部の面積を大きくすることができる結果、感度特性及び飽和特性を向上させることができる一方、より画素ピッチを狭くすることができる結果、解像度を高くすることができる。 In the present invention, as in the invention described in claim 2 , the plurality of light receiving elements may have a honeycomb structure. Thereby, compared with the case where the plurality of light receiving elements have a true pixel array structure, the area of the light receiving portion of each pixel can be further increased, and as a result, sensitivity characteristics and saturation characteristics can be improved. As a result of the narrower pixel pitch, the resolution can be increased.

更に、本発明は、請求項に記載の発明のように、前記出力手段が、前記複数の受光素子の各々毎に、前記複数の分割領域の各々によって得られた受光量を示す信号を分割領域毎に分離した状態で出力する第1の出力と加え合わせた状態で出力する第2の出力を選択的に行うものとしてもよい。これにより、各分割領域によって得られた受光量を示す信号を加え合わせる手段を外部に設ける必要がなくなる結果、より簡易に当該固体撮像素子を用いることができる。 Further, according to the present invention, as in the invention described in claim 3 , the output means divides a signal indicating the amount of received light obtained by each of the plurality of divided regions for each of the plurality of light receiving elements. The second output that is output in a combined state with the first output that is output in a state where each region is separated may be selectively performed. As a result, there is no need to provide an external means for adding a signal indicating the amount of received light obtained by each divided region. As a result, the solid-state imaging device can be used more easily.

一方、上記目的を達成するために、本発明他の側面による撮影装置は、前記固体撮像素子と、前記固体撮像素子の撮像面に対して被写体像を結像させる結像手段と、前記固体撮像素子から出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報を生成する分離画像情報生成手段と、前記分離画像情報を対応する画素毎に加算することにより撮影画像情報を生成する撮影画像情報生成手段と、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う合焦制御手段と、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶する記憶手段と、を備えている。 Meanwhile, in order to achieve the above object, an imaging apparatus according to another aspect of the present invention has a front Stories solid-state imaging element and imaging means for forming an image of a subject with respect to an imaging surface of the solid-state imaging device, the A separated image information generating unit that generates separated image information separated for each of the plurality of divided regions based on a signal output from the solid-state imaging device; and adding the separated image information for each corresponding pixel. Captured image information generating means for generating captured image information, focus control means for performing focus control based on the separated image information or the captured image information when performing imaging using the solid-state imaging device, and the imaging Storage unit for storing the separated image information and the captured image information.

上記撮影装置によれば、前記固体撮像素子の撮像面に対して結像手段により被写体像が結像される。 According to the imaging apparatus, a subject image is formed by the imaging means with respect to the imaging surface of the solid-state imaging device.

ここで、本発明では、分離画像情報生成手段により、前記固体撮像素子から出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報が生成されると共に、撮影画像情報生成手段により、前記分離画像情報を対応する画素毎に加算することにより撮影画像情報が生成される。   Here, in the present invention, the separated image information generation unit generates separated image information separated for each of the plurality of divided regions based on the signal output from the solid-state imaging device, and also the captured image information. The generation means generates the captured image information by adding the separated image information for each corresponding pixel.

そして、本発明では、前記固体撮像素子を用いた撮影を行うに当たり、合焦制御手段により、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御が行われ、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報が記憶手段によって記憶される。   In the present invention, when performing imaging using the solid-state imaging device, the focusing control unit performs focusing control based on the separated image information or the captured image information, and when performing the imaging, The separated image information and the captured image information are stored by a storage unit.

このように、上記撮影装置によれば、前記固体撮像素子から出力された信号に基づいて、当該固体撮像素子の各受光素子における受光部の各分割領域別に分離された分離画像情報を生成すると共に、当該分離画像情報を対応する画素毎に加算することにより撮影画像情報を生成し、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う一方、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶しているので、これらの画像情報を用いることにより、合焦に関する処理を高精度に行うことができる。 Thus, according to the photographing apparatus, on the basis of the signal output from the solid-state image pickup device, and generates a separation image information separated for each divided region of the light receiving portion of each light receiving element of the solid-state imaging device In addition, when the captured image information is generated by adding the separated image information for each corresponding pixel, and the photographing using the solid-state imaging device is performed, focusing control is performed based on the separated image information or the captured image information. On the other hand, since the separated image information and the photographed image information are stored when the photographing is performed, the processing relating to focusing can be performed with high accuracy by using these image information.

なお、上記記憶手段には、RAM(Random Access Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュEEPROM(Flash EEPROM)等の半導体記憶素子、xDピクチャカード(登録商標)、フレキシブルディスク等の可搬記録媒体、ハードディスク等の固定記録媒体等が含まれる。   The storage means includes a RAM (Random Access Memory), an EEPROM (Electrically Erasable and Programmable Read Only Memory), a semiconductor storage element such as a flash EEPROM (Flash EEPROM), an xD picture card (registered trademark), a flexible disk, etc. A portable recording medium, a fixed recording medium such as a hard disk, and the like are included.

一方、上記目的を達成するために、本発明他の側面による撮影装置は、前記固体撮像素子と、前記固体撮像素子の撮像面に対して被写体像を結像させる結像手段と、前記固体撮像素子から前記第1の出力により出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報を生成する分離画像情報生成手段と、前記固体撮像素子から前記第2の出力により出力された信号に基づいて撮影画像を示す撮影画像情報を生成する撮影画像情報生成手段と、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う合焦制御手段と、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶する記憶手段と、を備えている。 Meanwhile, in order to achieve the above object, another aspect by the photographing apparatus of the present invention, the a solid-state imaging device, an imaging means for forming an image of a subject with respect to an imaging surface of the solid-state imaging device, the A separated image information generating unit configured to generate separated image information separated for each of the plurality of divided regions based on a signal output from the solid-state imaging device by the first output; and the second from the solid-state imaging device. Based on the separated image information or the photographed image information, when photographing using the photographed image information generating means for generating photographed image information indicating the photographed image based on the signal output by Focusing control means for performing focusing control, and storage means for storing the separated image information and the captured image information when performing the shooting.

上記撮影装置によれば、前記固体撮像素子の撮像面に対して結像手段により被写体像が結像される。 According to the imaging apparatus, a subject image is formed by the imaging means with respect to the imaging surface of the solid-state imaging device.

ここで、本発明では、分離画像情報生成手段により、前記固体撮像素子から前記第1の出力により出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報が生成されると共に、撮影画像情報生成手段により、前記固体撮像素子から前記第2の出力により出力された信号に基づいて撮影画像を示す撮影画像情報が生成される。   Here, in the present invention, the separated image information generation unit generates the separated image information separated for each of the plurality of divided regions based on the signal output from the solid-state imaging device by the first output. At the same time, the photographed image information generating means generates photographed image information indicating a photographed image based on the signal output from the solid-state imaging device by the second output.

そして、本発明では、前記固体撮像素子を用いた撮影を行うに当たり、合焦制御手段により、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御が行われ、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報が記憶手段によって記憶される。   In the present invention, when performing imaging using the solid-state imaging device, the focusing control unit performs focusing control based on the separated image information or the captured image information, and when performing the imaging, The separated image information and the captured image information are stored by a storage unit.

このように、上記撮影装置によれば、前記固体撮像素子から第1の出力により出力された信号に基づいて、当該固体撮像素子の各受光素子における受光部の各分割領域別に分離された分離画像情報を生成すると共に、前記固体撮像素子から第2の出力により出力された信号に基づいて撮影画像を示す撮影画像情報を生成し、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う一方、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶しているので、これらの画像情報を用いることにより、合焦に関する処理を高精度に行うことができる。 Thus, according to the photographing apparatus, from said solid-state image pickup device on the basis of the signal output by the first output, isolated separated for each divided region of the light receiving portion of each light receiving element of the solid-state imaging device When generating image information and generating captured image information indicating a captured image based on a signal output by the second output from the solid-state imaging device, and performing imaging using the solid-state imaging device, the separated image While focusing control is performed based on the information or the captured image information, the separated image information and the captured image information are stored when performing the capturing. Can be performed with high accuracy.

なお、上記記憶手段には、RAM、EEPROM、フラッシュEEPROM等の半導体記憶素子、xDピクチャカード(登録商標)、フレキシブルディスク等の可搬記録媒体、ハードディスク等の固定記録媒体等が含まれる。   The storage means includes a semiconductor storage element such as a RAM, an EEPROM, and a flash EEPROM, a portable recording medium such as an xD picture card (registered trademark) and a flexible disk, and a fixed recording medium such as a hard disk.

なお、請求項1に記載の発明は、前記固体撮像素子から出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報を生成する分離画像情報生成手段と、前記分離画像情報及び前記中央部に設けられた受光部による画像情報を対応する画素毎に加算することにより撮影画像情報を生成する撮影画像情報生成手段と、生成された分離画像情報及び生成された撮影画像情報を記憶する記憶手段と、前記記憶手段に記憶された前記分離画像情報に基づいて、前記固体撮像素子の受光素子の各々毎に前記被写体像のずれ量を導出する導出手段と、前記導出手段によって得られた受光素子毎のずれ量に基づいて、前記記憶手段に記憶された前記撮影画像情報に対して、当該ずれ量が大きいほどぼかし量を大きくする画像処理を行う画像処理手段と、を更に備えている。これにより、当該画像処理を高精度に行うことができる。 The invention according to claim 1 is a separated image information generating unit that generates separated image information separated for each of the plurality of divided regions based on a signal output from the solid-state imaging device, and the separation Captured image information generating means for generating captured image information by adding image information and image information from the light receiving unit provided in the central part for each corresponding pixel, generated separated image information, and generated captured image A storage unit for storing information; a deriving unit for deriving a shift amount of the subject image for each of the light receiving elements of the solid-state imaging device based on the separated image information stored in the storage unit; and the deriving unit Based on the shift amount for each light receiving element obtained by the above, image processing for increasing the blur amount as the shift amount increases is performed on the captured image information stored in the storage unit. Further comprises an image processing means. Thereby, the image processing can be performed with high accuracy.

本発明によれば、合焦に関する処理を高精度に行うことができる、という効果が得られる。   According to the present invention, an effect that processing related to focusing can be performed with high accuracy is obtained.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、ここでは、本発明を、静止画像の撮影を行うデジタル電子スチルカメラ(以下、「デジタルカメラ」という。)に適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a digital electronic still camera (hereinafter referred to as “digital camera”) that captures a still image will be described.

[第1の実施の形態]
まず、図1を参照して、本実施の形態に係るデジタルカメラ10の電気系の要部構成を説明する。
[First Embodiment]
First, with reference to FIG. 1, the structure of the main part of the electrical system of the digital camera 10 according to the present embodiment will be described.

同図に示されるように、本実施の形態に係るデジタルカメラ10は、被写体像を結像させるためのレンズを含んで構成された光学ユニット22と、当該レンズの光軸後方に配設された電荷結合素子(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、を含んで構成されている。   As shown in the figure, the digital camera 10 according to the present embodiment is provided with an optical unit 22 including a lens for forming a subject image, and disposed behind the optical axis of the lens. A charge-coupled device (hereinafter referred to as “CCD”) 24 and an analog signal processing unit 26 that performs various analog signal processing on the input analog signal are configured.

また、デジタルカメラ10は、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。   The digital camera 10 also performs an analog / digital converter (hereinafter referred to as “ADC”) 28 that converts an input analog signal into digital data, and performs various digital signal processing on the input digital data. And a digital signal processing unit 30.

なお、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力されたデジタルデータを後述するメモリ48の所定領域に直接記憶させる制御も行う。   The digital signal processing unit 30 has a built-in line buffer having a predetermined capacity, and also performs control to directly store the input digital data in a predetermined area of the memory 48 described later.

CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタル画像データに変換された後にデジタル信号処理部30に入力される。   The output terminal of the CCD 24 is connected to the input terminal of the analog signal processing unit 26, the output terminal of the analog signal processing unit 26 is connected to the input terminal of the ADC 28, and the output terminal of the ADC 28 is connected to the input terminal of the digital signal processing unit 30. . Accordingly, the analog signal indicating the subject image output from the CCD 24 is subjected to predetermined analog signal processing by the analog signal processing unit 26, converted into digital image data by the ADC 28, and then input to the digital signal processing unit 30.

一方、デジタルカメラ10は、撮影された被写体像やメニュー画面等を表示する液晶ディスプレイ(以下、「LCD」という。)38と、当該被写体像やメニュー画面等をLCD38に表示させるための信号を生成してLCD38に供給するLCDインタフェース36と、デジタルカメラ10全体の動作を司るCPU(中央処理装置)40と、撮影により得られたデジタル画像データ等を一時的に記憶するメモリ48と、メモリ48に対するアクセスの制御を行うメモリインタフェース46と、を含んで構成されている。   On the other hand, the digital camera 10 generates a liquid crystal display (hereinafter referred to as “LCD”) 38 that displays a captured subject image, a menu screen, and the like, and a signal for causing the LCD 38 to display the subject image, the menu screen, and the like. The LCD interface 36 supplied to the LCD 38, the CPU (central processing unit) 40 that controls the operation of the entire digital camera 10, the memory 48 that temporarily stores digital image data obtained by photographing, and the memory 48 And a memory interface 46 for controlling access.

更に、デジタルカメラ10は、可搬型のメモリカード52をデジタルカメラ10でアクセス可能とするための外部メモリインタフェース50と、デジタル画像データに対する圧縮処理及び伸張処理を行う圧縮・伸張処理回路54と、を含んで構成されている。   Further, the digital camera 10 includes an external memory interface 50 for enabling the portable memory card 52 to be accessed by the digital camera 10, and a compression / decompression processing circuit 54 for performing compression processing and decompression processing on the digital image data. It is configured to include.

なお、本実施の形態のデジタルカメラ10では、メモリ48としてフラッシュ・メモリ(Flash Memory)が用いられ、メモリカード52としてxDピクチャ・カード(登録商標)が用いられているが、これに限るものでないことは言うまでもない。   In the digital camera 10 of the present embodiment, a flash memory is used as the memory 48 and an xD picture card (registered trademark) is used as the memory card 52. However, the present invention is not limited to this. Needless to say.

デジタル信号処理部30、LCDインタフェース36、CPU40、メモリインタフェース46、外部メモリインタフェース50及び圧縮・伸張処理回路54はシステムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30及び圧縮・伸張処理回路54の作動の制御、LCD38に対するLCDインタフェース36を介した各種情報の表示、メモリ48及びメモリカード52へのメモリインタフェース46ないし外部メモリインタフェース50を介したアクセスを各々行うことができる。   The digital signal processing unit 30, the LCD interface 36, the CPU 40, the memory interface 46, the external memory interface 50, and the compression / decompression processing circuit 54 are connected to each other via a system bus BUS. Therefore, the CPU 40 controls the operation of the digital signal processing unit 30 and the compression / decompression processing circuit 54, displays various information via the LCD interface 36 to the LCD 38, and the memory interface 46 or the external memory interface to the memory 48 and the memory card 52. 50 can be accessed each.

一方、デジタルカメラ10には、主としてCCD24を駆動させるためのタイミング信号(パルス信号)を生成してCCD24に供給するタイミングジェネレータ32が備えられており、CCD24の駆動はCPU40によりタイミングジェネレータ32を介して制御される。   On the other hand, the digital camera 10 includes a timing generator 32 that mainly generates a timing signal (pulse signal) for driving the CCD 24 and supplies the timing signal to the CCD 24. The CPU 40 drives the CCD 24 via the timing generator 32. Be controlled.

更に、デジタルカメラ10にはモータ駆動部34が備えられており、光学ユニット22に備えられた図示しない焦点調整モータ、ズームモータ及び絞り駆動モータの駆動もCPU40によりモータ駆動部34を介して制御される。   Further, the digital camera 10 is provided with a motor drive unit 34, and driving of a focus adjustment motor, a zoom motor, and an aperture drive motor (not shown) provided in the optical unit 22 is also controlled by the CPU 40 via the motor drive unit 34. The

すなわち、本実施の形態に係る上記レンズは複数枚のレンズを有し、焦点距離の変更(変倍)が可能なズームレンズ系として構成されており、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ、ズームモータ及び絞り駆動モータは含まれるものであり、これらのモータは各々CPU40の制御によりモータ駆動部34から供給された駆動信号によって駆動される。   That is, the lens according to the present embodiment has a plurality of lenses, is configured as a zoom lens system that can change (magnify) the focal length, and includes a lens driving mechanism (not shown). The lens drive mechanism includes the focus adjustment motor, the zoom motor, and the aperture drive motor, and these motors are each driven by a drive signal supplied from the motor drive unit 34 under the control of the CPU 40.

更に、デジタルカメラ10には、撮影を実行する際に押圧操作されるレリーズスイッチ(所謂シャッター)、デジタルカメラ10の電源のオン/オフを切り替える際に操作される電源スイッチ、撮影を行うモードである撮影モード及び被写体像をLCD38に再生するモードである再生モードの何れかのモードに設定する際に操作されるモード切替スイッチ、LCD38にメニュー画面を表示させるときに押圧操作されるメニュースイッチ、それまでの操作内容を確定するときに押圧操作される決定スイッチ、直前の操作内容をキャンセルするときに押圧操作されるキャンセルスイッチ等の各種スイッチ類を含んで構成された操作部56が備えられており、これらの操作部56はCPU40に接続されている。従って、CPU40は、これらの操作部56に対する操作状態を常時把握できる。   Further, the digital camera 10 has a release switch (so-called shutter) that is pressed when performing shooting, a power switch that is operated when switching on / off the power of the digital camera 10, and a mode for performing shooting. A mode switch that is operated when setting any one of the shooting mode and the reproduction mode that reproduces the subject image on the LCD 38, a menu switch that is pressed when displaying the menu screen on the LCD 38, and so on. The operation unit 56 is configured to include various switches such as a determination switch that is pressed when confirming the operation content, and a cancel switch that is pressed when canceling the previous operation content. These operation units 56 are connected to the CPU 40. Therefore, the CPU 40 can always grasp the operation state of the operation unit 56.

なお、本実施の形態に係るデジタルカメラ10のレリーズスイッチは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。   Note that the release switch of the digital camera 10 according to the present embodiment is in a state where it is pressed down to an intermediate position (hereinafter referred to as “half-pressed state”) and a state where it is pressed down to a final pressed position beyond the intermediate position. (Hereinafter, referred to as a “fully pressed state”) is configured to be capable of detecting a two-stage pressing operation.

そして、デジタルカメラ10では、レリーズスイッチを半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。   In the digital camera 10, the AE (Automatic Exposure) function is activated by setting the release switch halfway, the AF function is activated after the exposure state (shutter speed, aperture state) is set. Focusing control is performed, and then exposure (photographing) is performed when the button is fully pressed.

また、デジタルカメラ10には、撮影時に必要に応じて被写体に照射する光を発するストロボ44と、ストロボ44とCPU40との間に介在されると共に、CPU40の制御によりストロボ44を発光させるための電力を充電する充電部42と、が備えられている。更に、ストロボ44はCPU40にも接続されており、ストロボ44の発光はCPU40によって制御される。   The digital camera 10 has a strobe 44 that emits light to irradiate the subject as necessary at the time of shooting, and is interposed between the strobe 44 and the CPU 40, and power for causing the strobe 44 to emit light under the control of the CPU 40. And a charging unit 42 for charging the battery. Further, the strobe 44 is also connected to the CPU 40, and the light emission of the strobe 44 is controlled by the CPU 40.

次に、図2及び図3を参照して、本実施の形態に係るCCD24の構成を説明する。なお、図2はCCD24の画素構造を示す平面図であり、図3はCCD24の全体構成を示す平面図である。   Next, the configuration of the CCD 24 according to the present embodiment will be described with reference to FIGS. 2 is a plan view showing the pixel structure of the CCD 24, and FIG. 3 is a plan view showing the overall structure of the CCD 24. As shown in FIG.

図2に示すように、本実施の形態に係るCCD24は、各々画素を構成する受光部62を有する受光素子60がマトリクス状に複数(本実施の形態では、1000万個)配置されると共に、各受光素子60における各受光部62が第1受光部62A及び第2受光部62Bの2つの分割領域に均等に分割されている。   As shown in FIG. 2, the CCD 24 according to the present embodiment includes a plurality of light receiving elements 60 (10 million in the present embodiment) arranged in a matrix, each having a light receiving portion 62 that constitutes a pixel. Each light receiving part 62 in each light receiving element 60 is equally divided into two divided regions of a first light receiving part 62A and a second light receiving part 62B.

また、CCD24には、各受光素子60に1対1で対応し、対応する受光素子60に被写体像を結像させる複数のマイクロレンズ64が、対応する受光素子60の上部に設けられている。   The CCD 24 is provided with a plurality of microlenses 64 that correspond to the light receiving elements 60 on a one-to-one basis and that form subject images on the corresponding light receiving elements 60.

なお、図2では錯綜を回避するために図示を省略するが、マイクロレンズ64と受光素子60との間には、対応する色のカラーフィルタ層、当該カラーフィルタ層を保護する保護膜等が形成されている。   Although illustration is omitted in FIG. 2 to avoid complications, a color filter layer of a corresponding color, a protective film for protecting the color filter layer, and the like are formed between the microlens 64 and the light receiving element 60. Has been.

また、同図に示されるように、本実施の形態に係るCCD24では、各受光素子60がハニカム構造とされている。これにより、従来型である正体画素配列構造とする場合に比較して、画素ピッチを縮めたり、一画素当たりの面積を拡大したりすることができるものとされている。   Further, as shown in the figure, in the CCD 24 according to the present embodiment, each light receiving element 60 has a honeycomb structure. As a result, the pixel pitch can be reduced and the area per pixel can be increased as compared with a conventional true pixel array structure.

一方、図3に示すように、本実施の形態に係るCCD24は、上記複数の受光素子60がマトリクス状に配置されている撮像領域70の下端部近傍に、撮像領域70の各受光素子60において光電変換された信号電荷を1行ずつ受け取り、出力アンプ74に出力する水平転送路72が設けられている。ここで、出力アンプ74は、水平転送路72から転送されてくる各画素の信号電荷を電圧信号に変換するものである。   On the other hand, as shown in FIG. 3, the CCD 24 according to the present embodiment has each light receiving element 60 in the imaging region 70 near the lower end of the imaging region 70 in which the plurality of light receiving elements 60 are arranged in a matrix. A horizontal transfer path 72 that receives the photoelectrically converted signal charges line by line and outputs them to the output amplifier 74 is provided. Here, the output amplifier 74 converts the signal charge of each pixel transferred from the horizontal transfer path 72 into a voltage signal.

なお、錯綜を回避するために図示は省略するが、本実施の形態に係るCCD24では、撮像領域70において、各受光素子60において光電変換された信号電荷を受け取り、水平転送路72に向けて順次転送する垂直転送路が設けられている。   Although not shown in order to avoid complications, the CCD 24 according to the present embodiment receives signal charges photoelectrically converted in the respective light receiving elements 60 in the imaging region 70 and sequentially toward the horizontal transfer path 72. A vertical transfer path for transfer is provided.

本実施の形態に係るCCD24では、各受光素子60において、第1受光部62Aによって蓄積された信号電荷が第2受光部62Bに転送されることにより、第2受光部62Bに蓄積されている信号電荷に第1受光部62Aに蓄積されている信号電荷を加えた後、対応する垂直転送路に転送して水平転送路72まで転送する加算転送モードと、第1受光部62Aにおいて蓄積された信号電荷と第2受光部62Bにおいて蓄積された信号電荷を各々個別に対応する垂直転送路を介して水平転送路72まで転送する個別転送モードの2つの動作モードが、外部から入力されたパルス信号の種類に応じて選択的に適用可能とされている。以下では、CCD24を加算転送モードで動作させるためのパルス信号を「加算転送用パルス信号」と称し、CCD24を個別転送モードで動作させるためのパルス信号を「個別転送用パルス信号」と称する。   In the CCD 24 according to the present embodiment, in each light receiving element 60, the signal charge accumulated by the first light receiving unit 62A is transferred to the second light receiving unit 62B, whereby the signal accumulated in the second light receiving unit 62B. An addition transfer mode in which the signal charge accumulated in the first light receiving unit 62A is added to the charge, then transferred to the corresponding vertical transfer path and transferred to the horizontal transfer path 72, and the signal accumulated in the first light receiving unit 62A Two operation modes of an individual transfer mode for transferring the charge and the signal charge accumulated in the second light receiving unit 62B individually to the horizontal transfer path 72 via the corresponding vertical transfer paths are provided for the pulse signal input from the outside. It can be selectively applied according to the type. Hereinafter, a pulse signal for operating the CCD 24 in the addition transfer mode is referred to as “addition transfer pulse signal”, and a pulse signal for operating the CCD 24 in the individual transfer mode is referred to as “individual transfer pulse signal”.

本実施の形態に係るデジタルカメラ10では、CPU40による制御に応じて、タイミングジェネレータ32により上記加算転送用パルス信号又は個別転送用パルス信号をCCD24に対して選択的に出力することができる。   In the digital camera 10 according to the present embodiment, the addition transfer pulse signal or the individual transfer pulse signal can be selectively output to the CCD 24 by the timing generator 32 under the control of the CPU 40.

そして、本実施の形態に係るデジタルカメラ10には、AF機能として、CCD24を加算転送モードで動作させた状態で得られるデジタル画像データに基づいて、予め定められた合焦対象領域(一例として、CCD24による撮像領域の中心を含む分割領域)に対応する、前記デジタル画像データにより示される輝度情報から高周波成分を抽出して積算することにより合焦評価値(コントラスト評価値)を生成しつつ光学ユニット22に設けられているフォーカス・レンズを光軸方向に移動させ、前記合焦評価値が最大となるフォーカス・レンズの位置を特定して当該位置にフォーカス・レンズを位置決めする、所謂山登り制御方式によりAF制御を行う山登り合焦機能と、CCD24を個別転送モードで動作させた状態で得られるデジタル画像データに基づいて、上記合焦対象領域における画素毎に被写体像のずれ量を導出し、当該ずれ量に応じた位置にフォーカス・レンズを移動させる、所謂位相差AF方式によりAF制御を行う位相差合焦機能の何れか一方の合焦機能を選択的に適用することができる。   The digital camera 10 according to the present embodiment has a predetermined focusing target area (as an example, based on digital image data obtained in a state where the CCD 24 is operated in the addition transfer mode as an AF function. The optical unit generates a focus evaluation value (contrast evaluation value) by extracting and accumulating high-frequency components from luminance information indicated by the digital image data corresponding to a divided area including the center of the imaging area by the CCD 24). 22 by a so-called hill-climbing control method in which the focus lens provided in 22 is moved in the optical axis direction, the position of the focus lens that maximizes the focus evaluation value is specified, and the focus lens is positioned at the position. A hill-climbing focusing function that performs AF control, and a digital image obtained with the CCD 24 operating in the individual transfer mode Based on the image data, the amount of deviation of the subject image is derived for each pixel in the focus target area, and the focus lens is moved to a position corresponding to the amount of deviation, so that AF control is performed by a so-called phase difference AF method. Any one of the phase difference focusing functions can be selectively applied.

なお、本実施の形態に係るデジタルカメラ10では、何れの合焦機能を適用するかをメニュー画面上で予め設定するものとされているが、これに限らず、合焦機能の設定用のスイッチを設けておき、当該スイッチにより設定する形態等、他の形態とすることができることは言うまでもない。   In the digital camera 10 according to the present embodiment, which focusing function is applied is set in advance on the menu screen. However, the present invention is not limited to this, and a switch for setting the focusing function is used. Needless to say, other forms such as a form set by the switch can be used.

次に、本実施の形態に係るデジタルカメラ10の撮影時における全体的な動作について簡単に説明する。なお、ここでは、合焦機能として山登り合焦機能が設定されている場合を例に説明する。   Next, an overall operation at the time of shooting of the digital camera 10 according to the present embodiment will be briefly described. Here, a case where the hill climbing focusing function is set as the focusing function will be described as an example.

まず、CCD24は、光学ユニット22を介した撮像を行い、被写体像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部26に順次出力する。このとき、CCD24は加算転送モードで動作し、受光素子60毎に第1受光部62Aに蓄積された信号電荷と第2受光部62Bに蓄積された信号電荷が加算された状態のアナログ信号がアナログ信号処理部26に順次出力される。   First, the CCD 24 performs imaging through the optical unit 22 and sequentially outputs analog signals for R (red), G (green), and B (blue) indicating the subject image to the analog signal processing unit 26. At this time, the CCD 24 operates in the addition transfer mode, and an analog signal in a state where the signal charge accumulated in the first light receiving unit 62A and the signal charge accumulated in the second light receiving unit 62B for each light receiving element 60 are added is an analog signal. The signals are sequentially output to the signal processing unit 26.

アナログ信号処理部26は、CCD24から入力されたアナログ信号に対して相関二重サンプリング処理等のアナログ信号処理を施した後にADC28に順次出力する。   The analog signal processing unit 26 performs analog signal processing such as correlated double sampling processing on the analog signal input from the CCD 24 and sequentially outputs the analog signal to the ADC 28.

ADC28は、アナログ信号処理部26から入力されたR、G、B毎のアナログ信号を各々所定ビット数のR、G、Bの信号(デジタル画像データ)に変換してデジタル信号処理部30に順次出力する。デジタル信号処理部30は、内蔵しているラインバッファにADC28から順次入力されるデジタル画像データを蓄積して一旦メモリ48の所定領域に直接格納する。   The ADC 28 converts the R, G, and B analog signals input from the analog signal processing unit 26 into R, G, and B signals (digital image data) each having a predetermined number of bits, and sequentially converts them to the digital signal processing unit 30. Output. The digital signal processing unit 30 accumulates digital image data sequentially input from the ADC 28 in a built-in line buffer and temporarily stores the digital image data directly in a predetermined area of the memory 48.

メモリ48の所定領域に格納されたデジタル画像データは、CPU40による制御に応じてデジタル信号処理部30により読み出され、所定の物理量に応じたR,G,B毎のデジタルゲインをかけることでホワイトバランス調整を行うと共に、ガンマ処理及びシャープネス処理を行って所定ビット数のデジタル画像データを生成する。   The digital image data stored in a predetermined area of the memory 48 is read out by the digital signal processing unit 30 according to the control by the CPU 40, and is subjected to white gain by applying a digital gain for each of R, G, and B according to a predetermined physical quantity. In addition to performing balance adjustment, digital image data having a predetermined number of bits is generated by performing gamma processing and sharpness processing.

そして、デジタル信号処理部30は、生成したデジタル画像データに対しYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)を生成し、YC信号をメモリ48の上記所定領域とは異なる領域に格納する。   The digital signal processing unit 30 performs YC signal processing on the generated digital image data to generate a luminance signal Y and chroma signals Cr and Cb (hereinafter referred to as “YC signal”), and the YC signal is stored in the memory 48. Is stored in an area different from the predetermined area.

なお、LCD38は、CCD24による連続的な撮像によって得られた動画像(スルー画像)を表示してファインダとして使用することができるものとして構成されており、LCD38をファインダとして使用する場合には、生成したYC信号を、LCDインタフェース36を介して順次LCD38に出力する。これによってLCD38にスルー画像が表示されることになる。   The LCD 38 is configured to display a moving image (through image) obtained by continuous imaging by the CCD 24 and can be used as a finder. When the LCD 38 is used as a finder, the LCD 38 is generated. The YC signals thus output are sequentially output to the LCD 38 via the LCD interface 36. As a result, a through image is displayed on the LCD 38.

ここで、レリーズスイッチがユーザによって半押し状態とされたタイミングで前述のようにAE機能が働いて露出状態が設定された後、前述した山登り合焦機能が働いて合焦制御され、その後、引き続き全押し状態とされたタイミングで、その時点でメモリ48に格納されているYC信号を、圧縮・伸張処理回路54によって所定の圧縮形式(本実施の形態では、JPEG形式)で圧縮した後に外部メモリインタフェース50を介してメモリカード52に電子化ファイル(画像ファイル)として記録することにより撮影を行う。   Here, at the timing when the release switch is half-pressed by the user, after the AE function is activated and the exposure state is set as described above, the above-described hill-climbing focusing function is activated and the focus control is performed, and then, continuously. When the YC signal stored in the memory 48 at that time is fully pressed, the compression / decompression processing circuit 54 compresses the YC signal in a predetermined compression format (JPEG format in the present embodiment), and then the external memory. Shooting is performed by recording an electronic file (image file) in the memory card 52 via the interface 50.

次に、図4を参照して、位相差合焦機能が設定されている場合のデジタルカメラ10の撮影時における作用を説明する。なお、図4は、合焦機能として位相差合焦機能が設定されており、かつ撮影モードが設定されている場合に、CPU40によって実行される撮影処理プログラムの処理の流れを示すフローチャートであり、当該プログラムはメモリ48の所定領域に予め記憶されている。   Next, with reference to FIG. 4, an operation at the time of photographing with the digital camera 10 when the phase difference focusing function is set will be described. FIG. 4 is a flowchart showing the flow of processing of the shooting processing program executed by the CPU 40 when the phase difference focusing function is set as the focusing function and the shooting mode is set. The program is stored in a predetermined area of the memory 48 in advance.

まず、同図のステップ100では、レリーズスイッチが半押し状態となるまで待機し、次のステップ102では、CCD24に入力しているパルス信号を個別転送用パルス信号とするようにタイミングジェネレータ32を制御することにより、CCD24が個別転送モードで動作するように設定し、次のステップ104では、前述したようにAE機能を実行した後、前述した位相差合焦機能を実行する。   First, in step 100 in the figure, the process waits until the release switch is half-pressed, and in the next step 102, the timing generator 32 is controlled so that the pulse signal input to the CCD 24 becomes the individual transfer pulse signal. As a result, the CCD 24 is set to operate in the individual transfer mode, and in the next step 104, after the AE function is executed as described above, the phase difference focusing function described above is executed.

このとき、CCD24は、個別転送モードで動作しているため、受光素子60の各々毎に第1受光部62Aにより蓄積された信号電荷と第2受光部62Bにより蓄積された信号電荷が個別に出力されており、上記位相差合焦機能では、これらの信号電荷に基づいて得られる各デジタル画像データを用いて前述した位相差AF方式による合焦制御を行う。   At this time, since the CCD 24 operates in the individual transfer mode, the signal charge accumulated by the first light receiving unit 62A and the signal charge accumulated by the second light receiving unit 62B are individually output for each of the light receiving elements 60. In the phase difference focusing function, focusing control by the phase difference AF method described above is performed using each digital image data obtained based on these signal charges.

また、本ステップ104の処理によって実行されるAE機能では、第1受光部62Aにより蓄積された信号電荷に基づくデジタル画像データ(以下、「第1画像データ」という。)と、第2受光部62Bにより蓄積された信号電荷に基づくデジタル画像データ(以下、「第2画像データ」という。)の少なくとも一方を用いて得られる被写体の明るさに基づいて露出状態の設定を行えばよいが、本実施の形態に係るデジタルカメラ10では、第1画像データにより示される被写体の明るさに基づいて露出状態の設定を行っている。   Further, in the AE function executed by the processing of this step 104, digital image data (hereinafter referred to as “first image data”) based on the signal charges accumulated by the first light receiving unit 62A and the second light receiving unit 62B. The exposure state may be set based on the brightness of the subject obtained using at least one of digital image data (hereinafter referred to as “second image data”) based on the signal charge accumulated by the In the digital camera 10 according to the embodiment, the exposure state is set based on the brightness of the subject indicated by the first image data.

次のステップ106では、CCD24に入力しているパルス信号を加算転送用パルス信号とするようにタイミングジェネレータ32を制御することにより、CCD24が加算転送モードで動作するように設定し、次のステップ108では、レリーズスイッチが全押し状態に移行したか否かを判定して、肯定判定となった場合はステップ112に移行する一方、否定判定となった場合にはステップ110に移行する。   In the next step 106, the timing generator 32 is controlled so that the pulse signal input to the CCD 24 becomes the pulse signal for addition transfer, so that the CCD 24 is set to operate in the addition transfer mode. Then, it is determined whether or not the release switch has been fully pressed. If the determination is affirmative, the process proceeds to step 112. If the determination is negative, the process proceeds to step 110.

ステップ110では、レリーズスイッチが押圧されていない場合の位置に復帰したか否かを判定することにより、レリーズスイッチの押圧操作が解除されたか否かを判定し、肯定判定となった場合は上記ステップ100に戻る一方、否定判定となった場合には上記ステップ102に戻る。   In step 110, it is determined whether or not the release switch has been released by determining whether or not the release switch has been returned to the position where the release switch has not been pressed. On the other hand, if the determination is negative, the process returns to step 102.

一方、ステップ112では、前述したように撮影を行い(当該撮影によりメモリカード52に記憶されたデジタル画像データを以下では「撮影画像データ」という。)、次のステップ114では、上記ステップ102の処理と同様にCCD24が個別転送モードで動作するように設定する。   On the other hand, in step 112, photographing is performed as described above (digital image data stored in the memory card 52 by the photographing is hereinafter referred to as “photographed image data”), and in the next step 114, the processing of step 102 is performed. Similarly to the above, the CCD 24 is set to operate in the individual transfer mode.

次のステップ116では、この時点で得られた第1画像データと第2画像データを上記ステップ112の処理によって記憶した撮影画像データに関連付けてメモリカード52に記憶し、その後に本撮影処理プログラムを終了する。なお、上記ステップ116の処理によってメモリカード52に記憶された2つのデジタル画像データを以下では「分離画像データ」という。   In the next step 116, the first image data and the second image data obtained at this time are stored in the memory card 52 in association with the photographed image data stored by the process of step 112, and then the photographing process program is executed. finish. Note that the two digital image data stored in the memory card 52 by the processing in step 116 is hereinafter referred to as “separated image data”.

次に、図5を参照して、上記撮影画像データに対して、当該撮影画像データにより示される被写体における主被写体以外の画像を、それまでに比較して、よりぼかす処理を行う画像変換処理を行う際のデジタルカメラ10の作用を説明する。なお、図5は、当該画像変換処理の実行指示がユーザによって入力された際にCPU40によって実行される画像変換処理プログラムの処理の流れを示すフローチャートであり、当該プログラムもメモリ48の所定領域に予め記憶されている。また、ここでは、錯綜を回避するために、処理対象とする撮影画像データ(以下、「処理対象撮影画像データ」という。)がユーザによって予め指定されている場合について説明する。   Next, referring to FIG. 5, an image conversion process is performed on the photographed image data, in which an image other than the main subject in the subject indicated by the photographed image data is compared with the image conversion processing so far. The operation of the digital camera 10 at the time of performing will be described. FIG. 5 is a flowchart showing the flow of the image conversion processing program executed by the CPU 40 when an instruction to execute the image conversion processing is input by the user. The program is also stored in a predetermined area of the memory 48 in advance. It is remembered. Here, a case will be described in which captured image data to be processed (hereinafter referred to as “processed captured image data”) is designated in advance by the user in order to avoid complications.

まず、同図のステップ200では、処理対象撮影画像データと、当該処理対象撮影画像データに対応する分離画像データをメモリカード52から読み出し、次のステップ202では、分離画像データにおける各画素毎に、当該分離画像データにより示される被写体像のずれ量を算出する。なお、当該ずれ量の算出手法は、従来既知の位相差AF方式におけるずれ量の算出手法と同様であるので、ここでの説明は省略する。   First, in step 200 in the figure, the processing target captured image data and the separated image data corresponding to the processing target captured image data are read from the memory card 52, and in the next step 202, for each pixel in the separated image data, A shift amount of the subject image indicated by the separated image data is calculated. Note that the method for calculating the amount of deviation is the same as the method for calculating the amount of deviation in the conventionally known phase difference AF method, and thus description thereof is omitted here.

次のステップ204では、上記ステップ202の処理によって算出されたずれ量が大きくなるほど多くなるように各画素毎にボケ量を導出し、次のステップ206にて、処理対象撮影画像データに対し、上記ステップ204の処理によって得られた対応するボケ量(ぼかし量)によるぼかし処理を各画素毎に実行し、その後に本画像変換処理プログラムを終了する。   In the next step 204, a blur amount is derived for each pixel so that the deviation amount calculated by the processing in step 202 increases, and in the next step 206, the above-described blur image is obtained for the processing target captured image data. The blurring process using the corresponding blur amount (blur amount) obtained by the process of step 204 is executed for each pixel, and then the image conversion processing program is terminated.

なお、本実施の形態に係るデジタルカメラ10では、上記ぼかし処理として、ロー・パス・フィルタ(Low Pass Filter)を、対応するボケ量に応じた強度で画素毎にかける処理を適用しており、上記ずれ量が小さい画素から順に当該ぼかし処理を施す。この際、既にぼかし処理が施された画素については、ロー・パス・フィルタで用いる周辺画素から除外するようにする。これにより、主要被写体と背景部との境界部分において、ぼかしの強度を大きく変えることができる結果、高精度に主被写体以外の画像をぼかす処理を行うことができる。   In the digital camera 10 according to the present embodiment, as the blurring process, a process of applying a low pass filter (Low Pass Filter) to each pixel with an intensity corresponding to the corresponding blur amount is applied. The blurring process is performed in order from the pixel with the smallest deviation amount. At this time, pixels that have already been subjected to the blurring process are excluded from the peripheral pixels used in the low-pass filter. As a result, it is possible to greatly change the intensity of blurring at the boundary between the main subject and the background portion. As a result, it is possible to perform processing for blurring an image other than the main subject with high accuracy.

このように、本実施の形態に係るデジタルカメラ10では、ロー・パス・フィルタによりぼかし処理を実行しているが、ぼかし処理の形態はこれに限らず、画素毎に強度を設定することのできる他のぼかし処理を適用する形態とすることもできることは言うまでもない。   As described above, in the digital camera 10 according to the present embodiment, the blurring process is executed by the low-pass filter. However, the form of the blurring process is not limited to this, and the intensity can be set for each pixel. It goes without saying that other blurring processes may be applied.

以上詳細に説明したように、本実施の形態に係る固体撮像素子(ここでは、CCD24)では、各々マトリクス状に配置されると共に、画素単位で受光部が複数(ここでは、2つ)の分割領域に均等に分割された複数の受光素子と、各々前記複数の受光素子に1対1で対応して設けられ、対応する受光素子に被写体像を結像させる複数のマイクロレンズと、前記複数の受光素子によって得られた受光量を示す信号を出力する出力手段(ここでは、水平転送路72及び出力アンプ74)と、を備えているので、合焦に関する処理を高精度に行うことができる。   As described above in detail, in the solid-state imaging device (here, the CCD 24) according to the present embodiment, each is arranged in a matrix, and the light receiving unit is divided into a plurality of (here, two) pixels in units of pixels. A plurality of light receiving elements that are equally divided into regions, a plurality of microlenses that are respectively provided in a one-to-one correspondence with the plurality of light receiving elements, and that form a subject image on the corresponding light receiving elements; Since the output means (here, the horizontal transfer path 72 and the output amplifier 74) that outputs a signal indicating the amount of received light obtained by the light receiving element is provided, the processing related to focusing can be performed with high accuracy.

また、本実施の形態に係る固体撮像素子では、前記複数の受光素子が、画素単位で受光部が水平方向に対して均等に分割されているので、縦方向被写体について高精度に合焦制御を行うことができる。   Further, in the solid-state imaging device according to the present embodiment, the plurality of light receiving elements have the light receiving unit equally divided in the horizontal direction in units of pixels, so that the focus control can be performed with high accuracy on the subject in the vertical direction. It can be carried out.

また、本実施の形態に係る固体撮像素子では、前記複数の受光素子が、ハニカム構造とされているので、前記複数の受光素子を正体画素配列構造とする場合に比較して、より各画素の受光部の面積を大きくすることができる結果、感度特性及び飽和特性を向上させることができる一方、より画素ピッチを狭くすることができる結果、解像度を高くすることができる。   Further, in the solid-state imaging device according to the present embodiment, since the plurality of light receiving elements have a honeycomb structure, compared to a case where the plurality of light receiving elements have a true pixel array structure, more pixels are provided. As a result of increasing the area of the light receiving portion, it is possible to improve sensitivity characteristics and saturation characteristics. On the other hand, it is possible to further reduce the pixel pitch, thereby increasing the resolution.

更に、本実施の形態に係る固体撮像素子では、前記複数の受光素子の各々毎に、前記複数の分割領域の各々によって得られた受光量を示す信号を分割領域毎に分離した状態で出力する第1の出力(ここでは、個別転送モードによる出力)と加え合わせた状態で出力する第2の出力(ここでは、加算転送モードによる出力)を選択的に行うものとしているので、各分割領域によって得られた受光量を示す信号を加え合わせる手段を外部に設ける必要がなくなる結果、より簡易に当該固体撮像素子を用いることができる。   Furthermore, in the solid-state imaging device according to the present embodiment, for each of the plurality of light receiving elements, a signal indicating the amount of received light obtained by each of the plurality of divided regions is output in a state of being separated for each divided region. Since the second output (here, the output in the addition transfer mode) that is output in addition to the first output (here, the output in the individual transfer mode) is selectively performed, As a result of eliminating the need to provide an external means for adding the signal indicating the amount of received light, the solid-state imaging device can be used more easily.

一方、本実施の形態に係る撮影装置(ここでは、デジタルカメラ10)では、前記固体撮像素子から第1の出力により出力された信号に基づいて、当該固体撮像素子の各受光素子における受光部の各分割領域別に分離された分離画像情報(ここでは、分離画像データ)を生成すると共に、前記固体撮像素子から第2の出力により出力された信号に基づいて撮影画像を示す撮影画像情報(ここでは、撮影画像データ)を生成し、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う一方、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶しているので、これらの画像情報を用いることにより、合焦に関する処理を高精度に行うことができる。   On the other hand, in the photographing apparatus according to the present embodiment (here, the digital camera 10), based on the signal output from the solid-state image sensor by the first output, the light-receiving unit in each light-receiving element of the solid-state image sensor The separated image information (here, separated image data) separated for each divided region is generated, and the photographed image information (here, the photographed image) indicating the photographed image based on the signal output from the solid-state imaging device by the second output. , Captured image data), and when performing imaging using the solid-state imaging device, while performing focusing control based on the separated image information or the captured image information, Since the information and the photographed image information are stored, the processing relating to focusing can be performed with high accuracy by using these image information.

また、本実施の形態に係る撮影装置では、前記分離画像情報に基づいて、前記固体撮像素子の受光素子の各々毎に前記被写体像のずれ量を導出し、導出した受光素子毎のずれ量に基づいて、前記撮影画像情報に対して、当該ずれ量が大きいほどぼかし量を大きくする画像処理を行っているので、当該画像処理を高精度に行うことができる。   Further, in the photographing apparatus according to the present embodiment, based on the separated image information, a deviation amount of the subject image is derived for each of the light receiving elements of the solid-state imaging element, and the derived deviation amount for each light receiving element is obtained. Based on this, since the image processing for increasing the blurring amount as the shift amount increases is performed on the captured image information, the image processing can be performed with high accuracy.

[第2の実施の形態]
上記第1の実施の形態では、固体撮像素子として、受光素子60の各々毎に、複数の分割領域の各々によって得られた受光量を示す信号を分割領域毎に分離した状態で出力する第1の出力と加え合わせた状態で出力する第2の出力を選択的に行う機能を有するものを適用した場合の形態例について説明したが、本第2の実施の形態では、この機能を有しないものを適用した場合の形態例について説明する。なお、本実施の形態に係るデジタルカメラ10の構成は、CCD24を除いて上記第1の実施の形態に係るものと同様であるので、以下では、CCD24の構成について説明する。
[Second Embodiment]
In the first embodiment, as the solid-state imaging device, for each light receiving element 60, a signal indicating the amount of received light obtained by each of the plurality of divided regions is output in a state of being separated for each divided region. In the second embodiment, the example having the function of selectively performing the second output that is output in combination with the output of the output has been described. However, the second embodiment does not have this function. An example of the case where the above is applied will be described. Since the configuration of the digital camera 10 according to the present embodiment is the same as that according to the first embodiment except for the CCD 24, the configuration of the CCD 24 will be described below.

本第2の実施の形態に係るCCD24は、画素構造及び要部構成が上記第1の実施の形態に係るCCD24(図2及び図3参照。)と同様のものとされる一方、加算転送モードが設けられておらず、個別転送モードのみが設けられている点が異なる。   In the CCD 24 according to the second embodiment, the pixel structure and the main part configuration are the same as those of the CCD 24 according to the first embodiment (see FIGS. 2 and 3). The difference is that only the individual transfer mode is provided.

すなわち、本第2の実施の形態に係るCCD24では、各受光素子60において、第1受光部62Aにおいて蓄積された信号電荷と第2受光部62Bにおいて蓄積された信号電荷を各々個別に対応する垂直転送路を介して水平転送路72まで転送する個別転送モードのみが適用可能とされている。   In other words, in the CCD 24 according to the second embodiment, in each light receiving element 60, the signal charges accumulated in the first light receiving part 62A and the signal charges accumulated in the second light receiving part 62B are individually corresponding to the vertical. Only the individual transfer mode for transferring to the horizontal transfer path 72 via the transfer path is applicable.

次に、図6を参照して、位相差合焦機能が設定されている場合の本第2の実施の形態に係るデジタルカメラ10の撮影時における作用を説明する。なお、図6は、合焦機能として位相差合焦機能が設定されており、かつ撮影モードが設定されている場合に、CPU40によって実行される撮影処理プログラムの処理の流れを示すフローチャートであり、当該プログラムはメモリ48の所定領域に予め記憶されている。   Next, with reference to FIG. 6, the operation at the time of shooting of the digital camera 10 according to the second embodiment when the phase difference focusing function is set will be described. FIG. 6 is a flowchart showing a flow of processing of the shooting processing program executed by the CPU 40 when the phase difference focusing function is set as the focusing function and the shooting mode is set. The program is stored in a predetermined area of the memory 48 in advance.

まず、同図のステップ300では、レリーズスイッチが半押し状態となるまで待機し、次のステップ302では、AE機能を実行した後に位相差合焦機能を実行する。   First, in step 300 in the figure, the process waits until the release switch is half-pressed, and in the next step 302, the phase difference focusing function is executed after the AE function is executed.

このとき、CCD24は、個別転送モードで動作しているため、受光素子60の各々毎に第1受光部62Aにより蓄積された信号電荷と第2受光部62Bにより蓄積された信号電荷が個別に出力されており、上記位相差合焦機能では、これらの信号電荷に基づいて得られる各デジタル画像データ(分離画像データ)を用いて前述した位相差AF方式による合焦制御を行う。   At this time, since the CCD 24 operates in the individual transfer mode, the signal charge accumulated by the first light receiving unit 62A and the signal charge accumulated by the second light receiving unit 62B are individually output for each of the light receiving elements 60. In the phase difference focusing function, focusing control by the phase difference AF method described above is performed using each digital image data (separated image data) obtained based on these signal charges.

また、本ステップ302の処理によって実行されるAE機能では、第1受光部62Aにより蓄積された信号電荷に基づく第1画像データと、第2受光部62Bにより蓄積された信号電荷に基づく第2画像データの少なくとも一方を用いて得られる被写体の明るさに基づいて露出状態の設定を行えばよいが、本第2の実施の形態に係るデジタルカメラ10では、第1画像データにより示される被写体の明るさに基づいて露出状態の設定を行っている。   In the AE function executed by the processing of step 302, the first image data based on the signal charges accumulated by the first light receiving unit 62A and the second image based on the signal charges accumulated by the second light receiving unit 62B. The exposure state may be set based on the brightness of the subject obtained using at least one of the data, but in the digital camera 10 according to the second embodiment, the brightness of the subject indicated by the first image data. The exposure state is set based on the above.

次のステップ304では、レリーズスイッチが全押し状態に移行したか否かを判定して、肯定判定となった場合はステップ308に移行する一方、否定判定となった場合にはステップ306に移行する。   In the next step 304, it is determined whether or not the release switch has been fully pressed. If the determination is affirmative, the process proceeds to step 308. If the determination is negative, the process proceeds to step 306. .

ステップ306では、レリーズスイッチが押圧されていない場合の位置に復帰したか否かを判定することにより、レリーズスイッチの押圧操作が解除されたか否かを判定し、肯定判定となった場合は上記ステップ300に戻る一方、否定判定となった場合には上記ステップ302に戻る。   In step 306, it is determined whether or not the release switch pressing operation has been released by determining whether or not the release switch has been returned to the position where the release switch has not been pressed. On the other hand, if the determination is negative, the process returns to step 302.

一方、ステップ308では、第1画像データ及び第2画像データを対応する画素毎に加算することにより撮影画像データを導出し、次のステップ310では、上記ステップ308の処理によって導出された撮影画像データをメモリカード52に記憶することにより撮影を行う。   On the other hand, in step 308, the captured image data is derived by adding the first image data and the second image data for each corresponding pixel, and in the next step 310, the captured image data derived by the processing in step 308 is performed. Is stored in the memory card 52 to take a picture.

次のステップ312では、第1画像データと第2画像データを上記ステップ310の処理によって記憶した撮影画像データに関連付けてメモリカード52に記憶し、その後に本撮影処理プログラムを終了する。   In the next step 312, the first image data and the second image data are stored in the memory card 52 in association with the photographed image data stored by the process in step 310, and then the photographing process program is terminated.

なお、合焦機能として山登り合焦機能が設定されている場合の本第2の実施の形態に係るデジタルカメラ10の撮影時における作用は、AE機能及びAF機能を働かせる際に、上記撮影処理プログラムのステップ308の処理と同様の処理によって得られた撮影画像データを用いてAE制御及び山登り合焦制御を行う点を除いて当該撮影処理プログラムによるデジタルカメラ10の作用と同様である。   When the hill-climbing focusing function is set as the focusing function, the operation at the time of shooting of the digital camera 10 according to the second embodiment is the above-described shooting processing program when the AE function and the AF function are used. This is the same as the operation of the digital camera 10 according to the photographing processing program except that the AE control and the hill-climbing focusing control are performed using the photographed image data obtained by the processing similar to the processing in step 308.

また、本第2の実施の形態に係るデジタルカメラ10においても、上記第1の実施の形態に係る画像変換処理プログラム(図5参照。)が実行される。   Also in the digital camera 10 according to the second embodiment, the image conversion processing program (see FIG. 5) according to the first embodiment is executed.

以上詳細に説明したように、本実施の形態に係る撮影装置(ここでは、デジタルカメラ10)では、固体撮像素子(ここでは、CCD24)から出力された信号に基づいて、当該固体撮像素子の各受光素子における受光部の各分割領域別に分離された分離画像情報(ここでは、分離画像データ)を生成すると共に、当該分離画像情報を対応する画素毎に加算することにより撮影画像情報(ここでは、撮影画像データ)を生成し、前記固体撮像素子を用いた撮影を行うに当たり、前記分離画像情報又は前記撮影画像情報に基づいて合焦制御を行う一方、前記撮影を行う際に、前記分離画像情報及び前記撮影画像情報を記憶しているので、これらの画像情報を用いることにより、合焦に関する処理を高精度に行うことができる。   As described above in detail, in the imaging apparatus (here, the digital camera 10) according to the present embodiment, each of the solid-state imaging elements is based on the signal output from the solid-state imaging element (here, the CCD 24). In addition to generating separated image information (here, separated image data) separated for each divided region of the light receiving unit in the light receiving element, and adding the separated image information for each corresponding pixel, the captured image information (here, When the photographing is performed using the solid-state image sensor, the focus control is performed based on the separated image information or the photographed image information, while the separated image information is obtained when the photographing is performed. In addition, since the captured image information is stored, the processing relating to focusing can be performed with high accuracy by using the image information.

また、本実施の形態に係る撮影装置では、前記分離画像情報に基づいて、前記固体撮像素子の受光素子の各々毎に前記被写体像のずれ量を導出し、導出した受光素子毎のずれ量に基づいて、前記撮影画像情報に対して、当該ずれ量が大きいほどぼかし量を大きくする画像処理を行っているので、当該画像処理を高精度に行うことができる。   Further, in the photographing apparatus according to the present embodiment, based on the separated image information, a deviation amount of the subject image is derived for each of the light receiving elements of the solid-state imaging element, and the derived deviation amount for each light receiving element is obtained. Based on this, since the image processing for increasing the blurring amount as the shift amount increases is performed on the captured image information, the image processing can be performed with high accuracy.

なお、上記各実施の形態では、固体撮像素子の画素構造として図2に示したもの、すなわち、各受光素子60が、画素単位で受光部62が水平方向に対して均等に分割されているものを適用した場合について説明したが、本発明はこれに限定されるものではなく、一例として図7(a)に示されるように、各受光素子60が、画素単位で受光部62が垂直方向に対して均等に分割されているもの(同図では、第1受光部62C,第2受光部62D)、図7(b)に示されるように、各受光素子60が、画素単位で受光部62が斜め方向に対して均等に分割されているもの(同図では、第1受光部62E,第2受光部62F)、図7(c)に示されるように、各受光素子60が、画素単位で受光部62が水平方向、垂直方向及び斜め方向に対して均等に分割されているもの(同図では、第1受光部62G,第2受光部62H,第3受光部62I,第4受光部62J)、図7(d)に示されるように、各受光素子60が、各々受光部62の中央部にF値が所定値(一例として、F5.6)以下のレンズ用の受光部(同図では、受光部62K)が設けられたもの、以上の各構造を組み合わせたもの等としてもよい。   In each of the above embodiments, the pixel structure of the solid-state image sensor shown in FIG. 2, that is, each light-receiving element 60 is obtained by equally dividing the light-receiving unit 62 in the horizontal direction in units of pixels. However, the present invention is not limited to this, and as an example, as shown in FIG. 7A, each light receiving element 60 has a light receiving portion 62 in a vertical direction in units of pixels. As shown in FIG. 7B, each light receiving element 60 is divided into light receiving portions 62 in units of pixels, as shown in FIG. 7B, which are equally divided (the first light receiving portion 62C and the second light receiving portion 62D in the figure). Are equally divided with respect to the oblique direction (the first light receiving portion 62E and the second light receiving portion 62F in the same figure), and as shown in FIG. 7C, each light receiving element 60 has a pixel unit. With the light receiving unit 62 in the horizontal, vertical and diagonal directions As shown in FIG. 7 (d), the light receiving parts are equally divided (in the figure, the first light receiving part 62G, the second light receiving part 62H, the third light receiving part 62I, the fourth light receiving part 62J). Each of the elements 60 is provided with a light receiving portion for a lens (in the figure, the light receiving portion 62K) having an F value of a predetermined value (for example, F5.6) or less at the center of the light receiving portion 62. It may be a combination of structures.

各受光素子60が、画素単位で受光部62が垂直方向に対して均等に分割されている場合、横方向被写体について高精度に合焦制御を行うことができる。また、各受光素子60が、画素単位で受光部62が斜め方向に対して均等に分割されている場合、縦方向被写体及び横方向被写体の何れの被写体においても高精度に合焦制御を行うことができると共に、対応する分割領域間のピッチを、より狭くすることができる結果、より高精度に合焦制御することができる。   In each light receiving element 60, when the light receiving unit 62 is evenly divided in the vertical direction in units of pixels, it is possible to perform focusing control with high accuracy for a lateral subject. In addition, when each light receiving element 60 has a light receiving unit 62 that is evenly divided in an oblique direction in units of pixels, focus control can be performed with high accuracy on both a vertical subject and a horizontal subject. As a result, the pitch between the corresponding divided regions can be made narrower, and as a result, focusing control can be performed with higher accuracy.

また、各受光素子60が、各々中央部にF値が所定値以下のレンズ用の受光部が設けられている場合、当該受光部によって得られた受光量と、受光部62における複数の分割領域によって得られた受光量を加算することにより、当該固体撮像素子により撮影を行う際のダイナミック・レンジを拡大することができる。   Further, when each light receiving element 60 is provided with a light receiving portion for a lens having an F value equal to or less than a predetermined value at the center portion, the received light amount obtained by the light receiving portion and a plurality of divided regions in the light receiving portion 62 By adding the received light amounts obtained by the above, it is possible to expand the dynamic range when photographing with the solid-state imaging device.

また、上記各実施の形態では、本発明の固体撮像素子をCCDに適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、CMOSイメージ・センサに適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   In each of the above embodiments, the case where the solid-state imaging device of the present invention is applied to a CCD has been described. However, the present invention is not limited to this, and is applied to, for example, a CMOS image sensor. You can also. Also in this case, the same effects as those of the above embodiments can be obtained.

また、上記各実施の形態では、各受光素子60における受光部62の分割領域数を2つとした場合について説明したが、本発明はこれに限定されるものではなく、当該分割領域数を3つ以上とする形態としてもよい。   In each of the above embodiments, the case where the number of divided regions of the light receiving unit 62 in each light receiving element 60 is two has been described. However, the present invention is not limited to this, and the number of divided regions is three. It is good also as a form made into the above.

また、上記各実施の形態では、本発明をデジタルカメラに適用した場合について説明したが、本発明はこれに限定されるものではなく、例えば、携帯電話機、PDA等の撮影機能を有する他の装置に適用する形態とすることもできる。この場合も、上記各実施の形態と同様の効果を奏することができる。   Further, although cases have been described with the above embodiments where the present invention is applied to a digital camera, the present invention is not limited to this, and other devices having a photographing function, such as a mobile phone and a PDA, for example. It can also be set as the form applied to. Also in this case, the same effects as those of the above embodiments can be obtained.

その他、上記各実施の形態に係るデジタルカメラ及びCCDの構成(図1〜図3,図7参照。)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   In addition, the configurations of the digital camera and the CCD according to each of the above-described embodiments (see FIGS. 1 to 3 and 7) are merely examples, and it goes without saying that they can be changed as appropriate without departing from the gist of the present invention. Yes.

更に、上記各実施の形態において説明した各種処理プログラムの処理の流れ(図4〜図6参照。)も一例であり、本発明の主旨を逸脱しない範囲内において、各ステップの処理順序の変更、処理内容の変更、不要なステップの削除、新たなステップの追加等を行うことができることは言うまでもない。   Furthermore, the processing flow of the various processing programs described in the above embodiments (see FIGS. 4 to 6) is also an example, and the processing order of each step can be changed without departing from the gist of the present invention. It goes without saying that processing contents can be changed, unnecessary steps can be deleted, new steps can be added, and the like.

実施の形態に係るデジタルカメラの電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the digital camera which concerns on embodiment. 実施の形態に係るCCDの要部構成(画素構造)を示す平面図である。It is a top view which shows the principal part structure (pixel structure) of CCD which concerns on embodiment. 実施の形態に係るCCDの要部構成(全体構成)を示す平面図である。It is a top view which shows the principal part structure (whole structure) of CCD which concerns on embodiment. 第1の実施の形態に係る撮影処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging | photography processing program which concerns on 1st Embodiment. 実施の形態に係る画像変換処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image conversion processing program which concerns on embodiment. 第2の実施の形態に係る撮影処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the imaging | photography processing program which concerns on 2nd Embodiment. 実施の形態に係るCCDの他の画素構造の構成例を示す平面図である。It is a top view which shows the structural example of the other pixel structure of CCD which concerns on embodiment. 位相差AF方式の原理の説明に供する側面図である。It is a side view for explaining the principle of the phase difference AF method.

符号の説明Explanation of symbols

10 デジタルカメラ
22 光学ユニット(結像手段)
24 CCD(固体撮像素子)
40 CPU(撮影画像情報生成手段,合焦制御手段,導出手段,画像処理手段)
52 メモリカード(記憶手段)
60 受光素子
62 受光部
62A 第1受光部
62B 第2受光部
62C 第1受光部
64D 第2受光部
62E 第1受光部
62F 第2受光部
62G 第1受光部
62H 第2受光部
62I 第3受光部
62J 第4受光部
62K 受光部
64 マイクロレンズ
72 水平転送路(出力手段)
74 出力アンプ(出力手段)
10 Digital camera 22 Optical unit (imaging means)
24 CCD (solid-state image sensor)
40 CPU (captured image information generation means, focus control means, derivation means, image processing means)
52 Memory card (memory means)
60 light receiving element 62 light receiving portion 62A first light receiving portion 62B second light receiving portion 62C first light receiving portion 64D second light receiving portion 62E first light receiving portion 62F second light receiving portion 62G first light receiving portion 62H second light receiving portion 62I third light receiving portion Part 62J fourth light receiving part 62K light receiving part 64 micro lens 72 horizontal transfer path (output means)
74 Output amplifier (output means)

Claims (3)

各々マトリクス状に配置されると共に、画素単位で受光部が水平方向、垂直方向、及び斜め方向の少なくとも1つの方向に対して複数の分割領域に均等に分割され、かつ各々前記受光部の中央部にF値が所定値以上のレンズ用の受光部が設けられている複数の受光素子、各々前記複数の受光素子に1対1で対応して設けられ、対応する受光素子に被写体像を結像させる複数のマイクロレンズ、及び前記複数の受光素子によって得られた受光量を示す信号を出力する出力手段を備えた固体撮像素子と
前記固体撮像素子から出力された信号に基づいて前記複数の分割領域の各領域別に分離された分離画像情報を生成する分離画像情報生成手段と、
前記分離画像情報及び前記中央部に設けられた受光部による画像情報を対応する画素毎に加算することにより撮影画像情報を生成する撮影画像情報生成手段と、
生成された分離画像情報及び生成された撮影画像情報を記憶する記憶手段と、
前記記憶手段に記憶された前記分離画像情報に基づいて、前記固体撮像素子の受光素子の各々毎に前記被写体像のずれ量を導出する導出手段と、
前記導出手段によって得られた受光素子毎のずれ量に基づいて、前記記憶手段に記憶された前記撮影画像情報に対して、当該ずれ量が大きいほどぼかし量を大きくする画像処理を行う画像処理手段と、
を含む撮影装置。
Each of the light receiving parts is arranged in a matrix, and the light receiving part is equally divided into a plurality of divided areas with respect to at least one of the horizontal direction, the vertical direction, and the oblique direction , and each of the center parts of the light receiving parts. forming an object image into a plurality of light-receiving element that F values are light-receiving unit for a predetermined value or more lenses are provided, it is provided corresponding 1-one to each of the plurality of light receiving elements, the corresponding light-receiving element and the solid-state image sensor having a plurality of micro lenses, and the output means to output a signal indicating the amount of received light obtained by the plurality of light receiving elements for the image,
Separated image information generating means for generating separated image information separated for each of the plurality of divided regions based on a signal output from the solid-state imaging device;
Photographic image information generating means for generating photographic image information by adding the separated image information and the image information by the light receiving unit provided in the central portion for each corresponding pixel;
Storage means for storing the generated separated image information and the generated captured image information;
Derivation means for deriving a shift amount of the subject image for each of the light receiving elements of the solid-state imaging device based on the separated image information stored in the storage means;
Based on the shift amount for each light receiving element obtained by the derivation unit, the image processing unit performs image processing for increasing the blur amount as the shift amount increases with respect to the captured image information stored in the storage unit. When,
An imaging device including:
前記複数の受光素子は、ハニカム構造とされている
請求項記載の撮影装置。
Wherein the plurality of light receiving elements, photographing apparatus according to claim 1, wherein there is a honeycomb structure.
前記出力手段は、前記複数の受光素子の各々毎に、前記複数の分割領域の各々によって得られた受光量を示す信号を分割領域毎に分離した状態で出力する第1の出力と加え合わせた状態で出力する第2の出力を選択的に行う
請求項1又は請求項2記載の撮影装置
The output means adds, for each of the plurality of light receiving elements, a first output that outputs a signal indicating the amount of received light obtained by each of the plurality of divided regions in a state of being separated for each divided region. The imaging device according to claim 1, wherein the second output that is output in a state is selectively performed.
JP2008098447A 2008-04-04 2008-04-04 Imaging device Expired - Fee Related JP5224879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008098447A JP5224879B2 (en) 2008-04-04 2008-04-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008098447A JP5224879B2 (en) 2008-04-04 2008-04-04 Imaging device

Publications (2)

Publication Number Publication Date
JP2009253623A JP2009253623A (en) 2009-10-29
JP5224879B2 true JP5224879B2 (en) 2013-07-03

Family

ID=41313869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008098447A Expired - Fee Related JP5224879B2 (en) 2008-04-04 2008-04-04 Imaging device

Country Status (1)

Country Link
JP (1) JP5224879B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5513623B2 (en) * 2010-08-24 2014-06-04 富士フイルム株式会社 Solid-state imaging device
CN103548335A (en) * 2011-03-31 2014-01-29 富士胶片株式会社 Solid-state image capturing element, drive method therefor, and image capturing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092085A (en) * 2003-09-19 2005-04-07 Canon Inc Focus detecting method and focusing method, and focus detecting device and focusing device
JP4967296B2 (en) * 2005-10-03 2012-07-04 株式会社ニコン Imaging device, focus detection apparatus, and imaging system
JP2007155930A (en) * 2005-12-01 2007-06-21 Nikon Corp Solid-state imaging element and imaging apparatus using the same
JP2007158692A (en) * 2005-12-05 2007-06-21 Nikon Corp Solid state imaging device and electronic camera using the same

Also Published As

Publication number Publication date
JP2009253623A (en) 2009-10-29

Similar Documents

Publication Publication Date Title
JP5744263B2 (en) Imaging apparatus and focus control method thereof
EP2181349B1 (en) Image sensing apparatus
JP5430795B2 (en) Imaging apparatus and program
JP5468177B2 (en) Imaging apparatus and focus control method thereof
JP2007178576A (en) Imaging apparatus and program therefor
JP2011075675A (en) Compound-eye imaging apparatus
US10298862B2 (en) Imaging apparatus and imaging method
JP2015033036A (en) Imaging device, control method for imaging device, and control program
US8223255B2 (en) Imaging apparatus, auto-focusing method and recording medium
JP2010130343A (en) Imaging apparatus and its drive control method
JP5302058B2 (en) Imaging apparatus and imaging method
JP2007225897A (en) Focusing position determination device and method
WO2020137217A1 (en) Imaging element, imaging device, image data processing method, and program
JP2002207162A (en) Digital camera
JP2006023339A (en) Imaging apparatus
JP5224879B2 (en) Imaging device
JP2010190913A (en) Imaging device with automatic focus function
JP2007226141A (en) Photographing device and method
WO2021241014A1 (en) Imaging device and imaging method
JP2008227839A (en) Image-taking device
JP4727526B2 (en) Imaging device
JP2007074114A (en) Electronic camera
JP2007306064A (en) Imaging apparatus
JP2007025129A (en) Exposure setting method and device
JP2007266692A (en) Imaging method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130312

R150 Certificate of patent or registration of utility model

Ref document number: 5224879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees