JP5381142B2 - Imaging device and imaging apparatus - Google Patents

Imaging device and imaging apparatus Download PDF

Info

Publication number
JP5381142B2
JP5381142B2 JP2009029388A JP2009029388A JP5381142B2 JP 5381142 B2 JP5381142 B2 JP 5381142B2 JP 2009029388 A JP2009029388 A JP 2009029388A JP 2009029388 A JP2009029388 A JP 2009029388A JP 5381142 B2 JP5381142 B2 JP 5381142B2
Authority
JP
Japan
Prior art keywords
signal
image
focus detection
signals
thinning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009029388A
Other languages
Japanese (ja)
Other versions
JP2010185998A (en
Inventor
壽久 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009029388A priority Critical patent/JP5381142B2/en
Publication of JP2010185998A publication Critical patent/JP2010185998A/en
Application granted granted Critical
Publication of JP5381142B2 publication Critical patent/JP5381142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Focusing (AREA)

Description

本発明は撮像素子と撮像装置に関する。   The present invention relates to an imaging element and an imaging apparatus.

撮像画素と焦点検出画素とを平面上に展開し、焦点検出画素から出力される測距信号に基づいて位相差検出方式で撮影レンズの焦点検出を行うようにした撮像装置が知られている(例えば、特許文献1参照)。   There is known an imaging apparatus in which imaging pixels and focus detection pixels are developed on a plane, and focus detection of a photographing lens is performed by a phase difference detection method based on a distance measurement signal output from the focus detection pixels ( For example, see Patent Document 1).

特開2000−156823号公報JP 2000-156823 A

上述した従来の撮像装置では、高解像度の静止画を得るために撮像素子上のすべてのラインの信号を読み出す静止画撮影モードと、EVF(Electronic View Finder;電子ビューファインダー)表示(スルー画表示)や動画撮影のために撮像素子上のラインを間引いて信号を読み出す間引きモードと、撮影光学系の焦点検出を行うために焦点検出画素が含まれるラインの信号を読み出す測距モードとを有し、静止画撮影時には、最初に間引きモードでEVF表示を行って撮影構図を決定し、次に測距モードに切り換えて撮影光学系のAF(Auto Focus;自動焦点調節)を行い、最後に静止画撮影モードに切り換えて撮像を行っている。一方、動画撮影時には、間引きモードでEVF表示を行うとともに間引き読み出しした画像信号を圧縮してメモリに記録し、所定時間ごとに測距モードに切り換えて撮影光学系のAFを行っている。
このように、従来の撮像装置では撮影時に静止画撮影モード、間引きモードおよび測距モードという3つのモードを切り換えなければならないので、制御シーケンスが煩雑になるという問題がある。
In the conventional imaging apparatus described above, a still image shooting mode for reading out signals of all lines on the image sensor to obtain a high-resolution still image, and an EVF (Electronic View Finder) display (through image display) And a thinning mode for thinning out lines on the image sensor for video shooting and reading out signals, and a ranging mode for reading out signals of lines including focus detection pixels for focus detection of the photographing optical system, When shooting a still image, first display the EVF in the thinning mode to determine the shooting composition, then switch to the ranging mode, perform AF (Auto Focus) of the shooting optical system, and finally shoot the still image The mode is switched to the mode. On the other hand, at the time of moving image shooting, EVF display is performed in the thinning mode and the image signal read out is compressed and recorded in the memory, and the AF of the photographing optical system is performed by switching to the distance measuring mode every predetermined time.
As described above, the conventional imaging apparatus has a problem that the control sequence becomes complicated because the three modes of the still image shooting mode, the thinning mode, and the distance measuring mode must be switched during shooting.

(1)請求項1の発明は、画像を生成するための信号を出力する複数の撮像用画素が二次元状に配列された撮像素子の一部に、焦点検出のための信号を出力する複数の焦点検出用画素が配列された撮像素子であって、撮像用画素と焦点検出用画素はそれぞれX軸アドレスとY軸アドレスを有する二次元状に展開されており、X,Yアドレスを指定して画素ごとに信号を読み出す読み出し回路を備え、読み出し回路は、すべての撮像用画素とすべての焦点検出用画素から信号を読み出す全画素読み出しモードと、撮像用画素の内の一部の画素を間引いて信号を読み出す間引き読み出しモードとを有し、間引き読み出しモードでは、撮像用画素の内の一部の画素の信号に加え、すべての焦点検出用画素の信号を、1フレームの読出し期間内に読み出すと共に、間引き読み出しモードの実行時には、1フレームにおける垂直ブランキング期間内にすべての焦点検出用画素の信号を読み出し、且つ1フレームにおける垂直ブランキング期間の後に撮像用画素の内の一部の画素を間引いて信号を読み出す
(2)請求項2の撮像素子の焦点検出用画素は、光学系の瞳の異なる領域を通過した対の光束の一方または両方を受光する光電変換部を有する。
(3)請求項3の発明は、請求項1または2に記載の撮像素子と、間引き読み出しモードの実行時に、撮像用画素から出力された信号と焦点検出用画素から出力された信号とを分離する信号分離手段と、信号分離手段により分離された撮像用画素の信号により画像を生成する画像生成手段と、信号分離手段により分離された焦点検出用画素の信号により光学系の焦点調節状態を検出し、焦点調節状態に基づいて光学系の焦点調節を行う焦点調節手段とを備える。
(4)請求項4の撮像装置は、焦点検出用画素の周囲の撮像用画素の信号に基づいて、当該焦点検出用画素の位置における画像を生成するための信号を補間により求める補間手段と、撮像用画素の信号に基づいてホワイトバランス調整に用いる評価値を算出するホワイトバランス評価値算出手段と、全画素読み出しモードの実行時に、撮像用画素の信号と補間手段により求めた焦点検出用画素位置の信号とに基づいてホワイトバランス調整に用いる評価値を補正する評価値補正手段とを備えたものである。
(5)請求項5の撮像装置は、信号分離手段によって、焦点検出用画素の信号を分離するか否かを設定可能であり、分離する設定がなされた場合に、間引き読み出しモードにおいて繰り返し行われる間引き読み出しの内の1回だけ焦点検出用画素の信号を分離するモードと、所定の間引き読み出し回数ごとに焦点検出用画素の信号を分離するモードとのいずれかを選択可能にしたものである。
(6)請求項6の撮像装置は、焦点調節手段が、CPUと高速読み書き可能なメモリとを有し、間引き読み出しモードの実行時には、信号分離手段により分離された焦点検出用画素の信号をメモリに直接記憶するとともに、メモリに記憶された信号に基づいてCPUが焦点検出演算と焦点調節制御を実行するようにしたものである。
(7)請求項7の撮像装置は、焦点調節手段が、演算専用のコプロセッサーをさらに有し、間引き読み出しモードの実行時には、信号分離手段により分離された焦点検出用画素の信号をメモリに直接記憶するとともに、メモリに記憶された信号に基づいてコプロセッサーが焦点検出演算を実行し、この焦点検出演算結果に基づいてCPUが焦点調節制御を実行するようにしたものである。
(8)請求項8の撮像装置は、補間手段および評価値補正手段が、コプロセッサーと高速読み書き可能なメモリを用いて補間演算と評価値補正演算を実行する。
(1) In the first aspect of the invention, a plurality of signals for focus detection are output to a part of an imaging device in which a plurality of imaging pixels that output a signal for generating an image are two-dimensionally arranged. The focus detection pixels are arrayed, and the image pickup pixels and the focus detection pixels are expanded in a two-dimensional shape having an X-axis address and a Y-axis address, respectively, and specify the X and Y addresses. A readout circuit that reads out signals for each pixel, and the readout circuit thins out all pixels in the pixel readout mode and all-pixel readout mode in which signals are read out from all imaging pixels and all focus detection pixels. has a thinning readout mode for reading the signal, the Te, the thinning readout mode, in addition to the signal of the part of the pixels of the image pickup pixel, the signals of all the focus detection pixels, in the read period of one frame Reading With out, at the time of execution of the thinning readout mode, the readout signal of all the focus detection pixels in the vertical blanking period in one frame, and a part of the pixels of the image pickup pixels after the vertical blanking period in one frame Read out the signal .
(2) The focus detection pixel of the image pickup device according to claim 2 includes a photoelectric conversion unit that receives one or both of a pair of light beams that have passed through different regions of the pupil of the optical system.
(3) The invention of claim 3 separates the image sensor according to claim 1 or 2 and the signal output from the imaging pixel and the signal output from the focus detection pixel when executing the thinning readout mode. The signal separation means, the image generation means for generating an image from the signal of the imaging pixel separated by the signal separation means, and the focus adjustment state of the optical system is detected by the signal of the focus detection pixel separated by the signal separation means And a focus adjusting means for adjusting the focus of the optical system based on the focus adjustment state.
(4) The imaging device according to claim 4 is an interpolation unit that obtains a signal for generating an image at the position of the focus detection pixel by interpolation based on a signal of the imaging pixel around the focus detection pixel; White balance evaluation value calculating means for calculating an evaluation value used for white balance adjustment based on the image pickup pixel signal, and the focus detection pixel position obtained by the image pickup pixel signal and interpolation means when executing the all-pixel read mode. And an evaluation value correcting means for correcting an evaluation value used for white balance adjustment based on the above signal.
(5) In the imaging device according to the fifth aspect , it is possible to set whether or not the signal of the focus detection pixel is separated by the signal separation unit, and when the separation setting is made, the image pickup device is repeatedly performed in the thinning readout mode. One of the mode for separating the signal for the focus detection pixel only once in the thinning readout and the mode for separating the signal for the focus detection pixel for every predetermined number of times of thinning readout can be selected.
(6) In the imaging apparatus according to the sixth aspect , the focus adjusting unit includes a CPU and a memory capable of reading and writing at high speed, and when executing the thinning readout mode, the focus detection pixel signal separated by the signal separating unit is stored in the memory. The CPU directly executes focus detection calculation and focus adjustment control based on the signal stored in the memory.
(7) In the image pickup apparatus according to claim 7 , the focus adjusting unit further includes a coprocessor dedicated to calculation, and when executing the thinning readout mode, the signal of the focus detection pixel separated by the signal separating unit is directly stored in the memory. The coprocessor executes a focus detection calculation based on the signal stored in the memory, and the CPU executes the focus adjustment control based on the focus detection calculation result.
(8) In the imaging apparatus according to the eighth aspect , the interpolation unit and the evaluation value correction unit execute the interpolation calculation and the evaluation value correction calculation using a coprocessor and a high-speed readable / writable memory.

本発明によれば、間引き読み出しモードにおいてAF制御を行う場合に、間引き読み出しモードから他のモードへモードを切り換える必要がなく、制御シーケンスを簡略化できる。   According to the present invention, when AF control is performed in the thinning readout mode, it is not necessary to switch the mode from the thinning readout mode to another mode, and the control sequence can be simplified.

一実施の形態のデジタルカメラの構成を示す図The figure which shows the structure of the digital camera of one embodiment 画像処理回路の詳細な構成を示す図The figure which shows the detailed structure of an image processing circuit 撮像素子の代表的なRGB原色ベイヤー配列を示す図Diagram showing typical RGB primary color Bayer array of image sensor 間引きモードにおける信号読み出しの一例を示す図The figure which shows an example of the signal reading in thinning mode 静止画撮影モードにおける信号読み出しの一例を示す図The figure which shows an example of the signal reading in still image shooting mode 静止画撮影モードにおける画像処理方法を示す図The figure which shows the image processing method in still picture photographing mode AE/AWB評価値を検出するためのウインドウの設定例を示す図The figure which shows the example of the setting of the window for detecting AE / AWB evaluation value 図4に示すセンサーセルS1を含むラインとセンサーセルS2を含むラインの拡大図FIG. 4 is an enlarged view of a line including the sensor cell S1 and a line including the sensor cell S2. 間引きモードの信号読み出しタイミングを示す図Diagram showing signal readout timing in thinning mode AFセンサーアレイの配置例を示す図Diagram showing an example of AF sensor array arrangement 焦点検出用画素位置の画像信号を補間により求める方法を示す図The figure which shows the method of calculating | requiring the image signal of the focus detection pixel position by interpolation AFセンサーアレイからの信号の読み出し順を示す図Diagram showing the readout order of signals from the AF sensor array コストを重視した位相差演算回路の一実施例を示す図The figure which shows one Example of the phase difference calculating circuit which attached importance to cost 性能と柔軟性を重視した位相差演算回路の他の実施例を示す図The figure which shows the other Example of the phase difference arithmetic circuit which attached importance to performance and flexibility

図1は一実施の形態のデジタルカメラの構成を示す図、図2は画像処理回路の詳細な構成を示す図である。   FIG. 1 is a diagram showing a configuration of a digital camera according to an embodiment, and FIG. 2 is a diagram showing a detailed configuration of an image processing circuit.

一実施の形態のデジタルカメラは、カメラのほとんどの機能と動作を制御するDSCエンジン(システムLSI)6を中心に構成されている。DSCエンジン6にはCPU30、画像処理回路22、JPEGコーデック24、ディスプレイエンジン25、SDRAMコントローラ(SDRAMC)32、FlashメモリIF31、メモリカードIF28、USBコントローラ29、クロック発生器33、シリアルポート(SIO)26、パラレルポート(PIO)27などが設けられ、画像バス34およびCPUバス35を介して各種情報の授受を行う。なお、DSCエンジン6には図示しないタイマー、割り込みコントローラ、DMAコントローラ(DMAC)、汎用のAD変換器なども設けられている。   A digital camera according to an embodiment is mainly configured by a DSC engine (system LSI) 6 that controls most functions and operations of the camera. The DSC engine 6 includes a CPU 30, an image processing circuit 22, a JPEG codec 24, a display engine 25, an SDRAM controller (SDRAMC) 32, a Flash memory IF 31, a memory card IF 28, a USB controller 29, a clock generator 33, and a serial port (SIO) 26. A parallel port (PIO) 27 and the like are provided, and various information is exchanged via the image bus 34 and the CPU bus 35. The DSC engine 6 is provided with a timer, an interrupt controller, a DMA controller (DMAC), a general-purpose AD converter, etc., not shown.

また、DSCエンジン6には様々な外付けコンポーネントが接続される。主要な外付けコンポーネントとしては、SDRAM12、フラッシュメモリ9、LCDパネル11、メモリカード7、水晶発振子(X’tal)10、固体撮像素子(CCDやCMOSなど)2、AFE(Analog Front End)3、TG(Timing Generator)5、撮影レンズ1、モータードライバーIC(MDIC)4などがある。撮影レンズ1は鏡筒ユニットとして構成されており、図示しないズーミングレンズ、フォーカシングレンズ、メカ絞り、メカシャッターなどと、それらを駆動するためのモーターなどが設けられている。   Various external components are connected to the DSC engine 6. The main external components are SDRAM 12, flash memory 9, LCD panel 11, memory card 7, crystal oscillator (X'tal) 10, solid-state image sensor (CCD, CMOS, etc.) 2, AFE (Analog Front End) 3 , TG (Timing Generator) 5, photographic lens 1, motor driver IC (MDIC) 4, etc. The photographing lens 1 is configured as a lens barrel unit, and is provided with a zooming lens, a focusing lens, a mechanical aperture, a mechanical shutter, and the like (not shown) and a motor for driving them.

なお、この一実施の形態では固体撮像素子2にCCDを用いた例を示し、CCDの色フィルターは図3に示す代表的なRGB原色ベイヤー配列とする。DSCエンジン6にはこれらの他にも不図示のスピーカー、マイク、操作ボタンなどが接続されている。オーディオコーデック(不図示)を内蔵しないDSCエンジンの場合には、これも外付けとなる。これらの外付けコンポーネントもDSCエンジン6の制御下で動作する。   In this embodiment, an example in which a CCD is used for the solid-state imaging device 2 is shown, and the color filter of the CCD has a typical RGB primary color Bayer array shown in FIG. In addition to these, the DSC engine 6 is connected to a speaker, a microphone, an operation button, and the like (not shown). In the case of a DSC engine that does not incorporate an audio codec (not shown), this is also externally attached. These external components also operate under the control of the DSC engine 6.

SDRAM12は画像メモリおよびCPU30のワークメモリとして利用され、アクセスの頻度が非常に高いことから高速なメモリデバイスが使われる。最近ではDDR-SDRAMを使うことが多い。フラッシュメモリ9にはCPU30のプログラム(ファームウェア)、カメラごとに異なる様々な調整値やユーザーによるカメラの設定情報、さらに撮影された画像データのファイルなどが記憶される。一方、メモリカード7は着脱式の記録媒体であり、記憶領域が空いている場合は撮影された画像がこちらの方に優先的に記録される。LCDパネル11はカメラに内蔵されるディスプレイ装置であり、スルー画や再生画などの画像を表示する他に、文字やアイコンなどの様々なカメラ情報を表示することにも使用される。   The SDRAM 12 is used as an image memory and a work memory for the CPU 30, and a high-speed memory device is used because the access frequency is very high. Recently, DDR-SDRAM is often used. The flash memory 9 stores a program (firmware) of the CPU 30, various adjustment values different for each camera, camera setting information by a user, a file of captured image data, and the like. On the other hand, the memory card 7 is a detachable recording medium, and when the storage area is free, the photographed image is preferentially recorded on this side. The LCD panel 11 is a display device built in the camera, and is used to display various camera information such as characters and icons in addition to displaying images such as through images and playback images.

ここで、図1を参照しながら、固体撮像素子2として通常のCCDを用いたデジタルカメラの全般的な動作を説明する。被写体像は撮影レンズ1によって固体撮像素子2上に結像される。撮影時は、撮影レンズ1のズーミングレンズやフォーカシンレンズ、メカ絞り、メカシャッターなどがそれぞれのモーターによって駆動され、撮影が行われる。これらのモーターは図中のモータードライバーIC4によって駆動されるが、その制御はSIO26やPIO27を介してDSCエンジン6により行われる。   Here, the general operation of a digital camera using a normal CCD as the solid-state image sensor 2 will be described with reference to FIG. The subject image is formed on the solid-state image sensor 2 by the photographing lens 1. At the time of shooting, the zooming lens, the focusing lens, the mechanical aperture, the mechanical shutter, etc. of the shooting lens 1 are driven by the respective motors to perform shooting. These motors are driven by a motor driver IC 4 in the figure, and the control is performed by the DSC engine 6 via the SIO 26 and the PIO 27.

固体撮像素子2はTG5のパルスによって駆動され、被写体の露光(画像信号電荷の蓄積)や画像信号の様々な読み出し動作がこれにより制御される。固体撮像素子2から読み出された画像信号はAFE3によってサンプリングされ、画素ごとにデジタルデータへ変換される。TG5とAFE3はSIO26を介してDSCエンジン6により制御される。このデジタル画像データ(RAWデータ)はDSCエンジン6に入力され、画像処理回路22で処理されてYCbCrデータとなる。画像処理回路22から出力されたYCbCrデータは、画像バス34を経由してSDRAM12に記憶される。SDRAM12からYCbCrデータを読み出し、画像バス34からディスプレイエンジン25に入力すると、その画像がLCDパネル11に表示される。   The solid-state image pickup device 2 is driven by a pulse of TG5, and the exposure of the subject (accumulation of the image signal charge) and various readout operations of the image signal are controlled thereby. The image signal read from the solid-state imaging device 2 is sampled by the AFE 3 and converted into digital data for each pixel. TG 5 and AFE 3 are controlled by the DSC engine 6 via the SIO 26. This digital image data (RAW data) is input to the DSC engine 6 and processed by the image processing circuit 22 to become YCbCr data. The YCbCr data output from the image processing circuit 22 is stored in the SDRAM 12 via the image bus 34. When YCbCr data is read from the SDRAM 12 and input to the display engine 25 from the image bus 34, the image is displayed on the LCD panel 11.

同様に、SDRAM12からYCbCrデータを読み出し、画像バス34を経由してJPEGコーデック24に入力すると、YCbCrデータが圧縮される。JPEGコーデック24から出力された圧縮データは、画像バス34を経由してSDRAM12に記憶される。この圧縮データをSDRAM12から読み出し、CPUバス35からメモリカードIF28へ送ると、メモリカード7にその圧縮データが記録され、一連の撮影動作が終了する。一方、画像を再生するにはメモリカード7から圧縮データを読み出し、CPUバス35を経由してそれをいったんSDRAM12に記憶する。この圧縮データをSDRAM12から読み出し、画像バス34からJPEGコーデック24へ入力すれば、圧縮データが伸長される。   Similarly, when YCbCr data is read from the SDRAM 12 and input to the JPEG codec 24 via the image bus 34, the YCbCr data is compressed. The compressed data output from the JPEG codec 24 is stored in the SDRAM 12 via the image bus 34. When this compressed data is read from the SDRAM 12 and sent from the CPU bus 35 to the memory card IF 28, the compressed data is recorded in the memory card 7, and a series of photographing operations is completed. On the other hand, in order to reproduce an image, compressed data is read from the memory card 7 and is temporarily stored in the SDRAM 12 via the CPU bus 35. When this compressed data is read from the SDRAM 12 and input from the image bus 34 to the JPEG codec 24, the compressed data is expanded.

JPEGコーデック24から出力された伸長後の画像データは、再び画像バス34を経由してSDRAM12に記憶される。この画像データをSDRAM12から読み出し、画像バス34から画像処理回路22へ入力して適当なサイズに変換する。画像処理回路22から出力された解像度変換後の画像データは、画像バス34を経由してSDRAM12に記憶される。この画像データをSDRAM12から読み出し、画像バス34からディスプレイエンジン25へ入力すれば、再生画像がLCDパネル11に表示される。なお、解像度変換が不要な場合はJPEG伸長後の画像データをそのまま表示する。   The decompressed image data output from the JPEG codec 24 is stored in the SDRAM 12 again via the image bus 34. This image data is read from the SDRAM 12 and input from the image bus 34 to the image processing circuit 22 to be converted into an appropriate size. The image data after resolution conversion output from the image processing circuit 22 is stored in the SDRAM 12 via the image bus 34. When this image data is read from the SDRAM 12 and input from the image bus 34 to the display engine 25, a reproduced image is displayed on the LCD panel 11. If no resolution conversion is required, the image data after JPEG decompression is displayed as it is.

メモリカード7に記録された画像データ(JPEGファイルなど)をホストPC8に保存するには、カメラとホストPC8をUSBケーブルで接続する。まず、メモリカード7から画像ファイルを読み出し、CPUバス35を経由してこれをいったんSDRAM12へ記憶する。この画像ファイルをSDRAM12から読み出してCPUバス35を経由してUSBコントローラ29へ送れば、ホストPC8に保存される。これと逆の流れでホストPC8のファイルをカメラのメモリカード7に記録することもできる。   In order to save the image data (JPEG file etc.) recorded on the memory card 7 in the host PC 8, the camera and the host PC 8 are connected by a USB cable. First, an image file is read from the memory card 7 and is temporarily stored in the SDRAM 12 via the CPU bus 35. When this image file is read from the SDRAM 12 and sent to the USB controller 29 via the CPU bus 35, it is stored in the host PC 8. The file on the host PC 8 can be recorded on the memory card 7 of the camera in the reverse flow.

次に、撮影時の固体撮像素子2からの信号読み出しと、画像処理回路22の動作について説明する。まず、カメラの撮影動作には2つの異なる動作があり、一方はEVF表示(スルー画表示)動作であり、他方はフル解像度の静止画撮影動作である。この2つの動作の違いは、固体撮像素子2からの信号読み出しモードの違いである。すなわち、EVF表示動作では固体撮像素子2から間引きモードで信号が読み出されるが、静止画撮影動作では固体撮像素子2から静止画撮影モードで全画素の信号が読み出される。   Next, signal readout from the solid-state imaging device 2 at the time of shooting and the operation of the image processing circuit 22 will be described. First, the camera has two different shooting operations, one is an EVF display (through image display) operation, and the other is a full-resolution still image shooting operation. The difference between these two operations is the difference in the signal readout mode from the solid-state imaging device 2. That is, in the EVF display operation, signals are read from the solid-state imaging device 2 in the thinning mode, but in the still image shooting operation, signals of all pixels are read from the solid-state imaging device 2 in the still image shooting mode.

図4に間引きモードにおける信号読み出しの一例を示す。図において、「n」や「n+1」は間引きモードにおけるライン番号を表す。間引きモードでは、少数の画素ラインの信号だけが読み出されるので垂直解像度は低下するが、1フレームの信号読み出し時間が短くなるので約30フレーム/secなどの高速なフレーム・レートが実現される。これはリアルタイムで被写体像(スルー画)を観察したり、AF(Auto Focusing)の制御やAE(Auto Exposure)の測光を行ったりするのに適している。従来の撮像装置では、図中の撮像用画素RとGのライン、および撮像用画素GとBのラインだけ信号が読み出され、AFセンサーセル(焦点検出用画素)S1やS2を含むラインの信号は読み出されないが、この一実施の形態では間引きモードでAFセンサーセルS1やS2を含むラインの信号が読み出される。この一実施の形態の間引きモードにおける信号読み出しについては詳細を後述する。   FIG. 4 shows an example of signal readout in the thinning mode. In the figure, “n” and “n + 1” represent line numbers in the thinning mode. In the thinning mode, only a small number of pixel line signals are read out, so the vertical resolution is lowered, but since the signal reading time for one frame is shortened, a high frame rate such as about 30 frames / sec is realized. This is suitable for observing a subject image (through image) in real time, AF (Auto Focusing) control, and AE (Auto Exposure) photometry. In the conventional imaging apparatus, signals are read out only for the imaging pixels R and G lines and the imaging pixels G and B in the figure, and the lines including the AF sensor cells (focus detection pixels) S1 and S2 are read. Although no signal is read out, in this embodiment, the signal of the line including the AF sensor cells S1 and S2 is read out in the thinning mode. Details of the signal readout in the thinning-out mode of this embodiment will be described later.

図5に静止画撮影モードにおける信号読み出しの一例を示す。静止画撮影モードでは、すべての画素ラインの信号が読み出されるのでそれに掛かる時間が長く、しかも撮像素子2の画素ラインは飛び飛びに読み出されるので1フレームの画像信号は複数のフィールド信号に分かれている(インターレース読み出し)。これに対し上述した間引きモードでは、撮像素子2の画素ラインが上から下への順に読み出されるので最初からフレーム画像信号として出力される(プログレッシブ読み出し)。このように、静止画撮影モードと間引きモードでは画像信号の読み出し動作が異なるため、それに対応してそれぞれの画像処理の手順も大きく異る。   FIG. 5 shows an example of signal readout in the still image shooting mode. In the still image shooting mode, since the signals of all the pixel lines are read out, it takes a long time, and since the pixel lines of the image sensor 2 are read out in a jump, the image signal of one frame is divided into a plurality of field signals ( Interlace reading). On the other hand, in the above-described thinning mode, the pixel lines of the image sensor 2 are read in order from top to bottom, so that they are output as frame image signals from the beginning (progressive reading). As described above, since the image signal reading operation is different between the still image shooting mode and the thinning mode, the procedure of each image processing is greatly different correspondingly.

画像処理回路の詳細な構成を示す図2において、網掛けで示す制御ブロック、すなわちAF信号補間回路61とAWB補正値回路62は、従来のデジタルカメラにはなかった新しい制御ブロックである。これらの新しい制御ブロック61、62については詳細を後述することにし、まず従来のデジタルカメラの制御ブロックについて説明する。   In FIG. 2 showing the detailed configuration of the image processing circuit, the control blocks indicated by shading, that is, the AF signal interpolation circuit 61 and the AWB correction value circuit 62 are new control blocks that were not found in the conventional digital camera. Details of these new control blocks 61 and 62 will be described later. First, control blocks of a conventional digital camera will be described.

画像処理回路22へ入力された画像データ(RAWデータ)には、先ず欠陥補正回路41により欠陥画素補正が施される。補正テーブル46には欠陥画素のアドレスが登録されており、このアドレスに一致した画素のデータは周囲の画素から計算された補正値に置き換えられる。続いてOBクランプ回路42により画像の黒レベルを決定するOBクランプ処理が施される。固体撮像素子2のCCDにはOB(Optical Black)領域が設けられており、このOB領域の信号の平均値を検出して各画素の値から差し引くことによって黒レベルを決めている。   Image data (RAW data) input to the image processing circuit 22 is first subjected to defect pixel correction by the defect correction circuit 41. The address of the defective pixel is registered in the correction table 46, and the pixel data matching this address is replaced with a correction value calculated from the surrounding pixels. Subsequently, an OB clamp process for determining the black level of the image is performed by the OB clamp circuit 42. The CCD of the solid-state imaging device 2 is provided with an OB (Optical Black) region, and the black level is determined by detecting the average value of the signal in the OB region and subtracting it from the value of each pixel.

次に、画像データは感度比調整回路43により色別に異なるゲイン調整(感度比調整)がなされる。撮像素子2の画素は色ごとに感度が異なるため、白い(グレー)被写体を撮影してもR,G,B各色の信号レベルが異なり、そのままでは白(グレー)とはならない。したがって、標準光源(例えばD65:昼光)の下でR,G,B各色の感度(信号レベル)を合わせる必要がある。通常はGのゲインを1に固定してRとBの感度をGに合わせるようにゲイン調整(乗算)を行う。   Next, the image data is subjected to different gain adjustment (sensitivity ratio adjustment) for each color by the sensitivity ratio adjustment circuit 43. Since the pixels of the image sensor 2 have different sensitivities for each color, even when a white (gray) subject is photographed, the signal levels of the R, G, and B colors are different and are not white (gray) as they are. Therefore, it is necessary to match the sensitivity (signal level) of each color of R, G, and B under a standard light source (for example, D65: daylight). Normally, the gain of G is fixed to 1 and the gain adjustment (multiplication) is performed so that the sensitivity of R and B matches G.

ここまでの画像処理が前処理部(Pre-Process)22aによる処理であり、静止画撮影モードの場合はここで画像データがいったんSDRAM12に移される。そのため、前処理の最終段には画像バスに向けて出力バッファ44(FIFO等)が設けられている。一方、間引きモードの場合は後続の後処理(Post-Process)部22bによる処理が続けて実行される。間引きモードはプログレッシブ読み出しの画像信号なので前処理と後処理を一体にして施すことができるのに対し、静止画撮影モードはインターレース読み出しのフィールド画像信号なのでそのまま後処理を施すことはできない。   The image processing so far is the processing by the pre-processing unit (Pre-Process) 22a. In the still image shooting mode, the image data is temporarily transferred to the SDRAM 12 here. Therefore, an output buffer 44 (FIFO or the like) is provided for the image bus at the final stage of preprocessing. On the other hand, in the thinning mode, the processing by the subsequent post-processing unit 22b is continuously executed. Since the thinning-out mode is an image signal for progressive readout, preprocessing and post-processing can be performed together. On the other hand, since the still image shooting mode is a field image signal for interlace readout, post-processing cannot be performed as it is.

そこで、以下では2つのモードの後処理動作を分け、先ず間引きモードにおける後処理について説明する。後処理ではまず水平間引き回路51により水平間引き処理が行われ、画像データの水平画素数が低減される。後処理では2次元のデジタルフィルター処理が何度か施されるので、ラインメモリが設けられている。間引きモードではライン数は減っているが水平画素数は依然多いので、そのままではラインメモリが溢れてしまう。スルー画のサイズは高々VGA(640×480)程度であるから、それを作成するのに必要な数(例えば700画素強)まで水平画素数を減らしても構わない。これによりラインメモリの容量が抑えられる。   Therefore, the post-processing operations in the two modes are divided below, and first, post-processing in the thinning mode will be described. In the post-processing, horizontal thinning processing 51 is first performed by the horizontal thinning circuit 51 to reduce the number of horizontal pixels of the image data. In the post-processing, two-dimensional digital filter processing is performed several times, so a line memory is provided. In the thinning mode, the number of lines is reduced, but the number of horizontal pixels is still large, so that the line memory overflows as it is. Since the size of the through image is at most about VGA (640 × 480), the number of horizontal pixels may be reduced to the number necessary to create it (for example, over 700 pixels). This reduces the capacity of the line memory.

次に、WB調整回路52により画像データにWB(White Balance)調整が施される。照明光の分光分布は撮影環境によって異なるため、白い(グレー)被写体を撮影してもそのままでは白(グレー)とはならない。R,G,Bの色ごとに異なるゲインを掛けて3色の信号レベルを合わせる。通常はGのゲインを1に固定してRとBの信号レベルをGに合わせる。RとBのゲインの決め方は後述する。WB調整後、γ補正回路53により画像データにγ補正が施される。γ補正ではディスプレイ装置などの出力デバイスに合った階調変換を行う。よく知られたsRGB色空間のディスプレイであれば「γ=2.2」となる。   Next, the WB adjustment circuit 52 performs WB (White Balance) adjustment on the image data. Since the spectral distribution of the illumination light varies depending on the shooting environment, even if a white (gray) subject is shot, it is not white (gray) as it is. The signal levels of the three colors are adjusted by applying different gains for each of R, G, and B colors. Normally, the gain level of G is fixed to 1, and the signal levels of R and B are adjusted to G. How to determine the gain of R and B will be described later. After the WB adjustment, the γ correction circuit 53 performs γ correction on the image data. In γ correction, gradation conversion suitable for an output device such as a display device is performed. For a well-known sRGB color space display, “γ = 2.2”.

ここまでは1画素当たり1色のBayer配列信号であったが、色補間回路54による色補間処理によって1画素当たり3色から成る通常のカラー画像信号に変換される。これ以降は3つの色信号が並列に画像処理回路22の中を流れる。続く色変換/色補正回路55では出力色空間の信号への変換と、好ましい色を実現するための補正が行われる。代表的な色空間は表示に適したsRGBと、印刷ワークフローに適したAdodeRGBなどである。色補正では肌色や空や海の色といった記憶色を好ましい色として表現する。色変換/色補正ではカラーマトリックス処理が主たるものとなるが、高度な色補正を行う場合はLUT(Look Up Table)なども用いられる。この色変換/色補正が行われた後の画像データは、通常YCbCr4:4:4である。   Up to this point, the Bayer array signal of one color per pixel has been converted into a normal color image signal composed of three colors per pixel by the color interpolation processing by the color interpolation circuit 54. Thereafter, three color signals flow through the image processing circuit 22 in parallel. The subsequent color conversion / color correction circuit 55 performs conversion to an output color space signal and correction for realizing a preferable color. Typical color spaces are sRGB suitable for display and AdodeRGB suitable for printing workflow. In color correction, memory colors such as skin color, sky and sea color are expressed as preferable colors. In color conversion / color correction, color matrix processing is mainly used, but when performing advanced color correction, LUT (Look Up Table) is also used. The image data after this color conversion / color correction is normally YCbCr4: 4: 4.

このYCbCrデータは、解像度変換回路56により解像度変換を受け、目的のサイズに変換される。スルー画であればQVGA(320×240)やVGAが一般的である。次いで空間フィルター回路57により画像データに空間フィルター処理が施される。ここではY信号のエッジ強調とCb/Cr信号のLPF処理が行われる。最後に、CbCr間引き回路58によりCb/Cr信号の間引き処理を行ってYCbCr4:2:2のデータに変換し、画像バス34を経由してSDRAM12に記憶すれば間引きモードの後処理が終了する。そのため、後処理の最後には画像バス34に向けて出力バッファ(FIFOなど)63が設けられている。このデータはディスプレイエンジン25に送られスルー画としてLCDパネル11に表示される。   The YCbCr data undergoes resolution conversion by the resolution conversion circuit 56 and is converted to a target size. For a through image, QVGA (320 × 240) and VGA are common. Next, the spatial filter circuit 57 performs spatial filter processing on the image data. Here, edge enhancement of the Y signal and LPF processing of the Cb / Cr signal are performed. Finally, the Cb / Cr signal is thinned by the CbCr thinning circuit 58 to be converted into YCbCr4: 2: 2 data and stored in the SDRAM 12 via the image bus 34, thereby completing the post-thinning mode post-processing. Therefore, an output buffer (FIFO or the like) 63 is provided toward the image bus 34 at the end of the post-processing. This data is sent to the display engine 25 and displayed on the LCD panel 11 as a through image.

次に、静止画撮影モードの後処理部22cによる処理を説明する。静止画撮影モードの場合は、図5に示すように飛び飛びのライン順(インターレース)に画像信号が読み出されるので、隣接するラインが存在しない。したがって、そのようなフィールド画像信号に色補間処理を直接施すことはできない。そのため、前処理の終わった各フィールド画像信号をいったん画像処理回路22から排出し、それらがSDRAM12上で隣り合ったライン順(プログレッシブ)に並ぶように配置する。この画像信号をSDRAM12から読み出し、画像バス34から画像処理回路22に入力すれば、後処理を施すことができる。そのため、画像バス34から後処理回路22に向けて入力バッファ(FIFOなど)59が設けられている。   Next, processing by the post-processing unit 22c in the still image shooting mode will be described. In the still image shooting mode, as shown in FIG. 5, since the image signal is read out in the order of skipped lines (interlace), there is no adjacent line. Therefore, color interpolation processing cannot be directly performed on such a field image signal. Therefore, the field image signals that have undergone preprocessing are once discharged from the image processing circuit 22 and arranged so that they are arranged in the order of adjacent lines (progressive) on the SDRAM 12. If this image signal is read from the SDRAM 12 and input to the image processing circuit 22 from the image bus 34, post-processing can be performed. Therefore, an input buffer (such as a FIFO) 59 is provided from the image bus 34 toward the post-processing circuit 22.

ただし、静止画撮影モードの場合は高解像度の画像を作成するので、図中の水平間引きはスキップされる。このままでは水平画素数の大きな画像データがその後の処理に送られるので、ラインメモリを持った処理ブロックの場合はラインメモリが溢れて処理することができない。そこで、静止画像撮影モードの場合は、大きな静止画を図6に示すように横幅の短い短冊状のブロックに分割し、このブロックごとに後処理を施すようにしている。後処理ではデジタルフィルター処理(コンボルーション)が幾つか施されるが、その処理の後では周辺の画素が切り落とされて画像サイズが僅かに小さくなる。図6に示すブロックの境界では処理後の画像が滑らかに繋がらなければならないので、少なくとも切り落とされる画素分はブロックをオーバーラップさせて処理する。各ブロックの後処理は間引きモードと同じフローで行われるが、画像処理のパラメータは一般に異なる。   However, since a high-resolution image is created in the still image shooting mode, horizontal thinning in the figure is skipped. If this is the case, image data having a large number of horizontal pixels is sent to the subsequent processing. Therefore, in the case of a processing block having a line memory, the line memory overflows and cannot be processed. Therefore, in the still image shooting mode, a large still image is divided into strip-like blocks having a short width as shown in FIG. 6, and post-processing is performed for each block. In post-processing, some digital filter processing (convolution) is performed, but after that processing, peripheral pixels are cut off and the image size is slightly reduced. Since the processed images must be smoothly connected at the block boundaries shown in FIG. 6, at least the pixels to be cut off are processed by overlapping the blocks. The post-processing of each block is performed in the same flow as the thinning mode, but the image processing parameters are generally different.

静止画撮影モードではこのような高解像度の主画像の他に、撮影確認のための表示用画像(フリーズ画ともいう)や検索用のサムネイルを併せて作成することが多い。後者の2つの画像は小さなサイズではあるが大きな原画像から作成されるため、主画像と同じフローで後処理を行うと図6に示すようにブロック分割が必要となって煩わしい。そこで、フリーズ画やサムネイルを作成する場合は、水平間引きを利用して予め目的のサイズ付近まで水平画素数を減らして処理する。大きなサイズの原画像データにそのまま後処理を施すので、小さな画像なら1パスで作成される。この場合の後処理は間引きモードと全く同じフローになる。   In the still image shooting mode, in addition to such a high-resolution main image, a display image for confirmation of shooting (also referred to as a freeze image) and a search thumbnail are often created. Since the latter two images are created from a large original image with a small size, if post-processing is performed in the same flow as the main image, block division is required as shown in FIG. Therefore, when creating a freeze image or a thumbnail, processing is performed in advance by reducing the number of horizontal pixels to near the target size using horizontal thinning. Since post-processing is performed on the original image data of a large size as it is, a small image is created in one pass. In this case, the post-processing is exactly the same flow as the thinning mode.

なお、後処理の中で色変換/色補正より後は撮影時ばかりでなく再生時にも利用されるので、図中の入力バッファ(FIFOなど)から色変換/色補正に向かうデータパスも用意されている。このパスは「YCbCr←→RGB」という色変換や画像再生時に色補正を行ったり、LCDパネル11に合ったサイズの画像を表示するため解像度変換を行う際に利用されたりする。静止画撮影モードの画像処理が前処理と後処理に分かれているのは、画像信号が複数のフィールドに分かれていることと、図6に示すように短冊状のブロックに分割して処理しなければならないという2つの理由による。   In the post-processing, after color conversion / color correction, it is used not only for shooting but also for playback, so a data path from the input buffer (FIFO, etc.) in the figure to color conversion / color correction is also prepared. ing. This path is used for color conversion “YCbCr ← → RGB”, color correction at the time of image reproduction, or resolution conversion for displaying an image of a size suitable for the LCD panel 11. Image processing in the still image shooting mode is divided into pre-processing and post-processing. The image signal is divided into a plurality of fields, and it must be divided into strip-shaped blocks as shown in FIG. This is due to two reasons.

次に、検波回路47による制御について説明する。ここで、検波の対象はAE,AWB(Auto White Blannce)である。図2には検波回路47が設けられており、そこでは感度比調整後の画像データからAE,AWB評価値45が抽出される。AE,AWB評価値とはAE,AWBの各制御を行うために必要な情報である。   Next, control by the detection circuit 47 will be described. Here, the targets of detection are AE and AWB (Auto White Blannce). In FIG. 2, a detection circuit 47 is provided, in which AE and AWB evaluation values 45 are extracted from the image data after the sensitivity ratio adjustment. The AE and AWB evaluation values are information necessary for performing each control of AE and AWB.

AF制御には瞳分割型位相差検出方式が用いられる。これは撮影レンズ1の射出瞳面上の異なる領域を通過した対の光束を撮像素子2の対のAFセンサーセルS1とS2により受光し、AFセンサーセルS1の配列から得られる信号と、AFセンサーセルS2の配列から得られる信号との位相差に基づいて撮影レンズ1の焦点調節状態、すなわちデフォーカス量が検出される。   A pupil division type phase difference detection method is used for AF control. This is because a pair of luminous fluxes that have passed through different regions on the exit pupil plane of the photographic lens 1 are received by the pair of AF sensor cells S1 and S2 of the image sensor 2, and a signal obtained from the array of the AF sensor cells S1 and an AF sensor. Based on the phase difference from the signal obtained from the array of the cells S2, the focus adjustment state of the taking lens 1, that is, the defocus amount is detected.

AEとAWBの評価値はウインドウを設定して抽出するが、これらは同じウインドウ設定を利用して抽出することが多い。図7(b)にAE/AWB評価値のウインドウ設定例を示す。これらのウインドウに含まれる画素の値を色別に積算して各ウインドウのAE/AWB評価値とする。AEによる露光の場合は、AE評価値から露光量(絞り値やシャッター時間)を決めて露光を行う。一方、AWB評価値は正しい色からのズレを表している。あるウインドウの色が白(グレー)一色であるなら、そのウインドウ内のR,G,Bの値を色ごとに同数ずつ積算するとそれらはほぼ等しくなるはずであるが、実際は撮影環境によって照明光の分光分布が変わるので積算値は一致しない。   The evaluation values of AE and AWB are extracted by setting a window, and these are often extracted using the same window setting. FIG. 7B shows a window setting example of the AE / AWB evaluation value. The pixel values contained in these windows are integrated for each color to obtain an AE / AWB evaluation value for each window. In the case of exposure by AE, exposure is performed by determining an exposure amount (aperture value and shutter time) from the AE evaluation value. On the other hand, the AWB evaluation value represents a deviation from the correct color. If the color of a window is white (gray), if the same number of R, G, and B values in that window are added for each color, they should be approximately equal. Since the spectral distribution changes, the integrated values do not match.

そこで、図2に示すWB調整回路52による3色のゲインの比が、3つの積算値の逆比に一致するよう調整すれば白い色(グレー)になるはずである。実際は、上述したようにGのゲインを1に固定して、RとBのゲインを3つの積算値の逆比に一致させるよう調整する。これがWB(White Balance)調整の原理である。AWBとはAWB評価値に基づいてカメラが自動的にWB調整を行うことである。図3に示すベイヤー配列色フィルターの場合はGの画素がRとBの2倍存在するので、各ウインドウのGの積算値を「1/2」倍したものをAWB評価値として利用する。そのため、各ウインドウのサイズを水平・垂直共「2」の倍数に設定しておくとよい。   Therefore, if the ratio of the gains of the three colors by the WB adjustment circuit 52 shown in FIG. 2 is adjusted so as to match the inverse ratio of the three integrated values, the color should be white (gray). Actually, as described above, the gain of G is fixed to 1, and the gains of R and B are adjusted to coincide with the inverse ratio of the three integrated values. This is the principle of WB (White Balance) adjustment. AWB means that the camera automatically performs WB adjustment based on the AWB evaluation value. In the case of the Bayer arrangement color filter shown in FIG. 3, there are twice as many G pixels as R and B. Therefore, a value obtained by multiplying the integrated value of G in each window by “½” is used as the AWB evaluation value. Therefore, the size of each window should be set to a multiple of “2” for both horizontal and vertical.

一般に画像の中央が最も重要であるため、AE,AWB評価値のウインドウの数は図7に示すように水平・垂直共奇数に設定することが多い傾向にある。なお、後処理でWB調整が行われるので前処理の感度比調整は必須ではない。感度比調整が行われない場合はAE/AWB評価値がその誤差を含んでいるので、RとBの積算値に感度比調整に相当するゲインを掛けて補正する必要がある。したがって、感度比調整を行うことが望ましい。間引きモードではスルー画を表示しつつ適当なフレーム間隔でAE,AWB評価値を抽出してAE,AWBの制御を行う。メカシャッターは開いたままなのでAEの制御にはTGの電子シャッターが利用される。   In general, since the center of the image is the most important, the number of AE and AWB evaluation value windows tends to be set to odd numbers for both horizontal and vertical as shown in FIG. Note that since the WB adjustment is performed in the post-processing, the sensitivity ratio adjustment in the pre-processing is not essential. When the sensitivity ratio adjustment is not performed, the AE / AWB evaluation value includes the error. Therefore, it is necessary to correct by multiplying the integrated value of R and B by a gain corresponding to the sensitivity ratio adjustment. Therefore, it is desirable to adjust the sensitivity ratio. In the thinning mode, AE and AWB evaluation values are extracted at appropriate frame intervals while displaying a through image, and AE and AWB are controlled. Since the mechanical shutter remains open, TG's electronic shutter is used for AE control.

AWBの制御は前述のようにRとBのゲイン調整により行われる。被写体の明るさや色温度(照明光の分光分布)が急激に変化することは少ないので、AE/AWBの制御周期は長くてもよい。AFの制御には瞳分割型位相差検出方式が用いられる。AFの制御は被写体を追尾するような場合を除くとスルー画表示が始まったときと、レリーズ釦が半押しされたときにそれぞれ1回ずつ行われることが多い。レリーズ釦が半押しされると静止画の撮影に備え、AFの制御の他にAE評価値を基に露光量(絞り値とシャッター時間)を計算する。   AWB control is performed by adjusting the gains of R and B as described above. Since the brightness and color temperature of the subject (spectral distribution of illumination light) rarely change rapidly, the control cycle of AE / AWB may be long. A pupil division type phase difference detection method is used for AF control. Except when tracking the subject, AF control is often performed once each when the live view display starts and when the release button is pressed halfway. When the release button is pressed halfway, in preparation for taking a still image, the exposure amount (aperture value and shutter time) is calculated based on the AE evaluation value in addition to AF control.

レリーズ釦が全押しされると静止画の露光動作に移行する。直前の半押しに伴うAF制御によって撮影レンズは被写体に合焦しており、同時に行われた露光量の計算によってメカ絞りの値とシャッター時間は決まっているので、それに基づいて静止画としての被写体の露光が行われる。露光動作はメカシャッターの閉鎖によって終了する。次いで静止画撮影モードで撮像素子2のCCDから画像信号が読み出され、上述した手順にしたがって静止画の画像処理が行われる。この場合は3A評価値の中でAWB評価値だけが抽出される。露光は終わっているのでAEとAFの評価値を抽出する必要はない。   When the release button is fully pressed, the operation proceeds to a still image exposure operation. The shooting lens is focused on the subject by AF control with the previous half-press, and the mechanical aperture value and shutter time are determined by the calculation of the exposure amount performed at the same time, so the subject as a still image is based on it Are exposed. The exposure operation is terminated by closing the mechanical shutter. Next, an image signal is read from the CCD of the image sensor 2 in the still image shooting mode, and image processing of the still image is performed according to the above-described procedure. In this case, only the AWB evaluation value is extracted from the 3A evaluation values. Since the exposure is over, there is no need to extract AE and AF evaluation values.

静止画のAWB評価値はフィールドごとに抽出されるため、1つの画像全体(フレーム)のAWB評価値を得るためにはフィールドごとの評価値を積算する。AWB検波回路がこの積算機能を持っていない場合は、各フィールドの評価値をCPUのソフトウェアによって積算する。積算されたAWB評価値からRとBのゲインを決めて後処理の前にWB調整回路に設定する。このように、撮影された静止画のデータからAWB評価値を抽出してAWBの調整を行っているので精度が高い。WB調整が後処理に含まれるのはそのためである。   Since the AWB evaluation value of the still image is extracted for each field, in order to obtain the AWB evaluation value of one whole image (frame), the evaluation values for each field are integrated. If the AWB detection circuit does not have this integration function, the evaluation value of each field is integrated by the CPU software. R and B gains are determined from the accumulated AWB evaluation values and set in the WB adjustment circuit before post-processing. As described above, since the AWB evaluation value is extracted from the captured still image data and the AWB is adjusted, the accuracy is high. This is why the WB adjustment is included in the post-processing.

一方、間引きモード(スルー画表示)の場合は、抽出されたAWB評価値がそれ以降のフレームのAWB調整に利用されているという点が異なる。なお、動画撮影動作の場合もビューファインダー動作(スルー画表示)と同じ間引きモードが使われており、スルー画のデータをそのままJPEG圧縮してメモリカードに記録している。   On the other hand, the thinning mode (through image display) is different in that the extracted AWB evaluation value is used for AWB adjustment of the subsequent frames. Note that the same thinning mode as the viewfinder operation (through image display) is used in the moving image shooting operation, and the through image data is directly JPEG compressed and recorded on the memory card.

ところで、一実施の形態の撮像素子2では、位相差AF方式のセンサーを組み込んだタイプの撮像素子としている。撮像素子2は、画像信号を形成する画素(光電変換セル)の一部を、図4に示すように位相差AF方式のためのセンサーセル(焦点検出用画素)に置き換えたものである。図8は、図4に示すセンサーセルS1を含むラインとセンサーセルS2を含むラインの拡大図である。このAFセンサーはセンサーセルS1とS2の1次元アレイから成り、2つの異なるセンサーアレイ一組で利用される。このセンサーアレイの各センサーセルは中心から一方に偏った開口部S1a、S2aを持ち、その偏りの方向に沿って1次元状に並べられている。2つのセンサーアレイの各センサーセルは開口部S1a、S2aの偏りが互いに逆方向であり、その偏りの距離は同一である。この2つのセンサーアレイはほぼ同一と見なされる位置に並べて置かれる。   By the way, the imaging device 2 of the embodiment is a type of imaging device incorporating a phase difference AF type sensor. The imaging device 2 is obtained by replacing a part of pixels (photoelectric conversion cells) forming an image signal with sensor cells (focus detection pixels) for the phase difference AF method as shown in FIG. FIG. 8 is an enlarged view of a line including the sensor cell S1 and a line including the sensor cell S2 shown in FIG. This AF sensor consists of a one-dimensional array of sensor cells S1 and S2, and is used in a set of two different sensor arrays. Each sensor cell of this sensor array has openings S1a and S2a that are biased to one side from the center, and are arranged one-dimensionally along the direction of the bias. In each sensor cell of the two sensor arrays, the openings S1a and S2a are biased in opposite directions, and the bias distance is the same. The two sensor arrays are placed side by side at positions that are considered substantially identical.

図4および図8に示すように、撮像素子2では、互いに逆方向に偏心した開口部S1a、S2aを持つAFセンサーセルS1,S2が、RGB原色ベイヤー配列中のG画素の代わりに置かれている。なお、図4および図8に示すようにAFセンサーセルS1とS2を隣接するライン上に配置してもよいし、同一ライン上に交互に配置してもよい。これらのAFセンサーセルS1、S2によって瞳分割位相差AF方式を実現する。つまり、射出瞳を通る光束の中で撮影レンズ1の光軸に対して対称な位置にある2つの部分光束を、S1のセンサーアレイとS2のセンサーアレイでそれぞれ受光すれば、2つのセンサーアレイから出力された信号の位相差によりフォーカスずれの方向(フォーカシングレンズの移動方向)と、フォーカスずれの量(フォーカシングレンズの移動量)が分かる。これにより速やかなフォーカス合わせが可能になる。   As shown in FIGS. 4 and 8, in the image pickup device 2, AF sensor cells S1 and S2 having openings S1a and S2a eccentric in opposite directions are placed in place of the G pixels in the RGB primary color Bayer array. Yes. As shown in FIGS. 4 and 8, the AF sensor cells S1 and S2 may be arranged on adjacent lines, or may be arranged alternately on the same line. These AF sensor cells S1 and S2 realize a pupil division phase difference AF method. That is, if two partial light beams that are symmetric with respect to the optical axis of the photographing lens 1 are received by the sensor array of S1 and the sensor array of S2, respectively, among the light beams passing through the exit pupil, the two sensor arrays From the phase difference of the output signal, the direction of focus shift (moving direction of the focusing lens) and the amount of focus shift (moving amount of the focusing lens) are known. This enables quick focusing.

被写体の位置は撮影画面内を常に移動するので、このAFセンサーアレイは撮影画面内の数ヶ所に設けることが望ましい。これらの各場所には、S1とS2のセンサーアレイが並んで配置される。なお、センサーセルS1とS2の開口部S1a、S2aの形状は図8に示すような長方形に限定されず、例えば半円形としてもよい。   Since the position of the subject always moves in the shooting screen, it is desirable to provide this AF sensor array in several places in the shooting screen. In each of these locations, the sensor arrays S1 and S2 are arranged side by side. Note that the shapes of the openings S1a and S2a of the sensor cells S1 and S2 are not limited to the rectangle shown in FIG. 8, and may be, for example, a semicircle.

ところで、AFセンサーセルS1とS2は撮像領域に埋め込まれているので、その部分の画像信号が欠落してしまうという問題がある。この一実施の形態ではその問題を解決しつつ撮像素子2を利用している。先ず、静止画撮影モードでは、すべての光電変換セルの信号が読み出されるので、画像信号とAF信号の両方を含んだ信号が出力される。このままではAFセンサー部の画像信号が欠落しているため、満足な画質の静止画は得られない。   Incidentally, since the AF sensor cells S1 and S2 are embedded in the imaging region, there is a problem that the image signal of that portion is lost. In this embodiment, the image sensor 2 is used while solving the problem. First, in the still image shooting mode, signals from all photoelectric conversion cells are read out, so that a signal including both an image signal and an AF signal is output. If this is the case, the image signal from the AF sensor section is missing, so a still image with satisfactory image quality cannot be obtained.

そこで、周囲の画像信号から補間された信号でAF信号を置き換えるようにしている。この補間処理をリアルタイム(On the fly)で行うことは困難なので、すべての信号をいったんSDRAM12に記憶し、後で時間を掛けて補間を行っている。AFセンサーアレイは撮影画面内の数ヶ所に設けられるだけなので、このような補間を行って得られた静止画であっても画質は十分である。   Therefore, the AF signal is replaced with a signal interpolated from surrounding image signals. Since it is difficult to perform this interpolation processing in real time (On the fly), all signals are temporarily stored in the SDRAM 12, and interpolation is performed later taking time. Since the AF sensor array is provided only in several places on the shooting screen, even a still image obtained by performing such interpolation is sufficient in image quality.

一方、デジタルカメラではEVF動作(スルー画表示)も行われており、この場合は約30fpsの高速レートで連続して撮像素子2から信号が読み出されるため、後で時間を掛けて補間処理を行うようなことはできない。この場合は間引きモードが使われているので、AFセンサーが埋め込まれたラインが丁度間引かれるようにして補間処理をなくしている。AFセンサーアレイは撮影画面の数ヶ所に設けられており、それらを間引いてもスルー画を作成するのに十分な画像信号が確保される。   On the other hand, an EVF operation (through image display) is also performed in the digital camera. In this case, since signals are continuously read from the image sensor 2 at a high rate of about 30 fps, interpolation processing is performed later taking time. I can't do that. In this case, since the thinning mode is used, the interpolation process is eliminated so that the line in which the AF sensor is embedded is thinned out. AF sensor arrays are provided at several places on the shooting screen, and even if they are thinned out, sufficient image signals are secured to create a through image.

しかし、間引きモードではAF信号が得られないため今度はAFの制御ができないという問題が起こる。デジタルカメラではEVF動作(スルー画表示)中にAF制御が行われるので、これは問題である。従来の撮像装置では測距モードが設けられており、AF制御を行うときは間引きモードから測距モードへ移るようにしている。測距モードではAFセンサーアレイが埋め込まれた少数のラインだけが読み出されるので、測距モードに入っている期間は僅かである。レリーズ釦操作が半押しから全押しまで一気に行われた場合、半押しが検出された段階で測距モードに移行するが、続けて全押しが検出されるのでAFの制御が完了した後は間引きモード(スルー画表示)に戻らず、静止画の露光動作に入る。   However, since the AF signal cannot be obtained in the thinning mode, there arises a problem that AF cannot be controlled this time. This is a problem because digital cameras perform AF control during EVF operation (through image display). A conventional imaging apparatus is provided with a distance measuring mode, and when performing AF control, the mode is changed from the thinning mode to the distance measuring mode. In the distance measurement mode, only a small number of lines in which the AF sensor array is embedded are read out, so the period in which the distance measurement mode is entered is small. If the release button is operated from halfway down to full-press at once, the mode switches to the distance measurement mode when half-pressing is detected.However, since full-pressing is detected continuously, thinning is performed after AF control is completed. Without returning to the mode (through image display), the still image exposure operation starts.

AF制御を行う際は併せてAEのための測光も行われる。測光は、測距モードに移る直前の間引きモードのAE評価値を利用して、従来のカメラと同じように行われる。レリーズ釦が全押しされると静止画の露光動作に入り、半押し時の測光で得られた露光量(メカ絞りの値とシャッター時間)にしたがってAEによる露光が行われる。   When performing AF control, photometry for AE is also performed. Photometry is performed in the same manner as a conventional camera, using the AE evaluation value in the thinning mode immediately before shifting to the distance measuring mode. When the release button is fully pressed, a still image exposure operation is started, and exposure by AE is performed according to the exposure amount (mechanical aperture value and shutter time) obtained by photometry when half-pressed.

露光が完了すると上述した静止画撮影モードに移って画像信号とAF信号が読み出され、次いで上述した補間処理によりAF信号が画像信号に置き換えられる。補間処理が完了すると上述した画像処理(後処理)が施されてYCbCrデータとなり、これをJPEG圧縮してメモリカード7に記録すると静止画の撮影が完了する。一方、静止画撮影モードの読み出しが終わった時点でカメラは間引きモードに移行し、次の静止画の撮影に備えてEVF動作(スルー画表示)が再開される。ただし、レリーズ釦操作が半押しだけで終わり全押しが行われなかった場合は、AFの制御が終わると測距モードから間引きモードに戻ってEVF動作(スルー画表示)を再開する。   When the exposure is completed, the image signal and the AF signal are read out by moving to the above-described still image shooting mode, and then the AF signal is replaced with the image signal by the interpolation process described above. When the interpolation processing is completed, the above-described image processing (post-processing) is performed to obtain YCbCr data. When this is JPEG compressed and recorded in the memory card 7, still image shooting is completed. On the other hand, when the reading of the still image shooting mode is finished, the camera shifts to the thinning mode, and the EVF operation (through image display) is resumed in preparation for the next still image shooting. However, when the release button operation is only half-pressed and not fully pressed, when the AF control is completed, the AF mode operation (through image display) is resumed from the ranging mode to the thinning-out mode.

次に、一実施の形態の構成の内、従来の撮像装置になかった新しい構成について説明する。一実施の形態のデジタルカメラは静止画撮影モードと間引きモードを有しており、従来の撮像装置で用いられている測距モードはない。静止画撮影モードの読み出し動作は、従来の撮像装置の読み出し動作と同様であり、ともに図5に示すような信号読み出しが行われる。ただし、AF用の光電変換セルが含まれているので、図5に示す画像信号の一部がAFセンサーセルS1とS2の信号に変わっている。図4の配列であれば、図5の上から4ライン目(第4フィールド)のGの信号がS1の信号、上から6ライン目(第2フィールド)のGの信号がS2の信号に変わっている。   Next, a new configuration that is not included in the conventional imaging device in the configuration of the embodiment will be described. The digital camera according to the embodiment has a still image shooting mode and a thinning mode, and there is no distance measuring mode used in a conventional imaging apparatus. The readout operation in the still image shooting mode is the same as the readout operation of the conventional imaging apparatus, and signal readout as shown in FIG. 5 is performed. However, since an AF photoelectric conversion cell is included, a part of the image signal shown in FIG. 5 is changed to the signals of the AF sensor cells S1 and S2. In the arrangement of FIG. 4, the G signal in the fourth line (fourth field) from the top of FIG. 5 is changed to the signal S1, and the G signal in the sixth line (second field) from the top is changed to the signal S2. ing.

一方、間引きモードの読み出し動作は従来の撮像装置と大きく異なり、この一実施の形態では図4に示すように間引かれて数の減った画像信号と、間引かれていないS1とS2のAF信号が混在して読み出される。静止画撮影モードの読み出し動作は従来の撮像装置の動作と同様であるから説明を省略し、以下では間引きモードの読み出し動作について詳しく説明する。間引きモードはEVF動作(スルー画表示)や動画撮影で利用されているが、それは1V期間(VSync信号の1周期)に信号がすべて読み出されるというプログレッシブ読み出しである。   On the other hand, the readout operation in the thinning mode is significantly different from that of the conventional imaging apparatus. In this embodiment, as shown in FIG. 4, the thinned-out image signal is reduced, and the S1 and S2 AFs that are not thinned out. Signals are mixed and read. Since the readout operation in the still image shooting mode is the same as the operation of the conventional imaging apparatus, the description thereof will be omitted, and the readout operation in the thinning mode will be described in detail below. The thinning mode is used in EVF operation (through image display) and moving image shooting, which is progressive readout in which all signals are read out in a 1V period (one cycle of the VSync signal).

図4に示すように、上のラインから下のラインに向かって順に信号が読み出される。すなわち、ライン番号nの画像信号として「R/G」が読み出され、続いてS1の信号を含むラインとS2の信号を含むラインが順次読み出され、その次にライン番号n+1の画像信号「G/B」が読み出される。S1の信号を含むラインとS2の信号を含むラインはスルー画(動画)の作成には利用されないので、これらのラインにはライン番号が付与されていない。また、図4において、左側の配列中に網掛けで示すラインは、間引かれるラインであり、画像信号は出力されない。なお、図5に示すように、静止画撮影モードの場合は、図4に示す網掛けラインを含むすべての信号(S1とS2を含む)が読み出される。   As shown in FIG. 4, signals are read in order from the upper line to the lower line. That is, “R / G” is read out as the image signal of line number n, then the line including the signal of S1 and the line including the signal of S2 are sequentially read, and then the image of line number n + 1 The signal “G / B” is read out. Since the line including the S1 signal and the line including the S2 signal are not used for creating a through image (moving image), no line number is assigned to these lines. Also, in FIG. 4, the shaded lines in the left array are thinned lines, and no image signal is output. As shown in FIG. 5, in the still image shooting mode, all signals (including S1 and S2) including the shaded lines shown in FIG. 4 are read out.

図9は、図4に示す間引きモードの信号読み出しタイミングを示す。図9(a)は一実施の形態の読み出しタイミングを示し、図9(b)は特許文献1に示す従来の撮像装置の読み出しタイミングを示す。間引きモードでは1V期間に信号が読み出されるので、図9(a)と(b)の上半分にはVSync信号の1周期分だけが示されている。図9(a)の上半分は、図4に示す1ライン前(ライン番号n-1)からの読み出し動作を表しており、前方と後方の垂直ブランキング期間を含むフレームの先頭と最後は省略されている。   FIG. 9 shows signal readout timing in the thinning mode shown in FIG. FIG. 9A shows the readout timing of the embodiment, and FIG. 9B shows the readout timing of the conventional imaging apparatus shown in Patent Document 1. In the thinning mode, since a signal is read out in a 1V period, only one cycle of the VSync signal is shown in the upper half of FIGS. 9 (a) and 9 (b). The upper half of FIG. 9A represents a read operation from the previous line (line number n-1) shown in FIG. 4, and the beginning and end of the frame including the front and rear vertical blanking periods are omitted. Has been.

図中のn-1,n,n+1はそれぞれ画像信号のライン番号を表している。ライン番号nの画像信号(R/G)の次はS1/Bのラインが読み出され、さらに続いてS2/Bのラインが読み出され、その後にライン番号n+1の画像信号(G/B)が続いており、図4に示す信号読み出し動作と一致している。図9(a)の下半分はS1/BまたはS2/Bのラインの読み出し動作を表しているが、ラインの中間ではS1またはS2の信号とBの信号が交互に読み出されており、図4に示す配列と一致している。   In the figure, n-1, n, and n + 1 represent the line numbers of the image signals. Next to the image signal (R / G) of line number n, the S1 / B line is read out, followed by the S2 / B line, and then the image signal of line number n + 1 (G / B) continues, which is consistent with the signal read operation shown in FIG. The lower half of FIG. 9A shows the read operation of the S1 / B or S2 / B line. In the middle of the line, the S1 or S2 signal and the B signal are alternately read. It matches the sequence shown in 4.

一方、従来の撮像装置では、図9(b)の上半分に示すように画像信号のラインだけが読み出される。図中のn-2,n-1,n,n+1,n+2はそれぞれライン番号を表す。図9(b)の下半分はその中の1ラインの読み出し動作を表しており、画像信号だけを含んでいる。図9(b)の上半分にはAFセンサー(S1とS2)のラインが含まれないので、有効画像ラインが同数であれば図9(a)の上半部によりも短い期間で画像信号の読み出しが終わる。フレーム周波数を落とさないために、図9(a)の上半分に示す読み出し動作では、垂直ブランキング期間の一部をS1/BとS2/Bのラインを読み出す期間に割り当てている。S1/BとS2/Bのライン数だけ垂直ブランキング期間は短くなるが、それがある程度長ければ問題はない。   On the other hand, in the conventional imaging apparatus, only the line of the image signal is read as shown in the upper half of FIG. In the figure, n-2, n-1, n, n + 1, and n + 2 represent line numbers, respectively. The lower half of FIG. 9B represents the reading operation of one line in the lower half, and includes only the image signal. Since the upper half of FIG. 9B does not include the lines of AF sensors (S1 and S2), if the number of effective image lines is the same, the image signal can be transmitted in a shorter period than the upper half of FIG. 9A. Reading is finished. In order to avoid dropping the frame frequency, in the read operation shown in the upper half of FIG. 9A, a part of the vertical blanking period is assigned to the period for reading the S1 / B and S2 / B lines. The vertical blanking period is shortened by the number of lines of S1 / B and S2 / B, but there is no problem if it is long to some extent.

AFセンサーアレイは撮像画面の数ヶ所に設けることが望ましいので、これを5ヶ所に設けた固体撮像装置の例を図10(a)に示す。図10(a)において、符号1,2,3,4,5はAFセンサーアレイの番号を表しており、それぞれがS1のセンサーアレイとS2のセンサーアレイの1組のセンサーアレイから成る。図4は1つのAFセンサーアレイ付近の信号読み出し動作を表しているが、AFセンサーアレイが複数ヶ所に設けられていると、他のAFセンサーアレイの信号を読み出すための期間が余分に必要となる。   Since it is desirable to provide the AF sensor array at several places on the image pickup screen, an example of a solid-state image pickup device provided with the AF sensor arrays at five places is shown in FIG. In FIG. 10A, reference numerals 1, 2, 3, 4, and 5 represent AF sensor array numbers, each of which is composed of a sensor array of S1 and S2. FIG. 4 shows the signal readout operation near one AF sensor array. However, if multiple AF sensor arrays are provided, an extra period is required to read out signals from other AF sensor arrays. .

図10(a)において、AFセンサーアレイ2と3、および4と5がそれぞれ同じライン上に配置されているとすれば、それぞれがS1のラインとS2のラインを含むのでAFセンサーアレイ1を合わせると合計6ラインの読み出しが必要である。図10(a)に示す撮像素子2から間引きモードで信号を読み出すと、垂直ブランキング期間は6ラインだけ短くなる。その点を考慮してVSync信号とHSync信号の周波数を決めなければならない。   In FIG. 10A, if the AF sensor arrays 2 and 3 and 4 and 5 are arranged on the same line, the AF sensor array 1 is matched because each includes the S1 line and the S2 line. A total of 6 lines need to be read out. When signals are read out from the image sensor 2 shown in FIG. 10A in the thinning mode, the vertical blanking period is shortened by 6 lines. Considering this point, the frequency of the VSync signal and the HSync signal must be determined.

図4や図5に示すような読み出しを行う代表的な固体撮像素子はCCDである。CCDではライン単位で信号が読み出されるので、図10(a)に示すようにS1とS2のAFセンサーアレイをそれぞれ水平方向に置くのに適している。S1やS2が置かれているライン上の画像信号(図4の場合はBの信号)は、スルー画や動画の作成には利用されないので、その信号を読み出す時間は無駄ということになる。CCDはその構造上、S1やS2の信号を読み出す際に同じライン上の画像信号を一緒に読み出すことになるため、S1やS2の信号が利用できるのまでに長い時間がかかるという欠点を持っている。   A typical solid-state imaging device that performs readout as shown in FIGS. 4 and 5 is a CCD. Since the CCD reads out the signal in line units, it is suitable to place the S1 and S2 AF sensor arrays in the horizontal direction as shown in FIG. Since the image signal (B signal in the case of FIG. 4) on the line where S1 and S2 are placed is not used for creating a through image or a moving image, the time for reading out the signal is wasted. Because of the structure of the CCD, when reading the S1 and S2 signals, the image signal on the same line is read together, so it takes a long time to use the S1 and S2 signals. Yes.

図1において、従来の撮像装置に対し画像/AF信号分離回路21が新しく追加された制御ブロックである。また、図2において、従来の撮像装置に対しAWB補正値回路62が新しく追加された制御ブロックである。これらの一実施の形態の新しい制御ブロックを中心に一実施の形態のデジタルカメラの撮影動作を説明する。   In FIG. 1, an image / AF signal separation circuit 21 is newly added to the conventional imaging apparatus. 2 is a control block in which an AWB correction value circuit 62 is newly added to the conventional imaging apparatus. The photographing operation of the digital camera according to the embodiment will be described focusing on the new control block according to the embodiment.

被写体の露光が終わると、撮像素子2のCCDは静止画像撮影モードに移行し、撮影された静止画の画像信号が図5に示す手順で読み出される。その画像信号はAFE3でデジタルデータとなって画像/AF信号分離回路21に送られるが、静止画撮影モードの場合はそれがバイパスされて画像データがそのまま画像処理回路22へ入力される。画像処理回路22では先ず前処理が施され、前処理後の画像データはいったんSDRAM12に記憶される。   When the exposure of the subject is finished, the CCD of the image sensor 2 shifts to the still image shooting mode, and the image signal of the shot still image is read out according to the procedure shown in FIG. The image signal is converted to digital data by the AFE 3 and sent to the image / AF signal separation circuit 21. In the still image shooting mode, the image signal is bypassed and the image data is directly input to the image processing circuit 22. The image processing circuit 22 first performs preprocessing, and the image data after the preprocessing is temporarily stored in the SDRAM 12.

前処理後の静止画データをSDRAM12に記憶する場合は、飛び飛びの順(インターレース)に読み出されたデータが図11に示すようにライン順(プログレッシブ)に並ぶように配置する。ただし、この静止画データにはAF信号(S1やS2の信号)が含まれているので、前処理を施す際は注意が必要である。例えばAFセンサー(S1とS2)の付近に欠陥画素が存在した場合は、その欠陥画素の信号を補正する際にS1やS2の信号を利用してはならない。欠陥画素の補正は周囲の画像信号で補間するのが普通であるから、AFセンサー付近の欠陥画素を単純にこの方法で補正するとS1やS2の信号が使われてしまうおそれがある。そこで、S1やS2の信号が参照された場合はその欠陥画素を補正せずにそのまま出力する。AFセンサーの位置は予め分かっているのでそのような対応は可能である。流れてくる画像信号の中からS1やS2の信号を検出するには、ライン番号(VSync信号を基準としたHSync信号のカウント値)と、ライン上の画素番号(HSync信号を基準としたピクセルクロックのカウント値)を利用する。   When the pre-processed still image data is stored in the SDRAM 12, the data read in the jump order (interlace) is arranged so as to line up in the line order (progressive) as shown in FIG. However, since this still image data includes AF signals (S1 and S2 signals), care must be taken when performing preprocessing. For example, when a defective pixel exists in the vicinity of the AF sensor (S1 and S2), the signal of S1 or S2 must not be used when correcting the signal of the defective pixel. Since correction of defective pixels is usually performed by interpolation with surrounding image signals, if the defective pixels near the AF sensor are simply corrected by this method, the signals of S1 and S2 may be used. Therefore, when the signal of S1 or S2 is referenced, the defective pixel is output as it is without correction. Such correspondence is possible because the position of the AF sensor is known in advance. To detect S1 and S2 signals from the flowing image signal, the line number (HSync signal count value based on the VSync signal) and the pixel number on the line (pixel clock based on the HSync signal) Count value).

OBクランプ処理は各画素の値からOBレベル(OB領域の信号平均)を差し引くだけなので、S1やS2の信号が混在していても問題なく処理される。S1やS2の信号にOBクランプを施す必要はないのでバイパスする(処理しても構わない)。その点では次の感度比調整も同じである。感度比調整はRとBのゲイン合わせ(掛け算)であるから、S1やS2の信号が混在していても問題なく処理される。S1やS2の信号に感度比調整を施す必要はないのでバイパスする(処理しても構わない)。   Since the OB clamp process only subtracts the OB level (signal average of the OB area) from the value of each pixel, even if signals of S1 and S2 are mixed, the process is performed without any problem. Since it is not necessary to apply OB clamping to the signals of S1 and S2, it is bypassed (may be processed). In that respect, the following sensitivity ratio adjustment is the same. Since the sensitivity ratio adjustment is a gain adjustment (multiplication) of R and B, even if signals of S1 and S2 are mixed, they are processed without any problem. Since it is not necessary to adjust the sensitivity ratio to the signals of S1 and S2, it is bypassed (may be processed).

しかし、AWB評価値の抽出には注意しなければならない。静止画撮影モードの場合は以前に説明した通りAWB評価値を抽出するだけでよい。ところが、静止画データの中にはS1やS2の信号が含まれているので、各色信号を積算する際はS1やS2の信号を除外しなければならない。図7(b)に示すAWB評価値のウインドウの何れかはS1やS2の信号を含むので、そのウインドウでは各色信号の総数が異なってしまい、正しいAWB評価値が得られない。S1やS2の信号が含まれたウインドウのAWB評価値は後で補正しなければならないので、上述したようにS1やS2の信号が積算されないようにする必要がある。   However, care must be taken in extracting AWB evaluation values. In the still image shooting mode, it is only necessary to extract the AWB evaluation value as described above. However, since the still image data includes the S1 and S2 signals, the S1 and S2 signals must be excluded when integrating the color signals. Since any of the AWB evaluation value windows shown in FIG. 7B includes S1 and S2 signals, the total number of each color signal differs in that window, and a correct AWB evaluation value cannot be obtained. Since the AWB evaluation value of the window including the signals S1 and S2 must be corrected later, it is necessary to prevent the signals S1 and S2 from being integrated as described above.

図2に示す画像処理回路22の前処理ではこのような例外に対応している。前処理の施された静止画データは図2に示す出力バッファ63と画像バス34を経由して図11に示すような配列でいったんSDRAM12に記憶される。次に、この静止画データには後処理を施すことになるが、図11に示すようにS1やS2の信号が含まれているので、先ずこの部分を周囲の画像信号で補間しなければならない。S1やS2の信号は複数ヶ所に部分的に存在するだけなので、周辺の画像信号を含めてその部分を切り出して補間を行えばよい。   The preprocessing of the image processing circuit 22 shown in FIG. 2 corresponds to such an exception. The pre-processed still image data is temporarily stored in the SDRAM 12 in the arrangement shown in FIG. 11 via the output buffer 63 and the image bus 34 shown in FIG. Next, the still image data is subjected to post-processing. Since the signals S1 and S2 are included as shown in FIG. 11, this portion must first be interpolated with surrounding image signals. . Since the signals S1 and S2 are only partially present at a plurality of locations, interpolation may be performed by cutting out the portions including the peripheral image signals.

図2に示す画像処理回路22には前処理や後処理とは独立に動くAF信号補間回路61が設けられており、これを用いてS1やS2の信号の部分を補間する。この一実施の形態ではハードウェア構成のAF信号補間回路61が設けられるので、マイクロプロセッサーでソフトウェア的に補間を行うのに比べ、非常に短時間で処理される。補間のアルゴリズムは例えばバイキュービック法などを利用する。S1やS2の信号近くに画像のエッジが存在する場合、エッジを横切る方向に補間を行うとそれが鈍ってしまうため、エッジ方向の周辺画像信号だけから補間を行うようにするのが望ましい。AF信号補間回路61はこのようなエッジ判定機能を備える必要がある。   The image processing circuit 22 shown in FIG. 2 is provided with an AF signal interpolation circuit 61 that moves independently of the pre-processing and post-processing, and uses this to interpolate the signal portions S1 and S2. In this embodiment, since an AF signal interpolation circuit 61 having a hardware configuration is provided, the processing is performed in a very short time compared with the case where interpolation is performed by software using a microprocessor. For example, a bicubic method is used as an interpolation algorithm. When an edge of an image is present near the signals S1 and S2, if interpolation is performed in the direction across the edge, it becomes dull. Therefore, it is desirable to perform interpolation only from peripheral image signals in the edge direction. The AF signal interpolation circuit 61 needs to have such an edge determination function.

図11に示す例では、S1やS2の信号をGの信号に置き換えているが、通常これは隣接したR/Gライン上に存在する±45°方向のG信号で補間することになる。エッジの方向によっては±45°方向のG信号で補間するのが不適切となり、その場合はさらに外側のG信号を用いて補間を行う。画像のエッジ方向を判定する場合も、周囲の画像信号をできるだけ多く参照するとよい。この補間処理を行う場合は、S1やS2の信号を含む領域を周辺の画像信号とともに切り出し、そのデータを画像バス34から図2に示す入力バッファ59へ入力する。不図示のDMACを利用するとこのデータ転送が高速に行われる。   In the example shown in FIG. 11, the signals S1 and S2 are replaced with G signals, but this is usually interpolated with G signals in the direction of ± 45 ° existing on adjacent R / G lines. Depending on the direction of the edge, it is inappropriate to interpolate with the G signal in the direction of ± 45 °. In this case, interpolation is performed using the outer G signal. When determining the edge direction of an image, it is preferable to refer to as many surrounding image signals as possible. When this interpolation processing is performed, an area including S1 and S2 signals is cut out together with peripheral image signals, and the data is input from the image bus 34 to the input buffer 59 shown in FIG. When a DMAC (not shown) is used, this data transfer is performed at high speed.

このデータ転送は矩形の領域に対して行われるので、補間に必要のない画像信号も含まれているが、一般にその方がデータ転送は高速となるので不要な画像信号を無視すれば問題はない。入力バッファ59に入力されたデータはAF信号補間回路61により処理され、補間によって作られた画像信号が出力バッファ63に蓄積される。補間によって作られた画像信号で出力バッファ63が埋まると、上述したDMACを利用してそれをSDRAM12へ出力し、記憶する。入力バッファ59や出力バッファ63は後処理でも利用されるが、今の場合は後処理が行われていないので、AF信号補間回路61が占有しても構わない。   Since this data transfer is performed on a rectangular area, image signals that are not necessary for interpolation are also included. However, in general, data transfer is faster, so there is no problem if unnecessary image signals are ignored. . The data input to the input buffer 59 is processed by the AF signal interpolation circuit 61, and the image signal created by the interpolation is stored in the output buffer 63. When the output buffer 63 is filled with the image signal generated by the interpolation, it is output to the SDRAM 12 and stored using the DMAC described above. Although the input buffer 59 and the output buffer 63 are also used in post-processing, in this case, post-processing is not performed, so the AF signal interpolation circuit 61 may occupy.

図11に示すように、S1やS2の信号は不連続なアドレスに存在するので、補間によって作られたG信号だけをそこに上書きするのは難しい。S1やS2の信号とともに切り出された周囲の原画像信号まで含めて元の矩形の領域全体に上書きする方が簡単である。   As shown in FIG. 11, since the signals S1 and S2 exist at discontinuous addresses, it is difficult to overwrite only the G signal generated by interpolation. It is easier to overwrite the entire original rectangular area including the surrounding original image signal cut out together with the signals of S1 and S2.

続いて補間によって作られた画像信号を利用してAWB評価値の補正を行う。図2に示す画像処理回路22では先ずAWB補正値が生成される。図11に示す画像データの場合は補間によってG信号が作られるので、AWB補正値はその積算値となる。このAWB補正値を、S1やS2の信号が含まれていたウインドウのAWB評価値(Gの積算値)に足し合わせる。S1やS2の信号が複数のウインドウに分散していた場合はウインドウごとにAWB補正値を計算し、それぞれのウインドウのAWB評価値にそれを足し合わせるようにする。図2に示す破線の矢印はウインドウごとにAWB評価値がAWB補正値で補正されることを表している。   Subsequently, the AWB evaluation value is corrected using an image signal generated by interpolation. In the image processing circuit 22 shown in FIG. 2, an AWB correction value is first generated. In the case of the image data shown in FIG. 11, since the G signal is generated by interpolation, the AWB correction value is the integrated value. The AWB correction value is added to the AWB evaluation value (G integrated value) of the window in which the signals S1 and S2 were included. When the signals of S1 and S2 are distributed over a plurality of windows, an AWB correction value is calculated for each window and added to the AWB evaluation value of each window. 2 indicates that the AWB evaluation value is corrected with the AWB correction value for each window.

このAWB評価値の補正が自動的に行われると最も使い易いのであるが、それが難しければ図1に示すCPU30によってソフトウェア的に補正を行ってもよい。以上の補間処理とAWB評価値の補正をAFセンサー(S1とS2)が置かれているすべての場所について行う。例えば図10(a)に示すようにAFセンサーが5ヶ所に配置されている場合は、その5ヶ所で上述した補間処理とAWB評価値の補正を行う。   When the correction of the AWB evaluation value is automatically performed, it is most easy to use. However, if this is difficult, the CPU 30 shown in FIG. The above interpolation processing and AWB evaluation value correction are performed for all locations where AF sensors (S1 and S2) are placed. For example, as shown in FIG. 10A, when five AF sensors are arranged, the above-described interpolation processing and AWB evaluation value correction are performed at the five positions.

AWB評価値の補正が終了したら続いてWB調整回路のRとBのゲインを求める。これはAWB評価値を基にAWBアルゴリズムにしたがって決定される。このRとBのゲインは図2に示すWB調整回路52に設定される。一実施の形態のデジタルカメラではこのようにAWB評価値の補正を行っているのでAWBの精度が高い。これで後処理の準備がすべて整ったので、補間後の静止画データに後処理を施す。SDRAM12から補間後の画像データを読み出し、画像バス34から図2に示す入力バッファ59へ入力する。このデータ転送は不図示のDMACを利用したDMA転送により行う。   When the correction of the AWB evaluation value is completed, the R and B gains of the WB adjustment circuit are subsequently obtained. This is determined according to the AWB algorithm based on the AWB evaluation value. The gains R and B are set in the WB adjustment circuit 52 shown in FIG. Since the digital camera according to the embodiment corrects the AWB evaluation value in this way, the accuracy of AWB is high. Now that all the preparations for post-processing are complete, post-processing is performed on the still image data after interpolation. The interpolated image data is read from the SDRAM 12 and input from the image bus 34 to the input buffer 59 shown in FIG. This data transfer is performed by DMA transfer using a DMAC (not shown).

入力バッファ59へ入力された画像データは先ず水平間引き回路51へ送られ、後処理が開始される。後処理で主画像のような大きな画像を作成する場合は、図6に示すように短冊状のブロック単位で処理する代わりに水平間引き回路51をバイパスする。サムネイルやフリーズ画のような小さな画像を作成する場合は、大きな画像データをそのまま入力する代わりに水平間引き回路51で先ず水平画素数を削減している。これ以降の処理は、上述した従来の撮像装置と同様である。   The image data input to the input buffer 59 is first sent to the horizontal thinning circuit 51, and post-processing is started. When a large image such as a main image is created by post-processing, the horizontal thinning circuit 51 is bypassed instead of processing in strip-shaped blocks as shown in FIG. When creating a small image such as a thumbnail or a freeze image, the horizontal thinning circuit 51 first reduces the number of horizontal pixels instead of inputting large image data as it is. The subsequent processing is the same as that of the conventional imaging device described above.

後処理によって作成されたYCbCrデータは、いったん図2に示す出力バッファ63に蓄積される。YCbCrデータで出力バッファ63が埋まると、それをDMA転送によってSDRAM12へ送り、記憶する。主画像の場合は短冊状のブロックごとにこれを繰り返し、各ブロックのYCbCrデータをSDRAM12上で結合すると1つの大きな主画像が完成する。以上が静止画撮影モードにおける一実施の形態のデジタルカメラの動作である。   The YCbCr data created by post-processing is temporarily stored in the output buffer 63 shown in FIG. When the output buffer 63 is filled with YCbCr data, it is sent to the SDRAM 12 by DMA transfer and stored. In the case of the main image, this is repeated for each strip-shaped block, and when the YCbCr data of each block is combined on the SDRAM 12, one large main image is completed. The above is the operation of the digital camera of the embodiment in the still image shooting mode.

次に、一実施の形態のデジタルカメラにおける間引きモードの動作について説明する。間引きモードでは、撮像素子2のCCDから図4や図9(a)に示すように信号が読み出される。間引かれてライン数の減った画像信号に混じってAF信号を含むラインが読み出されている。その信号は先ずAFE3でデジタルデータに変換され、次に図1の画像/AF信号分離回路21へ入力される。2種類の信号はここで分離されて別々に出力される。図9(a)において、・・・,n-1,n,n+1,・・・などの画像信号だけを含むラインと、ラインnとn+1に挟まれるAF信号を含むラインとが分離され、画像/AF信号分離回路21から別々に出力される。   Next, the operation in the thinning mode in the digital camera of the embodiment will be described. In the thinning mode, a signal is read from the CCD of the image sensor 2 as shown in FIGS. 4 and 9A. A line including an AF signal is read out by being mixed with an image signal whose number of lines has been thinned out. The signal is first converted into digital data by the AFE 3 and then input to the image / AF signal separation circuit 21 of FIG. The two types of signals are separated here and output separately. In FIG. 9A, a line including only image signals such as..., N-1, n, n + 1,... And a line including an AF signal sandwiched between lines n and n + 1. Separated and output separately from the image / AF signal separation circuit 21.

AF信号が含まれているラインは予め分かっているので、その期間に入ったら分離が行われるよう画像/AF信号分離回路21に設定しておく。図9(a)の場合は、ラインnに続く2ラインが分離されるように設定する。画像/AF信号分離回路21から出力された画像信号だけを含むラインは、図1,図2に示す画像処理回路22へ出力され、画像処理が施される。間引きモードの場合は前処理と後処理が一体となって施され、スルー画や動画のデータが作成される。   Since the line containing the AF signal is known in advance, the image / AF signal separation circuit 21 is set so that separation is performed when the period starts. In the case of FIG. 9A, setting is made so that two lines following the line n are separated. The line including only the image signal output from the image / AF signal separation circuit 21 is output to the image processing circuit 22 shown in FIGS. 1 and 2 and subjected to image processing. In the thinning mode, pre-processing and post-processing are performed together, and live view and moving image data are created.

ただし、AF信号が含まれていたラインの期間は画像信号が存在せず、画像処理回路22をこの期間動作させると不正なデータが混在してしまう。その期間は画像処理回路22を停止させなければならず、画像処理回路22はそのような機能を持つ必要がある。図9(a)の場合には、ラインnに続く2ラインの期間は画像処理回路22が停止するように設定する。AF信号を含むラインは画像/AF信号分離回路21により取り除かれており、画像処理回路22では画像信号だけに画像処理が施されるので、正常なスルー画や動画が作成される。   However, there is no image signal during the period of the line in which the AF signal was included, and if the image processing circuit 22 is operated during this period, incorrect data will be mixed. During that period, the image processing circuit 22 must be stopped, and the image processing circuit 22 needs to have such a function. In the case of FIG. 9A, the image processing circuit 22 is set to stop during the period of two lines following the line n. The line including the AF signal is removed by the image / AF signal separation circuit 21, and the image processing circuit 22 performs image processing only on the image signal, so that a normal through image or moving image is created.

この画像処理と並行して3A評価値の抽出が行われる。ただし、AF信号は別途出力されるのでAE評価値とAWB評価値の抽出だけでよい。作成されたスルー画や動画のデータは画像処理回路22の出力バッファ63にいったん蓄積され、次いでDMA転送により画像バス34を経由してSDRAM12に記憶される。間引きモードの場合は、画像処理回路22のAF信号補間回路61やAWB補正値62は利用されない。この画像処理の動作は上述した従来の撮像装置と同様である。   In parallel with this image processing, 3A evaluation values are extracted. However, since the AF signal is output separately, it is only necessary to extract the AE evaluation value and the AWB evaluation value. The generated through image and moving image data are temporarily stored in the output buffer 63 of the image processing circuit 22, and then stored in the SDRAM 12 via the image bus 34 by DMA transfer. In the thinning mode, the AF signal interpolation circuit 61 and the AWB correction value 62 of the image processing circuit 22 are not used. The operation of this image processing is the same as that of the conventional imaging device described above.

一方、分離されたAF信号を含むラインは、画像/AF信号分離回路21の中で更に画像信号とAF信号とに分離される。図9(a)に示す画像/AF信号というラインは、詳細なタイミングがその下に示されており、その一部では図4の配列に対応して画像信号とAF信号がピクセルクロックに同期して交互に流れてくる。画像/AF信号分離回路21では、このラインからさらにAF信号だけが取り出され、残った画像信号の方は利用されずに廃棄される。AF信号の位置は予め分かっているので、HSync信号を基準にしたピクセルクロックのカウント値からAF信号だけを取り出す。   On the other hand, the line including the separated AF signal is further separated into an image signal and an AF signal in the image / AF signal separation circuit 21. The image / AF signal line shown in FIG. 9A shows the detailed timing below, and in part, the image signal and AF signal are synchronized with the pixel clock corresponding to the arrangement of FIG. Flow alternately. In the image / AF signal separation circuit 21, only the AF signal is further extracted from this line, and the remaining image signal is discarded without being used. Since the position of the AF signal is known in advance, only the AF signal is extracted from the count value of the pixel clock based on the HSync signal.

このAF信号は画像/AF信号分離回路21内に設けられた不図示の出力バッファ(FIFOなど)にいったん蓄積され、次いでDMA転送により図1に示す画像バス34を経由してSDRAM12に記憶される。図10(a)に示すように複数ヶ所にAFセンサーが配置されている場合は、すべての場所のAF信号をSDRAM12に記憶する。AFセンサーを構成しているS1とS2の光電変換セルは少数であり、さらにS1とS2の信号だけを取り出すようにしているので、図10(a)に示すように5ヶ所のAF信号をすべてSDRAM12に転送したとしても、データのトラフィックは大した量にならない。   The AF signal is temporarily stored in an output buffer (FIFO or the like) (not shown) provided in the image / AF signal separation circuit 21 and then stored in the SDRAM 12 by DMA transfer via the image bus 34 shown in FIG. . When AF sensors are arranged at a plurality of locations as shown in FIG. 10A, AF signals at all locations are stored in the SDRAM 12. Since there are only a few S1 and S2 photoelectric conversion cells that make up the AF sensor, and only the signals of S1 and S2 are taken out, all the five AF signals are shown as shown in Fig. 10 (a). Even if the data is transferred to the SDRAM 12, the data traffic does not become large.

このAF信号はSDRAM12から読み出されて図1に示す位相差演算回路23に入力される。この位相差演算回路23では、先ずS1の信号列とS2の信号列との間の位相差を計算する。続いて位相差演算回路23は、この位相差からフォーカシングレンズの移動方向と移動量を求める。この移動方向と移動量は位相差演算回路23内のレジスタ(不図示)に格納されCPU30に読み取られる。これらの値がレジスタに格納されたら割り込み要求が出されるようにすれば、CPU30は無駄な読み取り動作を行わずにすむので効率がよい。   The AF signal is read from the SDRAM 12 and input to the phase difference calculation circuit 23 shown in FIG. In the phase difference calculation circuit 23, first, the phase difference between the signal sequence S1 and the signal sequence S2 is calculated. Subsequently, the phase difference calculation circuit 23 obtains the moving direction and the moving amount of the focusing lens from this phase difference. The moving direction and moving amount are stored in a register (not shown) in the phase difference calculation circuit 23 and read by the CPU 30. If an interrupt request is issued when these values are stored in the register, the CPU 30 does not have to perform a useless read operation, which is efficient.

図10(a)に示すような配置であれば、5ヶ所の中から主要被写体と重なるAFセンサーを選んでこれら演算を行うが、2つ以上が主要被写体と重なっていた場合は位相差が明確な方のAFセンサーを選んで演算を行うとよい。CPU30は読み取った上記情報にしたがってモータードライバーIC4に指令を送ると不図示のフォーカシングモーターが駆動され、フォーカシングレンズが目標の位置まで移動して被写体にフォーカスが合わせられる。   If the arrangement is as shown in FIG. 10 (a), the AF sensor that overlaps the main subject is selected from five locations and these calculations are performed. If two or more overlap the main subject, the phase difference is clear. Choose the AF sensor of your choice and perform the calculation. When the CPU 30 sends a command to the motor driver IC 4 in accordance with the read information, a focusing motor (not shown) is driven, and the focusing lens moves to a target position to focus on the subject.

一実施の形態のデジタルカメラでは間引きモード中にスルー画の作成とAFの制御が行えるようになってので、従来の撮像装置のように間引きモードと測距モードを切り換えるという煩わしさがない。そのためスルー画や動画が途切れないという大きなメリットが生まれる。   The digital camera according to the embodiment can create a through image and control AF during the thinning mode, so that there is no trouble of switching between the thinning mode and the ranging mode unlike a conventional imaging device. Therefore, a great merit that the through image and the video are not interrupted is born.

ところで、AF信号は間引きモードのフレームごとに出力されるが、EVF動作(スルー画表示)や動画撮影時にフレームごとにAFの制御を行う必要性は少ない。静止画撮影であればレリーズ釦が半押しされる度に1回行えばよいし、動画撮影の場合でも適当なフレーム間隔ごとに1回AFの制御を行えばよい。したがって、利用されないAF信号をSDRAM12に記憶するのは電力消費が増えて無駄なことである。   By the way, although the AF signal is output for each frame in the thinning mode, there is little need to control AF for each frame during EVF operation (through image display) or moving image shooting. If it is still image shooting, it may be performed once every time the release button is pressed halfway. Even in the case of moving image shooting, AF control may be performed once at an appropriate frame interval. Therefore, storing unused AF signals in the SDRAM 12 is wasteful because of increased power consumption.

そこで、画像/AF信号分離回路21にはAF信号の分離とその出力を行う、行わないの設定ができるようにする。これにより、必要な時だけAF信号の分離と出力が行われるので消費電力が減らせる。AFの制御が必要になる度この設定を切り換えるようにしてもよいが、さらに便利な機能を画像/AF信号分離回路21に持たせることもできる。すなわち、AF信号の分離と出力が行われる場合のモードを2つ設ける。第1は、設定が有効になった直後の1フレームだけAF信号の分離と出力を行った後、止まるという単一出力モードであり、第2は、指定されたフレーム間隔ごとに1フレームだけAF信号の分離と出力を行うという繰り返し出力モードである。   Therefore, the image / AF signal separation circuit 21 can be set to perform or not perform separation and output of AF signals. As a result, the AF signal is separated and output only when necessary, so that power consumption can be reduced. Although this setting may be switched every time AF control is required, the image / AF signal separation circuit 21 can be provided with a more convenient function. That is, two modes are provided when AF signal separation and output are performed. The first is a single output mode in which AF signal is separated and output for one frame immediately after the setting becomes effective, and then stops. The second is AF for only one frame at a specified frame interval. This is a repeated output mode in which signal separation and output are performed.

静止画撮影の場合は、ほとんどが単一出力モードで済むと思われるので、消費電力の削減に寄与できる。繰り返し出力モードは動画撮影の場合に便利である。AFの制御を行うときが来たらAF信号が出力されるようにフレーム間隔を設定しておけば、AF信号がSDRAM12に記憶されるとそれがCPU30に通知されるので、無駄な動作を行うことなくAFの制御が開始される。無駄な電力の消費もなくなる。さらに、AF信号がSDRAM12に記憶されたら位相差演算回路23が自動的に上述した演算を開始するようにしてもよい。なお、繰り返し出力モードのフレーム間隔を1に設定すれば毎フレームAF信号を出力することもできるので、柔軟性は十分高い。   In the case of still image shooting, since it seems that most of the single output mode is sufficient, it can contribute to reduction of power consumption. The repeated output mode is convenient for moving image shooting. If the frame interval is set so that the AF signal is output when it is time to control the AF, the CPU 30 is notified when the AF signal is stored in the SDRAM 12, so a wasteful operation is performed. AF control starts. Useless power consumption is also eliminated. Further, when the AF signal is stored in the SDRAM 12, the phase difference calculation circuit 23 may automatically start the above-described calculation. If the frame interval in the repeated output mode is set to 1, the AF signal can be output every frame, so the flexibility is sufficiently high.

ところで、図10(a)に示すAFセンサーアレイの配列だけでは、AFの制御が困難なことも予想される。図10(a)ではS1のアレイとS2のアレイが水平方向を向いているが、水平方向に沿って被写体の輝度が殆ど変化しない場合は、S1の信号列とS2の信号列との間の位相差を求めることが容易でないと思われる。その場合には、図10(b)に示すようなAFセンサーアレイの配列を採用すると位相差が求め易くなることがある。   By the way, it is expected that AF control is difficult only by the arrangement of the AF sensor array shown in FIG. In FIG. 10A, the array of S1 and the array of S2 are oriented in the horizontal direction. However, when the luminance of the subject hardly changes along the horizontal direction, the signal sequence between the signal sequence of S1 and the signal sequence of S2 It seems that it is not easy to obtain the phase difference. In that case, if the arrangement of the AF sensor array as shown in FIG. 10B is adopted, the phase difference may be easily obtained.

しかし、図10(b)に示すような配列はCCDには適さない。図10(b)ではS1のアレイとS2のアレイが垂直方向を向いているため、図中の各AFセンサーアレイに含まれるS1とS2の光電変換セルが幾つものラインに跨って配置されることになる。CCDはライン単位で信号が読み出されるため、各AFセンサーアレイの信号を読み出すのに長い時間が必要となる。AF信号が速やかに読み出せないので、AF演算の開始も遅れてしまう。CCDの場合はライン上の特定の光電変換セルを選んで信号を読み出すことができないため、図10(a)に示すような配列であってもAF信号を読み出すのに比較的長い時間がかかる。図10(b)に示すような配列の場合は、この短所がより顕著に表れる。   However, the sequence as shown in FIG. 10 (b) is not suitable for CCD. In FIG. 10B, since the array of S1 and the array of S2 are oriented in the vertical direction, the photoelectric conversion cells of S1 and S2 included in each AF sensor array in the figure are arranged across several lines. become. Since the CCD reads out signals in line units, it takes a long time to read out signals from each AF sensor array. Since the AF signal cannot be read out quickly, the start of AF calculation is also delayed. In the case of a CCD, since it is not possible to read a signal by selecting a specific photoelectric conversion cell on the line, it takes a relatively long time to read the AF signal even with the arrangement as shown in FIG. In the case of the arrangement as shown in FIG. 10 (b), this disadvantage appears more prominently.

このような問題を解決するために、固体撮像素子2をX-Yアドレス方式の読み出しができるタイプを採用する。具体的には、C-MOSセンサーのような固体撮像素子を利用する。C-MOSセンサーでは特定の光電変換セルを選んで信号を読み出すこともがきるので、AFセンサーの信号だけをまとめて読み出すことができる。このようなX-Yアドレス方式の読み出し機能を備えた固体撮像素子を上述した間引きモードで動作させる場合には、AFセンサーの信号だけをまとめて先に読み出し、その後で間引いて数を減らした画像信号を読み出すようにしている。   In order to solve such a problem, a type capable of reading the solid-state imaging device 2 by the X-Y address method is adopted. Specifically, a solid-state image sensor such as a C-MOS sensor is used. Since the C-MOS sensor can also read out signals by selecting a specific photoelectric conversion cell, only the AF sensor signals can be read out together. When operating such a solid-state imaging device having an XY address type readout function in the above-described thinning mode, only the AF sensor signals are read first, and then the number of image signals reduced by thinning is reduced. I am trying to read it out.

AFセンサーが水平方向のアレイの場合には、例えば図12(a)に実線で示す矢印の順にAF信号をまとめて読み出し、垂直方向のアレイの場合には、例えば図12(b)に実線で示す矢印の順にAF信号をまとめて読み出す。図12において、破線の矢印は各AFセンサーアレイ内のS1とS2の信号読み出し方向を表す。図11、図4に示すように、S1やS2の光電変換セルの間に画像信号用の画素が含まれていても、S1やS2だけを選んで信号を読み出すことができるので、AF信号を読み出すのにかかる時間は僅かなものである。   When the AF sensor is a horizontal array, for example, AF signals are collectively read in the order of arrows shown by solid lines in FIG. 12A, and when the AF sensor is a vertical array, for example, solid lines are shown in FIG. 12B. Read the AF signals together in the order of the arrows shown. In FIG. 12, broken arrows indicate the signal readout directions of S1 and S2 in each AF sensor array. As shown in FIGS. 11 and 4, even if pixels for image signals are included between S1 and S2 photoelectric conversion cells, signals can be read out by selecting only S1 or S2. The time it takes to read is negligible.

図12(a)、(b)に示すように5ヶ所にAFセンサーアレイが配置されたとしても、S1とS2の光電変換セルの総数は1000個に満たないと思われる。最近の高画素の固体撮像素子であれば水平画素数は3000を超えるので、間引きモードで水平間引きが行われていなければ1H期間(HSync信号の周期)にすべてのAF信号を読み出すことも可能である。この固体撮像装置の間引きモードにおいてAF信号を読み出すとしたら、VSync信号が出力された直後の垂直ブランキング期間にまとめて読み出すことが最良である。   Even if AF sensor arrays are arranged at five locations as shown in FIGS. 12 (a) and 12 (b), the total number of S1 and S2 photoelectric conversion cells is considered to be less than 1,000. With recent high-pixel solid-state image sensors, the number of horizontal pixels exceeds 3000, so if horizontal thinning is not performed in the thinning mode, all AF signals can be read during 1H period (HSync signal cycle). is there. If the AF signal is read out in the thinning mode of the solid-state imaging device, it is best to read it out in the vertical blanking period immediately after the VSync signal is output.

すなわち、図9(a)、(b)において、VSync信号の直後にある不図示のラインの中にAF信号を埋め込んで読み出すのである。この部分は垂直ブランキング期間なので幾つかのラインは空いており、AF信号を読み出す期間として利用することができる。このような読み出しを行うことのメリットは、その後に読み出される画像信号のラインの間にAF信号の含まれるラインが挿入されないことと、垂直ブランキング期間の長さが変わらないことである。このため画像処理の動作も従来の撮像装置の場合とほとんど変わらないことになり、この点もメリットの1つである。   That is, in FIGS. 9A and 9B, the AF signal is embedded in a line (not shown) immediately after the VSync signal and read. Since this part is a vertical blanking period, some lines are free and can be used as a period for reading out an AF signal. The merit of performing such reading is that the line including the AF signal is not inserted between the lines of the image signal read after that and the length of the vertical blanking period does not change. For this reason, the image processing operation is almost the same as that of the conventional imaging apparatus, which is one of the merits.

図12(c)に示すように、水平方向のアレイから成るAFセンサーと、垂直方向のアレイから成るAFセンサーとを、撮影画面内の複数の場所に混在して配置することもできる。図12(c)に示すようなAFセンサーの配列でも、図12(a)、(b)に示すものと同様、実線の矢印順にAF信号をまとめて読み出せばよい。図中の破線の矢印が各AFセンサー内のS1とS2のアレイの読み出し方向を表している。なお、S1とS2のアレイ、水平方向と垂直方向のアレイの何れを先に読み出しても構わない。   As shown in FIG. 12C, an AF sensor composed of a horizontal array and an AF sensor composed of a vertical array can be mixed and arranged at a plurality of locations in the photographing screen. Even in the AF sensor arrangement as shown in FIG. 12C, the AF signals may be read together in the order of the solid line arrows in the same manner as those shown in FIGS. 12A and 12B. The broken-line arrows in the figure indicate the readout direction of the S1 and S2 arrays in each AF sensor. Note that either the S1 and S2 arrays or the horizontal and vertical arrays may be read first.

上述したように、固体撮像素子2の間引きモードでは、VSync信号が出力された直後の垂直ブランキング期間中にAF信号がまとめて読み出されるので、このAF信号を図1に示す画像/AF信号分離回路21によって取り出し、以前と同様にSDRAM12に記憶する。AF信号が読み出されるタイミングは分かっているので、それらが正確に取り出されるように画像/AF信号分離回路21を設定する。これが完了したらAF信号をSDRAM12から読み出して位相差演算回路23へ入力し、そこで2つの信号の位相差を求めてAFの制御を行う。AF信号の読み出しが早まったので、AFの制御も早く開始されるというメリットが生まれる。   As described above, in the thinning-out mode of the solid-state imaging device 2, since the AF signals are read together during the vertical blanking period immediately after the VSync signal is output, the AF / signal separation shown in FIG. The data is taken out by the circuit 21 and stored in the SDRAM 12 as before. Since the timing at which the AF signals are read is known, the image / AF signal separation circuit 21 is set so that they can be accurately extracted. When this is completed, the AF signal is read from the SDRAM 12 and input to the phase difference calculation circuit 23, where the phase difference between the two signals is obtained to control the AF. Since the AF signal is read out earlier, there is a merit that AF control is started earlier.

一方、垂直ブランキング期間が終わると、画像信号のラインの読み出しが始まる。この画像信号のラインは、画像/AF分離回路21から出力されて画像処理回路22へ送られる。この画像信号に画像処理が施されてスルー画や動画のデータが作成される。AF信号のラインが画像信号のラインの間に挿入されて読み出されるようなことがなく、以前のように画像処理中に画像処理回路22を停止させるという期間を設ける必要がない。間引きモードの垂直ブランキング期間と有効画像期間が従来の固体撮像素子と殆ど変わらないので、画像処理のタイミングが厳しくなるというようなこともない。   On the other hand, when the vertical blanking period ends, reading of the line of the image signal starts. The image signal line is output from the image / AF separation circuit 21 and sent to the image processing circuit 22. The image signal is subjected to image processing to create through image data and moving image data. AF signal lines are not inserted and read between image signal lines, and it is not necessary to provide a period for stopping the image processing circuit 22 during image processing as before. Since the vertical blanking period and the effective image period in the thinning mode are almost the same as those of the conventional solid-state imaging device, the timing of the image processing is not severe.

ただし、図12(b)、(c)に示すようにAFセンサーが垂直方向のアレイを含む場合は、画像処理を行う際に新たな注意が必要となる。AFセンサーが垂直方向のアレイを含む場合は、画像信号だけを含むラインというものが大幅に減ってしまっている。このような固体撮像素子において、AFセンサーを含むラインの信号を完全に取り除くと、スルー画や動画のライン数が足りなくなってしまうおそれがある。仮にスルー画や動画を作成するのに必要な画像信号のラインが確保されたとしても、AFセンサーを含むラインがまとめて間引かれてしまうため、画像信号が不均一になってスルー画や動画の画質が劣化してしまう。   However, when the AF sensor includes an array in the vertical direction as shown in FIGS. 12B and 12C, new attention is required when performing image processing. When the AF sensor includes an array in the vertical direction, the lines including only the image signal have been greatly reduced. In such a solid-state imaging device, if the signal of the line including the AF sensor is completely removed, the number of lines of the through image and the moving image may be insufficient. Even if the image signal lines necessary to create a through image or video are secured, the lines including the AF sensor are thinned out together, so the image signal becomes non-uniform and the through image or video The image quality will deteriorate.

したがって、AFセンサーが垂直方向のアレイを含む場合は、AFセンサーを含むラインもスルー画や動画のデータを作成するのに利用しなければならない。図12(b)に示すように5ヶ所にAFセンサーが配置されたとしても、垂直方向のアレイだけに着目するなら1ラインに含まれるS1やS2の光電変換セルの合計は高々6個である。このように、1ラインに少数のS1やS2の光電変換セルが含まれるだけなら、スルー画や動画のような低解像度の画像を作成するのにそのラインを利用してもよい。ただし、図12(a)および(c)において、水平方向のアレイを含むラインは画像信号が少ないので画像処理には利用しない。間引きモードではこれらのラインが読み出されないようにする。   Therefore, if the AF sensor includes an array in the vertical direction, the line including the AF sensor must also be used to create live view and video data. Even if AF sensors are arranged at five locations as shown in FIG. 12B, if attention is paid only to the vertical array, the total number of S1 and S2 photoelectric conversion cells included in one line is six at most. . As described above, if a single line includes only a small number of S1 and S2 photoelectric conversion cells, the line may be used to create a low-resolution image such as a through image or a moving image. However, in FIGS. 12A and 12C, the line including the array in the horizontal direction has few image signals and is not used for image processing. These lines are not read out in the thinning mode.

一方、垂直方向のアレイを含むラインは画像信号が多いので画像処理に利用することになっており、間引きモードではこれらのラインも必要なだけ読み出されるようにする。AF信号はまとめて先に読み出されてしまうため、画像信号が読み出される時点ではAFセンサーから読み出される信号はない。VSync信号直後の垂直ブランキング期間が終わると有効画像期間が始まるが、上述した通り、この期間は画像処理に利用されるラインだけが読み出されるようになっているため、図1に示す画像/AF信号分離回路21はこの期間のラインをすべて画像処理回路22へ送ってよい。その中で垂直方向のアレイを含むラインについては、S1やS2の部分に画像信号がないため画像処理を施す際別に扱わなければならない。   On the other hand, the lines including the array in the vertical direction have many image signals and are used for image processing. In the thinning mode, these lines are read as many times as necessary. Since the AF signals are read together first, there is no signal read from the AF sensor when the image signal is read. When the vertical blanking period immediately after the VSync signal ends, the effective image period starts. As described above, only the lines used for image processing are read out during this period, so the image / AF shown in FIG. The signal separation circuit 21 may send all the lines in this period to the image processing circuit 22. Among them, the line including the vertical array must be handled separately when image processing is performed because there is no image signal in the S1 and S2 portions.

一般にスルー画や動画の解像度は低いので、水平方向の画素は間引かれている。C-MOSセンサーのようにX-Yアドレス方式の読み出し機能を持つ固体撮像素子であれば、間引きモードにおいて垂直間引きばかりでなく水平間引きを併用して読み出すこともできる。さらに同色の画素同士を加算して読み出すこともできる。この様な読み出し機能を利用すれば、垂直方向のアレイを含むラインであっても、S1やS2の光電変換セルを飛ばして画像信号だけを読み出すことができる。   In general, since the resolution of a through image or a moving image is low, pixels in the horizontal direction are thinned out. A solid-state imaging device having an X-Y address type readout function such as a C-MOS sensor can read out not only in vertical thinning but also in horizontal thinning in the thinning mode. Furthermore, pixels of the same color can be added and read out. By using such a readout function, it is possible to read out only the image signal by skipping the photoelectric conversion cells of S1 and S2, even for a line including a vertical array.

このような水平間引きを併用して読み出された信号であれば、画像信号だけが画像処理回路22に送られるので、そのまま画像処理を施しても正常なスルー画や動画や動画が作成される。予め水平間引きの行われた画像信号が読み出されるので、画像処理回路22における水平間引きや水平解像度変換も簡略化される。なお、固体撮像素子で予め水平間引きを行わないのであれば画像処理回路で対応しなければならない。最も簡単な対応の仕方は、固体撮像素子の水平間引きと同様な水平間引きを画像処理回路で行うことである。この水平間引きの際にS1とS2の部分が廃棄されるようにすればよい。   If the signal is read out using such horizontal thinning, only the image signal is sent to the image processing circuit 22, so that a normal through image, moving image, or moving image is created even if the image processing is performed as it is. . Since the image signal that has been subjected to horizontal thinning in advance is read, horizontal thinning and horizontal resolution conversion in the image processing circuit 22 are also simplified. If horizontal thinning is not performed in advance using a solid-state imaging device, it must be handled by an image processing circuit. The simplest way of handling is to perform horizontal thinning similar to the horizontal thinning of the solid-state imaging device by the image processing circuit. What is necessary is just to make it discard the part of S1 and S2 in the case of this horizontal thinning.

この水平間引きを図2に示す水平間引き回路51で行うこともできるが、画像処理回路22の前処理部22aにS1やS2の部分を含んだ信号が流れてしまうので前処理の最初に行うことが望ましい。特に、AE評価値やAWB評価値を抽出する場合はS1やS2の部分を含まない信号が必要なので、前処理の最初に水平間引きを行うことが必須となる。前処理と後処理の両方で図2に示す水平間引き回路51が使えると、画像処理回路22のゲート数削減に寄与する。   This horizontal thinning can be performed by the horizontal thinning circuit 51 shown in FIG. 2, but a signal including S1 and S2 flows in the preprocessing unit 22a of the image processing circuit 22, so that it is performed at the beginning of the preprocessing. Is desirable. In particular, when extracting an AE evaluation value or an AWB evaluation value, a signal that does not include the S1 and S2 portions is necessary, so it is essential to perform horizontal thinning at the beginning of preprocessing. If the horizontal thinning circuit 51 shown in FIG. 2 can be used for both pre-processing and post-processing, the number of gates of the image processing circuit 22 can be reduced.

次に、性能を落とさずにコストダウンを達成するための位相差演算回路23の具体的な構成について説明する。図1に示すデジタルカメラは専用の位相差演算回路23を備えているため位相差を求めるのが速く、その結果AFの制御も高速に行われるという長所を持つ。しかし、これを専用のハードウェアで構成すると、他の目的には使えないという不自由さが生じてしまう。回路規模は増えるが利用される機会が少ないため、効率が悪い。   Next, a specific configuration of the phase difference calculation circuit 23 for achieving cost reduction without degrading performance will be described. Since the digital camera shown in FIG. 1 has a dedicated phase difference calculation circuit 23, the phase difference can be obtained quickly, and as a result, AF control can be performed at high speed. However, if this is configured with dedicated hardware, there will be inconvenience that it cannot be used for other purposes. Although the circuit scale increases, there are few opportunities for use, so the efficiency is poor.

図13はコストを重視した位相差演算回路23の一実施例を示す。なお、図1に示す機器と同様な機器に対しては同一の符号を付して相違点を中心に説明する。CPU30はカメラ全体を制御するためのメインCPUであり、SRAM71はそのメインCPU30から高速に読み書きができるメモリである。画像/AF信号分離回路21の1つ目の出力は画像処理回路22に接続されており、2つ目の出力はSRAM71に接続されている。   FIG. 13 shows an embodiment of the phase difference calculation circuit 23 that places importance on cost. In addition, the same code | symbol is attached | subjected with respect to the apparatus similar to the apparatus shown in FIG. 1, and it demonstrates centering around difference. The CPU 30 is a main CPU for controlling the entire camera, and the SRAM 71 is a memory that can be read / written at high speed from the main CPU 30. The first output of the image / AF signal separation circuit 21 is connected to the image processing circuit 22, and the second output is connected to the SRAM 71.

固体撮像素子2が間引きモードで動作している場合は、画像/AF信号分離回路21で分離された画像信号が1つ目の出力を通って画像処理回路22へ入力され、そこでスルー画や動画のデータが作成される。一方、画像/AF信号分離回路21により分離されたAF信号は2つ目の出力を通って直接SRAM71に記憶される。このAF信号はCPUバス35を経由してメインCPU30に読み取られ、メインCPU30のソフトウェア処理によって先ず2つの信号の間の位相差が計算される。次に、メインCPU30のソフトウェア処理によって、その位相差情報からフォーカシングレンズの移動方向と移動量が計算される。   When the solid-state imaging device 2 is operating in the thinning mode, the image signal separated by the image / AF signal separation circuit 21 is input to the image processing circuit 22 through the first output, where a through image or a moving image is input. Is created. On the other hand, the AF signal separated by the image / AF signal separation circuit 21 is directly stored in the SRAM 71 through the second output. The AF signal is read by the main CPU 30 via the CPU bus 35, and the phase difference between the two signals is first calculated by software processing of the main CPU 30. Next, the moving direction and the moving amount of the focusing lens are calculated from the phase difference information by software processing of the main CPU 30.

メインCPU30がその情報にしたがって図1に示すモータードライバーIC4へ指令を送るとフォーカシングモーターが駆動され、フォーカシングレンズが目標の位置まで移動して被写体にフォーカスが合わせられる。上述した様々な演算はメインCPU30のソフトウェアによって行われるので、図1に示すような専用の位相差演算回路23に比べると演算速度が劣ることは否めない。そこで、AF信号を図13に示す高速SRAM71に記憶してから演算することによって、演算速度の低下を抑える。通常、このSRAM71はメインCPU30と同じくDSCエンジン6内のオンチップメモリとして実装される。   When the main CPU 30 sends a command to the motor driver IC 4 shown in FIG. 1 according to the information, the focusing motor is driven, the focusing lens moves to the target position, and the subject is focused. Since the various calculations described above are performed by the software of the main CPU 30, it cannot be denied that the calculation speed is inferior to that of the dedicated phase difference calculation circuit 23 shown in FIG. Accordingly, the calculation of the AF signal is suppressed by storing the AF signal in the high-speed SRAM 71 shown in FIG. Normally, this SRAM 71 is mounted as an on-chip memory in the DSC engine 6 as with the main CPU 30.

図13に示すSRAM71は、図1に示すSDRAM12に比べてメインCPU30から高速に読み書きが出来るので、その分演算速度が速い。AF信号が直接このSRAMに記憶されるというのはSDRAMなどを経由しないという意味である。これもAF演算の高速化に寄与する。メインCPU30のクロック周波数に応じて演算速度が変わるので、性能はこれにより引き出す。図1に示す位相差演算回路23は削除されたが、新たにSRAM71が設けられたので、回路規模は減らないと感じるかも知れない。しかし、CPU30と高速SRAM71という組み合わせは様々な目的に使えるため柔軟性が高く、専用の位相差演算回路23を設けるよりもはるかに有用である。   The SRAM 71 shown in FIG. 13 can be read / written from the main CPU 30 at a higher speed than the SDRAM 12 shown in FIG. The fact that the AF signal is directly stored in this SRAM means that it does not go through SDRAM or the like. This also contributes to speeding up AF calculation. Since the calculation speed changes according to the clock frequency of the main CPU 30, the performance is derived from this. Although the phase difference calculation circuit 23 shown in FIG. 1 has been deleted, since the SRAM 71 is newly provided, it may be felt that the circuit scale does not decrease. However, since the combination of the CPU 30 and the high-speed SRAM 71 can be used for various purposes, it has high flexibility and is much more useful than providing a dedicated phase difference calculation circuit 23.

それに、システムオンチップ用のCPUコアはキャッシュメモリ(命令&データ)の他に汎用の高速SRAMを備えることが多くなり、AF信号を記憶する高速メモリとしてこの汎用SRAMを利用するならハードウェアの追加は必要ない。AF信号を記憶するのに必要な記憶容量は僅かである。例えば、図12(c)に示すような配列でAFセンサーの光電変換セルが合計1024個あり、1つの光電変換セル当たり16bitのAF信号を出力するとしても2KBを占有するだけである。CPUコアの汎用SRAMは4KB,8KB,16KBなどの記憶容量のものが用意されており、これらのSRAMであればAF信号を記憶するのに十分利用できる。ただし、オンチップの汎用SRAMを利用する場合は、画像/AF信号分離回路21との接続に若干の変更が必要になる場合もある。   In addition, CPU cores for system-on-chip are often equipped with general-purpose high-speed SRAM in addition to cache memory (instructions and data). If this general-purpose SRAM is used as a high-speed memory for storing AF signals, additional hardware is required. Is not necessary. The storage capacity required to store the AF signal is very small. For example, in the arrangement shown in FIG. 12C, there are a total of 1024 photoelectric conversion cells of the AF sensor, and even if a 16-bit AF signal is output per photoelectric conversion cell, only 2 KB is occupied. CPU core general-purpose SRAMs are available in 4KB, 8KB, 16KB, etc., and these SRAMs can be used to store AF signals. However, when an on-chip general-purpose SRAM is used, the connection with the image / AF signal separation circuit 21 may need to be slightly changed.

図13の接続ではSRAM71が画像/AF信号分離回路21からの書き込み用と、メインCPU30からの読み書き用の2つのポートを持つように見える。しかし、上述の汎用SRAMは読み書き用のポートが一般に1つなので、画像/AF信号分離回路21とメインCPU30の両方からこれをアクセスするには画像/AF信号分離回路21の出力をCPUバス35に接続し、このCPUバス35を経由してAF信号をSRAM71に記憶する。このデータ転送には不図示のDMACによるDMA転送を利用すればよい。図13に示すように、メインCPU30と高速SRAM71という組み合わせによって、柔軟性の高い処理機能とコストの低減が同時に達成される。   In the connection of FIG. 13, the SRAM 71 appears to have two ports for writing from the image / AF signal separation circuit 21 and for reading and writing from the main CPU 30. However, since the general-purpose SRAM described above generally has one read / write port, the output of the image / AF signal separation circuit 21 is sent to the CPU bus 35 in order to access it from both the image / AF signal separation circuit 21 and the main CPU 30. Then, the AF signal is stored in the SRAM 71 via the CPU bus 35. For this data transfer, DMA transfer by DMAC (not shown) may be used. As shown in FIG. 13, the combination of the main CPU 30 and the high-speed SRAM 71 achieves a highly flexible processing function and cost reduction at the same time.

図14は性能と柔軟性を重視した位相差演算回路23の他の実施例を示す。上述した図13に示す位相差演算回路と比較すると、新たにコプロセッサー72が設けられる。このコプロセッサー72は演算を専門に行い、メインCPU30の方はカメラ全体の制御を行う。図13に示す位相差演算回路と同様に高速のSRAM71を備えている。このSRAM71はコプロセッサー72から高速に読み書きができるようなっている。このコプロセッサー72はプログラムによって演算を実行する。コプロセッサー72としてはDSP(Digital Signal Processor)のようなものが適している。   FIG. 14 shows another embodiment of the phase difference calculation circuit 23 in which performance and flexibility are emphasized. Compared with the phase difference calculation circuit shown in FIG. 13 described above, a coprocessor 72 is newly provided. The coprocessor 72 specializes in computation, and the main CPU 30 controls the entire camera. Similar to the phase difference calculation circuit shown in FIG. 13, a high-speed SRAM 71 is provided. This SRAM 71 can be read and written from the coprocessor 72 at high speed. The coprocessor 72 performs an operation according to a program. A coprocessor 72 such as a DSP (Digital Signal Processor) is suitable.

図14に示す位相差演算回路23において、SRAM71をプログラム用とデータ用の統合メモリとして使うこともできるが、プログラムメモリとデータメモリを分けた方がプログラムの実行速度(演算速度)が上がるので本実施例もそれに倣う。コプロセッサー72には不図示のプログラムメモリが内蔵されているものとし、SRAM71はデータメモリ(ワークメモリ)専用として利用する。上述したAF信号はこのSRAM71の方に記憶される。コプロセッサー72はCPUバス35に接続されており、メインCPU30はこのCPUバス35を介してプログラムメモリにプログラムをダウンロードする。   In the phase difference calculation circuit 23 shown in FIG. 14, the SRAM 71 can be used as an integrated memory for programs and data. However, if the program memory and the data memory are separated, the execution speed (calculation speed) of the program increases. The embodiment follows that. The coprocessor 72 is assumed to incorporate a program memory (not shown), and the SRAM 71 is used exclusively for a data memory (work memory). The above-mentioned AF signal is stored in the SRAM 71. The coprocessor 72 is connected to the CPU bus 35, and the main CPU 30 downloads a program to the program memory via the CPU bus 35.

メインCPU30がCPUバス35を介して不図示のコマンドレジスタにコマンドを書き込むと、コプロセッサー72はプログラムの実行を開始する。プログラムを実行する際はSRAM71がワークメモリ(データメモリ)とし使用される。コプロセッサー72はステータスレジスタ(不図示)を備え、プログラムの実行状態をこのレジスターに書き込むとメインCPU30がそれを読み取る。コプロセッサー72がステータスレジスタに書き込みを行ったときにメインCPU30に割り込み要求が発行されるようにすると、無駄な読み出し動作が減る。   When the main CPU 30 writes a command to a command register (not shown) via the CPU bus 35, the coprocessor 72 starts executing the program. When the program is executed, the SRAM 71 is used as a work memory (data memory). The coprocessor 72 includes a status register (not shown), and when the execution state of the program is written to this register, the main CPU 30 reads it. If an interrupt request is issued to the main CPU 30 when the coprocessor 72 writes to the status register, useless read operations are reduced.

この他にも様々なレジスタが用意されており、メインCPU30とコプロセッサー72はCPUバス35とそれらのレジスタを介して通信を行う。このような仕組みにより様々な演算をコプロセッサー72に行わせることができる。別の演算を実行させる場合は、メインCPU30が別のプログラムをダウンロードする。SRAM71はCPUバス35にも接続されており、演算に必要なデータをメインCPU30が用意する場合には、ここからSRAM71にデータをダウンロードする。演算結果のデータをアップロードする場合も、ここから読み取る。これらのダウンロードやアップロードに不図示のDMACを利用したDMA転送によって行ってもよい。   In addition, various registers are prepared, and the main CPU 30 and the coprocessor 72 communicate with the CPU bus 35 via these registers. With such a mechanism, the coprocessor 72 can perform various operations. When executing another calculation, the main CPU 30 downloads another program. The SRAM 71 is also connected to the CPU bus 35, and when the main CPU 30 prepares data necessary for calculation, the data is downloaded from here to the SRAM 71. When uploading calculation result data, read it from here. These downloads and uploads may be performed by DMA transfer using a DMAC (not shown).

図14に示すような構成ではSRAM71とコプロセッサー72の接続の方が標準であり、メインCPU30とSRAM71の接続はデータのダウンロードやアップロードの場合に行われる。このようにSRAM71に対するコプロセッサー72とメインCPU30のアクセスは排他的であり、SRAM71はコプロセッサー72の専用メモリという色彩が濃い。メインCPU30の汎用SRAMとしてはCPUコア自身に内蔵されたものを利用する。このように、コプロセッサー72とSRAM71から成るサブシステムは極めて汎用性の高い演算器となる。   In the configuration shown in FIG. 14, the connection between the SRAM 71 and the coprocessor 72 is standard, and the connection between the main CPU 30 and the SRAM 71 is performed when data is downloaded or uploaded. As described above, the access of the coprocessor 72 and the main CPU 30 to the SRAM 71 is exclusive, and the SRAM 71 is deeply colored as a dedicated memory of the coprocessor 72. As the general-purpose SRAM of the main CPU 30, the one built in the CPU core itself is used. As described above, the subsystem including the coprocessor 72 and the SRAM 71 is a highly versatile computing unit.

次に、図14に示す位相差演算回路23によるAF演算について説明する。画像/AF信号分離回路21の1つ目の出力は画像処理回路22に接続されており、2つ目の出力の方はSRAM71に接続されている。固体撮像素子2が間引きモードで動作している場合は、画像/AF信号分離回路21で分離された画像信号が1つ目の出力を通って画像処理回路22に入り、そこでスルー画や動画のデータが作成される。一方、画像/AF信号分離回路21で分離されたAF信号の方は2つ目の出力を通って直接SRAM71に記憶される。   Next, AF calculation by the phase difference calculation circuit 23 shown in FIG. 14 will be described. The first output of the image / AF signal separation circuit 21 is connected to the image processing circuit 22, and the second output is connected to the SRAM 71. When the solid-state imaging device 2 is operating in the thinning mode, the image signal separated by the image / AF signal separation circuit 21 passes through the first output and enters the image processing circuit 22 where there is a through image or a moving image. Data is created. On the other hand, the AF signal separated by the image / AF signal separation circuit 21 is directly stored in the SRAM 71 through the second output.

図14に示す位相差演算回路23ではDual Port SRAMを利用することもできるが、画像/AF信号分離回路21の2つ目の出力をCPUバス35に接続し、そこからSRAM71にAF信号を書き込むこともできる。なお、その間はコプロセッサー72がSRAM71をアクセスしないようにする。AF信号がSRAM71に記憶されたらメインCPU30の指令でコプロセッサー72が演算を開始する。メインCPU30は予めコプロセッサー72にプログラムをダウンロードしておく。   Although the dual port SRAM can be used in the phase difference calculation circuit 23 shown in FIG. 14, the second output of the image / AF signal separation circuit 21 is connected to the CPU bus 35 and the AF signal is written to the SRAM 71 therefrom. You can also. During this period, the coprocessor 72 is prevented from accessing the SRAM 71. When the AF signal is stored in the SRAM 71, the coprocessor 72 starts calculation in response to a command from the main CPU 30. The main CPU 30 downloads the program to the coprocessor 72 in advance.

コプロセッサー72は先ず2つの信号の間の位相差を計算し、次いでその位相差からフォーカシングレンズの移動方向と移動量を求める。これらの演算が終了するとコプロセッサー72はステータスレジスタに演算終了という情報を書き込む。この書き込みによってメインCPU30に向けて割り込み要求が発行され、メインCPU30がそれに応答してステータスレジスタを読むと演算終了のことが分かる。SRAM71に記憶された演算結果はCPUバス35から読み取られ、その情報にしたがってメインCPU30が図1に示すモータードライバーIC4に指令を送るとフォーカシングモーターが駆動され、フォーカシングレンズが目標の位置まで移動して被写体にフォーカスが合わせられる。   The coprocessor 72 first calculates the phase difference between the two signals, and then determines the moving direction and amount of the focusing lens from the phase difference. When these operations are completed, the coprocessor 72 writes information indicating the completion of the operation in the status register. As a result of this writing, an interrupt request is issued to the main CPU 30, and when the main CPU 30 reads the status register in response thereto, it can be seen that the calculation is completed. The calculation result stored in the SRAM 71 is read from the CPU bus 35. When the main CPU 30 sends a command to the motor driver IC 4 shown in FIG. 1 according to the information, the focusing motor is driven and the focusing lens moves to the target position. Focus on the subject.

演算を専門に行うコプロセッサー72を用いてAF演算を行っているので、演算時間が短く、AF制御が高速に行われる。コプロセッサー72とSRAM71を備えているので回路規模は多少増大するが、専用の位相差演算回路に比べるとこのコプロセッサー・サブシステムは極めて汎用性が高い。すなわち、このコプロセッサー・サブシステムは利用される機会が多く、そのためコストパフォーマンスが高い。コプロセッサー・サブシステムを用いるとメインCPU30は並行して別の処理が行えるというメリットも生まれる。このように、一実施の形態のデジタルカメラでは高いコストパフォーマンスが達成される。   Since the AF calculation is performed using the coprocessor 72 specializing in the calculation, the calculation time is short and the AF control is performed at high speed. The coprocessor 72 and the SRAM 71 are provided, so that the circuit scale is slightly increased. However, the coprocessor subsystem is extremely versatile compared to a dedicated phase difference arithmetic circuit. That is, the coprocessor subsystem is frequently used and therefore has high cost performance. When the coprocessor subsystem is used, there is an advantage that the main CPU 30 can perform other processes in parallel. Thus, high cost performance is achieved in the digital camera of the embodiment.

ところで、上述した一実施の形態の図1に示すデジタルカメラと図2に示す画像処理回路22では、位相差演算回路23とAF信号補間回路61という2つの専用ハードウェアが用いられている。それぞれの回路は決められた処理しか行わないので利用効率が悪いため、これらの処理を1つの回路で行うようにすればコストパフォーマンスが向上する。   By the way, in the digital camera shown in FIG. 1 and the image processing circuit 22 shown in FIG. 2 according to the above-described embodiment, two dedicated hardwares, ie, a phase difference calculation circuit 23 and an AF signal interpolation circuit 61 are used. Since each circuit performs only a predetermined process, the utilization efficiency is poor. Therefore, if these processes are performed by one circuit, cost performance is improved.

そこで、図14に示すコプロセッサー・サブシステムを利用してAF信号補間を行う。2つの回路を1つに集約したので全体の回路規模は減少する。演算を専門に行うコプロセッサー・サブシステムを用いることによって、より高速な処理が可能になる。補間処理を行う場合は、図11に示すS1やS2の信号を周囲の画像信号とともにSDRAM12から読み出し、SRAM71に記憶する。図14に示す構成では、このデータをCPUバス35からダウンロードすることになる。このデータ転送は不図示のDMACを用いてDMA転送により行えばよい。コプロセッサー72はS1やS2の信号を周囲の画像信号を利用して補間する。コプロセッサー72にDSPを用いるとバイキュービック法の補間も高速に行うことができる。   Therefore, AF signal interpolation is performed using the coprocessor subsystem shown in FIG. Since the two circuits are integrated into one, the overall circuit scale is reduced. Faster processing is possible by using a coprocessor subsystem that specializes in computing. When performing the interpolation processing, the signals S1 and S2 shown in FIG. 11 are read from the SDRAM 12 together with the surrounding image signals and stored in the SRAM 71. In the configuration shown in FIG. 14, this data is downloaded from the CPU bus 35. This data transfer may be performed by DMA transfer using a DMAC (not shown). The coprocessor 72 interpolates S1 and S2 signals using surrounding image signals. When a DSP is used for the coprocessor 72, bicubic interpolation can be performed at high speed.

補間処理が完了したら、続いてコプロセッサー72は補間された画像信号を基にAWB補正値を求め、前処理の際に抽出されていたAWB評価値をそのAWB補正値によって補正する。図2に示す画像処理回路22によれば、AWB評価値はCPUバス35から読み取るようになっているため、コプロセッサー72がこのAWB評価値を直接読み取ることはできない。メインCPU30は、この補正が始まる前に該当するウインドウのAWB評価値をSRAM71にダウンロードしておく。AWB評価値の補正が終わったら、補間済みの画像信号をSRAM71から読み出してSDRAM12に記憶する。このデータのアップロードもCPUバス35から行う。これにもDMA転送を利用することができる。   When the interpolation processing is completed, the coprocessor 72 subsequently obtains an AWB correction value based on the interpolated image signal, and corrects the AWB evaluation value extracted at the time of the preprocessing with the AWB correction value. According to the image processing circuit 22 shown in FIG. 2, since the AWB evaluation value is read from the CPU bus 35, the coprocessor 72 cannot directly read the AWB evaluation value. The main CPU 30 downloads the AWB evaluation value of the corresponding window to the SRAM 71 before the correction starts. When the correction of the AWB evaluation value is completed, the interpolated image signal is read from the SRAM 71 and stored in the SDRAM 12. This data is also uploaded from the CPU bus 35. DMA transfer can also be used for this.

図12(a)、(b)、(c)に示すように、撮影画面内の複数ヶ所にAFセンサーアレイが配置されている場合には、それらのすべてについて上述した補間処理と補正処理を行う。これらの処理が完了したら、コプロセッサー72は補正されたAWB評価値を基にAWBアルゴリズムを実行し、WB調整用のRゲインとBゲインを決定する。AWBアルゴリズに必要なAWB評価値はメインCPU30がSRAM71にダウンロードする。このダウンロードをDMA転送によって行ってもよい。   As shown in FIGS. 12A, 12B, and 12C, when AF sensor arrays are arranged at a plurality of locations in the shooting screen, the above-described interpolation processing and correction processing are performed for all of them. . When these processes are completed, the coprocessor 72 executes the AWB algorithm based on the corrected AWB evaluation value, and determines the R gain and B gain for WB adjustment. The AWB evaluation value necessary for the AWB algorithm is downloaded to the SRAM 71 by the main CPU 30. This download may be performed by DMA transfer.

RゲインとBゲインが決定されたら、メインCPU30はそれらをSRAM71から読み出して図2に示すWB調整回路52に設定する。最後に、補間済みの画像信号を図14に示す画像処理回路22へ入力して後処理を施すと、撮影された静止画のYCbCrデータが作成される。コプロセッサー・サブシステムが上記処理を行っている間、メインCPU30は並行して別の処理を行うことができる。SRAM71へデータをダウンロードしたり、逆にSRAM71からデータがアップロードされたりするので、CPUバス35には頻繁にデータが流れる。このためメインCPU30の動作が妨げられることになる。SRAM71をCPUバス35と画像バス34の両方に接続できるようにすると、CPUバス35が空くのでメインCPU30は動作し易くなる。画像データのフローとメインCPU30の処理は一般に非同期なので、このようにバスを分けておくとそれぞれの動作がスムーズに行われる。   When the R gain and the B gain are determined, the main CPU 30 reads them from the SRAM 71 and sets them in the WB adjustment circuit 52 shown in FIG. Finally, when the interpolated image signal is input to the image processing circuit 22 shown in FIG. 14 and post-processing is performed, YCbCr data of the captured still image is created. While the coprocessor subsystem is performing the above processing, the main CPU 30 can perform another processing in parallel. Since data is downloaded to the SRAM 71 or data is uploaded from the SRAM 71, data frequently flows through the CPU bus 35. For this reason, the operation of the main CPU 30 is hindered. If the SRAM 71 can be connected to both the CPU bus 35 and the image bus 34, the CPU bus 35 becomes free and the main CPU 30 becomes easy to operate. Since the flow of image data and the processing of the main CPU 30 are generally asynchronous, if the bus is divided in this way, each operation is performed smoothly.

このように、位相差演算回路23とAF信号補間回路61が1つに集約されたのでコストパフォーマンスがさらに向上する。   As described above, since the phase difference calculation circuit 23 and the AF signal interpolation circuit 61 are integrated into one, the cost performance is further improved.

以上説明したように、一実施の形態によれば、間引き読み出しモードでは、撮像用画素の内の一部の画素の信号に加え、すべてのAFセンサーセルの信号を読み出すようにしたので、間引き読み出しモードにおいてAF制御を行う場合に、間引き読み出しモードから他のモードへモードを切り換える必要がなく、制御シーケンスを簡略化できる。   As described above, according to one embodiment, in the thinning readout mode, signals from all AF sensor cells are read out in addition to signals from some of the pixels for imaging. When performing AF control in the mode, there is no need to switch the mode from the thinning readout mode to another mode, and the control sequence can be simplified.

また、一実施の形態によれば、撮像用画素とAFセンサーセルはそれぞれX軸アドレスとY軸アドレスを有する二次元状に展開されており、X,Yアドレスを指定して画素ごとに信号を読み出す読み出し回路を備え、読み出し回路によって、間引き読み出しモードの実行時には、すべてのAFセンサーセルの信号を読み出した後に、撮像用画素の内の一部の画素を間引いて信号を読み出すようにしたので、AF信号が早く得られる上に、画像信号の読み出しタイミングも従来の撮像装置とほとんど変わらないようにすることができる。   Further, according to one embodiment, the imaging pixels and the AF sensor cells are expanded in two dimensions having an X-axis address and a Y-axis address, respectively. Since the readout circuit is equipped with a readout circuit, the readout circuit reads out the signals of all AF sensor cells at the time of executing the readout readout mode, and then reads out the signals by thinning out some of the pixels for imaging. In addition to obtaining the AF signal early, the readout timing of the image signal can be made almost the same as that of the conventional imaging apparatus.

一実施の形態によれば、AFセンサーセルを、光学系の瞳の異なる領域を通過した対の光束の一方または両方を受光する光電変換部を有する構成としたので、AFセンサーセルの配列から出力される信号を用いて瞳分割型位相差検出方式による素早い焦点検出を実行することができる。   According to one embodiment, the AF sensor cell is configured to have a photoelectric conversion unit that receives one or both of a pair of light beams that have passed through different regions of the pupil of the optical system, so that output from the array of AF sensor cells is performed. Using this signal, quick focus detection by the pupil division type phase difference detection method can be executed.

一実施の形態によれば、間引き読み出しモードの実行時に、撮像用画素から出力された信号とAFセンサーセルから出力された信号とを分離し、分離された撮像用画素の信号により画像を生成するとともに、分離されたAFセンサーセルの信号により光学系の焦点調節状態を検出し、焦点調節状態に基づいて光学系の焦点調節を行うようにしたので、正常なスルー画や動画のデータを作成しつつ、並行してAF制御を行うことができる。   According to one embodiment, when the thinning readout mode is executed, a signal output from the imaging pixel and a signal output from the AF sensor cell are separated, and an image is generated by the separated imaging pixel signal. At the same time, the focus adjustment state of the optical system is detected based on the signal from the separated AF sensor cell, and the focus adjustment of the optical system is performed based on the focus adjustment state. However, AF control can be performed in parallel.

一実施の形態によれば、AFセンサーセルの周囲の撮像用画素の信号に基づいて、当該AFセンサーセルの位置における画像を生成するための信号を補間により求めるとともに、撮像用画素の信号に基づいてホワイトバランス調整に用いる評価値を算出し、全画素読み出しモードの実行時に、撮像用画素の信号と補間により求めたAFセンサーセル位置の信号とに基づいてホワイトバランス調整に用いる評価値を補正するようにしたので、ホワイトバランスの精度を向上させることができる。   According to one embodiment, a signal for generating an image at the position of the AF sensor cell is obtained by interpolation based on the signal of the imaging pixel around the AF sensor cell, and based on the signal of the imaging pixel. The evaluation value used for white balance adjustment is calculated, and the evaluation value used for white balance adjustment is corrected based on the image sensor pixel signal and the AF sensor cell position signal obtained by interpolation when the all-pixel readout mode is executed. As a result, white balance accuracy can be improved.

一実施の形態によれば、AFセンサーセルの信号を分離するか否かを設定可能にするとともに、分離する設定がなされた場合に、間引き読み出しモードにおいて繰り返し行われる間引き読み出しの内の1回だけAFセンサーセルの信号を分離するモードと、所定の間引き読み出し回数ごとにAFセンサーセルの信号を分離するモードとのいずれかを選択可能にしたので、柔軟かつ容易にAF制御を行うことができる。   According to one embodiment, it is possible to set whether or not to separate the signal of the AF sensor cell, and when it is set to be separated, only one of the thinning readouts repeatedly performed in the thinning readout mode. Since either the mode for separating the AF sensor cell signal or the mode for separating the AF sensor cell signal every predetermined number of thinning-out readouts can be selected, the AF control can be performed flexibly and easily.

一実施の形態によれば、焦点調節手段がCPUと高速読み書き可能なメモリとを有し、間引き読み出しモードの実行時には、分離されたAFセンサーセルの信号をメモリに直接記憶するとともに、メモリに記憶された信号に基づいてCPUが焦点検出演算と焦点調節制御を実行するようにしたので、柔軟性の高い処理機能を実現できる上に、コストを低減することができる。   According to one embodiment, the focus adjustment unit has a CPU and a high-speed readable / writable memory, and stores the signal of the separated AF sensor cell directly in the memory and the memory when executing the thinning readout mode. Since the CPU executes the focus detection calculation and the focus adjustment control based on the received signal, a highly flexible processing function can be realized and the cost can be reduced.

一実施の形態によれば、焦点調節手段が演算専用のコプロセッサーをさらに有し、間引き読み出しモードの実行時には、分離されたAFセンサーセルの信号をメモリに直接記憶するとともに、メモリに記憶された信号に基づいてコプロセッサーが焦点検出演算を実行し、この焦点検出演算結果に基づいてCPUが焦点調節制御を実行するようにしたので、演算速度の向上と柔軟性の高い処理機能を実現でき、高いコストパフォーマンスを達成することができる。   According to one embodiment, the focus adjustment unit further includes a coprocessor dedicated to computation, and when executing the thinning readout mode, the signal of the separated AF sensor cell is directly stored in the memory and stored in the memory. The coprocessor executes focus detection calculation based on the signal, and the CPU executes focus adjustment control based on the focus detection calculation result, so that the calculation speed can be improved and a flexible processing function can be realized. High cost performance can be achieved.

一実施の形態によれば、コプロセッサーと高速読み書き可能なメモリを用いて補間演算と評価値補正演算を実行するようにしたので、専用のハードウェアを削減することができ、コストを抑制できる。   According to one embodiment, since the interpolation calculation and the evaluation value correction calculation are executed using a coprocessor and a high-speed readable / writable memory, the dedicated hardware can be reduced and the cost can be suppressed.

2;撮像素子、5;タイミング・ジェネレーター、6;DSCエンジン、21;画像/AF信号分離回路、22;画像処理回路、23;位相差演算回路、30;CPU、61;AF信号補間回路、62;AWB補正値回路、71;SRAM、72;コプロセッサー 2; Image sensor, 5; Timing generator, 6; DSC engine, 21; Image / AF signal separation circuit, 22; Image processing circuit, 23; Phase difference calculation circuit, 30; CPU, 61; ; AWB correction value circuit 71; SRAM 72; Coprocessor

Claims (8)

画像を生成するための信号を出力する複数の撮像用画素が二次元状に配列された撮像素子の一部に、焦点検出のための信号を出力する複数の焦点検出用画素が配列された撮像素子であって、
前記撮像用画素と前記焦点検出用画素はそれぞれX軸アドレスとY軸アドレスを有する二次元状に展開されており、X,Yアドレスを指定して画素ごとに信号を読み出す読み出し回路を備え、
前記読み出し回路は、すべての前記撮像用画素とすべての前記焦点検出用画素から信号を読み出す全画素読み出しモードと、前記撮像用画素の内の一部の画素を間引いて信号を読み出す間引き読み出しモードとを有し、
前記間引き読み出しモードでは、前記撮像用画素の内の一部の画素の信号に加え、すべての前記焦点検出用画素の信号を、1フレームの読出し期間内に読み出すと共に、
前記間引き読み出しモードの実行時には、前記1フレームにおける垂直ブランキング期間内に前記すべての焦点検出用画素の信号を読み出し、且つ前記1フレームにおける前記垂直ブランキング期間の後に前記撮像用画素の内の一部の画素を間引いて信号を読み出すことを特徴とする撮像素子。
Imaging in which a plurality of focus detection pixels that output a signal for focus detection are arranged on a part of an image sensor in which a plurality of imaging pixels that output a signal for generating an image are two-dimensionally arranged An element,
The imaging pixels and the focus detection pixels are expanded in a two-dimensional shape having an X-axis address and a Y-axis address, respectively, and include a readout circuit that reads out signals for each pixel by specifying the X and Y addresses,
The readout circuit includes an all-pixel readout mode for reading out signals from all the imaging pixels and all the focus detection pixels, and a thinning-out readout mode for reading out signals by thinning out some of the imaging pixels. , has a,
In the thinning readout mode, in addition to the signals of some of the pixels for imaging, all the signals of the focus detection pixels are read out within one frame readout period ,
When the thinning readout mode is executed, signals of all the focus detection pixels are read out during the vertical blanking period in the one frame, and one of the imaging pixels is read out after the vertical blanking period in the one frame. An image pickup device that reads out a signal by thinning out pixels of a part .
請求項1に記載の撮像素子において、
前記焦点検出用画素は、光学系の瞳の異なる領域を通過した対の光束の一方または両方を受光する光電変換部を有することを特徴とする撮像素子。
The imaging device according to claim 1 ,
The focus detection pixel includes a photoelectric conversion unit that receives one or both of a pair of light beams that have passed through different regions of the pupil of the optical system.
請求項1または2に記載の撮像素子と、
前記間引き読み出しモードの実行時に、前記撮像用画素から出力された信号と前記焦点検出用画素から出力された信号とを分離する信号分離手段と、
前記信号分離手段により分離された前記撮像用画素の信号により画像を生成する画像生成手段と、
前記信号分離手段により分離された前記焦点検出用画素の信号により光学系の焦点調節状態を検出し、焦点調節状態に基づいて前記光学系の焦点調節を行う焦点調節手段とを備えることを特徴とする撮像装置。
The image sensor according to claim 1 or 2 ,
A signal separation means for separating a signal output from the imaging pixel and a signal output from the focus detection pixel when the thinning readout mode is executed;
Image generating means for generating an image based on signals of the imaging pixels separated by the signal separating means;
Characterized in that it comprises, a focusing means for performing focus adjustment of the optical system by detecting the focusing state of the optical system, based on the focusing state by a signal of the focus detection pixels separated by the signal separating means An imaging device.
請求項3に記載の撮像装置において、
前記焦点検出用画素の周囲の前記撮像用画素の信号に基づいて、当該焦点検出用画素の位置における画像を生成するための信号を補間により求める補間手段と、
前記撮像用画素の信号に基づいてホワイトバランス調整に用いる評価値を算出するホワイトバランス評価値算出手段と、
前記全画素読み出しモードの実行時に、前記撮像用画素の信号と前記補間手段により求めた前記焦点検出用画素位置の信号とに基づいて前記ホワイトバランス調整に用いる評価値を補正する評価値補正手段とを備えることを特徴とする撮像装置。
The imaging device according to claim 3 .
Interpolation means for obtaining, by interpolation, a signal for generating an image at the position of the focus detection pixel based on the signal of the imaging pixel around the focus detection pixel;
White balance evaluation value calculating means for calculating an evaluation value used for white balance adjustment based on a signal of the imaging pixel;
An evaluation value correction unit that corrects an evaluation value used for the white balance adjustment based on a signal of the imaging pixel and a signal of the focus detection pixel position obtained by the interpolation unit when the all-pixel reading mode is executed; An imaging apparatus comprising:
請求項3に記載の撮像装置において、
前記信号分離手段は、前記焦点検出用画素の信号を分離するか否かを設定可能であり、分離する設定がなされた場合に、前記間引き読み出しモードにおいて繰り返し行われる間引き読み出しの内の1回だけ前記焦点検出用画素の信号を分離するモードと、所定の間引き読み出し回数ごとに前記焦点検出用画素の信号を分離するモードとのいずれかを選択可能にしたことを特徴とする撮像装置。
The imaging device according to claim 3 .
The signal separation means can set whether or not to separate the signals of the focus detection pixels. When the separation is set, only one of the thinning readouts repeatedly performed in the thinning readout mode. An image pickup apparatus, wherein either one of a mode for separating the signal for the focus detection pixel and a mode for separating the signal for the focus detection pixel at every predetermined number of decimation readouts can be selected.
請求項3〜5のいずれか1項に記載の撮像装置において、
前記焦点調節手段は、CPUと高速読み書き可能なメモリとを有し、前記間引き読み出しモードの実行時には、前記信号分離手段により分離された前記焦点検出用画素の信号を前記メモリに直接記憶するとともに、前記メモリに記憶された信号に基づいて前記CPUが焦点検出演算と焦点調節制御を実行することを特徴とする撮像装置。
The imaging device according to any one of claims 3 to 5 ,
The focus adjustment unit includes a CPU and a memory capable of reading and writing at high speed, and directly stores the signal of the focus detection pixel separated by the signal separation unit in the memory when the thinning readout mode is executed. An image pickup apparatus, wherein the CPU executes focus detection calculation and focus adjustment control based on a signal stored in the memory.
請求項6に記載の撮像装置において、
前記焦点調節手段は、演算専用のコプロセッサーをさらに有し、前記間引き読み出しモードの実行時には、前記信号分離手段により分離された前記焦点検出用画素の信号を前記メモリに直接記憶するとともに、前記メモリに記憶された信号に基づいて前記コプロセッサーが焦点検出演算を実行し、この焦点検出演算結果に基づいて前記CPUが焦点調節制御を実行することを特徴とする撮像装置。
The imaging device according to claim 6 ,
The focus adjustment unit further includes a coprocessor dedicated to calculation, and stores the signal of the focus detection pixel separated by the signal separation unit directly in the memory when the thinning readout mode is executed, and the memory An image pickup apparatus, wherein the coprocessor executes a focus detection calculation based on a signal stored in the image, and the CPU executes a focus adjustment control based on the focus detection calculation result.
請求項7に記載の撮像装置において、
前記補間手段および前記評価値補正手段は、前記コプロセッサーと前記メモリを用いて補間演算と評価値補正演算を実行することを特徴とする撮像装置。
The imaging apparatus according to claim 7 ,
The imaging apparatus, wherein the interpolation unit and the evaluation value correction unit execute an interpolation calculation and an evaluation value correction calculation using the coprocessor and the memory.
JP2009029388A 2009-02-12 2009-02-12 Imaging device and imaging apparatus Active JP5381142B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009029388A JP5381142B2 (en) 2009-02-12 2009-02-12 Imaging device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009029388A JP5381142B2 (en) 2009-02-12 2009-02-12 Imaging device and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2010185998A JP2010185998A (en) 2010-08-26
JP5381142B2 true JP5381142B2 (en) 2014-01-08

Family

ID=42766698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009029388A Active JP5381142B2 (en) 2009-02-12 2009-02-12 Imaging device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5381142B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012147515A1 (en) * 2011-04-28 2012-11-01 富士フイルム株式会社 Image capture device and image capture method
KR20130134293A (en) 2012-05-30 2013-12-10 삼성전자주식회사 Image sensor, method thereof, and system including the same
JP5900273B2 (en) * 2012-10-03 2016-04-06 株式会社ソシオネクスト Focus evaluation value generation device, focus evaluation value generation method, and focus evaluation value generation program
JP6075912B2 (en) * 2013-03-14 2017-02-08 Juki株式会社 Image processing apparatus and image processing method
JP5911445B2 (en) * 2013-03-19 2016-04-27 キヤノン株式会社 Imaging apparatus and control method thereof
JP6013247B2 (en) 2013-03-26 2016-10-25 オリンパス株式会社 Imaging device
JP6584059B2 (en) * 2014-09-26 2019-10-02 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP6706109B2 (en) * 2016-03-23 2020-06-03 キヤノン株式会社 Imaging device and signal processing method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4330046B2 (en) * 1999-03-12 2009-09-09 カシオ計算機株式会社 Imaging device
JP2001101396A (en) * 1999-09-30 2001-04-13 Toshiba Corp Processor and method for correcting image distortion and medium with program performing image distortion correction processing stored therein
JP4286091B2 (en) * 2003-09-04 2009-06-24 オリンパス株式会社 Solid-state imaging device
JP2005333491A (en) * 2004-05-20 2005-12-02 Fuji Photo Film Co Ltd Imaging apparatus
JP2006003727A (en) * 2004-06-18 2006-01-05 Konica Minolta Holdings Inc Imaging apparatus and method
JP4062446B2 (en) * 2004-12-08 2008-03-19 株式会社セガ Electronic play equipment
JP2006352720A (en) * 2005-06-20 2006-12-28 Olympus Imaging Corp Digital camera, control method and control program thereof
JP4867552B2 (en) * 2006-09-28 2012-02-01 株式会社ニコン Imaging device
JP2008109336A (en) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd Image processor and imaging apparatus
JP2008310072A (en) * 2007-06-15 2008-12-25 Nikon Corp Digital camera
JP4978449B2 (en) * 2007-12-10 2012-07-18 ソニー株式会社 Imaging device

Also Published As

Publication number Publication date
JP2010185998A (en) 2010-08-26

Similar Documents

Publication Publication Date Title
JP5381142B2 (en) Imaging device and imaging apparatus
JP2001275029A (en) Digital camera, its image signal processing method and recording medium
US9398230B2 (en) Imaging device and imaging method
JP2001086395A (en) Image pickup unit
JP2006287803A (en) Imaging device
JP3298545B2 (en) Digital camera, image processing method, and storage medium
US7365777B2 (en) Digital camera
JP2010130343A (en) Imaging apparatus and its drive control method
JP5302058B2 (en) Imaging apparatus and imaging method
JP2014003496A (en) Image processing device, imaging device, and program
JP2004064710A (en) Image pickup device and distortion correction method
JP4189820B2 (en) Imaging apparatus and image recording method
JP2010124412A (en) Image processing apparatus, image processing method and image processing program
JP7004852B2 (en) Image sensor, image sensor, operation method of image sensor, and program
JP4788172B2 (en) Imaging apparatus and program
JP5299159B2 (en) Imaging apparatus and program
WO2020170728A1 (en) Imaging element, imaging device, imaging element operation method, and program
JP4687619B2 (en) Image processing apparatus, image processing method, and program
JP2010119051A (en) Imaging device and imaging method
JP2008124793A (en) Imaging apparatus, and imaging method
JP2005278003A (en) Image processing apparatus
JP7004853B2 (en) Image sensor, image sensor, operation method of image sensor, and program
JP2003070007A (en) Photographic device and white balance processing method
JP7410088B2 (en) Imaging device, imaging device, image data output method, and program
US20230199342A1 (en) Imaging device and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130916

R150 Certificate of patent or registration of utility model

Ref document number: 5381142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250