JP6065395B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP6065395B2
JP6065395B2 JP2012059193A JP2012059193A JP6065395B2 JP 6065395 B2 JP6065395 B2 JP 6065395B2 JP 2012059193 A JP2012059193 A JP 2012059193A JP 2012059193 A JP2012059193 A JP 2012059193A JP 6065395 B2 JP6065395 B2 JP 6065395B2
Authority
JP
Japan
Prior art keywords
image
color
pixels
signal
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012059193A
Other languages
Japanese (ja)
Other versions
JP2013197611A (en
Inventor
篤史 河合
篤史 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012059193A priority Critical patent/JP6065395B2/en
Publication of JP2013197611A publication Critical patent/JP2013197611A/en
Application granted granted Critical
Publication of JP6065395B2 publication Critical patent/JP6065395B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置に関する。
The present invention relates to an imaging equipment.

例えば、動画撮影時や静止画像の高速連写時に、画素の加算間引きにより、相対的に解像度が低い縮小画像を生成する手法が従来から公知である。ここで、縮小画像のサンプリング間隔よりも高い空間周波数成分が元の画像に含まれる場合、加算間引き後の縮小画像にはモアレや偽色が発生する。その対策として、加算間引きの前に加算する画素の範囲を拡大し、間引き読み出し時の折り返し歪みを低減させる技術(例えば特許文献1)も提案されている。   For example, a method of generating a reduced image with a relatively low resolution by adding and thinning out pixels at the time of moving image shooting or high-speed continuous shooting of still images is conventionally known. Here, when a spatial frequency component higher than the sampling interval of the reduced image is included in the original image, moire or false color occurs in the reduced image after the addition thinning. As a countermeasure, a technique for expanding the range of pixels to be added before addition thinning and reducing aliasing distortion at the time of thinning readout (for example, Patent Document 1) has been proposed.

特許3877695号公報Japanese Patent No. 3877695

しかし、従来の技術では、カラーの縮小画像を生成するときに、モアレや偽色の発生を抑制しつつ、解像感の高い画像を得ることがなお困難であった。例えば、特許文献1の場合、モアレや偽色は抑制できるが、縮小画像の解像感はローパスフィルタと同様の効果で低下してしまう。   However, with the conventional technology, it is still difficult to obtain an image with a high resolution feeling while suppressing generation of moire and false colors when generating a color reduced image. For example, in the case of Patent Document 1, moire and false color can be suppressed, but the resolution of the reduced image is reduced by the same effect as the low-pass filter.

本発明の一例である撮像装置は、第1の色の光を受光する画素と、第2の色の光を受光する画素と、第3の色の光を受光する画素と、第1の色の光を受光する2つの第1の画素からの信号を加算し、2つの第1の画素の間隔よりも広い間隔を有し、第1の色の光を受光する6つの第2の画素からの信号を加算し、第2の色の光を受光する複数の画素からの信号を加算し、第3の色の光を受光する複数の画素からの信号を加算する回路と、2つの第1の画素からの信号を加算した信号と、6つの第2の画素からの信号を加算した信号との差分より生成した信号により、2つの第1の画素からの信号を加算した信号と、6つの第2の画素からの信号を加算した信号と、第2の色の光を受光する複数の画素からの信号を加算した信号と、第3の色の光を受光する複数の画素からの信号を加算した信号とから生成された画像データに対してエッジ強調処理を行う画像処理部とを備える。

An imaging device that is an example of the present invention includes a pixel that receives light of a first color, a pixel that receives light of a second color, a pixel that receives light of a third color, and a first color Signals from the two first pixels that receive the first light, and six second pixels that receive the light of the first color having an interval wider than the interval between the two first pixels A circuit that adds signals from a plurality of pixels that receive light of the second color, adds signals from a plurality of pixels that receive light of the third color, and two second A signal obtained by adding signals from two first pixels by a signal generated from a difference between a signal obtained by adding signals from one pixel and a signal obtained by adding signals from six second pixels; A signal obtained by adding signals from two second pixels, a signal obtained by adding signals from a plurality of pixels receiving light of the second color, and a third color And an image processing unit that performs edge enhancement processing on the image data generated from a signal obtained by adding signals from a plurality of pixels for receiving.

本発明によれば、カラーの縮小画像を生成するときに、モアレや偽色の発生を抑制しつつ、より解像感の高い画像を得ることができる。   According to the present invention, when generating a color reduced image, an image with a higher resolution can be obtained while suppressing the occurrence of moire and false colors.

電子カメラの構成例を示す図The figure which shows the structural example of an electronic camera 固体撮像素子の構成例を示す図A diagram showing a configuration example of a solid-state imaging device 図2の画素PXの回路構成例を示す図2 is a diagram illustrating a circuit configuration example of a pixel PX in FIG. 実施例1の概要図Overview of Example 1 固体撮像素子での画素位置と各色画素との対応関係とを示す図The figure which shows the correspondence of the pixel position in a solid-state image sensor, and each color pixel 実施例1での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図The figure which shows the pixel position in the solid-state image sensor in Example 1, and the sample gravity center of each color signal of a reduction image. (a)〜(d):実施例1での加算範囲の画素の配置例を示す図(A)-(d): The figure which shows the example of arrangement | positioning of the pixel of the addition range in Example 1. FIG. 実施例2の概要図Outline diagram of Example 2 実施例2での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図The figure which shows the pixel position in the solid-state image sensor in Example 2, and the sample gravity center of each color signal of a reduction image. (a)〜(d):実施例2での加算範囲の画素の配置例を示す図(A)-(d): The figure which shows the example of arrangement | positioning of the pixel of the addition range in Example 2. FIG. 実施例3の概要図Outline diagram of Example 3 実施例3での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図The figure which shows the pixel position in the solid-state image sensor in Example 3, and the sample gravity center of each color signal of a reduction image. (a)〜(d):実施例3での加算範囲の画素の配置例を示す図(A)-(d): The figure which shows the example of arrangement | positioning of the pixel of the addition range in Example 3. FIG. 第2実施形態の画像処理装置の構成例を示す図The figure which shows the structural example of the image processing apparatus of 2nd Embodiment. 第2実施形態の画像処理装置の動作例を示す流れ図A flowchart showing an operation example of the image processing apparatus according to the second embodiment.

<第1実施形態の説明>
図1は、撮像装置の一例である第1実施形態の電子カメラの構成例を示す図である。
<Description of First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of an electronic camera according to the first embodiment which is an example of an imaging apparatus.

電子カメラ1は、撮像光学系2と、固体撮像素子3と、画像処理エンジン4と、メモリ5と、記録I/F6と、モニタ7と、操作部8とを有している。ここで、固体撮像素子3、メモリ5、記録I/F6、モニタ7および操作部8は、それぞれ画像処理エンジン4と接続されている。   The electronic camera 1 includes an imaging optical system 2, a solid-state imaging device 3, an image processing engine 4, a memory 5, a recording I / F 6, a monitor 7, and an operation unit 8. Here, the solid-state imaging device 3, the memory 5, the recording I / F 6, the monitor 7, and the operation unit 8 are each connected to the image processing engine 4.

撮像光学系2は、例えばズームレンズやフォーカスレンズを含む複数のレンズで構成されている。なお、簡単のため、図1では撮像光学系2を1枚のレンズで図示する。   The imaging optical system 2 includes a plurality of lenses including, for example, a zoom lens and a focus lens. For the sake of simplicity, FIG. 1 shows the imaging optical system 2 with a single lens.

固体撮像素子3は、撮像光学系2を通過した光束による被写体の結像を撮像するデバイスである。第1実施形態の固体撮像素子3は、シリコン基板上にCMOS(相補性金属酸化膜半導体)プロセスを使用して形成されたXYアドレス型の固体撮像素子(CMOSイメージセンサ)である。なお、固体撮像素子3の構成例については後述する。   The solid-state imaging device 3 is a device that images an image of a subject by a light beam that has passed through the imaging optical system 2. The solid-state imaging device 3 according to the first embodiment is an XY address type solid-state imaging device (CMOS image sensor) formed on a silicon substrate using a CMOS (complementary metal oxide semiconductor) process. A configuration example of the solid-state imaging element 3 will be described later.

ここで、電子カメラ1の撮影モードにおいて、固体撮像素子3は、操作部8の入力に応じて、不揮発性の記憶媒体9への記録を伴う静止画像および動画像の撮影を実行する。また、固体撮像素子3は、撮影待機時にも所定間隔ごとに観測用の画像(スルー画像)を連続的に撮影する。時系列に取得されたスルー画像のデータ(あるいは上記の動画像のデータ)は、モニタ7での動画表示や画像処理エンジン4による各種の演算処理に使用される。   Here, in the shooting mode of the electronic camera 1, the solid-state imaging device 3 performs shooting of a still image and a moving image accompanied by recording in the nonvolatile storage medium 9 in accordance with an input from the operation unit 8. In addition, the solid-state imaging device 3 continuously captures images for observation (through images) at predetermined intervals even during standby for shooting. The through-image data (or the moving image data) acquired in time series is used for moving image display on the monitor 7 and various arithmetic processes by the image processing engine 4.

また、第1実施形態の固体撮像素子3は、各画素の電気信号を非加算で読み出す動作モード(通常読出モード)と、複数の画素から電気信号を加算間引きして読み出す動作モード(加算間引き読出モード)を有している。上記の加算間引き読出モードでは、通常読み出しモードで全画素読み出しする場合と比べて、画像のサイズが小さい縮小画像が固体撮像素子3から読み出される。なお、加算間引き読出モードは、例えば、スルー画像の撮影時、動画像の撮影時、あるいは静止画像の高速連写時に選択される。   The solid-state imaging device 3 according to the first embodiment also has an operation mode (normal readout mode) for reading out the electrical signal of each pixel by non-addition, and an operation mode (addition thinning-out readout) for reading out the electrical signal from a plurality of pixels by addition thinning. Mode). In the addition thinning-out readout mode, a reduced image having a smaller image size is read out from the solid-state imaging device 3 as compared with the case where all pixels are read out in the normal readout mode. The addition thinning readout mode is selected, for example, when shooting a through image, shooting a moving image, or high-speed continuous shooting of still images.

画像処理エンジン4は、電子カメラ1の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン4は、スルー画像の信号を用いて、オートフォーカス(AF)、自動露出(AE)の制御を行う。   The image processing engine 4 is a processor that comprehensively controls the operation of the electronic camera 1. For example, the image processing engine 4 controls autofocus (AF) and automatic exposure (AE) using a through image signal.

また、画像処理エンジン4は、画像処理部の一例として、画像データに対して各種の画像処理(例えば、色変換処理、階調変換処理、ホワイトバランス調整処理、ノイズ除去処理、輪郭強調処理など)を施す。   Further, the image processing engine 4 is an example of an image processing unit, and performs various types of image processing (for example, color conversion processing, gradation conversion processing, white balance adjustment processing, noise removal processing, contour enhancement processing) on image data. Apply.

メモリ5は、画像処理の前工程や後工程で画像のデータを一時的に記憶する。例えば、メモリ5は、揮発性の記憶媒体であるSDRAMである。   The memory 5 temporarily stores image data in the pre-process and post-process of image processing. For example, the memory 5 is an SDRAM that is a volatile storage medium.

記録I/F6は、不揮発性の記憶媒体9を接続するためのコネクタを有している。そして、記録I/F6は、コネクタに接続された記憶媒体9に対してデータの書き込み/読み込みを実行する。上記の記憶媒体9は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体9の一例としてメモリカードを図示する。   The recording I / F 6 has a connector for connecting a nonvolatile storage medium 9. The recording I / F 6 executes data writing / reading with respect to the storage medium 9 connected to the connector. The storage medium 9 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 9.

モニタ7は、各種の画像を表示する表示デバイスである。例えば、モニタ7は、画像処理エンジン4の制御により、撮影モード下でのスルー画像の動画表示(ビューファインダ表示)を行う。また、操作部8は、画像の撮影指示や各種モードの切り替え指示等をユーザから受け付ける。   The monitor 7 is a display device that displays various images. For example, the monitor 7 displays a moving image of a through image (viewfinder display) under the shooting mode under the control of the image processing engine 4. In addition, the operation unit 8 receives an image capturing instruction, an instruction to switch various modes, and the like from the user.

次に、図2を参照しつつ、第1実施形態の固体撮像素子3の構成例を説明する。   Next, a configuration example of the solid-state imaging device 3 of the first embodiment will be described with reference to FIG.

固体撮像素子3は、画素部11と、複数の水平制御信号線12と、垂直走査回路13と、複数の垂直信号線14と、信号出力部の一例である信号出力回路15と、撮像素子制御回路16とを有している。ここで、撮像素子制御回路16は、垂直走査回路13、信号出力回路15に対して制御信号を供給する。なお、上記の制御信号は、電子カメラ1の画像処理エンジン4から供給されてもよい。上記の場合には、固体撮像素子3から撮像素子制御回路16を省略することができる。   The solid-state imaging device 3 includes a pixel unit 11, a plurality of horizontal control signal lines 12, a vertical scanning circuit 13, a plurality of vertical signal lines 14, a signal output circuit 15 which is an example of a signal output unit, and an imaging device control. Circuit 16. Here, the image sensor control circuit 16 supplies control signals to the vertical scanning circuit 13 and the signal output circuit 15. Note that the control signal may be supplied from the image processing engine 4 of the electronic camera 1. In the above case, the image sensor control circuit 16 can be omitted from the solid-state image sensor 3.

画素部11は、入射光を電気信号に変換する複数の画素PXを有している。画素部11の画素PXは、受光面上で第1方向D1および第2方向D2にマトリクス状に配置されている。以下、第1方向D1および第2方向D2を、行方向D1および列方向D2とも称する。なお、図2では画素PXの配列を簡略化して示すが、実際の固体撮像素子の受光面にはさらに多数の画素が配列されることはいうまでもない。   The pixel unit 11 includes a plurality of pixels PX that convert incident light into electrical signals. The pixels PX of the pixel unit 11 are arranged in a matrix in the first direction D1 and the second direction D2 on the light receiving surface. Hereinafter, the first direction D1 and the second direction D2 are also referred to as a row direction D1 and a column direction D2. In FIG. 2, the arrangement of the pixels PX is shown in a simplified manner, but it goes without saying that a larger number of pixels are arranged on the light receiving surface of the actual solid-state imaging device.

ここで、各々の画素PXの前面には、それぞれが異なる色成分の光を透過させる複数種類のカラーフィルタが所定の色配列で配置されている。そのため、画素PXは、カラーフィルタでの色分解によって各色に対応する電気信号を出力する。例えば、第1実施形態では、赤色(R)、緑色(Gr,Gb)、青色(B)のカラーフィルタが2行2列のベイヤ配列にしたがって各画素PXに配置されている。これにより、画素部11は、撮影時にカラーの画像を取得できる。以下、赤(R)、緑(Gr、Gb)、青(B)のフィルタを有する画素PXを、それぞれ赤画素(R)、青画素(B)、緑画素(Gr、Gb)とも称する。   Here, on the front surface of each pixel PX, a plurality of types of color filters that transmit light of different color components are arranged in a predetermined color arrangement. Therefore, the pixel PX outputs an electrical signal corresponding to each color by color separation with a color filter. For example, in the first embodiment, red (R), green (Gr, Gb), and blue (B) color filters are arranged in each pixel PX according to a 2-by-2 Bayer array. Thereby, the pixel part 11 can acquire a color image at the time of imaging | photography. Hereinafter, the pixels PX having red (R), green (Gr, Gb), and blue (B) filters are also referred to as red pixels (R), blue pixels (B), and green pixels (Gr, Gb), respectively.

行方向D1に着目した場合、例えば、画素部11の奇数行では、赤画素(R)と、緑画素(Gr)とが交互に配置されている。また、例えば、画素部11の偶数行では、緑画素(Gb)と、青画素(B)とが交互に配置されている。   When attention is paid to the row direction D1, for example, in the odd-numbered rows of the pixel unit 11, red pixels (R) and green pixels (Gr) are alternately arranged. Further, for example, in even rows of the pixel unit 11, green pixels (Gb) and blue pixels (B) are alternately arranged.

列方向D2に着目した場合、例えば、画素部11の奇数列では、緑画素(Gb)と、赤画素(R)とが交互に配置されている。また、例えば、画素部11の偶数列では、青画素(B)と、緑画素(Gr)とが交互に配置されている。なお、本明細書では、Gr、Gbのカラーフィルタを総称して緑(G)のフィルタと称することもあり、緑画素(Gr、Gb)を総称して緑画素(G)と称することもある。   When focusing on the column direction D2, for example, in the odd-numbered columns of the pixel unit 11, green pixels (Gb) and red pixels (R) are alternately arranged. Further, for example, in the even-numbered columns of the pixel unit 11, blue pixels (B) and green pixels (Gr) are alternately arranged. In this specification, Gr and Gb color filters are collectively referred to as green (G) filters, and green pixels (Gr, Gb) are sometimes collectively referred to as green pixels (G). .

また、画素部11の各行には、垂直走査回路13に接続された水平制御信号線12がそれぞれ配置されている。各々の水平制御信号線12は、垂直走査回路13から出力される制御信号(後述の選択信号φSEL、リセット信号φRST、転送信号φTX)を、行方向D1に並ぶ画素PXにそれぞれ供給する。   Further, a horizontal control signal line 12 connected to the vertical scanning circuit 13 is arranged in each row of the pixel unit 11. Each horizontal control signal line 12 supplies control signals (a selection signal φSEL, a reset signal φRST, and a transfer signal φTX, which will be described later) output from the vertical scanning circuit 13 to the pixels PX arranged in the row direction D1.

また、画素アレイの各列には、垂直信号線14がそれぞれ配置されている。列方向D2に配置された複数の画素PXは、列毎に設けられた垂直信号線14により互いに接続されている。すなわち、画素部11は、同じ列に配置された複数の画素PXからの電気信号を共通の垂直信号線14を介して出力する。なお、各々の垂直信号線14の一端(図2の下側)は信号出力回路15に接続されている。   A vertical signal line 14 is arranged in each column of the pixel array. The plurality of pixels PX arranged in the column direction D2 are connected to each other by a vertical signal line 14 provided for each column. That is, the pixel unit 11 outputs electric signals from the plurality of pixels PX arranged in the same column via the common vertical signal line 14. One end (the lower side in FIG. 2) of each vertical signal line 14 is connected to the signal output circuit 15.

ここで、図3を参照しつつ、図2の画素PXの回路構成例を説明する。   Here, a circuit configuration example of the pixel PX of FIG. 2 will be described with reference to FIG.

画素PXは、フォトダイオードPDと、転送トランジスタTXと、リセットトランジスタRSTと、増幅トランジスタAMIと、増幅部AMPと、選択トランジスタSELと、フローティングディフュージョンFDとをそれぞれ有している。   The pixel PX includes a photodiode PD, a transfer transistor TX, a reset transistor RST, an amplification transistor AMI, an amplification unit AMP, a selection transistor SEL, and a floating diffusion FD.

フォトダイオードPDは、入射光の光量に応じて光電変換により信号電荷を生成する。転送トランジスタTXは、転送信号φTXの高レベル期間にオンし、フォトダイオードPDに蓄積された信号電荷をフローティングディフュージョンFDに転送する。   The photodiode PD generates a signal charge by photoelectric conversion according to the amount of incident light. The transfer transistor TX is turned on during the high level period of the transfer signal φTX, and transfers the signal charge accumulated in the photodiode PD to the floating diffusion FD.

転送トランジスタTXのソースはフォトダイオードPDであり、転送トランジスタTXのドレインはフローティングディフュージョンFDである。フローティングディフュージョンFDは、例えば、半導体基板に不純物を導入して形成された拡散領域である。なお、フローティングディフュージョンFDは、増幅トランジスタAMIのゲートと、リセットトランジスタRSTのソースとにそれぞれ接続されている。   The source of the transfer transistor TX is a photodiode PD, and the drain of the transfer transistor TX is a floating diffusion FD. The floating diffusion FD is a diffusion region formed by introducing impurities into a semiconductor substrate, for example. The floating diffusion FD is connected to the gate of the amplification transistor AMI and the source of the reset transistor RST.

リセットトランジスタRSTは、リセット信号φRSTの高レベル期間にオンし、フローティングディフュージョンFDを電源電圧VDDにリセットする。また、増幅トランジスタAMIは、ドレインが電源電圧VDDに接続され、ゲートがフローティングディフュージョンFDにそれぞれ接続され、そのソース電極が出力ノードとして定電流源ISSに接続される。増幅トランジスタAMIによってソースフォロアが構成されるので、増幅トランジスタAMIのソースには、フローティングディフュージョンFDの電位に応じた電圧が生じる。   The reset transistor RST is turned on during a high level period of the reset signal φRST, and resets the floating diffusion FD to the power supply voltage VDD. The amplification transistor AMI has a drain connected to the power supply voltage VDD, a gate connected to the floating diffusion FD, and a source electrode connected to the constant current source ISS as an output node. Since the source follower is configured by the amplification transistor AMI, a voltage corresponding to the potential of the floating diffusion FD is generated at the source of the amplification transistor AMI.

増幅部AMPは、加算間引き読出モードで重み付け加算を行うときに、画素PXごとのゲインを調整するための可変ゲインアンプである。増幅部AMPの入力は、増幅トランジスタAMIのソースに接続されており、増幅部AMPの出力は、選択トランジスタSELのドレインに接続されている。   The amplifying unit AMP is a variable gain amplifier for adjusting the gain for each pixel PX when performing weighted addition in the addition thinning readout mode. The input of the amplification unit AMP is connected to the source of the amplification transistor AMI, and the output of the amplification unit AMP is connected to the drain of the selection transistor SEL.

また、選択トランジスタSELは、選択信号φSELの高レベル期間にオンし、増幅部AMPの出力を垂直信号線14に接続する。   The selection transistor SEL is turned on during a high level period of the selection signal φSEL, and connects the output of the amplifier AMP to the vertical signal line 14.

なお、画素PXのリセットトランジスタRSTがオンした状態では、ノイズ成分を含む暗信号が画素PXから垂直信号線14に読み出される。また、上記のフローティングディフュージョンFDに転送された電荷に基づいて、ノイズ成分および受光成分を含む明信号が画素PXから垂直信号線14に読み出される。   Note that when the reset transistor RST of the pixel PX is turned on, a dark signal including a noise component is read from the pixel PX to the vertical signal line 14. Further, based on the charge transferred to the floating diffusion FD, a bright signal including a noise component and a light receiving component is read from the pixel PX to the vertical signal line 14.

図2に戻って、信号出力回路15は、画素部11から画素PXの電気信号を行方向(D1)に向けて読み出す回路である。信号出力回路15は、カラムコンデンサ21と、水平加算部22と、カラムアンプ23と、サンプルホールド部24と、カラムADC25と、水平データバス26と、データレジスタ27とを含む。カラムコンデンサ21は、1本の垂直信号線14に対してそれぞれ1つずつ設けられている。   Returning to FIG. 2, the signal output circuit 15 is a circuit that reads the electrical signal of the pixel PX from the pixel unit 11 in the row direction (D1). The signal output circuit 15 includes a column capacitor 21, a horizontal adder 22, a column amplifier 23, a sample hold unit 24, a column ADC 25, a horizontal data bus 26, and a data register 27. One column capacitor 21 is provided for each vertical signal line 14.

水平加算部22は、隣接する奇数列の垂直信号線14の間を接続する複数の加算制御スイッチADD1と、隣接する偶数列の垂直信号線14の間を接続する複数の加算制御スイッチADD2と、各々の垂直信号線14に設けられる複数の列スイッチLSWとを有している。加算制御スイッチADD1のオン/オフの切り替えにより、奇数列の画素PXの電気信号が行方向(D1)に加算される。また、加算制御スイッチADD2のオン/オフの切り替えにより、偶数列の画素PXの電気信号が行方向(D1)に加算される。なお、全画素読み出しを行う場合、加算制御スイッチADD1、ADD2はいずれもオフとなる。   The horizontal adder 22 includes a plurality of addition control switches ADD1 that connect between the adjacent odd-numbered vertical signal lines 14, a plurality of addition control switches ADD2 that connect between the adjacent even-numbered vertical signal lines 14, Each of the vertical signal lines 14 includes a plurality of column switches LSW. By switching on / off the addition control switch ADD1, the electric signals of the pixels PX in the odd columns are added in the row direction (D1). Further, the electrical signals of the pixels PX in the even-numbered columns are added in the row direction (D1) by turning on / off the addition control switch ADD2. Note that when all pixel readout is performed, the addition control switches ADD1 and ADD2 are both turned off.

カラムアンプ23、サンプルホールド部24およびカラムADC25とは、1本の垂直信号線14に対してそれぞれ1組ずつ設けられている。上記の各組において、カラムアンプ23、サンプルホールド部24およびカラムADC25はそれぞれ直列に接続されている。   One set of column amplifier 23, sample hold unit 24, and column ADC 25 are provided for each vertical signal line 14. In each set, the column amplifier 23, the sample hold unit 24, and the column ADC 25 are connected in series.

カラムアンプ23は、垂直信号線14を介して画素PXから出力される電気信号を反転増幅する。サンプルホールド部24は、入力されたアナログ信号(明信号または暗信号)を所定のタイミングでサンプリングし、サンプリングしたアナログ信号を所定の期間ホールドして後段のカラムADC25に出力する。カラムADC25は、入力された明信号および暗信号をA/D変換する。   The column amplifier 23 inverts and amplifies the electrical signal output from the pixel PX via the vertical signal line 14. The sample hold unit 24 samples the input analog signal (bright signal or dark signal) at a predetermined timing, holds the sampled analog signal for a predetermined period, and outputs the analog signal to the subsequent column ADC 25. The column ADC 25 A / D converts the input bright signal and dark signal.

水平データバス26は、信号出力回路15内に1つのみ設けられる。水平データバス26は、各々のカラムADC25の出力と接続されており、カラムADC25でA/D変換された後の画像信号をデータレジスタ27に出力する。データレジスタ27は、異なる列から読み出した加算間引き後の画像信号を必要に応じて合成する。データレジスタ27の出力は、画像処理エンジン4に接続されている。   Only one horizontal data bus 26 is provided in the signal output circuit 15. The horizontal data bus 26 is connected to the output of each column ADC 25, and outputs an image signal after A / D conversion by the column ADC 25 to the data register 27. The data register 27 synthesizes the image signals after thinning read out from different columns as necessary. The output of the data register 27 is connected to the image processing engine 4.

ここで、上記の固体撮像素子3を加算間引き読出モードで動作させる場合の読み出し例を説明する。一例として、画素部11の4×4画素の注目領域(図2において二点鎖線で示す範囲)を加算間引きで読み出す場合、以下の動作が行われる。なお、上記の注目領域で加算間引きして得た信号値は、縮小画像の1画素の信号値に相当する。以下、縮小画像の1画素を標本点とも称する。   Here, a reading example when the solid-state imaging device 3 is operated in the addition thinning-out reading mode will be described. As an example, when the attention area (the range indicated by the two-dot chain line in FIG. 2) of the 4 × 4 pixels of the pixel unit 11 is read by addition thinning, the following operation is performed. Note that the signal value obtained by performing the thinning-out in the region of interest corresponds to the signal value of one pixel of the reduced image. Hereinafter, one pixel of the reduced image is also referred to as a sample point.

注目領域の4つの赤画素(R)を加算間引きする場合、注目領域の奇数列の垂直信号線14に対応する加算制御スイッチADD1をオンする。また、上記の垂直信号線14に対応する列スイッチLSWのうちの1つをオンし、それ以外の列スイッチLSWをオフにする。そして、注目領域の2つの奇数行の選択信号φSELを同時に高レベルにする。これにより、注目領域内の4つの赤画素の信号はまとめて読み出しされる。   When thinning out the four red pixels (R) in the attention area, the addition control switch ADD1 corresponding to the vertical signal lines 14 in the odd columns in the attention area is turned on. Further, one of the column switches LSW corresponding to the vertical signal line 14 is turned on, and the other column switches LSW are turned off. Then, the selection signals φSEL in the two odd rows in the region of interest are simultaneously set to the high level. As a result, the signals of the four red pixels in the attention area are read together.

同様に、注目領域の4つの青画素(B)を加算間引きする場合、注目領域の偶数列の垂直信号線14に対応する加算制御スイッチADD2をオンする。また、上記の垂直信号線14に対応する列スイッチLSWのうちの1つをオンし、それ以外の列スイッチLSWをオフにする。そして、注目領域の2つの偶数行の選択信号φSELを同時に高レベルにする。これにより、注目領域内の4つの青画素の信号はまとめて読み出しされる。   Similarly, when adding and thinning four blue pixels (B) in the attention area, the addition control switch ADD2 corresponding to the vertical signal lines 14 in the even columns in the attention area is turned on. Further, one of the column switches LSW corresponding to the vertical signal line 14 is turned on, and the other column switches LSW are turned off. Then, the selection signals φSEL in two even rows in the region of interest are simultaneously set to a high level. Thereby, the signals of the four blue pixels in the attention area are read out together.

注目領域の8つの緑画素(G)を加算間引きする場合、例えば、4つの緑画素(Gb)と、4つの緑画素(Gr)とをそれぞれ別々に加算間引きした後、データレジスタ27で最終的に両者を合成すればよい。   In the case where the eight green pixels (G) in the attention area are thinned out for addition, for example, after four green pixels (Gb) and four green pixels (Gr) are separately thinned out separately, the data register 27 finally The two may be synthesized.

また、加算間引き読出モードでは、水平加算部22にて1行ごとの水平加算のみを行い、注目領域の列方向(D2)の加算はデータレジスタ27で行ってもよい。なお、上記の注目領域のサイズは一例であり、適宜変更できることはいうまでもない。   In addition, in addition thinning-out readout mode, the horizontal addition unit 22 may perform only horizontal addition for each row, and the data register 27 may perform addition in the column direction (D2) of the region of interest. Needless to say, the size of the region of interest is an example and can be changed as appropriate.

また、加算間引き後の画像信号のゲインは、カラムアンプ23で調整してもよく、画素PXの増幅部AMPで予め加算前に調整してもよい。なお、縮小画像の各色信号のサンプル重心を揃えるために重み付け加算を行う場合、画素PXの増幅部AMPでそれぞれゲインを調整する必要がある。   Further, the gain of the image signal after thinning out may be adjusted by the column amplifier 23, or may be adjusted in advance by the amplifier AMP of the pixel PX before addition. In addition, when performing weighted addition in order to align the sample centroid of each color signal of the reduced image, it is necessary to adjust the gain by the amplification unit AMP of the pixel PX.

(実施例1)
以下、実施例1として、加算間引き読出モードでの電子カメラ1の動作例を説明する。実施例1では、RGBのカラーフィルタをベイヤ配列で配置した固体撮像素子3から、R,Gr(奇数行のG),Gb(偶数行のG),Bの4種類の画像信号を加算間引きで読み出す(図4参照)。なお、全画素読み出し時の画像サイズをW×Hとしたとき、実施例1ではW/4×H/4の画像サイズの縮小画像を読み出すものとする。
Example 1
Hereinafter, as an example 1, an operation example of the electronic camera 1 in the addition thinning readout mode will be described. In the first embodiment, four types of image signals R, Gr (G for odd rows), Gb (G for even rows), and B are added and thinned out from the solid-state imaging device 3 in which RGB color filters are arranged in a Bayer array. Read (see FIG. 4). When the image size at the time of reading all pixels is W × H, in the first embodiment, a reduced image having an image size of W / 4 × H / 4 is read.

図5は、固体撮像素子3での画素位置と各色画素との対応関係とを示す図である。固体撮像素子3の各色画素の座標は、R(i,j),G(i+1,j),G(i,j+1),B(i+1,j+1)…のように表記される。なお、実施例1において、縮小画像の標本点(x,y)に対応する信号値は、R’(x,y),Gr’(x,y),Gb’(x,y),B’(x,y)…のように表記される。   FIG. 5 is a diagram showing the pixel positions in the solid-state imaging device 3 and the correspondences between the color pixels. The coordinates of each color pixel of the solid-state imaging device 3 are expressed as R (i, j), G (i + 1, j), G (i, j + 1), B (i + 1, j + 1). In the first embodiment, the signal values corresponding to the sample point (x, y) of the reduced image are R ′ (x, y), Gr ′ (x, y), Gb ′ (x, y), B ′. It is expressed as (x, y).

実施例1での固体撮像素子3の加算間引き読み出しは、撮像素子制御回路16の制御により、以下のように行なわれる。縮小画像の標本点(x,y)に対応する4つの信号値は、いずれも標本点に対応する4×4画素の範囲(加算範囲)に含まれる同色画素の信号を加算平均して生成される。   Addition thinning readout of the solid-state imaging device 3 in the first embodiment is performed as follows under the control of the imaging device control circuit 16. The four signal values corresponding to the sample point (x, y) of the reduced image are generated by averaging the signals of the same color pixels included in the 4 × 4 pixel range (addition range) corresponding to the sample point. The

例えば、読出単位の左上端に位置する基準画素(i,j)=(m,n)が赤画素である場合、加算範囲の各色画素の配置は図7(a)のようになる。このとき、各標本点の信号値(R'R(x,y),Gr'R(x,y),Gb'R(x,y),B'R(x,y))は、式(1)で求めることができる。 For example, when the reference pixel (i, j) = (m, n) located at the upper left corner of the readout unit is a red pixel, the arrangement of the color pixels in the addition range is as shown in FIG. At this time, the signal values (R ′ R (x, y), Gr ′ R (x, y), Gb ′ R (x, y), B ′ R (x, y)) at each sample point are expressed by the formula ( 1).

Figure 0006065395
以上、標本点(x,y)に注目して加算間引き読み出しの例を説明した。なお、他の標本点の加算間引き読み出しは、基準画素の位置をシフトさせて同様の読み出しを行えばよい。一例として、標本点(x+1,y)に対応する信号値(R'R(x+1,y),Gr'R(x+1,y),Gb'R(x+1,y),B'R(x+1,y))は、基準画素(m,n)=(i+4,j)として、上記の式(1)により求めればよい。
Figure 0006065395
Heretofore, an example of addition thinning readout has been described focusing on the sample point (x, y). In addition, the thinning-out readout of other sample points may be performed by shifting the position of the reference pixel. As an example, signal values (R ′ R (x + 1, y), Gr ′ R (x + 1, y), Gb ′ R (x + 1, y), B ′ R (x + 1, y) corresponding to the sample point (x + 1, y). )) May be obtained from the above equation (1) as the reference pixel (m, n) = (i + 4, j).

なお、本実施例では、カラーフィルタが2×2の周期で配列され、画像の縮小倍率が1/4×1/4であることから、縮小画像の各標本点において加算範囲の基準画素はいずれも同じ色となる。   In this embodiment, since the color filters are arranged in a cycle of 2 × 2 and the image reduction magnification is 1/4 × 1/4, which is the reference pixel in the addition range at each sample point of the reduced image Will be the same color.

しかし、縮小倍率が奇数倍(例えば1/3×1/3)の場合、標本点1つごとに基準画素の色が入れ替わる。この場合には、式(1)で加算する画素を適宜調整すればよい。例えば、基準画素がGrの場合、加算範囲の各色画素の配置は図7(b)のようになる。基準画素がGbの場合、加算範囲の各色画素の配置は図7(c)のようになる。基準画素がBの場合、加算範囲の各色画素の配置は図7(d)のようになる。   However, when the reduction magnification is an odd number (for example, 1/3 × 1/3), the color of the reference pixel is switched for each sample point. In this case, what is necessary is just to adjust suitably the pixel added by Formula (1). For example, when the reference pixel is Gr, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is Gb, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is B, the arrangement of each color pixel in the addition range is as shown in FIG.

図6は、実施例1での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図である。図6では、R信号のサンプル重心を図中に白丸(○)で示す。また、Gr信号のサンプル重心を図中にバツ(×)で示す。また、Gb信号のサンプル重心を図中に三角(△)で示す。また、B信号のサンプル重心を図中に星印(☆)で示す。なお、図6の例は基準画素がいずれも赤画素の場合であり、基準画素の色が異なる場合には図6の各色信号のサンプル重心に入れ替わりが生じる。   FIG. 6 is a diagram illustrating a pixel position in the solid-state imaging device according to the first embodiment and a sample centroid of each color signal of the reduced image. In FIG. 6, the sample centroid of the R signal is indicated by a white circle (◯) in the figure. In addition, the center of gravity of the sample of the Gr signal is indicated by a cross (x) in the figure. Further, the center of gravity of the sample of the Gb signal is indicated by a triangle (Δ) in the figure. Also, the sample centroid of the B signal is indicated by an asterisk (*) in the figure. Note that the example of FIG. 6 is a case where all of the reference pixels are red pixels. If the colors of the reference pixels are different, the sample centroid of each color signal in FIG. 6 is replaced.

次に、各標本点の信号値は、画像処理エンジン4に入力される。そして、画像処理エンジン4は、Gr画像信号およびGb画像信号を用いて、画像の勾配に応じた色差選択処理を実行する(図4参照)。   Next, the signal value of each sample point is input to the image processing engine 4. Then, the image processing engine 4 uses the Gr image signal and the Gb image signal to execute a color difference selection process corresponding to the gradient of the image (see FIG. 4).

ここで、Gr画像信号およびGb画像信号を区別せずに加算平均して、1つのG信号値で読み出す場合を考える。この場合、標本点(x,y)でのG信号のサンプル重心は図6の×印と△印との中間(i+1.5,j+1.5)となり、同じ標本点のR,B各信号に対してズレが生じる。また、加算範囲内でR画素およびB画素の分布は3×3の範囲であるが、加算範囲内でG画素の分布は4×4の範囲となる。上記のようなサンプル重心のズレや加算する画素の分布の違いは、例えば、合焦に近い状態で高周波信号を多く含む画像を縮小する場合に、弱い偽色となって現れる可能性がある。   Here, a case is considered where the Gr image signal and the Gb image signal are added and averaged without being distinguished, and read with one G signal value. In this case, the sample centroid of the G signal at the sample point (x, y) is in the middle (i + 1.5, j + 1.5) between the x mark and the Δ mark in FIG. Deviation occurs. In addition, the distribution of R pixels and B pixels in the addition range is a 3 × 3 range, but the distribution of G pixels in the addition range is a 4 × 4 range. The deviation of the center of gravity of the sample and the distribution of the pixels to be added as described above may appear as a weak false color when, for example, an image containing a lot of high-frequency signals is reduced in a state close to focusing.

一方、実施例1のように、Gr画像信号およびGb画像信号を分離して読み出した場合、加算範囲内のGr画素およびGb画素の分布は3×3の範囲となり、R画素およびB画素の分布と一致する。また、R,B信号のサンプル重心は、被写体の輪廓による画像の勾配方向に応じてGr,Gb信号のサンプル重心のいずれかと近い値をとることが期待できる。そのため、画像処理エンジン4は、以下の色差選択処理を行うことで偽色の発生を抑制する。   On the other hand, when the Gr image signal and the Gb image signal are separated and read as in the first embodiment, the distribution of Gr pixels and Gb pixels in the addition range is a 3 × 3 range, and the distribution of R pixels and B pixels Matches. Also, the sample centroid of the R and B signals can be expected to take a value close to either of the sample centroids of the Gr and Gb signals according to the gradient direction of the image due to the subject's ring. Therefore, the image processing engine 4 suppresses the occurrence of false colors by performing the following color difference selection process.

第1に、画像処理エンジン4は、注目する標本点(x,y)における水平方向勾配(ΔH)と垂直方向勾配(ΔV)を式(2)で求める。   First, the image processing engine 4 obtains the horizontal gradient (ΔH) and the vertical gradient (ΔV) at the sample point (x, y) of interest by Expression (2).

Figure 0006065395
第2に、画像処理エンジン4は、注目する標本点(x,y)で適用するCr’(x,y),Cb’(x,y)を、上記のΔH,ΔVの大小評価により式(3)で決定する。
Figure 0006065395
Second, the image processing engine 4 calculates Cr ′ (x, y) and Cb ′ (x, y) to be applied at the sample point (x, y) of interest by the above-described evaluation of ΔH and ΔV ( Determine in 3).

Figure 0006065395
上記の式(3)により、画像の勾配を考慮して、偽色の影響を受けにくいと予想される色差Cr’,Cb’が選択される。なお、式(3)の「THE_GRAD」は、勾配の大きさを規定する閾値である。
Figure 0006065395
According to the above equation (3), the color differences Cr ′ and Cb ′ that are expected to be hardly affected by the false color are selected in consideration of the gradient of the image. Note that “THE_GRAD” in Equation (3) is a threshold value that defines the magnitude of the gradient.

第3に、画像処理エンジン4は、上記の色差Cr’,Cb’を用いて、標本点(x,y)のRGB値を式(4)で求める。   Thirdly, the image processing engine 4 obtains the RGB value of the sample point (x, y) by the equation (4) using the color differences Cr ′ and Cb ′.

Figure 0006065395
なお、画像処理エンジン4は、式(4)で求めたRGB値を用いて、式(5)によりYUV値への変換を行えばよい。
Figure 0006065395
Note that the image processing engine 4 may perform the conversion to the YUV value according to the equation (5) using the RGB value obtained according to the equation (4).

Figure 0006065395
以上の処理により、縮小画像の標本点(x,y)についてYUV画像情報が生成される。そして、画像処理エンジン4は、他の標本点にも同様の処理を行い、縮小画像全体のYUV画像情報を生成する。
Figure 0006065395
Through the above processing, YUV image information is generated for the sample point (x, y) of the reduced image. Then, the image processing engine 4 performs similar processing on other sample points, and generates YUV image information of the entire reduced image.

その後、画像処理エンジン4は、縮小画像のYUV画像情報を記録I/F6を介して記憶媒体9に記録する。あるいは、画像処理エンジン4は、縮小画像のYUV画像情報を用いてモニタ7に画像表示をしてもよい。   Thereafter, the image processing engine 4 records the YUV image information of the reduced image on the storage medium 9 via the recording I / F 6. Alternatively, the image processing engine 4 may display an image on the monitor 7 using the YUV image information of the reduced image.

以下、実施例1の作用効果を述べる。実施例1の構成では、固体撮像素子3からの加算間引読出時に、各標本点においてR,Gr,Gb,Bの4つの画像信号を生成する。
実施例1の場合、縮小画像の各標本点で必要となる色信号は全て揃っているので、縮小画像の補間処理を行う必要がない。そのため、実施例1では、縮小画像の各標本点で充分な解像力を確保できる。また、例えば、合焦に近い状態で高周波信号を多く含む画像を縮小するケースを考えると、ベイヤ配列構造の間引き読み出し画像を色補間して縮小画像を生成する場合と比べ、実施例1の場合には色補間処理に起因する縮小画像でのモアレや偽色の発生が大幅に抑制される。
Hereinafter, effects of the first embodiment will be described. In the configuration of the first embodiment, four image signals of R, Gr, Gb, and B are generated at each sample point at the time of addition thinning readout from the solid-state imaging device 3.
In the case of the first embodiment, since all the color signals necessary for each sample point of the reduced image are prepared, it is not necessary to perform the interpolation processing of the reduced image. Therefore, in Example 1, sufficient resolution can be secured at each sample point of the reduced image. Further, for example, when considering a case of reducing an image containing a lot of high-frequency signals in a state close to focusing, in the case of the first embodiment, compared with a case where a reduced image is generated by color interpolation of a thinned readout image of a Bayer array structure. In this case, the occurrence of moire and false colors in the reduced image due to the color interpolation process is greatly suppressed.

また、実施例1では、標本点ごとにGr,Gbの画像信号を取得することで、元の画像での緑信号の強度分布が保持される。これにより、適応的な色差選択処理ができるので、偽色をより抑制することができる。   In the first embodiment, Gr and Gb image signals are acquired for each sample point, whereby the intensity distribution of the green signal in the original image is maintained. Thereby, since an adaptive color difference selection process can be performed, false colors can be further suppressed.

なお、実施例1の場合、1標本点に対して4つの信号値を取得する。そのため、実施例1では、全画素読み出し時の画像サイズ(W×H)に対して縮小画像のサイズがW/4×H/4のとき、全画素読み出し時と比較して読出データ量は1/4×1/4×4=1/4倍となる。   In the case of the first embodiment, four signal values are acquired for one sample point. Therefore, in the first embodiment, when the size of the reduced image is W / 4 × H / 4 with respect to the image size (W × H) at the time of reading all pixels, the read data amount is 1 as compared with the case of reading all pixels. / 4 × 1/4 × 4 = 1/4 times.

(実施例1の変形例)
上記の実施例1では、各色画素の単純平均で縮小画像の各信号値を求めた。しかし、重み付け加算により縮小画像の各信号値を求めてもよい。一例として、式(1)の代わりに、式(6)のように加重係数を9:3:3:1に設定してもよい。
(Modification of Example 1)
In the first embodiment, each signal value of the reduced image is obtained by a simple average of each color pixel. However, each signal value of the reduced image may be obtained by weighted addition. As an example, the weighting coefficient may be set to 9: 3: 3: 1 as in Expression (6) instead of Expression (1).

Figure 0006065395
上記の式(6)の場合には、4つの信号のサンプル重心を一致させることができる。なお、上記の式(6)の場合には、サンプル重心位置は一致するが、加算範囲は1画素分ずれるため実施例1の色差選択処理は有効である。
Figure 0006065395
In the case of Equation (6) above, the sample centroids of the four signals can be matched. In the case of the above formula (6), the sample barycentric positions coincide with each other, but the addition range is shifted by one pixel, so that the color difference selection process of the first embodiment is effective.

(実施例2)
次に、図8〜図10を参照しつつ、実施例2の加算間引き読出モードでの電子カメラ1の動作例を説明する。以下の各実施例での装置構成や動作は、特に断りがないかぎり実施例1と共通であることを前提とする。なお、各実施例での縮小画像のサイズは実施例1と同じである。
(Example 2)
Next, an operation example of the electronic camera 1 in the addition thinning readout mode according to the second embodiment will be described with reference to FIGS. It is assumed that the apparatus configuration and operation in each of the following embodiments are the same as those in the first embodiment unless otherwise specified. Note that the size of the reduced image in each embodiment is the same as that in the first embodiment.

実施例2では、固体撮像素子3から、R,Gh,Gl,Bの4種類の画像信号を加算間引きで読み出す(図8参照)。Ghは加算範囲における緑色の高周波成分を含む信号であり、Glは加算範囲における緑色の低周波成分を含む信号である。   In Example 2, four types of image signals R, Gh, Gl, and B are read out from the solid-state imaging device 3 by addition thinning (see FIG. 8). Gh is a signal including a green high frequency component in the addition range, and Gl is a signal including a green low frequency component in the addition range.

一例として、Ghは4×4画素の加算範囲のうち、中央部に位置する2つの緑画素の出力を加算して生成される。また、Glは4×4画素の加算範囲のうち、周辺部に位置する6つの緑画素の出力を加算して生成される(図10参照)。Ghで加算される画素のサンプリング間隔は、Glで加算される画素のサンプリング間隔よりも小さい。そのため、Ghは、Glと比べて高い空間周波数成分を含む。なお、実施例2において、縮小画像の標本点(x,y)に対応する信号値は、R’(x,y),Gh’(x,y),Gl’(x,y),B’(x,y)…のように表記される。   As an example, Gh is generated by adding the outputs of two green pixels located in the center of the 4 × 4 pixel addition range. In addition, Gl is generated by adding the outputs of six green pixels located in the periphery of the 4 × 4 pixel addition range (see FIG. 10). The sampling interval of the pixels added by Gh is smaller than the sampling interval of the pixels added by Gl. Therefore, Gh includes a higher spatial frequency component than Gl. In the second embodiment, signal values corresponding to the sample point (x, y) of the reduced image are R ′ (x, y), Gh ′ (x, y), Gl ′ (x, y), B ′. It is expressed as (x, y).

実施例2での固体撮像素子3の加算間引き読み出しは、撮像素子制御回路16の制御により、以下のように行なわれる。   Addition thinning readout of the solid-state imaging device 3 in the second embodiment is performed as follows under the control of the imaging device control circuit 16.

例えば、読出単位の左上端に位置する基準画素(i,j)=(m,n)が赤画素である場合、加算範囲の各色画素の配置は図10(a)のようになる。このとき、各標本点の信号値(R'R(x,y),Gh'R(x,y),Gl'R(x,y),B'R(x,y))は、式(7)で求めることができる。 For example, when the reference pixel (i, j) = (m, n) located at the upper left end of the readout unit is a red pixel, the arrangement of the color pixels in the addition range is as shown in FIG. At this time, the signal values (R ′ R (x, y), Gh ′ R (x, y), Gl ′ R (x, y), B ′ R (x, y)) at each sample point are expressed by the formula ( 7).

Figure 0006065395
以上、標本点(x,y)に注目して加算間引き読み出しの例を説明した。なお、他の標本点の加算間引き読み出しは、基準画素の位置をシフトさせて同様の読み出しを行えばよい。一例として、標本点(x+1,y)に対応する信号値(R'R(x+1,y),Gh'R(x+1,y),Gl'R(x+1,y),B'R(x+1,y))は、基準画素(m,n)=(i+4,j)として、上記の式(7)により求めればよい。
Figure 0006065395
Heretofore, an example of addition thinning readout has been described focusing on the sample point (x, y). In addition, the thinning-out readout of other sample points may be performed by shifting the position of the reference pixel. As an example, signal values (R ′ R (x + 1, y), Gh ′ R (x + 1, y), Gl ′ R (x + 1, y), B ′ R (x + 1, y) corresponding to the sample point (x + 1, y). )) May be obtained from the above equation (7) as the reference pixel (m, n) = (i + 4, j).

なお、本実施例では、カラーフィルタが2×2の周期で配列され、画像の縮小倍率が1/4×1/4であることから、縮小画像の各標本点において加算範囲の基準画素はいずれも同じ色となる。   In this embodiment, since the color filters are arranged in a cycle of 2 × 2 and the image reduction magnification is 1/4 × 1/4, which is the reference pixel in the addition range at each sample point of the reduced image Will be the same color.

しかし、縮小倍率が奇数倍(例えば1/3×1/3)の場合、標本点1つごとに基準画素の色が入れ替わる。この場合には、式(7)で加算する画素を適宜調整すればよい。例えば、基準画素がGrの場合、加算範囲の各色画素の配置は図10(b)のようになる。基準画素がGbの場合、加算範囲の各色画素の配置は図10(c)のようになる。基準画素がBの場合、加算範囲の各色画素の配置は図10(d)のようになる。   However, when the reduction magnification is an odd number (for example, 1/3 × 1/3), the color of the reference pixel is switched for each sample point. In this case, what is necessary is just to adjust suitably the pixel added by Formula (7). For example, when the reference pixel is Gr, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is Gb, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is B, the arrangement of each color pixel in the addition range is as shown in FIG.

図9は、実施例2での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図である。実施例2の場合、各色信号のサンプル重心(図中○で示す)はいずれも一致する。   FIG. 9 is a diagram illustrating a pixel position in the solid-state imaging device according to the second embodiment and a sample centroid of each color signal of the reduced image. In the case of the second embodiment, the sample centroids (indicated by ◯ in the figure) of the respective color signals coincide with each other.

次に、各標本点の信号値は、画像処理エンジン4に入力される。ここで、実施例2の画像処理エンジン4は、GhおよびGlの画像信号を用いて縮小画像にエッジ強調処理を施す。   Next, the signal value of each sample point is input to the image processing engine 4. Here, the image processing engine 4 according to the second embodiment performs edge enhancement processing on the reduced image using the Gh and Gl image signals.

まず、画像処理エンジン4は、式(8)により、GhおよびGlの画像信号から標本点のGの信号値(G’(x,y))を求める。   First, the image processing engine 4 obtains the G signal value (G ′ (x, y)) of the sample point from the Gh and Gl image signals according to Expression (8).

Figure 0006065395
上記の式(8)の演算により、縮小画像の標本点のRGB信号値が揃うこととなる。なお、式(7)および式(8)を合わせて考えると、上記のG信号値も、R,B信号値と同様に加重係数の比率が9:3:3:1となる。
Figure 0006065395
The RGB signal values of the sample points of the reduced image are aligned by the calculation of the above equation (8). Note that when the equations (7) and (8) are considered together, the ratio of the weighting coefficients of the G signal value is 9: 3: 3: 1 as well as the R and B signal values.

次に、画像処理エンジン4は、式(9)により、GhおよびGlの画像信号の差分から画像の高周波成分(δG’)を抽出する。なお、δG’には、Glの加算範囲(5×5)に対してGhの加算範囲(3×3)のG信号が持つ凹凸が反映される。   Next, the image processing engine 4 extracts a high-frequency component (δG ′) of the image from the difference between the Gh and Gl image signals according to Expression (9). Note that δG ′ reflects the unevenness of the G signal in the Gh addition range (3 × 3) with respect to the Gl addition range (5 × 5).

Figure 0006065395
そして、画像処理エンジン4は、上記の式(5)によりRGB値からYUV値への変換を行う。ここで、輝度信号値Yに対してはG信号値の寄与が大きいため、標本点での輝度信号値Yの凹凸はG信号の凹凸で近似できる。そこで、実施例2の画像処理エンジン4は、輝度信号値Yに対して、式(10)に示すようにδG’を加算してエッジ強調処理を施す。
Figure 0006065395
Then, the image processing engine 4 performs conversion from RGB values to YUV values according to the above equation (5). Here, since the contribution of the G signal value to the luminance signal value Y is large, the unevenness of the luminance signal value Y at the sample point can be approximated by the unevenness of the G signal. Therefore, the image processing engine 4 according to the second embodiment performs edge enhancement processing by adding δG ′ to the luminance signal value Y as shown in Expression (10).

Figure 0006065395
ここで、αはエッジ強調の効果を調節するための係数である。αは画像全体で単一の値でもよく、YやδG'の分布に応じて適応的に変化させてもよい。例えば、Yの分布が平坦な箇所や、1画素のみ孤立したδG'が存在する箇所ではαの値を小さくし、まとまったδG'の分布が見られる箇所ではαの値を大きく設定してもよい。このような適応的な処理により、画像のノイズを強調することなく、縮小画像のエッジ強調処理を行うことができる。
Figure 0006065395
Here, α is a coefficient for adjusting the effect of edge enhancement. α may be a single value for the entire image, or may be adaptively changed according to the distribution of Y and δG ′. For example, if the distribution of Y is flat or where δG ′ isolated by only one pixel is present, the value of α may be reduced, and if a uniform distribution of δG ′ is seen, the value of α may be set larger. Good. By such adaptive processing, edge enhancement processing of a reduced image can be performed without enhancing image noise.

以上の処理により、縮小画像の標本点(x,y)についてYUV画像情報が生成される。そして、画像処理エンジン4は、他の標本点にも同様の処理を行い、縮小画像全体のYUV画像情報を生成する。   Through the above processing, YUV image information is generated for the sample point (x, y) of the reduced image. Then, the image processing engine 4 performs similar processing on other sample points, and generates YUV image information of the entire reduced image.

その後、画像処理エンジン4は、縮小画像のYUV画像情報を記録I/F6を介して記憶媒体9に記録する。あるいは、画像処理エンジン4は、縮小画像のYUV画像情報を用いてモニタ7に画像表示をしてもよい。   Thereafter, the image processing engine 4 records the YUV image information of the reduced image on the storage medium 9 via the recording I / F 6. Alternatively, the image processing engine 4 may display an image on the monitor 7 using the YUV image information of the reduced image.

かかる実施例2の構成によっても、縮小画像の標本点レベルでの補間処理を行う必要がないので、縮小画像の各標本点で充分な解像力を確保できるとともに、縮小画像でのモアレや偽色の発生を大幅に抑制できる。また、実施例2の場合、標本点のGh,Glの画像信号を用いたエッジ強調処理により、縮小画像の解像感をより向上させることができる。   Even with the configuration of the second embodiment, since it is not necessary to perform interpolation processing at the sample point level of the reduced image, sufficient resolution can be secured at each sample point of the reduced image, and moire or false color in the reduced image can be secured. Occurrence can be greatly suppressed. In the case of the second embodiment, the resolution enhancement of the reduced image can be further improved by the edge enhancement process using the Gh and Gl image signals of the sample points.

なお、実施例2の場合も、1標本点に対して4つの信号値を取得する。そのため、実施例1では、全画素読み出し時の画像サイズ(W×H)に対して縮小画像のサイズがW/4×H/4のとき、全画素読み出し時と比較して読出データ量は1/4×1/4×4=1/4倍となる。   In the second embodiment, four signal values are acquired for one sample point. Therefore, in the first embodiment, when the size of the reduced image is W / 4 × H / 4 with respect to the image size (W × H) at the time of reading all pixels, the read data amount is 1 as compared with the case of reading all pixels. / 4 × 1/4 × 4 = 1/4 times.

(実施例3)
次に、図11〜図13を参照しつつ、実施例3の加算間引き読出モードでの電子カメラ1の動作例を説明する。
(Example 3)
Next, an operation example of the electronic camera 1 in the addition thinning readout mode according to the third embodiment will be described with reference to FIGS.

実施例3では、固体撮像素子3から、R,Bの画像信号を加算間引きで読み出すとともに、加算範囲での画素の配置がそれぞれ異なる3種類のGの信号(G1,G2,G3)が生成される。そして、実施例3では、上記のG1,G2,G3の各信号を組み合わせて、画像処理エンジン4が色差選択処理およびエッジ強調処理を行う(図11参照)。   In the third embodiment, R and B image signals are read from the solid-state imaging device 3 by addition thinning, and three types of G signals (G1, G2, and G3) having different pixel arrangements in the addition range are generated. The In the third embodiment, the image processing engine 4 performs color difference selection processing and edge enhancement processing by combining the G1, G2, and G3 signals (see FIG. 11).

一例として、G1は4×4画素の加算範囲のうち、中央部に位置する2つの緑画素の出力を加算して生成される。また、G2,G3は4×4画素の加算範囲のうち、周辺部に位置する3つの緑画素の出力をそれぞれ加算して生成される。なお、G2で加算される緑画素は上記の加算範囲内でL字状に配列されている。また、G3で加算される緑画素は、G2の加算画素の配列と対向するように、上記の加算範囲内で倒立L字状に配列されている(図13参照)。なお、実施例3において、縮小画像の標本点(x,y)に対応する信号値は、R’(x,y),G1’(x,y),G2’(x,y),G3’(x,y),B’(x,y)…のように表記される。   As an example, G1 is generated by adding the outputs of two green pixels located in the center of the 4 × 4 pixel addition range. G2 and G3 are generated by adding the outputs of three green pixels located in the periphery of the 4 × 4 pixel addition range. The green pixels added by G2 are arranged in an L shape within the above addition range. Further, the green pixels added in G3 are arranged in an inverted L shape within the above addition range so as to face the arrangement of the G2 addition pixels (see FIG. 13). In the third embodiment, the signal values corresponding to the sample point (x, y) of the reduced image are R ′ (x, y), G1 ′ (x, y), G2 ′ (x, y), G3 ′. (X, y), B ′ (x, y).

実施例3での固体撮像素子3の加算間引き読み出しは、撮像素子制御回路16の制御により、以下のように行なわれる。   Addition thinning readout of the solid-state imaging device 3 in the third embodiment is performed as follows under the control of the imaging device control circuit 16.

例えば、読出単位の左上端に位置する基準画素(i,j)=(m,n)が赤画素である場合、加算範囲の各色画素の配置は図13(a)のようになる。このとき、各標本点の信号値(R'R(x,y),G1'R(x,y),G2'R(x,y),G3'R(x,y),B'R(x,y))は、式(11)で求めることができる。 For example, when the reference pixel (i, j) = (m, n) located at the upper left end of the readout unit is a red pixel, the arrangement of the color pixels in the addition range is as shown in FIG. At this time, the signal values (R ′ R (x, y), G1 ′ R (x, y), G2 ′ R (x, y), G3 ′ R (x, y), B ′ R ( x, y)) can be obtained by equation (11).

Figure 0006065395
以上、標本点(x,y)に注目して加算間引き読み出しの例を説明した。なお、他の標本点の加算間引き読み出しは、基準画素の位置をシフトさせて同様の読み出しを行えばよい。一例として、標本点(x+1,y)に対応する信号値(R'R(x+1,y),G1'R(x+1,y),G2'R(x+1,y),G3'R(x+1,y),B'R(x+1,y))は、基準画素(m,n)=(i+4,j)として、上記の式(11)により求めればよい。
Figure 0006065395
Heretofore, an example of addition thinning readout has been described focusing on the sample point (x, y). In addition, the thinning-out readout of other sample points may be performed by shifting the position of the reference pixel. As an example, signal values (R ′ R (x + 1, y), G1 ′ R (x + 1, y), G2 ′ R (x + 1, y), G3 ′ R (x + 1, y) corresponding to the sample point (x + 1, y). ), B ′ R (x + 1, y)) may be obtained from the above equation (11) as the reference pixel (m, n) = (i + 4, j).

なお、本実施例では、カラーフィルタが2×2の周期で配列され、画像の縮小倍率が1/4×1/4であることから、縮小画像の各標本点において加算範囲の基準画素はいずれも同じ色となる。   In this embodiment, since the color filters are arranged in a cycle of 2 × 2 and the image reduction magnification is 1/4 × 1/4, which is the reference pixel in the addition range at each sample point of the reduced image Will be the same color.

しかし、縮小倍率が奇数倍(例えば1/3×1/3)の場合、標本点1つごとに基準画素の色が入れ替わる。この場合には、式(11)で加算する画素を適宜調整すればよい。例えば、基準画素がGrの場合、加算範囲の各色画素の配置は図13(b)のようになる。基準画素がGbの場合、加算範囲の各色画素の配置は図13(c)のようになる。基準画素がBの場合、加算範囲の各色画素の配置は図13(d)のようになる。   However, when the reduction magnification is an odd number (for example, 1/3 × 1/3), the color of the reference pixel is switched for each sample point. In this case, what is necessary is just to adjust suitably the pixel added by Formula (11). For example, when the reference pixel is Gr, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is Gb, the arrangement of each color pixel in the addition range is as shown in FIG. When the reference pixel is B, the arrangement of each color pixel in the addition range is as shown in FIG.

図12は、実施例3での固体撮像素子での画素位置と、縮小画像の各色信号のサンプル重心とを示す図である。図12では、R信号のサンプル重心を図中に白丸(○)で示す。また、G1信号のサンプル重心を図中に黒丸(●)で示す。また、G2信号のサンプル重心を図中にバツ(×)で示す。また、G3信号のサンプル重心を図中に三角(△)で示す。また、B信号のサンプル重心を図中に星印(☆)で示す。なお、図12の例は基準画素がいずれも赤画素の場合であり、基準画素の色が異なる場合には図12の各色信号のサンプル重心が変化する。   FIG. 12 is a diagram illustrating a pixel position in the solid-state imaging device according to the third embodiment and a sample centroid of each color signal of the reduced image. In FIG. 12, the sample centroid of the R signal is indicated by a white circle (◯) in the figure. Also, the sample centroid of the G1 signal is indicated by a black circle (●) in the figure. Further, the center of gravity of the sample of the G2 signal is indicated by a cross (x) in the figure. Further, the center of gravity of the sample of the G3 signal is indicated by a triangle (Δ) in the figure. Also, the sample centroid of the B signal is indicated by an asterisk (*) in the figure. Note that the example of FIG. 12 is a case where all the reference pixels are red pixels, and the sample centroid of each color signal of FIG. 12 changes when the colors of the reference pixels are different.

次に、各標本点の信号値は、画像処理エンジン4に入力される。ここで、実施例3の画像処理エンジン4は、色差選択処理およびエッジ強調処理を行う。   Next, the signal value of each sample point is input to the image processing engine 4. Here, the image processing engine 4 according to the third embodiment performs color difference selection processing and edge enhancement processing.

まず、画像処理エンジン4は、式(12)により、G1,G2,G3信号値からGr,Gb信号値を求める。   First, the image processing engine 4 obtains Gr and Gb signal values from the G1, G2, and G3 signal values according to Expression (12).

Figure 0006065395
式(11)と式(12)の比較により、式(12)で取得されるGr,Gb信号値は、それぞれ5画素の単純平均となっていることが分かる。そのため、実施例3のGr,Gb信号のサンプル重心は、実施例1のGr,Gb信号のサンプル重心と一致する。
Figure 0006065395
By comparing the equations (11) and (12), it can be seen that the Gr and Gb signal values obtained by the equation (12) are each a simple average of 5 pixels. Therefore, the sample centroids of the Gr and Gb signals of the third embodiment coincide with the sample centroids of the Gr and Gb signals of the first embodiment.

また、実施例3と実施例1では加算画素数が相違するが同じ範囲のG信号値を加算している。そのため、実施例3の画像処理エンジン4は、実施例1の式(2)〜式(5)を適用して、色差選択処理を行うとともに、YUV画像情報を生成する。   Further, although the number of added pixels is different between the third embodiment and the first embodiment, G signal values in the same range are added. Therefore, the image processing engine 4 according to the third embodiment applies the equations (2) to (5) according to the first embodiment to perform color difference selection processing and generate YUV image information.

また、画像処理エンジン4は、式(13)により、G1,G2,G3信号から画像の高周波成分(δG’)を抽出できる。   Further, the image processing engine 4 can extract the high-frequency component (δG ′) of the image from the G1, G2, and G3 signals according to Expression (13).

Figure 0006065395
式(11)と式(13)の比較により、式(13)で取得されるδG’は、実施例2でGh,Gl信号値から求めたδG’と同一であることが分かる。そのため、実施例3の画像処理エンジン4は、実施例2の式(10)を適用して、輝度信号値Yに対して適応的なエッジ強調処理を施すことができる。
Figure 0006065395
Comparison between Expression (11) and Expression (13) shows that δG ′ obtained by Expression (13) is the same as δG ′ obtained from the Gh and Gl signal values in the second embodiment. For this reason, the image processing engine 4 according to the third embodiment can perform adaptive edge enhancement processing on the luminance signal value Y by applying the expression (10) of the second embodiment.

かかる実施例3の構成によれば、実施例1および実施例2と同様の効果を得ることができる。なお、実施例3の場合も、1標本点に対して5つの信号値を取得する。そのため、実施例1では、全画素読み出し時の画像サイズ(W×H)に対して縮小画像のサイズがW/4×H/4のとき、全画素読み出し時と比較して読出データ量は1/4×1/4×5=5/16倍となる。   According to the configuration of the third embodiment, the same effects as those of the first and second embodiments can be obtained. In the case of the third embodiment, five signal values are acquired for one sample point. Therefore, in the first embodiment, when the size of the reduced image is W / 4 × H / 4 with respect to the image size (W × H) at the time of reading all pixels, the read data amount is 1 as compared with the case of reading all pixels. / 4 × 1/4 × 5 = 5/16 times.

<第2実施形態の説明>
図14は、第2実施形態の画像処理装置の構成例を示す図である。第2実施形態の画像処理装置は、処理対象のカラー画像を加算間引きして縮小画像を生成するプログラムがインストールされたパーソナルコンピュータである。
<Description of Second Embodiment>
FIG. 14 is a diagram illustrating a configuration example of the image processing apparatus according to the second embodiment. The image processing apparatus according to the second embodiment is a personal computer in which a program for generating a reduced image by adding and thinning a color image to be processed is installed.

図14に示すコンピュータ31は、データ読込部32、記憶装置33、CPU34、メモリ35および入出力I/F36、バス37を有している。データ読込部32、記憶装置33、CPU34、メモリ35および入出力I/F36は、バス37を介して相互に接続されている。さらに、コンピュータ31には、入出力I/F36を介して、入力デバイス38(キーボード、ポインティングデバイスなど)とモニタ39とがそれぞれ接続されている。なお、入出力I/F36は、入力デバイス38からの各種入力を受け付けるとともに、モニタ39に対して表示用のデータを出力する。   A computer 31 illustrated in FIG. 14 includes a data reading unit 32, a storage device 33, a CPU 34, a memory 35, an input / output I / F 36, and a bus 37. The data reading unit 32, the storage device 33, the CPU 34, the memory 35, and the input / output I / F 36 are connected to each other via a bus 37. Furthermore, an input device 38 (keyboard, pointing device, etc.) and a monitor 39 are connected to the computer 31 via an input / output I / F 36. The input / output I / F 36 accepts various inputs from the input device 38 and outputs display data to the monitor 39.

データ読込部32は、画像のデータや、プログラムを外部から読み込むときに用いられる。例えば、データ読込部32は、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)である。なお、データ読込部32は、処理対象のカラー画像を取得する取得部として機能する。   The data reading unit 32 is used when reading image data or a program from the outside. For example, the data reading unit 32 communicates with a reading device (such as an optical disk, a magnetic disk, or a magneto-optical disk reading device) that acquires data from a removable storage medium, or an external device in accordance with a known communication standard. A communication device to perform (USB interface, LAN module, wireless LAN module, etc.). The data reading unit 32 functions as an acquisition unit that acquires a color image to be processed.

記憶装置33は、例えば、ハードディスクや、不揮発性の半導体メモリなどの記憶媒体で構成される。この記憶装置33には、画像処理プログラムが記録される。なお、記憶装置33には、データ読込部32から読み込んだ画像のデータや、プログラムで生成された縮小画像のデータを記憶しておくこともできる。   The storage device 33 is configured by a storage medium such as a hard disk or a nonvolatile semiconductor memory, for example. The storage device 33 stores an image processing program. The storage device 33 can also store image data read from the data reading unit 32 and reduced image data generated by a program.

CPU34は、コンピュータ31の各部を統括的に制御するプロセッサである。このCPU34は、プログラムの実行によって、縮小画像の生成を行う変換部として機能する。   The CPU 34 is a processor that comprehensively controls each unit of the computer 31. The CPU 34 functions as a conversion unit that generates a reduced image by executing a program.

メモリ35は、プログラムでの各種演算結果を一時的に記憶する。このメモリ35は、例えば揮発性のSDRAMである。   The memory 35 temporarily stores various calculation results in the program. The memory 35 is, for example, a volatile SDRAM.

以下、図15の流れ図を参照しつつ、第2実施形態の画像処理装置の動作例を説明する。   Hereinafter, an operation example of the image processing apparatus according to the second embodiment will be described with reference to the flowchart of FIG. 15.

ステップ#101:CPU34は、処理対象のカラー画像のデータを、データ読込部32から取得する。ここで、カラー画像は、色補間前のRAW画像であってもよく、色補間後のカラー画像であってもよい。なお、第2実施形態では、電子カメラで撮像されるとともに、ベイヤ配列でRGBの各色がモザイク状に配置された状態のRAW画像が処理対象である例を説明する。   Step # 101: The CPU 34 acquires the color image data to be processed from the data reading unit 32. Here, the color image may be a RAW image before color interpolation or a color image after color interpolation. In the second embodiment, an example will be described in which a RAW image that is captured by an electronic camera and in which a RGB color is arranged in a mosaic pattern in a Bayer array is a processing target.

#101で取得されたカラー画像のデータは、CPU34の制御によって、記憶装置33またはメモリ35に記録される。なお、処理対象の画像のデータが予め記憶装置33に記憶されている場合には、CPU34は#101の処理を省略してもよい。   The color image data acquired in # 101 is recorded in the storage device 33 or the memory 35 under the control of the CPU. Note that when the image data to be processed is stored in the storage device 33 in advance, the CPU 34 may omit the process of # 101.

ステップ#102:CPU34の変換部は、カラー画像を加算間引きして縮小画像のRGBの画像信号を生成する。具体的には、#102の変換部は、上記の実施例1〜実施例3のいずれかの手法で加算間引きを行う。   Step # 102: The conversion unit of the CPU 34 thins out the color image to generate an RGB image signal of the reduced image. Specifically, the conversion unit # 102 performs addition decimation by any one of the methods of the first to third embodiments.

ステップ#103:CPU34の変換部は、縮小画像のRGB信号値からYUVの画像情報を生成する。   Step # 103: The conversion unit of the CPU 34 generates YUV image information from the RGB signal values of the reduced image.

ここで、#102で実施例1の加算間引きを行った場合、#103の変換部は、実施例1と同様の色差選択処理を実行する。また、#102で実施例2の加算間引きを行った場合、#103の変換部は、実施例2と同様のエッジ強調処理を実行する。また、#102で実施例3の加算間引きを行った場合、#103の変換部は、実施例3と同様の色差選択処理およびエッジ強調処理を実行する。   Here, when the addition decimation in the first embodiment is performed in # 102, the conversion unit in # 103 performs the color difference selection process similar to that in the first embodiment. In addition, when the addition decimation in the second embodiment is performed in # 102, the conversion unit in # 103 performs the same edge enhancement processing as in the second embodiment. In addition, when the addition thinning of the third embodiment is performed in # 102, the conversion unit of # 103 performs the color difference selection process and the edge enhancement process similar to those of the third embodiment.

ステップ#104:CPU34は、#104で生成した縮小画像の画像情報を記憶装置33に記録する。あるいは、CPU34は縮小画像の画像情報を用いてモニタ39に画像表示をしてもよい。以上で、図15の流れ図の説明を終了する。   Step # 104: The CPU 34 records the image information of the reduced image generated at # 104 in the storage device 33. Alternatively, the CPU 34 may display an image on the monitor 39 using the image information of the reduced image. Above, description of the flowchart of FIG. 15 is complete | finished.

第2実施形態によれば、電子カメラで撮像したカラー画像から後処理工程で縮小画像を生成するときに、上記の第1実施形態とほぼ同様の効果を得ることができる。   According to the second embodiment, substantially the same effect as that of the first embodiment can be obtained when a reduced image is generated in a post-processing step from a color image captured by an electronic camera.

<実施形態の補足事項>
(補足1):本発明における画像の縮小倍率は、上記実施形態の例に限定されることなく適宜変更できる。なお、本発明における画像の縮小倍率は、水平方向と垂直方向とが異なる倍率であってもよい。
<Supplementary items of the embodiment>
(Supplement 1): The image reduction magnification in the present invention can be appropriately changed without being limited to the example of the above embodiment. In the present invention, the image reduction magnification may be different in the horizontal direction and the vertical direction.

(補足2):上記実施形態の加算間引きによっても、要求されるフレームレートに対して画像読み出しの高速化が不十分な場合、縮小画像のビット精度の削減を行って読み出しの高速化を補ってもよい。   (Supplement 2): If the speed of image reading is insufficient for the required frame rate even by the addition decimation in the above embodiment, the bit accuracy of the reduced image is reduced to compensate for the speed of reading. Also good.

(補足3):縮小倍率が大きいときには、縮小画像のフォーマットに対して固体撮像素子の画素サイズが不足する場合がある。このような場合には、縮小画像に対して超解像処理などの公知のアップコンバート処理を施してもよい。   (Supplement 3): When the reduction magnification is large, the pixel size of the solid-state imaging device may be insufficient for the reduced image format. In such a case, a known up-conversion process such as a super-resolution process may be performed on the reduced image.

例えば、実施例3の式(12)、式(4)により計算されるG信号値は撮像素子の4×4画素の範囲に対応するが、読み出されたG1信号は撮像素子の2×2画素の範囲のみに対応する。これは高速化のために1/4×1/4の縮小倍率で読み出した画像を、超解像や補間拡大などの処理で2×2倍のアップコンバートを行うときに、その画素サイズに対応する情報が離散的に保持されていることを意味する。このようなサブピクセルの空間分布情報を用いて、アップコンバート画像の解像感を向上させてもよい。   For example, the G signal value calculated by the expressions (12) and (4) of the third embodiment corresponds to the range of 4 × 4 pixels of the image sensor, but the read G1 signal is 2 × 2 of the image sensor. Only the pixel range is supported. This corresponds to the pixel size when an image read out at a reduction ratio of 1/4 × 1/4 for speedup is upconverted 2 × 2 times by processing such as super-resolution or interpolation enlargement. This means that information to be held is discretely held. Such subpixel spatial distribution information may be used to improve the resolution of the up-converted image.

(補足4):上記実施形態では、撮像装置の一例としての電子カメラを説明した。しかし、本発明の撮像装置は、例えば、第1実施形態の固体撮像素子3のみの構成や、固体撮像素子3と画像処理エンジン4(画像処理部)とをオンチップで一体化したデバイスを含む概念である。   (Supplement 4): In the above embodiment, an electronic camera as an example of an imaging apparatus has been described. However, the imaging apparatus of the present invention includes, for example, a configuration including only the solid-state imaging device 3 of the first embodiment or a device in which the solid-state imaging device 3 and the image processing engine 4 (image processing unit) are integrated on-chip. It is a concept.

(補足5):上記実施形態において、固体撮像素子3のカラーフィルタアレイはベイヤ配列に限定されない。例えば、マゼンタ、グリーン、シアンおよびイエローを用いる補色系カラーフィルタアレイの場合や、ベイヤ配列のGrまたはGbを他の色に置換したカラーフィルタアレイの場合にも本発明を適用できる。   (Supplement 5): In the said embodiment, the color filter array of the solid-state image sensor 3 is not limited to a Bayer arrangement. For example, the present invention can be applied to a complementary color filter array using magenta, green, cyan, and yellow, or a color filter array in which Gr or Gb in the Bayer array is replaced with another color.

(補足6):第2実施形態では、画像処理装置の変換部の機能をプログラムによってソフトウエア的に実現する例を説明した。しかし、本発明では、変換部の機能を、例えばASICでハードウエア的に実現しても勿論かまわない。   (Supplement 6): In the second embodiment, the example in which the function of the conversion unit of the image processing apparatus is realized by software by a program has been described. However, in the present invention, the function of the conversion unit may of course be realized by hardware using, for example, an ASIC.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

1…電子カメラ、2…撮像光学系、3…固体撮像素子、4…画像処理エンジン、5…メモリ、6…記録I/F、7…モニタ、8…操作部、9…記憶媒体、11…画素部、12…水平制御信号線、13…垂直走査回路、14…垂直信号線、15…信号出力回路、16…撮像素子制御回路、21…カラムコンデンサ、22…水平加算部、23…カラムアンプ、24…サンプルホールド部、25…カラムADC、26…水平データバス、27…データレジスタ、31…コンピュータ、32…データ読込部、33…記憶装置、34…CPU、35…メモリ、36…入出力I/F、37…バス、38…入力デバイス、39…モニタ DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 2 ... Imaging optical system, 3 ... Solid-state image sensor, 4 ... Image processing engine, 5 ... Memory, 6 ... Recording I / F, 7 ... Monitor, 8 ... Operation part, 9 ... Storage medium, 11 ... Pixel unit, 12 ... horizontal control signal line, 13 ... vertical scanning circuit, 14 ... vertical signal line, 15 ... signal output circuit, 16 ... image sensor control circuit, 21 ... column capacitor, 22 ... horizontal adder, 23 ... column amplifier , 24 ... Sample hold unit, 25 ... Column ADC, 26 ... Horizontal data bus, 27 ... Data register, 31 ... Computer, 32 ... Data reading unit, 33 ... Storage device, 34 ... CPU, 35 ... Memory, 36 ... Input / output I / F, 37 ... bus, 38 ... input device, 39 ... monitor

Claims (3)

第1の色の光を受光する画素と、
第2の色の光を受光する画素と、
第3の色の光を受光する画素と、
前記第1の色の光を受光する2つの第1の画素からの信号を加算し、前記2つの第1の画素の間隔よりも広い間隔を有し、前記第1の色の光を受光する6つの第2の画素からの信号を加算し、前記第2の色の光を受光する複数の画素からの信号を加算し、前記第3の色の光を受光する複数の画素からの信号を加算する回路と
前記2つの第1の画素からの信号を加算した信号と、前記6つの第2の画素からの信号を加算した信号との差分より生成した信号により、前記2つの第1の画素からの信号を加算した信号と、前記6つの第2の画素からの信号を加算した信号と、前記第2の色の光を受光する複数の画素からの信号を加算した信号と、前記第3の色の光を受光する複数の画素からの信号を加算した信号とから生成された画像データに対してエッジ強調処理を行う画像処理部と
を備える撮像装置。
A pixel that receives light of the first color;
A pixel that receives light of the second color;
A pixel receiving light of the third color;
Signals from two first pixels that receive light of the first color are added, and the light of the first color is received having an interval wider than the interval between the two first pixels. Signals from a plurality of pixels that receive light of the third color are added by adding signals from six second pixels, add signals from a plurality of pixels that receive the light of the second color and a circuit for adding,
The signal generated from the difference between the signal obtained by adding the signals from the two first pixels and the signal obtained by adding the signals from the six second pixels is used as the signal from the two first pixels. The added signal, the signal obtained by adding the signals from the six second pixels, the signal obtained by adding the signals from the plurality of pixels receiving the light of the second color, and the light of the third color An image processing apparatus comprising: an image processing unit that performs edge enhancement processing on image data generated from a signal obtained by adding signals from a plurality of pixels that receive light .
請求項に記載の撮像装置において、
第1の色の光は緑色の光であり、第2の色の光は赤色の光であり、第3の色の光は青色の光である撮像装置。
The imaging device according to claim 1 ,
An imaging apparatus in which the first color light is green light, the second color light is red light, and the third color light is blue light.
請求項に記載の撮像装置において、
前記複数の画素は、ベイヤー配列により配置されている撮像装置。
The imaging device according to claim 2 ,
The imaging device, wherein the plurality of pixels are arranged in a Bayer array.
JP2012059193A 2012-03-15 2012-03-15 Imaging device Expired - Fee Related JP6065395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012059193A JP6065395B2 (en) 2012-03-15 2012-03-15 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012059193A JP6065395B2 (en) 2012-03-15 2012-03-15 Imaging device

Publications (2)

Publication Number Publication Date
JP2013197611A JP2013197611A (en) 2013-09-30
JP6065395B2 true JP6065395B2 (en) 2017-01-25

Family

ID=49396114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012059193A Expired - Fee Related JP6065395B2 (en) 2012-03-15 2012-03-15 Imaging device

Country Status (1)

Country Link
JP (1) JP6065395B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209100A (en) * 2001-01-11 2002-07-26 Fuji Photo Film Co Ltd Image processor and image processing method
JP4740912B2 (en) * 2007-08-13 2011-08-03 オリンパス株式会社 Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2009141840A (en) * 2007-12-10 2009-06-25 Panasonic Corp Imaging apparatus
JP4377428B2 (en) * 2007-12-12 2009-12-02 アキュートロジック株式会社 Solid-state imaging device and imaging apparatus using the same
JP2012191465A (en) * 2011-03-11 2012-10-04 Sony Corp Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2013197611A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP6096243B2 (en) Image data processing method and system
US9215389B2 (en) Image pickup device, digital photographing apparatus using the image pickup device, auto-focusing method, and computer-readable medium for performing the auto-focusing method
JP4019417B2 (en) Image processing apparatus and method, recording medium, and program
WO2010089817A1 (en) Solid state imaging element, camera system and method for driving solid state imaging element
JP5006814B2 (en) Imaging device
US10681322B2 (en) Solid state imaging device and imaging apparatus having a plurality of addition read modes
JP5128726B1 (en) Solid-state imaging device and imaging apparatus including the device
KR20200113484A (en) Image sensor and operation method thereof
JP6622481B2 (en) Imaging apparatus, imaging system, signal processing method for imaging apparatus, and signal processing method
JP5454348B2 (en) Imaging apparatus and image processing apparatus
JP2019161577A (en) Imaging device, pixel correction processing circuit, and pixel correction processing method
JP6069857B2 (en) Imaging device
JP6127368B2 (en) Imaging device
JP6065395B2 (en) Imaging device
WO2022088310A1 (en) Image processing method, camera assembly, and mobile terminal
JP6545013B2 (en) Image forming method, image forming apparatus, and image forming program
JP5256888B2 (en) Autofocus evaluation device, imaging device, autofocus evaluation method, and program
JP4478981B2 (en) Color noise reduction method and color imaging apparatus
TWI536765B (en) Imaging systems with clear filter pixels
US9013606B2 (en) Image processing apparatus and control method thereof
US20240073547A1 (en) Sparse color image sensor system
JP6010943B2 (en) Imaging device
TWI617198B (en) Imaging systems with clear filter pixels
CN114827502A (en) Image sensor, camera module and electronic equipment
CN114827501A (en) Image sensor, camera module and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R150 Certificate of patent or registration of utility model

Ref document number: 6065395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees