JPH10248069A - Image pickup device - Google Patents

Image pickup device

Info

Publication number
JPH10248069A
JPH10248069A JP9050132A JP5013297A JPH10248069A JP H10248069 A JPH10248069 A JP H10248069A JP 9050132 A JP9050132 A JP 9050132A JP 5013297 A JP5013297 A JP 5013297A JP H10248069 A JPH10248069 A JP H10248069A
Authority
JP
Japan
Prior art keywords
image
pixel
image information
interpolation
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9050132A
Other languages
Japanese (ja)
Inventor
Takeshi Utagawa
健 歌川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP9050132A priority Critical patent/JPH10248069A/en
Publication of JPH10248069A publication Critical patent/JPH10248069A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid the generation of false signal at an edge part and to provide an image having no mosaic-shaped distortion by processing the pixel interpolation of image information only with the pixels of that image information. SOLUTION: While using a spatial pixel shifting method, an image pickup device picks up the image having the edge part, for example. On the other hand, an image pickup means 1 generates image information by performing the photoelectric conversion of edge image, and another image pickup means 1 generates image information B by performing the photoelectric transduction of edge image. Next, an interpolating means 2 prepares image information C by performing interpolating processing to the information A. Besides, image information D is prepared by performing interpolating processing to the image information B. Then, an image synthesizing means 3 prepares a synthetic image E by adding correspondent pixel output concerning the image information C and D. Thus, the interpolating means 2 prepared the image information C only from the pixel output of image information A and prepared the image information D only from the pixel output of image information B. Thus, interpolating processing can be performed without mutually utilizing the pixel output of the other image pickup means 1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、空間画素ずらし法
を用いて撮像を行う撮像装置に関し、特に、画像合成を
行う前に補間処理を施す撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus for picking up images using a spatial pixel shifting method, and more particularly to an image pickup apparatus for performing an interpolation process before performing image synthesis.

【0002】[0002]

【従来の技術】一般に、ビデオカメラや電子カメラに
は、色分解プリズムを用いた多板式撮像装置が搭載され
ている。この多板式撮像装置において、高解像度を実現
するために、空間画素ずらし法という撮像方法が採用さ
れている。この空間画素ずらし法を用いた公知の撮像装
置(テレビジョン学会技術報告、17 [51](199
3) p.1−6)について、図12、図13を用いて説
明する。
2. Description of the Related Art Generally, a video camera or an electronic camera is equipped with a multi-plate type image pickup apparatus using a color separation prism. In this multi-panel imaging apparatus, an imaging method called a spatial pixel shift method is employed to realize high resolution. A known imaging apparatus using this spatial pixel shifting method (Technical Report of the Institute of Television Engineers of Japan, 17 [51] (199)
3) p.1-6) will be described with reference to FIGS.

【0003】図12において、撮影レンズ51の光軸上
には、ダイクロイックプリズム52が配置され、撮影レ
ンズ51からの入射光をR成分とB成分との混合光(マ
ゼンタ成分)と、2つのG成分の光とに色分解する。な
お、G成分における光分解は、ハーフミラーによる分解
であり、波長に依存した分割ではない。
In FIG. 12, a dichroic prism 52 is arranged on the optical axis of a photographing lens 51, and the incident light from the photographing lens 51 is mixed light of an R component and a B component (magenta component) and two G light components. Separates into component light. Note that the photolysis of the G component is decomposition by a half mirror, and is not a wavelength-dependent division.

【0004】混合光の進行方向には、RB用撮像素子5
3aが配置され、その撮像面には赤および青の色フィル
タをストライプ状もしくは市松状に並べた色フィルタア
レイ52aが張り付けられている。RB用撮像素子53
aにおいて、光像のR成分およびB成分が光電変換され
る。一方、2つのG成分の光の進行方向には、G用撮像
素子53b、53cが個別に配置され、それぞれの素子
において光像のG成分が光電変換される。G用撮像素子
53bの画素出力を図13Aの○印に示し、G用撮像素
子53cの画素出力を図13Bの●印に示す。
In the traveling direction of the mixed light, the RB image sensor 5
A color filter array 52a in which red and blue color filters are arranged in a striped or checkered pattern is attached to the imaging surface of the color filter array 3a. RB image sensor 53
In a, the R component and the B component of the optical image are photoelectrically converted. On the other hand, in the traveling directions of the two G component lights, the G image pickup devices 53b and 53c are individually arranged, and the G component of the light image is photoelectrically converted in each device. The pixel output of the G image sensor 53b is indicated by a circle in FIG. 13A, and the pixel output of the G image sensor 53c is indicated by a circle in FIG. 13B.

【0005】なお、G用撮像素子53b、53cは、互
いに縦横方向に1/2画素ずれて配置されている。信号
処理回路54は、G用撮像素子53bの画素出力(図中
○印)とG用撮像素子53cの画素出力(図中●印)と
を合成格子点上に互い違いに再配置することで、図13
Dに示すような合成画像を作成する。なお、図中×印は
対応する画素がないことを示す。
The G image pickup devices 53b and 53c are arranged with a shift of 1/2 pixel in the vertical and horizontal directions. The signal processing circuit 54 alternately rearranges the pixel outputs of the G imaging element 53b (indicated by a circle in the figure) and the pixel outputs of the G imaging element 53c (indicated by a circle in the figure) on a composite grid point. FIG.
A composite image as shown in D is created. Note that a cross in the figure indicates that there is no corresponding pixel.

【0006】さらに、信号処理回路54は、対応画素の
ない空格子点(図中×印)に対して補間処理を行う。補
間方法としては、隣接する画素のうち上下の画素の平均
値を算出して補間する上下平均補間(図13E)、直前
(左隣)の画素で補間する前値補間(図13F)、左右
の画素の平均値を算出して補間する左右平均補間(図1
3G)の方法がある。
Further, the signal processing circuit 54 performs an interpolation process on a vacant point having no corresponding pixel (marked by x in the figure). As the interpolation method, upper and lower average interpolation (FIG. 13E) for calculating and interpolating the average value of the upper and lower pixels of the adjacent pixels, previous value interpolation (FIG. 13F) for interpolating with the immediately preceding (left adjacent) pixel, and left and right Left-right average interpolation for calculating and interpolating the average value of pixels (Fig. 1
3G).

【0007】このような画像処理を行うことで、空間画
素ずらし法を用いた撮像装置では、単板の撮像素子から
得られる画像の約2倍の解像度を得ることができる。
By performing such image processing, an image pickup apparatus using the spatial pixel shifting method can obtain a resolution approximately twice that of an image obtained from a single-chip image pickup element.

【0008】[0008]

【発明が解決しようとする課題】図14、図15は、以
上の画像処理について具体的な数値を用いることで課題
を説明する図である。
FIG. 14 and FIG. 15 are diagrams for explaining the problem by using specific numerical values for the above image processing.

【0009】図14Aに示すように、例えば、縦縞格子
像を撮像したとすると、G用撮像素子53b、53cの
撮像面には縦縞像が形成される。G用撮像素子53bを
構成する受光セルは、縞の明部または暗部のいずれかに
当たるので、受光セルは“0“または“4“の受光量を
有することになる。また、G用撮像素子53cを構成す
る受光セルは、縞の明部と暗部の境界部分に当たるの
で、受光セルは全て“2“の受光量を有することにな
る。
As shown in FIG. 14A, for example, if a vertical stripe image is taken, a vertical stripe image is formed on the imaging surface of each of the G imaging elements 53b and 53c. Since the light receiving cells constituting the G image pickup device 53b correspond to either the bright part or the dark part of the stripe, the light receiving cells have a light receiving amount of “0” or “4”. Further, the light receiving cells constituting the G image pickup device 53c correspond to the boundary between the bright and dark portions of the stripe, so that all the light receiving cells have a light receiving amount of "2".

【0010】信号処理回路54は、G用撮像素子53b
により光電変換された画素出力を、合成格子点上の位置
に置き換えて、図14Bに示す画像を作成する。また、
撮像素子53cの画素出力も同様に合成格子点上の位置
に置き換えて、図14Cに示す画像を作成する。さら
に、信号処理回路54は、この2つの画像を合成して、
図14Dに示す合成画像を作成する。これは、図14C
の各画素を、図14Bの各空格子点に再配置する(例え
ば画素aを格子点aの位置に再配置する)ことによって
行う。
The signal processing circuit 54 includes a G image pickup device 53b.
The image output shown in FIG. 14B is created by replacing the pixel output photoelectrically converted by (1) with the position on the composite grid point. Also,
Similarly, the pixel output of the image sensor 53c is replaced with a position on the composite grid point to create an image shown in FIG. 14C. Further, the signal processing circuit 54 combines the two images,
A composite image shown in FIG. 14D is created. This is shown in FIG.
14B (for example, the pixel a is relocated to the position of the lattice point a).

【0011】次に、信号処理回路54は、合成画像の空
格子点に対して補間処理を行う。ここでは、既述した補
間法の他に近接均等補間を行うこともある。この近接均
等補間は、補間対象の空格子点に隣接する各画素に対
し、マトリックスの加重和を演算して、それを補間値と
して利用する処理である。例えば、図15Eのマトリッ
クスを用いた場合では、空格子点の縦横に位置する各画
素に1/4を乗算し、その和を補間値として利用してい
る。
Next, the signal processing circuit 54 performs an interpolation process on the vacancy points of the composite image. Here, proximity uniform interpolation may be performed in addition to the interpolation method described above. The proximity uniform interpolation is a process of calculating a weighted sum of a matrix for each pixel adjacent to a vacancy to be interpolated and using the calculated sum as an interpolation value. For example, in the case of using the matrix of FIG. 15E, each pixel positioned vertically and horizontally on a vacancy is multiplied by 4, and the sum is used as an interpolation value.

【0012】補間結果を図15A〜Dに示す。なお、図
15Aは上下平均補間、図15Bは前値補間、図15C
は左右平均補間、図15Dは近接均等補間を行った場合
を示す図である。ところで図15A〜Dのエッジ部分に
注目すると、図15Aの上下平均補間法を除く全ての補
間法では、エッジ部分に偽信号が生じ、モザイク状の画
像の歪みが発生してしまう。これは、G用撮像素子53
bの画素出力だけでなく、別の画像情報であるG用撮像
素子53cの画素出力が補間に寄与してしまい、偽信号
の発生を引き起こすからである。
The results of the interpolation are shown in FIGS. FIG. 15A shows vertical interpolation, FIG. 15B shows previous value interpolation, and FIG.
FIG. 15D is a diagram showing a case where left-right average interpolation is performed, and FIG. By the way, paying attention to the edge portions in FIGS. 15A to 15D, in all the interpolation methods except the vertical average interpolation method in FIG. 15A, a false signal is generated in the edge portion, and a mosaic image distortion occurs. This is the G image sensor 53
This is because not only the pixel output of b but also the pixel output of the G image pickup device 53c, which is another image information, contributes to the interpolation and causes generation of a false signal.

【0013】また、横縞格子像を撮像した場合には、縦
縞格子像を90度回転させただけなので、左右平均補間
については偽信号は発生しないが、代わりに上下平均補
間については偽信号が発生してしまい、エッジ部分にモ
ザイク状の画像の歪みが生じてしまう。すなわち、縦縞
格子像および横縞格子像を含んだ画像(エッジ部分が存
在する画像)に対して補間処理を行うと、必ずそのエッ
ジ部分に偽信号が発生してしまうという問題点があっ
た。
When a horizontal stripe image is taken, a false signal is not generated for left-right average interpolation because a vertical stripe image is simply rotated by 90 degrees, but a false signal is generated for vertical average interpolation. As a result, the distortion of the mosaic image occurs at the edge portion. That is, when an interpolation process is performed on an image including a vertical stripe grid image and a horizontal stripe grid image (image having an edge portion), a false signal always occurs at the edge portion.

【0014】従来の撮像装置では、線形フィルタによる
画像の平滑化処理を行ってこの偽信号を除去していた
が、完全に除去できるものではなく、特に、より高精細
高画質が要求される現在の撮像装置においては、エッジ
部分の偽信号の発生は画質の劣化を招いた。そこで、請
求項1に記載の発明は、上述の問題点を解決するため
に、エッジ部分の偽信号発生を回避することができる空
間画素ずらし法を用いた撮像装置を提供することを目的
とする。
In the conventional imaging apparatus, the false signal is removed by performing an image smoothing process using a linear filter. However, the false signal cannot be completely removed. In the imaging device of the above, generation of a false signal at an edge portion caused deterioration of image quality. Therefore, an object of the present invention is to provide an imaging apparatus using a spatial pixel shifting method capable of avoiding generation of a false signal at an edge portion in order to solve the above-described problem. .

【0015】[0015]

【課題を解決するための手段】図1は、請求項1に記載
の発明の原理ブロック図である。請求項1に記載の発明
は、撮像光学系および光分割手段を介してそれぞれの受
光面に分割形成される光像を個別に光電変換して画像情
報を生成し、かつ該受光面に沿った方向に相互にずれて
配置される複数の撮像手段1を有して空間画素ずらし法
による撮像を行う撮像装置において、撮像手段1各々に
より生成される画像情報について画素補間し、画像情報
間の空間位相を合わせる補間手段2と、補間手段2によ
り画素補間された画像情報毎に対応する画素出力を加算
して、合成画像を作成する画像合成手段3とを備えて構
成する。
FIG. 1 is a block diagram showing the principle of the first aspect of the present invention. According to the first aspect of the present invention, image information is generated by individually photoelectrically converting light images divided and formed on respective light receiving surfaces via an imaging optical system and a light splitting unit, and image information is generated along the light receiving surfaces. In an imaging apparatus that has a plurality of imaging units 1 that are arranged to be shifted from each other in the direction and performs imaging by the spatial pixel shifting method, pixel interpolation is performed on image information generated by each of the imaging units 1, and the space between the image information is It comprises an interpolating means 2 for adjusting the phase and an image synthesizing means 3 for adding a pixel output corresponding to each piece of image information interpolated by the interpolating means 2 to create a synthesized image.

【0016】(作用)図2は、請求項1に記載の発明の
動作について説明する図である。請求項1に記載の撮像
装置が空間画素ずらし法を用いて、例えばエッジ部分を
有する画像(以下、エッジ画像という)を撮像したとす
る。一方の撮像手段1は、エッジ画像を光電変換し画像
情報Aを生成する。また、他方の撮像手段1は、エッジ
画像を光電変換し画像情報Bを生成する。なお、一方の
撮像手段1には、受光セル毎に“0“または“4“の受
光量があり、他方の撮像手段1には、“2“の受光量が
あるとする。
(Operation) FIG. 2 is a diagram for explaining the operation of the first aspect of the present invention. It is assumed that the image pickup apparatus according to claim 1 has picked up, for example, an image having an edge portion (hereinafter, referred to as an edge image) by using the spatial pixel shifting method. One imaging unit 1 generates image information A by photoelectrically converting the edge image. The other imaging means 1 generates image information B by photoelectrically converting the edge image. It is assumed that one imaging unit 1 has a light reception amount of “0” or “4” for each light receiving cell, and the other imaging unit 1 has a light reception amount of “2”.

【0017】次に、補間手段2は、画像情報Aに対して
補間処理を施し、画像情報Cを作成する。また、画像情
報Bに対して補間処理を施し、画像情報Dを作成する。
なお、補間処理の結果である画像情報C、Dは一例であ
る。画像合成手段3は、画像情報C、Dについて対応す
る画素出力同士を加算し、合成画像Eを作成する。
Next, the interpolation means 2 performs an interpolation process on the image information A to create image information C. Further, an interpolation process is performed on the image information B to create the image information D.
Note that the image information C and D obtained as a result of the interpolation processing are examples. The image combining means 3 adds the corresponding pixel outputs of the image information C and D to create a combined image E.

【0018】以上のように、補間手段2は、画像情報A
の画素出力のみで画像情報Cを作成し、また、画像情報
Bの画素出力のみで画像情報Dを作成している。したが
って、互いに他の撮像手段1の画素出力を利用せずに補
間処理を行うことができるので、合成画像Eのエッジ部
分には偽信号が発生しない。
As described above, the interpolation means 2 outputs the image information A
The image information C is created only by the pixel output of the image information B, and the image information D is created only by the pixel output of the image information B. Therefore, since the interpolation processing can be performed without using the pixel outputs of the other imaging units 1, no false signal is generated at the edge portion of the composite image E.

【0019】[0019]

【発明の実施の形態】以下、図面を用いて本発明の実施
形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0020】(第1の実施形態)図3は、第1の実施形
態の構成を示す図である。図3において、撮像装置21
の内部には撮影レンズ22が配置され、撮影レンズ22
の光軸上にはプリズム23が配置される。なお、撮影レ
ンズ22は、請求項1に記載の撮像光学系に対応し、プ
リズム23は、分割光学手段に対応する。
(First Embodiment) FIG. 3 is a diagram showing a configuration of the first embodiment. In FIG. 3, the imaging device 21
The photographing lens 22 is disposed inside the camera.
A prism 23 is arranged on the optical axis of the optical disk. The taking lens 22 corresponds to the image pickup optical system according to the first aspect, and the prism 23 corresponds to the split optical unit.

【0021】プリズム23内部の貼り合わせ面にはハー
フミラーが形成され、光像は反射方向と透過方向との2
方向に分割され、その像を受光する位置に、それぞれ撮
像素子24a、24bが配置される。この撮像素子24
a、24bは、互いに縦横方向に1/2画素ずれて配置
されている。さらに、撮像素子24a、24bの撮像面
には緑の色フィルタが張り付けられており、G成分だけ
の画像が抽出される。
A half mirror is formed on the bonding surface inside the prism 23, and the light image is divided into two directions, a reflection direction and a transmission direction.
The image sensors 24a and 24b are arranged at positions where the image is divided and the image is received. This image sensor 24
“a” and “24b” are shifted from each other by 1 / pixel in the vertical and horizontal directions. Further, a green color filter is attached to the imaging surfaces of the imaging devices 24a and 24b, and an image of only the G component is extracted.

【0022】撮像素子24aの出力は、A/D変換部2
5aを介してフレームメモリ26aに入力される。さら
にフレームメモリ26aの出力は、補間演算部27aを
介してフレームメモリ28aに入力される。一方、撮像
素子24bの出力は、A/D変換部25bを介してフレ
ームメモリ26bに入力される。さらにフレームメモリ
26bの出力は、補間演算部27bを介してフレームメ
モリ28bに入力される。
The output of the image sensor 24a is supplied to the A / D converter 2
The data is input to the frame memory 26a via the terminal 5a. Further, the output of the frame memory 26a is input to the frame memory 28a via the interpolation calculator 27a. On the other hand, the output of the image sensor 24b is input to the frame memory 26b via the A / D converter 25b. Further, the output of the frame memory 26b is input to the frame memory 28b via the interpolation calculator 27b.

【0023】フレームメモリ28aおよびフレームメモ
リ28bの出力は、合成演算部29に入力され、その出
力はフレームメモリ30に入力される。フレームメモリ
30の出力は、モニタなどの外部装置に入力される。な
お、補間演算部27a、補間演算部27b、合成演算部
29の機能は、単体のマイクロプロセッサやDSPある
いは同等の機能を有するハードウェアによって実現され
る。
The outputs of the frame memory 28a and the frame memory 28b are input to the combining operation unit 29, and the output is input to the frame memory 30. The output of the frame memory 30 is input to an external device such as a monitor. The functions of the interpolation calculation unit 27a, the interpolation calculation unit 27b, and the synthesis calculation unit 29 are realized by a single microprocessor, DSP, or hardware having equivalent functions.

【0024】また、請求項1に記載の発明と、第1の実
施形態との対応関係については、撮像手段1は、撮像素
子24a、24bおよびA/D変換部25a、25bに
対応し、補間手段2は、補間演算部27a、27bに対
応し、画像合成手段3は、合成演算部29に対応する。
図4は、第1の実施形態の動作を説明する流れ図であ
り、図5は、第1の実施形態の画像処理を説明する図
(1)であり、図6は、第1の実施形態の画像処理を説
明する図(2)である。
Regarding the correspondence between the first embodiment and the first embodiment, the image pickup means 1 corresponds to the image pickup devices 24a and 24b and the A / D converters 25a and 25b, The means 2 corresponds to the interpolation calculation units 27a and 27b, and the image synthesis means 3 corresponds to the synthesis calculation unit 29.
FIG. 4 is a flowchart for explaining the operation of the first embodiment. FIG. 5 is a diagram (1) for explaining the image processing of the first embodiment. FIG. 6 is a flowchart of the first embodiment. FIG. 4 is a diagram (2) illustrating image processing.

【0025】以下、第1の実施形態の動作を図3〜図7
を用いて説明する。撮影レンズ22を透過する光像は、
プリズム23に入射し、プリズム23内部の反射透過層
によって反射光と透過光との2方向に分割される。撮像
素子24aは、反射光を受光するが、色フィルタを介し
て撮像を行うのでG成分のみの光像を光電変換する。こ
のときの画素出力を図5の○印に示す。
The operation of the first embodiment will now be described with reference to FIGS.
This will be described with reference to FIG. The light image transmitted through the taking lens 22 is
The light enters the prism 23 and is divided into two directions of reflected light and transmitted light by the reflection / transmission layer inside the prism 23. The imaging element 24a receives the reflected light, but performs imaging through a color filter, and thus photoelectrically converts a light image of only the G component. The pixel output at this time is indicated by a circle in FIG.

【0026】A/D変換部25aは光電信号をA/D変
換し、画像情報を生成する(ステップS1)。画像情報
は、フレームメモリ26aにおいて、逐一格納蓄積さ
れ、書き込み動作と並行して補間演算部27aに読み出
される(ステップS2)。補間演算部27aでは、各画
素出力(図5Cの○印)を利用して空格子点に画素(図
5Cの□印)を補間する(ステップS3)。この画素補
間の詳細については後述する。
The A / D converter 25a performs A / D conversion of the photoelectric signal to generate image information (step S1). The image information is stored and accumulated one by one in the frame memory 26a, and is read out to the interpolation calculation unit 27a in parallel with the writing operation (step S2). The interpolation calculation unit 27a interpolates a pixel (square mark in FIG. 5C) at a vacant grid point using each pixel output (circle mark in FIG. 5C) (step S3). Details of this pixel interpolation will be described later.

【0027】補間された画像情報は、フレームメモリ2
8aにおいて逐一格納蓄積される。一方、撮像素子24
bの画素出力(図5中●印)についても同様に、A/D
変換部25bにおいてA/D変換され、画像情報が生成
される(ステップS1)。画像情報は、フレームメモリ
26bにおいて逐一格納蓄積され(ステップS2)、補
間演算部27bにおいて、各画素出力(図5Dの●印)
を利用して空格子点に画素(図5Dの×印)を補間する
(ステップS3)。補間された画像情報は、フレームメ
モリ28bにおいて逐一格納蓄積される。
The interpolated image information is stored in the frame memory 2
8a. On the other hand, the image sensor 24
Similarly, the A / D of the pixel output b (marked by ● in FIG. 5)
A / D conversion is performed in the conversion unit 25b to generate image information (step S1). The image information is stored and accumulated one by one in the frame memory 26b (step S2), and each pixel output (indicated by ● in FIG. 5D) is output by the interpolation calculation unit 27b.
Is used to interpolate the pixel (the mark x in FIG. 5D) into the vacancy (step S3). The interpolated image information is stored and stored one by one in the frame memory 28b.

【0028】合成演算部29では、撮像素子24a、2
4bの画像情報について対応する画素同士(例えば図5
Cの画素Aと図5Dの画素Bなど)を順次加算し、合成
画像(図5E)を作成する(ステップS4)。合成画像
は、フレームメモリ30に格納蓄積される。次に、効果
を説明するにあたり、以上の処理を具体的な数値を用い
て説明する。
In the combining operation unit 29, the image pickup devices 24a,
4b corresponding to the image information of FIG.
The pixel A of C and the pixel B of FIG. 5D are sequentially added to create a composite image (FIG. 5E) (step S4). The composite image is stored and accumulated in the frame memory 30. Next, in describing the effects, the above processing will be described using specific numerical values.

【0029】図6Aに示すように、例えば、縦縞格子像
を撮像したとすると、撮像素子24a、24bの撮像面
には縦縞像が形成される。撮像素子24aを構成する受
光セルは、縞の明部または暗部のいずれかに当たるの
で、受光セルは“0“または“4“の受光量を有するこ
とになる。また、撮像素子24bを構成する受光セル
は、縞の明部と暗部の境界部分に当たるので、受光セル
は全て“2“の受光量を有することになる。
As shown in FIG. 6A, for example, when a vertical stripe image is taken, a vertical stripe image is formed on the imaging surfaces of the image pickup devices 24a and 24b. Since the light receiving cells constituting the image sensor 24a correspond to either the bright portion or the dark portion of the stripe, the light receiving cells have a light receiving amount of "0" or "4". Further, the light receiving cells constituting the image sensor 24b correspond to the boundary between the bright and dark portions of the stripe, so that all the light receiving cells have a light receiving amount of "2".

【0030】補間演算部27aは、撮像素子24aおよ
びA/D変換部25aによって生成された画像情報の空
格子点に対し、図6Bの補間用マトリックスを用いて画
素補間を行う。この補間処理について図7を用いて説明
する。画素補間は、空格子点に対して上下に位置する
“0“もしくは“4“の2画素、または斜めに位置する
“0“および“4“の4画素を用い、これらの画素を補
間用マトリックスの対応成分で重み付けし、その和を算
出する局所積和演算を行って補間する。この補間結果を
図6Cに示す。
The interpolation calculator 27a performs pixel interpolation on the vacant grid points of the image information generated by the image sensor 24a and the A / D converter 25a using the interpolation matrix shown in FIG. 6B. This interpolation processing will be described with reference to FIG. The pixel interpolation uses two pixels “0” or “4” positioned above and below the vacancy, or four pixels “0” and “4” positioned diagonally, and uses these pixels as an interpolation matrix. Are interpolated by performing a local product-sum operation for calculating the sum. The result of this interpolation is shown in FIG. 6C.

【0031】一方、補間演算部27bの画素出力に対し
ても同様の画素補間処理を行い、図6Dに示す画像情報
を作成する。画素補間された画像情報(図6C、D)
は、互いに空間位相が揃っているので、対応する画素同
士を順次加算(例えば、画素Aと画素Bとを加算して画
素Cを生成する)して合成画像(図6E)を作成する。
On the other hand, the same pixel interpolation processing is performed on the pixel output of the interpolation calculation unit 27b to create image information shown in FIG. 6D. Pixel-interpolated image information (FIGS. 6C and 6D)
Since the spatial phases are the same, the corresponding pixels are sequentially added (for example, the pixel A and the pixel B are added to generate the pixel C) to create a composite image (FIG. 6E).

【0032】図6Eに示すように、合成画像のエッジ部
分には偽信号が発生せず、モザイク状の画像の歪みが生
じない。これは画素補間時に他の撮像素子の画素を使用
して補間することがないためであり、これにより本発明
の撮像装置では、エッジ部分の偽信号の発生を回避する
ことができる。また、本実施形態の撮像装置では、合成
画像を構成する全ての画素は、加算処理の結果生成され
ている。したがって、画素の加算時に熱雑音のようなラ
ンダム雑音をより確実に低減することができ、S/Nの
向上を図ることができる。
As shown in FIG. 6E, no false signal is generated at the edge portion of the composite image, and no distortion occurs in the mosaic image. This is because there is no need to perform interpolation using pixels of another image sensor at the time of pixel interpolation. With this, in the image pickup apparatus of the present invention, it is possible to avoid generation of a false signal at an edge portion. Further, in the imaging device according to the present embodiment, all the pixels forming the composite image are generated as a result of the addition processing. Therefore, at the time of pixel addition, random noise such as thermal noise can be more reliably reduced, and S / N can be improved.

【0033】(第2の実施形態)第1の実施形態は、G
成分の画像のみを撮像する撮像装置であったが、第2の
実施形態は、カラー画像を撮像する撮像装置である。図
8は、第2の実施形態の構成を示す図である。図8にお
いて、撮像装置21の内部には撮影レンズ22が配置さ
れ、撮影レンズ22の光軸上にはプリズム31が配置さ
れる。プリズム31内部の貼り合わせ面にはハーフミラ
ーが形成され、光像は反射方向、透過方向の2方向に分
割される。その像を受光する位置に、それぞれ撮像素子
24a、24bが配置される。これら撮像素子24a、
24bは、互いに縦横方向に1/2画素ずれて配置され
ている。また、撮像素子24a、24bの撮像面にはベ
イアー配列の色フィルタアレイが張り付けられているの
で、それぞれの撮像素子で、RGBの色信号を取り込む
ことができる。
(Second Embodiment) In the first embodiment, G
Although the imaging apparatus captures only the component image, the second embodiment is an imaging apparatus that captures a color image. FIG. 8 is a diagram illustrating the configuration of the second embodiment. In FIG. 8, a photographing lens 22 is disposed inside an imaging device 21, and a prism 31 is disposed on the optical axis of the photographing lens 22. A half mirror is formed on the bonding surface inside the prism 31, and the light image is divided into two directions, a reflection direction and a transmission direction. Image sensors 24a and 24b are arranged at positions where the image is received. These imaging elements 24a,
24b are arranged with a shift of 1/2 pixel in the vertical and horizontal directions. Further, since the Bayer array color filter array is attached to the imaging surfaces of the imaging devices 24a and 24b, each of the imaging devices can capture RGB color signals.

【0034】撮像素子24aの出力は、A/D変換部2
5aを介してフレームメモリ32aに入力される。さら
にフレームメモリ32aの出力は、圧縮演算部33aに
入力され、圧縮演算部33aの出力は、一旦フレームメ
モリ32aに戻ってから接続端子34aを介してフレー
ムメモリ35aに入力される。フレームメモリ35aの
出力は伸張演算部36aを介して、一旦フレームメモリ
35aに戻ってから補間演算部27aに入力される。
The output of the image sensor 24a is supplied to the A / D converter 2
The data is input to the frame memory 32a via the memory 5a. Further, the output of the frame memory 32a is input to the compression operation unit 33a, and the output of the compression operation unit 33a is once returned to the frame memory 32a and then input to the frame memory 35a via the connection terminal 34a. The output of the frame memory 35a is once returned to the frame memory 35a via the decompression operation unit 36a and then input to the interpolation operation unit 27a.

【0035】一方、撮像素子24bの出力は、A/D変
換部25bを介してフレームメモリ32bに入力され
る。フレームメモリ32bの出力は、圧縮演算部33b
に入力され、圧縮演算部33bの出力は、一旦フレーム
メモリ32bに戻ってから接続端子34bを介してフレ
ームメモリ35bに入力される。フレームメモリ35b
の出力は伸張演算部36bを介して、一旦フレームメモ
リ35bに戻ってから補間演算部27bに入力される。
On the other hand, the output of the image sensor 24b is input to the frame memory 32b via the A / D converter 25b. The output of the frame memory 32b is output to the compression
The output of the compression operation unit 33b is once returned to the frame memory 32b and then input to the frame memory 35b via the connection terminal 34b. Frame memory 35b
Is returned to the frame memory 35b via the decompression operation unit 36b and then input to the interpolation operation unit 27b.

【0036】補間演算部27a、27bの出力は、合成
演算部29を介してフレームメモリ30に入力される。
なお、補間演算部27a、27b、合成演算部29、圧
縮演算部33a、33b、伸張演算部36a、36bの
各機能は、単体のマイクロプロセッサやDSPあるいは
同等の機能を有するハードウェアによって実現される。
The outputs of the interpolation calculation units 27a and 27b are input to the frame memory 30 via the synthesis calculation unit 29.
Each function of the interpolation calculation units 27a and 27b, the synthesis calculation unit 29, the compression calculation units 33a and 33b, and the expansion calculation units 36a and 36b is realized by a single microprocessor, a DSP, or hardware having equivalent functions. .

【0037】また、請求項1に記載の発明と第2の実施
形態との対応関係については、請求項1に記載の発明と
第1の実施形態との対応関係と、同一の対応関係を有す
る。次に、第2の実施形態の動作を図8〜図10を用い
て説明する。なお、図9は、第2の実施形態の画像処理
を説明する図(1)であり、図10は、第2の実施形態
の画像処理を説明する図(2)である。
The correspondence between the invention described in claim 1 and the second embodiment has the same correspondence as the correspondence between the invention described in claim 1 and the first embodiment. . Next, the operation of the second embodiment will be described with reference to FIGS. FIG. 9 is a diagram (1) illustrating the image processing according to the second embodiment, and FIG. 10 is a diagram (2) illustrating the image processing according to the second embodiment.

【0038】撮影レンズ22を透過する光像は、プリズ
ム31に入射する。プリズム31内部の反射透過膜によ
って光像は反射光と透過光との2方向に分割される。撮
像素子24aには、ベイアー配列の色フィルタアレイが
取り付けられているので、その出力は、図9Aに示すよ
うにG信号(図中○印)が市松状に配列し、残りの部分
にR、B信号がさらに市松状に配列した形になる。
The light image transmitted through the taking lens 22 enters the prism 31. The light image is divided into two directions of reflected light and transmitted light by the reflection / transmission film inside the prism 31. Since a color filter array having a Bayer array is attached to the image sensor 24a, the output is such that G signals (indicated by a circle in the figure) are arranged in a checkered pattern as shown in FIG. The B signals are further arranged in a checkered pattern.

【0039】撮像素子24aの出力は、走査線毎にR信
号またはB信号のいずれかが得られる。したがって、A
/D変換部25aにおいて、走査線毎にR信号とB信号
との判別を行いつつ1画素毎サンプリングすることによ
り、撮像素子24aの出力はRGBの各信号に分離され
る。RGBの各信号は、フレームメモリ32aに各信号
毎に格納蓄積され、R信号からなるR画像、G信号から
なるG画像、B信号からなるB画像がそれぞれ生成され
る。
As the output of the image sensor 24a, either an R signal or a B signal is obtained for each scanning line. Therefore, A
In the / D converter 25a, the output of the image sensor 24a is separated into RGB signals by sampling each pixel while determining the R signal and the B signal for each scanning line. The RGB signals are stored and stored in the frame memory 32a for each signal, and an R image composed of an R signal, a G image composed of a G signal, and a B image composed of a B signal are generated.

【0040】R、G、Bの各画像は、圧縮演算部33a
において圧縮符号化され、再びフレームメモリ32aに
圧縮画像データとして格納蓄積される。さらに、R、
G、Bの圧縮画像データは接続端子34aおよびフレー
ムメモリ35aを介して、伸張演算部36aに転送さ
れ、伸張演算部36aにおいて伸張復号化される。
Each of the R, G, and B images is compressed by a compression operation unit 33a.
Are compressed and encoded and stored again as compressed image data in the frame memory 32a. Further, R,
The G and B compressed image data are transferred to the decompression operation unit 36a via the connection terminal 34a and the frame memory 35a, and are decompressed and decoded by the decompression operation unit 36a.

【0041】伸張された各画像データは、補間演算部2
7aにおいて画素補間される。その結果を図9Cに示
す。図中○印は撮像素子24aのG信号の画素出力であ
り、□印はその画素出力に基づいて補間された画素であ
る。なお、補間方法としては、例えば、画素出力(○
印)があるライン(ラインa)について画素補間し、次
に画素出力のないライン(ラインb)について画素補間
する。具体的には、○印の画素出力を内分して、同一ラ
イン上にある□印の画素を求めて、ラインaの画素補間
を行う。次に、画素補間された2列のラインaの各画素
に対して上下平均補間を適用して、ラインbの各画素を
求める。
Each of the expanded image data is supplied to an interpolation operation unit 2
Pixel interpolation is performed at 7a. The result is shown in FIG. 9C. In the figure, the mark ○ indicates the pixel output of the G signal of the image sensor 24a, and the mark □ indicates the pixel interpolated based on the pixel output. In addition, as an interpolation method, for example, a pixel output (○
The pixel interpolation is performed on a line (line a) having a mark (mark), and the pixel interpolation is performed on a line (line b) having no pixel output. Specifically, the pixel output of the mark “印” is internally divided, the pixels of the mark “□” on the same line are obtained, and the pixel interpolation of the line “a” is performed. Next, upper and lower average interpolation is applied to each pixel of the line a of the two columns in which the pixels are interpolated, thereby obtaining each pixel of the line b.

【0042】一方、撮像素子24bのG信号の画素出力
(図9Bの●印)についても、同様の処理を行い、●印
の画素出力を利用して×印の画素を求め、図9Dに示す
補間画像を作成する。画素補間された図9C、Dの2つ
の画像は、互いに空間位相が揃っているので、合成演算
部29は、対応する画素同士を順次加算(例えば、図中
の画素Aと画素Bとを加算して画素Cを生成する)して
G信号の合成画像(図9E)を作成する。
On the other hand, the same processing is performed for the pixel output of the G signal of the image pickup device 24b (marked by ● in FIG. 9B), and the pixel indicated by × is obtained by using the pixel output of mark ●, as shown in FIG. 9D. Create an interpolated image. Since the two images of FIGS. 9C and 9D in which the pixels are interpolated have the same spatial phase, the combining operation unit 29 sequentially adds the corresponding pixels (for example, adds the pixel A and the pixel B in the figure). To generate a pixel C) to create a composite image of the G signal (FIG. 9E).

【0043】G信号の合成画像は、フレームメモリ30
に逐次格納蓄積される。以上の画素の補間処理、加算処
理はG信号の画素だけでなく、R、B信号の画素に対し
ても同様に行う。R信号の画素に対しての補間処理、加
算処理について図10を用いて説明する。A/D変換部
25aは、撮像素子24aの画素出力(図10A)から
R信号の画素出力を分離し、R画像を生成する。補間演
算部27aは、そのR画像に対して画素補間を行う。そ
の結果を図10Cに示す。図10Cの“R“は、R信号
の画素出力であり、□印はその画素出力に基づいて補間
された画素である。
The composite image of the G signal is stored in the frame memory 30.
Are sequentially stored and stored. The above-described pixel interpolation processing and addition processing are performed not only on G signal pixels but also on R and B signal pixels. The interpolation processing and the addition processing for the pixels of the R signal will be described with reference to FIG. The A / D converter 25a separates the pixel output of the R signal from the pixel output (FIG. 10A) of the image sensor 24a, and generates an R image. The interpolation calculation unit 27a performs pixel interpolation on the R image. The result is shown in FIG. 10C. “R” in FIG. 10C is a pixel output of the R signal, and a square indicates a pixel interpolated based on the pixel output.

【0044】なお、補間方法としては、例えば、“R
“の画素出力を有するライン(ラインa)について画素
補間し、次に“R“の画素出力を有しないライン(ライ
ンb)について画素補間する。具体的には、ラインaの
“R“の画素出力を内分して、同一ライン上にある□印
の画素を補間し、ラインaの画素補間を行う。次に、画
素補間されたラインaから1〜3走査期間遅延したライ
ンbに、ラインaの画素をそのまま利用してラインbの
補間を行う。
As an interpolation method, for example, "R
Pixel interpolation is performed for a line having a pixel output of “line” (line a), and then pixel interpolation is performed for a line having no pixel output of “R” (line b). The output is internally divided, and the pixels marked with □ on the same line are interpolated to perform pixel interpolation on line a. The line b is interpolated using the pixel a as it is.

【0045】一方、補間演算部27bは、撮像素子24
bの画素出力(図10B)に対して同様に補間処理を行
う。その結果を図10Dに示す。図10Dの“R“は、
撮像素子24bからのR信号の画素出力であり、×印は
その画素出力に基づいて補間された画素である。画素補
間された図10C、Dの2つの画像は、互いに空間位相
が揃っているので、合成演算部29は、対応する画素同
士を順次加算(例えば、図中の画素Dと画素Eとを加
算)してR信号の合成画像を作成する。
On the other hand, the interpolation operation unit 27b
Interpolation processing is similarly performed on the pixel output b (FIG. 10B). The result is shown in FIG. 10D. “R” in FIG. 10D is
This is the pixel output of the R signal from the image sensor 24b, and the crosses are pixels interpolated based on the pixel output. Since the two images of FIG. 10C and D in which the pixels are interpolated have the same spatial phase, the combining operation unit 29 sequentially adds the corresponding pixels (for example, adds the pixel D and the pixel E in the figure). ) To create a composite image of the R signal.

【0046】R信号の合成画像は、逐次フレームメモリ
30に格納蓄積される。なお、B信号についても、R信
号と同様に補間処理、合成処理が行われ、B信号の合成
画像が作成される。このように、第2の実施形態の撮像
装置では、RGBそれぞれの合成画像を作成する前に補
間処理を行っている。このとき、1つの撮像素子の画素
出力のみで補間処理を行い、他の撮像素子の画素出力を
使用することがない。したがって、RGBの全ての画像
において、エッジ部分の偽信号の発生を防止することが
でき、RGBの画像を作成するカラー画像の撮像には一
層好適である。
The composite image of the R signal is sequentially stored in the frame memory 30. Note that the B signal is also subjected to interpolation processing and synthesis processing in the same manner as the R signal, and a synthesized image of the B signal is created. As described above, in the imaging apparatus according to the second embodiment, the interpolation processing is performed before creating the combined images of RGB. At this time, the interpolation process is performed only with the pixel output of one image sensor, and the pixel output of another image sensor is not used. Therefore, it is possible to prevent the generation of a false signal at the edge portion in all of the RGB images, which is more suitable for capturing a color image for creating an RGB image.

【0047】また、第2の実施形態では、圧縮演算部3
3a、33b、伸張演算部36a、36bを備えている
ので、フレームメモリに画像を有効的に格納蓄積するこ
とができる。なお、この第2の実施形態のように圧縮伸
張を行ってから補間演算、合成演算を行う構成は、第1
の実施形態のような単一色画像の撮像装置にも当然適用
することができる。
In the second embodiment, the compression operation unit 3
3a and 33b and the decompression operation units 36a and 36b, images can be effectively stored and accumulated in the frame memory. Note that, as in the second embodiment, the configuration in which the compression and decompression are performed and then the interpolation calculation and the combination calculation are performed is the first configuration.
Naturally, the present invention can also be applied to a single-color image pickup device as in the embodiment.

【0048】さらに、第2の実施形態では、接続端子3
4a、34bを有しているので、カメラ部と画像処理部
とに分離することができる。特に、画像処理などはパソ
コンなどの外部装置で行ってもよい。
Further, in the second embodiment, the connection terminals 3
4a and 34b, it can be separated into a camera unit and an image processing unit. In particular, image processing and the like may be performed by an external device such as a personal computer.

【0049】(第3の実施形態)第3の実施形態は、2
板で同色画素の配置が異なる撮像装置であり、構成上の
特徴点は、図8の撮像素子24aに張り付ける色フィル
タが異なるだけで、その他の構成要素については、第2
の実施形態の撮像装置と同一である。撮像素子24aの
撮像面には、緑の色フィルタが張り付けられている。こ
のときの画素出力を図11Aに示す。なお、図中○印が
G信号の画素出力である。
(Third Embodiment) In the third embodiment,
This is an imaging device in which the same color pixels are arranged differently on a plate. The feature of the configuration is that only a color filter to be attached to the imaging device 24a in FIG. 8 is different.
This is the same as the imaging device of the embodiment. A green color filter is attached to the imaging surface of the imaging element 24a. FIG. 11A shows the pixel output at this time. It should be noted that in the figure, a circle indicates the pixel output of the G signal.

【0050】この画像に対して補間演算部27aが補間
処理を施すが、この補間処理についての説明は、第1の
実施形態で述べており、ここではその説明を省略する。
補間処理の結果を図Cに示す。なお、図中□印は、○印
の画素出力に基づいて補間された画素である。一方、撮
像素子24bには、ベイアー配列の色フィルタアレイが
取り付けられており、図11Bには、このときの画素出
力が示される。なお、図中●印がG信号の画素出力にな
る。
The interpolation operation section 27a performs an interpolation process on this image. The interpolation process has been described in the first embodiment, and a description thereof will be omitted.
The result of the interpolation process is shown in FIG. In the figure, the squares are pixels interpolated based on the pixel outputs of the circles. On the other hand, a color filter array having a Bayer array is attached to the image sensor 24b, and FIG. 11B shows a pixel output at this time. In the drawing, the mark ● indicates the pixel output of the G signal.

【0051】A/D変換部25bにおいてG信号だけが
分離されてG画像が生成され、補間演算部27bにおい
て画素補間が行われる。なお、この補間処理の説明につ
いては、第2の実施形態で述べており、ここではその説
明を省略する。補間処理の結果を図11Dに示す。な
お、図中×印は、●印の画素出力に基づいて補間された
画素である。
The A / D converter 25b separates only the G signal to generate a G image, and the interpolation calculator 27b performs pixel interpolation. Note that the description of the interpolation processing has been described in the second embodiment, and a description thereof will be omitted here. FIG. 11D shows the result of the interpolation processing. Note that in the figure, the crosses are pixels interpolated based on the pixel outputs of the black circles.

【0052】画素補間された図11C、Dの2つのG画
像は、互いに空間位相が揃っているので、合成演算部2
9は、対応する画素同士を順次加算して(例えば、図中
の画素Aと画素Bとを加算して画素Cを生成する)、合
成画像(図11E)を作成する。この第3の実施形態の
効果については、第1、第2の実施形態と同様の効果を
有する。
Since the two G images of FIGS. 11C and 11D in which the pixels have been interpolated have the same spatial phase with each other,
No. 9 sequentially adds corresponding pixels (for example, adds a pixel A and a pixel B in the figure to generate a pixel C) and creates a composite image (FIG. 11E). The effects of the third embodiment are the same as those of the first and second embodiments.

【0053】なお、本実施形態では、撮像素子を相互に
縦横に1/2画素ずらしたが、誤差補正を行える範囲な
ら厳密な1/2画素ずれに限定されるものではない。さ
らに、本実施形態では、2板式の撮像装置について説明
したが、それに限定されず、3板式の撮像装置において
1/3画素ずらしを行って撮像する撮像装置についても
本発明を適用することができる。
In this embodiment, the image sensors are vertically and horizontally shifted from each other by 1/2 pixel. However, the present invention is not limited to a strict 1/2 pixel shift as long as error correction can be performed. Further, in the present embodiment, the description has been given of the two-chip type imaging device. However, the present invention is not limited thereto, and the present invention can also be applied to an imaging device which performs imaging by performing a 1/3 pixel shift in a three-plate type imaging device. .

【0054】また、本実施形態で行った補間処理は一例
であり、これに限定されるものではない。さらに、画素
ずらしの方向も縦横の2方向にずらしたが、それに限定
されず、横(水平)方向または縦(垂直)方向だけの1
方向でもよい。また、光分割手段は、本実施形態のプリ
ズムに限定されるものではなく、ハーフミラーの特性を
有する光学系ならばその形状、構造は問わない。
The interpolation processing performed in this embodiment is an example, and the present invention is not limited to this. Further, the pixel shifting direction is also shifted in the vertical and horizontal directions, but is not limited thereto.
Direction. Further, the light splitting means is not limited to the prism of the present embodiment, and its shape and structure are not limited as long as the optical system has the characteristics of a half mirror.

【0055】さらに、第2、第3の実施形態では、単板
でカラー画像を撮像するために、ベイアー配列の色フィ
ルタアレイを使用したが、それに限定されず、インタラ
イン配列、ストライプ配列の色フィルタアレイを使用し
てもよい。
Further, in the second and third embodiments, a color filter array having a Bayer array is used to capture a color image with a single plate. However, the present invention is not limited to this. A filter array may be used.

【0056】[0056]

【発明の効果】請求項1に記載の撮像装置では、画像情
報の画素補間を、その画像情報の画素だけで補間処理し
ている。したがって、他の撮像素子の画素出力を利用す
ることなく画素補間するので、エッジ部分の偽信号の発
生を回避することができ、モザイク状の歪みがない画像
を得ることができる。
According to the first aspect of the present invention, the pixel interpolation of the image information is performed only by the pixels of the image information. Therefore, since pixel interpolation is performed without using the pixel output of another image sensor, generation of a false signal at an edge portion can be avoided, and an image without mosaic distortion can be obtained.

【0057】さらに、合成画像を構成する全ての画素
は、加算処理の結果生成されているので、画素加算時に
熱雑音のようなランダム雑音をより確実に低減すること
ができ、S/Nの向上を図ることができる。このように
本発明を適用した撮像装置では、エッジ部分の偽信号の
発生自体を防止することができるので、偽信号を除去す
る構成を省略することができ、高画質高精細の撮像装置
を実現することができる。
Further, since all the pixels constituting the composite image are generated as a result of the addition processing, random noise such as thermal noise can be more reliably reduced at the time of pixel addition, and the S / N can be improved. Can be achieved. As described above, in the imaging apparatus to which the present invention is applied, the generation itself of the false signal at the edge portion can be prevented, so that the configuration for removing the false signal can be omitted, and a high-quality and high-definition imaging apparatus can be realized. can do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1に記載の発明の原理ブロック図であ
る。
FIG. 1 is a principle block diagram of the invention according to claim 1;

【図2】請求項1に記載の発明の動作について説明する
図である。
FIG. 2 is a diagram for explaining the operation of the invention described in claim 1;

【図3】第1の実施形態の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of a first embodiment.

【図4】第1の実施形態の動作を説明する流れ図であ
る。
FIG. 4 is a flowchart illustrating the operation of the first embodiment.

【図5】第1の実施形態の画像処理を説明する図(1)
である。
FIG. 5 is a diagram (1) for explaining image processing according to the first embodiment;
It is.

【図6】第1の実施形態の画像処理を説明する図(2)
である。
FIG. 6 is a diagram (2) illustrating image processing according to the first embodiment;
It is.

【図7】補間処理を説明する図である。FIG. 7 is a diagram illustrating an interpolation process.

【図8】第2の実施形態の構成を示す図である。FIG. 8 is a diagram illustrating a configuration of a second embodiment.

【図9】第2の実施形態の画像処理を説明する図(1)
である。
FIG. 9 is a view for explaining image processing according to the second embodiment (1).
It is.

【図10】第2の実施形態の画像処理を説明する図
(2)である。
FIG. 10 is a diagram (2) illustrating image processing according to the second embodiment.

【図11】第3の実施形態の画像処理を説明する図であ
る。
FIG. 11 is a diagram illustrating image processing according to a third embodiment.

【図12】従来の撮像装置を説明する図である。FIG. 12 is a diagram illustrating a conventional imaging device.

【図13】空間画素ずらし法について説明する図であ
る。
FIG. 13 is a diagram illustrating a spatial pixel shifting method.

【図14】課題について説明する図(1)である。FIG. 14 is a diagram (1) illustrating a problem;

【図15】課題について説明する図(2)である。FIG. 15 is a diagram (2) illustrating a problem.

【符号の説明】[Explanation of symbols]

1 撮像手段 2 補間手段 3 画像合成手段 21 撮像装置 22、51 撮影レンズ 23、31 プリズム 24a、24b 撮像素子 25a、25b A/D変換部 26a、26b、28a、28b、30、32a、32
b、35a、35bフレームメモリ 27a、27b 補間演算部 29 合成演算部 33a、33b 圧縮演算部 34a、34b 接続端子 36a、36b 伸張演算部 52 ダイクロイックプリズム 52a 色フィルタアレイ 53a RB用撮像素子 53b、53c G用撮像素子 54 信号処理回路
Reference Signs List 1 imaging means 2 interpolation means 3 image synthesizing means 21 imaging device 22, 51 imaging lens 23, 31 prism 24a, 24b imaging element 25a, 25b A / D conversion unit 26a, 26b, 28a, 28b, 30, 32a, 32
b, 35a, 35b Frame memory 27a, 27b Interpolation operation unit 29 Compositing operation unit 33a, 33b Compression operation unit 34a, 34b Connection terminal 36a, 36b Decompression operation unit 52 Dichroic prism 52a Color filter array 53a Image sensor for RB 53b, 53c G Image sensor 54 signal processing circuit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮像光学系および光分割手段を介してそ
れぞれの受光面に分割形成される光像を個別に光電変換
して画像情報を生成し、かつ該受光面に沿った方向に相
互にずれて配置される複数の撮像手段を有して空間画素
ずらし法による撮像を行う撮像装置において、 前記撮像手段各々により生成される画像情報について画
素補間し、画像情報間の空間位相を合わせる補間手段
と、 前記補間手段により画素補間された画像情報毎に対応す
る画素出力を加算して、合成画像を作成する画像合成手
段とを備えたことを特徴とする撮像装置。
1. An optical system according to claim 1, wherein the light images divided and formed on the respective light receiving surfaces are individually photoelectrically converted through an imaging optical system and a light splitting unit to generate image information, and mutually reciprocate in a direction along the light receiving surfaces. An image pickup apparatus having a plurality of image pickup units arranged in a shifted manner and performing image pickup by a spatial pixel shift method, wherein an interpolation unit that interpolates pixels of image information generated by each of the image pickup units and matches a spatial phase between the image information. And an image synthesizing means for adding a pixel output corresponding to each piece of image information interpolated by the interpolation means to create a synthesized image.
JP9050132A 1997-03-05 1997-03-05 Image pickup device Pending JPH10248069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9050132A JPH10248069A (en) 1997-03-05 1997-03-05 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9050132A JPH10248069A (en) 1997-03-05 1997-03-05 Image pickup device

Publications (1)

Publication Number Publication Date
JPH10248069A true JPH10248069A (en) 1998-09-14

Family

ID=12850625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9050132A Pending JPH10248069A (en) 1997-03-05 1997-03-05 Image pickup device

Country Status (1)

Country Link
JP (1) JPH10248069A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070010A (en) * 2001-08-24 2003-03-07 Nikon Corp Two-plate image capture device
US6906748B1 (en) 1999-08-24 2005-06-14 Olympus Optical Co., Ltd. Electronic camera
JP2007167589A (en) * 2005-12-26 2007-07-05 Daikoku Denki Co Ltd Game machine
JP2019161564A (en) * 2018-03-16 2019-09-19 株式会社リコー Image processing apparatus, image processing method, image processing program, photographing apparatus, photographing method, and photographing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6906748B1 (en) 1999-08-24 2005-06-14 Olympus Optical Co., Ltd. Electronic camera
JP2003070010A (en) * 2001-08-24 2003-03-07 Nikon Corp Two-plate image capture device
JP2007167589A (en) * 2005-12-26 2007-07-05 Daikoku Denki Co Ltd Game machine
JP2019161564A (en) * 2018-03-16 2019-09-19 株式会社リコー Image processing apparatus, image processing method, image processing program, photographing apparatus, photographing method, and photographing program

Similar Documents

Publication Publication Date Title
JP5053654B2 (en) Image processing apparatus and method and electronic camera
US6847397B1 (en) Solid-state image sensor having pixels shifted and complementary-color filter and signal processing method therefor
JP3164481B2 (en) Imaging device
US7973831B2 (en) Solid-state image sensor and imaging apparatus using the same
JP5036421B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
WO2006137419A1 (en) Image processing device and method, imaging device, and computer program
US5579047A (en) Image signal processing apparatus using color filters and an image pick-up device providing interlaced field signals
JP4796871B2 (en) Imaging device
US7236194B2 (en) Image signal processing apparatus
JP2000184386A (en) Solid-state image pickup device and signal processing method
JP5159461B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JPH10248069A (en) Image pickup device
JPH03145295A (en) Color integrating video recorder
JP2001036809A (en) Solid-state image pickup device and image processing method
JP3909930B2 (en) Single plate color solid-state imaging device
JP3728075B2 (en) Imaging method and imaging apparatus
JP3344202B2 (en) Image signal processing device
JP2017175500A (en) Color image pickup method, color image interpolation processing method, and imaging apparatus
JP3024370B2 (en) Imaging device with horizontal line interpolation function
JP2002010142A (en) Image pickup device
JP3406674B2 (en) Two-chip imaging device
JP2022122350A (en) Imaging apparatus and control method of imaging apparatus
JPH08256345A (en) Image pickup device and image signal processor
JPH1127685A (en) Image pickup device
JP2002159016A (en) Image pickup device