JPH1155682A - Digital camera - Google Patents

Digital camera

Info

Publication number
JPH1155682A
JPH1155682A JP9212128A JP21212897A JPH1155682A JP H1155682 A JPH1155682 A JP H1155682A JP 9212128 A JP9212128 A JP 9212128A JP 21212897 A JP21212897 A JP 21212897A JP H1155682 A JPH1155682 A JP H1155682A
Authority
JP
Japan
Prior art keywords
image
image data
boundary
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9212128A
Other languages
Japanese (ja)
Inventor
Noriyuki Nobuyuki
宣之 沖須
Shinichi Fujii
真一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP9212128A priority Critical patent/JPH1155682A/en
Priority to US09/130,141 priority patent/US6571022B2/en
Publication of JPH1155682A publication Critical patent/JPH1155682A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent production of a false color in a paste processing of plural partial images. SOLUTION: A subject is photographed while being divided horizontally in a way that a border is duplicated by two single board color CCDs 12, 13. Both the photographed images are stored in an image memory 193 via an analog signal processing circuit 191 and an A/D converter section 192 for each color component. A shading correction section 194 corrects dispersion in the sensitivity distribution in a photographed image and an image data interpolation section 195 supplements image data at a pixel position of deficient data through interpolation processing and an image synthesis section 196 pastes borders to generate the photographed image of the entire object. The interpolation processing of partial image data of each color component is conducted before paste processing of the partial image to prevent production of a false color resulting from a sensitivity difference of the CCDs 12, 13 at synthesis processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を複数のブ
ロックに分割し、各ブロックを複数の撮像素子で撮像し
た後、各撮像画像を画像処理で合成して被写体全体に対
する撮像画像を生成するデジタルカメラに関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides a subject into a plurality of blocks, captures each block with a plurality of image sensors, and combines the captured images by image processing to generate a captured image of the entire subject. It concerns digital cameras.

【0002】[0002]

【従来の技術】従来、CCD等の固体撮像素子を用いた
デジタルビデオカメラやデジタルスチルカメラ等の撮像
装置においては、例えば特開平5−137059号公報
や特開平6−141246号公報に示されるように、複
数のCCDを用いて被写体をそれぞれ部分的に撮像し、
画像処理においてそれらの部分画像を合成して被写体全
体の撮像画像を得ることにより解像度を高める方法が知
られている。
2. Description of the Related Art Conventionally, an image pickup apparatus such as a digital video camera or a digital still camera using a solid-state image pickup device such as a CCD is disclosed in, for example, JP-A-5-137059 and JP-A-6-141246. Then, the subject is partially imaged using a plurality of CCDs,
There has been known a method of increasing the resolution by synthesizing those partial images in image processing to obtain a captured image of the entire subject.

【0003】また、特開平3−74991号公報には、
画像情報を分割して読み取るべく複数の撮像素子を設
け、隣接する撮像素子の撮像範囲を境界部分で重複さ
せ、両撮像素子の撮像画像を境界部分で貼り合わせて画
像情報全体の画像を得る画像読取装置において、構成す
る画像データの中から近接画素との間の空間的な濃度変
化の小さい画素位置を検出し、その画素位置で一方の撮
像素子の撮像画像と他方の撮像素子の撮像画像とを貼り
合わせるようにした画像読取装置が示されている。
[0003] Japanese Patent Application Laid-Open No. 3-79991 discloses that
An image in which a plurality of image sensors are provided to divide and read image information, an image pickup range of an adjacent image sensor is overlapped at a boundary portion, and images captured by both image sensors are stuck at the boundary portion to obtain an image of the entire image information. In the reading device, a pixel position having a small spatial density change between adjacent pixels is detected from the image data to be formed, and an image captured by one image sensor and an image captured by the other image sensor are detected at the pixel position. Is shown in the figure.

【0004】[0004]

【発明が解決しようとする課題】ところで、複数の撮像
素子を用いて撮像画面の画素密度を高めるようにしたデ
ジタルカメラにおいて、撮像素子として単板式カラー撮
像素子を用いた場合は、カラー撮像素子から出力される
各色成分の画像を構成する画像データは互いに異なる画
素位置の画素データで構成され、しかもカラー撮像素子
の種類によっては、色成分相互の画素密度も異なるもの
となっているため、CRT(Cathode RayTube)やLC
D(Liquid Crystal Display)等の表示装置に表示させ
たり、プリンタで出力させるために、各色成分毎に画像
データの不足している画素位置の画像データを補充する
補間処理が必要となる。
By the way, in a digital camera in which the pixel density of an image pickup screen is increased by using a plurality of image pickup devices, when a single-plate type color image pickup device is used as the image pickup device, the color image pickup device is not used. The image data constituting the output image of each color component is composed of pixel data at different pixel positions, and depending on the type of the color image sensor, the pixel density of the color components is also different. Cathode RayTube) or LC
In order to display the image data on a display device such as a D (Liquid Crystal Display) or to output the image data using a printer, an interpolation process for supplementing image data at a pixel position where image data is insufficient for each color component is required.

【0005】この場合、撮像画像の画像処理手順として
各色成分毎に複数の撮像画像(部分撮像画像)を貼り合
わせて被写体全体の撮像画像を生成した後、その撮像画
像に対して画像データの補間処理を行うと、画像の貼合
処理の迅速化は図れるものの、以下に説明するように貼
り合わせ後の画像の貼合部分に偽色が生じるおそれがあ
る。
In this case, as an image processing procedure of a captured image, a plurality of captured images (partial captured images) are attached to each color component to generate a captured image of the entire subject, and interpolation of image data is performed on the captured image. When the processing is performed, the image bonding process can be sped up, but a false color may be generated in a bonded portion of the image after bonding as described below.

【0006】例えば撮影画面を左右に二分割して左右の
被写体をそれぞれ2枚の単板式カラーCCDで撮像する
構成において、被写体の分割される境界部分は無彩色の
均一輝度を有しているが、両CCDに感度差がある場合
(左側CCDの感度が右側CCDの感度より高い場合)
を例に説明する。左側の撮像画像の境界部分のR
(赤),G(緑),B(青)の各色成分の信号レベルを
R1,G1,B1とし、右側の撮像画像の境界部分のR
(赤),G(緑),B(青)の各色成分の信号レベルを
R2,G2,B2とし、R1=G1=B1=D1、R2
=G2=B2=D2、D2<D1とする。
For example, in a configuration in which the photographing screen is divided into two parts, the left and right objects are each imaged by two single-plate color CCDs, the boundary part of the divided objects has achromatic uniform luminance. , When there is a sensitivity difference between the two CCDs (when the sensitivity of the left CCD is higher than the sensitivity of the right CCD)
Will be described as an example. R at the boundary of the captured image on the left
(Red), G (green), and B (blue) signal levels are denoted by R1, G1, and B1, and R1 at the boundary of the right-side captured image
The signal levels of the (red), G (green), and B (blue) color components are R2, G2, and B2, and R1 = G1 = B1 = D1, R2
= G2 = B2 = D2, and D2 <D1.

【0007】貼り合わせ後の画像の境界部分の濃度段差
を目立たなくするため、左右の撮像画像の境界部分を構
成する画像データを各画素位置に交互に混合配置して貼
合用の境界部分の画像を生成し、この境界部分の画像と
左右の撮像画像の境界部分を除く画像とを合成して被写
体全体の撮像画像を生成するものとすれば、貼合用の境
界部分の画像は、信号レベルの異なる2つの境界部分を
構成する画像データを各画素位置に交互に混合配置して
生成されるので、例えばカラーCCDがベイヤー方式の
単板式カラーCCDの場合にはGの色成分の画像データ
の信号レベルがD1となるのに対してR,Bの色成分の
画像データの信号レベルがD2(<D1)となり、本
来、無彩色であった境界部分に偽色が発生することにな
る。
[0007] In order to make the density step at the boundary of the bonded image inconspicuous, the image data constituting the boundary between the left and right picked-up images is alternately mixed and arranged at each pixel position to form the boundary for bonding. If an image is generated and the image of the boundary portion and the image excluding the boundary portion of the left and right captured images are combined to generate a captured image of the entire subject, the image of the boundary portion for bonding is a signal Since image data forming two boundary portions having different levels are generated by alternately mixing and arranging them at respective pixel positions, for example, when the color CCD is a single-panel color CCD of the Bayer type, image data of the G color component Is D1, while the signal level of the image data of the R and B color components is D2 (<D1), and a false color is generated at the border portion which was originally achromatic.

【0008】上記公報には、複数の撮像素子により被写
体を複数のブロックに分割して部分的に撮像し、これら
の部分画像を貼り合わせて被写体全体の撮像画像を得る
技術は開示されているが、複数の撮像素子を単板式カラ
ー撮像素子で構成した場合の上記課題やその解決方法に
ついては何ら開示されていない。
The above-mentioned publication discloses a technique in which a subject is divided into a plurality of blocks by a plurality of image pickup elements and a part of the image is captured, and these partial images are attached to obtain a captured image of the entire subject. However, there is no disclosure of the above-described problem in the case where a plurality of image pickup devices are formed of a single-plate type color image pickup device and a method of solving the problem.

【0009】本発明は、上記課題に課題に鑑みてなされ
たものであり、貼合処理により偽色が発生して撮像画像
の画質が劣化することのないデジタルカメラを提供する
ものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a digital camera in which a false color does not occur due to a bonding process and the image quality of a captured image is not deteriorated.

【0010】[0010]

【課題を解決するための手段】本発明は、被写体光像を
境界部分が互いに重複するように複数の部分光像に分割
し、各部分光像を複数のカラー撮像手段でそれぞれ撮像
した後、各色成分毎に撮像画像を上記境界部分で貼り合
わせて被写体光像全体の撮像画像を生成するデジタルカ
メラにおいて、上記カラー撮像手段は、撮像面に所定の
位置関係で3原色の色フィルタが配置されてなる単板式
カラー撮像手段からなり、上記カラー撮像手段から出力
される画像データを用いて補間処理により各色成分の撮
像画像の不足する画素位置の画像データを補充する画像
データ補間手段と、上記各色成分の撮像画像の補間処理
の後、上記撮像画像の貼合処理を行う画像処理制御手段
とを備えたものである(請求項1)。
According to the present invention, a subject light image is divided into a plurality of partial light images such that boundaries are overlapped with each other, and each partial light image is picked up by a plurality of color image pickup means. In a digital camera that generates a captured image of the entire subject light image by bonding captured images at the boundary portions for each color component, the color imaging unit includes three primary color filters arranged in a predetermined positional relationship on an imaging surface. Image data interpolating means for supplementing image data at a pixel position where a captured image of each color component is insufficient by interpolation processing using image data output from the color image capturing means; An image processing control means for performing a bonding process of the captured images after the interpolation process of the captured images of the components (claim 1).

【0011】上記構成によれば、被写体光像が境界部分
が重複するように複数の部分光像に分割され、各部分光
像は、単板式カラー撮像手段によりそれぞれ3色の色成
分に分離され、かつ、光電変換されて取り込まれる。各
色成分の撮像画像は、カラー撮像手段から出力される3
色の色成分の画像データを用いて補間処理により不足す
る画素位置の画像データが補充される。そして、補間処
理後の複数の部分画像を境界部分で貼り合わせて被写体
光像全体の撮像画像が生成される。すなわち、複数の部
分画像のうち、境界部分を構成する画像を用いて、各色
成分毎に当該境界を挟む2つの部分画像の濃度差を低減
した合成用の境界部分の画像が生成され、更にこの合成
用の境界部分の画像と複数の部分画像のうち、境界部分
を除く画像とを合成して(貼り合わせて)被写体全体に
対する撮像画像が生成される。
According to the above arrangement, the subject light image is divided into a plurality of partial light images such that the boundary portions overlap, and each of the partial light images is separated into three color components by the single-plate color imaging means. And are photoelectrically converted and captured. A captured image of each color component is output from a color imaging unit.
Using the image data of the color component of the color, the image data at the insufficient pixel position is supplemented by the interpolation processing. Then, the plurality of partial images after the interpolation processing are pasted together at the boundary portion to generate a captured image of the entire subject light image. That is, of the plurality of partial images, using the image forming the boundary portion, an image of the boundary portion for synthesis in which the density difference between the two partial images sandwiching the boundary is reduced for each color component is generated. An image of the entire subject is generated by synthesizing (combining) the image of the synthesizing boundary portion and the image excluding the boundary portion among the plurality of partial images.

【0012】[0012]

【発明の実施の形態】図1は、本発明に係るデジタルカ
メラの一の実施の形態の外観を示す斜視図、図2は、同
デジタルカメラ内に設けられた撮像光学系の概略構成を
示す図である。
FIG. 1 is a perspective view showing an appearance of a digital camera according to an embodiment of the present invention, and FIG. 2 shows a schematic configuration of an image pickup optical system provided in the digital camera. FIG.

【0013】同図において、デジタルカメラ1は、前面
の略中央にズームレンズからなる撮影レンズ2が配設さ
れ、その上部にアクティブ測距方式により被写体距離を
測定するための投光窓4と受光窓5とが配設され、両窓
の間に被写体の輝度を測定するための測光窓3が配設さ
れている。また、投光窓4の左側にファインダー対物窓
6が配設されている。
In FIG. 1, a digital camera 1 is provided with a photographing lens 2 composed of a zoom lens substantially at the center of the front surface, and a light projecting window 4 for measuring a subject distance by an active distance measuring method, and a light receiving window above the photographing lens 2. A window 5 is provided, and a photometric window 3 for measuring the brightness of the subject is provided between the two windows. Further, a finder objective window 6 is provided on the left side of the light projecting window 4.

【0014】投光窓4は、被写体に対して赤外光を照射
する窓であり、受光窓5は、この赤外光の被写体からの
反射光を受光する窓である。なお、本実施の形態では測
距方式としてアクティブ測距方式を採用しているが、パ
ッシブ測距方式でもよい。
The light projecting window 4 is a window for irradiating the subject with infrared light, and the light receiving window 5 is a window for receiving the reflected light of the infrared light from the subject. In the present embodiment, the active distance measuring method is adopted as the distance measuring method, but a passive distance measuring method may be used.

【0015】デジタルカメラ1の側面にはハードディス
クカード10(以下、HDカード10と略称する。)が
装着脱されるカード挿入口7が設けられ、このカード挿
入口7の上部にHDカード10をイジェクトするための
カード取出ボタン9が設けられている。また、デジタル
カメラ1の上面の左端部にシャッタボタン9が設けられ
ている。
On the side of the digital camera 1, there is provided a card insertion slot 7 into which a hard disk card 10 (hereinafter, abbreviated as HD card 10) is inserted and removed, and the HD card 10 is ejected above the card insertion slot 7. A card removal button 9 for performing the operation is provided. A shutter button 9 is provided at the left end of the upper surface of the digital camera 1.

【0016】撮影結果をプリントアウトする場合、カー
ド取出ボタン9を押してHDカード10をデジタルカメ
ラ1から取り外し、HDカード10が装着可能なプリン
タにこのHDカード10を装着してプリントアウトする
ことができる。
When printing out the photographed result, the card removal button 9 is pressed to remove the HD card 10 from the digital camera 1, and the HD card 10 can be mounted on a printer to which the HD card 10 can be mounted and printed out. .

【0017】なお、デジタルカメラ1にSCSIケーブ
ルのインターフェースを設け、デジタルカメラ1とプリ
ンタとをSCSIケーブルで接続し、デジタルカメラ1
からプリンタに画像データを転送して直接、撮影画像を
プリントアウトさせるようにしてもよい。
The digital camera 1 is provided with a SCSI cable interface, and the digital camera 1 and the printer are connected by a SCSI cable.
, The image data may be transferred to a printer and the photographed image may be printed out directly.

【0018】また、本実施の形態では画像データの記録
媒体としてPCMCIA準拠のハードディスクカードを
採用しているが、撮影結果を画像データとして記憶でき
るものであれば、メモリカードやミニディスク(MD)
等の他の記録媒体でもよい。
In this embodiment, a hard disk card conforming to PCMCIA is adopted as a recording medium for image data. However, if a photographing result can be stored as image data, a memory card or a mini disk (MD) is used.
And other recording media.

【0019】カメラ本体の撮影レンズ2の後方位置に
は、図2に示すように、例えばプリズム等で構成された
光路分離部11と一対のCCDカラーエリアセンサで構
成されたカラー撮像素子12,13とからなる撮像光学
系が配設されている。
As shown in FIG. 2, at the position behind the taking lens 2 of the camera body, an optical path separating section 11 composed of, for example, a prism and a color image pickup element 12, 13 composed of a pair of CCD color area sensors. And an imaging optical system comprising:

【0020】撮像光学系は、図3に示すように、横長長
方形状の撮影画面を有しているが、この撮影画面内の被
写体光像Aは、左半分の光像A1の右端部と右半分の光
像A2の左端部とに境界部分Cが含まれるように、光路
分離部11により横方向に二分され、左半分の光像A1
はCCD12で撮像され、右半分の光像A2はCCD1
3で撮像されるようになっている。そして、両CCD1
2,13で撮像された画像の境界部分Cの画像を画像処
理で貼り合わせることにより被写体光像Aに対する撮像
画像を得る(すなわち、撮影画面内の被写体全体を撮像
する)ようにしている。
As shown in FIG. 3, the image pickup optical system has a horizontally long rectangular photographing screen. The subject light image A in this photographing screen has a right end portion of the left half light image A1 and a right end portion. The optical path separating unit 11 divides the light image A1 into two in the horizontal direction such that the boundary C is included in the left end of the light image A2 of the half.
Is captured by the CCD 12, and the right half light image A2 is
3 is taken. And both CCD1
The image of the boundary portion C of the images captured by the images 2 and 13 is combined by image processing to obtain a captured image of the subject light image A (that is, to capture the entire subject in the shooting screen).

【0021】従って、図4に示すように、被写体光像A
に対する撮像面(横長の撮像面)Sを構成する画素数を
M(縦)×(2N−W)(横)とし、境界部分Cの横方
向の画素数をWとすると、CCD12,13の各撮像面
S1,S2を構成する画素数は、M(縦)×N(横)と
なっている。
Therefore, as shown in FIG.
If the number of pixels constituting the imaging surface (horizontal imaging surface) S with respect to is defined as M (vertical) × (2N−W) (horizontal) and the number of pixels in the horizontal direction of the boundary portion C is defined as W, each of the CCDs 12 and 13 The number of pixels constituting the imaging surfaces S1 and S2 is M (vertical) × N (horizontal).

【0022】また、CCD12,13は、ベイヤー方式
の単板式カラーCCDからなり、撮像面の各画素位置に
は、図5に示す色配列でR,G,Bの各色フィルタが設
けられている。なお、図5に示す色配列は、R(赤)及
びB(青)とG(緑)とを市松模様状に配列したもの
で、画素位置を(i行(i=1,2,…M),j列(j=1,2,…
N))で表すと、奇数行/偶数列の交差位置(2ζ+
1,2ξ+2)及び偶数行/奇数列の交差位置(2ζ+
2,2ξ+1)(ζ=0,1,2,…M/2、ξ=0,1,2,…N/
2)にはGの色フィルタが配列され、奇数行/奇数列の
交差位置(2ζ+1,2ξ+1)にはRの色フィルタが
配列され、偶数行/偶数列の交差位置(2ζ+2,2ξ
+2)にはBの色フィルタが配列されている。
The CCDs 12 and 13 are single-panel color CCDs of the Bayer type, and R, G, and B color filters having the color arrangement shown in FIG. 5 are provided at each pixel position on the imaging surface. The color arrangement shown in FIG. 5 is an arrangement in which R (red), B (blue) and G (green) are arranged in a checkered pattern, and the pixel position is (i row (i = 1, 2,... M ), J columns (j = 1,2, ...
N)), the intersection of odd rows / even columns (2ζ +
1,2ξ + 2) and the intersection position of even rows / odd columns (2ζ +
2,2ξ + 1) (ζ = 0,1,2, ... M / 2, ξ = 0,1,2, ... N /
2), a G color filter is arranged, and an R color filter is arranged at an odd row / odd column intersection position (2ζ + 1, 2 + 1), and an even row / even column intersection position (2ζ + 2, 2ξ).
At +2), B color filters are arranged.

【0023】更に、各画素位置には、図6及び図7に示
すように、凸レンズからなるマイクロレンズ14が設け
られている。このマイクロレンズ14は、各画素の受光
感度を高めるために光束を集光するものである。
Further, as shown in FIGS. 6 and 7, a micro lens 14 composed of a convex lens is provided at each pixel position. The microlenses 14 condense a light beam in order to increase the light receiving sensitivity of each pixel.

【0024】図8は、本発明に係るデジタルカメラのブ
ロック構成図である。同図において、図1,図2に示し
た部材と同一の部材には同一番号を付している。また、
絞り15は、撮影レンズ2内に設けられた光量調節部材
である。レンズ駆動制御部16は、撮影レンズ2内のフ
ォーカシングレンズ(図略)を駆動して焦点の自動調節
を行うものである。上記フォーカシングレンズは、例え
ば撮影レンズ2の前端部に光軸方向に移動可能に設けら
れ、電動モータ(図略)の駆動力より移動する。レンズ
駆動制御部16は、カメラの撮影動作を集中制御する制
御部25から入力されるAF制御値に基づき電動モータ
の駆動を制御して撮影レンズ2の焦点調節を自動的に行
う。
FIG. 8 is a block diagram of a digital camera according to the present invention. In the figure, the same members as those shown in FIGS. 1 and 2 are denoted by the same reference numerals. Also,
The diaphragm 15 is a light amount adjusting member provided in the photographing lens 2. The lens drive control section 16 drives a focusing lens (not shown) in the photographing lens 2 to perform automatic focus adjustment. The focusing lens is provided, for example, at the front end of the photographing lens 2 so as to be movable in the optical axis direction, and is moved by a driving force of an electric motor (not shown). The lens drive control unit 16 controls the drive of the electric motor based on the AF control value input from the control unit 25 that centrally controls the shooting operation of the camera, and automatically adjusts the focus of the shooting lens 2.

【0025】絞り駆動制御部17は、絞り15の開口量
を調整するものである。絞り駆動制御部17は、制御部
25から入力される露出制御値(絞り値)に基づき絞り
15の開口量を制御する。CCD駆動制御部18は、C
CD12,13の撮像動作(電荷蓄積及び蓄積電荷の読
出)を制御するものである。CCD駆動制御部18は、
制御部25から入力される露出制御値(シャッタスピー
ド)に基づきCCD12,13の電荷蓄積時間(積分時
間)を制御して露光量を制御する。また、CCD12,
13の露光(電荷蓄積)が終了すると、その蓄積電荷を
CCD12、CCD13の順に画像処理部19に読み出
す。
The aperture drive controller 17 adjusts the aperture of the aperture 15. The aperture drive controller 17 controls the aperture of the aperture 15 based on the exposure control value (aperture value) input from the controller 25. The CCD drive control unit 18
It controls the imaging operation of the CDs 12 and 13 (charge storage and reading of stored charges). The CCD drive control unit 18
The exposure amount is controlled by controlling the charge accumulation time (integration time) of the CCDs 12, 13 based on the exposure control value (shutter speed) input from the control unit 25. CCD12,
When the exposure (charge accumulation) of 13 is completed, the accumulated charges are read out to the image processing unit 19 in the order of the CCD 12 and the CCD 13.

【0026】画像処理部19は、CCD12,13から
読み出された蓄積電荷(画像信号)にホワイトバラン
ス、γ補正、シェーディング補正等の所定の処理を施す
とともに、CCD12で撮像された画像(左側半分の被
写体光像A1の撮像画像。以下、左側画像G1とい
う。)とCCD13で撮像された画像(右側半分の被写
体画像A2の撮像画像。以下、右側画像G2いう。)と
の貼合処理(被写体光像A全体に対する撮影画像の生成
処理)を行うものである。画像処理部19のシェーディ
ング補正及び撮影画像の生成等の処理については後述す
る。
The image processing section 19 performs predetermined processing such as white balance, γ correction, shading correction and the like on the accumulated charges (image signals) read from the CCDs 12 and 13, as well as an image picked up by the CCD 12 (left half). Of the subject light image A1 (hereinafter referred to as left image G1) and an image captured by the CCD 13 (captured image of the right half subject image A2; hereinafter referred to as right image G2). (A process of generating a captured image for the entire light image A). Processing such as shading correction and generation of a captured image by the image processing unit 19 will be described later.

【0027】HDカード10は、画像を構成する画像デ
ータを記録する記録媒体である。HDカード10には、
左側画像G1と右側画像G2とを貼合してなる被写体全
体の撮像画像(以下、撮像画像Gという。)が記録され
る。カード駆動制御部20は、画像データを記録するべ
くHDカード10の駆動を制御するものである。
The HD card 10 is a recording medium for recording image data constituting an image. In the HD card 10,
A captured image (hereinafter, referred to as a captured image G) of the entire subject obtained by laminating the left image G1 and the right image G2 is recorded. The card drive control unit 20 controls the drive of the HD card 10 to record image data.

【0028】測距部21は、投光窓4及び受光窓5の後
方位置に設けられた被写体距離を検出するものである。
測光部22は、測光窓3の後方位置に設けられたSPC
等の受光素子を有し、被写体輝度を検出するものであ
る。
The distance measuring unit 21 detects a subject distance provided at a position behind the light projecting window 4 and the light receiving window 5.
The photometric unit 22 includes an SPC provided at a position behind the photometric window 3.
And the like to detect the subject brightness.

【0029】ROM(Read Only Memory)23は、撮像
系の駆動制御に必要なデータや後述するシェーディング
補正、画像の貼合処理及び画像データの補間処理等の画
像処理を行うために必要なデータや処理プログラムが記
録されたメモリである。RAM(Random Access Memor
y)24は、制御部25が撮像に関する処理を行うため
のメモリである。
A ROM (Read Only Memory) 23 stores data necessary for driving control of the image pickup system and data necessary for performing image processing such as shading correction, image pasting processing, and image data interpolation processing described later. This is a memory in which a processing program is recorded. RAM (Random Access Memor
y) 24 is a memory for the control unit 25 to perform processing related to imaging.

【0030】図9は、画像処理部19内のシェーディン
グ補正、撮影画像の生成、画像データの補間等の処理に
関するブロック構成を示す図である。
FIG. 9 is a diagram showing a block configuration relating to processing such as shading correction in the image processing section 19, generation of a photographed image, interpolation of image data, and the like.

【0031】画像処理部19内には、シェーディング補
正、撮影画像の生成、画像データの補間等の処理を行う
ための処理部として、アナログ信号処理部191、A/
D変換部192、画像メモリ193、シェーディング補
正部194、画像データ補間部195、画像合成部19
6及び出力I/F(インターフェース)197が設けら
れている。
The image processing unit 19 includes analog signal processing units 191 and A / A as processing units for performing processes such as shading correction, generation of photographed images, and interpolation of image data.
D conversion section 192, image memory 193, shading correction section 194, image data interpolation section 195, image synthesis section 19
6 and an output I / F (interface) 197 are provided.

【0032】アナログ信号処理部191は、図略のCD
S回路(Correlative Double Sampling)回路、アナロ
グアンプ等の信号処理回路を有し、CCD12,13か
ら出力されるR,G,Bの各色成分のアナログ信号から
なる画像信号にノイズ低減やレベル調整(増幅)等の所
定の信号処理を施すものである。また、A/D変換部1
92は、アナログ信号処理部191から出力される画像
信号を、例えば8ビット構成のデジタル信号からなる画
像データに変換するものである。また、画像メモリ19
3は、A/D変換部192から出力される画像データを
記憶するものである。画像メモリ193は、CCD12
により撮像された画像の画像データとCCD13により
撮像された画像の画像データとをそれぞれ記憶する記憶
領域を有している。なお、各記憶領域にはR,G,Bの
色成分毎に画像データが記憶される。
The analog signal processor 191 includes a CD (not shown).
It has a signal processing circuit such as an S circuit (Correlative Double Sampling) circuit and an analog amplifier, and performs noise reduction and level adjustment (amplification) on an image signal composed of analog signals of R, G, and B color components output from the CCDs 12 and 13. ) And the like. A / D converter 1
92 converts the image signal output from the analog signal processing unit 191 into image data composed of, for example, an 8-bit digital signal. The image memory 19
Reference numeral 3 stores image data output from the A / D conversion unit 192. The image memory 193 includes the CCD 12
And a storage area for storing image data of an image captured by the CCD 13 and image data of an image captured by the CCD 13, respectively. Note that image data is stored in each storage area for each of R, G, and B color components.

【0033】シェーディング補正部194は、CCD1
2,13の撮像面を構成する画素間の出力レベルのバラ
ツキを補正するものである。出力レベルのバラツキは、
各画素から出力される受光レベルを予め設定されたシェ
ーディング補正テーブルを用いて補正することにより行
われる。このシェーディング補正テーブルは、撮影レン
ズ2の瞳位置及び絞り15の絞り量をパラメータとして
予めに設定されたもので、ROM23に記憶されてい
る。撮影に際し、検出された撮影レンズ2の瞳位置及び
絞り15の絞り量に対応した所定のシェーディング補正
テーブルがシェーディング補正部194に設定され、画
像メモリ193に記憶されたCCD12,13の撮像画
像の画像データは、このシェーディング補正テーブルで
レベル調整される。
The shading correction section 194 includes the CCD 1
This is for correcting variations in output levels between pixels constituting the imaging surfaces 2 and 13. The output level variation is
This is performed by correcting the light reception level output from each pixel using a preset shading correction table. This shading correction table is set in advance using the pupil position of the photographing lens 2 and the aperture amount of the aperture 15 as parameters, and is stored in the ROM 23. At the time of photographing, a predetermined shading correction table corresponding to the detected pupil position of the photographing lens 2 and the aperture amount of the diaphragm 15 is set in the shading correction unit 194, and the images of the captured images of the CCDs 12 and 13 stored in the image memory 193. The data is level-adjusted in this shading correction table.

【0034】ここで、シェーディング補正テーブルにつ
いて簡単に説明する。シェーディング補正は、撮影レン
ズにより均一な濃度を有する光像がCCDの撮像面に均
一に投影されたとした場合に生じる画素間の出力レベル
のバラツキを補正するものである。
Here, the shading correction table will be briefly described. The shading correction is for correcting a variation in output level between pixels that occurs when a light image having a uniform density is uniformly projected on an imaging surface of a CCD by a photographing lens.

【0035】画素間の出力レベルのバラツキは、主とし
て画素自体の感度特性のバラツキと各画素に入射される
光量のバラツキとに起因して発生する。画素自体の感度
特性のバラツキには、画素間での光電変換率の相違に基
づくものだけでなく、各画素の受光面に設けられたマイ
クロレンズ14の特性の相違に基づくものも含まれる。
すなわち、図11〜図13に示すようにマイクロレンズ
14の形状に基づく集光特性のバラツキや屈折率、透過
率等のマイクロレンズ14の組成に基づく光学的特性の
バラツキに起因して画素間の出力レベルのバラツキが発
生する。なお、図11は、マイクロレンズ14の厚みが
標準のもの(図7参照)より薄い場合であり、図12
は、マイクロレンズ14の厚みが標準のものより厚い場
合である。また、図13は、画素の受光面におけるマイ
クロレンズ14の位置が中心位置からずれている場合で
ある。
The variation in the output level between pixels mainly occurs due to the variation in the sensitivity characteristic of the pixel itself and the variation in the amount of light incident on each pixel. Variations in the sensitivity characteristics of the pixels themselves include not only those based on the difference in photoelectric conversion rate between pixels, but also those based on differences in the characteristics of the microlenses 14 provided on the light receiving surface of each pixel.
That is, as shown in FIGS. 11 to 13, variations in light-collecting characteristics based on the shape of the microlenses 14 and variations in optical characteristics based on the composition of the microlenses 14 such as the refractive index and the transmittance are caused. Output level variation occurs. FIG. 11 shows a case where the thickness of the microlens 14 is thinner than the standard one (see FIG. 7).
Is a case where the thickness of the microlens 14 is larger than the standard one. FIG. 13 shows a case where the position of the micro lens 14 on the light receiving surface of the pixel is shifted from the center position.

【0036】各画素への入射光量のバラツキは、図14
に示すように、光束24が正面方向nに対して斜め方向
(角度θ)から画素の受光面に入射した場合で、このよ
うな入射方向の変化に基づく光量のバラツキは、画素の
受光面に対する撮影レンズ2の瞳位置の変化と絞り量の
変化とによって発生する。
The variation in the amount of light incident on each pixel is shown in FIG.
As shown in (2), when the light beam 24 is incident on the light receiving surface of the pixel from an oblique direction (angle θ) with respect to the front direction n, such a variation in the amount of light based on the change in the incident direction is different from the light receiving surface of the pixel. This is caused by a change in the pupil position of the photographing lens 2 and a change in the aperture amount.

【0037】すなわち、CCD12を例に説明すると、
図15に示すように、CCD12の撮像面S1の中心を
通る縦方向の垂直平面において、中心部Z及び上下の両
端部C,Dにおける入射光束を考えると、撮像面S1に
対して撮影レンズ2の瞳位置が遠くなるほど、図16に
示すように、端部C,Dでは入射光束中心26C,26
Dは、撮像面S1の正面方向に対して外側から入射する
ようになり、撮像面S1に対して撮影レンズ2の瞳位置
が近くなるほど、図17に示すように、端部C,Dでは
入射光束中心26C,26Dは、撮像面S1の正面方向
に対して内側から入射するようになる。また、図16及
び図17の場合と同一の瞳位置において、絞り15の開
口量が絞られると、それぞれ図18と図19とに示すよ
うに、入射光束の幅(入射範囲)が狭くなり、入射光量
が少なくなる。なお、図16〜図19において、点線
は、各入射光束の範囲を示すものである。
That is, taking the CCD 12 as an example,
As shown in FIG. 15, taking into consideration the incident light flux at the center portion Z and the upper and lower ends C and D on a vertical vertical plane passing through the center of the imaging surface S1 of the CCD 12, the imaging lens 2 is positioned with respect to the imaging surface S1. As the pupil position becomes longer, as shown in FIG.
D is incident from the outside with respect to the front direction of the imaging surface S1, and as the pupil position of the photographing lens 2 becomes closer to the imaging surface S1, as shown in FIG. The light beam centers 26C and 26D are incident from the inside with respect to the front direction of the imaging surface S1. When the aperture of the diaphragm 15 is reduced at the same pupil position as in FIGS. 16 and 17, the width (incident range) of the incident light beam is reduced as shown in FIGS. 18 and 19, respectively. The amount of incident light decreases. In FIGS. 16 to 19, the dotted lines indicate the range of each incident light beam.

【0038】このため、CCD12の撮像面S1の中心
部Zでは、入射光束中心26Zは撮像面S1に対して略
垂直に入射するが、両端部C,Dでは撮像面S1に対し
て傾斜して入射し、この部分の画素については、図14
に示すように、光束24は受光面に対して傾斜した状態
で入射することになるので、仮に画素自体の感度特性の
バラツキがないとしても、撮像面S1の中心部Zの画素
と両端部C,Dの画素との間では出力レベルの差が生じ
ることになる。このことは、CCD12の撮像面S1の
中心を通る横方向の垂直平面(図15のA,Z,Bを含
む平面)においても同様である。
For this reason, at the center Z of the imaging surface S1 of the CCD 12, the center 26Z of the incident light beam is incident substantially perpendicularly to the imaging surface S1, but at both ends C and D, it is inclined with respect to the imaging surface S1. 14 and the pixels in this portion are shown in FIG.
As shown in FIG. 7, the light beam 24 is incident on the light receiving surface in an inclined state. Therefore, even if there is no variation in the sensitivity characteristics of the pixel itself, even if there is no variation in the sensitivity characteristic of the pixel itself, the pixel of the central portion Z of the imaging surface S1 and both ends C , D, there will be a difference in output level. The same applies to a vertical plane in the horizontal direction passing through the center of the imaging surface S1 of the CCD 12 (a plane including A, Z, and B in FIG. 15).

【0039】従って、均一に照明された均一濃度の被写
体を撮影した場合、CCD12で取り込まれた画像デー
タの出力レベルは、図20に示すように、撮像面S1の
周辺部が中央部より低下した形となる。シェーディング
補正テーブルは、図20において、画像データの波形を
仮想線で示す中心Zの出力レベルLzを通るフラットな
波形に変換するもので、各画素について補正係数(倍率
係数)Kを求めたものである。例えばA点の画素の出力
レベルをLaとすると、A点の画素に対する補正係数K
AはKA=Lz/Laとなる。
Therefore, when a uniformly illuminated subject of uniform density is photographed, the output level of the image data captured by the CCD 12 is lower at the periphery of the imaging surface S1 than at the center, as shown in FIG. It takes shape. The shading correction table is for converting the waveform of the image data into a flat waveform passing through the output level Lz of the center Z indicated by the imaginary line in FIG. 20, and calculating a correction coefficient (magnification coefficient) K for each pixel. is there. For example, assuming that the output level of the pixel at point A is La, the correction coefficient K for the pixel at point A is
A is K A = Lz / La.

【0040】ところで、任意の画素位置(i,j)にお
ける出力レベルをL(i,j)とし、補正係数をK(i,j)とす
ると、シェーディング補正テーブルとしては、M×N個
の補正係数K(i,j)=Lz/L(i,j)(i=1,2,…
M、j=1,2,…N)のデータが必要となる。画素間
の出力レベルのバラツキがマイクロレンズ14の特性を
含めてCCD12固有の光電変換特性のバラツキにのみ
起因するものであれば、1個のシェーディング補正テー
ブルを用意すれば足りるが、上述のように、撮影レンズ
2の瞳位置及び絞り15の絞り量によってCCD12で
取り込まれた画像データの出力レベルは変化するため、
シェーディング補正テーブルは、撮影レンズ2の瞳位置
及び絞り15の絞り量をパラメータとして複数個、用意
する必要がある。
Assuming that the output level at an arbitrary pixel position (i, j) is L (i, j) and the correction coefficient is K (i, j), the shading correction table has M × N correction levels. Coefficient K (i, j) = Lz / L (i, j) (i = 1, 2,...)
M, j = 1, 2,... N). If the variation in the output level between pixels is caused only by the variation in the photoelectric conversion characteristics unique to the CCD 12 including the characteristics of the microlenses 14, it is sufficient to prepare one shading correction table, but as described above. Since the output level of the image data captured by the CCD 12 changes depending on the pupil position of the photographing lens 2 and the aperture amount of the aperture 15,
It is necessary to prepare a plurality of shading correction tables using the pupil position of the photographing lens 2 and the aperture amount of the aperture 15 as parameters.

【0041】しかし、すべてのパラメータに対応して全
画素に対する補正係数K(i,j)を用意すると、シェーデ
ィング補正テーブルの容量が大きくなるので、本実施の
形態では、以下に説明するように、補正係数K(i,j)自
体の数を低減したり、パラメータに対応したテーブル数
を低減する等の方法でシェーディング補正テーブルの容
量を低減するようにしている。
However, if the correction coefficients K (i, j) for all the pixels are prepared corresponding to all the parameters, the capacity of the shading correction table becomes large. In this embodiment, as described below, The capacity of the shading correction table is reduced by a method such as reducing the number of correction coefficients K (i, j) itself or reducing the number of tables corresponding to the parameters.

【0042】まず、第1の方法は、図21に示すよう
に、CCD12の撮像面S1を複数個の画素(例えば1
6×24個の画素)からなるブロックB(h,k)(h=
1,2,…、k=1,2,…)に分割し、ブロック単位
で補正係数K(h,k)を設定することによりシェーディン
グ補正テーブルそのものの容量を低減している。
First, in the first method, as shown in FIG. 21, the imaging surface S1 of the CCD 12 is divided into a plurality of pixels (for example, 1 pixel).
A block B (h, k) (h = 6 × 24 pixels)
1, 2,..., K = 1, 2,...) And the correction coefficient K (h, k) is set for each block to reduce the capacity of the shading correction table itself.

【0043】また、第2の方法は、絞り値をパラメータ
とするシェーディング補正テーブルのテーブル数を低減
するものである。すなわち、絞り15の絞り量に対する
CCD12の出力レベルの変化が略線形であると近似で
きるときは、絞り15の絞り量を最も大きくしたときと
最も小さくしたときの2点についてシェーディング補正
テーブルを用意し、中間の絞り量についてはこれらのシ
ェーディング補正テーブルを用いて演算によりブロック
単位の補正係数K(h,k)を算出するものである。
The second method is to reduce the number of shading correction tables using the aperture value as a parameter. That is, when the change in the output level of the CCD 12 with respect to the aperture amount of the aperture 15 can be approximated to be substantially linear, a shading correction table is prepared for two points when the aperture amount of the aperture 15 is maximized and minimized. With respect to the intermediate aperture amount, a correction coefficient K (h, k) for each block is calculated by using these shading correction tables.

【0044】例えば絞り値F=2とF=32とについて
補正係数K(h,k)F=2とK(h,k)F=32とが設定されている
とすると、2<x<32の任意の絞り値F=xに対する
補正係数K(h,k)F=xを下記(1)式で算出、設定するも
のである。
For example, if correction coefficients K (h, k) F = 2 and K (h, k) F = 32 are set for the aperture values F = 2 and F = 32 , 2 <x <32 The correction coefficient K (h, k) F = x for an arbitrary aperture value F = x is calculated and set by the following equation (1).

【0045】[0045]

【数1】 (Equation 1)

【0046】なお、絞り15の絞り量に対するCCD1
2,13の出力レベルの変化が非線形であってもその関
数K(h,k)F=x=f(K(h,k)F=2,K(h,k)F=32)が分か
っていれば、その関数K(h,k)F=x=f(K(h,k)F=2,K
(h,k)F=32)を用いて2<x<32の任意の絞り値F=
xに対する補正係数K(h,k)F=xを算出、設定することが
できる。
The CCD 1 with respect to the aperture amount of the aperture 15
Even if the changes in the output levels of the outputs 2 and 13 are non-linear, the function K (h, k) F = x = f (K (h, k) F = 2 , K (h, k) F = 32 ) is known. If so, the function K (h, k) F = x = f (K (h, k) F = 2 , K
(h, k) F = 32 ), and an arbitrary aperture value F = 2 <x <32
A correction coefficient K (h, k) F = x for x can be calculated and set.

【0047】また、第3の方法は、撮影レンズ2の瞳位
置をパラメータとするシェーディング補正テーブルのテ
ーブル数を低減するものである。すなわち、CCD12
の撮像面S1の周辺部では撮影レンズ2の瞳位置により
入射光束の入射角θが変化し、これにより出力レベルも
変化するが、瞳位置と入射角θとは一定の関係で変化す
るから、例えば入射角θが最も大きくなる瞳位置でのシ
ェーディング補正テーブルを用意し、他の瞳位置に対す
るシェーディング補正テーブルは入射角θが最も大きく
なる瞳位置でのシェーディング補正テーブルを用いて演
算により算出、設定するものである。
The third method is to reduce the number of shading correction tables using the pupil position of the photographing lens 2 as a parameter. That is, the CCD 12
In the peripheral portion of the imaging surface S1, the incident angle θ of the incident light beam changes depending on the pupil position of the photographing lens 2, and the output level also changes. However, since the pupil position and the incident angle θ change in a fixed relationship, For example, a shading correction table at the pupil position where the incident angle θ is the largest is prepared, and the shading correction tables for the other pupil positions are calculated and set by calculation using the shading correction table at the pupil position where the incident angle θ is the largest. Is what you do.

【0048】入射角θが最も大きくなる瞳位置以外の瞳
位置では入射角θは最大入射角θmaxより小さくなるか
ら、当該瞳位置においては、入射角θが最も大きくなる
瞳位置でのシェーディング補正テーブルの補正係数K
(h,k)うち、当該入射角θの対応する部分の補正係数K
(h,k)を用いて補正係数K(h,k)′を算出、設定すること
ができる。
At a pupil position other than the pupil position at which the incident angle θ becomes the largest, the incident angle θ becomes smaller than the maximum incident angle θmax. Therefore, at the pupil position, the shading correction table at the pupil position at which the incident angle θ becomes the largest is obtained. Correction coefficient K
(h, k), the correction coefficient K of the portion corresponding to the incident angle θ
The correction coefficient K (h, k) ′ can be calculated and set using (h, k).

【0049】すなわち、全体的に入射光束の入射角θが
最大入射角θmaxより小さくなる瞳位置での入射光束と
CCD12の撮像面S1との関係は、図22に示すよう
に、等価的に撮影レンズ2を入射角θが最大となる瞳位
置に固定した状態で撮像面S1を撮影レンズ2から離隔
する方向に移動したものと考えられる。この瞳位置で
は、入射光束の入射角はθからθ′(<θ)に小さくな
るので、図23に示すように、シェーディング補正テー
ブルの補正係数K(h,k)のうち、入射角θ′に対応する
領域S1′に含まれる一部の補正係数K(h,k)を撮像面
S1のサイズに拡大することにより当該瞳位置に対する
補正係数K(h,k)′を算出することができる。
That is, as shown in FIG. 22, the relationship between the incident light beam at the pupil position where the incident angle θ of the incident light beam is smaller than the maximum incident angle θmax and the imaging surface S1 of the CCD 12 is equivalently photographed. It is conceivable that the imaging surface S1 was moved in a direction away from the photographing lens 2 with the lens 2 fixed at the pupil position where the incident angle θ was maximized. At this pupil position, the incident angle of the incident light beam becomes smaller from θ to θ ′ (<θ). Therefore, as shown in FIG. 23, of the correction coefficient K (h, k) of the shading correction table, the incident angle θ ′ The correction coefficient K (h, k) 'for the pupil position can be calculated by enlarging a part of the correction coefficient K (h, k) included in the area S1' corresponding to the pupil position. .

【0050】なお、図23において、z点は撮像面S1
の中心位置である。また、撮像面S1内の小矩形のブロ
ックB(h,k)は、シェーディング補正テーブルにより補
正係数(h,k)が設定されているブロックB(h,k)である。
また、領域S1′は、撮影レンズ2の瞳位置が全体的に
入射光束の入射角θが最大値より小さくなる位置に変化
した場合のシェーディング補正テーブルの補正係数K
(h,k)が適用される領域である。
In FIG. 23, the point z is the image pickup surface S1.
Is the center position. The small rectangular block B (h, k) in the imaging surface S1 is a block B (h, k) in which the correction coefficient (h, k) is set by the shading correction table.
The area S1 'is a correction coefficient K of the shading correction table when the pupil position of the photographing lens 2 is changed to a position where the incident angle θ of the incident light flux is smaller than the maximum value.
This is the area where (h, k) is applied.

【0051】次に、入射角θが最も大きくなる瞳位置以
外の瞳位置に対する補正係数K(h,k)′の算出方法につ
いて説明する。
Next, a method of calculating the correction coefficient K (h, k) 'for a pupil position other than the pupil position at which the incident angle θ becomes the largest will be described.

【0052】図24は、領域S1′を撮像面S1のサイ
ズに拡大した場合のブロックB(h,k)のサイズの変化の
一例を示す図である。
FIG. 24 is a diagram showing an example of a change in the size of the block B (h, k) when the area S1 'is enlarged to the size of the imaging surface S1.

【0053】同図は、中心zを通る直交座標により撮像
面S1を4分割した場合の左上領域に含まれる4個のブ
ロックBa〜Bd(図23の点描したブロック)につい
てサイズの拡大状態を示したものである。また、同図に
おいて、実線で示すブロックBa〜Bdは、撮像面S1
に設定されたブロックサイズであり、一点鎖線で示すブ
ロックBa′〜Bd′は拡大されたサイズである。
FIG. 17 shows an enlarged state of the four blocks Ba to Bd (blocks shown in FIG. 23) included in the upper left area when the imaging surface S1 is divided into four parts by the orthogonal coordinates passing through the center z. It is a thing. Further, in the same figure, blocks Ba to Bd indicated by solid lines are imaging surfaces S1.
, And the blocks Ba ′ to Bd ′ indicated by the alternate long and short dash line are enlarged sizes.

【0054】ブロックBa〜Bdに対して予め設定され
た補正係数をそれぞれKa〜Kdとし、瞳位置の変化に
対して算出される補正係数をそれぞれKa′〜Kd′と
すると、同図に示すように、ブロックBaはブロックB
a′内に含まれるので、ブロックBaに対する補正係数
Kaがそのまま適用され、Ka′=Kaとなる。
Assuming that the correction coefficients preset for the blocks Ba to Bd are Ka to Kd and the correction coefficients calculated for the change in the pupil position are Ka 'to Kd', respectively, as shown in FIG. And the block Ba is the block B
Since it is included in a ', the correction coefficient Ka for the block Ba is applied as it is, and Ka' = Ka.

【0055】一方、ブロックBa以外のブロックBb〜
Bdについては、そのブロックを拡大したものを含み複
数の拡大後のブロックで構成されているので、構成され
ているブロックの面積比を重み係数として当該ブロック
について設定されている補正係数の加重平均値を算出す
ることによりそのブロックの補正係数が算出される。
On the other hand, blocks Bb to Bb other than block Ba
Since Bd is composed of a plurality of blocks after the enlargement including the enlarged block, the weighted average value of the correction coefficients set for the block using the area ratio of the constituted blocks as a weight coefficient Is calculated, the correction coefficient of the block is calculated.

【0056】例えばブロックBdは、4個の拡大後のブ
ロックBa′〜Bd′で構成されており、拡大倍率をQ
(>1)とすると、各構成ブロックBa′〜Bd′の面
積比は、Ba′:Bb′:Bc′:Bd′=(1−Q)
2:Q(1−Q):Q(1−Q):Q2となるから、補正
係数Kd′は、下記(2)式により算出される。
For example, the block Bd is composed of four blocks Ba 'to Bd' after the enlargement, and the enlargement magnification is Q
If (> 1), the area ratio of each of the constituent blocks Ba ′ to Bd ′ is Ba ′: Bb ′: Bc ′: Bd ′ = (1−Q)
2: Q (1-Q) : Q (1-Q): from the Q 2, correction coefficient Kd 'is calculated by the following equation (2).

【0057】[0057]

【数2】 (Equation 2)

【0058】同様の方法によりブロックBb,Bcに対
する補正係数Kb′,Kc′も下記(3),(4)式に
より算出される。
In the same manner, the correction coefficients Kb 'and Kc' for the blocks Bb and Bc are calculated by the following equations (3) and (4).

【0059】 Kb′=(1-Q)・Ka+Q・Kc …(3) Kc′=(1-Q)・Ka+Q・Kb …(4) なお、撮像面S1の周辺部におけるブロックB(h,k)に
おいては、そのブロック(h,k)を拡大したブロックB(h,
k)′を含まない1又は2以上の拡大後のブロックB
(h′,k′)′(h′≠h,k′≠k)で構成されるものが
生じるが、この場合にも上述のブロックBb〜Kdと同
様に、構成されている拡大後のブロックの面積比を重み
係数として当該ブロックについて設定されている補正係
数の加重平均値を算出することによりそのブロックの補
正係数が算出される。
Kb ′ = (1−Q) · Ka + Q · Kc (3) Kc ′ = (1−Q) · Ka + Q · Kb (4) The block B (h, k) in the peripheral portion of the imaging surface S1 ), A block B (h, k) obtained by expanding the block (h, k)
k) one or more expanded blocks B not including '
(h ′, k ′) ′ (h ′ ≠ h, k ′ ≠ k), but in this case, similarly to the above-described blocks Bb to Kd, the configured blocks after expansion By calculating a weighted average value of the correction coefficients set for the block using the area ratio of the block as a weight coefficient, the correction coefficient of the block is calculated.

【0060】なお、CCD12を例にシェーディング補
正テーブルについて説明したが、CCD13についても
同様である。
Although the shading correction table has been described using the CCD 12 as an example, the same applies to the CCD 13.

【0061】従って、本実施の形態では、絞り量及び瞳
位置等のパラメータに対応したシェーディング補正テー
ブルとしては、下記(A)〜(D)に示す4種類の基本
的なシェーディング補正テーブル(以下、これらのテー
ブルを基本補正テーブルという。)がCCD12,13
についてそれぞれ用意され、瞳位置及び絞り量が基本補
正テーブルのパラメータと異なる場合は、そのパラメー
タのシェーディング補正テーブルが上述の演算方法によ
り算出されるようになっている。
Therefore, in this embodiment, four basic shading correction tables (hereinafter, referred to as (A) to (D)) corresponding to parameters such as the aperture amount and the pupil position are shown. These tables are referred to as basic correction tables).
When the pupil position and the aperture amount are different from the parameters of the basic correction table, the shading correction table of the parameters is calculated by the above-described calculation method.

【0062】(A) 撮像面に対して外側からの入射光束の
入射角が最大となる瞳位置において、絞り15の開口量
を最大にした場合(図16に対応するケース) (B) 撮像面に対して内側からの入射光束の入射角が最大
となる瞳位置において、絞り15の開口量を最大にした
場合(図17に対応するケース) (C) 撮像面に対して外側からの入射光束の入射角が最大
となる瞳位置において、絞り15の開口量を最小にした
場合(図18に対応するケース) (D) 撮像面に対して内側からの入射光束の入射角が最大
となる瞳位置において、絞り15の開口量を最小にした
場合(図19に対応するケース) そして、基本補正テーブル用いて絞り値及び瞳位置に応
じて算出されたシェーディング補正テーブルに予め設定
されたマイクロレンズの特性を含むCCD12,13固
有の光電変換特性のバラツキを補正するための補正テー
ブルを乗じて最終的なシェーディング補正テーブルが算
出、設定される。なお、光電変換特性のバラツキを補正
するための補正テーブルは基本補正テーブルとともにR
OM23に記憶されている。
(A) In the case where the aperture of the diaphragm 15 is maximized at the pupil position where the incident angle of the incident light beam from the outside with respect to the imaging surface is maximum (the case corresponding to FIG. 16). In the case where the aperture of the diaphragm 15 is maximized at the pupil position where the incident angle of the incident light beam from the inside becomes maximum (a case corresponding to FIG. 17) (C) The incident light beam from the outside with respect to the imaging surface In the case where the aperture amount of the stop 15 is minimized at the pupil position where the incident angle of the image becomes maximum (the case corresponding to FIG. 18). (D) The pupil where the incident angle of the incident light beam from the inside with respect to the imaging surface becomes the maximum. At the position, when the opening amount of the diaphragm 15 is minimized (a case corresponding to FIG. 19). Then, the microlens set in advance in the shading correction table calculated in accordance with the aperture value and the pupil position using the basic correction table CC with properties 12, 13 specific final shading correction table is multiplied by a correction table for correcting the variation of the photoelectric conversion characteristics calculated and set. Note that the correction table for correcting the variation in the photoelectric conversion characteristics is the same as the basic correction table.
It is stored in the OM23.

【0063】図9に戻り、画像データ補間部195は、
R,G,Bの各色成分毎に、データの不足している画素
位置の画像データを補間処理により補充するものであ
る。CCD12,13はベイヤー方式の単板式カラーC
CDを用いているので、R,G,Bの各色成分の画像
は、画像データの存在しない画素位置を有し(図5参
照)、色成分間の画素密度は一致していない。画像デー
タ補間部195は、R,G,Bの各色成分の画像の画素
密度を一致させて撮像画像のカラーCRTへの表示やプ
リンタでの印字を可能にするものである。
Referring back to FIG. 9, the image data interpolation unit 195
For each of the R, G, and B color components, image data at a pixel position where data is insufficient is supplemented by interpolation processing. CCDs 12 and 13 are Bayer type single-plate color C
Since a CD is used, the image of each of the R, G, and B color components has a pixel position where no image data exists (see FIG. 5), and the pixel densities between the color components do not match. The image data interpolation unit 195 matches the pixel density of the image of each color component of R, G, and B, and enables the captured image to be displayed on a color CRT or printed by a printer.

【0064】すなわち、画像データ補間部195は、R
の色成分の画像については、奇数列の画像データと偶数
行/偶数列の交差位置の画像データとを補充し、Bの色
成分の画像については、偶数列の画像データと奇数行/
奇数列の交差位置の画像データとを補間する。また、G
の色成分の画像については、奇数行/偶数列の交差位置
及び奇数行/偶数列の交差位置の画像データを補間す
る。
That is, the image data interpolation unit 195
For the color component image, the odd-numbered column image data and the image data at the intersection of the even-numbered row / even-numbered column are supplemented. For the B-color component image, the even-numbered column image data and the odd-numbered row /
The image data at the intersecting position of the odd-numbered column is interpolated. G
For the color component image, the image data at the odd row / even column intersection and the odd row / even column intersection are interpolated.

【0065】R,G,Bの各色成分の画像は、例えば図
25に示す処理手順に従い上述の画像データの補間処理
が行われる。
The image of each color component of R, G, and B is subjected to the above-described interpolation processing of the image data according to the processing procedure shown in FIG. 25, for example.

【0066】なお、図25において、R,G,Bの各色
成分の画像データ27R,27G,27Bにおいて、マ
トリックス内の「R」,「G」,「B」の記号は、その
画素位置に画像データが存在することを示し、空白の画
素位置は画像データが存在しないこと(補間すべき画素
位置であること)を示している。また、画像データ27
R′,27G′,27B′は補間後の画像データを示
し、マトリックス内の「R′」,「G′」,「B′」の
記号は、補間された画像データが存在していることを示
している。また、色差データ28Rは、補間後のGの色
成分の画像データ27G′を用いてRの色成分の画像デ
ータ27Rを色差データに変換したものであり、色差デ
ータ28R′は、色差データ28Rを予め設定された補
間フィルタ29を用いて補間処理したものである。同様
に、色差データ28Bは、補間後のGの色成分の画像デ
ータ27G′を用いてBの色成分の画像データ27Bを
色差データに変換したものであり、色差データ28B′
は、色差データ28Bを予め設定された補間フィルタ3
0を用いて補間処理したものである。そして、マトリッ
クス内の「Cr」,「Cb」の記号は、色差データが存
在していることを示し、「Cr′」,「Cb′」の記号
は、補間された色差データが存在していることを示して
いる。
In FIG. 25, in the image data 27R, 27G, and 27B of each color component of R, G, and B, the symbols "R", "G", and "B" in the matrix indicate the image at the pixel position. The presence of data indicates that a blank pixel position indicates that no image data exists (being a pixel position to be interpolated). The image data 27
R ', 27G', and 27B 'indicate the interpolated image data, and the symbols "R'", "G '", and "B'" in the matrix indicate that the interpolated image data exists. Is shown. The color difference data 28R is obtained by converting the image data 27R of the R color component into color difference data using the image data 27G 'of the G color component after interpolation, and the color difference data 28R' is obtained by converting the color difference data 28R. This is obtained by performing interpolation processing using a preset interpolation filter 29. Similarly, the color difference data 28B is obtained by converting the image data 27B of the B color component into color difference data using the image data 27G 'of the G color component after interpolation, and the color difference data 28B'
Is obtained by converting the color difference data 28B into a preset interpolation filter 3
This is the result of interpolation processing using 0. The symbols "Cr" and "Cb" in the matrix indicate that color difference data exists, and the symbols "Cr '" and "Cb'" include interpolated color difference data. It is shown that.

【0067】Gの色成分の画像データ27Gについて
は、補間すべき画素位置(2ζ+1,2ξ+1),(2
ζ+2,2ξ+2)の画像データがその画素位置に隣接
する画素位置の4個の画像データのうち、最大値と最小
値とを除いた2個の画像データの平均値で補間される。
例えば画素位置(2,2)の画像データG(2,2)は、隣
接する画像データG(1,2),G(2,3),G(3,2),G(2,1)
のうち、G(1,2),G(2,3)が最大値又は最小値であれ
ば、(G(3,2)+G(2,1))/2で算出される。なお、画
素位置(1,1)のように隣接する画像データが2個と
なる周辺の画素位置では、その2個の画像データの平均
値により、また、画素位置(3,1)のように隣接する
画像データが3個となる画素位置では、最大値又は最小
値を除く2個の画像データの平均値によりその画素位置
の画像データが補間される。
For the image data 27G of the G color component, pixel positions (2 補 間 +1, 2 (+1), (2
The image data of {+2, 2} +2) is interpolated by the average value of the two image data excluding the maximum value and the minimum value among the four image data at the pixel positions adjacent to the pixel position.
For example, the image data G (2,2) at the pixel position (2,2) is the adjacent image data G (1,2), G (2,3), G (3,2), G (2,1)
If G (1,2) and G (2,3) are the maximum value or the minimum value, it is calculated by (G (3,2) + G (2,1)) / 2. In a peripheral pixel position where there are two adjacent image data, such as the pixel position (1, 1), the average value of the two image data is used, and as in the pixel position (3, 1), At a pixel position where there are three adjacent image data, the image data at that pixel position is interpolated by the average value of the two image data excluding the maximum value or the minimum value.

【0068】また、R,Bの色成分の画像データ27
R,27Bについては、補間後のGの色成分の画像デー
タ27G′の画像データを用いてR,Gの色データが色
差データCr,Cbに変換され、この色差データ28
R,28Bに対して予め設定された所定の補間フィルタ
29,30により補間処理が行われる。そして、補間後
の色差データ28R′,28B′を補間後のGの色成分
の画像データ27G′の画像データを用いてR,Gの色
データに再変換して補間後のR,Bの色成分の画像デー
タ27R′,27B′が求められる。
The image data 27 of the R and B color components
As for R and 27B, the R and G color data are converted into color difference data Cr and Cb using the image data of the G color component image data 27G 'after interpolation.
Interpolation processing is performed by predetermined interpolation filters 29 and 30 preset for R and 28B. Then, the interpolated color difference data 28R 'and 28B' are re-converted into R and G color data by using the interpolated G color component image data 27G 'image data, and the interpolated R and B color data. Component image data 27R 'and 27B' are obtained.

【0069】例えばRの色成分の画像データ27Rの画
素位置(2,2)の補間処理は、まず、画素位置(1,
1),(1,3),(3,1),(3,3)において、
その画素位置の画像データR(1,1),R(1,3),R(3,
1),R(3,3)から補間後のGの色成分の画像データG(1,
1)′,G(1,3)′,G(3,1)′,G(3,3)′を減算して色
差データCr(1,1),Cr(1,3),Cr(3,1),Cr(3,3)
が生成される。続いて、これらの色差データCr(1,
1),Cr(1,3),Cr(3,1),Cr(3,3)に補間フィルタ
29でフィルタリング処理を行うことにより画素位置
(2,2)の色差データCr(2,2)が補充される。な
お、本実施の形態に係る補間フィルタ29では、Cr
(1,1),Cr(1,3),Cr(3,1),Cr(3,3)に対するフィ
ルタ係数が「1」であるので、色差データCr(2,2)
は、Cr(2,2)=Cr(1,1)+Cr(1,3)+Cr(3,1)+C
r(3,3)となる。続いて、補間後の色差データCr(2,2)
に補間後のGの色成分の画像データG(2,2)′を加算し
てRの色データからなる画像データR(2,2)′が生成さ
れる。
For example, in the interpolation processing of the pixel position (2, 2) of the image data 27R of the R color component, first, the pixel position (1, 2)
1), (1,3), (3,1), (3,3)
The image data R (1,1), R (1,3), R (3,
The image data G (1, 3) of the G color component after interpolation from R (3, 3).
1) ', G (1,3)', G (3,1) ', G (3,3)' are subtracted to obtain color difference data Cr (1,1), Cr (1,3), Cr (3 , 1), Cr (3,3)
Is generated. Subsequently, these color difference data Cr (1,
1), Cr (1,3), Cr (3,1), and Cr (3,3) are subjected to a filtering process by the interpolation filter 29, so that the color difference data Cr (2,2) at the pixel position (2,2) is obtained. Is replenished. In the interpolation filter 29 according to the present embodiment, Cr
Since the filter coefficient for (1,1), Cr (1,3), Cr (3,1), Cr (3,3) is “1”, the color difference data Cr (2,2)
Is Cr (2,2) = Cr (1,1) + Cr (1,3) + Cr (3,1) + C
r (3,3). Subsequently, the interpolated color difference data Cr (2,2)
Is added to the image data G (2,2) 'of the G color component after interpolation to generate image data R (2,2)' composed of R color data.

【0070】画像データ補間部195で補間処理が行わ
れたR,G,Bの各色成分の画像データ27R′,27
G′,27B′は、画像合成部196に入力され、図略
のメモリに記憶される。
The image data 27R ', 27 of each of the R, G, and B color components subjected to the interpolation processing in the image data interpolation unit 195.
G 'and 27B' are input to the image synthesizing unit 196 and stored in a memory (not shown).

【0071】なお、本実施の形態では、画像データ補間
部195の後段に画像合成部196を配置し、R,G,
Bの各色成分の画像データの補間処理を行った後、左側
画像G1と右側画像G2との貼合処理を行うようにして
いるが、図10に示すように、画像データ補間部195
と画像合成部196の配置を入替えて画像合成部196
の後段に画像データ補間部195を配置し、左側画像G
1と右側画像G2との貼合処理を行った後、R,G,B
の各色成分の画像データの補間処理を行うようにしても
よい。
In this embodiment, an image synthesizing section 196 is arranged at the subsequent stage of the image data interpolating section 195, and R, G,
After the interpolation processing of the image data of each color component of B is performed, the bonding processing of the left image G1 and the right image G2 is performed. As shown in FIG.
And the arrangement of the image synthesizing unit 196 are exchanged.
The image data interpolation unit 195 is arranged at the subsequent stage, and the left image G
1 and the right side image G2, then R, G, B
The interpolation processing of the image data of each color component may be performed.

【0072】画像合成処理の前に画像データの補間処理
を行う方法では、貼合処理における偽色の発生を防止し
得るという利点がある。すなわち、例えば境界部分Cが
無彩色の均一輝度を有している場合、CCD12とCC
D13との感度が相違し、例えばその感度比が100:
93であるすると、CCD12により撮像されたR,
G,Bの各色成分の境界部分の画像の出力レベルLr1,
Lg1,Lb1がLr1=Lg1=Lb1=255であるとする
と、CCD13により撮像されたR,G,Bの各色成分
の境界部分の画像の出力レベルLr2,Lg2,Lb2はLr2
=Lg2=Lb2=237(≒255×0.93)となる。
この場合、画像データの補間処理の前に、例えば単純な
画像データのランダム混合による画像合成処理を行う
と、出力レベルが「255」のGの画像データと出力レ
ベルが「237」のR,Bの画像データとが混合され、
生成された境界画像Gcに偽色が発生することになる。
これに対し、画像合成処理を行う前に画像データの補間
処理を行っていれば、出力レベルが「255」のR,
G、Bの画像データと出力レベルが「237」のR,
G、Bの画像データとがランダムに混合され、偽色の発
生を抑制することができる。
The method of performing the interpolation processing of the image data before the image synthesizing processing has an advantage that occurrence of a false color in the bonding processing can be prevented. That is, for example, when the boundary portion C has achromatic uniform luminance, the CCD 12 and the CC
The sensitivity is different from D13, for example, the sensitivity ratio is 100:
If it is 93, R,
The output levels Lr1, Lr of the image at the boundary between the G and B color components
Assuming that Lg1 and Lb1 are Lr1 = Lg1 = Lb1 = 255, the output levels Lr2, Lg2, and Lb2 of the image of the boundary between the R, G, and B color components captured by the CCD 13 are Lr2.
= Lg2 = Lb2 = 237 (≒ 255 × 0.93).
In this case, if image synthesis processing is performed by, for example, random mixing of simple image data before the interpolation processing of the image data, G image data with an output level of “255” and R, B with an output level of “237” Is mixed with the image data of
A false color will occur in the generated boundary image Gc.
On the other hand, if the interpolation processing of the image data is performed before the image synthesis processing, the R, R having the output level “255”
G, B image data and R, whose output level is “237”
The image data of G and B are mixed at random, and generation of a false color can be suppressed.

【0073】一方、画像データの補間処理の前に画像合
成処理を行う方法では、被写体全体の撮像画像Gを生成
するまでの処理時間を短縮することができるという利点
がある。
On the other hand, the method of performing the image synthesizing process before the interpolation process of the image data has an advantage that the processing time until the captured image G of the entire subject is generated can be shortened.

【0074】図9に戻り、画像合成部196は、CCD
12で撮像された左側画像G1とCCD13で撮像され
た右側画像G2とを境界部分Cで貼り合わせて被写体全
体の撮像画像Gを生成するものである。また、出力I/
F197は、画像合成部196で生成された撮像画像G
を構成する画像データをHDカード10に出力するため
のインターフェースである。
Returning to FIG. 9, the image synthesizing section 196 is a CCD
The left image G1 picked up at 12 and the right image G2 picked up by the CCD 13 are bonded together at the boundary C to generate a picked-up image G of the entire subject. The output I /
F197 is a captured image G generated by the image combining unit 196.
Is an interface for outputting the image data constituting the image data to the HD card 10.

【0075】画像合成部196は、左側画像G1内の境
界部分Cの画像(以下、左側境界画像Gc1という。)と
右側画像G2内の境界部分Cの画像(以下、右側境界画
像Gc2という。)とを用いて左側画像G1から右側画像
G2に亘って濃度が連続的に変化するような合成用の境
界部分Cの画像(すなわち、貼合部分の濃度変化が目立
たない画像。以下、境界画像Gcという。)を生成し、
この境界画像Gcと境界画像Gc1,Gc2を除く左側画像
G1及び右側画像G2とを合成して撮像画像Gを生成す
る。この撮像画像Gの合成処理は、R,G,Bの各色成
分毎に行われる。そして、画像合成部195で生成され
た被写体全体の撮像画像Gを構成する画像データは、出
力I/F197を介してHDカード10に転送され、記
録される。
The image synthesizing section 196 forms an image of the boundary portion C in the left image G1 (hereinafter referred to as left boundary image Gc1) and an image of the boundary portion C in the right image G2 (hereinafter referred to as right boundary image Gc2). The image of the boundary portion C for synthesis such that the density continuously changes from the left image G1 to the right image G2 (that is, an image in which the density change of the bonded portion is inconspicuous. Hereinafter, the boundary image Gc) .)
The captured image G is generated by synthesizing the boundary image Gc and the left image G1 and the right image G2 except for the boundary images Gc1 and Gc2. The synthesis processing of the captured image G is performed for each of the R, G, and B color components. Then, the image data constituting the captured image G of the entire subject generated by the image synthesizing unit 195 is transferred to the HD card 10 via the output I / F 197 and recorded.

【0076】境界画像Gcの濃度変化が目立たないよう
に左側境界画像Gc1と右側境界画像Gc2とを合成する方
法には、種々の方法が考えられる。ここで、右側境界画
像Gc1と右側境界画像Gc2とを用いて撮像画像Gを生成
するための合成用の境界画像Gcを合成する方法につい
て説明する。
Various methods are conceivable as a method of synthesizing the left boundary image Gc1 and the right boundary image Gc2 so that the density change of the boundary image Gc is not conspicuous. Here, a method of synthesizing the boundary image Gc for synthesis for generating the captured image G using the right boundary image Gc1 and the right boundary image Gc2 will be described.

【0077】図26は、境界画像生成方法の第1の実施
形態を示す図である。同図に示す境界画像生成方法は、
境界線31が縦方向にジクザクとなるように、左側境界
画像Gc1と右側境界画像Gc2とを単純に貼り合わせたも
のである。同図(a)は、境界線31を鋸波状にしたも
のであり、同図(b)は、境界線31を正弦波状にした
ものである。境界線31の縦方向のジグザグ形状は変化
が多いほど濃度の急激な変化が緩和されるので、好まし
くは規則性がなく、変化の多いものにするとよい。な
お、境界線31の縦方向のジグザク形状は図26の例の
限定されるものではなく、直線状でなければ種々の形状
のものを採用することができる。
FIG. 26 is a diagram showing a first embodiment of the boundary image generation method. The boundary image generation method shown in FIG.
The left boundary image Gc1 and the right boundary image Gc2 are simply pasted together such that the boundary line 31 is zigzag in the vertical direction. FIG. 7A shows the boundary line 31 in a sawtooth shape, and FIG. 7B shows the boundary line 31 in a sine wave shape. The more the zigzag shape in the vertical direction of the boundary line 31 changes, the more the sharp change in density is alleviated. Therefore, it is preferable that the zigzag shape has no regularity and has a large change. Note that the vertical zigzag shape of the boundary line 31 is not limited to the example shown in FIG. 26, and various shapes other than a linear shape can be adopted.

【0078】この方法を採用した場合は、画像合成部1
96は、予め設定された境界線31の縦方向のジグザグ
形状が生成されるように、画像合成部196内に設けら
れたメモリに記憶された左側境界画像Gc1及び右側境界
画像Gc2を構成する画像データから各ライン毎に所定の
貼合位置までの一部の画像データをそれぞれ読出し、こ
れらを単純に繋ぎ合わせて境界画像Gcを生成する。
When this method is adopted, the image synthesizing unit 1
Reference numeral 96 denotes an image constituting the left boundary image Gc1 and the right boundary image Gc2 stored in the memory provided in the image synthesizing unit 196 such that a vertical zigzag shape of the preset boundary line 31 is generated. Part of the image data up to a predetermined bonding position is read out from the data for each line, and these are simply connected to generate a boundary image Gc.

【0079】今、境界画像Gcの横方向の画素数をm個
とし、境界画像Gc1,Gc2の横方向の画素位置のアドレ
スpを、図27に示すように、左端側から右端側にp=
1,2,…mとする。第i行目の画像データの貼合位置
(左側境界画像Gc1の境界線31に隣接する画素のアド
レス)をr(i)とすると、境界画像Gcを構成する画素位
置(i,p)の画像データDc(i,p)は、 1≦p≦r(i) Dc(i,p)=Dc1(i,p) r(i)<p≦m Dc(i,p)=Dc2(i,p) となる。但し、Dc1(i,p)は左側境界画像Gc1を構成す
る画素位置(i,p)の画像データ、Dc2(i,p)は右側境界画
像Gc2を構成する画素位置(i,p)の画像データである。
Now, assuming that the number of pixels in the horizontal direction of the boundary image Gc is m, the address p of the pixel position in the horizontal direction of the boundary images Gc1 and Gc2 is p = p from the left end to the right end as shown in FIG.
1, 2,... M. Assuming that the bonding position (the address of the pixel adjacent to the boundary line 31 of the left boundary image Gc1) of the image data in the i-th row is r (i), the image at the pixel position (i, p) forming the boundary image Gc The data Dc (i, p) is as follows: 1 ≦ p ≦ r (i) Dc (i, p) = Dc1 (i, p) r (i) <p ≦ m Dc (i, p) = Dc2 (i, p) ). Here, Dc1 (i, p) is the image data of the pixel position (i, p) forming the left boundary image Gc1, and Dc2 (i, p) is the image data of the pixel position (i, p) forming the right boundary image Gc2. Data.

【0080】図28は、境界画像生成方法の第2の実施
形態を示す図である。第2の実施形態に係る境界画像生
成方法は、左側境界画像Gc1を構成する画像データDc1
と右側境界画像Gc2を構成する画像データDc2とを市松
模様状に合成するものである。図28は、境界画像Gc
を構成する画像データを示すもので、例えば点描部分の
画素位置には左側境界画像Gc1を構成する画像データD
c1が配置され、白抜き部分の画素位置には右側境界画像
Gc2を構成する画像データDc2が配置されている。
FIG. 28 is a diagram showing a second embodiment of the boundary image generating method. The boundary image generation method according to the second embodiment includes the image data Dc1 that forms the left boundary image Gc1.
And image data Dc2 constituting the right boundary image Gc2 in a checkered pattern. FIG. 28 shows the boundary image Gc.
The image data D constituting the left boundary image Gc1 is shown at the pixel position of the stippled portion, for example.
c1 is arranged, and image data Dc2 constituting the right boundary image Gc2 is arranged at the pixel position of the white portion.

【0081】従って、境界画像Gcを構成する画像デー
タDc(i,p)は、下記(a1)〜(d1)のように構成さ
れる。
Therefore, the image data Dc (i, p) constituting the boundary image Gc is configured as shown in the following (a1) to (d1).

【0082】[0082]

【数3】 (Equation 3)

【0083】図29は、第2の実施形態に係る境界画像
生成方法の変形例である。同図に示す境界画像生成方法
は、ブロック単位で市松模様状に左側境界画像Gc1を構
成する画像データと右側境界画像Gc2を構成する画像デ
ータとを合成するものである。同図は、1ブロックを2
×2の4個で構成した場合であるが、一般に1ブロック
をK×L(K=L=2,3,4,…)個の画素で構成し
た場合の境界画像Gcを構成する画像データDc(i,p)
は、sを行方向のブロック番号、tを列方向のブロック
番号とすると、下記(a2)〜(d2)のように構成さ
れる。
FIG. 29 is a modified example of the boundary image generating method according to the second embodiment. The boundary image generation method shown in the figure combines the image data forming the left boundary image Gc1 and the image data forming the right boundary image Gc2 in a checkered pattern in block units. In the figure, one block is 2
The image data Dc constituting the boundary image Gc in the case where one block is composed of K × L (K = L = 2, 3, 4,...) Pixels, although this is a case where the image is composed of four × 2 pixels (i, p)
Is configured as shown in the following (a2) to (d2), where s is a block number in the row direction and t is a block number in the column direction.

【0084】[0084]

【数4】 (Equation 4)

【0085】なお、上記第2の実施形態に係る境界画像
生成方法を本実施の形態に係るベイヤー方式の単板式カ
ラーCCDを用いた場合に適用するには、CCD12,
13のR,G,Bの色成分の画素位置を考慮して、左側
境界画像Gc1を構成する画像データDc1と右側境界画像
Gc2を構成する画像データDc2とを、図30に示すよう
に合成するとよい。
In order to apply the boundary image generation method according to the second embodiment to the case where the Bayer single-plate color CCD according to the present embodiment is used, the CCD 12,
Taking the pixel positions of the R, G, and B color components into consideration, the image data Dc1 forming the left boundary image Gc1 and the image data Dc2 forming the right boundary image Gc2 are combined as shown in FIG. Good.

【0086】図30は、R,G,Bの色成分について、
それぞれ縦方向に左側境界画像Gc1を構成する画像デー
タDc1と右側境界画像Gc2を構成する画像データDc2と
が交互に配置されるように合成したものである。点描部
分には画像データDc1が配置され、白抜き部分には画像
データDc2が配置されている。
FIG. 30 shows the R, G, and B color components.
The image data Dc1 forming the left boundary image Gc1 and the image data Dc2 forming the right boundary image Gc2 are combined so as to be arranged alternately in the vertical direction. Image data Dc1 is arranged in the stippling portion, and image data Dc2 is arranged in the white portion.

【0087】Rの色成分の画素は奇数行/偶数列にのみ
配列され、Bの色成分の画素は偶数行/奇数列にのみ配
列されているので、R,Bの色成分の画素については、
図31,図32に示すように、縦方向にだけ左側境界画
像Gc1を構成する画像データDc1と右側境界画像Gc2を
構成する画像データDc2とが交互に配置されるようにな
っている。一方、Gの色成分の画素は奇数行/奇数列と
偶数行/偶数列とに配列されているので、Gの色成分の
画素については、図33に示すように、縦/横両方向に
左側境界画像Gc1を構成する画像データDc1と右側境界
画像Gc2を構成する画像データDc2とが交互に配置され
るようなっている。
The pixels of the R color component are arranged only in the odd rows / even columns, and the pixels of the B color component are arranged only in the even rows / odd columns. ,
As shown in FIGS. 31 and 32, the image data Dc1 forming the left boundary image Gc1 and the image data Dc2 forming the right boundary image Gc2 are alternately arranged only in the vertical direction. On the other hand, since the pixels of the G color component are arranged in odd rows / odd columns and even rows / even columns, the pixels of the G color component are left and right in both the vertical and horizontal directions as shown in FIG. The image data Dc1 constituting the boundary image Gc1 and the image data Dc2 constituting the right boundary image Gc2 are arranged alternately.

【0088】従って、図30には示す境界画像Gcを構
成する画像データDc(i,p)は、下記(a3)〜(d3)
のように構成される。
Therefore, the image data Dc (i, p) constituting the boundary image Gc shown in FIG. 30 is represented by the following (a3) to (d3)
It is configured as follows.

【0089】[0089]

【数5】 (Equation 5)

【0090】このように、R,G,Bの各色成分につい
て、縦方向又は横方向に左側境界画像Gc1を構成する画
像データDc1と右側境界画像Gc2を構成する画像データ
Dc2とが交互に配置されているので、図28の場合と同
様に、境界部分Cの濃度変化を目立たなくすることがで
きる。
As described above, for each of the R, G, and B color components, the image data Dc1 forming the left boundary image Gc1 and the image data Dc2 forming the right boundary image Gc2 are alternately arranged in the vertical or horizontal direction. 28, the density change at the boundary portion C can be made inconspicuous, as in the case of FIG.

【0091】ところで、第2の実施の形態に係る境界画
像生成方法は、画素単位若しくはブロック単位で左側境
界画像Gc1を構成する画像データDc1と右側境界画像G
c2を構成する画像データDc2とを市松模様状に合成する
ものであったが、境界画像Gcを複数のブロックに分割
し、各ブロック内で左側境界画像Gc1を構成する画像デ
ータDc1と右側境界画像Gc2を構成する画像データDc2
とを合成するようにしてもよい。この境界画像生成方法
(第3の実施形態に係る境界画像生成方法)では、ブロ
ック位置により左側境界画像Gc1と右側境界画像Gc2と
の面積比(画素数の比)と両画像の画素配置とを変化さ
せることにより境界部分Cの濃度変化が目立たなくする
ことができる。
By the way, the boundary image generating method according to the second embodiment uses the image data Dc1 and the right boundary image Gc constituting the left boundary image Gc1 in pixel units or block units.
Although the image data Dc2 constituting c2 is synthesized in a checkered pattern, the boundary image Gc is divided into a plurality of blocks, and the image data Dc1 and the right boundary image constituting the left boundary image Gc1 in each block. Image data Dc2 constituting Gc2
May be combined. In this boundary image generation method (the boundary image generation method according to the third embodiment), the area ratio (the ratio of the number of pixels) between the left boundary image Gc1 and the right boundary image Gc2 and the pixel arrangement of both images are determined by the block position. By changing the density, the density change of the boundary portion C can be made inconspicuous.

【0092】濃度変化を目立たなくするためのブロック
内の左側境界画像Gc1を構成する画像データDc1と右側
境界画像Gc2を構成する画像データDc2との合成方法と
しても種々の方法が考えられる。
Various methods can be considered as a method for synthesizing the image data Dc1 constituting the left boundary image Gc1 and the image data Dc2 constituting the right boundary image Gc2 in the block for making the density change inconspicuous.

【0093】第1の方法は、境界部分Cを横方向に2つ
の領域に分け、左側画像G1側の領域では、あるブロッ
ク内に含まれる左側境界画像Gc1を構成する画像データ
Dc1の画素数をN1、右側境界画像Gc2を構成する画像
データDc2の画素数をN2とすると、ブロックが左側画
像G1との境界に近くなるほど、画素数比N1/N2を
大きくするとともに、そのブロック内での右側境界画像
Gc2を構成する画像データDc2を左側画像G1との境界
から遠い位置(中央に近い位置)に配置し、逆に、右側
画像G2側の領域では、ブロックが右側画像G2との境
界に近くなるほど、画素数比N2/N1を大きくすると
ともに、そのブロック内での左側境界画像Gc1を構成す
る画像データDc1を右側画像G2との境界から遠い位置
(中央に近い位置)に配置するものである。
In the first method, the boundary portion C is divided into two regions in the horizontal direction. In the region on the left image G1 side, the number of pixels of the image data Dc1 constituting the left boundary image Gc1 included in a certain block is calculated. N1, assuming that the number of pixels of the image data Dc2 constituting the right boundary image Gc2 is N2, as the block becomes closer to the boundary with the left image G1, the pixel number ratio N1 / N2 is increased, and the right boundary within the block is increased. The image data Dc2 forming the image Gc2 is arranged at a position far from the boundary with the left image G1 (position near the center), and conversely, in the region on the right image G2 side, the closer the block is to the boundary with the right image G2. , The pixel number ratio N2 / N1 is increased, and the image data Dc1 constituting the left boundary image Gc1 in the block is arranged at a position far from the boundary with the right image G2 (a position near the center). Is placed.

【0094】図34は、ブロックが4×4の16個の画
素から構成されている場合の例で、左側画像G1に隣接
するブロックB1では、N1=15、N2=1とし、1
個の右側境界画像Gc2を構成する画像データDc2はブロ
ックB1内の右上隅の画素位置に配置され、ブロックB
1に隣接するブロックB2では、N=14、N2=2と
し、2個の右側境界画像Gc2を構成する画像データDc2
はブロックB1内の右上隅の画素位置とその下の画素位
置に配置されている。また、右側画像G2に隣接するブ
ロックBtでは、N2=15、N1=1とし、1個の左
側境界画像Gc1を構成する画像データDc1はブロックB
1内の左上隅の画素位置に配置されている。なお、図3
4において、「C1」は、左側境界画像Gc1を構成する
画像データDc1であることを示し、「C2」は、右側境
界画像Gc2を構成する画像データDc2であることを示し
ている。同図から明らかなように、中央に対して左右対
象の位置関係にあるブロックでは、互いに右側境界画像
Gc1と左側境界画像Gc2とを入れ替えた関係になってい
る。
FIG. 34 shows an example in which the block is composed of 16 pixels of 4 × 4. In the block B1 adjacent to the left image G1, N1 = 15 and N2 = 1, and 1
The image data Dc2 constituting the right boundary image Gc2 are arranged at the pixel position of the upper right corner in the block B1, and the block B
In the block B2 adjacent to No. 1, N = 14 and N2 = 2, and the image data Dc2 forming the two right boundary images Gc2
Are arranged at the pixel position at the upper right corner in the block B1 and the pixel position thereunder. In a block Bt adjacent to the right image G2, N2 = 15 and N1 = 1, and the image data Dc1 constituting one left boundary image Gc1 is a block Bt.
1 is located at the pixel position at the upper left corner. Note that FIG.
In FIG. 4, “C1” indicates that the image data Dc1 forms the left boundary image Gc1, and “C2” indicates that the image data Dc2 forms the right boundary image Gc2. As is clear from the figure, the blocks having the right and left symmetric positional relationship with respect to the center have a relationship in which the right boundary image Gc1 and the left boundary image Gc2 are interchanged.

【0095】第2の方法は、例えばブロックが左側画像
G1との境界から離れるのに応じてブロック内の右側境
界画像Gc2を構成する画像データDc2の画像数を増加す
るとともに、その画素位置をランダムに配置するように
したものである。
In the second method, for example, as the block moves away from the boundary with the left image G1, the number of images of the image data Dc2 constituting the right boundary image Gc2 in the block is increased, and the pixel position is randomized. It is designed to be arranged in.

【0096】図35は、全画素が左側境界画像Gc1を構
成する画像データDc1で構成されたブロックから当該ブ
ロック内の画素を右側境界画像Gc2を構成する画像デー
タDc2に置換する際の各画素位置の置換順を示すマトリ
ックス表である。このマトリックス表は、「□」がブロ
ック内の画素位置を示し、その中の番号は置換順を示し
ている。
FIG. 35 is a diagram showing each pixel position when a pixel in the block is replaced with image data Dc2 constituting the right boundary image Gc2 from a block composed of image data Dc1 in which all pixels constitute the left boundary image Gc1. Is a matrix table showing the order of substitution. In this matrix table, “□” indicates a pixel position in a block, and a number in the “□” indicates a replacement order.

【0097】図35に示すマトリックス表は、境界部分
Cの横方向の画素数が64個で、ブロックが4×4の1
6個の画素から構成されている場合のものである。この
マトリックス表は、境界画像Gcが横方向に16個のブ
ロックに分割されている場合に適用にされる。図34の
場合と同様に、左側画像G1との境界から右側画像G2
との境界に亘って16個のブロックB1,B2,…B1
5,B16が並んでいるとすると、これらのブロックB
1,B2,…B16は、すべての画素が左側境界画像G
c1を構成する画像データDc1で構成されたブロック内の
各画素を図35に示すマトリックス表の順番に従って右
側境界画像Gc2を構成する画像データDc2に置換したも
のとなっている。従って、例えば境界部分Cの中央のブ
ロックB8は、図36に示すように、左側境界画像Gc1
を構成する画像データDc1と右側境界画像Gc2を構成す
る画像データDc2とが市松模様状に配置されている。な
お、図36において、「C1」は、左側境界画像Gc1を
構成する画像データDc1であり、「C2」は、右側境界
画像Gc2を構成する画像データDc2であることを示して
いる。
In the matrix table shown in FIG. 35, the number of pixels in the horizontal direction of the boundary portion C is 64, and the block is 4 × 4 1
This is a case where it is composed of six pixels. This matrix table is applied when the boundary image Gc is divided into 16 blocks in the horizontal direction. As in the case of FIG. 34, the right image G2 is shifted from the boundary with the left image G1.
B1, B2,... B1 across the boundary
If blocks B5 and B16 are arranged, these blocks B
, B2,..., B16, all pixels have the left boundary image G
Each pixel in the block constituted by the image data Dc1 constituting c1 is replaced with image data Dc2 constituting the right boundary image Gc2 in accordance with the order of the matrix table shown in FIG. Accordingly, for example, the center block B8 of the boundary portion C is, as shown in FIG.
And the image data Dc2 forming the right boundary image Gc2 are arranged in a checkered pattern. In FIG. 36, “C1” indicates that the image data Dc1 forms the left boundary image Gc1, and “C2” indicates that the image data Dc2 forms the right boundary image Gc2.

【0098】図37は、上述の方法をベイヤー方式の単
板式カラーCCDを用いた場合に適用する際の図35に
相当するマトリックス表である。同図において、「□」
内の(R),(G),(B)は色成分を示し、数字は置
換順を示している。
FIG. 37 is a matrix table corresponding to FIG. 35 when the above-described method is applied to the case where a Bayer single-plate color CCD is used. In the figure, "□"
(R), (G), and (B) indicate color components, and numerals indicate the order of replacement.

【0099】同図は、ブロックの周辺部から中央部に向
かってG,G,R,Bの色の順を繰り返すようにして各
画素位置の画像データが順次、置換されるようになって
いる。従って、図35における説明の例において、例え
ばブロックB2,B8を構成する画像データは、それぞ
れ図38,図39に示すようになる。
In the figure, the image data at each pixel position is sequentially replaced by repeating the order of the colors G, G, R, and B from the periphery to the center of the block. . Therefore, in the example of the description in FIG. 35, for example, the image data forming the blocks B2 and B8 are as shown in FIGS. 38 and 39, respectively.

【0100】なお、(G,G,R,B)の色順は、
(G,R,B,G)、(R,B,G,G)等の他の順番
でもよく、(G,G,R,B)の色順の順列を変更すれ
ば、図37の例の他に11通りの変換方法を採用するこ
とができる。
The color order of (G, G, R, B) is
Other orders such as (G, R, B, G) and (R, B, G, G) may be used. If the permutation of the color order of (G, G, R, B) is changed, the example shown in FIG. In addition to the above, 11 conversion methods can be adopted.

【0101】図40は、境界画像生成方法の第4の実施
形態を説明するための図である。同図は、境界画像Gc
を構成する画像データの横方向の信号レベルを示したも
ので、横方向アドレス1〜mは、境界画像Gcの横方向
アドレスを示している。実線で示す信号波形32は、左
側画像G1と右側画像G2を合成した場合の信号波形を
示し、一点鎖線で示す信号波形33は、左側境界画像G
c1を構成する画像データDc1の波形を示し、一点鎖線で
示す信号波形33は、右側境界画像Gc2を構成する画像
データDc2の波形を示している。
FIG. 40 is a diagram for explaining a fourth embodiment of the boundary image generation method. The figure shows the boundary image Gc
The horizontal address indicates the horizontal signal level of the boundary image Gc. A signal waveform 32 indicated by a solid line indicates a signal waveform when the left image G1 and the right image G2 are combined, and a signal waveform 33 indicated by a dashed line indicates a left boundary image G
The waveform of the image data Dc1 forming c1 is shown, and the signal waveform 33 indicated by a dashed line indicates the waveform of the image data Dc2 forming the right boundary image Gc2.

【0102】第4の実施形態に係る境界画像生成方法
は、左側境界画像Gc1を構成する画像データDc1(i,p)
と右側境界画像Gc2を構成する画像データDc2(i,p)と
の平均値により境界画像Gcを構成する画像データDc
(i,p)を生成するようにしたものである。すなわち、Dc
(i,p)={Dc1(i,p)+Dc2(i,p)}/2,p=1,2,…
mとしたものである。
In the boundary image generation method according to the fourth embodiment, the image data Dc1 (i, p) constituting the left boundary image Gc1 is used.
Image data Dc constituting the boundary image Gc by an average value of the image data Dc2 (i, p) constituting the right boundary image Gc2
(i, p) is generated. That is, Dc
(i, p) = {Dc1 (i, p) + Dc2 (i, p)} / 2, p = 1,2, ...
m.

【0103】この方法は、左側境界画像Gc1と右側境界
画像Gc2との画像データDc1,Dc2を単純平均するも
のであるため、境界画像Gcを生成する演算処理が簡単
になるという利点がある。しかし、左側境界画像Gc1の
濃度と右側境界画像Gc2の濃度との濃度差が大きくなる
と、境界部分Cでの濃度段差が目立つようになるので、
左側境界画像Gc1の濃度と右側境界画像Gc2の濃度との
濃度差が比較的小さい場合に有効な方法である。
Since this method simply averages the image data Dc1 and Dc2 of the left boundary image Gc1 and the right boundary image Gc2, there is an advantage that the arithmetic processing for generating the boundary image Gc is simplified. However, when the density difference between the density of the left boundary image Gc1 and the density of the right boundary image Gc2 increases, the density step at the boundary portion C becomes conspicuous.
This is an effective method when the density difference between the density of the left boundary image Gc1 and the density of the right boundary image Gc2 is relatively small.

【0104】図41は、境界画像生成方法の第5の実施
形態を説明するための図である。同図の表記内容は、図
40と同一である。第5の実施形態に係る境界画像生成
方法は、境界画像Gcの濃度がそれ以外の部分の画像の
濃度に対して連続的に変化するように、左側境界画像G
c1を構成する画像データDc1(i,p)と右側境界画像Gc2
を構成する画像データDc2(i,p)との加重平均値により
境界画像Gcを構成する画像データDc(i,p)を生成する
ようにしたものである。
FIG. 41 is a diagram for explaining a fifth embodiment of the boundary image generating method. The contents of the notation in this figure are the same as those in FIG. In the boundary image generation method according to the fifth embodiment, the left boundary image G is changed so that the density of the boundary image Gc continuously changes with respect to the density of the image of the other part.
The image data Dc1 (i, p) constituting the c1 and the right boundary image Gc2
The image data Dc (i, p) constituting the boundary image Gc is generated by a weighted average value with the image data Dc2 (i, p) constituting the image data Dc2 (i, p).

【0105】画像データDc1(i,p)に対する重み係数を
w1(i,p)、画像データDc2(i,p)に対する重み係数をw
2(i,p)とすると、画素位置(i,p)の画像データDc(i,p)
は、Dc(i,p)={w1(i,p)・Dc1(i,p)+w2(i,p)・
Dc2(i,p)}で算出される。
The weight coefficient for the image data Dc1 (i, p) is w1 (i, p), and the weight coefficient for the image data Dc2 (i, p) is w
2 (i, p), image data Dc (i, p) at pixel position (i, p)
Is Dc (i, p) = {w1 (i, p) · Dc1 (i, p) + w2 (i, p) ·
Dc2 (i, p)}.

【0106】この場合、演算処理が容易になるように、
境界画像Gcの横方向の画素数mは、2のべき乗(m=
n)にするとよい。例えば画素数mを26=64個とす
ると、重み係数w1(i,p),w2(i,p)は、それぞれw1
(i,p)=(65−p)/65、w2(i,p)=p/65,p
=1,2,…64で与えられ、画像データDc(i,p)は、
Dc(i,p)={(65−p)・Dc1(i,p)+p・Dc2(i,
p)}/65で算出される。なお、簡易的にDc(i,p)=
{(64−p)・Dc1(i,p)+p・Dc2(i,p)}/64の演
算式で算出するようにしてもよい。
In this case, in order to facilitate the arithmetic processing,
The number m of pixels in the horizontal direction of the boundary image Gc is a power of 2 (m =
2 n ). For example, if the number of pixels m is 2 6 = 64, the weighting factors w1 (i, p) and w2 (i, p) are w1
(i, p) = (65−p) / 65, w2 (i, p) = p / 65, p
= 1, 2,... 64, and the image data Dc (i, p) is
Dc (i, p) = {(65−p) · Dc1 (i, p) + p · Dc2 (i,
p) It is calculated by} / 65. Note that simply, Dc (i, p) =
The calculation formula {{64−p) · Dc1 (i, p) + p · Dc2 (i, p)} / 64 may be used.

【0107】図42は、境界画像生成方法の第6の実施
形態を説明するための図で、CCD12,13の境界部
分の画像データの横方向の出力レベルの波形の一例を示
す図である。また、図43も境界画像生成方法の第6の
実施形態を説明するための図で、CCD12,13の出
力レベルを調整した後、境界画像Gcを合成したときの
出力レベルの波形の一例を示す図である。
FIG. 42 is a diagram for explaining the sixth embodiment of the boundary image generation method, and is a diagram showing an example of the waveform of the horizontal output level of the image data at the boundary between the CCDs 12 and 13. FIG. 43 is also a diagram for explaining the sixth embodiment of the boundary image generation method, and shows an example of the output level waveform when the boundary images Gc are synthesized after the output levels of the CCDs 12 and 13 are adjusted. FIG.

【0108】両図の表記方法も図40又は図41のもの
と同一である。また、両図において、実線で示す信号波
形35は、CCD12で撮像された左側画像G1の信号
波形であり、実線で示す信号波形36は、CCD13で
撮像された右側画像G2の信号波形である。また、点線
で示す信号波形37は、右側画像G2の平均レベルが左
側画像G1の平均レベルと略同一となるようにレベル調
整したものである。
The notation in both figures is the same as that in FIG. 40 or FIG. In both figures, a signal waveform 35 indicated by a solid line is a signal waveform of the left image G1 captured by the CCD 12, and a signal waveform 36 indicated by a solid line is a signal waveform of the right image G2 captured by the CCD 13. The signal waveform 37 indicated by the dotted line is obtained by adjusting the level so that the average level of the right image G2 is substantially the same as the average level of the left image G1.

【0109】また、図43において、一点鎖線で示す信
号波形38は、左側境界画像Gc1を構成する画像データ
Dc1とレベル調整された右側境界画像Gc2を構成する画
像データDc2′との平均値により生成された境界画像G
cの信号波形である。
In FIG. 43, a signal waveform 38 indicated by a chain line is generated by an average value of the image data Dc1 forming the left boundary image Gc1 and the image data Dc2 'forming the right boundary image Gc2 whose level has been adjusted. Boundary image G
It is a signal waveform of c.

【0110】第6の実施形態に係る境界画像生成方法
は、CCD12とCCD13との平均感度(光学系に起
因するものを含む)に差がある場合に、左側境界画像G
c1を構成する画像データDc1の平均レベルと右側境界画
像Gc2を構成する画像データDc2の平均レベルとを調整
した後、第4又は第5の実施形態に係る境界画像生成方
法を適用するものである。
In the boundary image generation method according to the sixth embodiment, when there is a difference in the average sensitivities (including those caused by the optical system) between the CCD 12 and the CCD 13, the left boundary image G
After adjusting the average level of the image data Dc1 forming the c1 and the average level of the image data Dc2 forming the right boundary image Gc2, the boundary image generation method according to the fourth or fifth embodiment is applied. .

【0111】第4又は第5の実施形態に係る境界画像生
成方法は、主として境界画像Gcとその両側の左側画像
G1及び右側画像G2との境界部分の急激な濃度変化の
緩和を目的とするものであるため、CCD12とCCD
13との平均感度の差が大きい場合は、境界部分Cでの
濃度変化を目立たなくするにも一定の限界がある。第6
の実施形態に係る境界画像生成方法は、CCD12とC
CD13との間でシェーディング補正に相当するレベル
補正を行った後に境界画像Gcを生成することで、境界
部分Cでの濃度変化を目立たなくする効果を確実かつよ
り有効に行うものである。
The boundary image generating method according to the fourth or fifth embodiment is mainly intended to alleviate a sharp change in density at the boundary between the boundary image Gc and the left and right images G1 and G2 on both sides thereof. Therefore, the CCD 12 and the CCD 12
In the case where the difference between the average sensitivity and the average sensitivity is large, there is a certain limit in making the density change at the boundary portion C inconspicuous. Sixth
The boundary image generating method according to the embodiment includes a CCD 12 and a C
By generating the boundary image Gc after performing the level correction corresponding to the shading correction with the CD 13, the effect of making the density change in the boundary portion C inconspicuous can be surely and more effectively performed.

【0112】第i行目の画像データにおいて、左側境界
画像Gc1を構成する画像データDc1(i,p)(p=1,
2,…m)の平均値{Dc1(i,1)+Dc1(i,2)+…+Dc1(i,
m)}/mをVa、右側境界画像Gc2を構成する画像デー
タDc2(i,p)(p=1,2,…m)の平均値{Dc2(i,1)
+Dc2(i,2)+…+Dc2(i,m)}/mをVbとすると、図4
2において、信号波形37は、CCD13から出力され
る第i行目の全画像データD2(i,j)(j=1,2,…
m,…N)をVa/Vb倍したものである。
In the image data of the i-th row, the image data Dc1 (i, p) (p = 1,
2,... M) {Dc1 (i, 1) + Dc1 (i, 2) +... + Dc1 (i,
m)} / m is Va, and the average value {Dc2 (i, 1) of image data Dc2 (i, p) (p = 1, 2,... m) constituting the right boundary image Gc2.
+ Dc2 (i, 2) +... + Dc2 (i, m)} / m as Vb, FIG.
2, the signal waveform 37 indicates that all image data D2 (i, j) (j = 1, 2,.
m,... N) times Va / Vb.

【0113】このように、CCD13で取り込まれた第
i行目の画像データD2(i,j)をレベル調整することに
よりCCD13で撮像された右側画像G2とCCD12
で撮像された左側画像G1との感度差が補正される。こ
の結果、レベル調整された右側画像G2の右側境界画像
Gc2を構成する画像データDc2(i,j)′(=(Va/V
b)・Dc2(i,j))と左側画像G1の左側境界画像Gc1
を構成する画像データDc1(i,j)とを合成することによ
り境界部分Cでの濃度変化がより目立たなくなる(図4
0,図41と図43とを比較参照)。
As described above, by adjusting the level of the image data D2 (i, j) of the i-th row taken in by the CCD 13, the right image G2 picked up by the CCD 13 and the CCD 12
The sensitivity difference between the left image G1 and the left image G1 is corrected. As a result, the image data Dc2 (i, j) ′ (= (Va / V) constituting the right boundary image Gc2 of the level-adjusted right image G2.
b) · Dc2 (i, j)) and left boundary image Gc1 of left image G1
Is combined with the image data Dc1 (i, j) constituting the image data to make the density change at the boundary portion C less noticeable (FIG. 4).
0, see FIG. 41 and FIG. 43).

【0114】なお、図42,図43の例では、CCD1
3で取り込まれ左側画像G2の信号レベルをCCD12
で取り込まれた右側画像G1の信号レベルに調整するよ
うにしたが、逆に左側画像G1の信号レベルを右側画像
G2の信号レベルに調整するようにしてもよく、あるい
は、両画像G1,G2の信号レベルをそれぞれ特定のレ
ベルに調整するようにしてもよい。
In the examples of FIGS. 42 and 43, the CCD 1
3, the signal level of the left image G2 is
Is adjusted to the signal level of the right image G1 captured in the step (1). Alternatively, the signal level of the left image G1 may be adjusted to the signal level of the right image G2. Each of the signal levels may be adjusted to a specific level.

【0115】また、図43では、平均値演算により境界
画像Gcを構成する画像データDcを生成するようにして
いるが、上述した他の方法により境界画像Gcを構成す
る画像データDcを生成するようにしてもよい。
In FIG. 43, the image data Dc forming the boundary image Gc is generated by the average value calculation. However, the image data Dc forming the boundary image Gc is generated by the other method described above. It may be.

【0116】ところで、図42,図43の例では、横ラ
イン毎にそのラインの画像データを用いてレベル調整用
の倍率係数K(=Va/Vb)を算出しているが、この
方法では補正後の画像にラインノイズが発生するおそれ
がある。そこで、図44に示すように、前後2本の近接
の横ラインを合わせたブロックにおいて、左側境界画像
Gc1を構成する画像データDc1(i,p)(p=1,2,…
m)の平均値Va′と右側境界画像Gc2を構成する画像
データDc2(i,p)の平均値Vb′とを算出し、両平均値
Va′,Vb′から倍率係数K′(=Va′/Vb′)
を算出してラインノイズの発生を防止するようにしても
よい。
In the examples of FIGS. 42 and 43, the magnification coefficient K (= Va / Vb) for level adjustment is calculated for each horizontal line using the image data of the line. Line noise may occur in the subsequent image. Therefore, as shown in FIG. 44, in a block in which two adjacent front and rear horizontal lines are combined, image data Dc1 (i, p) (p = 1, 2,...) Constituting the left boundary image Gc1.
m) and the average value Vb 'of the image data Dc2 (i, p) constituting the right boundary image Gc2 are calculated, and the magnification coefficient K' (= Va ') is calculated from both the average values Va' and Vb '. / Vb ')
May be calculated to prevent generation of line noise.

【0117】なお、図44の例では、第k行目のライン
における倍率係数K′は、(k-2),(k−1),k,
(k+2),(k+1)の各行における左側境界画像Gc
1を構成する画像データDc1(i,p)(p=1,2,…m)
の平均値をVa(k-2),Va(k-1),Va(k),Va(k+1),V
a(k+2)とし、右側境界画像Gc2を構成する画像データD
c2(i,p)(p=1,2,…m)の平均値をVb(k-2),Vb
(k-1),Vb(k),Vb(k+1),Vb(k+2)とすると、下記
(5)式で算出される。
In the example of FIG. 44, the magnification coefficient K 'in the k-th line is (k-2), (k-1), k,
Left boundary image Gc in each row of (k + 2) and (k + 1)
Image data Dc1 (i, p) constituting 1 (p = 1, 2,... M)
Are the average values of Va (k-2), Va (k-1), Va (k), Va (k + 1), V
a (k + 2), and image data D constituting the right border image Gc2
The average value of c2 (i, p) (p = 1, 2,... m) is calculated as Vb (k-2), Vb
Assuming that (k-1), Vb (k), Vb (k + 1), and Vb (k + 2), it is calculated by the following equation (5).

【0118】[0118]

【数6】 (Equation 6)

【0119】次に、デジタルカメラ1の撮影制御につい
て、図45,図46のフローチャートを用いて説明す
る。
Next, shooting control of the digital camera 1 will be described with reference to the flowcharts of FIGS.

【0120】メインスイッチをオンにし、デジタルカメ
ラ1が起動すると、撮影可能状態となる(#2のルー
プ)。撮影者によりシャッタボタン9が操作され、撮影
指示の信号が入力されると(#2でYES)、測距部2
1により被写体距離のデータが取り込まれ、このデータ
から撮影レンズ2の焦点制御値が算出される(#4)。
続いて、測光部22により被写体輝度のデータが取り込
まれ(#6)、この被写体輝度のデータを用いて露出制
御値(絞り値とシャッタスピード)が算出される(#
8)。
When the main switch is turned on and the digital camera 1 is started, the digital camera 1 enters a photographable state (# 2 loop). When the shutter button 9 is operated by the photographer and a photographing instruction signal is input (YES in # 2), the distance measuring unit 2
The data of the subject distance is fetched by 1 and the focus control value of the photographing lens 2 is calculated from the data (# 4).
Subsequently, the data of the subject brightness is taken in by the photometry unit 22 (# 6), and the exposure control values (aperture value and shutter speed) are calculated using the data of the subject brightness (# 6).
8).

【0121】続いて、算出された絞り値のデータが絞り
駆動制御部17に出力され、絞り15の開口量の調節が
行われるとともに、算出されたシャッタスピードのデー
タがCCD駆動制御部18に出力される(#10)。ま
た、算出された焦点制御値がレンズ駆動制御部17に出
力され、撮影レンズ21のフォーカシングレンズを移動
して焦点調節が行われる(#12)。
Subsequently, the data of the calculated aperture value is output to the aperture drive control unit 17, the aperture of the aperture 15 is adjusted, and the data of the calculated shutter speed is output to the CCD drive control unit 18. (# 10). Further, the calculated focus control value is output to the lens drive control unit 17, and the focusing lens of the photographing lens 21 is moved to perform focus adjustment (# 12).

【0122】続いて、撮影レンズ2の種類、焦点距離、
レンズ繰出量等に基づいて撮影レンズ2の瞳位置が算出
され(#14)、この算出結果に基づきCCD12,1
3に対する基本補正テーブルがそれぞれ選択され、RO
M23から読み出される(#16)。ROM23には、
上述の(A)〜(D)の4種類の基本補正テーブルがC
CD12,13に対応して記憶されており、瞳位置が近
い場合は、(A)(図15のケースに対応するテーブ
ル)及び(C)(図17のケースに対応するテーブル)
の基本補正テーブルが選択される。また、瞳位置が近い
場合は、(B)(図16のケースに対応するテーブル)
及び(D)(図18のケースに対応するテーブル)の基
本補正テーブルが選択される。
Subsequently, the type of the photographing lens 2, the focal length,
The pupil position of the photographing lens 2 is calculated based on the lens extension amount and the like (# 14).
3 is selected, and RO correction is performed.
It is read from M23 (# 16). In the ROM 23,
The above four types of basic correction tables (A) to (D) are C
When the pupil position is close, the data is stored in correspondence with the CDs 12 and 13, (A) (table corresponding to the case in FIG. 15) and (C) (table corresponding to the case in FIG. 17).
Is selected. When the pupil position is close, (B) (table corresponding to the case of FIG. 16)
And (D) (the table corresponding to the case of FIG. 18) are selected.

【0123】続いて、選択された基本補正テーブルを用
いて算出された絞り15の絞り値に応じたシェーディン
グ補正テーブルが算出されるとともに(#18)、算出
された撮影レンズ2の瞳位置に応じたシェーディング補
正テーブルが算出され(#20)、更にこのシェーディ
ング補正テーブルにCCD12,13の光電変換特性の
バラツキを補正するための補正テーブルを乗じて最終的
なシェーディング補正テーブルが設定される(#2
2)。
Subsequently, a shading correction table corresponding to the aperture value of the aperture 15 calculated using the selected basic correction table is calculated (# 18), and in accordance with the calculated pupil position of the photographing lens 2. The calculated shading correction table is calculated (# 20), and the final shading correction table is set by multiplying the shading correction table by a correction table for correcting variations in the photoelectric conversion characteristics of the CCDs 12 and 13 (# 2).
2).

【0124】続いて、CCD12,13を所定時間だけ
駆動して(シャッタスピードに相当する時間だけ積分し
て)被写体の撮像が行われる(#24)。CCD12,
13で撮像された左側画像G1,右側画像G2を構成す
る画像信号はR,G,Bの色成分毎にアナログ信号処理
部191で所定の信号処理が施された後、A/D変換部
192で画像データに変換された後、画像メモリ193
に記憶される。
Subsequently, the CCDs 12 and 13 are driven for a predetermined time (integrated for a time corresponding to the shutter speed), and an image of a subject is taken (# 24). CCD12,
The image signals constituting the left image G1 and the right image G2 captured by the A / D converter 13 are subjected to predetermined signal processing by the analog signal processor 191 for each of the R, G, and B color components, and then the A / D converter 192. Is converted to image data by the image memory 193
Is stored.

【0125】画像メモリ193に記憶された左側画像G
1,右側画像G2を構成する画像データは、R,G,B
の色成分毎にステップ#22で設定されたシェーディン
グ補正テーブルを用いてシェーディング補正部194で
シェーディング補正が行われた後(#26)、画像デー
タ補間部195で上述した補間処理により画像データの
不足した画素位置の画像データが補充される(#2
8)。更に、画像合成部196で上述した境界画像生成
方法により左側画像G1の左側境界画像Gc1及び右側画
像G2の右側境界画像Gc2の画像データを用いて、境界
部分Cでの濃度変化を目立たなくした合成用の境界画像
Gcの画像データが生成され(#30)、この境界画像
Gcを構成する画像データと左側画像G1及び右側画像
G2の境界画像Gc1,Gc2を除いた部分の画像を構成す
る画像データとを合成して被写体全体の撮像画像Gを構
成する画像データが生成される(#32)。
The left image G stored in the image memory 193
1, the image data constituting the right image G2 is R, G, B
After the shading correction is performed by the shading correction unit 194 using the shading correction table set in step # 22 for each of the color components (# 26), the image data interpolating unit 195 performs the above-described interpolation processing to perform image data shortage. Image data at the selected pixel position is supplemented (# 2
8). Further, the image combining unit 196 uses the image data of the left boundary image Gc1 of the left image G1 and the right boundary image Gc2 of the right image G2 by the above-described boundary image generation method to make the density change at the boundary portion C inconspicuous. Image data of the boundary image Gc for use is generated (# 30), and the image data forming the boundary image Gc and the image data forming the part of the left image G1 and the right image G2 excluding the boundary images Gc1 and Gc2. Are combined to generate image data constituting a captured image G of the entire subject (# 32).

【0126】そして、この撮像画像Gを構成する画像デ
ータは、出力I/F197を介してHDカード10に出
力され、記録される(#34)。これにより1枚の撮像
動作は完了し、次の撮像動作を行うべくステップ#2に
戻る。
Then, the image data forming the captured image G is output to the HD card 10 via the output I / F 197 and recorded (# 34). This completes the imaging operation for one sheet, and returns to step # 2 to perform the next imaging operation.

【0127】なお、上記実施の形態では、2枚のCCD
を用いて被写体光像Aを分割撮像していたが、3枚以上
のCCDを用いて被写体光像Aを分割撮像する場合につ
いても本発明を適用することができる。また、カラー撮
影に限定されず、モノクロ撮影についても適用すること
ができる。
In the above embodiment, two CCDs are used.
However, the present invention can be applied to a case where the subject light image A is divided and photographed using three or more CCDs. In addition, the present invention is not limited to color photography, and can be applied to monochrome photography.

【0128】更に、上記実施の形態では、デジタルスチ
ルカメラについて説明したが、本発明は、デジタルビデ
オカメラにおいても適用することができる。
Further, in the above embodiment, the digital still camera has been described, but the present invention can be applied to a digital video camera.

【0129】[0129]

【発明の効果】以上説明したように、本発明によれば、
被写体光像を境界部分が互いに重複するように複数の部
分光像に分割し、各部分光像を複数の単板式カラー撮像
手段でそれぞれ撮像した後、各色成分毎に撮像画像を上
記境界部分で貼り合わせて被写体光像全体の撮像画像を
生成するデジタルカメラにおいて、カラー撮像手段から
出力される部分画像の画像データを色成分毎に貼り合わ
せて被写体全体の撮像画像を生成する前に各色成分毎に
補間処理により部分画像の画像データの不足する画素位
置の画像データを補充するようにしたので、カラー撮像
手段の感度差に起因して合成画像に偽色が発生するよう
なことがなくなる。
As described above, according to the present invention,
The subject light image is divided into a plurality of partial light images such that the boundary portions overlap each other, and each of the partial light images is captured by a plurality of single-plate color imaging units. In a digital camera that generates a captured image of the entire light image of a subject by laminating the image data of the partial images output from the color imaging unit for each color component, the image data of each color component is generated before generating a captured image of the entire subject. Since the image data at the pixel position where the image data of the partial image is insufficient is supplemented by the interpolation processing, false colors do not occur in the composite image due to the difference in sensitivity of the color imaging means.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るデジタルカメラの第1の実施形態
の外観を示す斜視図である。
FIG. 1 is a perspective view showing an appearance of a digital camera according to a first embodiment of the present invention.

【図2】本発明に係るデジタルカメラに設けられた撮像
光学系の概略構成を示す図である。
FIG. 2 is a diagram showing a schematic configuration of an imaging optical system provided in the digital camera according to the present invention.

【図3】撮像画面内の被写体光像とカラー撮像素子の撮
像面に結像される被写体光像の部分光像との関係を示す
図である。
FIG. 3 is a diagram illustrating a relationship between a subject light image in an imaging screen and a partial light image of the subject light image formed on an imaging surface of a color imaging device.

【図4】カラー撮像素子の画素数と撮像画面の画素数と
の関係を示す図である。
FIG. 4 is a diagram illustrating a relationship between the number of pixels of a color imaging element and the number of pixels of an imaging screen.

【図5】カラー撮像素子の撮像面に設けられたベイヤー
方式の色フィルタの配列を示す図である。
FIG. 5 is a diagram illustrating an array of Bayer-type color filters provided on an imaging surface of a color imaging element.

【図6】カラー撮像素子の各画素に設けられたマイクロ
レンズを示す平面図である。
FIG. 6 is a plan view showing a microlens provided in each pixel of the color imaging device.

【図7】カラー撮像素子の各画素に設けられたマイクロ
レンズを示す断面図である。
FIG. 7 is a cross-sectional view showing a microlens provided for each pixel of the color image sensor.

【図8】本発明に係るデジタルカメラのブロック構成の
一実施の形態を示す図である。
FIG. 8 is a diagram showing an embodiment of a block configuration of a digital camera according to the present invention.

【図9】画像処理部内のシェーディング補正、撮影画像
の生成、画像データの補間等の処理に関するブロック構
成を示す図である。
FIG. 9 is a diagram illustrating a block configuration related to processing such as shading correction, generation of a captured image, and interpolation of image data in an image processing unit.

【図10】画像処理部内のシェーディング補正、撮影画
像の生成、画像データの補間等の処理に関するブロック
構成の変形例を示す図である。
FIG. 10 is a diagram illustrating a modified example of a block configuration related to processes such as shading correction, generation of a captured image, and interpolation of image data in an image processing unit.

【図11】標準より厚みの薄いマイクロレンズの断面図
である。
FIG. 11 is a cross-sectional view of a microlens thinner than a standard.

【図12】標準より厚みの厚いマイクロレンズの断面図
である。
FIG. 12 is a cross-sectional view of a microlens thicker than a standard.

【図13】位置ずれを起こしているマイクロレンズの断
面図である。
FIG. 13 is a cross-sectional view of a microlens having a positional shift.

【図14】入射光線がマイクロレンズに対して斜め入射
した状態を示す図である。
FIG. 14 is a diagram illustrating a state in which an incident light beam is obliquely incident on a microlens.

【図15】撮像素子の撮像面を示す平面図である。FIG. 15 is a plan view illustrating an imaging surface of an imaging element.

【図16】撮像素子の撮像面に対して撮影レンズの瞳位
置が遠い場合の入射光線の入射方向を示す図である。
FIG. 16 is a diagram illustrating an incident direction of an incident light beam when a pupil position of a photographing lens is far from an imaging surface of an imaging element.

【図17】撮像面に対して撮影レンズの瞳位置が近い場
合の入射光線の入射方向を示す図である。
FIG. 17 is a diagram illustrating an incident direction of an incident light beam when a pupil position of a photographing lens is close to an imaging surface.

【図18】図16の場合において、絞りを絞ったときの
入射光線の光線幅の変化を示す図である。
FIG. 18 is a diagram illustrating a change in a light beam width of an incident light beam when the stop is stopped down in the case of FIG. 16;

【図19】図17の場合において、絞りを開いたときの
入射光線の光線幅の変化を示す図である。
FIG. 19 is a diagram showing a change in a light beam width of an incident light beam when the stop is opened in the case of FIG. 17;

【図20】撮像素子の撮像面の感度のバラツキを示す斜
視図である。
FIG. 20 is a perspective view illustrating a variation in sensitivity of an imaging surface of an imaging element.

【図21】撮像素子の撮像面を複数のブロックに分割し
た状態を示す図である。
FIG. 21 is a diagram illustrating a state in which an imaging surface of an imaging element is divided into a plurality of blocks.

【図22】撮影レンズの瞳位置が変化した場合の入射光
束の入射角の変化量を説明するための図である。
FIG. 22 is a diagram for explaining a change amount of an incident angle of an incident light beam when a pupil position of a photographing lens changes.

【図23】撮影レンズの瞳位置が全体的に入射光束の入
射角が最大値より小さくなる位置に変化した場合の撮像
面におけるシェーディング補正テーブルの補正係数K
(h,k)が適用される領域を示す図である。
FIG. 23 is a diagram illustrating a correction coefficient K of a shading correction table on an imaging surface when the pupil position of the photographing lens is changed to a position where the angle of incidence of the incident light beam is smaller than the maximum value.
It is a figure showing the field to which (h, k) is applied.

【図24】撮影レンズの瞳位置が全体的に入射光束の入
射角が最大値より小さくなる位置に変化した場合の補正
係数K(h,k)の補正方法を説明するための図である。
FIG. 24 is a diagram for explaining a method of correcting the correction coefficient K (h, k) when the pupil position of the photographing lens is changed to a position where the incident angle of the incident light beam is smaller than the maximum value as a whole.

【図25】R,G,Bの各色成分の画像の画像データの
補間処理手順を示す図である。
FIG. 25 is a diagram illustrating a procedure of interpolation processing of image data of an image of each of R, G, and B color components.

【図26】境界画像生成方法の第1の実施形態を示す図
で、(a)は境界を鋸波状とした図であり、(b)は境
界を正弦波状とした図である。
26A and 26B are diagrams illustrating a first embodiment of a boundary image generation method, in which FIG. 26A is a diagram in which the boundary is saw-toothed, and FIG. 26B is a diagram in which the boundary is sine-shaped.

【図27】境界部分を構成する画像データの横方向のア
ドレスを示す図である。
FIG. 27 is a diagram showing addresses in the horizontal direction of image data forming a boundary portion.

【図28】境界画像生成方法の第2の実施形態を示す図
である。
FIG. 28 is a diagram illustrating a boundary image generation method according to a second embodiment.

【図29】第2の実施形態に係る境界画像生成方法の変
形例を示す図である。
FIG. 29 is a diagram illustrating a modification of the boundary image generation method according to the second embodiment.

【図30】第2の実施形態に係る境界画像生成方法をベ
イヤー方式のカラー撮像素子を用いた場合に適用する方
法を説明するための図である。
FIG. 30 is a diagram for describing a method of applying the boundary image generation method according to the second embodiment to a case where a Bayer-type color imaging device is used.

【図31】境界部分におけるRの色成分の画像を構成す
る画像データを示す図である。
FIG. 31 is a diagram showing image data forming an image of an R color component at a boundary portion.

【図32】境界部分におけるBの色成分の画像を構成す
る画像データを示す図である。
FIG. 32 is a diagram showing image data constituting an image of a B color component at a boundary portion.

【図33】境界部分におけるRの色成分の画像を構成す
る画像データを示す図である。
FIG. 33 is a diagram showing image data forming an image of an R color component at a boundary portion.

【図34】第3の実施形態に係る境界画像生成方法を説
明するための図である。
FIG. 34 is a diagram for explaining a boundary image generation method according to the third embodiment.

【図35】全画素が左側境界画像を構成する画像データ
で構成されたブロックから当該ブロック内の画素を右側
境界画像を構成する画像データに置換する際の各画素位
置の置換順を示すマトリックス表である。
FIG. 35 is a matrix table showing a replacement order of each pixel position when replacing a pixel in the block with image data forming a right boundary image from a block including all pixels forming image data forming a left boundary image; It is.

【図36】図35に示すマトリックス表に基づいて生成
された境界部分中央のブロックB8の画像データの構成
を示す図である。
36 is a diagram illustrating a configuration of image data of a block B8 at the center of a boundary portion generated based on the matrix table illustrated in FIG. 35;

【図37】ベイヤー方式の単板式カラーCCDを用いた
場合に適用される図35に相当するマトリックス表であ
る。
FIG. 37 is a matrix table corresponding to FIG. 35 and applied when a Bayer single-plate color CCD is used.

【図38】図37に示すマトリックス表に基づいて生成
されたブロックB2の画像データの構成を示す図であ
る。
38 is a diagram showing a configuration of image data of a block B2 generated based on the matrix table shown in FIG. 37.

【図39】図37に示すマトリックス表に基づいて生成
された境界部分中央のブロックB8の画像データの構成
を示す図である。
39 is a diagram illustrating a configuration of image data of a block B8 at the center of a boundary portion generated based on the matrix table illustrated in FIG. 37.

【図40】第4の実施形態に係る境界画像生成方法によ
り生成された境界部分の画像の出力レベルの波形を示す
図である。
FIG. 40 is a diagram illustrating a waveform of an output level of an image of a boundary portion generated by the boundary image generation method according to the fourth embodiment.

【図41】第5の実施形態に係る境界画像生成方法によ
り生成された境界部分の画像の出力レベルの波形を示す
図である。
FIG. 41 is a diagram illustrating a waveform of an output level of an image of a boundary portion generated by the boundary image generation method according to the fifth embodiment.

【図42】被写体光像を撮像する2個のCCDの境界部
分の出力レベルの波形を示す図である。
FIG. 42 is a diagram illustrating a waveform of an output level at a boundary portion between two CCDs that capture a subject light image.

【図43】2個のCCDの出力レベルを調整した後、両
撮像画像を合成したときの出力レベルの波形を示す図で
ある。
FIG. 43 is a diagram showing output level waveforms when both captured images are combined after adjusting the output levels of two CCDs.

【図44】ライン単位でレベル調整を行う際のレベル調
整用の倍率係数Kを対象ラインを含む前後の数ラインに
含まれる画像データを用いて算出する方法を説明するた
めの図である。
FIG. 44 is a diagram for describing a method of calculating a magnification coefficient K for level adjustment when performing level adjustment on a line-by-line basis using image data included in several lines before and after including a target line.

【図45】撮影制御のフローチャートを示す図である。FIG. 45 is a diagram showing a flowchart of photographing control.

【図46】撮影制御のフローチャートを示す図である。FIG. 46 is a view showing a flowchart of photographing control.

【符号の説明】[Explanation of symbols]

1 デジタルカメラ 2 撮影レンズ 3 測光窓 4 投光窓 5 受光窓 6 ファインダー対物窓 7 カード挿入口 8 カード取出ボタン 9 シャッタボタン 10 HDカード 11 光路分離部 12,13 カラー撮像素子(カラー撮像手段) 14 マイクロレンズ 15 絞り 16 レンズ駆動制御部 17 絞り駆動制御部 18 CCD駆動制御部 19 画像処理部(画像処理制御手段) 191 アナログ信号処理部 192 A/D変換部 193 画像メモリ 194 シェーディング補正部 195 画像データ補間部(画像データ補間手段) 196 画像合成部 197 出力I/F 20 カード駆動制御部 21 測距部 22 測光部 23 ROM 24 RAM 25 制御部 26 光束中心 27R〜27B,27R′〜27B′ R,G,Bの色
成分の画像データ 28R,28B,28R′,28B′ R,Bの色成分
の色差データ 29,30 補間フィルタ 31 境界線 32〜38 信号波形
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Photographing lens 3 Metering window 4 Light-emitting window 5 Light-receiving window 6 Viewfinder objective window 7 Card slot 8 Card eject button 9 Shutter button 10 HD card 11 Optical path separation unit 12, 13 Color imaging element (color imaging means) 14 Microlens 15 Aperture 16 Lens drive controller 17 Aperture drive controller 18 CCD drive controller 19 Image processor (image processing controller) 191 Analog signal processor 192 A / D converter 193 Image memory 194 Shading corrector 195 Image data Interpolation unit (image data interpolation means) 196 Image synthesis unit 197 Output I / F 20 Card drive control unit 21 Distance measurement unit 22 Photometry unit 23 ROM 24 RAM 25 Control unit 26 Light beam center 27R-27B, 27R'-27B'R, G, B color component image data 28R, 8B, 28R ', 28B' R, color difference data 29, 30 interpolation filter 31 borders 32-38 signal waveforms of the color components of B

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 被写体光像を境界部分が互いに重複する
ように複数の部分光像に分割し、各部分光像を複数のカ
ラー撮像手段でそれぞれ撮像した後、各色成分毎に撮像
画像を上記境界部分で貼り合わせて被写体光像全体の撮
像画像を生成するデジタルカメラにおいて、上記カラー
撮像手段は、撮像面に所定の位置関係で3原色の色フィ
ルタが配置されてなる単板式カラー撮像手段からなり、
上記カラー撮像手段から出力される画像データを用いて
補間処理により各色成分の撮像画像の不足する画素位置
の画像データを補充する画像データ補間手段と、上記各
色成分の撮像画像の補間処理の後、上記撮像画像の貼合
処理を行う画像処理制御手段とを備えたことを特徴とす
るデジタルカメラ。
1. An object light image is divided into a plurality of partial light images such that boundary portions overlap each other, and each of the partial light images is captured by a plurality of color imaging means. In a digital camera that generates a captured image of the entire subject light image by bonding at a boundary portion, the color imaging unit includes a single-plate color imaging unit in which three primary color filters are arranged in a predetermined positional relationship on an imaging surface. Become
An image data interpolating unit that supplements image data at a pixel position where a captured image of each color component is insufficient by an interpolation process using the image data output from the color imaging unit, and after the interpolation process of the captured image of each color component, A digital camera, comprising: an image processing control unit that performs the bonding process of the captured images.
JP9212128A 1997-08-06 1997-08-06 Digital camera Pending JPH1155682A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP9212128A JPH1155682A (en) 1997-08-06 1997-08-06 Digital camera
US09/130,141 US6571022B2 (en) 1997-08-06 1998-08-06 Image processing apparatus for generating a single image of an object using overlapping partial images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9212128A JPH1155682A (en) 1997-08-06 1997-08-06 Digital camera

Publications (1)

Publication Number Publication Date
JPH1155682A true JPH1155682A (en) 1999-02-26

Family

ID=16617364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9212128A Pending JPH1155682A (en) 1997-08-06 1997-08-06 Digital camera

Country Status (1)

Country Link
JP (1) JPH1155682A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100390847B1 (en) * 2001-06-30 2003-07-12 주식회사 하이닉스반도체 Color interpolation apparatus in image sensor
KR100421348B1 (en) * 1999-10-19 2004-03-06 마츠시타 덴끼 산교 가부시키가이샤 Color image pickup apparatus
WO2004110071A1 (en) * 2003-06-05 2004-12-16 Olympus Corporation Image processor and image processing program
US7123748B2 (en) 2001-10-01 2006-10-17 Nissan Motor Co., Ltd. Image synthesizing device and method
CN105981367A (en) * 2014-02-11 2016-09-28 罗伯特·博世有限公司 Brightness and color matching video from multiple-camera system
CN110794569A (en) * 2019-11-14 2020-02-14 武汉兰丁医学高科技有限公司 Cell micro microscopic image acquisition device and image identification method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421348B1 (en) * 1999-10-19 2004-03-06 마츠시타 덴끼 산교 가부시키가이샤 Color image pickup apparatus
KR100390847B1 (en) * 2001-06-30 2003-07-12 주식회사 하이닉스반도체 Color interpolation apparatus in image sensor
US7123748B2 (en) 2001-10-01 2006-10-17 Nissan Motor Co., Ltd. Image synthesizing device and method
WO2004110071A1 (en) * 2003-06-05 2004-12-16 Olympus Corporation Image processor and image processing program
JP2006013558A (en) * 2003-06-05 2006-01-12 Olympus Corp Image processing apparatus and image processing program
US7373020B2 (en) 2003-06-05 2008-05-13 Olympus Corporation Image processing apparatus and image processing program
CN105981367A (en) * 2014-02-11 2016-09-28 罗伯特·博世有限公司 Brightness and color matching video from multiple-camera system
US10166921B2 (en) 2014-02-11 2019-01-01 Robert Bosch Gmbh Brightness and color matching video from multiple-camera system
CN110794569A (en) * 2019-11-14 2020-02-14 武汉兰丁医学高科技有限公司 Cell micro microscopic image acquisition device and image identification method
CN110794569B (en) * 2019-11-14 2021-01-26 武汉兰丁智能医学股份有限公司 Cell micro microscopic image acquisition device and image identification method

Similar Documents

Publication Publication Date Title
JP3707259B2 (en) Image composition method and image composition apparatus using the method
US6571022B2 (en) Image processing apparatus for generating a single image of an object using overlapping partial images
US7148925B2 (en) Solid-state honeycomb type image pickup apparatus using a complementary color filter and signal processing method therefor
US8558915B2 (en) Photographing apparatus and method
EP2835965A1 (en) Imaging device and image sensor
US9369693B2 (en) Stereoscopic imaging device and shading correction method
JP5499224B2 (en) Imaging apparatus and shading correction method
US20110050856A1 (en) Stereoscopic imaging apparatus
JP2001275029A (en) Digital camera, its image signal processing method and recording medium
US7952636B2 (en) Method for driving solid-state imaging device and imaging apparatus
JP3912404B2 (en) Imaging device
JPH1155558A (en) Digital camera
JP2010154310A (en) Compound-eye camera, and photographing method
JP2004328117A (en) Digital camera and photographing control method
JPH11122525A (en) Digital camera
JPH07288824A (en) Luminance signal generator
JP2003018445A (en) Imaging apparatus
JP5033711B2 (en) Imaging device and driving method of imaging device
JPH1155682A (en) Digital camera
EP1734745B1 (en) Digital camera and contol method thereof
JP2003023555A (en) Image photographing apparatus
JP2010161739A (en) Compound-eye imaging apparatus, and imaging control method
JP5663573B2 (en) Imaging apparatus and imaging method
JP2010204385A (en) Stereoscopic imaging apparatus and method
JP2006340100A (en) Photographic device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030624