JP2000333060A - Digital camera and storage medium for image signal processing - Google Patents

Digital camera and storage medium for image signal processing

Info

Publication number
JP2000333060A
JP2000333060A JP11137641A JP13764199A JP2000333060A JP 2000333060 A JP2000333060 A JP 2000333060A JP 11137641 A JP11137641 A JP 11137641A JP 13764199 A JP13764199 A JP 13764199A JP 2000333060 A JP2000333060 A JP 2000333060A
Authority
JP
Japan
Prior art keywords
image
pixel
subject
data
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11137641A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Masahisa Suzuki
政央 鈴木
Kiyoshige Shibazaki
清茂 芝崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP11137641A priority Critical patent/JP2000333060A/en
Publication of JP2000333060A publication Critical patent/JP2000333060A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To detect smear caused in image data of a digital camera. SOLUTION: An image processing section 431a amplifies an object image signal photographed by an image pickup element 214a up to a prescribed level. The object image signal photographed by an image pickup element 214b is amplified by an image processing section 431b up to a prescribed level. An A/D converter circuit 432 converts the image signals by the image pickup elements 214a, 214b into digital. signals, and a DSP 433 applies image processing to the digital signals. A CPU 439 discriminates whether or not an output value of pixel output data photographed by the image pickup element 214a is 250 or over, and when the CPU 439 discriminates that the output value is 250 or over, the CPU 439 discriminates whether or not an output value of pixel output data photographed by the corresponding image pickup element 214b is in excess of 200. When the pixel output, value by the image pickup element 214b is 200 or below, occurrence of smear is discriminated and the pixel output value being 250 or over by the image pickup element 214a can be corrected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体像を撮像し
て被写体画像データを記憶することができるデジタルカ
メラおよび画像信号処理プログラムが格納された記憶媒
体に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a digital camera capable of capturing a subject image and storing subject image data, and a storage medium storing an image signal processing program.

【0002】[0002]

【従来の技術】撮影レンズを通過した被写体像を撮像し
て画像信号を出力するCCDのような撮像装置と、画像
信号を表示用に画像処理する画像処理装置と、画像処理
後の画像データをJPEGなどの方式で圧縮してフラッ
シュメモリなどの記憶媒体に記憶する記憶装置を備える
デジタルスチルカメラが知られている。
2. Description of the Related Art An image pickup device such as a CCD for picking up an image of a subject passing through a photographing lens and outputting an image signal, an image processing device for image-processing the image signal for display, and processing the image data after the image processing. 2. Description of the Related Art A digital still camera including a storage device that compresses data by a method such as JPEG and stores the compressed data in a storage medium such as a flash memory is known.

【0003】このようなデジタルスチルカメラのCCD
は、きわめて高い輝度の被写体が被写界に存在すると
き、スミアと呼ばれる現象を引き起こすことが知られて
いる。スミアは撮像された画像の中に白いすじとして観
測されるもので、CCD上で強い光が当たった個所から
電荷があふれ出し、電荷があふれた個所と同じライン上
にあり、CCDに蓄積された電荷が読み出される際に上
記個所より後から読み出される電荷に対して、あふれた
電荷が足されてしまうことにより生じる。
[0003] CCD of such a digital still camera
Is known to cause a phenomenon called smear when an object with extremely high brightness exists in the field. Smear is observed as a white streak in the captured image.Charge overflows from the place where strong light hits on the CCD, it is on the same line as the place where the charge overflows, and accumulated on the CCD. This is caused by adding an overflowing charge to a charge read after the above-described portion when the charge is read.

【0004】[0004]

【発明が解決しようとする課題】上述したスミアが発生
すると、被写体に存在しない白いすじが画像データに現
れるので、良好な画像記録ができないという問題があっ
た。
When the smear described above occurs, white streaks that do not exist in the subject appear in the image data, so that there has been a problem that a good image cannot be recorded.

【0005】本発明の目的は、被写体像を撮像して出力
された画像信号に、たとえば、スミアが発生している場
合はそれを検出するようにしたデジタルカメラを提供す
ることにある。また、本発明の他の目的は、記憶媒体に
記憶された被写体画像データに、たとえば、スミアが発
生している場合はそれを検出するプログラムを格納した
記憶媒体を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a digital camera which detects, for example, when smear is generated in an image signal output by capturing a subject image. Another object of the present invention is to provide a storage medium storing, for example, a program for detecting smear, if it occurs, in subject image data stored in the storage medium.

【0006】[0006]

【課題を解決するための手段】一実施の形態を示す図1
〜図3を参照して本発明を説明する。 (1)請求項1の発明によるデジタルカメラは、被写体
像を第1の被写体像および第2の被写体像に分離して第
1および第2の結像面にそれぞれ結像させる光学手段2
19と、第1および第2の結像面に配置されて第1およ
び第2の被写体像をそれぞれ撮像する第1および第2の
撮像手段214a、214bと、第1の撮像手段214
aの出力値が第1の所定値250以上となる第1の画素
を検出する検出手段439と、第1の画素に対応する第
2の撮像手段214bの第2の画素の出力値が第2の所
定値201以上か否かを判定する判定手段439とを備
えることにより、上述した目的を達成する。 (2)請求項2の発明は、請求項1に記載のデジタルカ
メラにおいて、判定手段439による判定結果に基づい
て、第1の画素の出力値が第1の所定値250より小さ
くなるように、その第1の画素の出力値を補正する補正
手段439を備えることを特徴とする。 (3)請求項3の発明は、請求項1または2に記載のデ
ジタルカメラにおいて、第1および第2の撮像手段21
4a、214bは、両撮像手段214a、214b上に
投影されたそれぞれの被写体像に基づいて蓄積された電
荷を読み出すとき、電荷の読み出し方向が両撮像手段2
14a、214bで互いに反対になるようにしたことを
特徴とする。 (4)請求項4の発明は、被写体像を互いに共役な面で
撮像して得られた第1の被写体画像データおよび第2の
被写体画像データに分けてそれぞれ記憶媒体に記憶し、
記憶媒体に記憶された第1および第2の被写体画像デー
タを読み出して画像処理を行う画像処理プログラムが格
納された画像信号処理用記憶媒体に適用される。そし
て、画像処理プログラムにより、第1の被写体画像デー
タの輝度値が第1の所定値250以上となる第1のデー
タを検出する検出処理と、第1のデータに対応する第2
の被写体画像データの第2のデータの輝度値が第2の所
定値201以上か否かを判定する判定処理とを行うこと
を特徴とする。 (5)請求項5の発明は、請求項4に記載の画像信号処
理用記憶媒体において、上記の画像処理プログラムによ
る判定処理の判定結果に基づいて、第1のデータの輝度
値が第1の所定値250より小さくなるように、その第
1のデータの輝度値を補正する補正処理を行うことを特
徴とする。
FIG. 1 shows an embodiment of the present invention.
The present invention will be described with reference to FIGS. (1) In a digital camera according to a first aspect of the present invention, an optical unit 2 for separating a subject image into a first subject image and a second subject image and forming the first subject image and the second subject image on the first and second imaging surfaces, respectively.
19, first and second imaging units 214a and 214b arranged on the first and second imaging planes and imaging the first and second subject images, respectively, and the first imaging unit 214
a detecting means 439 for detecting a first pixel whose output value a is equal to or greater than a first predetermined value 250, and an output value of a second pixel of the second imaging means 214b corresponding to the first pixel being a second value. The above-described object is achieved by providing the determination unit 439 for determining whether or not the predetermined value 201 is equal to or more than the predetermined value 201. (2) In the digital camera according to the first aspect, the output value of the first pixel may be smaller than the first predetermined value 250 based on the determination result by the determination unit 439. It is characterized by including a correction means 439 for correcting the output value of the first pixel. (3) The digital camera according to claim 1 or 2, wherein the first and second image pickup means 21
4a and 214b, when reading out the accumulated electric charge based on the respective subject images projected on the two image pickup means 214a and 214b,
14a and 214b are characterized by being opposite to each other. (4) According to the invention of claim 4, the subject image is divided into first subject image data and second subject image data obtained by imaging on mutually conjugate planes, and stored in a storage medium, respectively.
The present invention is applied to an image signal processing storage medium storing an image processing program for reading out first and second subject image data stored in a storage medium and performing image processing. Then, the image processing program detects a first data in which the luminance value of the first subject image data is equal to or more than the first predetermined value 250, and a second process corresponding to the first data.
And determining whether the luminance value of the second data of the subject image data is equal to or greater than a second predetermined value 201. (5) The image signal processing storage medium according to (4), wherein the brightness value of the first data is set to the first value based on the determination result of the determination processing by the image processing program. A correction process for correcting the luminance value of the first data so as to be smaller than the predetermined value 250 is performed.

【0007】なお、本発明の構成を説明する上記課題を
解決するための手段の項では、本発明を分かり易くする
ために実施の形態の図を用いたが、これにより本発明が
実施の形態に限定されるものではない。
[0007] In the section of the means for solving the above-mentioned problems, which explains the configuration of the present invention, the drawings of the embodiments are used to facilitate understanding of the present invention. However, the present invention is not limited to this.

【0008】[0008]

【発明の実施の形態】−第一の実施の形態− 以下、図面を参照して本発明の実施の形態を説明する。
図1に示すように、第一の実施の形態による一眼レフデ
ジタルスチルカメラ100は、カメラ本体200と、カ
メラ本体200に着脱されるファインダー装置50と、
レンズ91と絞り92を内蔵してカメラ本体200に着
脱される撮影レンズ1とを備える。被写体光Lは撮影レ
ンズ1を通過してカメラ本体200に入射され、ハーフ
ミラーからなるクイックリターンミラー3により焦点検
出(オートフォーカス:AF)のための通過光L1とフ
ァインダー観察用の反射光L2とに分離される。通過光
L1は、ファインダー観察状態ではクイックリターンミ
ラー3を通過してフィールドレンズ209で集光され、
さらにミラー210で反射されて後述するミラー211
に導かれる。一方、反射光L2は、ファインダー装置5
0に導かれて撮影レンズ1の一次結像面16と共役なフ
ァインダーマット4上に被写体像を結像し、その像がペ
ンタプリズム205を介してファインダー光学系207
で拡大されて撮影者18により観察される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS -First Embodiment- An embodiment of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the single-lens reflex digital still camera 100 according to the first embodiment includes a camera body 200, a finder device 50 detachable from the camera body 200,
The camera includes a photographing lens 1 which has a built-in lens 91 and a stop 92 and is detachably attached to the camera body 200. The subject light L passes through the photographing lens 1 and is incident on the camera body 200. The quick return mirror 3, which is a half mirror, transmits light L1 for focus detection (autofocus: AF) and reflected light L2 for finder observation. Is separated into The transmitted light L1 passes through the quick return mirror 3 in the viewfinder observation state and is collected by the field lens 209.
Further, the light is reflected by the mirror 210 and is later described as a mirror 211.
It is led to. On the other hand, the reflected light L2 is
The finder optical system 207 guides the subject image onto the finder mat 4 conjugated to the primary imaging surface 16 of the photographing lens 1 by being guided to the finder prism 4.
And is observed by the photographer 18.

【0009】デジタルスチルカメラ100がレリーズさ
れると、ハーフミラー3が破線3’で示す位置に回動
し、被写体光Lは分離されることなくミラー210側へ
進む。
When the digital still camera 100 is released, the half mirror 3 rotates to the position shown by the broken line 3 ', and the subject light L proceeds to the mirror 210 without being separated.

【0010】上述したフィールドレンズ209は、クイ
ックリターンミラー3の後方(図1では右側)におい
て、撮影レンズ1の一次結像面16より前方(図1では
左側)に設けられている。一次結像面16の後方には、
水平方向に対して55度の角度θで固定されたミラー2
10が設けられ、被写体光Lの光束をミラー210の直
下よりも前方に設けられているミラー211に向けて反
射する。ミラー211に入射された光束は、ミラー21
1で図面奥方向に水平に反射される。デジタルスチルカ
メラ100を背面から透視した図2に示すように、ミラ
ー211で図2の右方向に反射された光束は、後述する
縮小光学系212に入射される。
The above-mentioned field lens 209 is provided behind the quick return mirror 3 (right side in FIG. 1) and forward (left side in FIG. 1) of the primary imaging surface 16 of the taking lens 1. Behind the primary imaging plane 16,
Mirror 2 fixed at an angle θ of 55 degrees with respect to the horizontal direction
10 is provided, and reflects the luminous flux of the subject light L toward a mirror 211 provided in front of immediately below the mirror 210. The light beam incident on the mirror 211 is
At 1, the light is reflected horizontally in the depth direction of the drawing. As shown in FIG. 2 as seen through the digital still camera 100 from the back, the light beam reflected rightward in FIG. 2 by the mirror 211 enters a reduction optical system 212 described later.

【0011】図3は、上述した撮影レンズ1の一次結像
面16より後方(図3では右斜め上)に配置されている
縮小光学系212、ビームスプリッタ219および撮像
素子214aおよび214bからなる結像光学系の斜視
図である。縮小光学系212の内部には、リレーレンズ
212aと212bとに挟まれて、シャッター板208
と絞り板215とが隣接して設けられている。シャッタ
ー板208および絞り板215は円盤状に形成されてお
り、円盤の回転中心にそれぞれ設けられたステップモー
タ408、415(図2)によりシャッター板208お
よび絞り板215は回転される。
FIG. 3 shows an image forming system including a reduction optical system 212, a beam splitter 219, and image pickup devices 214a and 214b which are arranged behind the above-mentioned primary image forming surface 16 of the photographing lens 1 (in FIG. 3, obliquely right above). It is a perspective view of an image optical system. Inside the reduction optical system 212, a shutter plate 208 is sandwiched between relay lenses 212a and 212b.
And an aperture plate 215 are provided adjacent to each other. The shutter plate 208 and the diaphragm plate 215 are formed in a disk shape, and the shutter plate 208 and the diaphragm plate 215 are rotated by step motors 408 and 415 (FIG. 2) provided at the rotation centers of the disks, respectively.

【0012】図3に示すように、シャッター板208に
は全ての被写体光束を遮光する完全遮光部208a、全
ての被写体光束を通過させる開口部208b、被写界の
水平方向に並ぶ一対の開口部を有する208cと208
d、および被写界の垂直方向に並ぶ一対の開口部208
eと208f、被写界の水平方向に対して斜め45度の
方向に並ぶ一対の開口部208gと208h、および上
記斜め45度と直交する方向に並ぶ一対の開口部208
iと208jが設けられている。そして、開口部208
c、開口部208e、開口部208g、および開口部2
08iには被写体光束からP偏光成分を透過させる偏光
板308c、308e、308g、308iが、開口部
208d、開口部208f、開口部208h、および開
口部208jには被写体光束からS偏光成分を透過させ
る偏光板308d、308f、308h、308jがそ
れぞれ設けられている。通常の撮影時には完全遮光部2
08aおよび開口部208bが用いられ、後述する瞳分
割方式の焦点検出動作時に開口部208c〜208jが
用いられる。
As shown in FIG. 3, the shutter plate 208 has a complete light blocking portion 208a for blocking all subject light beams, an opening portion 208b for passing all subject light beams, and a pair of opening portions arranged in the horizontal direction of the scene. 208c and 208 having
d, and a pair of openings 208 arranged in the vertical direction of the object scene
e and 208f, a pair of openings 208g and 208h arranged in a direction oblique to 45 degrees with respect to the horizontal direction of the scene, and a pair of openings 208 arranged in a direction orthogonal to the oblique 45 degrees.
i and 208j are provided. Then, the opening 208
c, opening 208e, opening 208g, and opening 2
08i includes polarizing plates 308c, 308e, 308g, and 308i that transmit the P-polarized component from the subject light beam, and the opening portions 208d, 208f, 208h, and 208j transmit the S-polarized component from the subject light beam. Polarizing plates 308d, 308f, 308h, and 308j are provided, respectively. Complete shading part 2 for normal shooting
08a and an opening 208b are used, and the openings 208c to 208j are used at the time of a pupil division type focus detection operation described later.

【0013】一方、絞り板215には絞り開口部215
a〜215gが設けられている。全ての被写体光束を通
過させる開口部215aの面積を基準にして、絞り開口
部215b〜215gの開口面積は、開口部215b〜
215gに至るまで開口面積が順に半分ずつになるよう
に設定されている。図3に示すとうり、開口面積が大き
な開口部と小さな開口部とを交互に配置することによ
り、隣接する開口部間の間隔が狭くならないように構成
されている。縮小光学系212の射出側(図3でリレー
レンズ212bの右上)には偏光ビームスプリッタ21
9が設けられている。偏光ビームスプリッタ219は、
入射された被写体光束のうちP偏光成分を透過し、S偏
光成分を反射する。偏光ビームスプリッタ219を透過
した光束のP偏光成分は撮像素子214aに入射され、
偏光ビームスプリッタ219で反射された光束のS偏光
成分は撮像素子214bに入射される。撮像素子214
aおよび214b上に結像される像は、一次結像面16
において空中像として結像された像がフィールドレンズ
209、およびリレーレンズ212a、212bの作用
により縮小されたものである。なお、図3に不図示であ
るが、図2に示すように、撮像素子214aおよび21
4bと偏光ビームスプリッタ219との間には、CCD
保護ガラス213a、213bとオプティカル・ローパ
ス・フィルター223a、223bがそれぞれ設けられ
ている。
On the other hand, a diaphragm plate 215 has a diaphragm opening 215.
a to 215 g are provided. With reference to the area of the opening 215a through which all the subject light beams pass, the aperture area of the aperture openings 215b to 215g is
The opening area is set so as to be halved in order to 215 g. As shown in FIG. 3, by alternately arranging openings having a large opening area and openings having a small opening area, the distance between adjacent openings is not reduced. On the exit side of the reduction optical system 212 (upper right of the relay lens 212b in FIG. 3), the polarization beam splitter 21 is provided.
9 are provided. The polarization beam splitter 219 is
It transmits the P-polarized light component and reflects the S-polarized light component of the incident subject light beam. The P-polarized light component of the light beam transmitted through the polarization beam splitter 219 is incident on the image sensor 214a,
The S-polarized component of the light beam reflected by the polarization beam splitter 219 is incident on the image sensor 214b. Image sensor 214
a and 214b are imaged on the primary imaging surface 16
Is an image formed as an aerial image reduced by the action of the field lens 209 and the relay lenses 212a and 212b. Although not shown in FIG. 3, as shown in FIG.
4b and the polarization beam splitter 219, a CCD
Protective glasses 213a and 213b and optical low-pass filters 223a and 223b are provided, respectively.

【0014】図4は、この実施の形態のデジタルスチル
カメラ100の回路を示すブロック図である。CPU4
39はROM443に記憶されている制御プログラムが
起動されると、操作部材407から入力される操作信号
に基づいて、各部のブロックに対する制御を適宜行う。
デジタルスチルカメラ100は、後述するように被写体
像を撮像して画像データ記録する記録モードと、記録さ
れた画像データを読み出して再生する再生モードの2つ
の動作モードを有し、これらの動作モードは操作部材4
07から入力される操作信号に基づいて切換えられる。
FIG. 4 is a block diagram showing a circuit of the digital still camera 100 according to this embodiment. CPU4
When the control program stored in the ROM 443 is activated, the control unit 39 appropriately controls the blocks of each unit based on an operation signal input from the operation member 407.
The digital still camera 100 has two operation modes, a recording mode in which a subject image is captured and image data is recorded, and a reproduction mode in which recorded image data is read out and reproduced, as described later. Operation member 4
Switching is performed based on an operation signal input from the control unit 07.

【0015】図3において既に図示した撮像素子214
aおよび214bは同じ画素数を有するCCDであり、
各画素に結像された光画像を電気的な画像信号に光電変
換する。デジタルシグナルプロセッサ(以下、DSPと
呼ぶ)433は、撮像素子214aおよび214bに対
して水平駆動信号を供給するとともに、撮像素子駆動回
路434を制御し、撮像素子214aおよび214bに
対して垂直駆動信号を供給する。
The image sensor 214 already shown in FIG.
a and 214b are CCDs having the same number of pixels,
The optical image formed on each pixel is photoelectrically converted into an electrical image signal. A digital signal processor (hereinafter referred to as DSP) 433 supplies a horizontal drive signal to the image sensors 214a and 214b, controls an image sensor drive circuit 434, and supplies a vertical drive signal to the image sensors 214a and 214b. Supply.

【0016】画像処理部431a、431bは、CPU
439により制御され、撮像素子214aおよび214
bで光電変換された画像信号を所定のタイミングでサン
プリングして、所定の信号レベルとなるように増幅す
る。画像信号を増幅する増幅率は、撮影時と後述する焦
点検出時とで設定値が変更される。焦点検出時の露光時
間が短縮されるように、たとえば、焦点検出時は撮影時
の約4倍に設定される。アナログ/デジタル変換回路
(以下、A/D変換回路と呼ぶ)432は2チャンネル
の入力ポートを有し、この入力ポートには画像処理部4
31aと431bから出力された増幅後の画像信号がそ
れぞれ入力される。そして、A/D変換回路432でデ
ジタル信号に変換された画像データが上述したDSP4
33に入力され、輪郭補償やガンマ補正、ホワイトバラ
ンス調整などの画像処理が施される。
The image processing units 431a and 431b have a CPU
439, the image sensors 214a and 214
The image signal photoelectrically converted in b is sampled at a predetermined timing and amplified to a predetermined signal level. The set value of the amplification factor for amplifying the image signal is changed between the time of shooting and the time of focus detection described later. In order to shorten the exposure time at the time of focus detection, for example, at the time of focus detection, it is set to about four times that at the time of shooting. An analog / digital conversion circuit (hereinafter, referred to as an A / D conversion circuit) 432 has a two-channel input port.
The amplified image signals output from 31a and 431b are input respectively. Then, the image data converted into the digital signal by the A / D conversion circuit 432 is
The image data is input to the image processing unit 33 and subjected to image processing such as contour compensation, gamma correction, and white balance adjustment.

【0017】DSP433は、バッファメモリ436お
よびメモリカード424に接続されているデータバスを
制御し、画像処理が施された画像データをバッファメモ
リ436に一旦記憶させたのち、バッファメモリ436
から記憶した画像データを読み出して、撮像素子214
aおよび214bによる2つの画像データを合成する。
その後、たとえば、JPEG圧縮のために所定のフォー
マット処理を行い、フォーマット処理後の画像データを
JPEG方式で所定の比率にデータ圧縮して、メモリカ
ード424に記録させる。また、DSP433は上記の
画像処理後の画像データをフレームメモリ435に記憶
させて、カメラ本体200の背面に設けられたLCD2
20(図2)上に表示させたり、メモリカード424か
ら記録された撮影画像データを読み出して伸張し、伸張
後の撮影画像データをフレームメモリ435に記憶させ
てLCD220上に表示させる。さらに、DSP433
は、上述した画像データのメモリカード424への記
録、および伸張後の撮影画像データのバッファメモリ4
36への記録などにおけるデータ入出力のタイミング管
理を行う。
The DSP 433 controls the data bus connected to the buffer memory 436 and the memory card 424, and temporarily stores the image data subjected to the image processing in the buffer memory 436.
The stored image data is read out from the
a and 214b are combined.
After that, for example, a predetermined format process is performed for JPEG compression, and the image data after the format process is data-compressed at a predetermined ratio by the JPEG method and recorded on the memory card 424. The DSP 433 stores the image data after the image processing in the frame memory 435, and stores the image data in the LCD 2 provided on the back of the camera body 200.
20 (FIG. 2) or read out and expand the captured image data recorded from the memory card 424, store the expanded captured image data in the frame memory 435 and display it on the LCD 220. In addition, DSP433
Is a buffer memory 4 for recording the above-described image data on the memory card 424 and for taking the expanded image data.
The timing management of data input / output in recording to 36 is performed.

【0018】バッファメモリ436は、メモリカード4
24に対する画像データの入出力の速度の違いと、CP
U439やDSP433などにおける処理速度の違いを
緩和するために利用される。測色素子417は、被写体
およびその周囲の色温度を測定し、測定結果を測色回路
452に対して出力する。測色回路452は、測色素子
417から出力された測色結果であるアナログ信号に対
して、所定の処理を施してデジタル信号に変換し、変換
後のデジタル信号をCPU439に出力する。このデジ
タル出力信号に基づいて、上述したホワイトバランス調
整が行われる。タイマ445は時計回路を内蔵し、現在
の時刻に対応するタイムデータをCPU439に出力す
る。このタイムデータは、上述した画像データとともに
メモリカード424に記録される。
The buffer memory 436 is a memory card 4
24 and the difference in the speed of input / output of image data
It is used to reduce the difference in processing speed between the U439 and the DSP433. The colorimetric element 417 measures the color temperature of the subject and its surroundings, and outputs the measurement result to the colorimetric circuit 452. The colorimetric circuit 452 performs a predetermined process on the analog signal, which is the colorimetric result output from the colorimetric element 417, to convert the analog signal into a digital signal, and outputs the converted digital signal to the CPU 439. The above-described white balance adjustment is performed based on the digital output signal. The timer 445 has a built-in clock circuit and outputs time data corresponding to the current time to the CPU 439. This time data is recorded on the memory card 424 together with the image data described above.

【0019】絞り駆動回路453は、上述した絞り板2
15の開口部215a〜215gのうち所定の開口部が
選択されるように、絞り板215を回転させるステップ
モータ415を駆動する。なお、絞り設定のための露出
の測定は、撮像素子214aおよび214bから出力さ
れる画像信号に基づいて行われる。シャッター駆動回路
454は、シャッター板208を回転させるステップモ
ータ408を駆動し、シャッター板208に設けられた
完全遮光部208aと全光束通過の開口部208bとを
切換えることにより、シャッターの開放時間を制御す
る。また、焦点検出時は開口部208c〜208jを切
換える。
The diaphragm driving circuit 453 is provided with the diaphragm plate 2 described above.
A step motor 415 for rotating the aperture plate 215 is driven so that a predetermined one of the fifteen openings 215a to 215g is selected. The measurement of the exposure for setting the aperture is performed based on the image signals output from the image sensors 214a and 214b. The shutter drive circuit 454 controls the shutter open time by driving a step motor 408 that rotates the shutter plate 208 and switching between a complete light blocking portion 208a provided on the shutter plate 208 and an opening 208b through which all light beams pass. I do. At the time of focus detection, the openings 208c to 208j are switched.

【0020】レンズ駆動回路430は、焦点調整を行う
ために撮影レンズ1を移動させる。ファインダ内表示回
路440は、上述した各種の動作における設定内容など
をファインダ内表示素子426に表示させる。また、イ
ンターフェイス448は、たとえば、撮影画像データな
どの所定のデータを、不図示の所定の外部装置との間で
授受するように設けられている。
The lens drive circuit 430 moves the photographing lens 1 to perform focus adjustment. The in-finder display circuit 440 causes the in-finder display element 426 to display the settings in the various operations described above. The interface 448 is provided so as to exchange predetermined data such as captured image data with a predetermined external device (not shown).

【0021】−焦点検出− 上述したデジタルスチルカメラ100の焦点検出動作に
ついて説明する。CPU439は、絞り駆動回路453
を制御してステップモータ415を駆動し、絞り板21
5に形成された開口部のうち、全光束を通過させる開口
部215bを光軸上にセットする。また、シャッター駆
動回路454を制御してステップモータ408を駆動
し、たとえば、シャッター板208の光軸に対して垂直
方向に形成された開口部208eと208fとの中心が
光軸上になるようにセットする。すなわち、開口部20
8eと208fは被写界内に垂直に並んで配設される。
-Focus Detection-The focus detection operation of the digital still camera 100 will be described. The CPU 439 controls the aperture driving circuit 453
Is controlled to drive the stepping motor 415 and the diaphragm plate 21
Among the openings formed in 5, the opening 215b through which all light beams pass is set on the optical axis. Further, the shutter drive circuit 454 is controlled to drive the step motor 408 so that, for example, the centers of the openings 208 e and 208 f formed in the direction perpendicular to the optical axis of the shutter plate 208 are on the optical axis. set. That is, the opening 20
8e and 208f are arranged vertically side by side in the scene.

【0022】撮影レンズ1に入射して一次結像面16で
結像した一次像は、被写体光束としてミラー210およ
び211で反射してシャッター板208に入射される。
入射された被写体光束は、P偏光成分の焦点検出光束と
S偏光成分の焦点検出光束として出射される。すなわ
ち、開口部208eに設けられたP偏光を透過する偏光
板308e(図3)の作用により、開口部208eを透
過する光束はP偏光成分のみになる。一方、開口部20
8fに設けられたS偏光を透過する偏光板308fの作
用により、開口部208fを透過する光束はS偏光成分
のみになる。このため、開口部208eを透過したP偏
光成分の焦点検出光束は、偏光ビームスプリッタ209
で反射されることなく透過して撮像素子214aに入射
される。開口部208fを透過したS偏光成分の焦点検
出光束は、偏光ビームスプリッタ209を透過すること
なく反射されて撮像素子214bに入射される。このよ
うに、撮像素子214aには開口部208eを透過した
光束が、撮像素子214bには開口部208fを透過し
た光束が入射されるので、両撮像素子214aおよび2
14bから出力される画像信号に基づいた両被写体画像
データを比較することにより、次のように焦点検出を行
うことができる。
The primary image incident on the taking lens 1 and formed on the primary image plane 16 is reflected by mirrors 210 and 211 as a light beam of the subject and is incident on the shutter plate 208.
The incident subject light flux is emitted as a focus detection light flux of a P-polarized light component and a focus detection light flux of an S-polarized light component. That is, due to the action of the polarizing plate 308e (FIG. 3) provided in the opening 208e and transmitting P-polarized light, the light beam transmitted through the opening 208e becomes only the P-polarized component. On the other hand, the opening 20
By the operation of the polarizing plate 308f provided in 8f and transmitting S-polarized light, the light beam transmitted through the opening 208f becomes only the S-polarized component. For this reason, the focus detection light flux of the P-polarized light component transmitted through the opening 208 e is
The light is transmitted without being reflected at the imaging element 214a. The focus detection light flux of the S-polarized light component transmitted through the opening 208f is reflected without passing through the polarization beam splitter 209, and is incident on the image sensor 214b. As described above, the light beam transmitted through the opening 208e enters the image sensor 214a, and the light beam transmitted through the opening 208f enters the image sensor 214b.
By comparing the two subject image data based on the image signal output from 14b, focus detection can be performed as follows.

【0023】図5は、瞳分割による焦点検出動作の原理
を説明する図である。領域800は撮影レンズ1(図
1)の射出瞳である。また、図5においてミラー21
0、211、絞り板215および偏光ビームスプリッタ
219は省略している。領域801e、801fは、シ
ャッター板208に設けられている開口部208e、2
08fをフィールドレンズ209によって領域800上
に逆投影した像の存在する領域である。領域801e、
801fを介して入射された光束は、撮影レンズ1の一
次結像面16上で焦点を結んだ後、フィールドレンズ2
09、リレーレンズ212a、開口部208e、208
fおよびリレーレンズ212bを通り、撮像素子214
a、214b上に再結像される。
FIG. 5 is a diagram for explaining the principle of the focus detection operation by pupil division. An area 800 is an exit pupil of the photographing lens 1 (FIG. 1). Also, in FIG.
0, 211, the aperture plate 215 and the polarization beam splitter 219 are omitted. The regions 801 e and 801 f are provided with openings 208 e and 2
08f is a region where an image is projected back onto the region 800 by the field lens 209. Region 801e,
The light beam incident via the lens 801f focuses on the primary imaging surface 16 of the photographing lens 1 and then is focused on the field lens 2
09, relay lens 212a, openings 208e, 208
f and the relay lens 212b,
a, re-imaged on 214b.

【0024】これらの撮像素子214a、214b上に
再結像された一対の被写体像は、撮影レンズ1が一次結
像面16よりも前(被写体側)に被写体の鮮鋭像を結ぶ
いわゆる前ピン状態では互いに近づき、逆に一次結像面
16よりも後に被写体の鮮鋭像を結ぶいわゆる後ピン状
態では互いに遠ざかる。そして、撮像素子214a、2
14b上に結像された被写体像が所定の間隔となるとき
に、被写体の鮮鋭像は一次結像面16上に位置する。し
たがってこの一対の被写体像を撮像素子214a、21
4bで光電変換して電気信号に換え、これらの信号を演
算処理して一対の被写体像の相対距離を求めることによ
り、撮影レンズ1の焦点調節状態、つまりレンズ1によ
り鮮鋭な像が形成される位置が、一次結像面16に対し
てどの方向にどれだけ離れているか、つまり、ずれ量が
求められる。
A pair of subject images re-imaged on the image pickup devices 214a and 214b is a so-called front focus state in which the photographing lens 1 forms a sharp image of the subject before the primary imaging surface 16 (subject side). In contrast, in the so-called rear focus state in which a sharp image of the subject is formed after the primary imaging plane 16, they move away from each other. Then, the imaging elements 214a,
When the subject image formed on 14b has a predetermined interval, a sharp image of the subject is located on the primary imaging plane 16. Therefore, the pair of subject images are transferred to the imaging devices 214a and 214a.
In 4b, photoelectric conversion is performed to convert the signals into electric signals, and these signals are arithmetically processed to obtain a relative distance between a pair of subject images. Thus, a focus adjustment state of the photographing lens 1, that is, a sharp image is formed by the lens 1. The direction and how far the position is from the primary imaging plane 16, that is, the shift amount is obtained.

【0025】図5において焦点検出領域は、撮影者によ
り選択された撮像素子214a、214b上の領域がリ
レーレンズ212a、212bによって逆投影されて、
一次結像面16の近傍で重なった部分に相当する。撮影
者は、焦点検出領域として、たとえば、撮像素子21
4aおよび214bによる画面内でカメラに最も近い被
写体が含まれる領域、撮像素子214aおよび214
bによる画面内で最もコントラストが強い被写体が含ま
れる領域、任意に設定する領域のうち、いずれかが選
択されるように不図示の操作部材により設定を行う。C
PU439は選択されている焦点検出領域の焦点を検出
したのち、この焦点検出データに基づいてレンズ駆動回
路430を制御して撮影レンズ1を合焦位置へ駆動す
る。このように、撮像素子214a、214bの全領域
のデータを用いずに、あらかじめ定められた特定の焦点
検出領域内のデータに基づいて焦点検出を行うことによ
り、焦点検出に要する時間を短くできる。
In FIG. 5, the focus detection areas are back-projected by the relay lenses 212a and 212b on the imaging elements 214a and 214b selected by the photographer.
This corresponds to an overlapping portion near the primary imaging plane 16. The photographer may use, for example, the image sensor 21 as the focus detection area.
Area including the subject closest to the camera in the screen by 4a and 214b, image sensors 214a and 214
The setting is performed by an operation member (not shown) so that any one of an area including a subject having the highest contrast in the screen b and an area to be arbitrarily set is selected. C
After detecting the focus of the selected focus detection area, the PU 439 controls the lens drive circuit 430 based on the focus detection data to drive the photographing lens 1 to the focus position. As described above, the time required for focus detection can be reduced by performing focus detection based on data in a predetermined specific focus detection area without using data of all areas of the imaging elements 214a and 214b.

【0026】図3の光学系において、シャッター板20
8の開口部208eと208fを透過した画像を観測す
ることは、ミラー210およびミラー211の作用によ
り、被写界を水平方向にずれた二つの瞳に分割して観察
する事に相当するので瞳分割と呼ばれる。瞳分割の方向
は、シャッター板208を回転することにより変更され
る。たとえば、上述した開口部208eと208fの並
び方向と直交するように、シャッター板208の光軸に
対して水平方向に形成された開口部208cと208d
の中心が光軸上になるようにセットすると、被写界を垂
直方向に瞳分割して観察する事に相当する。被写界に水
平線などが含まれており、水平方向に瞳分割された被写
体画像からコントラストが得られない、すなわち、焦点
検出が難しいと判断されるときは、このように瞳分割の
方向を変えて焦点検出動作が行われる。瞳分割の方向
は、被写界に対して水平、垂直方向の他に開口部208
gと208hによる水平方向に対して斜め45度の方向
と、開口部208iと208jによる水平方向に対して
斜め−45度の方向が選択可能であり、これらの斜め方
向が被写体に応じて選択される。
In the optical system shown in FIG.
Observing the image transmitted through the apertures 208e and 208f of the E.8 corresponds to observing the object field by dividing the object field into two pupils shifted in the horizontal direction by the action of the mirrors 210 and 211. Called split. The direction of pupil division is changed by rotating the shutter plate 208. For example, the openings 208c and 208d formed in the horizontal direction with respect to the optical axis of the shutter plate 208 so as to be orthogonal to the direction in which the openings 208e and 208f are arranged.
Is set to be on the optical axis, which corresponds to observing the object scene by dividing the pupil in the vertical direction. If the object scene contains a horizontal line or the like and contrast cannot be obtained from the subject image divided horizontally in the pupil, that is, if it is determined that focus detection is difficult, change the direction of the pupil division in this way. The focus detection operation is performed. The direction of pupil division is horizontal and vertical with respect to the object field, and the aperture 208
A direction of 45 degrees oblique to the horizontal direction by g and 208h and a direction of -45 degrees oblique to the horizontal direction by the openings 208i and 208j can be selected, and these oblique directions are selected according to the subject. You.

【0027】なお、上述した撮像素子214a、214
bは同一平面上に配設されていないので、両撮像素子上
にそれぞれ再結像される一対の被写体像の間隔を次のよ
うに求める。図3に示されるように、撮像素子214a
および214bは互いに共役な結像面に配設されている
ので、P偏光成分の被写体像が検出される撮像素子21
4a、およびS偏光成分の被写体像が検出される撮像素
子214b上のそれぞれの画素位置に基づいて、上記一
対の被写体画像間隔を求めることができる。
The above-mentioned image pickup devices 214a and 214
Since b is not disposed on the same plane, the distance between a pair of subject images re-imaged on both image sensors is obtained as follows. As shown in FIG. 3, the image sensor 214a
And 214b are arranged on an image plane conjugate to each other, so that the
The distance between the pair of subject images can be obtained based on the respective pixel positions on the image sensor 214b where the subject image of 4a and the S-polarized component is detected.

【0028】次に、瞳分割により得られた一対の被写体
画像間隔を検出する動作について説明を行う。検出動作
は、上述した焦点検出領域、すなわち、被写界のうち撮
影者により選択された特定の領域の被写体画像について
行われる。図6は、撮像素子214aおよび214bの
焦点検出領域に対応した部分の拡大図である。図6(a)
に示すように、撮像素子214a上で検出された被写体
像のデータのうち、焦点検出領域に対応する画素データ
が画素群1a、画素群2a、…、画素群Naとして読み
出される。これらの画素群は、たとえば、瞳分割の方向
が被写界に対して水平方向になるように選択された場合
は、垂直方向に25画素、水平方向に4画素の合計10
0画素で構成される。読み出された各画素群において、
100画素分の出力の合計を算出してN個の画素合計出
力値を求める。隣接する画素群は、図6(a)のように互
いに2画素ピッチずつずれるように設定する。ただし、
精密な検出動作を行う場合には図6(b)に示すように1
画素ピッチずつずれるように画素群を設定してもよい。
Next, the operation of detecting the interval between a pair of subject images obtained by pupil division will be described. The detection operation is performed on the above-described focus detection area, that is, the subject image in a specific area selected by the photographer in the scene. FIG. 6 is an enlarged view of a portion corresponding to the focus detection area of the imaging elements 214a and 214b. FIG. 6 (a)
As shown in (2), among the data of the subject image detected on the image sensor 214a, the pixel data corresponding to the focus detection area is read out as the pixel group 1a, the pixel group 2a,. If these pixel groups are selected such that the direction of pupil division is horizontal with respect to the object scene, for example, a total of 10 pixels of 25 pixels in the vertical direction and 4 pixels in the horizontal direction
It is composed of 0 pixels. In each pixel group read out,
A total output of 100 pixels is calculated to obtain a total output value of N pixels. The adjacent pixel groups are set so as to be shifted from each other by two pixel pitches as shown in FIG. However,
When performing a precise detection operation, as shown in FIG.
The pixel group may be set so as to be shifted by the pixel pitch.

【0029】撮像素子214a上で検出された被写体像
データと同様にして、撮像素子214b上で検出された
被写体像のデータも焦点検出領域に対応する画素データ
が画素群1b、画素群2b、…、画素群Nbとして読み
出される。図6(c)に示すように、隣接する画素群間の
画素ピッチは画素群1a〜Naと同じになるように設定
される。読み出された各画素群において、100画素分
の出力の合計を算出してN個の画素合計出力値が求めら
れる。
In the same manner as the subject image data detected on the image sensor 214a, the data of the subject image detected on the image sensor 214b includes pixel groups 1b, 2b,. , Pixel group Nb. As shown in FIG. 6C, the pixel pitch between adjacent pixel groups is set to be the same as the pixel groups 1a to Na. In each of the read pixel groups, the sum of outputs of 100 pixels is calculated to obtain a total output value of N pixels.

【0030】図7は撮像素子214aおよび撮像素子2
14b上で検出された各画素群の位置と、各画素群の画
素合計出力値との関係を表すグラフの例である。撮像素
子214aに基づいた画素群からの出力(黒丸)と撮像
素子214bに基づいた画素群からの出力(白丸)は、
それぞれ被写体に応じた曲線を示し、2つの曲線の間隔
が一対の被写体画像の間隔である。たとえば、2つの曲
線が2画素群相当ずれている場合は、撮像素子214a
および214b上における水平方向の画素ピッチを2
(2画素群のずれ)×4(画素群は水平方向4画素で構成
される)=8倍して被写体像の相対距離を求めることが
できる。求められた一対の被写体像の相対距離に基づい
て、撮影レンズ1の焦点調節状態が求められる。
FIG. 7 shows an image sensor 214a and an image sensor 2
It is an example of the graph showing the relationship between the position of each pixel group detected on 14b, and the pixel total output value of each pixel group. The output from the pixel group based on the image sensor 214a (black circle) and the output from the pixel group based on the image sensor 214b (white circle) are:
Curves corresponding to the respective subjects are shown, and the interval between the two curves is the interval between a pair of subject images. For example, when the two curves are displaced by two pixel groups, the image sensor 214a
And the horizontal pixel pitch on 214b is 2
(Shift of two pixel groups) × 4 (the pixel group is composed of four pixels in the horizontal direction) = 8 times to obtain the relative distance of the subject image. The focus adjustment state of the photographing lens 1 is determined based on the determined relative distance between the pair of subject images.

【0031】このように構成されたデジタルスチルカメ
ラ100の記録モードの動作について説明する。図8〜
9は、半押しスイッチで起動されるプログラムを示すフ
ローチャートである。CPU439には、操作部材40
7の1つである不図示のレリーズ釦に連動した半押し操
作信号と全押し操作信号がそれぞれ入力される。半押し
操作信号が入力されたと判定される(ステップS1の
Y)と、画像処理部431aおよび431bで画像信号
を増幅する増幅率が、焦点検出時の所定値に変更され
る。続いて、絞り板215上の全光束を通過させる開口
部215bが光路上にセットされ(ステップS2)、シ
ャッター板208の光軸に対して垂直方向に形成された
開口部208eと208fが光路上になるようにセット
される(ステップS3)。一方、ステップS1において
半押し操作信号が入力されたと判定されないとき(ステ
ップS1のN)は、半押し操作信号が入力されるのを待
つ。
The operation of the digital still camera 100 thus configured in the recording mode will be described. Fig. 8-
9 is a flowchart showing a program started by the half-press switch. The CPU 439 includes an operation member 40
7, a half-press operation signal and a full-press operation signal interlocked with a release button (not shown) are input. When it is determined that the half-press operation signal has been input (Y in step S1), the amplification factor for amplifying the image signal in the image processing units 431a and 431b is changed to a predetermined value at the time of focus detection. Subsequently, an opening 215b on the aperture plate 215 through which all light beams pass is set on the optical path (step S2), and openings 208e and 208f formed in a direction perpendicular to the optical axis of the shutter plate 208 are placed on the optical path. (Step S3). On the other hand, when it is not determined in step S1 that the half-press operation signal has been input (N in step S1), the process waits for the input of the half-press operation signal.

【0032】ステップS4で撮像素子214aと撮像素
子214bで撮像された画像信号に基づいた画像データ
が読み出され、上述したように選択されている焦点検出
領域において、画像データの中にコントラストがあるか
否かが判定される(ステップS5)。コントラストがあ
ると判定される(ステップS5のY)とステップS15
へ移行し、コントラストがないと判定される(ステップ
S5のN)とシャッター板208が回転され、光軸に対
して水平方向に形成された開口部208cと208dが
光路上になるようにセットされる(ステップS6)。ス
テップS7で再び撮像素子214aと撮像素子214b
で撮像された画像信号に基づいた画像データが読み出さ
れ、画像データの中の焦点検出領域において、コントラ
ストがあるか否かが判定される(ステップS8)。コン
トラストがあると判定される(ステップS8のY)とス
テップS15へ移行し、コントラストがないと判定され
る(ステップS8のN)と再びシャッター板208が回
転され、光軸に対して斜め方向に形成された開口部20
8gと208hが光路上になるようにセットされる(ス
テップS9)。
In step S4, image data based on the image signals picked up by the image pickup devices 214a and 214b is read out, and there is contrast in the image data in the focus detection area selected as described above. It is determined whether or not (Step S5). If it is determined that there is contrast (Y in step S5), step S15
When it is determined that there is no contrast (N in step S5), the shutter plate 208 is rotated, and the apertures 208c and 208d formed in the horizontal direction with respect to the optical axis are set to be on the optical path. (Step S6). In step S7, the image sensors 214a and 214b are again
The image data based on the image signal picked up in step is read out, and it is determined whether or not there is a contrast in the focus detection area in the image data (step S8). If it is determined that there is contrast (Y in step S8), the process proceeds to step S15, and if it is determined that there is no contrast (N in step S8), the shutter plate 208 is rotated again, and the shutter plate 208 is tilted with respect to the optical axis. Opening 20 formed
8g and 208h are set on the optical path (step S9).

【0033】ステップS10でもう一度撮像素子214
aと撮像素子214bで撮像された画像信号に基づいた
画像データが読み出され、画像データの中で焦点検出領
域においてコントラストがあるか否かが判定される(ス
テップS11)。コントラストがあると判定される(ス
テップS11のY)とステップS15へ移行し、コント
ラストがないと判定される(ステップS11のN)とも
う一度シャッター板208が回転され、開口部208g
と208hと直交するように形成された開口部208i
と208jが光路上になるようにセットされる(ステッ
プS12)。ステップS13でさらにもう一度撮像素子
214aと撮像素子214bで撮像された画像信号に基
づいた画像データが読み出され、画像データの中で焦点
検出領域においてコントラストがあるか否かが判定され
る(ステップS14)。コントラストがあると判定され
る(ステップS14のY)とステップS15へ移行し、
コントラストがないと判定される(ステップS14の
N)と、ファインダ内表示回路440を介してファイン
ダ内表示素子426に合焦不可能の警告表示を行い(ス
テップS17)、ステップS1へ戻る。
In step S10, the image sensor 214 is again activated.
The image data based on the image signal a and the image signal captured by the image sensor 214b is read, and it is determined whether or not the image data has a contrast in the focus detection area (step S11). When it is determined that there is contrast (Y in step S11), the process proceeds to step S15, and when it is determined that there is no contrast (N in step S11), the shutter plate 208 is rotated again, and the opening 208g is opened.
Opening 208i formed so as to be orthogonal to and 208h
And 208j are set on the optical path (step S12). In step S13, the image data based on the image signals captured by the image sensor 214a and the image sensor 214b is read again, and it is determined whether or not there is a contrast in the focus detection area in the image data (step S14). ). When it is determined that there is contrast (Y in step S14), the process proceeds to step S15,
If it is determined that there is no contrast (N in step S14), a warning indicating that focusing is impossible is displayed on the display element 426 in the finder via the display circuit 440 in the finder (step S17), and the process returns to step S1.

【0034】ステップS15では、撮像素子214aと
撮像素子214bから出力される焦点検出領域に基づい
た2つの画像データが比較演算され、上述したように瞳
分割による焦点検出が行われる。そして、得られた焦点
検出データに基づいて撮影レンズ1がレンズ駆動回路4
30により合焦位置へ駆動される(ステップS16)。
全押し操作信号が入力されたと判定される(ステップS
18のY)と、クイックリターンミラー3が跳ね上げら
れ、ステップS19に続く撮影シーケンスが実行され
る。一方、全押し操作信号が入力されないと判定された
とき(ステップS18のN)は、ステップS1に戻る。
In step S15, two image data based on the focus detection areas output from the image sensor 214a and the image sensor 214b are compared with each other, and the focus is detected by pupil division as described above. Then, based on the obtained focus detection data, the taking lens 1 is driven by the lens driving circuit 4.
The camera is driven to the in-focus position by 30 (step S16).
It is determined that the full-press operation signal has been input (step S
18), the quick return mirror 3 is flipped up, and a shooting sequence subsequent to step S19 is executed. On the other hand, when it is determined that the full-press operation signal is not input (N in step S18), the process returns to step S1.

【0035】ステップS19では、シャッター板208
の全光束を通過させる開口部208bが光路上にセット
され、撮像素子214aおよび撮像素子214bからの
出力に基づいて、適正な露出が得られるようにシャッタ
ー開放時間および絞り値が計算される(ステップS2
0)。そして、画像処理部431aおよび431bで画
像信号を増幅する増幅率が、焦点検出時の設定値から撮
影時の所定の設定値に変更される。ステップS20で計
算された値に基づいて、絞り板215上の開口部215
a〜215hのいずれかが光路上にセットされ(ステッ
プS21)、撮像素子214aおよび214bが所定時
間露光される(ステップS22)。露光終了後、ステッ
プS23でシャッター板208上の完全遮光部208a
が光路上にセットされ、撮像素子214aおよび214
bから画像信号が読み出される(ステップS24)。読
み出された画像信号は、上述したようにDSP433で
所定の画像処理および合成が行われ(ステップS2
5)、所定のフォーマットにより圧縮されたデータがメ
モリカード424に記録されて(ステップS26)図8
〜9による処理が終了する。
In step S19, the shutter plate 208
Is set on the optical path, and based on the outputs from the image sensor 214a and the image sensor 214b, the shutter opening time and the aperture value are calculated so as to obtain an appropriate exposure (step S2
0). Then, the amplification factor for amplifying the image signal in the image processing units 431a and 431b is changed from the set value at the time of focus detection to a predetermined set value at the time of shooting. Based on the value calculated in step S20, the opening 215 on the diaphragm plate 215
Any of a to 215h is set on the optical path (step S21), and the image sensors 214a and 214b are exposed for a predetermined time (step S22). After the exposure is completed, in step S23, the complete light shielding portion 208a on the shutter plate 208
Are set on the optical path, and the image pickup devices 214a and 214
An image signal is read from b (step S24). The read image signal is subjected to predetermined image processing and synthesis by the DSP 433 as described above (step S2).
5) The data compressed according to the predetermined format is recorded on the memory card 424 (step S26).
9 are completed.

【0036】以上の説明では、焦点検出時に撮像素子2
14aおよび214b上で検出され、焦点検出領域に対
応する被写体画像データを読み出す際、被写界に対して
垂直方向25画素、水平方向4画素からなる合計100
画素の画素群ごとに被写体画像データを読み出すように
したが、瞳分割の方向を変える場合は、瞳分割の方向に
応じて画素群を構成する画素のならびを変更すればよ
い。すなわち、被写界に対して垂直方向に分割する場合
は、画素群の構成を垂直方向4画素、水平方向25画素
として、隣接する画素群の間隔は、垂直方向に2ピッチ
ずつずらして設定する。
In the above description, when the focus is detected, the image sensor 2
When reading the subject image data detected on 14a and 214b and corresponding to the focus detection area, a total of 100 pixels consisting of 25 pixels in the vertical direction and 4 pixels in the horizontal direction with respect to the object scene
Although the subject image data is read for each pixel group of pixels, when the direction of pupil division is changed, the arrangement of pixels constituting the pixel group may be changed according to the direction of pupil division. That is, in the case of dividing the object field in the vertical direction, the configuration of the pixel group is set to 4 pixels in the vertical direction and 25 pixels in the horizontal direction, and the interval between adjacent pixel groups is set to be shifted by two pitches in the vertical direction. .

【0037】−スミア低減− 撮像素子214aおよび214bは同じベイヤー配列の
カラーフィルタがオンチップされたCCDで構成され
る。偏光ビームスプリッタ219の作用により、撮像素
子214b上には撮像素子214aに入射される画像の
鏡像が投影される。図3においては、一次結像面16に
「P」が結像している場合、各撮像素子214aおよび
214b上に「P」がどのように結像されるかを示して
いる。したがって、撮像素子214bで撮像された画像
データは、画像読み出し後に画素のならび順を反対にな
らべ替えて、撮像素子214aで撮像された画像データ
の画素のならび順にそろえられる。撮像素子214aの
画素のならびを図10(a)に、撮像素子214bの画素
のならびをならべ替えたものを図10(b)に示す。図に
おいて、撮像素子214aのG色の画素の配置(たとえ
ば、G112、G121)は、撮像素子214bのG色
の画素の配置(G211)と互いに補間し合う位置にあ
る。したがって、2つの撮像素子214aと214bか
らの出力に基づいた画像データを合成することにより、
全ての画素位置においてG色の画素を得ることができ
る。また、同様にR色およびB色は、2つの撮像素子2
14aと214bからの出力に基づいた画像データを合
成することにより、互いに縦1ラインおきにそれぞれの
色の画素を得ることができる。
-Smear Reduction- The image pickup devices 214a and 214b are constituted by CCDs in which color filters of the same Bayer array are on-chip. By the operation of the polarization beam splitter 219, a mirror image of an image incident on the image sensor 214a is projected on the image sensor 214b. FIG. 3 shows how “P” is imaged on each of the imaging elements 214a and 214b when “P” is imaged on the primary image plane 16. Therefore, the image data captured by the image sensor 214b is rearranged in the reverse order of the pixels after the image is read, and is arranged in the pixel data of the image data captured by the image sensor 214a. FIG. 10A shows the arrangement of the pixels of the imaging element 214a, and FIG. 10B shows the arrangement of the pixels of the imaging element 214b. In the drawing, the arrangement of the pixels of G color (for example, G112 and G121) of the image sensor 214a is at a position where they interpolate with the arrangement of the pixels of G color (G211) of the image sensor 214b. Therefore, by synthesizing the image data based on the outputs from the two image sensors 214a and 214b,
G-color pixels can be obtained at all pixel positions. Similarly, the R color and the B color correspond to two image sensors 2
By synthesizing the image data based on the outputs from 14a and 214b, pixels of each color can be obtained every other vertical line.

【0038】上述したように構成される撮像素子214
aおよび214bの画素の読み出し方向を図10におい
て矢印で示す。撮像素子214aおよび214bは同じ
CCDであるが、図10(b)の画素のならび順をならべ
替えて表したので、図10(a)と(b)の読み出し方向を
示す矢印の向きは逆になっている。図において、○印を
つけた画素(図10(a)のG152、R153、B16
2、G163および、図10(b)のR252,G25
3、G262、B263)に対して強い光が入射される
ことにより、蓄積された電荷が飽和してあふれると、各
画素に蓄積された電荷が画像信号の読み出し時に読み出
し方向に向かって送られるとき、○印部分を通過する電
荷量に対してあふれた電荷が足されてスミアが発生す
る。
The image sensor 214 constructed as described above
The reading directions of the pixels a and 214b are indicated by arrows in FIG. Although the imaging devices 214a and 214b are the same CCD, the order of the pixels shown in FIG. 10B is rearranged, so that the arrows indicating the readout directions in FIGS. 10A and 10B are reversed. Has become. In the figure, pixels marked with a circle (G152, R153, B16 in FIG. 10A)
2, G163 and R252, G25 in FIG.
3, G262, B263), when the accumulated electric charge is saturated and overflows due to the intense light incident thereon, the electric charge accumulated in each pixel is sent in the reading direction at the time of reading the image signal. , And an overflowing charge is added to the amount of charge passing through the portion marked with ○ to generate smear.

【0039】撮像素子214aの画像信号が読み出され
るとき、図10(a)の△印がつけられた画素位置(G1
54、R155、G156、B164、G165、B1
66)に対応する電荷量が、○印がつけられた画素位置
を通過する際にスミアが生じる。同様に、撮像素子21
4bの画像信号が読み出されるとき、図10(b)の△印
がつけられた画素位置(G251、B261)に対応す
る電荷量が、○印がつけられた画素位置を通過する際に
スミアが生じる。
When the image signal of the image sensor 214a is read, the pixel position (G1
54, R155, G156, B164, G165, B1
When the charge amount corresponding to (66) passes through the pixel position marked with a circle, smear occurs. Similarly, the image sensor 21
When the image signal of FIG. 4B is read, the amount of charge corresponding to the pixel position (G251, B261) marked with a triangle in FIG. 10B passes through the pixel position marked with a circle, and smear occurs. Occurs.

【0040】図10(a)および(b)において、画素出力
が飽和している○印および△印の画素位置を比較するこ
とにより、スミアが発生した画素位置を特定することが
できる。すなわち、一方の撮像素子の画素出力が飽和し
ている場合、強い光が入射された○印に対応する他方の
撮像素子の画素出力は飽和し、スミアが発生している△
印に対応する他方の撮像素子の画素出力は飽和しない。
この現象を利用して、スミアが発生した画素位置をつか
み、スミアにより飽和した一方の撮像素子の画素出力を
飽和していない他方の画素出力で補間して、画像データ
におけるスミアの影響を低減する。
In FIGS. 10 (a) and 10 (b), the pixel position where smear has occurred can be specified by comparing the pixel positions of ○ and Δ where the pixel output is saturated. That is, when the pixel output of one image sensor is saturated, the pixel output of the other image sensor corresponding to the mark O where strong light is incident is saturated, and smear occurs.
The pixel output of the other image sensor corresponding to the mark is not saturated.
By utilizing this phenomenon, the position of a pixel where smear has occurred is grasped, and the pixel output of one image sensor saturated by smear is interpolated with the other pixel output that is not saturated, thereby reducing the influence of smear on image data. .

【0041】上述したスミア低減処理を図11および図
12のフローチャートを参照して説明する。図11は、
撮像素子214aのスミア低減処理を説明するフローチ
ャートであり、図12は、撮像素子214bのスミア低
減処理を説明するフローチャートである。これらの処理
は、撮影処理が行われた後に行われる。ステップS20
1およびS202において、水平方向の画素位置を示す
Xおよび垂直方向の画素位置を示すYのカウンタが1に
リセットされる。撮像素子214aの画素位置(1,
X,Y)における画素出力のA/D変換値が、8ビット
換算で略飽和レベルの250以上か否かが判定される
(ステップS203)。なお、撮像素子214aの画素
位置が(1,X,Y)で表され、撮像素子214b上の対
応する画素位置が(2,X,Y)で表される。
The above-described smear reduction processing will be described with reference to the flowcharts of FIGS. FIG.
FIG. 12 is a flowchart illustrating a smear reduction process of the image sensor 214a, and FIG. 12 is a flowchart illustrating a smear reduction process of the image sensor 214b. These processes are performed after the photographing process is performed. Step S20
In 1 and S202, the counter of X indicating the pixel position in the horizontal direction and the counter of Y indicating the pixel position in the vertical direction are reset to 1. The pixel position (1,
It is determined whether the A / D conversion value of the pixel output at (X, Y) is equal to or greater than the substantially saturated level of 250 in 8-bit conversion (step S203). The pixel position of the image sensor 214a is represented by (1, X, Y), and the corresponding pixel position on the image sensor 214b is represented by (2, X, Y).

【0042】撮像素子214aの画素位置(1,X,Y)
における画素出力のA/D変換値が250未満と判定さ
れると(ステップS203のN)、水平方向の画素位置
を示すXが1つ進められ(ステップS204)、Xが撮
像素子の水平方向の画素数以下であるか否かが判定され
る(ステップS205)。Xが水平方向の画素数以下と
判定されると(ステップS205のY)、ステップS2
03へ戻る。一方、Xが水平方向の画素数を超えると判
定されると(ステップS205のN)、垂直方向の画素
位置を示すYが1つ進められ(ステップS206)、Y
が撮像素子の垂直方向の画素数以下であるか否かが判定
される(ステップS207)。Yが垂直方向の画素数以
下と判定されると(ステップS207のY)、ステップ
S202へ戻る。一方、Yが垂直方向の画素数を超える
と判定されると(ステップS207のN)、この処理を
終了する。
The pixel position (1, X, Y) of the image sensor 214a
Is determined to be less than 250 (N in step S203), X indicating the pixel position in the horizontal direction is advanced by one (step S204), and X is shifted in the horizontal direction of the image sensor. It is determined whether the number is equal to or less than the number of pixels (step S205). If it is determined that X is equal to or less than the number of pixels in the horizontal direction (Y in step S205), step S2
Return to 03. On the other hand, if it is determined that X exceeds the number of pixels in the horizontal direction (N in step S205), Y indicating the pixel position in the vertical direction is advanced by one (step S206).
Is smaller than or equal to the number of pixels in the vertical direction of the image sensor (step S207). If it is determined that Y is equal to or less than the number of pixels in the vertical direction (Y in step S207), the process returns to step S202. On the other hand, if it is determined that Y exceeds the number of pixels in the vertical direction (N in step S207), the process ends.

【0043】ステップS203において、撮像素子21
4aの画素位置(1,X,Y)の画素出力のA/D変換値
が250以上と判定されると(ステップS203の
Y)、ステップS208で撮像素子214b上の対応す
る画素位置(2,X,Y)の画素出力のA/D変換値
が、たとえば、8ビット換算で200以下か否かが判定
される。画素出力データが200を超えると判定される
(ステップ208のN)と、スミア現象でないと判断し
てステップS204へ戻る。一方、画素出力データが2
00以下と判定される(ステップS208のY)と、撮
像素子214aの(1,X,Y)の画素出力データと撮像
素子214bの(2,X,Y)の画素出力データとの差は
スミア現象によるものと判断される。そして、ステップ
S209で撮像素子214aの(1,X,Y)の画素がG
色か否かが判定される。G色でないと判定される(ステ
ップS209のN)とステップS211へ進み、G色と
判定される(ステップS209のY)とステップS21
0へ進む。
In step S203, the image sensor 21
If it is determined that the A / D conversion value of the pixel output at the pixel position (1, X, Y) at 4a is 250 or more (Y at step S203), the corresponding pixel position (2, 2) on the image sensor 214b is determined at step S208. It is determined whether the A / D conversion value of the pixel output of (X, Y) is, for example, 200 or less in 8-bit conversion. If it is determined that the pixel output data exceeds 200 (N in step 208), it is determined that the image is not a smear phenomenon, and the process returns to step S204. On the other hand, if the pixel output data is 2
If the difference is determined to be equal to or less than 00 (Y in step S208), the difference between the (1, X, Y) pixel output data of the image sensor 214a and the (2, X, Y) pixel output data of the image sensor 214b is a smear. It is determined to be due to the phenomenon. Then, in step S209, the (1, X, Y) pixel of the image sensor 214a is G
It is determined whether it is a color. If it is determined that the color is not the G color (N in step S209), the process proceeds to step S211. If it is determined that the color is the G color (Y in step S209), the process proceeds to step S21.
Go to 0.

【0044】ステップS210では、撮像素子214b
上の対応する画素の上下左右に配置された4つのG色の
画素出力データの平均が算出され、算出された平均値と
補正係数f1との積により、飽和している撮像素子21
4aの(1,X,Y)の画素出力データが置換される。た
とえば、図10(a)、(b)において、飽和した撮像素子
214aの画素がG色の165であれば、撮像素子21
4b上のG264、G266、G255およびG275
の4つの画素出力データの平均値と補正係数f1との積
が算出される。補正係数f1は、撮像素子214aと撮
像素子214bの感度差、偏光ビームスプリッタ219
の透過率と反射率との差などを補正するために設けられ
る。偏光ビームスプリッタは、入射される光束の角度が
異なると分光透過率が変化することがあるので、補正係
数f1は撮像素子上の各画素に対応するようにテーブル
データとして用意される。
In step S210, the image sensor 214b
The average of the four G color pixel output data arranged on the upper, lower, left, and right of the corresponding pixel above is calculated, and the product of the calculated average value and the correction coefficient f1 saturates the image sensor 21 which is saturated.
The pixel output data of (1, X, Y) 4a is replaced. For example, in FIGS. 10A and 10B, if the pixel of the saturated image sensor 214 a is 165 of G color, the image sensor 21
G264, G266, G255 and G275 on 4b
Of the four pixel output data and the correction coefficient f1 are calculated. The correction coefficient f1 is determined by the sensitivity difference between the image sensor 214a and the image sensor 214b and the polarization beam splitter 219.
Is provided to correct the difference between the transmittance and the reflectance of the image. In the polarization beam splitter, if the angle of the incident light beam is different, the spectral transmittance may change. Therefore, the correction coefficient f1 is prepared as table data so as to correspond to each pixel on the image sensor.

【0045】ステップS211では、撮像素子214a
の(1,X,Y)の画素がB色か否かが判定される。B色
でないと判定される(ステップS211のN)とステッ
プS213へ進み、B色と判定される(ステップS21
1のY)とステップS212へ進む。ステップS212
では、撮像素子214b上の対応する画素の上下に配置
された2つのB色の画素出力データの平均が算出され、
算出された平均値と補正係数f2との積により、飽和し
ている撮像素子214aの(1,X,Y)の画素出力デー
タが置換される。たとえば、図10(a)、(b)におい
て、飽和した撮像素子214aの画素がB色の124で
あれば、撮像素子214b上のB223およびB225
の2つの画素出力データの平均値と補正係数f2との積
が算出される。補正係数f2はf1と同様に撮像素子2
14aと撮像素子214b間の補正のために設けられ、
撮像素子上の各画素に対応するようにテーブルデータと
して用意される。
In step S211, the image sensor 214a
It is determined whether or not the pixel of (1, X, Y) is B color. When it is determined that the color is not the B color (N in step S211), the process proceeds to step S213, and the color is determined as the B color (step S21).
(Y of 1) and the process proceeds to step S212. Step S212
In, the average of the two B-color pixel output data arranged above and below the corresponding pixel on the image sensor 214b is calculated,
The product of the calculated average value and the correction coefficient f2 replaces the (1, X, Y) pixel output data of the saturated image sensor 214a. For example, in FIGS. 10A and 10B, if the pixel of the saturated image sensor 214a is 124 of B color, B223 and B225 on the image sensor 214b
The product of the average value of the two pixel output data and the correction coefficient f2 is calculated. The correction coefficient f2 is the same as the correction coefficient f1,
Provided for correction between 14a and the image sensor 214b,
Table data is prepared so as to correspond to each pixel on the image sensor.

【0046】ステップS213では、撮像素子214a
の(1,X,Y)の画素がR色か否かが判定される。R色
でないと判定される(ステップS213のN)とステッ
プS204へ戻り、R色と判定される(ステップS21
3のY)とステップS214へ進む。ステップS214
では、撮像素子214b上の対応する画素の上下に配置
された2つのR色の画素出力データの平均が算出され、
算出された平均値と補正係数f3との積により、飽和し
ている撮像素子214aの(1,X,Y)の画素出力デー
タが置換される。たとえば、図10(a)、(b)におい
て、飽和した撮像素子214aの画素がR色の175で
あれば、撮像素子214b上のB274およびB276
の2つの画素出力データの平均値と補正係数f3との積
が算出される。補正係数f3は、f1およびf2と同様
に撮像素子214aと撮像素子214b間の補正のため
に設けられ、撮像素子上の各画素に対応するようにテー
ブルデータとして用意される。
In step S213, the image sensor 214a
It is determined whether the pixel of (1, X, Y) is the R color. When it is determined that the color is not the R color (N in step S213), the process returns to step S204, and is determined as the R color (step S21).
3) and the process proceeds to step S214. Step S214
In, the average of the pixel output data of two R colors arranged above and below the corresponding pixel on the image sensor 214b is calculated,
The product of the calculated average value and the correction coefficient f3 replaces the (1, X, Y) pixel output data of the saturated image sensor 214a. For example, in FIGS. 10A and 10B, if the pixel of the saturated image sensor 214a is 175 of R color, B274 and B276 on the image sensor 214b
The product of the average value of the two pixel output data and the correction coefficient f3 is calculated. The correction coefficient f3 is provided for correction between the image sensor 214a and the image sensor 214b as in the case of f1 and f2, and is prepared as table data so as to correspond to each pixel on the image sensor.

【0047】図11の処理が終了すると、続いて図12
の処理が行われる。図12の処理は図11の処理と類似
しているので、相違するポイントのみ説明する。ステッ
プS303において、撮像素子214bの画素位置
(2,X,Y)の画素出力のA/D変換値が250以上と
判定される(ステップS303のY)と、ステップS3
08で撮像素子214a上の対応する画素位置(1,
X,Y)の画素出力のA/D変換値が、たとえば、8ビ
ット換算で200以下か否かが判定される。画素出力デ
ータが200を超えると判定される(ステップ308の
N)と、スミア現象でないと判断されてステップS30
4へ戻る。一方、画素出力データが200以下と判定さ
れる(ステップS308のY)と、撮像素子214bの
(2,X,Y)の画素出力データと撮像素子214aの
(1,X,Y)の画素出力データとの差はスミア現象によ
るものと判断される。そして、ステップS309で撮像
素子214bの(2,X,Y)の画素がG色か否かが判定
される。G色でないと判定される(ステップS309の
N)とステップ3211へ進み、G色と判定される(ス
テップS309のY)とステップS310へ進む。
When the processing of FIG. 11 is completed,
Is performed. Since the processing in FIG. 12 is similar to the processing in FIG. 11, only different points will be described. In step S303, the pixel position of the image sensor 214b
If the A / D conversion value of the pixel output of (2, X, Y) is determined to be 250 or more (Y in step S303), step S3
08, the corresponding pixel position (1, 1) on the image sensor 214a
It is determined whether the A / D conversion value of the pixel output of (X, Y) is, for example, 200 or less in 8-bit conversion. If it is determined that the pixel output data exceeds 200 (N in step 308), it is determined that the pixel output data is not a smear phenomenon, and step S30 is performed.
Return to 4. On the other hand, if the pixel output data is determined to be 200 or less (Y in step S308), the image sensor 214b
(2, X, Y) pixel output data and the image sensor 214a
The difference from the pixel output data of (1, X, Y) is determined to be due to the smear phenomenon. Then, in step S309, it is determined whether or not the (2, X, Y) pixel of the image sensor 214b is the G color. If it is determined that the color is not the G color (N in step S309), the process proceeds to step 3211. If it is determined that the color is the G color (Y in step S309), the process proceeds to step S310.

【0048】ステップS310では、撮像素子214a
上の対応する画素の上下左右に配置された4つのG色の
画素出力データの平均が算出され、算出された平均値と
補正係数1/f1との積により、飽和している撮像素子
214bの(2,X,Y)の画素出力データが置換され
る。たとえば、図10(a)、(b)において、飽和した撮
像素子214bの画素がG色の244であれば、撮像素
子214a上のG143、G145、G134およびG
154の4つの画素出力データの平均値と補正係数1/
f1との積が算出される。補正係数1/f1は、撮像素
子214bと撮像素子214aの感度差、偏光ビームス
プリッタ219の反射率と透過率の差などを補正するた
めに設けられ、前述した補正係数f1の逆数である。こ
の他、ステップS312およびS314におけるB色、
R色における置換処理も同様にして行われる。補正係数
は、それぞれ1/f2、1/f3が用いられる。
In step S310, the image sensor 214a
The average of the pixel output data of the four G colors arranged on the upper, lower, left and right sides of the corresponding pixel above is calculated, and the product of the calculated average value and the correction coefficient 1 / f1 indicates the saturation of the image sensor 214b that is saturated. The pixel output data of (2, X, Y) is replaced. For example, in FIGS. 10A and 10B, if the pixel of the saturated image sensor 214b is 244 of G color, G143, G145, G134, and G on the image sensor 214a.
154 of the four pixel output data and the correction coefficient 1 /
The product with f1 is calculated. The correction coefficient 1 / f1 is provided for correcting a sensitivity difference between the image sensor 214b and the image sensor 214a, a difference between the reflectance and the transmittance of the polarization beam splitter 219, and the like, and is a reciprocal of the correction coefficient f1 described above. In addition, the B color in steps S312 and S314,
The replacement process for the R color is performed in the same manner. 1 / f2 and 1 / f3 are used as the correction coefficients, respectively.

【0049】以上の説明では、スミア現象と判断された
一方の撮像素子における画素出力データを、上記画素に
対応する他の撮像素子における画素出力データの平均値
と補正係数の積で置換するようにしたが、スミア現象と
判断された画素の周囲の2画素分の画素出力データにつ
いても同様に置換処理を行うようにしてもよい。
In the above description, the pixel output data of one image sensor determined to be a smear phenomenon is replaced by the product of the average value of the pixel output data of the other image sensor corresponding to the pixel and the correction coefficient. However, replacement processing may be similarly performed on pixel output data of two pixels around a pixel determined to be a smear phenomenon.

【0050】また、以上の説明ではスミア現象と判断さ
れた一方の撮像素子における画素出力データを、上記画
素に対応する他の撮像素子における画素出力データの平
均値と補正係数の積で置換するようにしたが、上記画素
出力データを250より小である所定の値に置換処理を
行うようにしてもよい。
In the above description, the pixel output data of one image sensor determined to be a smear phenomenon is replaced with the product of the average value of the pixel output data of the other image sensor corresponding to the pixel and the correction coefficient. However, the pixel output data may be replaced with a predetermined value smaller than 250.

【0051】なお、実際の撮像素子214aおよび21
4bは、後述する画素ずらし補間のため互いに共役な結
像面に1/2画素ピッチずらして配設されているが、上
記のスミア低減の説明では、わかりやすくするために画
素ずらしなく同じ位置に配設されたものとして説明し
た。
The actual imaging devices 214a and 214a
4b are arranged on the image planes conjugate to each other with a half pixel pitch shifted for pixel shift interpolation to be described later. However, in the above description of smear reduction, for the sake of simplicity, they are arranged at the same position without pixel shift. It was described as being provided.

【0052】−フィールドレンズの構成−上述したフィ
ールドレンズ209をクイックリターンミラー3と一次
結像面16との間に配置する構成(図1)について、本
実施の形態におけるフィールドレンズ209に対する以
下の条件式(1)〜(4)を参照して説明する。
-Configuration of Field Lens- Regarding the configuration (FIG. 1) in which the above-described field lens 209 is disposed between the quick return mirror 3 and the primary imaging surface 16, the following conditions for the field lens 209 in the present embodiment will be described. This will be described with reference to equations (1) to (4).

【数1】 N(D) > 1.60 (1) D/f > 0.01 (2) R1/f > 0.2 (3) βfL < 1.0 (4) ただし、N(D):フィールドレンズ209のD線(波長5
87.6nm)における屈折率、D:撮影レンズ1の一次
結像面16とフィールドレンズ209との距離、f:フ
ィールドレンズ209の焦点距離、R1:フィールドレ
ンズ209の物体側の曲率半径、βfL:フィールドレン
ズ209の結像倍率である。
N (D)> 1.60 (1) D / f> 0.01 (2) R1 / f> 0.2 (3) βfL <1.0 (4) where N (D): D line of the field lens 209 (wavelength 5
87.6 nm), D: distance between the primary imaging surface 16 of the taking lens 1 and the field lens 209, f: focal length of the field lens 209, R1: radius of curvature of the field lens 209 on the object side, βfL: This is the imaging magnification of the field lens 209.

【0053】条件式(1)は、フィールドレンズ209
の屈折率を与えるものである。フィールドレンズ209
が一次結像面16より物体側(図1の左側)に配置され
るとき、このレンズが1枚で構成される場合は物体側に
曲率半径の小さい面を向けた両凸レンズで構成し、歪曲
収差をはじめとする諸収差の発生を抑えるために屈折率
を高くする。本実施の形態では、N(D)=1.805で
ある。条件式(2)は、物体側に配置されるフィールド
レンズ209と一次結像面16との間隔Dを与えるもの
である。フィールドレンズ209が一次結像面に近づき
すぎると、ごみや傷が発生したとき画像に写し込まれて
しまう。この現象を避けるために、フィールドレンズ2
09と一次結像面16とは所定の間隔以上離すことが必
要である。本実施の形態では、D/f=0.7/48.
87=0.0143である。
Conditional expression (1) satisfies the field lens 209
Is given. Field lens 209
Is disposed on the object side (left side in FIG. 1) with respect to the primary imaging plane 16, if this lens is constituted by one lens, it is constituted by a biconvex lens having a surface having a small radius of curvature directed toward the object side, and is distorted. The refractive index is increased to suppress the occurrence of various aberrations including the aberration. In the present embodiment, N (D) = 1.805. Conditional expression (2) gives the distance D between the field lens 209 arranged on the object side and the primary imaging plane 16. If the field lens 209 is too close to the primary image plane, dust or scratches will be imprinted on the image. To avoid this phenomenon, use a field lens 2
09 and the primary imaging plane 16 must be separated by a predetermined distance or more. In the present embodiment, D / f = 0.7 / 48.
87 = 0.0143.

【0054】条件式(3)は、フィールドレンズ209
の物体側の曲率半径R1を与えるものである。フィール
ドレンズ209の諸収差を抑えるためには、曲率半径R
1を所定値以上とする。なお、本発明の効果を十分に発
揮するためには、下限値を0.5とすることが望まし
い。本実施の形態では、R1/f=42/48.87=
0.859である。条件式(4)は、フィールドレンズ
209の倍率を与えるものである。本実施の形態ではβ
fL=0.894である。
Conditional expression (3) is satisfied with the field lens 209.
Is given to the object-side radius of curvature R1. In order to suppress various aberrations of the field lens 209, the radius of curvature R
Set 1 to a predetermined value or more. In order to sufficiently exhibit the effects of the present invention, it is desirable to set the lower limit to 0.5. In the present embodiment, R1 / f = 42 / 48.87 =
0.859. Conditional expression (4) gives the magnification of the field lens 209. In the present embodiment, β
fL = 0.894.

【0055】上述したようなフィールドレンズ209を
使用した結像光学系を図13に示す。(a)は一次結像面
16に対して物体側にフィールドレンズ209を配置し
た本実施の形態による結像光学系であり、(b)は一次結
像面16に対して像側にフィールドレンズ9’を配置し
た従来の結像光学系である。なお、図中の213は撮像
素子214aを保護する保護ガラスであり、223は色
モアレを防止するための空間周波数フィルター(オプテ
ィカル・ローパス・フィルター)である。本実施の形態
による図13(a)の結像光学系全体の倍率βは−0.2
91で、同図(b)による光学系の倍率β’の−0.28
5とほぼ等しくしているが、一次結像面16と最終像面
位置である撮像素子214aとの距離を短縮している。
これは、図13(a)の光学系ではフィールドレンズの倍
率を縮小倍率(βfL=0.894)で使用するのに対し
て、同図(b)の光学系では拡大倍率(βfL’=1.05
4)とするためである。この結果、縮小光学系の結像レ
ンズ212の倍率は、本実施の形態である図13(a)の
光学系ではβk=−0.326であり、同図(b)による
光学系の倍率βk’=−0.270に比べてその大きさ
を大きくできる。
FIG. 13 shows an imaging optical system using the field lens 209 as described above. (a) is an imaging optical system according to the present embodiment in which a field lens 209 is arranged on the object side with respect to the primary imaging plane 16, and (b) is a field lens on the image side with respect to the primary imaging plane 16. 9 'is a conventional imaging optical system in which 9' is arranged. Note that reference numeral 213 in the drawing denotes a protective glass for protecting the image sensor 214a, and 223 denotes a spatial frequency filter (optical low-pass filter) for preventing color moire. The magnification β of the entire imaging optical system of FIG.
At 91, −0.28 of the magnification β ′ of the optical system according to FIG.
5, but the distance between the primary imaging plane 16 and the imaging element 214a, which is the final image plane position, is shortened.
This is because the optical system shown in FIG. 13A uses the magnification of the field lens at the reduction magnification (βfL = 0.894), while the optical system shown in FIG. 13B uses the magnification (βfL ′ = 1). .05
4). As a result, the magnification of the imaging lens 212 of the reduction optical system is βk = −0.326 in the optical system of FIG. 13A according to the present embodiment, and the magnification βk of the optical system in FIG. The size can be increased compared to '= −0.270.

【0056】一般に、レンズの主点から物点までの距離
をa、レンズの主点から像点までの距離をbとおいたと
き、次式(5)〜(6)の結像公式が知られている。
In general, when the distance from the principal point of the lens to the object point is a and the distance from the principal point of the lens to the image point is b, the imaging formulas of the following equations (5) to (6) are known. ing.

【数2】 1/fg=(1/a)−(1/b) (5) βg = b/a (6) ただし、fg:レンズの焦点距離、βg:レンズの結像倍
率である。上式(5)〜(6)において、物点像点間距離で
ある共役長L=(a+b)は、βg=−1のときに最小に
なる。すなわち、結像倍率βgが−1に近い方が共役長
Lが短くなる。以上の理由により、本実施の形態による
図13(a)の光学系では、フィールドレンズ209を一
次結像面16の左側に配置し、フィールドレンズ209
の倍率を縮小倍率にして結像レンズ212の倍率を−1
に近づけることにより、結像光学系の全長を短縮させて
いる。
1 / fg = (1 / a)-(1 / b) (5) βg = b / a (6) where fg is the focal length of the lens, and βg is the imaging magnification of the lens. In the above equations (5) and (6), the conjugate length L = (a + b), which is the distance between the object point and the image point, is minimized when βg = −1. In other words, the conjugation length L decreases as the imaging magnification βg approaches −1. For the above reasons, in the optical system of FIG. 13A according to the present embodiment, the field lens 209 is disposed on the left side of the primary
And the magnification of the imaging lens 212 is set to -1.
, The overall length of the imaging optical system is shortened.

【0057】図14に本実施の形態による図13(a)の
結像光学系の諸元表を、そして図15には結像光学系の
諸収差図を示す。また、比較のために、図13(b)の結
像光学系の諸元表を図16に、そして結像光学系の諸収
差図を図17に示す。図17に示す各収差図において、
球面収差図の実線は球面収差を、波線は正弦条件を示
し、非点収差図の実線はサジタル像面を、波線はメリデ
ィオナル像面を示す。コマ収差図は像高Y=4.15、
3.3、2.0、1.0、0.0mmでのコマ収差を表す。
各収差図からわかるように、本実施の形態による結像光
学系の諸収差は、結像光学系の全長に関係なく良好に補
正される。
FIG. 14 shows a table of specifications of the imaging optical system of FIG. 13A according to the present embodiment, and FIG. 15 shows various aberrations of the imaging optical system. For comparison, FIG. 16 shows a specification table of the imaging optical system in FIG. 13B, and FIG. 17 shows various aberration diagrams of the imaging optical system. In each aberration diagram shown in FIG.
The solid line in the spherical aberration diagram indicates the spherical aberration, the dashed line indicates the sine condition, and the solid line in the astigmatism diagram indicates the sagittal image surface, and the dashed line indicates the meridional image surface. The coma diagram shows the image height Y = 4.15,
Coma at 3.3, 2.0, 1.0, and 0.0 mm.
As can be seen from the aberration diagrams, various aberrations of the imaging optical system according to the present embodiment are favorably corrected regardless of the overall length of the imaging optical system.

【0058】以上の図13(a)、(b)の説明ではフィー
ルドレンズ209を1枚で構成するようにしたが、2枚
で構成するようにしてもよい。2枚のフィールドレンズ
を一次結像面16を挟んで物体側と像側とに配置するこ
ともできる。この場合、1枚のフィールドレンズを一次
結像面16の像側に配置する場合より結像光学系の全長
が短縮される上に、1枚でフィールドレンズが構成され
る場合より歪曲収差が少なくなる。
In the above description of FIGS. 13 (a) and 13 (b), the field lens 209 is constituted by one lens, but may be constituted by two lenses. Two field lenses can be arranged on the object side and the image side with the primary imaging plane 16 interposed therebetween. In this case, the total length of the imaging optical system is reduced as compared with the case where one field lens is arranged on the image side of the primary imaging plane 16, and the distortion is smaller than when one field lens is formed. Become.

【0059】第一の実施の形態の特徴についてまとめ
る。 (1)撮影時、偏光ビームスプリッタ219により被写
体光の光束を透過光と反射光に分離し、共役な結像面に
配設された2つの撮像素子214aおよび214bに入
射されるようにした。したがって、分離された被写体光
束を同時に撮像素子214aおよび214bで撮像する
ことができる。 (2)焦点検出時の瞳分割において、分割される瞳に対
してP偏光成分とS偏光成分の偏光フィルタをそれぞれ
設け、偏光フィルタを透過したあとの偏光された焦点検
出用被写体光束が瞳に応じて2つの撮影用撮像素子21
4aおよび214b上にそれぞれ入射されるようにし
た。そして、撮像素子214a、214bのAF領域の
画像データの比較によって焦点検出を行うようにした。
したがって、焦点検出のために専用の受光素子を設ける
必要がないのでコストを軽減できる。さらに、撮影用の
撮像素子より小さな受光素子を用いる場合に比べて焦点
検出用の被写体光束を受光する範囲が広くなるので、焦
点検出領域を広くすることができる。
The features of the first embodiment will be summarized. (1) At the time of photographing, the luminous flux of the subject light is separated into transmitted light and reflected light by the polarizing beam splitter 219, and is made incident on the two image pickup devices 214a and 214b disposed on the conjugate imaging plane. Therefore, the separated subject luminous flux can be simultaneously imaged by the imaging elements 214a and 214b. (2) In pupil division at the time of focus detection, a polarization filter of a P polarization component and a polarization filter of an S polarization component are provided for the pupil to be divided, and the polarized focus detection subject light flux transmitted through the polarization filter is applied to the pupil. Two photographing image sensors 21 according to the
4a and 214b. Then, focus detection is performed by comparing image data of the AF areas of the imaging elements 214a and 214b.
Therefore, it is not necessary to provide a dedicated light receiving element for focus detection, so that the cost can be reduced. Furthermore, since the range in which the subject light flux for focus detection is received is wider than when a light receiving element smaller than the imaging element for photographing is used, the focus detection area can be widened.

【0060】(3)焦点検出時の瞳分割用の一対の開口
部208c〜208jは、被写界に対して水平方向、垂
直方向、および水平方向に対して斜め+45度と−45
度の方向に設け、焦点検出動作時にいずれか一対の開口
部を選択できるようにした。この結果、選択された開口
部に基づいた被写体画像からコントラストを検出するこ
とがむずかしい場合には、他の方向に設けられた開口部
を選択して被写体画像のコントラストを再び検出させる
ことが可能になり、焦点検出動作が正しく行われる効果
が得られる。 (4)瞳分割により得られた一対の被写体像の相対距離
を求めるとき、撮像素子214aおよび214b上で検
出された画像データを垂直方向25画素、水平方向4画
素の合計100画素からなる画素群に分け、各画素群ご
とに合計出力を算出した。この結果、データに含まれる
ノイズを低減するとともに、RGB各色の画素出力をデ
ータとして使用することができる。
(3) A pair of apertures 208c to 208j for pupil division at the time of focus detection are at +45 degrees and -45 with respect to the object field in the horizontal direction, the vertical direction, and the horizontal direction.
It is provided in the direction of degree so that any one pair of openings can be selected at the time of the focus detection operation. As a result, when it is difficult to detect the contrast from the subject image based on the selected opening, it is possible to select an opening provided in another direction and to detect the contrast of the subject image again. Thus, the effect that the focus detection operation is performed correctly can be obtained. (4) When calculating the relative distance between a pair of subject images obtained by pupil division, the image data detected on the imaging elements 214a and 214b is a pixel group consisting of 25 pixels in the vertical direction and 4 pixels in the horizontal direction, totaling 100 pixels And the total output was calculated for each pixel group. As a result, the noise included in the data can be reduced, and the pixel output of each of the RGB colors can be used as the data.

【0061】(5)撮像素子214aおよび214bか
ら出力される画像信号を処理する画像信号処理部431
a、431bにおいて、焦点検出時と撮影時で画像信号
増幅率を変更するようにした。これにより、焦点検出時
に撮像素子214aおよび214bの露光時間を短くす
るとともに、撮影時に信号増幅時のノイズを低減する効
果が得られる。なお、焦点検出時に信号増幅時のノイズ
が発生しても、上述したように画素群ごとに合計出力を
求めてノイズを低減する上、焦点検出時の被写体画像は
撮影画像としてメモリカード424に記録されることが
ないので問題にならない。 (6)撮像素子214aおよび214bの露光時に所定
の露光時間が経過したとき、シャッター板208で被写
体光を遮光するようにしたので、画像信号読み出し時に
撮像素子214a、214bが露光されて生じるスミア
を最小限に抑えることができる。
(5) An image signal processing unit 431 for processing image signals output from the image sensors 214a and 214b
In a and 431b, the image signal amplification factor is changed between focus detection and photographing. Thus, the effects of shortening the exposure time of the imaging elements 214a and 214b during focus detection and reducing noise during signal amplification during shooting can be obtained. Even if noise occurs during signal amplification during focus detection, noise is reduced by calculating the total output for each pixel group as described above, and the subject image during focus detection is recorded on the memory card 424 as a photographed image. It doesn't matter because it's not done. (6) When a predetermined exposure time elapses when exposing the image sensors 214a and 214b, the subject light is blocked by the shutter plate 208, so that smear caused by exposing the image sensors 214a and 214b when reading image signals is reduced. Can be minimized.

【0062】(7)同じベイヤ配列のカラーフィルタが
オンチップされたCCDで構成された撮像素子214a
および214bは、撮像素子上に投影される被写体像が
鏡面対称となるように配置されたことにより、画像信号
を読み出すときの電荷排出方向が撮像された画像に対し
て反対方向になる。この結果、両撮像素子から出力され
る画像信号に基づいて、スミアが発生している撮像素子
とその撮像素子上のスミア発生画素を特定でき、スミア
が発生していない他の撮像素子上の対応する画素出力に
基づいてスミアが発生した画素出力を補正することがで
きる。 (8)フィールドレンズ209を一次結像面16の物体
側に配置することによりフィールドレンズ209の結像
倍率を縮小倍率とし、結像レンズ212の倍率を等倍率
(−1)に近づけるようにした。この結果、従来の結像
光学系に比べて物体側の焦点距離が短くできるので結像
光学系の全長を短縮でき、デジタルカメラを小型化する
ことが可能になる。さらに、像側の焦点距離を長くとれ
るので軸外収差の補正にも効果がある。
(7) An image sensor 214a composed of a CCD in which color filters of the same Bayer array are on-chip.
And 214b are arranged so that the subject image projected on the image sensor is mirror-symmetrical, so that the charge discharging direction when reading out the image signal is opposite to the captured image. As a result, based on the image signals output from the two image sensors, the image sensor in which smear has occurred and the smear-occurring pixel on the image sensor can be specified, and the corresponding image sensor on the other image sensor in which smear has not occurred can be specified. The pixel output in which smear has occurred can be corrected based on the pixel output to be performed. (8) By arranging the field lens 209 on the object side of the primary imaging plane 16, the imaging magnification of the field lens 209 is set to the reduction magnification, and the magnification of the imaging lens 212 is made closer to the equal magnification (−1). . As a result, the focal length on the object side can be reduced as compared with the conventional imaging optical system, so that the entire length of the imaging optical system can be shortened, and the digital camera can be downsized. Further, since the focal length on the image side can be increased, it is effective in correcting off-axis aberrations.

【0063】(9)一次結像面16より物体側の方が被
写体光束の広がりが小さいので、配置するフィールドレ
ンズ209のレンズ径を小さくできる。この結果、小型
化およびコスト削減の効果が得られる。 (10)ミラー210の取り付け角度θを水平面に対し
て55度にしたので、ミラー210の水平投影長H4を
短くできるとともに、被写体光L(クイックリターンミ
ラー3が3’の位置に回動されているとき)の光束がミ
ラー210よりも前方(図1の左方)に反射される。こ
の結果、ミラー211および縮小光学系212をクイッ
クリターンミラー3の下部空間に配置することができ、
ミラー210の取り付け角度θを45度にした場合より
カメラ本体200の奥行き方向の長さH3が短縮され、
カメラを小型化する効果がある。
(9) Since the luminous flux of the object is smaller on the object side than on the primary imaging surface 16, the lens diameter of the field lens 209 to be arranged can be reduced. As a result, effects of miniaturization and cost reduction can be obtained. (10) Since the mounting angle θ of the mirror 210 is set to 55 degrees with respect to the horizontal plane, the horizontal projection length H4 of the mirror 210 can be shortened, and the subject light L (when the quick return mirror 3 is rotated to the position of 3 ′). Is reflected forward (leftward in FIG. 1) of the mirror 210. As a result, the mirror 211 and the reduction optical system 212 can be arranged in the space below the quick return mirror 3, and
The length H3 in the depth direction of the camera body 200 is shorter than when the mounting angle θ of the mirror 210 is 45 degrees,
This has the effect of downsizing the camera.

【0064】−第二の実施の形態− 続いて、上述したデジタルスチルカメラ100の表示L
CD220への表示動作について説明する。デジタルス
チルカメラ100で最終的にメモリカード424に記録
される画像データは、2つの撮像素子214aおよび2
14bでそれぞれ撮像された画像データを合成したもの
である。しかし、デジタルスチルカメラ100にファイ
ンダー表示やモニタ表示を行うために表示LCD220
が備えられている場合には、撮影前の画像および撮影後
の画像を上記LCD220上に表示させることができ
る。本実施の形態では、デジタルスチルカメラ100が
記録モードに設定されているとき、撮像素子214aお
よび214bのいずれか一方の撮像素子から出力される
画像信号に基づいて表示を行い、再生モードに設定され
ているときは両方の撮像素子214aおよび214bか
ら出力される画像信号に基づいて表示を行う。
Second Embodiment Subsequently, the display L of the digital still camera 100 is described.
The display operation on the CD 220 will be described. The image data finally recorded on the memory card 424 by the digital still camera 100 includes two image sensors 214a and 214
14b is obtained by synthesizing the image data captured in step 14b. However, in order to display a viewfinder or a monitor on the digital still camera 100, the display LCD 220
Is provided, an image before shooting and an image after shooting can be displayed on the LCD 220. In the present embodiment, when the digital still camera 100 is set to the recording mode, display is performed based on an image signal output from one of the image sensors 214a and 214b, and the digital camera 100 is set to the playback mode. When it is displayed, display is performed based on the image signals output from both the image sensors 214a and 214b.

【0065】−画像データの表示− 図18は、本実施の形態におけるデジタルスチルカメラ
100で、表示LCD220上に画像データ表示を行う
処理を説明するフローチャートである。ステップS40
1において、デジタルスチルカメラ100が記録モード
/再生モードのいずれに設定されているかが判定され
る。デジタルスチルカメラ100が操作部材407の1
つである不図示のモード切替スイッチにより記録モード
に設定されていると判定される(ステップS401の記
録モード側)と、ステップS402で半押し操作信号が
入力されたか否かが判定される。一方、デジタルスチル
カメラ100が再生モードに設定されていると判定され
る(ステップS401の再生モード側)とステップS4
11に進む。ステップS402で半押し操作信号が入力
されたと判定される(ステップS402のY)とステッ
プS403へ進み、入力されていないと判定されるとき
(ステップS402のN)は半押し操作信号が入力され
るのを待つ。
-Display of Image Data- FIG. 18 is a flowchart illustrating a process of displaying image data on the display LCD 220 in the digital still camera 100 according to the present embodiment. Step S40
At 1, it is determined whether the digital still camera 100 is set to a recording mode or a reproduction mode. The digital still camera 100 is one of the operation members 407
When it is determined that the recording mode has been set by the mode change switch (not shown) (recording mode side in step S401), it is determined in step S402 whether a half-press operation signal has been input. On the other hand, if it is determined that the digital still camera 100 is set to the playback mode (the playback mode side of step S401), the process proceeds to step S4.
Proceed to 11. If it is determined in step S402 that a half-press operation signal has been input (Y in step S402), the process proceeds to step S403. If it is determined that no half-press operation signal has been input (N in step S402), a half-press operation signal is input. Wait for

【0066】ステップS403では撮像素子214aの
出力に基づいた画像データがDSP433に取り込まれ
る。DSP433に取り込まれた画像データは、撮像素
子214a上の各画素位置におけるR色、G色、B色の
データを算出する画素補間処理を含む所定の画像処理が
施されると一旦バッファメモリ436に記憶されたの
ち、フレームメモリ435に記憶されて表示LCD22
0に表示される(ステップS404)。このとき表示さ
れる画像は、スルー画像と呼ばれる撮影前のモニター用
の被写体画像である。ステップS405では、撮像素子
214aからの出力に基づいて、適正な露出が得られる
ようにシャッター開放時間および絞り値が計算される。
撮像素子214aおよび214bが所定時間露光され、
撮像素子214aおよび214bからの出力に基づいた
2つの画像データが比較演算され、前述したような瞳分
割による焦点検出が行われる(ステップS406)。そ
して、得られた焦点検出データに基づいて撮影レンズ1
がレンズ駆動回路430により合焦位置へ駆動される。
In step S403, image data based on the output of the image sensor 214a is taken into the DSP 433. The image data captured by the DSP 433 is temporarily stored in the buffer memory 436 once predetermined image processing including pixel interpolation processing for calculating data of R, G, and B colors at each pixel position on the image sensor 214a is performed. After being stored, it is stored in the frame memory 435 and displayed on the display LCD 22.
0 is displayed (step S404). The image displayed at this time is a monitor subject image before shooting called a through image. In step S405, the shutter opening time and the aperture value are calculated based on the output from the image sensor 214a so that an appropriate exposure is obtained.
The image sensors 214a and 214b are exposed for a predetermined time,
The two image data based on the outputs from the imaging elements 214a and 214b are compared and calculated, and the focus detection is performed by pupil division as described above (step S406). Then, based on the obtained focus detection data, the photographing lens 1
Is driven by the lens drive circuit 430 to the in-focus position.

【0067】全押し操作信号が入力されたと判定される
(ステップS407のY)と、クイックリターンミラー
3が跳ね上がり、ステップS408の撮影処理が実行さ
れる。一方、全押し操作信号が入力されないと判定され
たとき(ステップS407のN)は、ステップS402
に戻る。ステップS408では、シャッター板208の
全光束を通過させる開口部208bが光路上にセットさ
れ、ステップS405で計算された値に基づいて絞り板
215上の開口部215a〜215hのいずれかが光路
上にセットされると、撮像素子214aおよび214b
が所定時間露光される。
When it is determined that the full-press operation signal has been input (Y in step S407), the quick return mirror 3 jumps up, and the photographing process in step S408 is executed. On the other hand, when it is determined that the full press operation signal is not input (N in step S407), step S402 is performed.
Return to In step S408, the opening 208b of the shutter plate 208 through which all light beams pass is set on the optical path, and any of the openings 215a to 215h on the diaphragm plate 215 is placed on the optical path based on the value calculated in step S405. When set, the image sensors 214a and 214b
Is exposed for a predetermined time.

【0068】ステップS409において、撮像素子21
4aおよび214bから読み出された画像信号に対して
DSP433で所定の画像処理、および2つの撮像素子
から読み出された画像信号を1つの画像データにする合
成処理が行われる。なお、上記の画像処理は、互いに共
役な結像面に1/2画素ピッチずらして配設され2つの
撮像素子214aおよび214bの画素出力に基づいた
画素ずらし補間処理が含まれる。画像処理および合成処
理後の被写体画像が表示LCD220に表示される。こ
の表示画像は、フリーズ画像と呼ばれる撮影された被写
体画像である。そして、画像処理後の画像データは、た
とえば、JPEGなどの所定のフォーマットにより圧縮
されたデータがメモリカード424に記録される。
In step S409, the image sensor 21
The DSP 433 performs predetermined image processing on the image signals read from 4a and 214b, and synthesizes the image signals read from the two image sensors into one image data. Note that the above-described image processing includes a pixel shift interpolation process which is arranged on a conjugate image plane and shifted by a half pixel pitch and is based on pixel outputs of the two image sensors 214a and 214b. The subject image after the image processing and the synthesis processing is displayed on display LCD 220. This display image is a photographed subject image called a freeze image. As the image data after the image processing, for example, data compressed in a predetermined format such as JPEG is recorded on the memory card 424.

【0069】ステップS410では記録/再生モードが
変更されたか否かが判定され、再生モードに変更された
と判定されたとき(ステップS410のY)は、ステッ
プS411に進む。記録モードのままであると判定され
たとき(ステップS410のN)はステップS402に
戻る。ステップS411で最後にメモリカード424に
記録された合成画像データが表示LCD220上に表示
されると、他のコマの表示を行うためにキー操作が行わ
れたか否かが判定される(ステップS412)。キー操
作が行われていないと判定される(ステップS412の
N)とステップS411で行われた表示が続けられ、キ
ー操作が行われたと判定される(ステップS412の
Y)とキー操作に従ったコマの画像、たとえば、最初に
記録されたコマの画像が表示LCD220上に表示され
る(ステップS413)。ステップS414で再び記録
/再生モードが変更されたか否かが判定され、記録モー
ドに変更されたと判定されたとき(ステップS414の
Y)はステップS402に戻り、再生モードのままであ
ると判定されたとき(ステップS414のN)はステッ
プS412に戻る。
At step S410, it is determined whether or not the recording / reproducing mode has been changed. If it is determined that the mode has been changed to the reproducing mode (Y of step S410), the process proceeds to step S411. When it is determined that the recording mode is maintained (N in step S410), the process returns to step S402. When the composite image data finally recorded on the memory card 424 is displayed on the display LCD 220 in step S411, it is determined whether or not a key operation has been performed to display another frame (step S412). . When it is determined that no key operation has been performed (N in step S412), the display performed in step S411 is continued, and when it is determined that the key operation has been performed (Y in step S412), the key operation is followed. The image of the frame, for example, the image of the first recorded frame is displayed on display LCD 220 (step S413). In step S414, it is determined whether or not the recording / playback mode has been changed again. When it is determined that the mode has been changed to the recording mode (Y in step S414), the process returns to step S402, and it is determined that the playback mode is maintained. At this time (N in step S414), the process returns to step S412.

【0070】第二の実施の形態の特徴についてまとめ
る。 (1)撮影前のスルー画像を表示するときは、2つの撮
像素子のうちいずれか一方の撮像素子から出力される画
像信号に基づいて表示LCD220上に表示し、撮影後
のフリーズ画像を表示するときは、2つの撮像素子から
の画像信号を合成して表示するようにしたので、スルー
画表示時は2つの撮像素子からの画像信号を合成する合
成処理が不要になり、迅速な表示を行うことができる。
なお、表示用LCD220の表示可能な画素数は、たと
えば、横520ドット×縦220ドットであり、一般に
デジタルスチルカメラ100に備えられる撮像素子の画
素数(たとえば、横1400ドット×縦1240ドッ
ト)より遙かに少ないので、いずれか一方の撮像素子か
らの出力に基づいた画像データを表示させても実用上の
問題とならない。 (2)撮像素子214aおよび214bは同じ画素数の
CCDを用い、共役な結像面に1/2画素ピッチずらし
て配設されたので、両撮像素子から出力される画像信号
を画素ずらし補間する(ステップS409)ことによ
り、1つの撮像素子の場合の画素数と比べて画面の水平
方向、垂直方向に対して各々2倍の画素数を持つ画像デ
ータに変換できる。この結果、使用している撮像素子の
画素数を見かけ上増やすことができる。
The features of the second embodiment will be summarized. (1) When displaying a through-the-lens image before photographing, the through image is displayed on the display LCD 220 based on an image signal output from one of the two image sensors, and a frozen image after the image is displayed. In this case, since the image signals from the two image sensors are combined and displayed, the combining process of combining the image signals from the two image sensors is not required during live view display, and quick display is performed. be able to.
The number of pixels that can be displayed on the display LCD 220 is, for example, 520 dots in the horizontal direction × 220 dots in the vertical direction, and is generally larger than the pixel number of the image pickup device provided in the digital still camera 100 (for example, 1400 horizontal dots × 1240 vertical dots). Since the number is much smaller, displaying image data based on the output from either one of the image sensors does not pose a practical problem. (2) Since the image sensors 214a and 214b use CCDs having the same number of pixels and are arranged on a conjugate image plane with a shift of 1/2 pixel pitch, the image signals output from both image sensors are shifted by a pixel and interpolated. By performing (Step S409), the image data can be converted into image data having twice the number of pixels in the horizontal and vertical directions of the screen as compared with the number of pixels in the case of one image sensor. As a result, the number of pixels of the imaging device used can be apparently increased.

【0071】以上の説明では、ステップS403におい
て撮像素子214aの出力に基づいた画像データをDS
P433に取り込むことにより、撮影前の画像を表示L
CD220に表示したり(ステップS404)、露出計
算を行う(ステップS405)ようにしたが、撮像素子
214aの代わりに撮像素子214bの出力に基づいて
行うようにしてもよい。
In the above description, in step S403, the image data based on the output of the
The image before shooting is displayed L
Although the image is displayed on the CD 220 (step S404) and the exposure calculation is performed (step S405), it may be performed based on the output of the image sensor 214b instead of the image sensor 214a.

【0072】また、上記の説明では、レリーズ釦が半押
し操作入力の状態で保持された場合は、ステップS40
6で繰り返し焦点検出動作が行われるようにした。しか
し、ワンショットAFと呼ばれるように、一度被写体に
合焦させるとその状態を維持するように動作させるとき
は、合焦後はステップS406を省略してもよい。この
場合には、合焦後はいずれか一方の撮像素子のみを駆動
すればよいから消費電力を低減することができる
In the above description, if the release button is held in the state of the half-press operation input, step S40
In step 6, the focus detection operation is repeatedly performed. However, when an operation is performed so as to maintain the state once the subject is focused, as in one-shot AF, step S406 may be omitted after focusing. In this case, only one of the image sensors needs to be driven after focusing, so that power consumption can be reduced.

【0073】−第三の実施の形態− 第二の実施の形態では、デジタルスチルカメラ100が
記録モードに設定されているとき、いずれか一方の撮像
素子の出力に基づいてスルー画像表示を行い、再生モー
ドに設定されているとき、両方の撮像素子214aおよ
び214bの出力に基づいてフリーズ画像表示を行うよ
うにしたが、第三の実施の形態では記録モードおよび再
生モードのどちらのモードに設定されている場合でも、
いずれか一方の撮像素子の出力に基づいて表示を行う。
Third Embodiment In the second embodiment, when the digital still camera 100 is set to the recording mode, a through image is displayed based on the output of one of the image sensors. When the reproduction mode is set, the freeze image display is performed based on the outputs of both the image sensors 214a and 214b. However, in the third embodiment, either the recording mode or the reproduction mode is set. Even if you
The display is performed based on the output of one of the image sensors.

【0074】図19は、表示LCD220上に画像デー
タ表示を行う処理を説明するフローチャートである。図
18のフローチャートと相違するのはステップS408
a、S409a、S411aおよびステップS413a
であるので、これらのステップを中心に説明する。ステ
ップS408aでは、撮像素子214aおよび214b
の出力に基づいた画像データがDSP433に取り込ま
れる。DSP433に取り込まれた各画像データは、撮
像素子214aおよび214b上の各画素位置における
R色、G色、B色のデータを算出する画素補間処理を含
む所定の画像処理が施されると、一旦バッファメモリ4
36にそれぞれ記憶される。
FIG. 19 is a flowchart for explaining a process for displaying image data on the display LCD 220. The difference from the flowchart of FIG.
a, S409a, S411a and Step S413a
Therefore, these steps will be mainly described. In step S408a, the image sensors 214a and 214b
Is captured by the DSP 433. Each of the image data captured by the DSP 433 is subjected to predetermined image processing including pixel interpolation processing for calculating R, G, and B data at each pixel position on the imaging elements 214a and 214b. Buffer memory 4
36 respectively.

【0075】ステップS409aにおいて、画像処理後
の画像データが、たとえば、JPEGなどの所定のフォ
ーマットにより圧縮され、2つの撮像素子に基づいた画
像データごとにそれぞれメモリカード424に記録され
る。また、表示LCD220上へ表示されるフリーズ画
像は、ステップS403でスルー画像表示に用いられた
撮像素子214aの出力に基づいた画像データが用いら
れる。
In step S409a, the image data after the image processing is compressed in a predetermined format such as JPEG, and is recorded on the memory card 424 for each image data based on the two image sensors. As the freeze image displayed on the display LCD 220, image data based on the output of the image sensor 214a used for displaying the through image in step S403 is used.

【0076】ステップS411aでは、最後にメモリカ
ード424に記録された画像データのうち、撮像素子2
14aに基づいた画像データが表示LCD220上に表
示される。ステップS413aでは、ステップS412
で検出されたキー操作に従ったコマの画像、たとえば、
最初に記録されたコマの画像データのうち撮像素子21
4aに基づいた画像データが表示LCD220上に表示
される。
In step S 411 a, of the image data finally recorded on the memory card 424,
Image data based on 14a is displayed on the display LCD 220. In step S413a, step S412
The image of the frame according to the key operation detected in, for example,
Of the image data of the first recorded frame, the image sensor 21
4a is displayed on the display LCD 220.

【0077】第三の実施の形態の特徴についてまとめ
る。 (1)撮影後のフリーズ画像表示も、2つの撮像素子2
14aおよび214bのいずれか一方の撮像素子から出
力される画像信号に基づいて、表示LCD220上に表
示が行われるようにした。この結果、2つの画像信号に
基づいた画像データを各々メモリカードなどに記録する
場合において、フリーズ画像表示のために2つの撮像素
子214aおよび214bから出力された画像データを
合成する合成処理が不要になり、迅速なフリーズ画像表
示を行うことができる。 (2)第二の実施の形態(ステップS409)では、2
つの撮像素子214aおよび214bの出力に基づいた
画像データを画素ずらし補間する(ステップS409)
ことによりメモリ容量が4倍必要となるが、2つの撮像
素子に基づいた画像データごとにそれぞれメモリカード
424に記録する(ステップS409a)ようにしたの
で、メモリの使用量を減らすことができる。
The features of the third embodiment will be summarized. (1) The freeze image display after photographing is also performed by the two image sensors 2
Display is performed on the display LCD 220 based on an image signal output from one of the image sensors 14a and 214b. As a result, when image data based on two image signals is respectively recorded on a memory card or the like, there is no need to perform a combining process of combining image data output from the two imaging elements 214a and 214b for displaying a frozen image. That is, quick freeze image display can be performed. (2) In the second embodiment (step S409), 2
The image data based on the outputs of the two image sensors 214a and 214b are pixel-shifted and interpolated (step S409).
This requires four times the memory capacity. However, since image data based on two image sensors is recorded on the memory card 424 (step S409a), the amount of memory used can be reduced.

【0078】以上の説明では、ステップS409aにお
いて、撮像素子214aおよび214bの出力に基づい
た画像データをそれぞれJPEG圧縮して、両JPEG
データをメモリカード424に記録するようにした。上
記の代わりに、撮像素子214aの出力に基づいた画像
データをJPEG圧縮し、撮像素子214bの出力に基
づいた画像データは撮像素子214aの出力に基づいた
画像データとの差分をとり、その差分をJPEG圧縮す
ることにより、両JPEGデータをメモリカード424
に記録するようにしてもよく、また、両記録方法を選択
可能としてもよい。
In the above description, in step S409a, the image data based on the outputs of the image sensors 214a and 214b are JPEG-compressed, respectively,
The data was recorded on the memory card 424. Instead of the above, the image data based on the output of the image sensor 214a is JPEG-compressed, and the image data based on the output of the image sensor 214b takes the difference from the image data based on the output of the image sensor 214a. By performing JPEG compression, both JPEG data are stored in the memory card 424.
May be recorded, or both recording methods may be selectable.

【0079】−第四の実施の形態− 図20は第四の実施の形態を示す図であり、撮影レンズ
1の一次結像面16より後方(図20では右斜め上)に
配置されている縮小光学系512、ビームスプリッタ5
19および撮像素子214aおよび214bからなる結
像光学系の斜視図である。縮小光学系512の内部に
は、シャッター板508と絞り板515とが隣接して設
けられ、シャッター板508と絞り板515はリレーレ
ンズ512aと512bとに挟まれている。シャッター
板508および絞り板515は円盤状に形成されてお
り、第一の実施の形態と同様に、円盤の回転中心にそれ
ぞれ設けられた不図示のステップモータにより駆動され
る。
Fourth Embodiment FIG. 20 is a view showing a fourth embodiment, and is disposed behind the primary imaging surface 16 of the photographing lens 1 (in FIG. 20, obliquely right above). Reduction optical system 512, beam splitter 5
FIG. 19 is a perspective view of an imaging optical system including the imaging device 19 and imaging elements 214a and 214b. A shutter plate 508 and a diaphragm plate 515 are provided adjacent to each other inside the reduction optical system 512, and the shutter plate 508 and the diaphragm plate 515 are sandwiched between relay lenses 512a and 512b. The shutter plate 508 and the aperture plate 515 are formed in a disk shape, and are driven by step motors (not shown) provided at respective rotation centers of the disk, as in the first embodiment.

【0080】図20に示されるように、シャッター板5
08には全ての光束を遮光する完全遮光部508a、全
ての光束を通過させる開口部508b、光軸に対して上
下左右、そして斜め方向にずれた位置に開口部508c
〜508hが設けられている。通常の撮影時には開口部
508aおよび508bが用いられ、瞳分割方式の焦点
検出動作時において開口部508c〜508hが用いら
れる。
As shown in FIG. 20, the shutter plate 5
Reference numeral 08 denotes a complete light blocking portion 508a for blocking all light beams, an opening 508b for passing all light beams, and an opening 508c at a position shifted vertically, horizontally, and obliquely with respect to the optical axis.
To 508h. The openings 508a and 508b are used during normal imaging, and the openings 508c to 508h are used during a pupil division type focus detection operation.

【0081】一方、絞り板515には絞り開口部515
a〜515gが設けられている。全ての被写体光束を通
過させる開口部515aの面積を基準にして、絞り開口
部515b〜515gの開口面積は、開口部515b〜
515gに至るまで開口面積が順に半分ずつになるよう
に設定されている。縮小光学系512の射出側(図20
でリレーレンズ512bの右上)には偏光作用を持たな
いビームスプリッタ519が設けられ、入射された光束
を透過光1:反射光4に分離する。ビームスプリッタ5
19を透過した光束が撮像素子214aに入射され、ビ
ームスプリッタ519で反射された光束が撮像素子21
4bに入射される。
On the other hand, the diaphragm plate 515 has a diaphragm opening 515.
a to 515 g are provided. With reference to the area of the aperture 515a through which all the subject light beams pass, the aperture areas of the aperture apertures 515b to 515g are equal to the apertures 515b to 515g.
The opening area is set so that the opening area becomes half in order up to 515 g. The exit side of the reduction optical system 512 (FIG. 20)
A beam splitter 519 having no polarization action is provided on the upper right of the relay lens 512b), and separates the incident light beam into transmitted light 1 and reflected light 4. Beam splitter 5
The light beam transmitted through the light source 19 is incident on the image sensor 214a, and the light beam reflected by the beam splitter 519 is reflected by the image sensor 21a.
4b.

【0082】第四の実施の形態における焦点検出動作
は、シャッター板508上において、光軸からずれた位
置に設けられた開口部508c〜508hを用いること
により時分割で行われる。たとえば、図20の光学系に
おいて、光軸に対して上下にずれた位置に設けられたシ
ャッター板508の開口部508eおよび508fを透
過した画像を観測することは、ミラー210およびミラ
ー211の作用により、被写界を水平方向にずれた二つ
の瞳に分割して観察する事に相当する。そこで、先ず開
口部508eから入射された光束による被写体像を撮像
素子214bから読み出して、DSP433で所定の画
像処理を行いバッファメモリ436に一旦記録する。
The focus detection operation in the fourth embodiment is performed in a time-division manner by using openings 508c to 508h provided on the shutter plate 508 at positions shifted from the optical axis. For example, in the optical system shown in FIG. 20, observing an image transmitted through the openings 508e and 508f of the shutter plate 508 provided at a position deviated vertically with respect to the optical axis is performed by the action of the mirror 210 and the mirror 211. This is equivalent to dividing the field of view into two horizontally displaced pupils for observation. Therefore, first, a subject image based on the light beam incident from the opening 508e is read out from the image sensor 214b, subjected to predetermined image processing by the DSP 433, and temporarily recorded in the buffer memory 436.

【0083】次に、シャッター板508を回転させて開
口部508fから入射された光束による被写体像を撮像
素子214bから読み出して、DSP433で所定の画
像処理を行いバッファメモリ436に一旦記録する。そ
して、バッファメモリ436に記録された2つの被写体
画像、すなわち、あらかじめ定められた特定のAF領域
内において、開口部508eから入射された光束に基づ
いて撮像素子214bで撮像された被写体像と開口部5
08fから入射された光束に基づいて撮像素子214b
で撮像された被写体像からなる一対の被写体画像の間隔
を求めることにより、第四の実施の形態による焦点検出
動作が行われる。なお、上記の一対の被写体画像間隔の
検出処理は、第一の実施の形態における処理と同様に行
われる。
Next, the shutter plate 508 is rotated to read out the subject image by the light beam incident from the opening 508f from the image pickup device 214b, perform predetermined image processing by the DSP 433, and temporarily record it in the buffer memory 436. The two subject images recorded in the buffer memory 436, that is, the subject image captured by the image sensor 214b based on the light beam incident from the opening 508e and the opening within the predetermined specific AF area. 5
08f based on the light beam incident from the imaging element 214b
The focus detection operation according to the fourth embodiment is performed by calculating the interval between a pair of subject images formed of the subject images captured in step (1). The process of detecting the interval between a pair of subject images is performed in the same manner as the process in the first embodiment.

【0084】上記のように時分割で焦点検出動作が行わ
れる場合、デジタルスチルカメラ100や被写体が時間
経過とともに移動することによりブレが生じることがあ
る。ブレが生じると撮影レンズ1の焦点調節状態、すな
わち、ずれ量を正確に求めることができなくなる。この
ようなブレによる焦点検出不良を防止するために、先ず
上述したように、シャッター板508の開口部508e
から入射された光束に基づいて撮像素子214b上で検
出された被写体像と、開口部508fから入射された光
束に基づいて撮像素子214b上で検出された被写体像
との間隔に基づいて撮影レンズ1の焦点のずれを算出す
る。次に、再び開口部508eから入射された光束に基
づいて撮像素子214b上で検出される被写体像をバッ
ファメモリ436に記録し、先にバッファメモリ436
に記録された撮像素子214b上で検出された被写体像
との間隔に基づいて撮影レンズ1の焦点のずれを再び算
出する。そして、得られた2つのずれ量の平均をこの実
施の形態におけるずれ量とすることにより、焦点検出動
作を行う。
When the focus detection operation is performed in a time-division manner as described above, the digital still camera 100 or the subject may move due to the elapse of time, resulting in blurring. When blur occurs, the focus adjustment state of the photographing lens 1, that is, the shift amount cannot be accurately obtained. In order to prevent the focus detection failure due to such blurring, first, as described above, the opening 508e of the shutter plate 508 is formed.
The imaging lens 1 is determined based on the distance between the subject image detected on the image sensor 214b based on the light beam incident from the camera and the subject image detected on the image sensor 214b based on the light beam incident from the opening 508f. Is calculated. Next, the subject image detected on the image sensor 214b based on the light beam incident again from the opening 508e is recorded in the buffer memory 436.
The focus shift of the photographic lens 1 is calculated again based on the distance from the subject image detected on the image sensor 214b recorded in the image sensor 214b. Then, a focus detection operation is performed by taking the average of the two obtained shift amounts as the shift amount in this embodiment.

【0085】次に、第四の実施の形態における画像デー
タの表示について説明する。撮像素子214aおよび2
14bは、ビームスプリッタ519の透過率と反射率の
違いにより、入射される光量に差がある。すなわち、第
一の実施の形態による偏光ビームスプリッタ219の透
過率と反射率の比より大きく、透過率1:反射率4であ
る。したがって、撮像素子214bに撮像素子214a
より多くの光量が入射され、撮像素子214aは撮像素
子214bより少ない光量が入射される。そこで、輝度
差が大きな被写体を撮影する場合は、暗い部分の画像は
光量の多い撮像素子214bによる画像データを用い、
撮像素子214bにおいて光量が多くて白トビが生じて
いる部分の画像は、光量が少なくて白トビが生じにくい
撮像素子214aによる画像データを用いて1つの画像
データを合成する。合成された画像データを撮影前のス
ルー画像として表示LCD220上に表示させる。
Next, display of image data according to the fourth embodiment will be described. Image sensors 214a and 2
14b, there is a difference in the amount of incident light due to the difference between the transmittance and the reflectance of the beam splitter 519. That is, the ratio of the transmittance to the reflectance of the polarizing beam splitter 219 according to the first embodiment is larger than the transmittance and the reflectance is 4. Therefore, the image pickup device 214a
A larger amount of light is incident, and a smaller amount of light is incident on the image sensor 214a than on the image sensor 214b. Therefore, when photographing a subject having a large difference in luminance, the image of the dark part uses image data from the imaging element 214b having a large amount of light,
One image data is synthesized from the image of the portion of the image sensor 214b where the amount of light is large and overexposure occurs due to the small amount of light and the image data of the image sensor 214a that is less likely to overexpose. The synthesized image data is displayed on the display LCD 220 as a through image before photographing.

【0086】図21は、第四の実施の形態におけるデジ
タルスチルカメラ100で、表示LCD220上への画
像表示処理を説明するフローチャートである。ステップ
S501において、デジタルスチルカメラ100が記録
モード/再生モードのいずれに設定されているかが判定
される。デジタルスチルカメラ100が操作部材407
の1つである不図示のモード切替スイッチにより記録モ
ードに設定されていると判定される(ステップS501
の記録モード側)と、半押し操作信号の入力と無関係に
ステップS502で輝度測定が行われ、撮像素子214
aからの出力信号に基づいて測定される輝度が所定値以
上か否かが判定される(ステップS503)。一方、デ
ジタルスチルカメラ100が再生モードに設定されてい
ると判定される(ステップS501の再生モード側)と
ステップS507に進む。撮像素子214aからの出力
信号に基づいて測定される輝度が所定値以上と判定され
る(ステップS503のY)と、ビームスプリッタ51
9の透過側に配置されて入射光量が少ない撮像素子21
4aの出力に基づいた画像データが、撮影前のスルー画
像として表示LCD220上に表示され(ステップS5
04)、ステップS506へ進む。
FIG. 21 is a flowchart for explaining image display processing on the display LCD 220 in the digital still camera 100 according to the fourth embodiment. In step S501, it is determined whether the digital still camera 100 is set to a recording mode or a reproduction mode. The digital still camera 100 is operated by the operation member 407
It is determined that the recording mode has been set by a mode changeover switch (not shown) which is one of the above (step S501).
) And the luminance measurement is performed in step S502 irrespective of the input of the half-press operation signal.
It is determined whether or not the luminance measured based on the output signal from a is equal to or greater than a predetermined value (step S503). On the other hand, when it is determined that the digital still camera 100 is set to the playback mode (the playback mode side of step S501), the process proceeds to step S507. When it is determined that the luminance measured based on the output signal from the image sensor 214a is equal to or greater than a predetermined value (Y in step S503), the beam splitter 51
Imaging element 21 which is arranged on the transmission side of 9 and has a small amount of incident light
The image data based on the output of 4a is displayed on the display LCD 220 as a through image before photographing (step S5).
04), and the process proceeds to step S506.

【0087】ステップS503において、撮像素子21
4aからの出力信号に基づいて測定される輝度が所定値
未満と判定されるとき(ステップS503のN)は、ビ
ームスプリッタ519の反射側に配置されて入射光量が
多い撮像素子214bの出力に基づいた画像データが、
撮影前のスルー画像として表示LCD220上に表示さ
れる(ステップS505)。ステップS506では、前
述した半押し操作信号が入力されると撮像素子214a
または214bから出力された画像データに基づいて焦
点検出動作が行われ、全押し操作信号が入力されると撮
影してメモリカード424への記録処理が行われる。撮
影後のフリーズ画像表示は、第二の実施の形態のよう
に、撮像素子214aから出力される画像信号と撮像素
子214bから出力される画像信号とが合成処理された
画像データが表示される。記録処理が終了すると、本フ
ローチャートによる処理が終了する。
In step S503, the image sensor 21
When it is determined that the luminance measured based on the output signal from 4a is less than the predetermined value (N in step S503), the luminance is determined based on the output of the imaging element 214b that is disposed on the reflection side of the beam splitter 519 and has a large incident light amount. Image data
It is displayed on the display LCD 220 as a through image before shooting (step S505). In step S506, when the above-described half-press operation signal is input, the image sensor 214a
Alternatively, a focus detection operation is performed based on the image data output from the 214b, and when a full-press operation signal is input, shooting is performed and recording processing on the memory card 424 is performed. In the display of a frozen image after photographing, as in the second embodiment, image data in which an image signal output from the image sensor 214a and an image signal output from the image sensor 214b are combined is displayed. When the recording process ends, the process according to this flowchart ends.

【0088】ステップS507では、デジタルスチルカ
メラ100が再生モードにあると判定されたとき(ステ
ップS501の再生モード側)、撮像素子214aおよ
び214bからの出力信号に基づいて画像処理されて、
メモリカード424に記録されている画像データが表示
LCD220上に表示される。ステップS508では、
他のコマの表示を行うための再生キー入力処理が行われ
る。すなわち、他のコマを表示するためのキー操作が行
われた場合は、キー操作に従ったコマの画像データが読
み出されて表示LCD220上に表示される。再生操作
が行われない場合は、本フローチャートによる処理が終
わる。
In step S507, when it is determined that the digital still camera 100 is in the reproduction mode (the reproduction mode side of step S501), the digital still camera 100 performs image processing based on the output signals from the image pickup devices 214a and 214b.
Image data recorded on the memory card 424 is displayed on the display LCD 220. In step S508,
A reproduction key input process for displaying another frame is performed. That is, when a key operation for displaying another frame is performed, the image data of the frame according to the key operation is read and displayed on the display LCD 220. If the reproduction operation is not performed, the processing according to this flowchart ends.

【0089】第四の実施の形態の特徴についてまとめ
る。 (1)2つの撮像素子に入射される被写体光の光量を変
え、被写体の輝度に応じて選択された一方の撮像素子か
らの出力に基づいて、撮影前の画像表示LCD220上
にを表示し、時分割で焦点検出動作を行うようにした。
この結果、撮影前のスルー画像表示に被写体の輝度が高
くて白トビやスミアが発生したり、被写体の輝度が低く
て黒スブレが生じることが防止されるとともに、焦点検
出時のずれ量検出が容易になる。 (2)記録モード時、2つの撮像素子のうちいずれか一
方の撮像素子から出力される画像信号に基づいて、撮影
前のスルー画像を表示LCD220上に表示するように
したので、2つの撮像素子からの画像信号を合成して表
示するときのような合成処理が不要となり、もって迅速
な画像表示ができる。また、記録モード時の撮影前は、
表示している側の撮像素子のみを駆動すればよいから消
費電力を低減することができる。
The features of the fourth embodiment will be summarized. (1) changing the amount of subject light incident on the two image sensors, displaying an image on the image display LCD 220 before shooting based on the output from one of the image sensors selected according to the brightness of the subject, The focus detection operation is performed in a time sharing manner.
As a result, it is possible to prevent the occurrence of overexposure and smear due to the high brightness of the subject in the through image display before shooting, the occurrence of black blur due to the low brightness of the subject, and the detection of the shift amount during focus detection. It will be easier. (2) In the recording mode, a through image before photographing is displayed on the display LCD 220 based on an image signal output from one of the two image sensors. This eliminates the need for a combining process such as when combining and displaying image signals from the camera, thereby enabling quick image display. Before shooting in the recording mode,
Since only the image sensor on the display side needs to be driven, power consumption can be reduced.

【0090】上記の説明では、開口部508eから入射
された光束に基づいて撮像素子214b上で検出された
被写体像と開口部508fから入射された光束に基づい
て撮像素子214b上で検出された被写体像からなる一
対の被写体画像の間隔を検出するようにした。これに対
して、開口部508eから入射された光束に基づいて撮
像素子214a上で検出された被写体像と開口部508
fから入射された光束に基づいて撮像素子214a上で
検出された被写体像からなる一対の被写体画像の間隔を
検出するようにしてもよい。
In the above description, the subject image detected on the image sensor 214b based on the light beam incident from the opening 508e and the subject image detected on the image sensor 214b based on the light beam incident from the opening 508f. An interval between a pair of subject images composed of images is detected. On the other hand, a subject image detected on the image sensor 214a based on the light beam incident from the opening 508e and the opening 508
The interval between a pair of subject images composed of subject images detected on the image sensor 214a may be detected based on the light beam incident from f.

【0091】また、以上の説明では、ビームスプリッタ
519の透過率と反射率を1:4に設定したが、もっと
大きな比に設定してもよい。たとえば透過率1:反射率
10とすれば、撮像素子214aでスミアが発生する可
能性は非常に小さく抑えられる。このような場合には、
第一の実施の形態で説明したスミア低減処理は、図12
に示される撮像素子214b側のみを行えばよい。
Further, in the above description, the transmittance and the reflectance of the beam splitter 519 are set to 1: 4, but may be set to a larger ratio. For example, if the transmittance is set to 1 and the reflectance is set to 10, the possibility of occurrence of smear in the image sensor 214a can be suppressed to a very low level. In such a case,
The smear reduction processing described in the first embodiment is the same as that in FIG.
Need only be performed on the imaging element 214b side shown in FIG.

【0092】さらに、上記の説明では、ビームスプリッ
タ519の透過率と反射率の比を相違させることによ
り、2つの撮像素子214aおよび214bへの入射光
量に差をつけたが、ビームスプリッタ519の透過率と
反射率の差が少ない場合には、一方の撮像素子の前に減
光のためにNDフィルタなどを挿入してもよい。
Further, in the above description, the ratio between the transmittance and the reflectance of the beam splitter 519 is made different so that the amount of light incident on the two imaging elements 214a and 214b is made different. When the difference between the reflectance and the reflectance is small, an ND filter or the like may be inserted in front of one of the image sensors for light reduction.

【0093】以上の第一〜第四の発明の実施の形態では
デジタルスチルカメラについて説明したが、図11およ
び図12に示したスミア低減処理をソフトウエアの形態
でCD−ROMやフロッピデイスクなどの記憶媒体に画
像処理プログラムとして格納し、パソコンで画像処理す
る際に使用することもできる。この場合、撮像素子21
4aおよび214bから出力された画像信号に基づい
て、デジタル化された両画像データを大容量の画像デー
タ用記録媒体にそれぞれ記録し、この記録媒体をパソコ
ンにセットして両画像データを取込んだ上で、上記画像
処理プログラムにより上述のようなスミア低減処理を行
うようにする。
In the first to fourth embodiments, the digital still camera has been described. However, the smear reduction processing shown in FIGS. 11 and 12 may be performed in the form of software such as a CD-ROM or a floppy disk. It can also be stored as an image processing program in a storage medium and used when performing image processing on a personal computer. In this case, the image sensor 21
Based on the image signals output from 4a and 214b, both digitized image data were recorded on a large-capacity image data recording medium, respectively, and the recording medium was set on a personal computer to capture both image data. Above, the above-described image processing program performs the above-described smear reduction processing.

【0094】上述したようにパソコン上で画像処理する
際、上記画像データ用記録媒体に記録された画像データ
が既にスミア低減処理を施されている場合には、スミア
低減処理が再度行われないようにプログラムを作成す
る。この場合、上記画像データ用記録媒体には、スミア
低減処理フラグも合わせて記憶しておき、上記パソコン
上で画像処理を行う際にスミア低減処理が行われた画像
データか否かの判定処理を行うための情報として使用す
る。一方、上記画像データ用記録媒体に記録された画像
データがスミア低減処理を施されていない場合には、ス
ミア低減処理が行われるようにプログラムを作成する。
この場合、上記画像データ用記録媒体にスミア低減処理
フラグがセットされていないことで、スミア低減未処理
画像データであることが識別される。
As described above, when image processing is performed on a personal computer, if image data recorded on the image data recording medium has already been subjected to smear reduction processing, the smear reduction processing is not performed again. Create a program in In this case, the smear reduction processing flag is also stored in the image data recording medium, and the processing for determining whether or not the image data has been subjected to the smear reduction processing when performing image processing on the personal computer is performed. Use as information to do. On the other hand, if the image data recorded on the image data recording medium has not been subjected to the smear reduction processing, a program is created so that the smear reduction processing is performed.
In this case, since the smear reduction processing flag is not set on the image data recording medium, the image data is identified as unsmear reduced unprocessed image data.

【0095】以上の説明では、一眼レフデジタルスチル
カメラについて説明したが、レンズ交換ができないデジ
タルスチルカメラ、動画像も取込めるデジタルビデオカ
メラにも本発明を適用できる。
In the above description, a single-lens reflex digital still camera has been described. However, the present invention can be applied to a digital still camera whose lens cannot be replaced and a digital video camera which can also capture a moving image.

【0096】特許請求の範囲における各構成要素と、発
明の実施の形態における各構成要素との対応について説
明すると、偏光ビームスプリッタ219およびビームス
プリッタ519が光学手段に、撮像素子214aが第1
の撮像手段に、撮像素子214bが第2の撮像手段に、
CPU439が検出手段、判定手段および補正手段にそ
れぞれ対応する。
The correspondence between each component in the claims and each component in the embodiment of the invention will be described. The polarizing beam splitter 219 and the beam splitter 519 are optical means, and the image pickup device 214a is the first optical device.
The imaging device 214b serves as a second imaging device,
The CPU 439 corresponds to the detecting unit, the determining unit, and the correcting unit.

【0097】[0097]

【発明の効果】以上詳細に説明したように本発明では、
次のような効果を奏する。 (1)請求項1、4の発明では、被写体像を光学的に分
離して生成された第1および第2の被写体像をそれぞれ
第1および第2の撮像手段で撮像し、出力値が第1の所
定値以上となる第1の撮像手段における第1の画素を検
出し、その画素に対応した第2の撮像手段における第2
の画素の出力値が所定値以上となるかを判定するように
した。したがって、たとえば、スミアが発生している場
合の第2の画素の出力値は第2の所定値以上とならない
ので、スミア発生を検出することができる。 (2)請求項2、5の発明では、請求項1の構成に加え
て、第2の画素の出力値に対する判定結果に基づいて、
第1の画素の出力値を第1の所定値より小さくなるよう
に補正するようにした。したがって、たとえば、第2の
画素の出力値が第2の所定値以上でないと判定された場
合はスミアと判定し、第1の画素出力値を小さくするよ
うに補正することができる。この結果、第1の撮像手段
による画像データにおいて、第1の画素に相当する部分
の輝度が高すぎて白くなることを防止する効果がある。
As described in detail above, in the present invention,
The following effects are obtained. (1) According to the first and fourth aspects of the present invention, the first and second image pickup means respectively generate the first and second object images generated by optically separating the object image, and the output value is set to the A first pixel in the first imaging unit that is equal to or greater than a predetermined value of 1 and a second pixel in the second imaging unit corresponding to the pixel is detected.
It is determined whether the output value of the pixel is equal to or more than a predetermined value. Therefore, for example, when the smear has occurred, the output value of the second pixel does not exceed the second predetermined value, so that the occurrence of the smear can be detected. (2) According to the invention of claims 2 and 5, in addition to the configuration of claim 1, based on the determination result for the output value of the second pixel,
The output value of the first pixel is corrected so as to be smaller than the first predetermined value. Therefore, for example, when it is determined that the output value of the second pixel is not greater than or equal to the second predetermined value, it is determined that smear has occurred, and correction can be made so that the first pixel output value is reduced. As a result, in the image data obtained by the first imaging unit, there is an effect of preventing a portion corresponding to the first pixel from becoming too bright and whitening.

【0098】(3)請求項3の発明では、請求項1また
は2の構成に加えて、第1および第2の撮像手段の電荷
読み出し方向が互いに反対になるようにした。この結
果、たとえば、スミアが発生した場合の第1および第2
の撮像手段による画像データにおいて、画面に現れる白
いすじの向きが電荷の読み出し方向に基づいて反対にな
るので、スミア発生を検出するために新たな回路を付加
することなく、確実にスミアを検出できるという効果が
得られる。
(3) According to the third aspect of the invention, in addition to the configuration of the first or second aspect, the first and second image pickup means are arranged so that the charge reading directions are opposite to each other. As a result, for example, the first and second
In the image data obtained by the image pickup means, the direction of the white streak appearing on the screen is reversed based on the charge reading direction, so that the smear can be reliably detected without adding a new circuit for detecting the occurrence of the smear. The effect is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第一の実施の形態による一眼レフデジタルスチ
ルカメラの構成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a single-lens reflex digital still camera according to a first embodiment.

【図2】図1の一眼レフデジタルスチルカメラを背面か
ら見た図である。
FIG. 2 is a view of the single-lens reflex digital still camera of FIG. 1 as viewed from the back.

【図3】図1の一眼レフデジタルスチルカメラの結像光
学系を示す図である。
FIG. 3 is a diagram illustrating an imaging optical system of the single-lens reflex digital still camera in FIG. 1;

【図4】図1の一眼レフデジタルスチルカメラの回路を
示すブロック図である。
FIG. 4 is a block diagram showing a circuit of the single-lens reflex digital still camera in FIG. 1;

【図5】瞳分割による焦点検出動作の原理を説明する図
である。
FIG. 5 is a diagram illustrating the principle of a focus detection operation by pupil division.

【図6】焦点検出用の被写体画像を読み出す画素群を説
明する図である。
FIG. 6 is a diagram illustrating a pixel group for reading a subject image for focus detection.

【図7】画素群位置と各画素群の合計出力の関係を表す
図である。
FIG. 7 is a diagram illustrating a relationship between a pixel group position and a total output of each pixel group.

【図8】半押しスイッチで起動されるプログラムの前半
のフローチャートである。
FIG. 8 is a flowchart of a first half of a program started by a half-press switch.

【図9】半押しスイッチで起動されるプログラムの後半
のフローチャートである。
FIG. 9 is a flowchart of the latter half of the program started by the half-press switch.

【図10】撮像素子上の画素のならびを示す図であり、
(a)は撮像素子214aのならびで(b)は撮像素子21
4bのならびである。
FIG. 10 is a diagram showing an arrangement of pixels on an image sensor;
(a) shows the arrangement of the image sensor 214a and (b) shows the image sensor 21.
4b.

【図11】撮像素子214aのスミア低減処理のフロー
チャートである。
FIG. 11 is a flowchart of a smear reduction process of the image sensor 214a.

【図12】撮像素子214bのスミア低減処理のフロー
チャートである。
FIG. 12 is a flowchart of a smear reduction process of an image sensor 214b.

【図13】フィールドレンズを含む結像光学系を示す図
であり、(a)はフィールドレンズを撮影レンズの一次結
像面より物体側に配置したもので、(b)はフィールドレ
ンズを一次結像面より像側に配置したものである。
13A and 13B are diagrams showing an image forming optical system including a field lens. FIG. 13A is a diagram in which a field lens is arranged on the object side from a primary image forming plane of a photographing lens, and FIG. It is arranged on the image side from the image plane.

【図14】図13(a)の第一の実施の形態による結像光
学系の諸元表を示す図である。
FIG. 14 is a diagram showing a specification table of the imaging optical system according to the first embodiment of FIG.

【図15】図13(a)の第一の実施の形態による結像光
学系の諸収差図である。
FIG. 15 is a diagram illustrating various aberrations of the imaging optical system according to the first embodiment of FIG.

【図16】図13(b)の結像光学系の諸元表を示す図で
ある。
FIG. 16 is a diagram showing a specification table of the imaging optical system of FIG.

【図17】図13(b)の結像光学系の諸収差図である。FIG. 17 is a diagram illustrating various aberrations of the imaging optical system of FIG.

【図18】第二の実施の形態によるデジタルスチルカメ
ラの画像データ表示処理のフローチャートである。
FIG. 18 is a flowchart of image data display processing of the digital still camera according to the second embodiment.

【図19】第三の実施の形態によるデジタルスチルカメ
ラの画像データ表示処理のフローチャートである。
FIG. 19 is a flowchart of image data display processing of the digital still camera according to the third embodiment.

【図20】第四の実施の形態による結像光学系を示す図
である。
FIG. 20 is a diagram illustrating an imaging optical system according to a fourth embodiment.

【図21】第四の実施の形態によるデジタルスチルカメ
ラの画像データ表示処理のフローチャートである。
FIG. 21 is a flowchart of image data display processing of the digital still camera according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

1…撮影レンズ、3…クイックリターンミラー、4…焦
点板、16…一次結像面、50…ファインダー装置、2
00…カメラ本体、208…シャッター板、208a…
完全遮光部、208b〜208j…開口部、209…フ
ィールドレンズ、210、211…ミラー、212…縮
小光学系、212a、212b…リレーレンズ、213
a、213b…保護ガラス、214a、214b…撮像
素子、215…絞り板、215a〜215g…開口部、
219…偏光ビームスプリッタ、220…表示LCD、
223a、223b…オプティカル・ローパス・フィル
ター、308c〜308j…偏光板、407…操作部
材、424…メモリカード、433…DSP、435…
フレームメモリ、436…バッファメモリ、439…C
PU、508…シャッター板、508a…完全遮光部、
508b〜508h…開口部、512a、512b…リ
レーレンズ、515…絞り板、515a〜515g…開
口部、519…ビームスプリッタ
DESCRIPTION OF SYMBOLS 1 ... Photography lens, 3 ... Quick return mirror, 4 ... Focusing plate, 16 ... Primary imaging plane, 50 ... Finder device, 2
00: camera body, 208: shutter plate, 208a ...
Complete light-shielding portions, 208b to 208j opening, 209 field lens, 210, 211 mirror, 212 reduction optical system, 212a, 212b relay lens, 213
a, 213b: Protective glass, 214a, 214b: Image sensor, 215: Aperture plate, 215a to 215g: Opening,
219: polarization beam splitter, 220: display LCD,
223a, 223b: Optical low-pass filter, 308c to 308j: Polarizing plate, 407: Operating member, 424: Memory card, 433: DSP, 435:
Frame memory, 436 ... buffer memory, 439 ... C
PU, 508: shutter plate, 508a: complete light shielding part,
508b to 508h: opening, 512a, 512b: relay lens, 515: aperture plate, 515a to 515g: opening, 519: beam splitter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 芝崎 清茂 東京都千代田区丸の内3丁目2番3号 株 式会社ニコン内 Fターム(参考) 2H054 AA01 5C022 AA13 AB03 AB12 AB28 AB51 AC02 AC03 AC12 AC42 AC53 AC54 AC56 AC69 AC74 5C065 AA03 BB02 BB08 BB11 BB24 CC01 DD02 DD18 DD20 EE01 EE02 EE05 EE06 EE12 EE14 EE18 EE20 FF02 GG13 GG17 GG18 GG23 GG30 GG31 GG32 GG44 GG50  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Kiyoshige Shibazaki 3-2-2 Marunouchi, Chiyoda-ku, Tokyo Nikon Corporation F-term (reference) 2H054 AA01 5C022 AA13 AB03 AB12 AB28 AB51 AC02 AC03 AC12 AC42 AC53 AC54 AC56 AC69 AC74 5C065 AA03 BB02 BB08 BB11 BB24 CC01 DD02 DD18 DD20 EE01 EE02 EE05 EE06 EE12 EE14 EE18 EE20 FF02 GG13 GG17 GG18 GG23 GG30 GG31 GG32 GG44 GG50

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】被写体像を第1の被写体像および第2の被
写体像に分離して第1および第2の結像面にそれぞれ結
像させる光学手段と、 前記第1および第2の結像面に配置されて前記第1およ
び第2の被写体像をそれぞれ撮像する第1および第2の
撮像手段と、 前記第1の撮像手段の出力値が第1の所定値以上となる
第1の画素を検出する検出手段と、 前記第1の画素に対応する前記第2の撮像手段の第2の
画素の出力値が第2の所定値以上か否かを判定する判定
手段とを備えることを特徴とするデジタルカメラ。
An optical means for separating a subject image into a first subject image and a second subject image and forming them on first and second image forming surfaces, respectively; and the first and second image forming means First and second imaging means arranged on a plane to capture the first and second subject images, respectively, and a first pixel whose output value of the first imaging means is equal to or more than a first predetermined value And a determination unit that determines whether an output value of a second pixel of the second imaging unit corresponding to the first pixel is equal to or greater than a second predetermined value. And a digital camera.
【請求項2】請求項1に記載のデジタルカメラにおい
て、 前記判定手段による判定結果に基づいて、前記第1の画
素の出力値が前記第1の所定値より小さくなるように、
その第1の画素の出力値を補正する補正手段を備えるこ
とを特徴とするデジタルカメラ。
2. The digital camera according to claim 1, wherein an output value of the first pixel is smaller than the first predetermined value based on a result of the determination by the determination unit.
A digital camera, comprising: a correction unit configured to correct an output value of the first pixel.
【請求項3】請求項1または2に記載のデジタルカメラ
において、 前記第1および前記第2の撮像手段は、前記両撮像手段
上に投影されたそれぞれの前記被写体像に基づいて蓄積
された電荷を読み出すとき、前記電荷の読み出し方向が
前記両撮像手段で互いに反対になるようにしたことを特
徴とするデジタルカメラ。
3. The digital camera according to claim 1, wherein said first and second image pickup means are charged based on the respective subject images projected on said both image pickup means. A digital camera, wherein, when reading out, the readout directions of the electric charges are opposite to each other in the two image pickup means.
【請求項4】被写体像を互いに共役な面で撮像して得ら
れた第1の被写体画像データおよび第2の被写体画像デ
ータに分けてそれぞれ記憶媒体に記憶し、前記記憶媒体
に記憶された前記第1および第2の被写体画像データを
読み出して画像処理を行う画像処理プログラムが格納さ
れている画像信号処理用記憶媒体において、 前記第1の被写体画像データの輝度値が第1の所定値以
上となる第1のデータを検出する検出処理と、 前記第1のデータに対応する第2の被写体画像データの
第2のデータの輝度値が第2の所定値以上か否かを判定
する判定処理とを行うプログラムが格納されていること
を特徴とする画像信号処理用記憶媒体。
4. The method according to claim 1, wherein the subject image is divided into first subject image data and second subject image data obtained by capturing the subject images on mutually conjugate planes and stored in a storage medium, respectively. An image signal processing storage medium storing an image processing program for reading out first and second subject image data and performing image processing, wherein a brightness value of the first subject image data is equal to or more than a first predetermined value. Detection processing for detecting the first data, and determination processing for determining whether the luminance value of the second data of the second subject image data corresponding to the first data is equal to or greater than a second predetermined value. A storage medium for processing an image signal, wherein a storage medium for storing an image signal is stored.
【請求項5】請求項4に記載の画像信号処理用記憶媒体
において、 前記判定処理による判定結果に基づいて、前記第1のデ
ータの輝度値が前記第1の所定値より小さくなるよう
に、その第1のデータの輝度値を補正する補正処理を行
うプログラムが格納されていることを特徴とする画像信
号処理用記憶媒体。
5. The image signal processing storage medium according to claim 4, wherein a luminance value of the first data is smaller than the first predetermined value based on a result of the determination. An image signal processing storage medium storing a program for performing a correction process for correcting the luminance value of the first data.
JP11137641A 1999-05-18 1999-05-18 Digital camera and storage medium for image signal processing Pending JP2000333060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11137641A JP2000333060A (en) 1999-05-18 1999-05-18 Digital camera and storage medium for image signal processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11137641A JP2000333060A (en) 1999-05-18 1999-05-18 Digital camera and storage medium for image signal processing

Publications (1)

Publication Number Publication Date
JP2000333060A true JP2000333060A (en) 2000-11-30

Family

ID=15203400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11137641A Pending JP2000333060A (en) 1999-05-18 1999-05-18 Digital camera and storage medium for image signal processing

Country Status (1)

Country Link
JP (1) JP2000333060A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009101846A1 (en) * 2008-02-14 2009-08-20 Olympus Corp. Imaging body and imaging device having the same
JP2009192808A (en) * 2008-02-14 2009-08-27 Olympus Corp Imaging body portion and imaging apparatus equipped therewith
JP2009192807A (en) * 2008-02-14 2009-08-27 Olympus Corp Imaging body portion and imaging apparatus equipped therewith
JP2009290541A (en) * 2008-05-29 2009-12-10 Casio Hitachi Mobile Communications Co Ltd Mobile terminal apparatus and program
US8390727B2 (en) 2008-01-28 2013-03-05 Olympus Corporation Optical unit, imaging unit, imaging body, and imaging device having the imaging body
US11110928B2 (en) 2017-07-07 2021-09-07 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, information processing method, and computer program product

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8390727B2 (en) 2008-01-28 2013-03-05 Olympus Corporation Optical unit, imaging unit, imaging body, and imaging device having the imaging body
WO2009101846A1 (en) * 2008-02-14 2009-08-20 Olympus Corp. Imaging body and imaging device having the same
JP2009192808A (en) * 2008-02-14 2009-08-27 Olympus Corp Imaging body portion and imaging apparatus equipped therewith
JP2009192807A (en) * 2008-02-14 2009-08-27 Olympus Corp Imaging body portion and imaging apparatus equipped therewith
US8226307B2 (en) 2008-02-14 2012-07-24 Olympus Corporation Imaging body and imaging device having the same
JP2009290541A (en) * 2008-05-29 2009-12-10 Casio Hitachi Mobile Communications Co Ltd Mobile terminal apparatus and program
US11110928B2 (en) 2017-07-07 2021-09-07 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, information processing method, and computer program product

Similar Documents

Publication Publication Date Title
JP4720508B2 (en) Imaging device and imaging apparatus
EP2340455B1 (en) Camera and camera system
JP5066851B2 (en) Imaging device
US6882368B1 (en) Image pickup apparatus
EP1720045A1 (en) Optical device and beam splitter
JP2002218298A (en) Image pickup device, shading correcting method and storage medium
JP3703424B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND STORAGE MEDIUM
JP2005341033A (en) Imaging apparatus and program
CN102045500A (en) Imaging apparatus and method for controlling same
JP2002135796A (en) Imaging apparatus
JP2001036917A (en) Digital camera and storage medium for processing picture signal
JP2003087545A (en) Image pickup device, image processor and method
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
JP5781021B2 (en) LENS DEVICE AND IMAGING DEVICE
JP5348258B2 (en) Imaging device
JP5361356B2 (en) Focus detection apparatus and control method thereof
JP3397758B2 (en) Imaging device
JP3397754B2 (en) Imaging device
JP3397755B2 (en) Imaging device
JP2000333060A (en) Digital camera and storage medium for image signal processing
JP3876724B2 (en) Camera system and photographing lens
JP2000330012A (en) Digital camera
JPH05236314A (en) Electronic camera
JP2009267593A (en) Imaging device, defective pixel detecting method, and defective pixel detection program
JP2018032948A (en) Imaging unit and imaging apparatus