JP2002135796A - Imaging apparatus - Google Patents

Imaging apparatus

Info

Publication number
JP2002135796A
JP2002135796A JP2000325589A JP2000325589A JP2002135796A JP 2002135796 A JP2002135796 A JP 2002135796A JP 2000325589 A JP2000325589 A JP 2000325589A JP 2000325589 A JP2000325589 A JP 2000325589A JP 2002135796 A JP2002135796 A JP 2002135796A
Authority
JP
Japan
Prior art keywords
image
imaging
light
optical
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000325589A
Other languages
Japanese (ja)
Inventor
Yasuo Suda
康夫 須田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000325589A priority Critical patent/JP2002135796A/en
Publication of JP2002135796A publication Critical patent/JP2002135796A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Filters (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining color images with high sharpness by using an imaging optical system of short optical path length with simple configuration. SOLUTION: The apparatus comprises two or more openings 52a, 52b, 52c to take in lights from the outside through different position and an imaging element 120 receiving respectively the lights captured from the openings 52a, 52b, 52c and having two or more imaging areas 53a, 53b, 53c to extract prescribed color components at every light from the outside gathered independently.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル電子スチ
ルカメラまたはビデオムービカメラなどの固体撮像素子
が適用された小型の撮像装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a small-sized image pickup apparatus to which a solid-state image pickup device such as a digital electronic still camera or a video movie camera is applied.

【0002】[0002]

【従来の技術】デジタルカラーカメラでは、レリーズボ
タンの押下に連動して、CCDやCMOSセンサなどの
固体撮像素子に被写界像を所望の時間露光し、これより
得られた1つの画面の静止画像を表わす画像信号をデジ
タル信号に変換して、YC処理などの所定の処理を施し
て、所定の形式の画像信号を得る。撮像された画像を表
わすデジタルの画像信号は、それぞれの画像毎に、半導
体メモリに記録される。記録された画像信号は、随時読
み出されて表示または印刷可能な信号に再生され、モニ
タなどに出力されて表示される。
2. Description of the Related Art In a digital color camera, an object image is exposed to a solid-state image sensor such as a CCD or CMOS sensor for a desired time in response to pressing of a release button. An image signal representing an image is converted into a digital signal and subjected to predetermined processing such as YC processing to obtain an image signal in a predetermined format. A digital image signal representing a captured image is recorded in a semiconductor memory for each image. The recorded image signal is read out at any time, reproduced into a displayable or printable signal, output to a monitor or the like, and displayed.

【0003】デジタルカラーカメラの技術の一つとし
て、特開平7−123418号公報の開示例が知られて
いる。特開平7−123418号公報は予定結像面上の
物体像を複数の再結像光学系で再結像し、それぞれの物
体像を異なる分光透過率特性を有した光学フィルターを
介して撮像するものである。限られた画素数の撮像素子
を用いて高解像度のカラー画像を得るのに都合がよい。
[0003] As one of the techniques of a digital color camera, an example disclosed in Japanese Patent Application Laid-Open No. Hei 7-123418 is known. Japanese Patent Application Laid-Open No. Hei 7-123418 discloses that an object image on a predetermined imaging plane is re-imaged by a plurality of re-imaging optical systems, and each object image is captured via an optical filter having a different spectral transmittance characteristic. Things. It is convenient to obtain a high-resolution color image using an image sensor having a limited number of pixels.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、小型の
デジタルカラーカメラにこの技術を応用しようとする
と、次のような問題がある。 (1)再結像光学系を介して撮像素子上に物体像を形成
しているために、全体の光路長が長く、カメラの小型化
が困難である。 (2)複数の再結像光学系のディストーションは1次結
像光学系の光軸に対して線対称に発生するので、再結像
光学系間でディストーションを揃えようとすると、再結
像光学系の構成が極めて複雑となる。すなわち、各色の
画像を完全に重なる形にするような光学系が得難い。 (3)さらに、各色の画像は1次結像光学系の瞳の一部
分を通った光束で形成されるので、球面収差やコマ、像
面湾曲等の光学諸収差も各撮像領域の中心に対して非対
称に発生することとなり、合成したカラー画像に鮮鋭度
の低下が生じやすい。
However, when this technology is applied to a small digital color camera, there are the following problems. (1) Since the object image is formed on the image sensor via the re-imaging optical system, the entire optical path length is long, and it is difficult to reduce the size of the camera. (2) Since the distortion of a plurality of re-imaging optical systems is generated line-symmetrically with respect to the optical axis of the primary imaging optical system, if the distortions are to be aligned between the re-imaging optical systems, the re-imaging optics will not work. The configuration of the system becomes extremely complicated. That is, it is difficult to obtain an optical system that completely overlaps the images of the respective colors. (3) Further, since the image of each color is formed by a light beam passing through a part of the pupil of the primary imaging optical system, optical aberrations such as spherical aberration, coma, and field curvature are also reduced with respect to the center of each imaging region. And a sharpness is likely to be reduced in the synthesized color image.

【0005】従って、本発明は上述した課題に鑑みてな
されたものであり、その目的は、簡単な構成で短い光路
長の撮像光学系を用いて、鮮鋭度の高いカラー画像を得
ることができる撮像装置を提供することである。
Accordingly, the present invention has been made in view of the above-mentioned problems, and an object of the present invention is to obtain a color image with high sharpness using an imaging optical system having a short optical path length with a simple configuration. An object of the present invention is to provide an imaging device.

【0006】[0006]

【課題を解決するための手段】上述した課題を解決し、
目的を達成するために、本発明に係わる撮像装置は、外
光を異なる位置から取り込むための複数の開口と、前記
複数の開口より取り込んだ外光をそれぞれ別個に受光
し、該別個に受光する外光ごとに所定の色成分を抽出す
る複数の撮像手段と、を具備することを特徴としてい
る。
Means for Solving the Problems The above-mentioned problems are solved,
In order to achieve the object, an imaging apparatus according to the present invention includes a plurality of openings for capturing external light from different positions, and separately receives the external light captured from the plurality of openings, and receives the separate light. A plurality of image pickup means for extracting a predetermined color component for each external light.

【0007】また、この発明に係わる撮像装置におい
て、前記複数の撮像手段は、前記開口から取り込んだ外
光をそれぞれ結像させるための複数の光学系を備えるこ
とを特徴としている。
Further, in the image pickup apparatus according to the present invention, the plurality of image pickup means include a plurality of optical systems for forming an image of the external light taken in from the aperture.

【0008】また、この発明に係わる撮像装置におい
て、前記複数の光学系は、それぞれ単レンズを備えるこ
とを特徴としている。
Further, in the imaging apparatus according to the present invention, each of the plurality of optical systems has a single lens.

【0009】また、この発明に係わる撮像装置におい
て、前記複数の光学系とは、3つの光学系であり、該3
つの光学系に対応する3つの単レンズは、それぞれ、赤
色光を透過させる光学フィルターと、緑色光を透過させ
る光学フィルターと、青色光を透過させる光学フィルタ
ーを備えることを特徴としている。
In the image pickup apparatus according to the present invention, the plurality of optical systems are three optical systems.
The three single lenses corresponding to the three optical systems each include an optical filter that transmits red light, an optical filter that transmits green light, and an optical filter that transmits blue light.

【0010】また、この発明に係わる撮像装置におい
て、前記複数の光学系を構成する複数の単レンズは、ガ
ラス材料又は樹脂材料を成形することにより一体的に形
成されていることを特徴としている。
Further, in the imaging apparatus according to the present invention, the plurality of single lenses constituting the plurality of optical systems are integrally formed by molding a glass material or a resin material.

【0011】また、この発明に係わる撮像装置におい
て、前記複数の単レンズを一体成形した成形体の、前記
複数の単レンズの間の部位には、遮光膜が形成されてい
ることを特徴としている。
Further, in the imaging apparatus according to the present invention, a light-shielding film is formed at a portion between the plurality of single lenses in a molded body obtained by integrally forming the plurality of single lenses. .

【0012】また、この発明に係わる撮像装置におい
て、前記複数の単レンズは、赤外線カットフィルターを
備えることを特徴としている。
Further, in the image pickup apparatus according to the present invention, the plurality of single lenses are provided with an infrared cut filter.

【0013】また、この発明に係わる撮像装置におい
て、前記複数の撮像手段は、前記複数の開口のそれぞれ
に対応する複数の撮像領域を有する1つの撮像素子を備
えることを特徴としている。
Further, in the image pickup apparatus according to the present invention, the plurality of image pickup means include one image pickup element having a plurality of image pickup areas corresponding to the plurality of openings, respectively.

【0014】また、この発明に係わる撮像装置におい
て、前記複数の撮像領域とは、3つの撮像領域であり、
該3つの撮像領域は、それぞれ赤色光を透過させる光学
フィルターと、緑色光を透過させる光学フィルターと、
青色光を透過させる光学フィルターを備えることを特徴
としている。
In the imaging apparatus according to the present invention, the plurality of imaging areas are three imaging areas,
The three imaging regions each include an optical filter that transmits red light, an optical filter that transmits green light,
It is characterized by having an optical filter that transmits blue light.

【0015】また、この発明に係わる撮像装置におい
て、前記複数の撮像手段は、前記複数の開口に対応する
複数の絞りを備えることを特徴としている。
Further, in the imaging apparatus according to the present invention, the plurality of imaging units include a plurality of apertures corresponding to the plurality of apertures.

【0016】[0016]

【発明の実施の形態】以下、本発明の好適な実施形態に
ついて、添付図面を参照して詳細に説明する。
Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0017】(第1の実施形態)図17、図18、図1
9は本発明の第1の実施形態に係わるデジタルカラーカ
メラの全体構成を表す図である。図17は正面図、図1
8は裏面図、図19は図18の矢印Aの位置での断面図
である。
(First Embodiment) FIGS. 17, 18 and 1
FIG. 9 is a diagram illustrating an entire configuration of a digital color camera according to the first embodiment of the present invention. FIG. 17 is a front view, FIG.
8 is a rear view, and FIG. 19 is a cross-sectional view at the position of arrow A in FIG.

【0018】図17、図18、図19において、1はカ
メラ本体、2はカラー液晶モニタ4の背後に位置し、白
色拡散板よりなる照明光取り込み窓である。5はメイン
スイッチ、6はレリーズ釦、7、8、9は使用者がカメ
ラの状態をセットするためのスイッチで、特に9は再生
ボタンである。13は撮影可能な残り枚数の表示であ
る。11はファインダー接眼窓であって、ファインダー
前枠3からプリズム12に入射した物体光がここから射
出する。10は撮像系、14は外部のコンピュータ等に
接続して、データの送受信をするため接続端子である。
In FIGS. 17, 18 and 19, reference numeral 1 denotes a camera main body, and 2 denotes an illumination light take-in window which is located behind the color liquid crystal monitor 4 and is made of a white diffusion plate. 5 is a main switch, 6 is a release button, 7, 8 and 9 are switches for the user to set the state of the camera, and especially 9 is a playback button. Reference numeral 13 denotes a display of the remaining number of images that can be taken. Reference numeral 11 denotes a finder eyepiece window, from which object light entering the prism 12 from the finder front frame 3 is emitted. Reference numeral 10 denotes an imaging system, and 14 denotes a connection terminal for connecting to an external computer or the like to transmit and receive data.

【0019】信号処理系の概略構成を説明する。The schematic configuration of the signal processing system will be described.

【0020】図14は、信号処理系のブロック図であ
る。本カメラは、CCDあるいはCMOSセンサなどの
固体撮像素子120を用いた単板式のデジタルカラーカ
メラであり、固体撮像素子120を連続的または単発的
に駆動して動画像または静止画像を表わす画像信号を得
る。ここで、固体撮像素子120とは、露光した光を各
画素毎に電気信号に変換してその光量に応じた電荷をそ
れぞれ蓄精し、その電荷を読み出すタイブの撮像デバイ
スである。
FIG. 14 is a block diagram of a signal processing system. This camera is a single-panel digital color camera using a solid-state imaging device 120 such as a CCD or a CMOS sensor, and continuously or spontaneously drives the solid-state imaging device 120 to generate an image signal representing a moving image or a still image. obtain. Here, the solid-state imaging device 120 is a type of imaging device that converts exposed light into an electric signal for each pixel, accumulates charges corresponding to the amount of light, and reads out the charges.

【0021】なお、図面には本発明に直接関係ある部分
のみが示されており、本発明に直接関係ない部分は図示
とその説明を省略する。
In the drawings, only parts directly related to the present invention are shown, and parts not directly related to the present invention are omitted from the drawings and description.

【0022】図14に示すように、撮像装置は、撮像系
10と、画像処理手段であるところの画像処理系20
と、記録再生系30と、制御系40とを有する。さら
に、撮像系10は、撮影レンズ100、絞り110およ
び固体撮像素子120を含み、画像処理系20は、A/
D変換器500、RGB画像処理回路210およびYC
処理回路230を含み、記録再生系30は、記録処理回
路300および再生処理回路310を含み、制御系40
は、システム制御部400、操作検出部410および固
体撮像素子駆動回路420を含む。
As shown in FIG. 14, the image pickup apparatus comprises an image pickup system 10 and an image processing system 20 serving as image processing means.
And a recording / reproducing system 30 and a control system 40. Further, the imaging system 10 includes a photographing lens 100, an aperture 110, and a solid-state imaging device 120, and the image processing system 20 includes an A / A
D converter 500, RGB image processing circuit 210 and YC
The recording / reproducing system 30 includes a recording processing circuit 300 and a reproducing processing circuit 310, and includes a control system 40.
Includes a system control unit 400, an operation detection unit 410, and a solid-state imaging device drive circuit 420.

【0023】撮像系10は、物体からの光を絞り110
と撮影レンズ100を介して固体撮像素子120の撮像
面に結像する光学処理系であり、撮影レンズの光透過率
を調節して、適切な光量の被写体像を固体撮像素子12
0に露光する。前述のように、固体撮像素子120は、
CCDやCMOSセンサなどの撮像デバイスが有効に適
用され、固体撮像素子120の露光時間および露光間隔
を制御することにより、連続した動画像を表わす画像信
号、または一回の露光による静止画像を表わす画像信号
を得ることができる。
The imaging system 10 stops light from an object by
And an optical processing system that forms an image on the imaging surface of the solid-state imaging device 120 via the imaging lens 100.
Exposure to zero. As described above, the solid-state imaging device 120 includes:
An imaging device such as a CCD or a CMOS sensor is effectively applied, and by controlling the exposure time and exposure interval of the solid-state imaging device 120, an image signal representing a continuous moving image or an image representing a still image by one exposure A signal can be obtained.

【0024】図1は撮像系10の詳細図である。まず、
絞り110は図3に示すような3つの円形開口110
a、110b、110cを有し、この各々から撮影レン
ズ100の光入射面100eに入射した物体光は、撮影
レンズ100の3つのレンズ部100a、100b、1
00cから射出して固体撮像素子120の撮像面上に3
つの物体像を形成する。絞り110と光入射面100e
および固体撮像素子120の撮像面は平行に配置されて
いる。このように、入射側のパワーを弱く、射出例のパ
ワーを強くし、入射側に絞りを設けることで、像面の湾
曲を少なくすることができる。なお、ここでは、撮影レ
ンズ100の光入射面100eを平面としたが、3つの
球面あるいは3つの回転対称非球面で構成しても良い。
FIG. 1 is a detailed view of the image pickup system 10. First,
The stop 110 has three circular openings 110 as shown in FIG.
a, 110b, and 110c, and object light incident on the light incident surface 100e of the photographing lens 100 from each of the three lens portions 100a, 100b, 1
3c on the imaging surface of the solid-state imaging device 120
To form two object images. Aperture 110 and light incident surface 100e
The imaging plane of the solid-state imaging device 120 is arranged in parallel. As described above, by reducing the power on the incident side, increasing the power in the emission example, and providing the stop on the incident side, the curvature of the image plane can be reduced. Here, the light incident surface 100e of the photographing lens 100 is a plane, but may be formed of three spherical surfaces or three rotationally symmetric aspheric surfaces.

【0025】3つのレンズ部100a、100b、10
0cは、撮影レンズ100を光射出側から見た図5に示
すように円径の球面部を持ち、この球面部には670n
m以上の波長域について低い透過率を持たせた赤外線カ
ットフィルターが、また、ハッチングをかけて示した平
面部100dには遮光性膜が形成されている。すなわ
ち、撮影光学系は撮影レンズ100と絞り110より成
り、3つのレンズ部100a、100b、100cのそ
れぞれが結像系である。
The three lens parts 100a, 100b, 10
0c has a spherical portion having a circular diameter as shown in FIG. 5 when the photographing lens 100 is viewed from the light emission side, and the spherical portion has 670n.
An infrared cut filter having a low transmittance in a wavelength range of m or more is formed, and a light-shielding film is formed on a flat portion 100d indicated by hatching. That is, the photographing optical system includes the photographing lens 100 and the aperture 110, and each of the three lens units 100a, 100b, and 100c is an imaging system.

【0026】撮影レンズ100をガラス製とする場合に
はガラスモールド製法、樹脂製とする場合には射出成形
を用いると製作上容易である。
When the photographic lens 100 is made of glass, a glass mold manufacturing method is used, and when the photographic lens 100 is made of a resin, injection molding is used.

【0027】図2は固体撮像素子120の正面図で、形
成される3つの物体像に対応させて3つの撮像領域12
0a、120b、120cを備えている。撮像領域12
0a、120b、120cの各々は、縦横のピッチが
2.8μmの画素を800×600個配列してなる2.
24mm×1.68mmの領域であって、撮像領域全体
の寸法は2.24mm×5.04mm、また、各撮像領
域の対角寸法は2.80mmとなる。図において、51
a、51b、51cは内部に物体像が形成されるイメー
ジサークルである。イメージサークル51a、51b、
51cは絞りの開口と撮影レンズ100の射出側球面部
の大きさで決定される円形であり、イメージサークル5
1aと51b、および、イメージサークル51b、51
cには互いに重なり合う部分が生じる。
FIG. 2 is a front view of the solid-state image pickup device 120. The three image pickup areas 12 corresponding to three object images to be formed are shown.
0a, 120b, and 120c. Imaging area 12
0a, 120b, and 120c are each formed by arranging 800 × 600 pixels having a vertical and horizontal pitch of 2.8 μm.
It is an area of 24 mm × 1.68 mm, the overall size of the imaging area is 2.24 mm × 5.04 mm, and the diagonal dimension of each imaging area is 2.80 mm. In the figure, 51
a, 51b, and 51c are image circles in which an object image is formed. Image circles 51a, 51b,
Reference numeral 51c denotes a circular shape determined by the aperture of the stop and the size of the spherical portion on the exit side of the photographing lens 100.
1a and 51b, and image circles 51b and 51
c has portions overlapping each other.

【0028】図1に戻って、絞り110と撮影レンズ1
00に挟まれた領域のハッチングで示した部分52a、
52b、52cは撮影レンズ100の光入射面100e
上に形成された光学フィルターである。光学フィルター
52a、52b、52cは撮影レンズ100を光入射側
から見た図4で示すように、絞り開口110a、110
b、110cを完全に含む範囲に形成されている。
Returning to FIG. 1, aperture 110 and taking lens 1
A hatched portion 52a of the area sandwiched between 00,
52b and 52c are light incident surfaces 100e of the photographing lens 100.
An optical filter formed thereon. The optical filters 52a, 52b, and 52c are provided with aperture openings 110a, 110a as shown in FIG.
b, 110c.

【0029】光学フィルター52aは図6にGで示した
主に緑色を透過する分光透過率特性を有し、光学フィル
ター52bはRで示した主に赤色を透過する分光透過率
特性を有し、さらに、光学フィルター52cはBで示し
た主に青色を透過する分光透過率特性を有している。す
なわち、これらは原色フィルターである。レンズ部10
0a、100b、100cに形成されている赤外線カッ
トフィルターの特性との積として、イメージサークル5
1aに形成されている物体像は緑色光成分、イメージサ
ークル51bに形成されている物体像は赤色光成分、イ
メージサークル51cに形成されている物体像は青色光
成分によるものとなる。
The optical filter 52a has a spectral transmittance characteristic indicated by G in FIG. 6 that mainly transmits green, and the optical filter 52b has a spectral transmittance characteristic indicated by R that mainly transmits red. Further, the optical filter 52c has a spectral transmittance characteristic indicated by B, which mainly transmits blue light. That is, these are primary color filters. Lens unit 10
0a, 100b, and 100c, the product of the characteristics of the infrared cut filter and the image circle 5
The object image formed on the image circle 1a has a green light component, the object image formed on the image circle 51b has a red light component, and the object image formed on the image circle 51c has a blue light component.

【0030】一方、固体構像素子120の3つの撮像領
域120a、120b、120c上にもまた光学フィル
ター53a、53b、53cが形成され、これらの分光
透過率特性もまた図6に示したものと同等である。つま
り、撮像領域120aは緑色光(G)に対して、撮像領
域120bは赤色光(R)に対して、撮像領域120c
は青色光(B)に対して感度を持つ。
On the other hand, optical filters 53a, 53b, and 53c are also formed on the three imaging regions 120a, 120b, and 120c of the solid-state imaging device 120, and their spectral transmittance characteristics are also the same as those shown in FIG. Are equivalent. That is, the imaging area 120a is for the green light (G), the imaging area 120b is for the red light (R), and the imaging area 120c is
Has sensitivity to blue light (B).

【0031】各撮像領域の受光スペクトル分布は瞳と撮
像領域の分光透過率の積として与えられるため、瞳と撮
像領域の組み合わせは波長域によって選択される。つま
り、絞りの開口110aを通過した物体光は主に撮像領
域120aで光電変換され、絞りの開口110bを通過
した物体光は主に撮像領域120bで光電変換され、さ
らに、絞りの開口110cを通過した物体光は主に撮像
領域120cで光電変換される。すなわち、撮像領域1
20aはG画像を、撮像領域120bはR画像を、撮像
領域120cはB画像を出力することになる。このよう
に、撮像光学系の瞳と撮像素子に色分解のための光学フ
ィルターを多重に使用すると、色純度を高めることがで
きる。これは、同種の光学フィルターを2回通すと、透
過特性が鋭く立ち上がるようになって赤色(R)と青色
(B)のオーバーラップが無くなるためである。なお、
各撮像領域での信号レベルが同一の蓄積時間でそれぞれ
適切になるように、光学フィルター52a、52b、5
2cあるいは光学フィルター53a、53b、53cの
透過率を設定すると良い。
Since the light receiving spectrum distribution of each imaging region is given as the product of the pupil and the spectral transmittance of the imaging region, the combination of the pupil and the imaging region is selected according to the wavelength range. That is, the object light that has passed through the aperture 110a of the aperture is mainly photoelectrically converted in the imaging area 120a, the object light that has passed through the aperture 110b of the aperture is mainly photoelectrically converted in the imaging area 120b, and further has passed through the aperture 110c of the aperture. The obtained object light is photoelectrically converted mainly in the imaging region 120c. That is, imaging area 1
20a outputs a G image, the imaging region 120b outputs an R image, and the imaging region 120c outputs a B image. As described above, by using multiple optical filters for color separation in the pupil of the imaging optical system and the imaging device, the color purity can be increased. This is because, when the same type of optical filter is passed twice, the transmission characteristics sharply rise and the overlap between red (R) and blue (B) is eliminated. In addition,
The optical filters 52a, 52b, and 5c are set so that the signal level in each imaging region becomes appropriate in the same accumulation time.
2c or the transmittance of the optical filters 53a, 53b, 53c may be set.

【0032】画像処理系20は、固体撮像素子120の
複数の撮像領域が、各々、前記複数の画像の一つから得
た選択的光電変換出力に基づいてカラー画像を形成す
る。この際、比視感度のピーク波長は555nmである
ので、この波長を含むG画像信号を基準画像信号として
信号処理を行う。
In the image processing system 20, a plurality of imaging regions of the solid-state imaging device 120 form a color image based on a selective photoelectric conversion output obtained from one of the plurality of images. At this time, since the peak wavelength of relative luminous efficiency is 555 nm, signal processing is performed using a G image signal including this wavelength as a reference image signal.

【0033】固体撮像素子の画素ピッチを固定して考え
ると、固体撮像素子上に例えば2×2画素を一組とした
RGBカラーフィルターを形成して画素の一つ一つに波
長選択性を付与し、これによって物体像をRGBの各画
像に分離する一般のデジタルカラーカメラに採用されて
いる方式に比較して、物体像の大きさが1/√3にな
り、これに伴って撮影レンズの焦点距離はおおよそ1/
√3となる。したがって、カメラの簿型化に対して極め
て有利である。
Assuming that the pixel pitch of the solid-state image sensor is fixed, an RGB color filter having a set of, for example, 2 × 2 pixels is formed on the solid-state image sensor to provide wavelength selectivity to each pixel. This reduces the size of the object image to 1 / √3 as compared with the method used in a general digital color camera that separates an object image into RGB images. The focal length is approximately 1 /
$ 3. Therefore, it is extremely advantageous for a book-type camera.

【0034】なお、光学フィルター52a、52b、5
2cと、光学フィルター53a、53b、53cの分光
透過率特性は、図6に示したように、RとBはほぼ分離
されているものの、RとGおよびGとBは互いにオーバ
ーラップしている。
The optical filters 52a, 52b, 5
As shown in FIG. 6, the spectral transmittance characteristics of 2c and the optical filters 53a, 53b, 53c are such that R and B are almost separated from each other, but R and G and G and B overlap each other. .

【0035】したがって、赤色光のイメージサークル5
1bが青色光を光電変換する撮像領域120cにかかっ
ていても、逆に、青色光のイメージサークル51cが赤
色光を光電変換する撮像領域120bにかかっていて
も、これらの画像が撮像領域の出力となることはない。
ところが、赤色光のイメージサークル51bが緑色光を
光電変換する撮像領域120aにかかっている部分と、
緑色光のイメージサークル51aが赤色光を光電変換す
る撮像領域120bにかかっている部分では、本来遮断
すべき異なる波長の画像が僅かではあるが重畳してしま
う。つまり、物体像の選択性は光学フィルター52aと
光学フィルター53bの分光透過率特性の積と、光学フ
ィルター52bと光学フィルター53aの分光透過率特
性の積で与えられるため、R画像信号とG画像信号のク
ロストークは小さいものの、完全にはゼロにならない。
Therefore, the red light image circle 5
1b is applied to the imaging region 120c for photoelectrically converting blue light, or conversely, even if the image circle 51c of blue light is applied to the imaging region 120b for photoelectrically converting red light, these images are output from the imaging region. Will not be.
However, a portion where the red light image circle 51b covers the imaging region 120a for photoelectrically converting green light,
In a portion where the green light image circle 51a covers the imaging region 120b for photoelectrically converting red light, images of different wavelengths that should be cut off are superimposed, albeit slightly. That is, the selectivity of the object image is given by the product of the spectral transmittance characteristics of the optical filter 52a and the optical filter 53b and the product of the spectral transmittance characteristics of the optical filter 52b and the optical filter 53a. Crosstalk is small but not completely zero.

【0036】そこで、撮影レンズ100にはRとGのオ
ーバーラップ部の波長域の透過率を低下させる特性をさ
らに持たせてある。これは色純度補正フィルタと呼ばれ
る光学フィルター技術を用いればよい。
Therefore, the photographing lens 100 is further provided with a characteristic of lowering the transmittance in the wavelength region of the overlapping portion of R and G. For this, an optical filter technique called a color purity correction filter may be used.

【0037】この色純度補正フィルタは、透明合成樹脂
またはガラスから成る母材中に希土類の金属イオンを所
定量含有させた光学フィルターである。
This color purity correction filter is an optical filter in which a predetermined amount of rare earth metal ions is contained in a base material made of a transparent synthetic resin or glass.

【0038】希土類の金属イオンとしては、ネオジムイ
オン、プラセオジムイオン、エルビウムイオン、ホルミ
ウムイオン等の1種または2種以上が挙げられるが、少
なくとも、ネオジムイオンを必須イオンとして使用する
のが好ましい。なお、これらのイオンとしては、通常3
価のイオンが使用される。そして、金属イオンの含有量
は、撮影レンズ100の母材の100質量部に対し、通
常0.01〜40質量部、好ましくは0.04〜30質
量部の範囲から選択される。
The rare earth metal ion includes one or more of neodymium ion, praseodymium ion, erbium ion, holmium ion and the like, and it is preferable to use at least neodymium ion as an essential ion. Incidentally, these ions are usually 3
Valent ions are used. The content of the metal ion is selected from the range of usually 0.01 to 40 parts by mass, preferably 0.04 to 30 parts by mass with respect to 100 parts by mass of the base material of the photographic lens 100.

【0039】図7に示すように、色純度補正フィルタ
は、RGBの各色成分のうちピーク波長間の所定波長範
囲の光を選択的に吸収してその透過量を低減する特性を
有する。この作用によって、赤色光のイメージサークル
51bが緑色光を光電変換する撮像領域120aにかか
ること、それから、緑色光のイメージサークル51aが
赤色光を光電変換する撮像領域120bにかかることに
よるクロストークはほとんど生じなくなる。
As shown in FIG. 7, the color purity correction filter has a characteristic of selectively absorbing light in a predetermined wavelength range between peak wavelengths of each of the RGB color components to reduce the amount of transmission. By this action, the crosstalk caused by the red light image circle 51b covering the imaging region 120a for photoelectrically converting green light and the green light image circle 51a covering the imaging region 120b for photoelectrically converting red light is almost eliminated. No longer occurs.

【0040】さらに、撮影レンズ100には光により暗
化し、光の照射をやめると可逆的に無色状態にもどる現
象であるフォトクロミック特性を併せ持たせる。これ
は、固体撮像素子120の蓄積時間制御範囲が限られて
いることから、極めて被写界が明るい場合に固体撮像素
子に到達する光量を抑え、撮影可能な輝度範囲を拡大す
るためである。
Further, the photographic lens 100 is provided with a photochromic property, which is a phenomenon of reversibly returning to a colorless state when the light is darkened and light irradiation is stopped. This is because, since the storage time control range of the solid-state imaging device 120 is limited, the amount of light reaching the solid-state imaging device when the field is extremely bright is suppressed, and the luminance range in which photography can be performed is expanded.

【0041】フォトクロミックガラスとしては、例え
ば、眼鏡用として実用化されているチャンスーピルキン
トン社製のリン酸塩系のフォトクロミックガラス(商品
名:Reactolite Rapide)を用いるとよい。
As the photochromic glass, for example, a phosphate-based photochromic glass (trade name: Reactolite Rapide) manufactured by Chance Pilkington Co., Ltd., which is put into practical use for eyeglasses, may be used.

【0042】図8は、撮影レンズ100に用いたフォト
クロミックガラスの分光透過率特性を示す図であり、図
8において実線が太陽光を20分照射した後の特性であ
り、破線が未照射の場合の特性を示したものである。晴
天時の屋外等でカメラを持ち歩くと、絞り110から撮
影レンズ100に入射した光束によって撮影レンズ10
0そのものが暗化し、固体撮像素子120に入射する光
量を約1/2に抑えることができる。この結果、蓄積時
間を2倍に伸ばすことが可能であって、高輝度側の制御
限界を引き上げることになる。
FIG. 8 is a diagram showing the spectral transmittance characteristics of the photochromic glass used for the photographing lens 100. In FIG. 8, the solid line shows the characteristics after irradiating the solar light for 20 minutes, and the broken line shows the case where no irradiation is performed. It shows the characteristics of the above. When the camera is carried around outdoors in fine weather, the luminous flux entering the photographic lens 100 from the aperture 110 causes the photographic lens 10
0 itself darkens, and the amount of light incident on the solid-state imaging device 120 can be suppressed to about 2. As a result, the accumulation time can be doubled, and the control limit on the high luminance side is raised.

【0043】各撮像領域120a、120b、120c
の画面サイズは、前述のように画素ピッチ2.8μm、
画素数800×600より、2.24mm×1.68m
mであって、画面の対角寸法は2.80mmとなる。一
般に、小型カメラの撮影画角θは対角方向に70°程度
とするのが最も使いやすい。撮影画角を70°とする
と、画面の対角寸法から焦点距離が決定され、この場合
は2.0mmとなる。
Each of the imaging areas 120a, 120b, 120c
Has a pixel pitch of 2.8 μm as described above,
2.24 mm x 1.68 m from 800 x 600 pixels
m, and the diagonal size of the screen is 2.80 mm. Generally, it is easiest to use a small camera at an angle of view θ of about 70 ° in a diagonal direction. Assuming that the shooting angle of view is 70 °, the focal length is determined from the diagonal size of the screen. In this case, the focal length is 2.0 mm.

【0044】人物等を撮影対象とする場合は、ヒトの身
長が170cm前後であることや、1から3人を一緒に
写すことが多いことを根拠として、仮想被写体距離D
[m]を撮影画角θ[°]の関数として式(1)のよう
に定義することができる。
When a person or the like is to be photographed, the virtual subject distance D is based on the fact that the height of a human is around 170 cm and that one to three persons are often photographed together.
[M] can be defined as a function of the imaging angle of view θ [°] as in Expression (1).

【0045】 D=1.4/tan(θ/2) …(1) 式(1)のθに70°を代入すると、D=2.0mを得
る。そこで、被写体距離2mの時に最良のピントを結ぶ
ように撮像系10を構成するとすれば、無限遠位置から
のレンズの繰り出しは0.002mmであり、後述する
許容錯乱円径との関係からレンズ繰り出し機構のない固
定焦点撮像光学系としても実用上全く問題はない。
D = 1.4 / tan (θ / 2) (1) By substituting 70 ° into θ in the equation (1), D = 2.0 m is obtained. Therefore, if the imaging system 10 is configured to achieve the best focus when the subject distance is 2 m, the lens extension from the infinity position is 0.002 mm, and the lens extension from the relationship with the allowable confusion circle diameter described later. There is no practical problem at all even as a fixed-focus imaging optical system without a mechanism.

【0046】また、空気中に置かれた平凸レンズの焦点
距離fは、屈折率をn、球面の半径をrとして f={1/(1−n)}・r …(2) で表すことができる。したがって、仮に、撮影レンズ1
00の屈折率nを1.5とすれば、2.0mmの焦点距
離を得るrは1.0mmとなる。
The focal length f of the plano-convex lens placed in the air is represented by f = {1 / (1-n)}. R (2) where n is the refractive index and r is the radius of the spherical surface. Can be. Therefore, if the photographing lens 1 is
If the refractive index n of 00 is 1.5, r for obtaining a focal length of 2.0 mm is 1.0 mm.

【0047】赤色、緑色、青色の各物体像について、像
の大きさを揃えておくと後の信号処理で像倍率補正を行
う必要がないので処理時間を伸ばすことがなく都合がよ
い。このため、RGB光学フィルターの透過光のピーク
波長530nm、620nm、450nmについてレン
ズ部100a、100b、100cを最適化し、各像倍
率を一定に設定する。これは各レンズ部の主点位置から
固体撮像素子までの距離を一律にすることで、近軸的に
は実現できる。
If the size of each of the red, green, and blue object images is made uniform, it is not necessary to perform image magnification correction in subsequent signal processing, so that the processing time is not extended, which is convenient. Therefore, the lens units 100a, 100b, and 100c are optimized for peak wavelengths of transmitted light of the RGB optical filters of 530 nm, 620 nm, and 450 nm, and each image magnification is set to be constant. This can be realized paraxially by making the distance from the principal point position of each lens unit to the solid-state imaging device uniform.

【0048】d線(587.6nm)の屈折率nd=
1.5、アッベ数νd=60のガラスの場合、波長53
0nm、620nm、450nmにおける屈折率は、そ
れぞれ1.503、1.499、1.509程度であ
る。仮に、レンズ部100a、100b、100cの球
面の半径rが均一に−1.0mmとすると、これらの波
長における焦点距離は式(2)により次のようになる。
The refractive index nd of the d-line (587.6 nm) =
In the case of 1.5 and Abbe number νd = 60 glass, the wavelength 53
The refractive indexes at 0 nm, 620 nm, and 450 nm are about 1.503, 1.499, and 1.509, respectively. Assuming that the radii r of the spherical surfaces of the lens units 100a, 100b, and 100c are uniformly -1.0 mm, the focal lengths at these wavelengths are as follows from Expression (2).

【0049】レンズ部100a 代表波長530nm:
1.988mm レンズ部100b 代表波長620nm:2.004m
m レンズ部100c 代表波長450nm:1.965m
m 画素ピッチから許容錯乱円径を3.0μmとし、さら
に、撮影レンズのFナンバーをF5.6と仮定すれば、
これらの積で表される焦点深度は16.8μmとなり、
620nmと450nmの焦点距離の差0.039mm
はすでにこれを越えていることが分かる。すなわち、近
軸的な像倍率だけはそろっているが、被写体の色によっ
てはピントが合わない。通常、物体の分光反射率は、広
い波長域にまたがっているので、一般にシャープなピン
トが得られることは極めて稀である。
Lens part 100a Representative wavelength 530 nm:
1.988mm lens part 100b, representative wavelength 620nm: 2.004m
m Lens part 100c Representative wavelength 450 nm: 1.965 m
Assuming that the permissible circle of confusion is 3.0 μm from the m pixel pitch and the F number of the photographing lens is F5.6,
The depth of focus expressed by these products is 16.8 μm,
0.039mm difference between focal length of 620nm and 450nm
Is already over this. That is, although only the paraxial image magnification is uniform, it is not focused depending on the color of the subject. In general, the spectral reflectance of an object extends over a wide wavelength range, so that sharp focus is generally rarely obtained.

【0050】そこで、レンズ部100a、100b、1
00cの球面の半径rを各代表波長毎に最適化する。す
なわち、ここでは可視域全体の色収差を除去する色消し
を行わず、レンズ毎に波長別の設計を適用する。まず、
式(2)を変形して、式(3)を得る。
Therefore, the lens units 100a, 100b, 1
The radius r of the spherical surface of 00c is optimized for each representative wavelength. That is, here, achromatic design for removing chromatic aberration in the entire visible range is not performed, and a design for each wavelength is applied to each lens. First,
By transforming equation (2), equation (3) is obtained.

【0051】 r=(1−n)f …(3) 式(3)にf=2.0と順次n=1.503、n=1.
499、n=1.509を代入し、各半径を算出する
と、次のようになる。
R = (1−n) f (3) In equation (3), f = 2.0 and sequentially n = 1.503, n = 1.
499, n = 1.509 is substituted and each radius is calculated as follows.

【0052】レンズ部100a 代表波長530nm:
r=−1.006mm レンズ部100b 代表波長620nm:r=−0.9
98mm レンズ部100c 代表波長450nm:r=−1.0
18mm 像高の高い位置での像倍率差のバランスを取るために、
レンズ部100a、100b、100cの頂点高さを僅
かに調整すれば、シャープネスと像倍率の両者に関して
理想的な形状となる。さらには、各レンズ部に非球面を
用いて、像面湾曲を良好に補正する。像の歪曲について
は後の信号処理で補正すればよい。このように、視感度
が最も高い緑色555nmの波長を含む物体光による基
準G画像信号と、赤色と青色の物体光による画像信号と
をそれぞれ得て、結像系に単一の波長については異なる
焦点距離を、各スペクトル分布の代表波長については略
同一の焦点距離を設定すれば、これらの画像信号を合成
することにより良好に色収差の補正されたカラー画像を
得ることができる。各結像系は1枚構成であるので、撮
像系を薄型化する効果もある。また、通常、色消しは分
散の異なる2枚のレンズの組み合わせが必要であるのに
対し、1枚構成であることによるコストダウンの効果も
ある。
Lens part 100a Representative wavelength 530 nm:
r = -1.006 mm Lens part 100b Representative wavelength 620 nm: r = -0.9
98mm lens part 100c, representative wavelength 450nm: r = -1.0
18mm To balance the image magnification difference at a high image height,
If the vertex heights of the lens units 100a, 100b, 100c are slightly adjusted, an ideal shape can be obtained with respect to both sharpness and image magnification. Furthermore, an aspherical surface is used for each lens unit to satisfactorily correct field curvature. The image distortion may be corrected in the subsequent signal processing. In this manner, the reference G image signal based on the object light including the wavelength of green 555 nm having the highest visibility and the image signal based on the red and blue object lights are obtained, and the imaging system differs for a single wavelength. If the focal length is set to be substantially the same for the representative wavelength of each spectral distribution, a color image in which chromatic aberration is well corrected can be obtained by combining these image signals. Since each image forming system has a single structure, there is also an effect of reducing the thickness of the imaging system. Further, achromatization usually requires a combination of two lenses having different dispersions, but the use of a single lens has an effect of cost reduction.

【0053】撮影レンズ100には画素ピッチと同レベ
ルまでの高い空間周波数帯域まで高コントラストの解像
が求められる。撮像系10は波長域別の3つの物体像を
取り込むことから、ベイヤー配列等のモザイク状光学フ
ィルターを備えた同一画素数の撮像系と比較したとき、
前述のように約1/√3の焦点距離で同じ撮影画角とな
る。したがって、より高い空間周波数成分の高コントラ
ストな解像を実現しなくてはならない。前述した各レン
ズ部の波長別最適化はこのための色収差抑制技術であ
る。
The photographing lens 100 is required to have a high-contrast resolution up to a high spatial frequency band up to the same level as the pixel pitch. Since the imaging system 10 captures three object images for each wavelength range, when compared with an imaging system having the same number of pixels having a mosaic optical filter such as a Bayer array,
As described above, the same shooting angle of view is obtained at a focal length of about 1 / √3. Therefore, high-contrast resolution of higher spatial frequency components must be realized. The wavelength-specific optimization of each lens unit described above is a chromatic aberration suppressing technique for this purpose.

【0054】一般に、撮影光学系の収差特性を改善して
偽解像を生じにくくし、問題を軽減する方法には、
(1)構成レンズの枚数を増やす、非球面化する、異常
分数ガラスを用いる、回折光学素子を複合的に用いる、
といった幾つかの手法を用いて設計自由度を増す、
(2)結像光束を絞る、という2通りがある。
In general, there are methods for improving the aberration characteristics of the photographing optical system so that false resolution is less likely to occur and the problem is reduced.
(1) Increasing the number of constituent lenses, asphericalizing, using an abnormal fractional glass, using a diffractive optical element in combination,
To increase design flexibility by using several methods, such as
(2) There are two ways of narrowing the imaging light beam.

【0055】(1)の設計自由度を増やす方向性は、焦
点距離が1/√3になったにもかかわらず撮影光学系の
構成を複雑化することになって、撮影装置の簿型化に逆
行することになるので適切でない。一方、(2)の細い
光束を用いる方向性は薄型の撮影装置との整合性が良
い。
The direction (1) that increases the degree of freedom in design complicates the configuration of the photographing optical system even though the focal length is reduced to 1 / √3. It is not appropriate because it will go backwards. On the other hand, the direction (2) using a thin light beam has good compatibility with a thin imaging device.

【0056】結像光束を絞ると、OTFと呼ばれるレス
ポンス関数は図10の実線(b)で示すように低周波成
分において緩やかに単調減少し、その後僅かに負の値を
とったあと再び僅かに正の値をとる特性となる。一方、
結像光束を絞らずに太い光束を用いる場合は図10の波
線(a)で示すように低周波成分において急速に減少し
たあと、いったん負の値をとり、また正の値をとる特性
となる。
When the imaging light beam is stopped down, the response function called OTF gradually decreases monotonously in the low frequency component as shown by the solid line (b) in FIG. 10, then takes a slightly negative value and then slightly again. The characteristic has a positive value. on the other hand,
In the case where a thick light beam is used without narrowing down the image forming light beam, as shown by a dashed line (a) in FIG. 10, the characteristic rapidly decreases in the low frequency component, then takes a negative value and then takes a positive value. .

【0057】OTFが負の値をとる状態が偽解像の発生
を表し、実際の画像では白い部分が黒くなり反対に黒い
部分が白くなる、ネガポジ反転現象が発生している状態
に相当する。したがって、結像光束を絞った方が自然な
画像が得られることが分かる。
A state in which the OTF takes a negative value indicates the occurrence of false resolution. In an actual image, a white portion becomes black and a black portion becomes white, which corresponds to a negative-positive inversion phenomenon. Therefore, it can be seen that a natural image can be obtained by narrowing the imaging light flux.

【0058】ところが、極端に光束を絞り込むと、今度
は光の回折の影響によって逆に高周波域のコントラスト
の低下が発生する。このような状況では、点像は中心の
輝点とその周りを何重かに取り囲む回折縞とで構成され
ている。この原因はよく知られているように、絞り開口
の縁から発する周辺波による回折縞の強度が相対的に増
すためである。
However, when the light beam is narrowed down extremely, the contrast of the high-frequency region is reduced by the influence of light diffraction. In such a situation, the point image is composed of a central bright spot and diffraction fringes surrounding the central bright spot several times. The reason for this is, as is well known, that the intensity of diffraction fringes due to peripheral waves emitted from the edge of the aperture opening relatively increases.

【0059】回折縞を減らすには、中央部が透明で周辺
に行くにしたがって濃度が大きくなるフィルターを撮影
レンズに付加すればよい。この手法はアポダイゼイショ
ンと呼ばれ、光学技術ハンドブック増補版(昭和50
年、朝倉書店)の172ページから174ページに詳し
く述べられている。
In order to reduce diffraction fringes, a filter may be added to the photographic lens so that the center is transparent and the density increases toward the periphery. This method is called apodization and is an enhanced version of the Optical Technology Handbook (Showa 50
Year, Asakura Shoten) on pages 172 to 174.

【0060】図9は撮影レンズ100の光入射面100
e上であって、絞り開口110a、110b、110c
に対向する位置に設けた透過率分布型フィルターの透過
率分布を表す図である。透過率分布型フィルターは図1
の54a、54b、54cで示され、透過率が最も高い
位置は絞り開口110a、110b、110cの中心に
一致し、透過率がゼロになる位置は絞り開口110a、
110b、110cの縁に一致させてある。すなわち、
透過率分布は絞りの中心で最も高く、中心から離れるほ
ど単調に減少する。
FIG. 9 shows the light incident surface 100 of the photographing lens 100.
e, the aperture openings 110a, 110b, 110c
FIG. 7 is a diagram illustrating a transmittance distribution of a transmittance distribution type filter provided at a position facing the light emitting device; Figure 1 shows the transmittance distribution type filter.
54a, 54b and 54c, the position where the transmittance is highest coincides with the center of the aperture openings 110a, 110b and 110c, and the position where the transmittance becomes zero is the aperture opening 110a,
The edges 110b and 110c are aligned. That is,
The transmittance distribution is highest at the center of the stop, and monotonically decreases as the distance from the center increases.

【0061】透過率分布型フィルターは撮影レンズ10
0の光入射側に、インコネル、クロメル、クローム等の
薄膜を蒸着またはスパッタリングすることによって形成
する。薄膜の厚さを中央部が最も薄く、周辺部が最も厚
くなるようにすることによって、図9に示した特性を得
ることが可能である。なお、こういった薄膜の形成には
蒸着またはスパッタリング過程における遮蔽物の位置制
御を連続的に行う。
The transmittance distribution type filter is used for the photographing lens 10.
A thin film of Inconel, chromel, chrome, or the like is formed on the light incident side of No. 0 by vapor deposition or sputtering. The characteristics shown in FIG. 9 can be obtained by making the thickness of the thin film the thinnest in the central part and the thickest in the peripheral part. In the formation of such a thin film, the position of the shield in the vapor deposition or sputtering process is continuously controlled.

【0062】ここでは、透過率分布型フィルター54
a、54b、54cを撮影レンズ上に形成したが、ガラ
ス板上に形成して、撮影レンズ100の光入射側、ある
いは光射出側に配置する構成であってもよい。
Here, the transmittance distribution type filter 54
Although a, 54b and 54c are formed on the taking lens, they may be formed on a glass plate and arranged on the light incident side or the light emitting side of the taking lens 100.

【0063】図11は点像の輝度分布を示す図である。
図において波線(a)は絞り開口の透過率が一定の場
合、実線(b)は絞り開口の透過率を中心から周辺にか
けて低下させた場合である。(a)の特性に対し(b)
の特性は点像の裾部分での跳ね返りが無く、明らかに良
好な画像となっていることを示している。これが、アポ
ダイゼイションで周辺光束を減ずることによる回折縞低
減効果の現れである。
FIG. 11 is a diagram showing a luminance distribution of a point image.
In the figure, the dashed line (a) shows the case where the transmittance of the aperture opening is constant, and the solid line (b) shows the case where the transmittance of the aperture opening decreases from the center to the periphery. (B) for the characteristics of (a)
Characteristics show no rebound at the foot of the point image, and clearly shows a good image. This is a manifestation of the effect of reducing diffraction fringes by reducing peripheral light beams by apodization.

【0064】次に、撮影レンズと撮像領域の位置関係に
ついて述べる。撮像系は3つのレンズ部を有するため
に、被写体距離に応じて3つの物体像の位置が相対的に
変化する。前述のように各撮像領域は2.24mm×
1.68mmであって、これらは長辺を接するように隣
接して配置されている。したがって、隣り合う撮像領域
の中心間隔は1.68mmである。後述するYC処理回
路230では、物体像の中心と撮像領域の中心が一致し
ているものとして信号処理を行う。仮想被写体距離2m
にある物体像をこれと同じ間隔で撮像部上に形成すると
すれば、図12に示すように撮影レンズ100のレンズ
部100a、100b、100cの間隔を1.6783
mmに設定することになる。図において矢印55a、5
5b、55cは、撮影レンズ100の3つのレンズ部1
00a、100b、100cによる正のパワーを有する
結像系を表す記号、矩形56a、56b、56cは撮像
領域120a、120b、120cの範囲を表す記号、
L1、L2、L3は結像系55a、55b、55cの光
軸である。撮影レンズ100の光入射面は平面、光射出
面となるレンズ部100a、100b、100cは球面
であるので、各球心を通って光入射面100eに垂直な
直線が光軸となる。
Next, the positional relationship between the photographing lens and the image pickup area will be described. Since the imaging system has three lens units, the positions of the three object images relatively change according to the subject distance. As described above, each imaging area is 2.24 mm ×
1.68 mm, which are arranged adjacent to each other so that the long sides are in contact with each other. Therefore, the center interval between adjacent imaging regions is 1.68 mm. The YC processing circuit 230 described later performs signal processing on the assumption that the center of the object image matches the center of the imaging region. Virtual subject distance 2m
Is formed on the image pickup unit at the same interval, the distance between the lens units 100a, 100b, and 100c of the photographing lens 100 is set to 1.67883 as shown in FIG.
mm. In the figure, arrows 55a, 5
5b and 55c are three lens units 1 of the photographing lens 100.
00a, 100b, 100c, a symbol representing an imaging system having a positive power, rectangles 56a, 56b, 56c represent symbols of a range of imaging regions 120a, 120b, 120c,
L1, L2, and L3 are optical axes of the imaging systems 55a, 55b, and 55c. Since the light incident surface of the photographing lens 100 is a flat surface, and the lens portions 100a, 100b, and 100c, which are light exit surfaces, are spherical, a straight line passing through each spherical center and perpendicular to the light incident surface 100e is the optical axis.

【0065】このとき、無限遠物体の像は図13に示す
ようにレンズ部100a、100b、100cと同一の
間隔で形成されるため、G物体像とR物体像の間隔、お
よび、R物体像とB物体像の間隔は1.6783mmで
ある。したがって、撮像領域の中心間隔1.68mmよ
りも若干狭く、この差ΔYは0.0017mmすなわち
1.7μmである。また、最も視感度の高いG物体像を
基準としてB物体像の移動を考えると、差ΔYは2倍と
なり、3.4μmである。撮影画面の中央には人物等の
近距離物体が位置し、画面の周辺に遠距離の物体が位置
することが多いこと、さらに、画面の周辺では撮影レン
ズの収差が増大して画像性能が低下することから、最大
像間隔変化が画素ピッチの2倍よりも小さければ、実用
上の問題はないと言える。前述のように固体撮像素子1
20の画素ピッチPは2.8μmであるので、ΔY<2
×Pとなり、この程度の無限遠像の色ズレは許容可能な
レベルである。
At this time, since the image of the object at infinity is formed at the same interval as the lens units 100a, 100b, and 100c as shown in FIG. 13, the interval between the G object image and the R object image, and the R object image The distance between the object image and the object B is 1.6783 mm. Therefore, the distance ΔY is slightly smaller than the center interval of the imaging region of 1.68 mm, and the difference ΔY is 0.0017 mm, that is, 1.7 μm. Further, when the movement of the B object image is considered with reference to the G object image having the highest visibility, the difference ΔY is doubled and is 3.4 μm. Near objects such as people are often located in the center of the shooting screen, and distant objects are often located around the screen.Furthermore, near the screen, the aberration of the shooting lens increases and image performance deteriorates. Therefore, if the maximum image interval change is smaller than twice the pixel pitch, it can be said that there is no practical problem. As described above, the solid-state imaging device 1
20 is 2.8 μm, so that ΔY <2
× P, and this degree of color shift of the image at infinity is at an acceptable level.

【0066】さらに、撮像系10の温度変化によっても
像間隔は変動する。固体撮像素子120の線膨張係数を
αS、撮影レンズ100の線膨張係数をαL、温度変化を
ΔTとすると、撮像系10は結像倍率が極めて小さいた
めに、像間隔変化量ΔZは撮影レンズの伸びと個体撮像
素子の伸びの差として、式(4)で表すことができる。
Further, the image interval also fluctuates due to a temperature change of the image pickup system 10. Assuming that the linear expansion coefficient of the solid-state imaging device 120 is αS, the linear expansion coefficient of the imaging lens 100 is αL, and the temperature change is ΔT, since the imaging system 10 has an extremely small imaging magnification, the image interval change amount ΔZ is The difference between the elongation and the elongation of the solid-state imaging device can be expressed by equation (4).

【0067】 ΔZ=1.68×(αL−αS)×ΔT …(4) ここで、αS=0.26×10-5、ΔT=20[°]、
さらに、撮影レンズ100を低融点ガラスで作成すると
してαL=1.2×10-5とすると、ΔZは0.000
32[mm]と算出される。これはG物体像とR物体像
の間隔変化、および、R物体像とB物体像の間隔変化量
である。
ΔZ = 1.68 × (αL−αS) × ΔT (4) where αS = 0.26 × 10 −5 , ΔT = 20 [°],
Further, assuming that the taking lens 100 is made of low melting point glass and αL = 1.2 × 10 −5 , ΔZ is 0.000
It is calculated as 32 [mm]. This is the amount of change in the distance between the G object image and the R object image, and the amount of change in the distance between the R object image and the B object image.

【0068】基準画像信号であるG物体像に対する変化
としてB物体像を考えると、像の間隔は1.68×2で
あるため、像間隔変化量もΔZ×2=0.00063
[mm]となる。この像間隔をAとおくことにする。カ
メラの使用温度範囲を0〜40°とすれば、基準温度2
0°からの偏差ΔTは20°であって、このとき、ΔZ
×2が画素ピッチの1/2よりも小さければ、実用上問
題はない。一般に、固体撮像素子120の線膨張係数α
Sは0.26×10-5程度の小さい値をとるので、撮影
レンズ100の線膨張係数αLを式(5)を満たすよう
に選択する必要がある。
Considering the B object image as a change with respect to the G object image as the reference image signal, since the image interval is 1.68 × 2, the image interval change amount is ΔZ × 2 = 0.0063.
[Mm]. This image interval is set to A. If the operating temperature range of the camera is 0 to 40 °, the reference temperature 2
The deviation ΔT from 0 ° is 20 °, and ΔZ
If × 2 is smaller than 画素 of the pixel pitch, there is no practical problem. Generally, the linear expansion coefficient α of the solid-state imaging device 120
Since S takes a small value of about 0.26 × 10 −5, it is necessary to select the linear expansion coefficient αL of the photographing lens 100 so as to satisfy Expression (5).

【0069】 A×(αL−0.26×10-5)×20<1/2・P …(5) なお、Aは像間隔、Pは画素ピッチである。A × (αL−0.26 × 10 −5 ) × 20 <1/2 · P (5) where A is an image interval and P is a pixel pitch.

【0070】先程使用した撮影レンズ100の線膨張係
数αL=1.2×10-5は式(5)の関係を満足してい
るので、本カメラに好適な材料と言える。
Since the linear expansion coefficient αL = 1.2 × 10 −5 of the photographic lens 100 used previously satisfies the relationship of the equation (5), it can be said that it is a suitable material for this camera.

【0071】また、物体距離や温度変化による像間隔の
変動とは別に、固体撮像素子の撮像領域120a、12
0b、120cを相互に1/2画素ずらすことにより、
少ない画素数で解像度を上げる画素ずらしという手法を
用いる。1/2画素ずらし量は仮想被写体距離2mに対
して設定する。
In addition to the change in the image interval due to the change in the object distance or the temperature, the image pickup areas 120a, 120a,
0b and 120c are shifted by 1/2 pixel from each other,
A technique of pixel shifting to increase the resolution with a small number of pixels is used. The 1/2 pixel shift amount is set for a virtual subject distance of 2 m.

【0072】図15に示すようにG画像信号用の撮像領
域120aに対してR画像出力用の撮像領域120bと
B画像出力用の撮像領域120cは水平方向および垂直
方向に1/2画素ずつずらして配置されている。
As shown in FIG. 15, the imaging area 120b for outputting the R image and the imaging area 120c for outputting the B image are shifted by 1/2 pixel in the horizontal and vertical directions with respect to the imaging area 120a for the G image signal. It is arranged.

【0073】この画素ずらしは、撮影レンズ100のレ
ンズ部100bと100cをレンズ部100aに対して
僅かに偏心させることで実現しても、個体撮像素子12
0の撮像領域120bと120cを撮像領域120aに
対して僅かに偏心させることで実現してもよい。
This pixel shift can be realized by slightly decentering the lens portions 100b and 100c of the photographing lens 100 with respect to the lens portion 100a.
This may be realized by slightly decentering the 0 imaging regions 120b and 120c with respect to the imaging region 120a.

【0074】ベイヤー配列等の光学フィルター配列で
は、例えば緑色の光学フィルターを備えた画素の間には
赤色の光学フィルターを備えた画素や青色の光学フィル
ターを備えた画素が入り込むために、折り返し歪みを抑
制する光学ローパスフィルターが必要である。ところ
が、このようにスペクトル分布の異なる画像を撮像領域
別に取り込むように構成すると、それぞれの光学フィル
ターを備えた画素を密に配列することができ、その結
果、折り返し歪みの影響は小さく光学ローパスフィルタ
ーを必要とせずに高精細な画像を得ることができる。し
たがって、撮像系の小型化とコストの大幅な削減が可能
である。
In an optical filter array such as a Bayer array, for example, a pixel having a red optical filter or a pixel having a blue optical filter enters between pixels having a green optical filter, so that aliasing distortion occurs. An optical low-pass filter to suppress is needed. However, if such a configuration is adopted in which images having different spectral distributions are captured for each imaging region, pixels having respective optical filters can be densely arranged, and as a result, the influence of aliasing is small and an optical low-pass filter can be used. A high-definition image can be obtained without the need. Therefore, it is possible to reduce the size of the imaging system and to significantly reduce the cost.

【0075】次に、信号処理について説明する。Next, the signal processing will be described.

【0076】前述のように固体撮像素子120は、長辺
方向に1800画素、短辺方向にそれぞれ800画素の
合計144万の画素数を有する撮像デバイスが有効に適
用されて、その前面には赤色(R)、緑色(G)、青色
(B)の3原色の光学フィルターが所定の領域毎に配置
されている。
As described above, the solid-state imaging device 120 is effectively applied to an imaging device having 1800 pixels in the long side direction and 800 pixels in the short side direction, each having a total of 1.440,000 pixels, and a red color on the front surface thereof. Optical filters of three primary colors of (R), green (G), and blue (B) are arranged for each predetermined region.

【0077】図14に表すように、固体撮像素子120
から読み出された画像信号は、それぞれA/D変換器5
00を介して画像処理系20に供給される。A/D変換
器500は、たとえば、露光した各画素の信号の振幅に
応じた、たとえば10ビットのデジタル信号に変換して
出力する信号変換回路であり、以降の画像信号処理はデ
ジタル処理にて実行される。
As shown in FIG. 14, the solid-state imaging device 120
Image signals read from the A / D converter 5
00 to the image processing system 20. The A / D converter 500 is, for example, a signal conversion circuit that converts and outputs a 10-bit digital signal corresponding to the amplitude of the signal of each exposed pixel, for example, and performs subsequent image signal processing by digital processing. Be executed.

【0078】画像処理系20は、R,G,Bのデジタル
信号から所望の形式の画像信号を得る信号処理回路であ
り、R,G,Bの色信号を輝度信号Yおよび色差信号
(R−Y),(B−Y)にて表わされるYC信号などに
変換する。
The image processing system 20 is a signal processing circuit for obtaining an image signal of a desired format from the R, G, B digital signals, and converts the R, G, B color signals into a luminance signal Y and a color difference signal (R−G). Y) and (B-Y).

【0079】RGB画像処理回路210は、A/D変換
器500を介して固体撮像素子120から受けた180
0×800画素の画像信号を処理する信号処理回路であ
り、ホワイトバランス回路、ガンマ補正回路、補間演算
による高解像度化を行う補間演算回路を有する。
The RGB image processing circuit 210 receives the signal 180 from the solid-state imaging device 120 via the A / D converter 500.
A signal processing circuit for processing an image signal of 0 × 800 pixels, which includes a white balance circuit, a gamma correction circuit, and an interpolation operation circuit for increasing the resolution by interpolation operation.

【0080】YC処理回路230は、輝度信号Yおよび
色差信号R−Y,B−Yを生成する信号処理回路であ
る。高域輝度信号YHを生成する高域輝度信号発生回
路、低域輝度信号YLを生成する低域輝度信号発生回
路、および、色差信号R−Y,B−Yを生成する色差信
号発生回路で構成されている。輝度信号Yは高域輝度信
号YHと低域輝度信号YLを合成することによって形成
される。
The YC processing circuit 230 is a signal processing circuit that generates a luminance signal Y and color difference signals RY and BY. A high-frequency luminance signal generating circuit for generating the high-frequency luminance signal YH, a low-frequency luminance signal generating circuit for generating the low-frequency luminance signal YL, and a color difference signal generating circuit for generating the color difference signals RY and BY. Have been. The luminance signal Y is formed by combining the high-frequency luminance signal YH and the low-frequency luminance signal YL.

【0081】RGB画像処理回路210の詳細を説明す
る。
The details of the RGB image processing circuit 210 will be described.

【0082】A/D変換器500を介してR,G,B領
域毎に出力されたRGB信号は、まず、RGB画像処理
回路210内のホワイトバランス回路にてそれぞれ所定
の白バランス調整が行なわれ、さらに、ガンマ補正回路
にて所定のガンマ補正が行なわれる。
The RGB signals output for each of the R, G, and B regions via the A / D converter 500 are first subjected to a predetermined white balance adjustment in a white balance circuit in the RGB image processing circuit 210. Further, a predetermined gamma correction is performed by a gamma correction circuit.

【0083】RGB画像処理回路210内の補間演算回
路は、600×800画素の4倍の解像度の画像信号を
補間処理によって生成し、固体撮像素子120からの画
像信号を高精細画質の信号に変換して、後段の高域輝度
信号発生回路、低域輝度信号発生回路、色差信号発生回
路に供給する。
The interpolation operation circuit in the RGB image processing circuit 210 generates an image signal having a resolution four times as large as 600 × 800 pixels by interpolation processing, and converts the image signal from the solid-state image pickup device 120 into a high definition image signal. Then, the signal is supplied to the subsequent high-frequency luminance signal generation circuit, low-frequency luminance signal generation circuit, and color difference signal generation circuit.

【0084】RGB各物体像の大きさは撮影レンズ10
0の設定によって、すでに同一になっているので、ま
ず、公知の手法によって撮影光学系の歪曲収差を補正す
る演算処理を各画像信号について行う。その後の、補間
処理や輝度信号処理、色差信号処理は通常のデジタルカ
ラーカメラでの処理に準じたものとなる。補間処理は次
に示すとおりである。
The size of each of the RGB object images is determined by the photographing lens 10.
Since the values are already the same by setting 0, first, a calculation process for correcting the distortion of the photographing optical system is performed on each image signal by a known method. Subsequent interpolation processing, luminance signal processing, and color difference signal processing conform to the processing in a normal digital color camera. The interpolation process is as follows.

【0085】まず、基準画像信号である撮像領域120
aからのG画像信号を、次式(6)〜(9)にてそれぞ
れ補間演算する。
First, the image pickup area 120 which is the reference image signal
The G image signal from a is interpolated by the following equations (6) to (9).

【0086】 G2i2j=Gij …(6) G2i(2j+1)=Gij・1/2+Gi(j+1)・1/2 …(7) G(2i+1)2j=Gij・1/2+G(i+1)j・1/2 …(8) G(2i+1)(2j+1)=Gij・1/4+Gi(j+1)・1/4 +G(i+1)j・1/4+G(i+1)0+1)・1/4 …(9) これにより、図16に示すようにそれぞれ4個のG画素
から16個のG画素が生成されて、撮像領域120aか
らの600×800画素のG画像信号が1200×16
00画素に変換される。
G2i2j = Gij (6) G2i (2j + 1) = Gij · 1/2 + Gi (j + 1) · 1/2 (7) G (2i + 1) 2j = Gij · 1/2 + G (i +1) j · 1/2 (8) G (2i + 1) (2j + 1) = Gij · 1/4 + Gi (j + 1) · 1/4 + G (i + 1) j · 1 / 4 + G (i + 1) 0 + 1) ・ (9) As a result, as shown in FIG. 16, 16 G pixels are generated from the 4 G pixels, respectively, and 600 G from the imaging region 120a are generated. A G image signal of × 800 pixels is 1200 × 16
It is converted to 00 pixels.

【0087】次に、上式(6)〜(9)にて求めたG画
像信号のそれぞれの位置に対応して撮像領域120bか
らのR画素出力を次式(10)〜(13)にて補間演算
する。
Next, the R pixel output from the image pickup area 120b corresponding to each position of the G image signal obtained by the above equations (6) to (9) is calculated by the following equations (10) to (13). Perform interpolation.

【0088】 R2i2j=R(i-1)(j-1)・1/4+R(i-1)j・1/4+Ri(j-1)・1/4+Rij・1/4 …(10) R2i(2j+1)=R(i-1)j・1/2+Rij・1/2 …(11) R(2i+1)2j=Ri(j-1)・1/2+Rij・1/2 …(12) R(2i+1)(2j+1)=Rij …(13) 前述のようにR物体像の撮像領域とB物体像の撮像領域
はG物体像の撮像領域に対して1/2画素だけずらした
配置になっているため、式(13)のようにij番地の元
出力を(2i+1)(2j+1)番地に適用している。
R2i2j = R (i−1) (j−1) · 1/4 + R (i−1) j · 1/4 + Ri (j−1) · 1/4 + Rij · 1/4 (10) R2i (2j +1) = R (i-1) j ・ 1/2 + Rij1 / 21/2 (11) R (2i + 1) 2j = Ri (j-1) 1/2 + Rij ・ 1/2 (12) R (2i + 1) (2j + 1) = Rij (13) As described above, the imaging region of the R object image and the imaging region of the B object image are shifted by 1/2 pixel from the imaging region of the G object image. Because of the arrangement, the original output of the address ij is applied to the addresses (2i + 1) and (2j + 1) as in equation (13).

【0089】同様に、R画素と同様に撮像領域120c
からのB画素を上式(6)〜(9)にて求めたG画像信
号のそれぞれの位置に対応して次式(14)〜(17)
にて補間演算する。
Similarly, similarly to the R pixel, the image pickup area 120c
The following formulas (14) to (17) correspond to the respective positions of the G image signal obtained by the above formulas (6) to (9).
Performs interpolation calculation in.

【0090】 B2i2j=B(i-1)(j-1)・1/4+B(i-1)j・1/4+Bi(j-1)・1/4+Bij・1/4 …(14) B2i(2j+1)=B(i-1)j・1/2+Bij・1/2 …(15) B(2i+1)2j=Bi(j-1)・1/2+Bij・1/2 …(16) B(2i+1)(2j+1)=Bij …(17) 以上の処理により、撮像領域120a、120b、12
0cからの各600×800画素のRGB信号が高精細
画質の1200×16000画素のRGB信号に変換さ
れる。
B2i2j = B (i-1) (j-1) ・ 1/4 + B (i-1) j ・ 1/4 + Bi (j-1) ・ 1/4 + Bij ・ 1/4 (14) B2i (2j +1) = B (i-1) j ・ 1/2 + Bij1 / 21/2 (15) B (2i + 1) 2j = Bi (j-1) 1/2 + Bij ・ 1/2 (16) B (2i + 1) (2j + 1) = Bij (17) By the above processing, the imaging regions 120a, 120b, 12
The RGB signals of 600 × 800 pixels from 0c are converted into 1200 × 16000 pixel RGB signals of high definition image quality.

【0091】YC処理回路230内の高域輝度信号発生
回路は、色成分信号の中で最も高い空間周波数成分を有
する色信号から高域輝度信号YHを形成する公知の信号
形成回路である。低域輝度信号発生回路は、R,G,B
すべての色成分を含む信号から低域周波数の輝度信号Y
Lを形成する公知の信号形成回路である。また、色差信
号発生回路は、高精細のRGB信号から色差信号R−
Y,B−Yを演算する公知の演算回路である。
The high-frequency luminance signal generation circuit in the YC processing circuit 230 is a known signal forming circuit for forming a high-frequency luminance signal YH from a color signal having the highest spatial frequency component among the color component signals. R, G, B
From the signal containing all the color components, the luminance signal Y of the low frequency
It is a known signal forming circuit for forming L. Further, the color difference signal generating circuit converts the color difference signal R-
It is a known arithmetic circuit that calculates Y, BY.

【0092】記録再生系30は、メモリへの画像信号の
出力と、液晶モニタ4への画像信号の出力とを行う処理
系であり、メモリへの画像信号の書き込みおよび読み出
し処理を行なう記録処理回路300と、メモリから読み
出した画像信号を再生して、モニタ出力とする再生処理
回路310とを含む。より詳細には、記録処理回路30
0は、静止画像および動画像を表わすYC信号を所定の
圧縮形式にて圧縮し、また、圧縮データを読み出した際
に伸張する圧縮伸張回路を含む。圧縮伸張回路は、信号
処理のためのフレームメモリなどを含み、このフレーム
メモリに画像処理系20からのYC信号をフレーム毎に
蓄積して、それぞれ複数のブロック毎に読み出して圧縮
符号化する。圧縮符号化は、たとえば、ブロック毎の画
像信号を2次元直交変換、正規化およびハフマン符号化
することにより行なわれる。
The recording / reproducing system 30 is a processing system for outputting an image signal to a memory and outputting an image signal to the liquid crystal monitor 4, and is a recording processing circuit for performing a process of writing and reading an image signal to and from the memory. 300, and a reproduction processing circuit 310 that reproduces an image signal read from the memory and outputs the image signal to a monitor output. More specifically, the recording processing circuit 30
0 includes a compression / expansion circuit that compresses a YC signal representing a still image and a moving image in a predetermined compression format, and expands the compressed data when it is read. The compression / expansion circuit includes a frame memory for signal processing and the like, and accumulates the YC signal from the image processing system 20 for each frame in this frame memory, reads out each of a plurality of blocks, and performs compression encoding. The compression encoding is performed, for example, by performing two-dimensional orthogonal transformation, normalization, and Huffman encoding on an image signal for each block.

【0093】再生処理回路310は、輝度信号Yおよび
色差信号R−Y,B−Yをマトリックス変換してたとえ
ばRGB信号に変換する回路である。再生処理回路31
0によって変換された信号は液晶モニタ4に出力され、
可視画像が表示再生される。
The reproduction processing circuit 310 is a circuit that converts the luminance signal Y and the color difference signals RY and BY into a matrix and converts them into, for example, RGB signals. Reproduction processing circuit 31
The signal converted by 0 is output to the liquid crystal monitor 4,
The visible image is displayed and reproduced.

【0094】一方、制御系40は、外部操作に連動して
撮像系10、画像処理系20、記録再生系30をそれぞ
れ制御する各部の制御回路を含み、レリーズボタン6の
押下を検出して、固体撮像素子120の駆動、RGB画
像処理回路210の動作、記録処理回路300の圧縮処
理などを制御する。具体的には、レリーズボタン6の操
作を検出する操作検出回路410と、その検出信号に連
動して各部を制御し、撮像の際のタイミング信号などを
生成して出力するシステム制御部400と、このシステ
ム制御部400の制御の下に固体撮像素子120を駆動
する駆動信号を生成する固体撮像素子駆動回路420と
を含む。
On the other hand, the control system 40 includes control circuits of respective units for controlling the imaging system 10, the image processing system 20, and the recording / reproducing system 30 in conjunction with an external operation. It controls driving of the solid-state imaging device 120, operation of the RGB image processing circuit 210, compression processing of the recording processing circuit 300, and the like. Specifically, an operation detection circuit 410 that detects an operation of the release button 6, a system control unit 400 that controls each unit in conjunction with the detection signal, and generates and outputs a timing signal and the like at the time of imaging, A solid-state image sensor drive circuit 420 that generates a drive signal for driving the solid-state image sensor 120 under the control of the system controller 400.

【0095】次に、本実施例による撮像装置の動作を説
明する。
Next, the operation of the imaging apparatus according to the present embodiment will be described.

【0096】まず、メインスイッチ5をオンとすると、
各部に電源電圧が供給されて動作可能状態となる。次
に、メモリに画像信号を記録可能か否かが判定される。
この際に、残り容量に応じて撮影可能記録枚数が液晶モ
ニタ4の残り枚数表示13に表示される。その表示を見
た操作者は、撮影可能であれば、被写界にカメラを向け
て、レリーズボタン6を押下する。
First, when the main switch 5 is turned on,
A power supply voltage is supplied to each unit, and the unit is operable. Next, it is determined whether or not an image signal can be recorded in the memory.
At this time, the number of recordable images is displayed on the remaining number display 13 of the liquid crystal monitor 4 according to the remaining capacity. The operator who sees the display turns the camera toward the object field and presses the release button 6 if shooting is possible.

【0097】レリーズボタン6を半分だけ押下すると、
露光時間の算出が行なわれる。すべての撮影準備処理が
終了すると、撮影可能となり、その表示が撮影者に報じ
られる。これにより、レリーズボタン6が終端まで押下
されると、操作検出回路410はシステム制御回路40
0にその検出信号を送出する。その際に、あらかじめ算
出された露光時間の経過をタイムカウントして、所定の
露光時間が経過すると、駆動回路420にタイミング信
号を供給する。これにより、駆動回路420は水平およ
び垂直駆動信号を生成して露光された1600×800
画素のそれぞれを水平および垂直方向に順次読み出す。
When the release button 6 is pressed halfway down,
Exposure time is calculated. When all shooting preparation processing is completed, shooting becomes possible, and the display is reported to the photographer. Thus, when the release button 6 is pressed to the end, the operation detection circuit 410 causes the system control circuit 40
The detection signal is transmitted to 0. At this time, the elapsed time of the exposure time calculated in advance is counted, and when the predetermined exposure time has elapsed, a timing signal is supplied to the drive circuit 420. Thus, the drive circuit 420 generates horizontal and vertical drive signals and exposes 1600 × 800
Each of the pixels is sequentially read out in the horizontal and vertical directions.

【0098】読み出されたそれぞれの画素は、A/D変
換器500にて所定のビット値のデジタル信号に変換さ
れて、画像処理系20のRGB画像処理回路210に順
次供給される。RGB画像処理回路210では、これら
をそれぞれホワイトバランス、ガンマ補正を施した状態
にて画素の解像度を4倍にする補間処理を行なって、Y
C処理回路230に供給する。
Each pixel read out is converted into a digital signal of a predetermined bit value by the A / D converter 500, and is sequentially supplied to the RGB image processing circuit 210 of the image processing system 20. The RGB image processing circuit 210 performs an interpolation process to quadruple the pixel resolution in a state where these have been subjected to white balance and gamma correction, respectively.
It is supplied to the C processing circuit 230.

【0099】YC処理回路230では、その高域輝度信
号発生回路にて、RGBそれぞれの画素の高域輝度信号
YHを生成し、同様に、低域輝度信号発生回路にて低域
輝度信号YLをそれぞれ演算する。演算した結果の高域
輝度信号YHは、ローパス・フィルタを介して加算器に
出力される。同様に、低域輝度信号YLは、高域輝度信
号YHが減算されてローパス・フィルタを通って加算器
に出力される。これにより、高域輝度信号YHとその低
域輝度信号との差YL−YHが加算されて輝度信号Yが
得られる。同様に、色差信号発生回路では、色差信号R
−Y,B−Yを求めて出力する。出力された色差信号R
−Y,B−Yは、それぞれローパス・フィルタを通った
成分が記録処理回路300に供給される。
In the YC processing circuit 230, the high-frequency luminance signal generation circuit generates the high-frequency luminance signal YH for each of the RGB pixels, and similarly, the low-frequency luminance signal generation circuit generates the low-frequency luminance signal YL. Each is calculated. The calculated high-frequency luminance signal YH is output to the adder via the low-pass filter. Similarly, the low-frequency luminance signal YL is subtracted from the high-frequency luminance signal YH and output to the adder through a low-pass filter. Thereby, the difference YL-YH between the high-frequency luminance signal YH and the low-frequency luminance signal is added, and the luminance signal Y is obtained. Similarly, in the color difference signal generation circuit, the color difference signal R
-Y and BY are obtained and output. The output color difference signal R
The components -Y and BY that have passed through the low-pass filter are supplied to the recording processing circuit 300.

【0100】次に、YC信号を受けた記録処理回路30
0は、それぞれの輝度信号Yおよび色差信号R−Y,B
−Yを所定の静止画圧縮方式にて圧縮して、順次メモリ
に記録する。
Next, the recording processing circuit 30 receiving the YC signal
0 is the respective luminance signal Y and color difference signals RY, B
−Y is compressed by a predetermined still image compression method, and is sequentially recorded in the memory.

【0101】メモリに記録された静止画像または動画像
を表わす画像信号からそれぞれの画像を再生する場合に
は、再生ボタン9を押下すると操作検出回路410にて
その操作を検出して、システム制御部400に検出信号
を供給する。これにより記録処理回路300が駆動され
る。駆動された記録処理回路300は、メモリから記録
内容を読み取って、液晶モニタ4に画像を表示する。操
作者は、所望の画像を選択ボタンなどの押下により選択
する。
When each image is reproduced from an image signal representing a still image or a moving image recorded in the memory, when the reproduction button 9 is pressed, the operation is detected by the operation detecting circuit 410, and the system control unit The detection signal is supplied to 400. Thereby, the recording processing circuit 300 is driven. The driven recording processing circuit 300 reads the recorded content from the memory and displays an image on the liquid crystal monitor 4. The operator selects a desired image by pressing a selection button or the like.

【0102】(第2の実施形態)第1の実施形態とは、
撮影レンズと撮像領域の位置関係を異ならせた第2の実
施形態の撮像系について説明する。
(Second Embodiment) The first embodiment is
An imaging system according to a second embodiment in which the positional relationship between the imaging lens and the imaging area is different will be described.

【0103】図20は撮像系890の詳細図である。ま
ず、絞り810は図23に示すような4つの円形開口8
10a、810b、810c、810dを有し、この各
々から撮影レンズ800の光入射面800eに入射した
物体光は、撮影レンズ800の4つのレンズ部800
a、800b、800c、800dから射出して固体撮
像素子820の撮像面上に4つの物体像を形成する。絞
り110と光入射面800eおよび固体撮像素子820
の撮像面は平行に配置されている。ここでは、撮影レン
ズ800の光入射面800eを平面としたが、4つの球
面あるいは4つの回転対称非球面で構成しても良い。
FIG. 20 is a detailed diagram of the image pickup system 890. First, the stop 810 has four circular openings 8 as shown in FIG.
10a, 810b, 810c, and 810d, from each of which the object light incident on the light incident surface 800e of the photographing lens 800 passes through four lens units 800 of the photographing lens 800.
a, 800b, 800c, and 800d to form four object images on the imaging surface of the solid-state imaging device 820. Aperture 110, light incident surface 800e, and solid-state imaging device 820
Are arranged in parallel. Here, the light incident surface 800e of the photographing lens 800 is a plane, but may be formed of four spherical surfaces or four rotationally symmetric aspheric surfaces.

【0104】4つのレンズ部800a、800b、80
0c、800dは、撮影レンズ800を光射出側から見
た図22に示すように円径の球面部を持ち、この球面部
には670nm以上の波長域について低い透過率を持た
せた赤外線カットフィルターが、また、ハッチングをか
けて示した平面部800fには遮光性膜が形成されてい
る。すなわち、撮影光学系は撮影レンズ800と絞り8
10より成り、4つのレンズ部800a、800b、8
00c、800dのそれぞれが結像系である。
Four lens units 800a, 800b, 80
Reference numerals 0c and 800d denote infrared cut filters having a spherical portion having a circular diameter as shown in FIG. 22 when the photographing lens 800 is viewed from the light exit side, and having a low transmittance in a wavelength region of 670 nm or more in the spherical portion. However, a light-shielding film is formed on the flat portion 800f indicated by hatching. That is, the photographing optical system is composed of the photographing lens 800 and the aperture 8.
10, four lens units 800a, 800b, 8
Each of 00c and 800d is an imaging system.

【0105】図24は固体撮像素子820の正面図で、
形成される4つの物体像に対応させて4つの撮像領域8
20a、820b、820c、820dを備えている。
撮像領域820a、820b、820c、820dの各
々は、縦横のピッチが2.8μmの画素を800×60
0個配列してなる2.24mm×1.68mmの領域で
あって、撮像領域全体の寸法は中央にある撮像領域の分
離帯の寸法0.3mmを含んで4.78mm×3.36
mm、また、各撮像領域の対角寸法は2.80mmとな
る。図において、851a、851b、851c、85
1dは内部に物体像が形成されるイメージサークルであ
る。イメージサークル851a、851b、851c、
851dの形状は絞りの開口と撮影レンズ800の射出
側球面部の大きさで決定される円形であり、イメージサ
ークル851a、851b、851c、851dには互
いに重なり合う部分が生じる。
FIG. 24 is a front view of the solid-state imaging device 820.
Four imaging regions 8 corresponding to the four object images to be formed
20a, 820b, 820c, and 820d.
Each of the imaging regions 820a, 820b, 820c, and 820d includes a pixel having a vertical and horizontal pitch of 2.8 μm,
It is an area of 2.24 mm x 1.68 mm formed by arranging 0 pieces, and the dimensions of the entire imaging area are 4.78 mm x 3.36 including the 0.3 mm of the separation band of the imaging area at the center.
mm, and the diagonal dimension of each imaging region is 2.80 mm. In the figure, 851a, 851b, 851c, 85
1d is an image circle in which an object image is formed. Image circles 851a, 851b, 851c,
The shape of 851d is a circle determined by the size of the aperture of the stop and the spherical portion on the exit side of the photographing lens 800, and the image circles 851a, 851b, 851c, and 851d have overlapping portions.

【0106】図20に戻って、絞り810と撮影レンズ
800に挟まれた領域のハッチングで示した部分852
a、852bは撮影レンズ800の光入射面800e上
に形成された光学フィルターである。撮影レンズ800
を光入射側から見た図21に示すように、光学フィルタ
ー852a、852b、852c、852dが絞り開口
810a、810b、810c、810dを完全に含む
範囲に形成されている。
Returning to FIG. 20, a portion 852 shown by hatching of a region between the diaphragm 810 and the photographing lens 800 is shown.
Reference numerals a and 852b denote optical filters formed on the light incident surface 800e of the photographing lens 800. Shooting lens 800
21, the optical filters 852a, 852b, 852c, 852d are formed in a range completely including the aperture openings 810a, 810b, 810c, 810d.

【0107】光学フィルター852aと852dは図6
にGで示した主に緑色を透過する分光透過率特性を有
し、光学フィルター852bはRで示した主に赤色を透
過する分光透過率特性を有し、さらに、光学フィルター
852cはBで示した主に青色を透過する分光透過率特
性を有している。すなわち、これらは原色フィルターで
ある。レンズ部800a、800b、800c、800
dに形成されている赤外線カットフィルターの特性との
積として、イメージサークル851aと851dに形成
されている物体像は緑色光成分、イメージサークル85
1bに形成されている物体像は赤色光成分、イメージサ
ークル851cに形成されている物体像は青色光成分に
よるものとなる。
The optical filters 852a and 852d are shown in FIG.
The optical filter 852b has a spectral transmittance characteristic of transmitting mainly red light indicated by R, and the optical filter 852c has a spectral transmittance characteristic of transmitting mainly red light indicated by R. It mainly has a spectral transmittance characteristic of transmitting blue light. That is, these are primary color filters. Lens parts 800a, 800b, 800c, 800
As the product of the characteristics of the infrared cut filter formed on the image circle 85d, the object images formed on the image circles 851a and 851d are green light components,
The object image formed on the image circle 1b has a red light component, and the object image formed on the image circle 851c has a blue light component.

【0108】一方、固体撮像素子820の4つの撮像領
域820a、820b、820c、820d上にもまた
光学フィルター853a、853b、853c、853
dが形成され、これらの分光透過率特性もまた図6に示
したものと同等である。つまり、撮像領域820aと8
20dは緑色光(G)に対して、撮像領域820bは赤
色光(R)に対して、撮像領域820cは青色光(B)
に対して感度を持つ。
On the other hand, the optical filters 853a, 853b, 853c, 853 are also provided on the four image pickup areas 820a, 820b, 820c, 820d of the solid-state image pickup device 820.
d are formed, and their spectral transmittance characteristics are also equivalent to those shown in FIG. That is, the imaging areas 820a and 820a
20d is for green light (G), imaging area 820b is for red light (R), and imaging area 820c is blue light (B).
Has sensitivity to

【0109】各撮像領域の受光スペクトル分布は瞳と撮
像領域の分光透過率の積として与えられるため、瞳と撮
像領域の組み合わせは波長域によって選択される。つま
り、絞りの開口810aを通過した物体光は主に撮像領
域820aで光電変換され、絞りの開口810bを通過
した物体光は主に撮像領域820bで光電変換され、絞
りの開口810cを通過した物体光は主に撮像領域82
0cで光電変換され、さらに、絞りの開口810dを通
過した物体光は主に撮像領域820dで光電変換され
る。すなわち、撮像領域820aと820dはG画像
を、撮像領域820bはR画像を、撮像領域820cは
B画像を出力することになる。このように、撮像光学系
の瞳と撮像素子に色分解のための光学フィルターを多重
使用すると、色純度を高めることができる。
Since the light receiving spectrum distribution of each imaging region is given as the product of the pupil and the spectral transmittance of the imaging region, the combination of the pupil and the imaging region is selected according to the wavelength range. That is, the object light that has passed through the aperture 810a of the aperture is mainly photoelectrically converted in the imaging area 820a, the object light that has passed through the aperture 810b of the aperture is mainly photoelectrically converted in the imaging area 820b, and the object that has passed through the aperture 810c of the aperture. Light is mainly emitted from the imaging area 82.
The object light which is photoelectrically converted at 0c and further passes through the aperture 810d of the stop is photoelectrically converted mainly at the imaging region 820d. That is, the imaging regions 820a and 820d output a G image, the imaging region 820b outputs an R image, and the imaging region 820c outputs a B image. As described above, by using multiple optical filters for color separation in the pupil of the imaging optical system and the imaging device, the color purity can be increased.

【0110】なお、撮像領域間の分離帯は撮像領域82
0aと820dが何れもG画像信号を得ているので、こ
の間にイメージサークルのオーバーラップが生じないよ
うにするためのものである。
The separation band between the image pickup areas corresponds to the image pickup area 82.
Since both 0a and 820d have obtained the G image signal, the overlap of the image circles is prevented during this time.

【0111】画像処理系20は、固体撮像素子820の
複数の撮像領域が、各々、前記複数の画像の一つから得
た選択的光電変換出力に基づいてカラー画像を形成す
る。この際、比視感度のピーク波長は555nmである
ので、この波長を含むG画像信号を基準として信号処理
を行う。G物体像は2つの撮像領域820aと820d
に形成されるため、その画素数はR画像信号やB画像信
号に比べて2倍となり、視感度の高い波長域で特に高精
細な画像を得ることができるようになっている。
In the image processing system 20, a plurality of imaging regions of the solid-state imaging device 820 each form a color image based on a selective photoelectric conversion output obtained from one of the plurality of images. At this time, since the peak wavelength of the relative luminous efficiency is 555 nm, signal processing is performed based on the G image signal including this wavelength. The G object image has two imaging regions 820a and 820d
Therefore, the number of pixels is twice as large as that of the R image signal and the B image signal, so that a particularly high-definition image can be obtained in a wavelength region having high visibility.

【0112】なお、この際、後述する物体距離や温度変
化による像間隔の変動とは別に、固体撮像素子の撮像領
域820aと820dを相互に上下左右に1/2画素ず
らすことにより、少ない画素数で解像度を上げる画素ず
らしという手法を用いる。1/2画素ずらし量は仮想被
写体距離2mに対して設定する。
At this time, apart from the fluctuation of the image interval due to a change in the object distance and the temperature, which will be described later, the image pickup areas 820a and 820d of the solid-state image pickup device are shifted by half a pixel up, down, left, and right to reduce the number of pixels. A technique of shifting the pixel to increase the resolution is used. The 1/2 pixel shift amount is set for a virtual subject distance of 2 m.

【0113】この画素ずらしは、撮影レンズ800のレ
ンズ部800dをレンズ部800aに対して僅かに偏心
させることで実現しても、個体撮像素子820の撮像領
域820dを撮像領域820aに対して僅かに偏心させ
ることで実現してもよい。
Even if this pixel shift is realized by slightly decentering the lens portion 800d of the photographing lens 800 with respect to the lens portion 800a, the imaging region 820d of the solid-state image sensor 820 is slightly shifted with respect to the imaging region 820a. It may be realized by eccentricity.

【0114】撮像系は4つのレンズ部を有するために、
被写体距離に応じて4つの物体像の位置が相対的に変化
する。前述のように各撮像領域は2.24mm×1.6
8mmであって、これらのうち2つずつは長辺を接する
ように隣接して配置され、この2組はさらに0.3mm
の分離帯を隔てて並列している。したがって、隣り合う
撮像領域の中心間隔は縦方向に1.68mm、横方向に
2.54mmである。また、最も離れた撮像領域は対角
方向に位置する撮像領域820aと820d、および、
撮像領域820bと820cとなり、この距離は何れも
3.045mmである。
Since the imaging system has four lens units,
The positions of the four object images relatively change according to the subject distance. As described above, each imaging area is 2.24 mm × 1.6.
8 mm, and two of them are arranged adjacent to each other so that the long sides are in contact with each other.
Are separated by a separator. Therefore, the center interval between adjacent imaging regions is 1.68 mm in the vertical direction and 2.54 mm in the horizontal direction. The farthest imaging areas are imaging areas 820a and 820d located diagonally, and
The imaging areas are 820b and 820c, and this distance is 3.045 mm.

【0115】後述するYC処理回路230では、物体像
の中心と撮像領域の中心が一致しているものとして信号
処理を行う。撮像領域820aと820dに注目して、
仮想被写体距離2mにある物体像を撮像領域間隔と同じ
3.045mmで撮像部上に形成するとすれば、図25
に示すように撮影レンズ800のレンズ部800a、8
00dの間隔を3.0420mmに設定することにな
る。図において矢印855a、855dは、撮影レンズ
800のレンズ部800a、800dによる正のパワー
を有する結像系を表す記号、矩形856a、856dは
撮像領域820a、820dの範囲を表す記号、L80
1、L802は結像系855a、855dの光軸であ
る。撮影レンズ800の光入射面800eは平面、光射
出面であるところのレンズ部800a、800dは球面
であるので、各球心を通って光入射面に垂直な直線が光
軸となる。
The YC processing circuit 230, which will be described later, performs signal processing on the assumption that the center of the object image matches the center of the imaging area. Paying attention to the imaging areas 820a and 820d,
Assuming that an object image at a virtual subject distance of 2 m is formed on the imaging unit at 3.045 mm, which is the same as the imaging area interval, FIG.
As shown in FIG.
The interval of 00d is set to 3.0420 mm. In the figure, arrows 855a and 855d denote symbols representing an imaging system having positive power by the lens units 800a and 800d of the photographing lens 800, rectangles 856a and 856d denote symbols representing ranges of the imaging regions 820a and 820d, and L80.
1, L802 is the optical axis of the imaging system 855a, 855d. Since the light-incident surface 800e of the photographing lens 800 is a flat surface and the lens portions 800a and 800d, which are light-exit surfaces, are spherical, a straight line passing through each sphere and perpendicular to the light-incident surface is the optical axis.

【0116】このとき、無限遠物体の像は図26に示す
ようにレンズ部800a、800dと同一の間隔で形成
されるため、G物体像同士の間隔は3.0420mmで
ある。したがって、撮像領域の中心間隔3.045mm
よりも若干狭く、この差ΔYは0.0030mmすなわ
ち3.0μmである。このようなG物体像同士の間隔変
化は、解像度の低下として現れる。
At this time, since the images of the object at infinity are formed at the same interval as the lens units 800a and 800d as shown in FIG. 26, the interval between the G object images is 3.0420 mm. Therefore, the center interval of the imaging region is 3.045 mm
This difference ΔY is 0.0030 mm, that is, 3.0 μm. Such a change in the interval between the G object images appears as a decrease in resolution.

【0117】また、撮像領域820bと820cに注目
すれば、同様にΔYは3.0μmとなって、この寸法だ
け無限遠物体では色ズレが発生することになる。したが
って、G物体像同士の間隔変化とR物体像とB物体像の
ズレという2つの問題について考慮しなければならな
い。
Further, focusing on the image pickup areas 820b and 820c, ΔY is also 3.0 μm, and a color shift occurs at an object at infinity by this dimension. Therefore, two problems, that is, a change in the distance between the G object images and a deviation between the R object image and the B object image must be considered.

【0118】ただし、G物体像に対しては比視感度が高
く僅かな解像度の低下でも認識可能であるため、まず、
G物体像同士の間隔変化に注目して、これが許容できる
レベルであれば、R物体像とB物体像のズレが問題にな
ることはないと言える。
However, since the relative luminous efficiency of the G object image is high and a slight decrease in resolution can be recognized, first,
Paying attention to the change in the interval between the G object images, if this is an acceptable level, it can be said that the deviation between the R object image and the B object image does not matter.

【0119】一般に、撮影画面の中央には人物等の近距
離物体が位置し、画面の周辺に遠距離の物体が位置する
ことが多いこと、さらに、画面の周辺では撮影レンズの
収差が増大して画像性能が低下することから、G物体像
同士の最大像間隔変化が画素ピッチの2倍よりも小さけ
れば、実用上の問題はない。固体撮像素子820の画素
ピッチPは2.8μmであるので、ΔY<2×Pとな
り、この程度の無限遠像の像間隔変化は許容可能なレベ
ルであることが分かる。
In general, a short-distance object such as a person is located at the center of the photographing screen, and a long-distance object is often located around the screen. In addition, the aberration of the photographing lens increases around the screen. Therefore, if the maximum image interval change between the G object images is smaller than twice the pixel pitch, there is no practical problem. Since the pixel pitch P of the solid-state imaging device 820 is 2.8 μm, ΔY <2 × P, and it can be seen that such a change in the image interval of the infinite image is at an acceptable level.

【0120】したがって、R物体像とB物体像のズレも
許容可能なレベルであって、この撮像系は実用上十分な
性能を備えていると判定できる。
Therefore, the deviation between the R object image and the B object image is also at an acceptable level, and it can be determined that this imaging system has practically sufficient performance.

【0121】(第3の実施形態)図27は撮像系の第3
の実施形態を示す断面図である。撮像系890の絞り1
10、撮影レンズ100は第1の実施形態と同一であ
る。
(Third Embodiment) FIG. 27 shows a third embodiment of the image pickup system.
FIG. 2 is a cross-sectional view showing the embodiment. Aperture 1 of imaging system 890
10. The taking lens 100 is the same as in the first embodiment.

【0122】また、図28は固体撮像素子820の正面
図で、固体撮像素子820上には図2に示した第1の実
施形態と同様にイメージサークル51a、51b、51
cが形成され、イメージサークル51aと51b、およ
び、イメージサークル51b、51cには互いに重なり
合う部分が生じる。
FIG. 28 is a front view of the solid-state imaging device 820. Image circles 51a, 51b, and 51 are formed on the solid-state imaging device 820 in the same manner as in the first embodiment shown in FIG.
c is formed, and the image circles 51a and 51b and the image circles 51b and 51c have overlapping portions.

【0123】第1の実施形態とは異なって、撮像領域8
20a、820b、820cの上にはマイクロレンズ8
21が各画素の受光部(例えば822a、822b)毎
に形成され、その代わり、緑色、赤色、青色を透過する
光学フィルターが固体撮像素子820には形成されてい
ない。なお、マイクロレンズの説明のために、撮像領域
間の画素ずらしを省略して示した。
Unlike the first embodiment, the imaging area 8
The microlens 8 is placed on top of 20a, 820b and 820c.
Reference numeral 21 is formed for each light receiving section (for example, 822a and 822b) of each pixel. Instead, an optical filter that transmits green, red, and blue is not formed in the solid-state imaging device 820. Note that, for description of the microlens, the pixel shift between the imaging regions is omitted.

【0124】マイクロレンズ821は固体撮像素子82
0の受光部に対して偏心した配置をとり、その偏心量は
各撮像領域820a、820b、820cの中央でゼ
ロ、周辺に行くほど大きくなるように設定されている。
また、偏心方向は各撮像領域820a、820b、82
0cの中央の点と各受光部を結ぶ線分の方向である。
The micro lens 821 is a solid-state image sensor 82
The eccentric arrangement is set with respect to the zero light receiving unit, and the amount of eccentricity is set to zero at the center of each of the imaging regions 820a, 820b, and 820c, and to increase toward the periphery.
Further, the eccentric direction is determined in each of the imaging regions 820a, 820b, 82
0c is the direction of the line segment connecting the center point and each light receiving section.

【0125】図29はこのマイクロレンズの作用を説明
するための図で、撮像領域820aと撮像領域820b
が接する位置にある受光部822a、822bを拡大し
て示した断面図である。受光部822aに対してマイク
ロレンズ821aは図の上方に偏心し、他方、受光部8
22bに対してマイクロレンズ821bは図の下方に偏
心している。この結果、受光部822aに入射する光束
は、823aとしてハッチングで示した領域に、受光部
822bに入射する光束は、823bとしてハッチング
で示した領域に限定される。
FIG. 29 is a diagram for explaining the operation of the microlens, and includes an image pickup area 820a and an image pickup area 820b.
FIG. 11 is an enlarged cross-sectional view of light receiving portions 822a and 822b at positions where the light receiving portions contact. The micro lens 821a is decentered upward in the figure with respect to the light receiving unit 822a.
The micro lens 821b is eccentric to the lower side of FIG. As a result, the light beam incident on the light receiving section 822a is limited to the area indicated by hatching as 823a, and the light beam incident on the light receiving section 822b is limited to the area indicated by hatching as 823b.

【0126】光束の領域823aと823bの傾斜方向
は反対向きで、それぞれはレンズ部100aと100b
に向かっている。したがって、マイクロレンズの偏心量
を適切に選べば、各撮像領域へは特定の瞳を射出した光
束だけが入射することになる。つまり、絞りの開口11
0aを通過した物体光は主に撮像領域820aで光電変
換され、絞りの開口110bを通過した物体光は主に撮
像領域820bで光電変換され、さらに、絞りの開口1
10cを通過した物体光は主に撮像領域820cで光電
変換されるように偏心量を設定することができる。固体
撮像素子820上には光学フィルターを設けてあるの
で、すなわち、撮像領域820aはG画像を、撮像領域
820bはR画像を、撮像領域820cはB画像を出力
することになる。
The directions of inclination of the light flux regions 823a and 823b are opposite to each other.
Heading to Therefore, if the amount of eccentricity of the microlens is appropriately selected, only a light beam emitted from a specific pupil enters each imaging region. That is, the aperture 11 of the diaphragm
Object light that has passed through the aperture 0a is mainly photoelectrically converted in the imaging area 820a, object light that has passed through the aperture 110b of the aperture is mainly photoelectrically converted in the imaging area 820b, and
The amount of eccentricity can be set so that the object light that has passed through 10c is photoelectrically converted mainly in the imaging region 820c. Since an optical filter is provided on the solid-state imaging device 820, that is, the imaging region 820a outputs a G image, the imaging region 820b outputs an R image, and the imaging region 820c outputs a B image.

【0127】固体撮像素子の画素ピッチを固定して考え
ると、固体撮像素子上に例えば2×2画素を一組とした
RGBカラーフィルターを形成して画素の一つ一つに波
長選択性を付与し、これによって物体像をRGBの各画
像に分離する一般のデジタルカラーカメラに採用されて
いる方式に比較して、物体像の大きさが1/√3にな
り、これに伴って撮影レンズの焦点距離はおおよそ1/
√3となる。したがって、カメラの薄型化に対して極め
て有利である。
Assuming that the pixel pitch of the solid-state imaging device is fixed, an RGB color filter having a set of, for example, 2 × 2 pixels is formed on the solid-state imaging device to impart wavelength selectivity to each of the pixels. This reduces the size of the object image to 1 / √3 as compared with the method used in a general digital color camera that separates an object image into RGB images. The focal length is approximately 1 /
$ 3. Therefore, it is extremely advantageous for reducing the thickness of the camera.

【0128】さらに、物体像のスペクトルに基づいて選
択的に画像を光電変換する第1の実施形態では、互いに
オーバーラップする波長域が広いシアン、マゼンタ、イ
エローの補色光学フィルターを使用することができなか
ったが、このようにマイクロレンズの偏心によって選択
的に画像を光電変換するば、波長域のオーバーラップは
無関係となり補色光学フィルターを使用することも可能
である。補色光学フィルターを使用すると、原色フィル
ターに比べて固体撮像素子に到達する光量を増大させる
ことができる。
Furthermore, in the first embodiment in which an image is selectively photoelectrically converted based on the spectrum of an object image, complementary color optical filters of cyan, magenta, and yellow having a wide overlapping wavelength range can be used. However, if the image is selectively photoelectrically converted by the eccentricity of the microlens as described above, the overlapping of the wavelength ranges becomes irrelevant and a complementary color optical filter can be used. When the complementary color optical filter is used, the amount of light reaching the solid-state imaging device can be increased as compared with the primary color filter.

【0129】また、このようにマイクロレンズの偏心に
よって画像を選択する場合には、光学フィルターを撮影
レンズ100の光入射面100dに設ける代わりに固体
撮像素子820上に設けてもよい。光学フィルターの配
置に関わらず、第1の実施形態の光学フィルターを2重
に通す撮影光路や、第2の実施形態の偏光板を用いる撮
影光路に比べ、光量的に極めて有利である。さらには、
撮影レンズ100の光入射面100eと固体撮像素子8
20上の両方に設けて、画像のクロストークをさらに低
減することも可能である。
When an image is selected based on the eccentricity of the microlens, an optical filter may be provided on the solid-state image sensor 820 instead of providing the optical filter on the light incident surface 100d of the taking lens 100. Irrespective of the arrangement of the optical filter, it is extremely advantageous in terms of light quantity as compared with the photographing optical path in which the optical filter of the first embodiment is passed twice or the photographing optical path using the polarizing plate of the second embodiment. Moreover,
Light incident surface 100e of photographing lens 100 and solid-state image sensor 8
It is also possible to further reduce the crosstalk of the image by providing both on the top 20.

【0130】[0130]

【他の実施形態】また、本発明の目的は、前述した実施
形態の機能を実現するソフトウェアのプログラムコード
を記録した記憶媒体(または記録媒体)を、システムあ
るいは装置に供給し、そのシステムあるいは装置のコン
ピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行
い、その処理によって前述した実施形態の機能が実現さ
れる場合も含まれることは言うまでもない。
Further, another object of the present invention is to supply a storage medium (or a recording medium) on which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and to provide the system or the apparatus. It is needless to say that the present invention can also be achieved by a computer (or CPU or MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. When the computer executes the readout program codes, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instructions of the program codes. It goes without saying that a case where some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing is also included.

【0131】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, the program code is read based on the instruction of the program code. , The CPU provided in the function expansion card or the function expansion unit performs part or all of the actual processing,
It goes without saying that a case where the functions of the above-described embodiments are realized by the processing is also included.

【0132】以上説明したように、外光を異なる位置か
ら取り込むための複数の開口と、前記複数の開口より取
り込んだ外光をそれぞれ別個に受光し、該別個に受光す
る外光ごとに所定の色成分を抽出する複数の撮像手段と
を有することを特徴とする撮像装置により、次の効果が
得られた。
As described above, a plurality of openings for taking in external light from different positions, the external light taken in from the plurality of openings are separately received, and a predetermined number of external light are received for each of the separately received external light. The following effects were obtained by an imaging apparatus having a plurality of imaging means for extracting color components.

【0133】(1)再結像系を必要としないために、短
い光路長の撮像光学系を得ることができた。
(1) Since no re-imaging system is required, an imaging optical system having a short optical path length can be obtained.

【0134】(2)各色の画像のディストーションを揃
えることが容易であるので、3眼あるいは4眼の1枚玉
光学系といった極めて簡単な光学構成を得ることができ
た。
(2) Since it is easy to equalize the distortion of the images of each color, an extremely simple optical configuration such as a three-lens or four-lens single-lens optical system could be obtained.

【0135】(3)各結像系が受け持つ波長域が狭いこ
とから色収差が発生しにくく、色消しのために複数のレ
ンズを組み合わせる必要がない。
(3) Since each imaging system has a narrow wavelength range, chromatic aberration hardly occurs, and there is no need to combine a plurality of lenses for achromatism.

【0136】(4)しかも、撮像領域の中心と各結像系
の光軸がほぼ一致しているために、非対称型の光学収差
は発生せず、合成したカラー画像で高い鮮鋭度を得るこ
とができた。
(4) In addition, since the center of the imaging region and the optical axis of each imaging system are substantially coincident with each other, no asymmetrical optical aberration occurs, and high sharpness can be obtained in the synthesized color image. Was completed.

【0137】(5)この結果、カード型のデジタルカラ
ーカメラに好適な薄型の撮像装置を実現することができ
た。カードの厚み方向に撮影光軸を設定できるので、カ
ラー液晶モニタ4の視認方向やファインダー接眼窓11
の観察方向と撮影光軸とを一致させることができ、カメ
ラの操作性上たいへん好ましい。
(5) As a result, a thin imaging device suitable for a card-type digital color camera can be realized. Since the photographing optical axis can be set in the thickness direction of the card, the viewing direction of the color LCD monitor 4 and the viewfinder eyepiece window 11 can be set.
The observation direction can be made to coincide with the photographing optical axis, which is very preferable in terms of camera operability.

【0138】[0138]

【発明の効果】以上説明したように、本発明によれば、
簡単な構成で短い光路長の撮像光学系を用いて、鮮鋭度
の高いカラー画像を得ることができる。
As described above, according to the present invention,
A color image with high sharpness can be obtained using a simple configuration and an imaging optical system having a short optical path length.

【図面の簡単な説明】[Brief description of the drawings]

【図1】撮像系の断面図である。FIG. 1 is a sectional view of an imaging system.

【図2】固体撮像素子の正面図である。FIG. 2 is a front view of the solid-state imaging device.

【図3】絞りの平面図である。FIG. 3 is a plan view of a diaphragm.

【図4】光学フィルターの形成範囲を表す図である。FIG. 4 is a diagram illustrating a formation range of an optical filter.

【図5】撮影レンズを光射出側から見た図である。FIG. 5 is a view of the photographing lens as viewed from a light exit side.

【図6】光学フィルターの分光透過率特性を表す図であ
る。
FIG. 6 is a diagram illustrating a spectral transmittance characteristic of an optical filter.

【図7】色純度補正フィルタの分光透過率特性を表す図
である。
FIG. 7 is a diagram illustrating a spectral transmittance characteristic of a color purity correction filter.

【図8】フォトクロミックガラスの分光透過率特性を表
す図である。
FIG. 8 is a diagram showing a spectral transmittance characteristic of the photochromic glass.

【図9】透過率分布型フィルターの透過率分布を表す図
である。
FIG. 9 is a diagram illustrating a transmittance distribution of a transmittance distribution type filter.

【図10】撮影レンズのOTF特性を表す図である。FIG. 10 is a diagram illustrating OTF characteristics of a photographing lens.

【図11】点像の輝度分布を表す図である。FIG. 11 is a diagram illustrating a luminance distribution of a point image.

【図12】レンズ部の間隔設定を説明するための図であ
る。
FIG. 12 is a diagram for explaining setting of the distance between lens units.

【図13】無限遠物体の像の位置を説明するための図で
ある。
FIG. 13 is a diagram for explaining the position of an image of an object at infinity.

【図14】信号処理系のブロック図である。FIG. 14 is a block diagram of a signal processing system.

【図15】G画像用の撮像領域に対するR画素用の撮像
領域とB画素用の撮像領域の位置関係を示す図である。
FIG. 15 is a diagram illustrating a positional relationship between an imaging region for an R pixel and an imaging region for a B pixel with respect to an imaging region for a G image.

【図16】補間処理の説明図である。FIG. 16 is an explanatory diagram of an interpolation process.

【図17】デジタルカラーカメラの正面図である。FIG. 17 is a front view of the digital color camera.

【図18】デジタルカラーカメラの裏面図である。FIG. 18 is a rear view of the digital color camera.

【図19】図18の矢印Aの位置での断面図である。19 is a cross-sectional view at the position of arrow A in FIG.

【図20】撮像系の詳細図である。FIG. 20 is a detailed diagram of an imaging system.

【図21】撮影レンズを光入射側から見た図である。FIG. 21 is a diagram of the photographing lens viewed from the light incident side.

【図22】撮影レンズを光射出側から見た図である。FIG. 22 is a view of the taking lens as viewed from a light exit side.

【図23】絞りの平面図である。FIG. 23 is a plan view of the stop.

【図24】固体撮像素子の正面図である。FIG. 24 is a front view of the solid-state imaging device.

【図25】レンズ部の間隔設定を説明するための図であ
る。
FIG. 25 is a diagram for explaining setting of the distance between lens units.

【図26】無限遠物体の像の位置を説明するための図で
ある。
FIG. 26 is a diagram for explaining the position of an image of an object at infinity.

【図27】第3の実施形態における撮像系の断面図であ
る。
FIG. 27 is a sectional view of an imaging system according to the third embodiment.

【図28】第3の実施形態における固体撮像素子の正面
図である。
FIG. 28 is a front view of the solid-state imaging device according to the third embodiment.

【図29】マイクロレンズの作用説明図である。FIG. 29 is a diagram illustrating the operation of a microlens.

【符号の説明】[Explanation of symbols]

1 カメラ本体 51a,51b,51c イメージサークル 52a,52b,52c 撮影レンズ上に形成された光
学フィルター 53a,53b,53c 固体撮像素子上に形成された
光学フィルター 54a,54b,54c 透過率分布型フィルター 100 撮影レンズ 100a,100b,100c 撮影レンズのレンズ部 110 絞り 120 固体撮像素子
1 Camera body 51a, 51b, 51c Image circle 52a, 52b, 52c Optical filters 53a, 53b, 53c formed on photographing lens Optical filters 54a, 54b, 54c formed on solid-state imaging device Transmittance distribution type filter 100 Photographing lenses 100a, 100b, 100c Lens part of photographing lens 110 Aperture 120 Solid-state image sensor

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 外光を異なる位置から取り込むための複
数の開口と、 前記複数の開口より取り込んだ外光をそれぞれ別個に受
光し、該別個に受光する外光ごとに所定の色成分を抽出
する複数の撮像手段と、を具備することを特徴とする撮
像装置。
1. A plurality of openings for taking in external light from different positions, and separately receiving external light taken in from the plurality of openings, and extracting a predetermined color component for each of the separately received external light. An imaging device comprising:
【請求項2】 前記複数の撮像手段は、前記開口から取
り込んだ外光をそれぞれ結像させるための複数の光学系
を備えることを特徴とする請求項1に記載の撮像装置。
2. The image pickup apparatus according to claim 1, wherein the plurality of image pickup units include a plurality of optical systems for forming an image of the external light taken in from the opening.
【請求項3】 前記複数の光学系は、それぞれ単レンズ
を備えることを特徴とする請求項2に記載の撮像装置。
3. The imaging apparatus according to claim 2, wherein each of the plurality of optical systems includes a single lens.
【請求項4】 前記複数の光学系とは、3つの光学系で
あり、該3つの光学系に対応する3つの単レンズは、そ
れぞれ、赤色光を透過させる光学フィルターと、緑色光
を透過させる光学フィルターと、青色光を透過させる光
学フィルターを備えることを特徴とする請求項3に記載
の撮像装置。
4. The plurality of optical systems are three optical systems, and three single lenses corresponding to the three optical systems respectively include an optical filter that transmits red light and a green filter that transmits green light. The imaging device according to claim 3, further comprising an optical filter and an optical filter that transmits blue light.
【請求項5】 前記複数の光学系を構成する複数の単レ
ンズは、ガラス材料又は樹脂材料を成形することにより
一体的に形成されていることを特徴とする請求項3に記
載の撮像装置。
5. The imaging apparatus according to claim 3, wherein the plurality of single lenses constituting the plurality of optical systems are integrally formed by molding a glass material or a resin material.
【請求項6】 前記複数の単レンズを一体成形した成形
体の、前記複数の単レンズの間の部位には、遮光膜が形
成されていることを特徴とする請求項5に記載の撮像装
置。
6. The imaging apparatus according to claim 5, wherein a light-shielding film is formed at a portion between the plurality of single lenses in a molded body obtained by integrally molding the plurality of single lenses. .
【請求項7】 前記複数の単レンズは、赤外線カットフ
ィルターを備えることを特徴とする請求項3に記載の撮
像装置。
7. The imaging device according to claim 3, wherein the plurality of single lenses include an infrared cut filter.
【請求項8】 前記複数の撮像手段は、前記複数の開口
のそれぞれに対応する複数の撮像領域を有する1つの撮
像素子を備えることを特徴とする請求項1に記載の撮像
装置。
8. The imaging apparatus according to claim 1, wherein the plurality of imaging units include one imaging device having a plurality of imaging regions corresponding to each of the plurality of openings.
【請求項9】 前記複数の撮像領域とは、3つの撮像領
域であり、該3つの撮像領域は、それぞれ赤色光を透過
させる光学フィルターと、緑色光を透過させる光学フィ
ルターと、青色光を透過させる光学フィルターを備える
ことを特徴とする請求項8に記載の撮像装置。
9. The plurality of imaging regions are three imaging regions, each of which includes an optical filter that transmits red light, an optical filter that transmits green light, and a blue filter that transmits blue light. The imaging device according to claim 8, further comprising an optical filter that causes the light to be filtered.
【請求項10】 前記複数の撮像手段は、前記複数の開
口に対応する複数の絞りを備えることを特徴とする請求
項1に記載の撮像装置。
10. The imaging apparatus according to claim 1, wherein the plurality of imaging units include a plurality of diaphragms corresponding to the plurality of apertures.
JP2000325589A 2000-10-25 2000-10-25 Imaging apparatus Withdrawn JP2002135796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000325589A JP2002135796A (en) 2000-10-25 2000-10-25 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000325589A JP2002135796A (en) 2000-10-25 2000-10-25 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2002135796A true JP2002135796A (en) 2002-05-10

Family

ID=18802934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000325589A Withdrawn JP2002135796A (en) 2000-10-25 2000-10-25 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2002135796A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005059607A1 (en) * 2003-12-18 2005-06-30 Matsushita Electric Industrial Co., Ltd. Collective element and solid-state imaging device
WO2005101067A1 (en) * 2004-04-13 2005-10-27 Matsushita Electric Industrial Co., Ltd. Condensing element and solid state imaging device
JP2006156898A (en) * 2004-12-01 2006-06-15 Fuji Film Microdevices Co Ltd Solid-state imaging element and device thereof
US7157690B2 (en) 2004-03-31 2007-01-02 Matsushita Electric Industrial Co., Ltd. Imaging device with triangular photodetector array for use in imaging
JP2007520166A (en) * 2004-01-26 2007-07-19 ディジタル・オプティックス・コーポレイション Thin camera with sub-pixel resolution
JP2007520107A (en) * 2003-12-18 2007-07-19 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Color image sensor having an image sensor for forming an image on each area of the sensor element
JP2007520108A (en) * 2003-12-18 2007-07-19 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Color image sensor having an image sensor array for forming an image on each area of the sensor element
JP2008011532A (en) * 2006-06-26 2008-01-17 Samsung Electro Mech Co Ltd Method and apparatus for restoring image
JP2008011529A (en) * 2006-06-26 2008-01-17 Samsung Electro Mech Co Ltd Apparatus and method of recovering high pixel image
JP2009529291A (en) * 2006-03-06 2009-08-13 マイクロン テクノロジー, インク. Combined multi-array color image sensor
JP2009278577A (en) * 2008-05-19 2009-11-26 Acutelogic Corp Color imaging device
US7663084B2 (en) 2005-06-17 2010-02-16 Panasonic Corporation Solid-state imager and solid-state imaging apparatus having a modulated effective refractive index distribution and manufacturing method thereof
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
WO2012066741A1 (en) * 2010-11-16 2012-05-24 株式会社ニコン Multiband camera, and multiband image capturing method
JP5001471B1 (en) * 2011-04-22 2012-08-15 パナソニック株式会社 Imaging apparatus, imaging system, and imaging method
WO2012143983A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Image capture device, imgae capture system, and image capture method
WO2013001709A1 (en) * 2011-06-27 2013-01-03 パナソニック株式会社 Image pickup apparatus
JP2013157606A (en) * 2013-02-08 2013-08-15 Toshiba Corp Solid state imaging device
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
US8953087B2 (en) 2004-04-08 2015-02-10 Flir Systems Trading Belgium Bvba Camera system and associated methods
JP2019029913A (en) * 2017-08-01 2019-02-21 キヤノン株式会社 Imaging apparatus

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100397105C (en) * 2003-12-18 2008-06-25 松下电器产业株式会社 Collective element and solid-state imaging device
JP2007520107A (en) * 2003-12-18 2007-07-19 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Color image sensor having an image sensor for forming an image on each area of the sensor element
US7851837B2 (en) 2003-12-18 2010-12-14 Panasonic Corporation Light-collecting device and solid-state imaging apparatus
WO2005059607A1 (en) * 2003-12-18 2005-06-30 Matsushita Electric Industrial Co., Ltd. Collective element and solid-state imaging device
JP2007520108A (en) * 2003-12-18 2007-07-19 アバゴ・テクノロジーズ・ジェネラル・アイピー(シンガポール)プライベート・リミテッド Color image sensor having an image sensor array for forming an image on each area of the sensor element
JP2007520166A (en) * 2004-01-26 2007-07-19 ディジタル・オプティックス・コーポレイション Thin camera with sub-pixel resolution
KR101227544B1 (en) * 2004-01-26 2013-01-31 디지털옵틱스 코포레이션 이스트 Thin camera having sub-pixel resolution
JP2012070431A (en) * 2004-01-26 2012-04-05 Digital Optics Corp Thin camera with sub-pixel resolution
JP4797151B2 (en) * 2004-01-26 2011-10-19 テッセラ・ノース・アメリカ・インコーポレイテッド Thin camera with sub-pixel resolution
JP2011072039A (en) * 2004-01-26 2011-04-07 Digital Optics Corp Thin camera having sub-pixel resolution
US7157690B2 (en) 2004-03-31 2007-01-02 Matsushita Electric Industrial Co., Ltd. Imaging device with triangular photodetector array for use in imaging
US8953087B2 (en) 2004-04-08 2015-02-10 Flir Systems Trading Belgium Bvba Camera system and associated methods
WO2005101067A1 (en) * 2004-04-13 2005-10-27 Matsushita Electric Industrial Co., Ltd. Condensing element and solid state imaging device
US8018508B2 (en) 2004-04-13 2011-09-13 Panasonic Corporation Light-collecting device and solid-state imaging apparatus
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
JP2006156898A (en) * 2004-12-01 2006-06-15 Fuji Film Microdevices Co Ltd Solid-state imaging element and device thereof
US7663084B2 (en) 2005-06-17 2010-02-16 Panasonic Corporation Solid-state imager and solid-state imaging apparatus having a modulated effective refractive index distribution and manufacturing method thereof
US7692129B2 (en) 2005-06-17 2010-04-06 Panasonic Corporation Solid-state imaging device with light-collecting device having sub-wavelength periodic structure, solid-state imaging apparatus and manufacturing method thereof
JP2009529291A (en) * 2006-03-06 2009-08-13 マイクロン テクノロジー, インク. Combined multi-array color image sensor
JP2008011532A (en) * 2006-06-26 2008-01-17 Samsung Electro Mech Co Ltd Method and apparatus for restoring image
JP2008011529A (en) * 2006-06-26 2008-01-17 Samsung Electro Mech Co Ltd Apparatus and method of recovering high pixel image
JP2009278577A (en) * 2008-05-19 2009-11-26 Acutelogic Corp Color imaging device
WO2012066741A1 (en) * 2010-11-16 2012-05-24 株式会社ニコン Multiband camera, and multiband image capturing method
JP5418932B2 (en) * 2010-11-16 2014-02-19 株式会社ニコン Multiband camera and multiband image capturing method
CN102907102A (en) * 2011-04-22 2013-01-30 松下电器产业株式会社 Image capture device, imgae capture system, and image capture method
WO2012143983A1 (en) * 2011-04-22 2012-10-26 パナソニック株式会社 Image capture device, imgae capture system, and image capture method
CN102907102B (en) * 2011-04-22 2015-04-01 松下电器产业株式会社 Image capture device, imgae capture system, and image capture method
JP5001471B1 (en) * 2011-04-22 2012-08-15 パナソニック株式会社 Imaging apparatus, imaging system, and imaging method
US8854525B2 (en) 2011-04-22 2014-10-07 Panasonic Corporation Imaging device, imaging system, and imaging method
US8717483B2 (en) 2011-04-22 2014-05-06 Panasonic Corporation Imaging device, imaging system, and imaging method
JP5144841B1 (en) * 2011-06-27 2013-02-13 パナソニック株式会社 Imaging device
WO2013001709A1 (en) * 2011-06-27 2013-01-03 パナソニック株式会社 Image pickup apparatus
JP2014006079A (en) * 2012-06-21 2014-01-16 Olympus Corp Imaging module and imaging device
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
US9494768B2 (en) 2012-06-21 2016-11-15 Olympus Corporation Image capturing module and image capturing apparatus
JP2013157606A (en) * 2013-02-08 2013-08-15 Toshiba Corp Solid state imaging device
JP2019029913A (en) * 2017-08-01 2019-02-21 キヤノン株式会社 Imaging apparatus

Similar Documents

Publication Publication Date Title
US6882368B1 (en) Image pickup apparatus
US6859229B1 (en) Image pickup apparatus
US6833873B1 (en) Image pickup apparatus
JP2002135796A (en) Imaging apparatus
US7847843B2 (en) Image sensing apparatus and its control method, control program, and storage medium for correcting position deviation of images
US7112779B2 (en) Optical apparatus and beam splitter
JP2002209226A (en) Image pickup device
JP3703424B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND STORAGE MEDIUM
US6980248B1 (en) Image pickup apparatus
EP0618470B1 (en) Image pickup optical system
JP3397758B2 (en) Imaging device
US6885404B1 (en) Image pickup apparatus
JP3397754B2 (en) Imaging device
JP4083355B2 (en) Imaging device
JP3397755B2 (en) Imaging device
JP5781021B2 (en) LENS DEVICE AND IMAGING DEVICE
JP3990081B2 (en) Electronic imaging apparatus and imaging optical system
JP3397757B2 (en) Imaging device
JP3397756B2 (en) Imaging device
JP2004157059A (en) Imaging device and lens optical system
JP2002158913A (en) Image pickup device and method therefor
US7474349B2 (en) Image-taking apparatus
JP2000333060A (en) Digital camera and storage medium for image signal processing
JP2000330012A (en) Digital camera
JP2002320128A (en) Card-type camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108