JP2009141791A - Method of manufacturing imaging apparatus - Google Patents

Method of manufacturing imaging apparatus Download PDF

Info

Publication number
JP2009141791A
JP2009141791A JP2007317450A JP2007317450A JP2009141791A JP 2009141791 A JP2009141791 A JP 2009141791A JP 2007317450 A JP2007317450 A JP 2007317450A JP 2007317450 A JP2007317450 A JP 2007317450A JP 2009141791 A JP2009141791 A JP 2009141791A
Authority
JP
Japan
Prior art keywords
imaging
focus detection
image
center
focal plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007317450A
Other languages
Japanese (ja)
Other versions
JP5029334B2 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007317450A priority Critical patent/JP5029334B2/en
Publication of JP2009141791A publication Critical patent/JP2009141791A/en
Application granted granted Critical
Publication of JP5029334B2 publication Critical patent/JP5029334B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of manufacturing an imaging apparatus enabling a precise position adjustment of an image sensor quickly. <P>SOLUTION: There are first to fourth processes in the method of manufacturing the imaging apparatus for receiving a pair of luminous fluxes AB1, AB2 emitted from regions 341, 342, where the pupil of an optical system differs, and assembling the image sensor 111, where a focus detection pixel 116 for detecting the focus adjustment state of the optical system exists on an imaging surface 114, to a camera body 10. In the first process, an image pattern 300 is formed on a scheduled focal plane FP of the optical system. In the second process, imaging patterns 421, 422 corresponding to the imaging pattern 300 are acquired on an imaging surface 114. In the third process, amounts of defocus def0, def2, def3 to the scheduled focal plane FP of the imaging surface 114 are detected based on output from a focus detection pixel 116. In the fourth process, the position or posture of the image sensor 111 is adjusted based on the detected amounts of defocus. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置の製造方法に関する。   The present invention relates to a method for manufacturing an imaging device.

撮像素子の撮像面上の複数箇所に解像度チャートを投影し、撮像画素により得られる解像度チャート画像の解像度が複数箇所において等しくなるように撮像素子の撮像面の傾き具合、すなわちアオリを調整する方法が知られている(特許文献1)。   A method of projecting a resolution chart to a plurality of locations on the imaging surface of the imaging device and adjusting the inclination of the imaging surface of the imaging device, that is, the tilt so that the resolution of the resolution chart image obtained by the imaging pixels is equal at the plurality of locations. Known (Patent Document 1).

特開平8−248465号公報JP-A-8-248465

しかしながら、こうしたアオリ調整方法は、撮像画素を用いて解像度チャートの解像度(コントラスト)を検出しているので、基準面からの撮像面の偏差方向しか検出できず、所定の調整誤差内に納めるためには複数回に渡って調整を繰り返す必要があり、調整に時間がかかるという問題があった。   However, in this tilt adjustment method, since the resolution (contrast) of the resolution chart is detected by using the imaging pixels, only the deviation direction of the imaging surface from the reference plane can be detected, and it is within a predetermined adjustment error. Had to be adjusted several times, and there was a problem that adjustment took time.

本発明が解決しようとする課題は、撮像素子の高精度な位置調整を短時間に行うことができる撮像装置の製造方法を提供することである。   The problem to be solved by the present invention is to provide a method for manufacturing an imaging apparatus capable of performing high-accuracy position adjustment of an imaging element in a short time.

本発明は、以下の解決手段によって上記課題を解決する。なお、本発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は本発明の理解を容易にするためだけのものであって本発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In addition, although the code | symbol corresponding to drawing which shows embodiment of this invention is attached | subjected and demonstrated, this code | symbol is only for making an understanding of this invention easy, and is not the meaning which limits this invention.

本発明に係る撮像装置の製造方法は、光学系の瞳の異なる領域(341,342)から出射される一対の光束(AB1,AB2)を受光し、光学系の焦点調節状態を検出する焦点検出画素(116)を撮像面(114)に有する撮像素子(111)を装置本体(10)に組み付ける撮像装置の製造方法であって、次に示す第1〜第4の工程を有する。   The manufacturing method of the imaging device according to the present invention receives a pair of light beams (AB1, AB2) emitted from different regions (341, 342) of the pupil of the optical system, and detects the focus adjustment state of the optical system. An image pickup apparatus manufacturing method in which an image pickup element (111) having a pixel (116) on an image pickup surface (114) is assembled to an apparatus main body (10), and includes the following first to fourth steps.

第1の工程は、光学系の予定焦点面(FP)に所定の画像パターン(300)を形成する。第2の工程は、画像パターン(300)に対応する撮像パターン(421,422)を撮像面(114)で取得する。第3の工程は、焦点検出画素(116)からの出力に基づいて撮像面(114)の予定焦点面(FP)に対するデフォーカス量(def0,def2,def3)を検出する。第4の工程は、検出されたデフォーカス量に基づいて撮像素子(111)の位置あるいは姿勢を調整する。   In the first step, a predetermined image pattern (300) is formed on the planned focal plane (FP) of the optical system. In the second step, an imaging pattern (421, 422) corresponding to the image pattern (300) is acquired on the imaging surface (114). In the third step, defocus amounts (def0, def2, def3) of the imaging plane (114) with respect to the planned focal plane (FP) are detected based on the output from the focus detection pixel (116). In the fourth step, the position or orientation of the image sensor (111) is adjusted based on the detected defocus amount.

本発明によれば、撮像素子の高精度な位置調整を短時間に行うことができる。   According to the present invention, highly accurate position adjustment of an image sensor can be performed in a short time.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

《第1実施形態》
図1に示すように、撮像装置の一例としての本実施形態に係るデジタルスチルカメラ1は、カメラボディ10と交換レンズ20から構成され、これらカメラボディ10と交換レンズ20はマウント部30により機械的に着脱することができる。
<< First Embodiment >>
As shown in FIG. 1, a digital still camera 1 according to this embodiment as an example of an imaging apparatus includes a camera body 10 and an interchangeable lens 20, and the camera body 10 and the interchangeable lens 20 are mechanically mounted by a mount unit 30. Can be attached and detached.

なお説明の便宜上、同図に示すようにカメラ1を通常姿勢にしたときの光軸L方向を「Y軸」、光軸Lに直交する軸を「X軸」及び「Z軸」とし、X軸を同図の紙面に対して垂直な軸、Z軸を同図の上下方向とする。そして、特に断らない限りZ軸方向を「上下方向」、X軸方向を「左右方向」、Y軸方向を「光軸方向」とも称する。   For convenience of explanation, as shown in the figure, the optical axis L direction when the camera 1 is in the normal posture is defined as “Y axis”, and the axes orthogonal to the optical axis L are defined as “X axis” and “Z axis”. The axis is the axis perpendicular to the paper surface of the figure, and the Z axis is the vertical direction of the figure. Unless otherwise specified, the Z-axis direction is also referred to as “vertical direction”, the X-axis direction is also referred to as “left-right direction”, and the Y-axis direction is also referred to as “optical axis direction”.

カメラボディ10は、撮像素子パッケージ110と、ボディCPU120と、液晶ビューファインダを構成する液晶表示素子130と、液晶表示素子130を観察するための接眼レンズ140と、液晶表示素子駆動回路150と、撮影画像信号を格納するメモリカード160とを備える。   The camera body 10 includes an imaging element package 110, a body CPU 120, a liquid crystal display element 130 that constitutes a liquid crystal viewfinder, an eyepiece 140 for observing the liquid crystal display element 130, a liquid crystal display element driving circuit 150, and a photographing operation. And a memory card 160 for storing image signals.

ボディCPU120は、マウント部30に設けられた電気信号接点部310により後述するレンズCPU250と電気的に接続され、このレンズCPU250からレンズ情報を受信するとともに、レンズCPU250へデフォーカス量などのカメラボディ情報を送信する。また、ボディCPU120は、撮像素子111からの画像信号を読み出すとともに、所定の情報処理を施して液晶表示素子130やメモリカード160に出力する。また、ボディCPU120は、画像信号の補正や交換レンズ20の焦点調節状態、絞り調節状態などを検出するなど、カメラ全体の制御を司る。   The body CPU 120 is electrically connected to a lens CPU 250, which will be described later, through an electrical signal contact portion 310 provided in the mount unit 30, receives lens information from the lens CPU 250, and receives camera body information such as a defocus amount to the lens CPU 250. Send. The body CPU 120 reads out an image signal from the image sensor 111, performs predetermined information processing, and outputs it to the liquid crystal display element 130 and the memory card 160. The body CPU 120 controls the entire camera, such as correcting image signals and detecting the focus adjustment state and the aperture adjustment state of the interchangeable lens 20.

また、ボディCPU120から液晶表示素子駆動回路150に対して制御信号が出力され、液晶表示素子駆動回路150は、この制御信号に基づいて液晶表示素子130を駆動する。これにより、使用者は接眼レンズ140を介して撮影画像を視認することができる。   Also, a control signal is output from the body CPU 120 to the liquid crystal display element driving circuit 150, and the liquid crystal display element driving circuit 150 drives the liquid crystal display element 130 based on the control signal. As a result, the user can visually recognize the captured image through the eyepiece lens 140.

一方、交換レンズ20は、レンズ210と、ズーミング用レンズ220と、フォーカシング用レンズ230と、絞り240と、レンズCPU250とを備える。   On the other hand, the interchangeable lens 20 includes a lens 210, a zooming lens 220, a focusing lens 230, a diaphragm 240, and a lens CPU 250.

レンズCPU250は、ズーミング用レンズ220とフォーカシング用レンズ230と絞り240それぞれの状態を検出し、必要に応じて上述したボディCPU120との間で情報通信を行いながら、フォーカシング用レンズ230の駆動制御や絞り240の駆動制御を実行する。   The lens CPU 250 detects the states of the zooming lens 220, the focusing lens 230, and the diaphragm 240, and performs information communication with the body CPU 120 as necessary to control the driving of the focusing lens 230 and the diaphragm. 240 drive control is executed.

撮像素子パッケージ110は、位置調整機構を有するブラケット170を介してカメラボディ10に装着される。   The image sensor package 110 is attached to the camera body 10 via a bracket 170 having a position adjustment mechanism.

図2に示すように、撮像素子パッケージ110には、交換レンズ20(図1参照)の予定焦点面に調整配置される撮像素子111が内蔵されている。撮像素子111は、半導体チップから構成された、CCDイメージセンサやCMOSイメージセンサなどで構成される。この撮像素子111は、一端が開口したセラミック基板112に貼り付けられ、この開口部がカバーガラス113により封止されている。撮像素子111の一方の主面114が撮像面となる。   As shown in FIG. 2, the image pickup device package 110 incorporates an image pickup device 111 that is adjusted and arranged on the planned focal plane of the interchangeable lens 20 (see FIG. 1). The image sensor 111 is configured by a CCD image sensor, a CMOS image sensor, or the like that is configured from a semiconductor chip. The image sensor 111 is attached to a ceramic substrate 112 having one end opened, and the opening is sealed with a cover glass 113. One main surface 114 of the image sensor 111 is an image pickup surface.

図3、図4A及び図4Bに示すように、撮像素子111は、、交換レンズ20の予定結像面に配置されており、カメラボディ10内での位置調整は終了している。   As shown in FIGS. 3, 4A, and 4B, the image sensor 111 is disposed on the planned imaging plane of the interchangeable lens 20, and the position adjustment in the camera body 10 has been completed.

撮像素子111は、複数の撮像画素115が、矩形状の撮像面114(図2参照)の平面上に二次元的に配列され、緑色の波長領域を透過するカラーフィルタを有する緑画素Gと、赤色の波長領域を透過するカラーフィルタを有する赤画素Rと、青色の波長領域を透過するカラーフィルタを有する青画素Bがいわゆるベイヤー配列(Bayer Arrangement)されたものである。すなわち、隣接する4つの画素群117(稠密正方格子配列)において一方の対角線上に2つの緑画素が配列され、他方の対角線上に赤画素と青画素が1つずつ配列されている。このベイヤー配列された画素群117を単位として、当該画素群117を撮像素子111の撮像面114に二次元状に繰り返し配列することで撮像素子111が構成されている。なお、単位画素群117の配列は、図示する稠密正方格子以外にも、たとえば稠密六方格子配列にすることもできる。また、カラーフィルタの構成や配列はこれに限定されることはなく、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列を採用することもできる。   The imaging element 111 includes a green pixel G having a color filter in which a plurality of imaging pixels 115 are two-dimensionally arranged on a plane of a rectangular imaging surface 114 (see FIG. 2) and transmit a green wavelength region; A red pixel R having a color filter that transmits a red wavelength region and a blue pixel B having a color filter that transmits a blue wavelength region are arranged in a so-called Bayer Arrangement. That is, in four adjacent pixel groups 117 (dense square lattice arrangement), two green pixels are arranged on one diagonal line, and one red pixel and one blue pixel are arranged on the other diagonal line. The image sensor 111 is configured by repeatedly arranging the pixel group 117 in a two-dimensional manner on the imaging surface 114 of the image sensor 111 with the Bayer array pixel group 117 as a unit. The unit pixel group 117 may be arranged in a dense hexagonal lattice arrangement other than the dense square lattice shown in the figure. Further, the configuration and arrangement of the color filters are not limited to this, and an arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) can also be adopted.

図5Aに示すように、一つの撮像画素115は、マイクロレンズ1151と、光電変換部1152と、図示しないカラーフィルタとから構成され、図8Aの断面図に示すように、撮像素子115は、撮像素子111の半導体回路基板1111の表面に光電変換部1152が造り込まれ、その表面にマイクロレンズ1151が形成されている。光電変換部1152は、マイクロレンズ1151により撮像光学系の射出瞳(例えばF1.0)を通過する撮像光束を受光する形状とされ、撮像光束IBを受光する。   As shown in FIG. 5A, one imaging pixel 115 includes a micro lens 1151, a photoelectric conversion unit 1152, and a color filter (not shown). As shown in the cross-sectional view of FIG. A photoelectric conversion unit 1152 is formed on the surface of the semiconductor circuit substrate 1111 of the element 111, and a microlens 1151 is formed on the surface. The photoelectric conversion unit 1152 is configured to receive an imaging light beam passing through an exit pupil (for example, F1.0) of the imaging optical system by the microlens 1151 and receives the imaging light beam IB.

なお、本実施形態のカラーフィルタは、マイクロレンズ1151と光電変換部1152との間に設けられ、緑画素Gと赤画素Rと青画素Bのそれぞれのカラーフィルタの分光感度は、例えば図6に示すとおりとされている。   Note that the color filter of this embodiment is provided between the microlens 1151 and the photoelectric conversion unit 1152, and the spectral sensitivities of the color filters of the green pixel G, red pixel R, and blue pixel B are shown in FIG. As shown.

図3、図4A及び図4Bに戻り、撮像素子111の撮像面の中心、並びに中心から左右対称位置及び上下対称位置の5箇所には、上述した撮像画素115に代えて焦点検出画素116が配列された複数の焦点検出画素列114a〜114eが設けられている。   Returning to FIG. 3, FIG. 4A, and FIG. 4B, focus detection pixels 116 are arranged in place of the above-described imaging pixels 115 at the center of the imaging surface of the imaging element 111 and at five positions that are left-right symmetrical and up-down symmetrical from the center. A plurality of focus detection pixel rows 114a to 114e are provided.

本実施形態では、撮像面114の中心に配置される焦点検出画素列114aと、撮像面114の中心を通る水平線La上でかつ撮像面114の中心を通る垂直線Lbから左右方向に距離D1だけ離間して配置される焦点検出画素列114b,114cとは、複数の焦点検出画素116が横一列に配列されて構成されている。また、撮像面114の中心を通る垂直線Lb上でかつ撮像面114の中心を通る水平線Laから上下方向に距離D2だけ離間して配置される焦点検出画素列114d,114eは、複数の焦点検出画素116が縦一列に配列されて構成されている。本例の焦点検出画素116は、ベイヤー配列された撮像画素115の緑画素Gと青画素Bの位置にギャップを設けることなく密に配列されている。   In the present embodiment, the focus detection pixel row 114a disposed at the center of the imaging surface 114, and a horizontal line La passing through the center of the imaging surface 114 and a vertical line Lb passing through the center of the imaging surface 114, and a distance D1 in the left-right direction. The focus detection pixel rows 114b and 114c that are spaced apart from each other are configured by arranging a plurality of focus detection pixels 116 in a horizontal row. Further, the focus detection pixel rows 114d and 114e arranged on the vertical line Lb passing through the center of the imaging surface 114 and separated from the horizontal line La passing through the center of the imaging surface 114 by a distance D2 in the vertical direction are a plurality of focus detections. Pixels 116 are arranged in a vertical row. The focus detection pixels 116 of this example are densely arranged without providing a gap at the positions of the green pixels G and blue pixels B of the imaging pixels 115 arranged in the Bayer array.

なお、図3に示す焦点検出画素列114b,114cの位置は図示する位置にのみ限定されず、何れか一箇所にすることもでき、また焦点検出画素列114d,114eの位置についても同様で、何れか一箇所にすることもできる。また、実際の焦点検出に際しては、複数配置された焦点検出画素列114a〜114eの中から使用者の手動操作により所望の焦点検出画素列を選択することもできる。   Note that the positions of the focus detection pixel rows 114b and 114c shown in FIG. 3 are not limited to the positions shown in the figure, and may be any one location. The same applies to the positions of the focus detection pixel rows 114d and 114e. Either one can be provided. In actual focus detection, a desired focus detection pixel row can be selected by manual operation by the user from among a plurality of focus detection pixel rows 114a to 114e.

図5Bに示すように、焦点検出画素116は、マイクロレンズ1161と、一対の光電変換部1162,1163とから構成され、図8Bの断面図に示すように、焦点検出画素116は、撮像素子111の半導体回路基板1111の表面に光電変換部1162,1163が造り込まれ、その表面にマイクロレンズ1161が形成されている。一対の光電変換部1162,1163は同じ大きさで、かつマイクロレンズ1161の光軸に対して図3に示す焦点検出画素列114a,114d,114eでは左右対称に、図3に示す焦点検出画素列114b,114cでは上下対称に、ぞれぞれ配置されている。この光電変換部1162,1163は、マイクロレンズ1161により撮影光学系の特定の射出瞳(たとえばF2.8)を通過する一対の光束を受光する形状とされている。すなわち、図8Bに示すように、焦点検出画素116の一方の光電変換部1162は一方の光束AB1を受光する一方で、焦点検出画素116の他方の光電変換部1163は、マイクロレンズ1161の光軸に対して光束AB1と対称となる光束AB2を受光する。   As illustrated in FIG. 5B, the focus detection pixel 116 includes a micro lens 1161 and a pair of photoelectric conversion units 1162 and 1163. As illustrated in the cross-sectional view of FIG. 8B, the focus detection pixel 116 includes the imaging element 111. The photoelectric conversion portions 1162 and 1163 are formed on the surface of the semiconductor circuit substrate 1111 and the microlens 1161 is formed on the surface. The pair of photoelectric conversion units 1162 and 1163 have the same size and are symmetrical with respect to the optical axis of the micro lens 1161 in the focus detection pixel rows 114a, 114d, and 114e shown in FIG. 114b and 114c are arranged symmetrically in the vertical direction. The photoelectric conversion units 1162 and 1163 are configured to receive a pair of light beams that pass through a specific exit pupil (for example, F2.8) of the photographing optical system by the microlens 1161. That is, as shown in FIG. 8B, one photoelectric conversion unit 1162 of the focus detection pixel 116 receives one light beam AB1, while the other photoelectric conversion unit 1163 of the focus detection pixel 116 is an optical axis of the micro lens 1161. In contrast, a light beam AB2 that is symmetrical with the light beam AB1 is received.

なお、焦点検出画素116にはカラーフィルタは設けられておらず、その分光特性は、光電変換を行うフォトダイオードの分光特性と、図示しない赤外カットフィルタの分光特性を総合したものとなっている。図7に焦点検出画素116の分光特性を示すが、相対感度は、図6に示す青画素B、緑画素G及び赤画素Rの各感度を加算したような分光特性とされ、また感度が現れる光波長領域は、図6に示す青画素B、緑画素G及び赤画素Rの感度の光波長領域を包摂した領域となっている。ただし、撮像画素115と同じカラーフィルタのうちの一つ、たとえば緑フィルタを備えるように構成することもできる。   Note that the focus detection pixel 116 is not provided with a color filter, and its spectral characteristic is a total of the spectral characteristic of a photodiode that performs photoelectric conversion and the spectral characteristic of an infrared cut filter (not shown). . FIG. 7 shows the spectral characteristics of the focus detection pixel 116. The relative sensitivity is a spectral characteristic obtained by adding the sensitivities of the blue pixel B, the green pixel G, and the red pixel R shown in FIG. 6, and the sensitivity appears. The light wavelength region is a region including the light wavelength regions of the sensitivity of the blue pixel B, the green pixel G, and the red pixel R shown in FIG. However, it may be configured to include one of the same color filters as the imaging pixel 115, for example, a green filter.

また、図5Bに示す焦点検出画素116の光電変換部1162,1163は半円形状としたが、光電変換部1162,1163の形状はこれに限定されず、他の形状、たとえば、楕円形状、矩形状、多角形状にすることもできる。撮像素子111の中に形状の異なる光電変換部を備えた焦点検出画素列を持つ場合には、それぞれの光電変換部の形状に対応したクロストーク率を測定記憶しておき、クロストーク補正を行う焦点検出画素の光電変換部形状に応じてクロストーク率を切換えてクロストーク補正を行うことができる。   In addition, although the photoelectric conversion units 1162 and 1163 of the focus detection pixel 116 illustrated in FIG. 5B have a semicircular shape, the shape of the photoelectric conversion units 1162 and 1163 is not limited to this, and other shapes such as an elliptical shape, a rectangular shape, and the like. It can also be a shape or a polygonal shape. When the imaging element 111 has a focus detection pixel array including photoelectric conversion units having different shapes, the crosstalk rate corresponding to the shape of each photoelectric conversion unit is measured and stored, and crosstalk correction is performed. Crosstalk correction can be performed by switching the crosstalk rate according to the photoelectric conversion portion shape of the focus detection pixel.

例えば図5Bに示す焦点検出画素116に代えて図5C及び図5Dに示す焦点検出画素116a,116bを用いることもできる。   For example, focus detection pixels 116a and 116b shown in FIGS. 5C and 5D can be used instead of the focus detection pixels 116 shown in FIG. 5B.

図3及び図4Bに示す例では、焦点検出画素116として一つの画素に一対の光電変換部1162,1163を有するものを用いたのに対し、図5C及び図5Dに示す例では、一対の焦点検出画素116a,116bのそれぞれに対をなす光電変換部1162a,1162bを有するものを用いる。   In the example shown in FIGS. 3 and 4B, the focus detection pixel 116 having a pair of photoelectric conversion units 1162 and 1163 is used, whereas in the example shown in FIGS. 5C and 5D, a pair of focus points is used. A pixel having photoelectric conversion units 1162a and 1162b paired with each of the detection pixels 116a and 116b is used.

一方の焦点検出画素116aは、マイクロレンズ1161aと、光電変換部1162aから構成され、図8Bに示す断面図と同様に、撮像素子111の半導体回路基板1111の表面に光電変換部1162aが造り込まれ、その表面にマイクロレンズ1161aが形成されている。光電変換部1162aはマイクロレンズ1161aの光軸に対して左右対称の位置のうちの左側に配置されている。   One focus detection pixel 116a includes a microlens 1161a and a photoelectric conversion unit 1162a, and the photoelectric conversion unit 1162a is formed on the surface of the semiconductor circuit substrate 1111 of the image sensor 111, as in the cross-sectional view illustrated in FIG. 8B. The micro lens 1161a is formed on the surface. The photoelectric conversion unit 1162a is disposed on the left side of a position symmetrical to the optical axis of the micro lens 1161a.

これに対して、他方の焦点検出画素116bも、マイクロレンズ1161bと、光電変換部1162bから構成され、図8Bに示す断面図と同様に、撮像素子111の半導体回路基板1111の表面に光電変換部1162bが造り込まれ、その表面にマイクロレンズ1161bが形成されている。光電変換部1162bはマイクロレンズ1161bの光軸に対して左右対称の位置のうちの右側に配置されている。   On the other hand, the other focus detection pixel 116b also includes a microlens 1161b and a photoelectric conversion unit 1162b, and a photoelectric conversion unit is formed on the surface of the semiconductor circuit substrate 1111 of the image sensor 111 as in the cross-sectional view illustrated in FIG. 8B. 1162b is built in and a micro lens 1161b is formed on the surface thereof. The photoelectric conversion unit 1162b is arranged on the right side of a position symmetrical to the optical axis of the micro lens 1161b.

そして、図5Cに示すように、一対の焦点検出画素116a,116bは撮像素子111の中心から左右一列に配置される。各光電変換部1162a,1162bは、マイクロレンズ1161a,1161bにより撮影光学系の特定の射出瞳(たとえばF2.8)を通過する一対の光束を、これら一対の焦点検出画素116a,116bそれぞれの光電変換部1162a,1162bで受光する。焦点検出画素116aの光電変換部1162aは光束AB1を受光し、焦点検出画素116bの光電変換部1162bは光束AB2を受光する。   Then, as shown in FIG. 5C, the pair of focus detection pixels 116 a and 116 b are arranged in a line on the left and right from the center of the image sensor 111. The photoelectric conversion units 1162a and 1162b convert a pair of light beams that pass through a specific exit pupil (for example, F2.8) of the photographing optical system by the micro lenses 1161a and 1161b, respectively, to the photoelectric conversions of the pair of focus detection pixels 116a and 116b. Light is received by the units 1162a and 1162b. The photoelectric conversion unit 1162a of the focus detection pixel 116a receives the light beam AB1, and the photoelectric conversion unit 1162b of the focus detection pixel 116b receives the light beam AB2.

このように、異なる画素で構成される一対の焦点検出画素116a,116bを用いても、一対の光電変換部1162a,1162bの出力結果に基づいて、後述の瞳分割位相差検出方式による像ズレ量を検出することができる。これに加えて、撮像素子111を構成する画素からの出力読出回路の構成がシンプルになるという利点もある。   As described above, even when a pair of focus detection pixels 116a and 116b configured by different pixels is used, an image shift amount by a pupil division phase difference detection method described later is based on the output results of the pair of photoelectric conversion units 1162a and 1162b. Can be detected. In addition to this, there is an advantage that the configuration of the output readout circuit from the pixels constituting the image sensor 111 is simplified.

《瞳分割位相差検出方式》
次に、上述した焦点検出画素116の出力に基づいて焦点を調節する、いわゆる瞳分割位相差検出方式について説明する。
《Pupil phase difference detection method》
Next, a so-called pupil division phase difference detection method for adjusting the focus based on the output of the focus detection pixel 116 described above will be described.

図9では、撮影光軸L上に配置された焦点検出画素116−1と、これに隣接する焦点検出画素116−2が、射出瞳34の測距瞳341,342から照射される光束AB1−1,AB1−1,AB2−1,AB2−2を受光することを示す。ただし、その他の焦点検出画素についても、一対の光電変換部は一対の測距瞳341,342から照射される一対の光束を受光する。ここで、射出瞳34とは、交換レンズ20(図1参照)の予定焦点面に配置された焦点検出画素116のマイクロレンズ1161の前方Dの位置に設定された像である。距離Dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との距離などに応じて一義的に決まる値であって、この距離Dを測距瞳距離と称する。また、測距瞳341,342とは、焦点検出画素116のマイクロレンズ1161により投影された光電変換部1162,1163の像をいう。   In FIG. 9, the focus detection pixel 116-1 arranged on the photographing optical axis L and the focus detection pixel 116-2 adjacent thereto are irradiated from the distance measurement pupils 341 and 342 of the exit pupil 34. 1, AB 1-1, AB 2-1, and AB 2-2 are received. However, for other focus detection pixels, the pair of photoelectric conversion units receive a pair of light beams emitted from the pair of distance measurement pupils 341 and 342. Here, the exit pupil 34 is an image set at a position D in front of the microlens 1161 of the focus detection pixel 116 disposed on the planned focal plane of the interchangeable lens 20 (see FIG. 1). The distance D is a value uniquely determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and the distance D is referred to as a distance measurement pupil distance. The distance measurement pupils 341 and 342 are images of the photoelectric conversion units 1162 and 1163 projected by the micro lens 1161 of the focus detection pixel 116.

なお、同図において焦点検出画素116−1,116−2の配列方向は一対の測距瞳341,342の並び方向と一致している。   In the figure, the arrangement direction of the focus detection pixels 116-1 and 116-2 coincides with the arrangement direction of the pair of distance measuring pupils 341 and 342.

焦点検出画素116のマイクロレンズ1161−1,1161−2は、交換レンズ20の予定焦点面近傍に配置されており、光軸L上に配置されたマイクロレンズ1161−1により、その背後に配置された一対の光電変換部1162−1,1163−1の形状が測距瞳距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   Microlenses 1161-1 and 1161-2 of the focus detection pixel 116 are disposed in the vicinity of the planned focal plane of the interchangeable lens 20, and are disposed behind the microlens 1161-1 disposed on the optical axis L. The shape of the pair of photoelectric conversion units 1162-1 and 1163-1 is projected onto the exit pupil 34 separated by the distance measurement pupil distance D, and the projection shape forms the distance measurement pupils 341 and 342.

同様に、光軸L上から離間して配置されたマイクロレンズ1161−2により、その背後に配置された一対の光電変換部1162−2,1163−2の形状が測距瞳距離Dだけ離れた射出瞳34上に投影され、その投影形状は測距瞳341,342を形成する。   Similarly, the shape of the pair of photoelectric conversion units 1162-2 and 1163-2 disposed behind the microlens 1161-2 arranged away from the optical axis L is separated by the distance measurement pupil distance D. Projected onto the exit pupil 34, the projection shape forms distance measuring pupils 341 and 342.

すなわち、測距瞳距離Dにある射出瞳34上で、各焦点検出画素116の光電変換部1162,1163の投影形状(測距瞳341,342)が一致するように各焦点検出画素116の投影方向が決定されている。   That is, the projection of each focus detection pixel 116 on the exit pupil 34 at the distance measurement pupil distance D so that the projection shapes (distance measurement pupils 341 and 342) of the photoelectric conversion units 1162 and 1163 of the focus detection pixels 116 match. The direction is determined.

なお、焦点検出画素116−1の光電変換部1162−1は、一方の測距瞳341を通過しマイクロレンズ1161−1に向かう一方の焦点検出光束AB1−1により、マイクロレンズ1161−1上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部1163−1は、他方の測距瞳342を通過しマイクロレンズ1161−1に向かう他方の焦点検出光束AB2−1により、マイクロレンズ1161−1上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 1162-1 of the focus detection pixel 116-1 is placed on the microlens 1161-1 by one focus detection light beam AB1-1 that passes through one distance measuring pupil 341 and travels toward the microlens 1161-1. A signal corresponding to the intensity of the formed image is output. In contrast, the photoelectric conversion unit 1163-1 is an image formed on the microlens 1161-1 by the other focus detection light beam AB2-1 that passes through the other distance measuring pupil 342 and travels toward the microlens 1161-1. A signal corresponding to the intensity of the signal is output.

同様に、焦点検出画素116−2の光電変換部1162−2は、一方の測距瞳341を通過しマイクロレンズ1161−2に向かう一方の焦点検出光束AB1−2により、マイクロレンズ1161−2上に形成される像の強度に対応した信号を出力する。これに対して、光電変換部1163−2は、他方の測距瞳342を通過しマイクロレンズ1161−2に向かう他方の焦点検出光束AB2−2により、マイクロレンズ1161−2上に形成される像の強度に対応した信号を出力する。   Similarly, the photoelectric conversion unit 1162-2 of the focus detection pixel 116-2 passes through one distance measuring pupil 341 and is focused on the microlens 1161-2 by one focus detection light beam AB1-2 that goes to the microlens 1161-2. A signal corresponding to the intensity of the image formed is output. On the other hand, the photoelectric conversion unit 1163-2 is an image formed on the microlens 1161-2 by the other focus detection light beam AB <b> 2-2 that passes through the other distance measuring pupil 342 and travels toward the microlens 1161-2. A signal corresponding to the intensity of the signal is output.

以上の焦点検出画素116を、図4Aに示すように直線状に複数配置し、各焦点検出画素116の一対の光電変換部1162,1163の出力を、測距瞳341と測距瞳342のそれぞれに対応した出力グループにまとめることにより、測距瞳341と測距瞳342のそれぞれを通過する焦点検出光束AB1,AB2が焦点検出画素列上に形成する一対の像の強度分布に関するデータが得られる。この強度分布データに対し、相関演算処理又は位相差検出処理などの像ズレ検出演算処理を施すことにより、いわゆる瞳分割位相差検出方式による像ズレ量を検出することができる。   A plurality of the above-described focus detection pixels 116 are arranged in a straight line as shown in FIG. 4A, and the outputs of the pair of photoelectric conversion units 1162 and 1163 of each focus detection pixel 116 are respectively transmitted to the distance measurement pupil 341 and the distance measurement pupil 342. Are collected into output groups corresponding to the data, the data on the intensity distribution of a pair of images formed on the focus detection pixel array by the focus detection light beams AB1 and AB2 passing through the distance measurement pupil 341 and the distance measurement pupil 342, respectively, is obtained. . By applying an image shift detection calculation process such as a correlation calculation process or a phase difference detection process to the intensity distribution data, an image shift amount by a so-called pupil division phase difference detection method can be detected.

そして、得られた像ズレ量に一対の測距瞳の重心間隔に応じた変換演算を施すことにより、予定焦点面に対する現在の焦点面(予定焦点面上のマイクロレンズアレイの位置に対応した焦点検出位置における焦点面をいう。)の偏差、すなわちデフォーカス量を求めることができる。   Then, a conversion calculation is performed on the obtained image shift amount according to the center-of-gravity interval of the pair of distance measuring pupils, thereby obtaining a current focal plane with respect to the planned focal plane (the focal point corresponding to the position of the microlens array on the planned focal plane). The deviation of the focal plane at the detection position, that is, the defocus amount can be obtained.

《カメラの動作例》
次に、本実施形態に係るデジタルスチルカメラ1の動作例を説明する。
<Operation example of camera>
Next, an operation example of the digital still camera 1 according to the present embodiment will be described.

図10に示すように、まず、ステップS100にて、本実施形態のカメラ1の電源がONされていることを確認した上でステップS110に進み、撮像素子111の画像データをボディCPU120へ読み出すとともに、この画像データに間引き処理などを施したのち、液晶表示素子駆動回路150を介して液晶表示素子130に現在の撮影画像を表示させる。   As shown in FIG. 10, first, in step S100, it is confirmed that the power source of the camera 1 of the present embodiment is turned on, and then the process proceeds to step S110 to read out image data of the image sensor 111 to the body CPU 120. The image data is subjected to a thinning process and the like, and then the current photographed image is displayed on the liquid crystal display element 130 via the liquid crystal display element driving circuit 150.

ステップS130では、撮像素子111に設定された焦点検出画素列116a〜116eに設けられた焦点検出画素116から一対のデータを読み出す。この場合、使用者の手動操作により特定の焦点検出画素列が選択されているときは、その焦点検出画素列の焦点検出画素からのデータのみを読み出す。   In step S130, a pair of data is read from the focus detection pixels 116 provided in the focus detection pixel rows 116a to 116e set in the image sensor 111. In this case, when a specific focus detection pixel row is selected by a user's manual operation, only data from the focus detection pixel of the focus detection pixel row is read out.

ステップS140では、読み出された一対の像データに基づいて像ズレ検出演算処理(相関演算処理)を行って像ズレ量を演算し、さらにこの像ズレ量をデフォーカス量に変換する。ここで、読み出された一対の像データに基づく像ズレ検出演算処理(相関演算処理)の一例を簡単に説明する。   In step S140, an image shift detection calculation process (correlation calculation process) is performed based on the read pair of image data to calculate an image shift amount, and the image shift amount is converted into a defocus amount. Here, an example of image shift detection calculation processing (correlation calculation processing) based on the read pair of image data will be briefly described.

焦点検出画素116が検出する一対の像は、測距瞳341,342が交換レンズ20の絞り開口240により遮光され、光量バランスが崩れている可能性がある。したがって、本実施形態では、この光量バランスの崩れに対して像ズレ検出精度を維持できるタイプの相関演算を施す。   In the pair of images detected by the focus detection pixel 116, the distance measurement pupils 341 and 342 may be blocked by the aperture opening 240 of the interchangeable lens 20, and the light quantity balance may be lost. Therefore, in the present embodiment, a correlation calculation of a type capable of maintaining the image shift detection accuracy is performed with respect to the loss of light amount balance.

まず、焦点検出画素列から読み出された一対の像データ列をA11〜A1M、A21〜A2M(Mはデータ数)とし、下記相関演算式(数式1)を行い、相関量C(k)を演算する。   First, a pair of image data sequences read from the focus detection pixel sequence are A11 to A1M and A21 to A2M (M is the number of data), the following correlation calculation formula (Formula 1) is performed, and the correlation amount C (k) is calculated. Calculate.

[数1] C(k)=Σ|A1・A2n+1+k−A2n+k・A1n+1
なお、数式1においてΣ演算はnについての累積演算(総和演算)を示し、nの範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。また、像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。
[Expression 1] C (k) = Σ | A1 n · A2 n + 1 + k− A2 n + k · A1 n + 1 |
In Equation 1, the Σ operation indicates a cumulative operation (sum operation) with respect to n, and the range of n is a range in which data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. Limited. Further, the image shift amount k is an integer, and is a relative shift amount with the data interval of the data string as a unit.

数式1の演算結果は、図11(a)に示すように、一対のデータの相関が高いシフト量(図11(a)ではk=kj=2)において相関量C(k)が極小(小さいほど相関度が高い)になる。   As shown in FIG. 11A, the calculation result of Equation 1 shows that the correlation amount C (k) is minimal (small) in the shift amount with high correlation between a pair of data (k = kj = 2 in FIG. 11A). The higher the degree of correlation).

次に、数式2〜数式5による3点内挿の手法を用いて、連続的な相関量に対する極小値C(x)を与えるシフト量xを求める。   Next, the shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is obtained by using the three-point interpolation method according to Equations 2 to 5.

[数2] x=kj+D/SLOP
[数3] C(x)= C(kj)−|D|
[数4] D={C(kj−1)−C(kj+1)}/2
[数5] SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)}
そして、数式2で算出されたシフト量xの信頼性があるかどうかは、以下のようにして判定する。
[Formula 2] x = kj + D / SLOP
[Formula 3] C (x) = C (kj) − | D |
[Equation 4] D = {C (kj-1) -C (kj + 1)} / 2
[Expression 5] SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)}
Then, whether or not the shift amount x calculated by Expression 2 is reliable is determined as follows.

図11(b)に示すように、一対のデータの相関度が低い場合は、内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定の閾値以上の場合は算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   As shown in FIG. 11B, when the degree of correlation between a pair of data is low, the minimum value C (x) of the interpolated correlation amount increases. Therefore, when C (x) is equal to or greater than a predetermined threshold value, it is determined that the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.

または、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Alternatively, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, the reliability of the calculated shift amount Is determined to be low, and the calculated shift amount x is canceled.

または、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。   Alternatively, when SLOP that is proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.

また、図11(c)に示すように、一対のデータの相関度が低く、シフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。   Further, as shown in FIG. 11C, when the correlation between the pair of data is low and there is no drop in the correlation amount C (k) between the shift ranges kmin to kmax, the minimum value C (x) is obtained. In such a case, it is determined that the focus cannot be detected.

なお、相関演算式としては上述した数式1に限定されず他の公知の相関式を利用することもできる。   The correlation calculation formula is not limited to Formula 1 described above, and other known correlation formulas can also be used.

算出されたシフト量xの信頼性があると判定された場合は、下記数式6により像ズレ量shftを求める。   When it is determined that the calculated shift amount x is reliable, the image shift amount shft is obtained by the following formula 6.

[数6] shft=PY・x
ここに、数式6において、PYは検出ピッチ(焦点検出画素のピッチ)である。
[Expression 6] shft = PY · x
Here, in Equation 6, PY is a detection pitch (a pitch of focus detection pixels).

最後に、数式6で算出された像ズレ量shftに所定の変換係数kを乗じてデフォーカス量defを求める。   Finally, the defocus amount def is obtained by multiplying the image shift amount shft calculated by Expression 6 by a predetermined conversion coefficient k.

[数7] def=k・shft
なお、変換係数kは、図9の一対の測距瞳341,342の重心を見込む開き角(例えば焦点検出画素116−2に対する場合、一対の測距瞳341,342の重心と、焦点検出画素116−2の光電変換部1162−2,1163−2とを結ぶ線のなす角θ)に依存しており、大凡k=1/(2*Tan(θ/2))の関係がある。
[Expression 7] def = k · shft
Note that the conversion coefficient k is an opening angle that allows the center of gravity of the pair of distance measurement pupils 341 and 342 in FIG. 9 (for example, for the focus detection pixel 116-2, the center of gravity of the pair of distance measurement pupils 341 and 342 and the focus detection pixel). Dependent on the angle θ formed by a line connecting the photoelectric conversion units 1162-2 and 1163-2 of 116-2, there is a general relationship k = 1 / (2 * Tan (θ / 2)).

図10のステップS140へ戻り、ステップS130で算出されたデフォーカス量の絶対値が所定値以内であるか否かを判断する。デフォーカス量の絶対値が所定値以内にあるときは合焦しているものとし、ステップS150をジャンプしてステップS160へ進む。デフォーカス量が所定値以内にないときは、ステップS150へ進み、ボディCPU120からレンズCPU250を介してレンズ駆動モータ(図示省略)へ駆動信号を送出し、フォーカシング用レンズ230を合焦位置へ移動させる。これと相前後してフォーカシング用レンズ230の合焦位置に連動した被写体距離を距離表示器(図示省略)に表示する。   Returning to step S140 in FIG. 10, it is determined whether or not the absolute value of the defocus amount calculated in step S130 is within a predetermined value. When the absolute value of the defocus amount is within the predetermined value, it is assumed that the in-focus state is obtained, and the process jumps to step S150 and proceeds to step S160. When the defocus amount is not within the predetermined value, the process proceeds to step S150, a drive signal is sent from the body CPU 120 to the lens drive motor (not shown) via the lens CPU 250, and the focusing lens 230 is moved to the in-focus position. . At the same time, the subject distance linked to the focusing position of the focusing lens 230 is displayed on a distance display (not shown).

なお、ステップS140にて焦点検出が不能であると判断された場合もこのステップS150へ進み、レンズCPU250にスキャン駆動命令を送信し、交換レンズ20のフォーカシング用レンズ230を無限端から至近端の間でスキャン駆動させることで合焦位置を探索したのち、ステップS100へ戻って上記動作を繰り返す。   If it is determined in step S140 that focus detection is impossible, the process proceeds to step S150, where a scan drive command is transmitted to the lens CPU 250, and the focusing lens 230 of the interchangeable lens 20 is moved from the infinite end to the closest end. After in-scan scanning, the in-focus position is searched, and then the process returns to step S100 to repeat the above operation.

ステップS160では、カメラボディ10に設けられたレリーズボタン(図示省略)が押されたか否かを判断する。レリーズボタンが押されないときはステップS100へ戻り、ステップS100〜S160の処理を繰り返す。   In step S160, it is determined whether or not a release button (not shown) provided on the camera body 10 has been pressed. When the release button is not pressed, the process returns to step S100 and the processes of steps S100 to S160 are repeated.

ステップS160でレリーズボタンが押されたことを検出したら、ステップS170へ進み、レンズCPU250に対して絞り調整命令を送信し、交換レンズ20の絞り240の絞り値を、使用者または自動設定された制御F値にする。この絞り制御が終了したのち、撮像素子111の撮像画素115および全ての焦点検出画素116から画像データを読み出す。   If it is detected in step S160 that the release button has been pressed, the process proceeds to step S170, an aperture adjustment command is transmitted to the lens CPU 250, and the aperture value of the aperture 240 of the interchangeable lens 20 is controlled by the user or automatically set control. Set to F value. After the aperture control is completed, image data is read from the imaging pixel 115 and all focus detection pixels 116 of the imaging element 111.

ここで、読み出された焦点検出画素116の画像データは白黒データであることから、ステップS180にて、焦点検出画素列116a〜116eの各焦点検出画素116が位置する画素データを、これら焦点検出画素116の周囲の撮像画素115の画像データに基づいて画素補間する。これにより、焦点検出画素列116a〜116eの位置におけるカラー画像データを得ることができる。   Here, since the read image data of the focus detection pixels 116 is black and white data, in step S180, the pixel data in which the focus detection pixels 116 of the focus detection pixel rows 116a to 116e are located are detected as the focus data. Pixel interpolation is performed based on the image data of the imaging pixels 115 around the pixel 116. Thereby, the color image data at the positions of the focus detection pixel rows 116a to 116e can be obtained.

最後に、ステップS190にて、撮像画素115の画像データおよび補間された画像データをメモリカード160に保存する。このとき、得られた画像データを間引き処理して液晶表示素子130に表示させることもできる。そしてデータ保存後は、ステップS110に戻って上記動作を繰り返す。   Finally, in step S190, the image data of the imaging pixel 115 and the interpolated image data are stored in the memory card 160. At this time, the obtained image data can be thinned and displayed on the liquid crystal display element 130. After the data is saved, the process returns to step S110 to repeat the above operation.

《撮像素子の位置調整方法》
次に、撮像素子パッケージ110をカメラボディ10(図1参照)に組み付ける方法(撮像素子111の位置調整方法)の一例を説明する。
<< Image sensor position adjustment method >>
Next, an example of a method (position adjustment method of the image sensor 111) for assembling the image sensor package 110 to the camera body 10 (see FIG. 1) will be described.

図12に示すように、本実施形態ではまず、交換レンズ20(図1参照)とは別の調整用レンズ301を準備する。調整用レンズ301としては、高精度に各種収差が補正されており、形成される像面の均一性が高くなるように、すなわち画面中央と周辺の像面位置の差や同一の像高での像面位置の差等が極めて小さくなるように設計され製造されたものを用いる。   As shown in FIG. 12, in this embodiment, first, an adjustment lens 301 different from the interchangeable lens 20 (see FIG. 1) is prepared. As the adjustment lens 301, various aberrations are corrected with high accuracy so that the uniformity of the formed image surface is high, that is, the difference between the image surface position in the center of the screen and the peripheral image surface or the same image height. The one designed and manufactured so that the difference in image plane position is extremely small is used.

この調整用レンズ301とともに、本実施形態では調整用画像パターン300も準備する。調整用画像パターン300は、調整用レンズ301の光軸L1上で、水平方向の第1ラインパターン321と垂直方向の第2ラインパターン322が交わる態様の画像パターンを有し、この画像パターン面が光軸L1に対して垂直な面に一致するように配置されている。調整用画像パターン300は、照明手段(図示省略)によって光線が照射され、投影される。なお、画像パターン300は、水平方向のラインパターン321と垂直方向のラインパターン322を1本ずつ有する構成に限定されず、例えば格子状パターン/放射状パターン/同心円パターンなどであってもよい。   In this embodiment, an adjustment image pattern 300 is also prepared together with the adjustment lens 301. The adjustment image pattern 300 has an image pattern in which the horizontal first line pattern 321 and the vertical second line pattern 322 intersect on the optical axis L1 of the adjustment lens 301. It arrange | positions so that it may correspond to a surface perpendicular | vertical with respect to the optical axis L1. The adjustment image pattern 300 is irradiated with light rays by an illumination unit (not shown) and projected. Note that the image pattern 300 is not limited to a configuration having one horizontal line pattern 321 and one vertical line pattern 322, and may be, for example, a lattice pattern / radial pattern / concentric pattern.

本実施形態では、カメラボディ10には、位置調整前の撮像素子パッケージ110が、位置調整機構を有するブラケット170を介して組み込まれている。ブラケット170は、ネジとバネなどにより構成される周知の機械的位置調整機構(光軸方向の移動、光軸と直交する面内での移動/回転、光軸を中心とした面のアオリ等)であり、位置調整装置302の機械的な制御に基づいて撮像素子パッケージ110の位置調整を行う。   In this embodiment, the image sensor package 110 before position adjustment is incorporated in the camera body 10 via a bracket 170 having a position adjustment mechanism. The bracket 170 is a well-known mechanical position adjustment mechanism including a screw and a spring (movement in the direction of the optical axis, movement / rotation in a plane orthogonal to the optical axis, tilt of the surface around the optical axis, etc.) The position of the image sensor package 110 is adjusted based on the mechanical control of the position adjustment device 302.

位置調整装置302は、撮像素子111の撮像画素115および焦点検出画素116の出力データに基づき予定焦点面FPに対する撮像素子111の撮像面114の位置偏差量を検出し、検出した位置偏差量に基づきブラケット170を機械的に制御(ネジの送り量などの制御)し、撮像素子111の撮像面114が予定焦点面FPに一致するように撮像素子パッケージ110の位置調整を行う。なお、色収差による誤差を減少させるために照明光の分光特性を狭帯域としてもよい。   The position adjustment device 302 detects the positional deviation amount of the imaging surface 114 of the imaging element 111 with respect to the planned focal plane FP based on the output data of the imaging pixel 115 and the focus detection pixel 116 of the imaging element 111, and based on the detected positional deviation amount. The bracket 170 is mechanically controlled (control of screw feed amount, etc.), and the position of the image pickup device package 110 is adjusted so that the image pickup surface 114 of the image pickup device 111 coincides with the planned focal plane FP. Note that the spectral characteristic of the illumination light may be a narrow band in order to reduce errors due to chromatic aberration.

なお、予定焦点面FPとは、銀塩カメラの場合はフィルム面で、デジタルカメラの場合は撮像素子111の撮像面114と光学的に等価な位置にある面のことであり、装着される撮影レンズ鏡筒の撮影光学系(結像光学系)を介して入射する光束を被写体像として結像させる所定の位置に存在する。   Note that the planned focal plane FP is a film plane in the case of a silver salt camera, and a plane that is optically equivalent to the imaging plane 114 of the imaging element 111 in the case of a digital camera. It exists at a predetermined position where a light beam incident through a photographing optical system (imaging optical system) of the lens barrel is imaged as a subject image.

本実施形態で用いるブラケット170は、例えば図13A及び図13Bに示すように、撮像素子パッケージ110が固定される可動部172と、この可動部172の背後に配置される固定部173とを有する。なお、撮像素子パッケージ110が固定される面を「主面」とすると、図13A及び図13Bに示す例では、可動部172の主面に撮像素子パッケージ110が配置されている。可動部172の裏面には、凹部172aが形成してある。   For example, as shown in FIGS. 13A and 13B, the bracket 170 used in the present embodiment includes a movable portion 172 to which the imaging element package 110 is fixed, and a fixed portion 173 disposed behind the movable portion 172. If the surface on which the image pickup device package 110 is fixed is a “main surface”, the image pickup device package 110 is disposed on the main surface of the movable portion 172 in the example illustrated in FIGS. 13A and 13B. A recess 172 a is formed on the back surface of the movable portion 172.

固定部173の前記凹部172aに対応する位置には、前記凹部172aに対して回転可能に係合する突起部材174が挿入してある。突起部材174を回転させることにより可動部172の凹部172aに係合させ、さらに突起部材174を回転させることによって可動部172を前後に移動させることができるようになっている。固定部173には、突起部材174とは別の固定部材175が挿入してある。固定部材175は、バネ176を介して、固定部173の背後から可動部172を保持する。   At a position corresponding to the concave portion 172a of the fixing portion 173, a protruding member 174 that is rotatably engaged with the concave portion 172a is inserted. By rotating the projection member 174, the projection 174 is engaged with the recess 172a of the movable portion 172, and by further rotating the projection member 174, the movable portion 172 can be moved back and forth. A fixing member 175 different from the protruding member 174 is inserted into the fixing portion 173. The fixed member 175 holds the movable portion 172 from behind the fixed portion 173 via the spring 176.

固定部173には、2つの位置調整部材177a,177bが挿入してある。第1の位置調整部材177aは、本実施形態では、固定部173の前記凹部172aに対応する位置から水平方向に配置してあり、バネ176に抗して固定部173の背後から可動部172を保持する。第2の位置調整部材177bは、本実施形態では、固定部173の前記凹部172aに対応する位置から垂直方向に配置してあり、バネ176に抗して固定部173の背後から可動部172を保持する。   Two position adjusting members 177a and 177b are inserted into the fixing portion 173. In the present embodiment, the first position adjustment member 177a is disposed in a horizontal direction from a position corresponding to the concave portion 172a of the fixed portion 173, and the movable portion 172 is moved from behind the fixed portion 173 against the spring 176. Hold. In the present embodiment, the second position adjusting member 177b is arranged in a vertical direction from a position corresponding to the concave portion 172a of the fixed portion 173, and the movable portion 172 is moved from behind the fixed portion 173 against the spring 176. Hold.

本実施形態では、これら位置調整部材177a,177bによって、可動部172に固定された撮像素子パッケージ110は、光軸方向のアオリ(傾き)調整ができるように構成されており、可動部172の凹部172aと、位置調整部材177a,177bとで構成される三角形内に固定部材175が配置され、バネ176により可動部172を固定部173側に付勢させている。   In the present embodiment, the image pickup device package 110 fixed to the movable portion 172 by these position adjusting members 177a and 177b is configured to be able to adjust the tilt (inclination) in the optical axis direction. A fixed member 175 is arranged in a triangle formed by 172a and position adjusting members 177a and 177b, and the movable portion 172 is biased toward the fixed portion 173 by a spring 176.

以下の説明では、このようなブラケット170を用いて撮像素子パッケージ110の位置調整を行う場合を例示する。   In the following description, a case where the position adjustment of the image sensor package 110 is performed using such a bracket 170 will be exemplified.

図12に戻り、まず、マウント部30(図1参照)を介して調整用レンズ301をカメラボディ10に装着する。次に、カメラボディ10に装着された調整用レンズ301から所定距離離間させて、調整用画像パターン300を配置する。照明手段(図示省略)によって調整用画像パターン300の背後から光線を照射すると、画像パターンが調整用レンズ301から所定距離後方の予定焦点面FPに結像される。以降、図14に示す位置調整装置302の動作フローを参照して説明する。   Returning to FIG. 12, first, the adjustment lens 301 is attached to the camera body 10 via the mount portion 30 (see FIG. 1). Next, the adjustment image pattern 300 is arranged at a predetermined distance from the adjustment lens 301 attached to the camera body 10. When a light beam is irradiated from behind the adjustment image pattern 300 by illumination means (not shown), the image pattern is imaged on the planned focal plane FP behind the adjustment lens 301 by a predetermined distance. Hereinafter, the operation will be described with reference to the operation flow of the position adjustment device 302 shown in FIG.

図14に示すように、ステップS200にて調整が開始されると、図15に示すように、予定焦点面FP上には調整用画像パターン300の像(撮像パターン)が形成されており、予定焦点面FPの中心410(光軸L1との交点)で水平方向のラインパターン像421と垂直方向のラインパターン像422が交わる。このとき、撮像面114上には、焦点検出画素列114a〜114eが配置されており、撮像面114の中心130と予定焦点面FPの中心410は一致しておらず、撮像面114の水平/垂直方向も予定焦点面FPの水平/垂直方向とは一致していない。   As shown in FIG. 14, when the adjustment is started in step S200, as shown in FIG. 15, an image (imaging pattern) of the adjustment image pattern 300 is formed on the planned focal plane FP. The horizontal line pattern image 421 and the vertical line pattern image 422 intersect at the center 410 (intersection with the optical axis L1) of the focal plane FP. At this time, focus detection pixel rows 114a to 114e are arranged on the imaging surface 114, and the center 130 of the imaging surface 114 and the center 410 of the planned focal plane FP do not coincide with each other. The vertical direction does not coincide with the horizontal / vertical direction of the planned focal plane FP.

そこで本実施形態では、まず撮像面114の中心130を予定焦点面FPの中心410と一致させる(第1のステップ)。具体的には、図14に戻り、ステップS210にて、撮像面114の中心近傍の撮像画素115の画像データを読み出し、水平方向のラインパターン像421と垂直方向のラインパターン像422の交点の位置(予定焦点面の中心410)と撮像面114の中心130との偏差量(水平方向および垂直方向)を算出する。そして、該偏差量に応じて撮像素子パッケージ110を光軸L1と直交する面内で移動させて、図16に示すように、撮像面114の中心130を予定焦点面FPの中心410と一致させる。   Therefore, in the present embodiment, first, the center 130 of the imaging surface 114 is matched with the center 410 of the planned focal plane FP (first step). Specifically, returning to FIG. 14, in step S210, the image data of the imaging pixel 115 near the center of the imaging surface 114 is read, and the position of the intersection of the horizontal line pattern image 421 and the vertical line pattern image 422 is read. A deviation amount (horizontal direction and vertical direction) between (center 410 of the planned focal plane) and center 130 of the imaging surface 114 is calculated. Then, the image pickup device package 110 is moved in a plane orthogonal to the optical axis L1 according to the deviation amount, so that the center 130 of the image pickup surface 114 coincides with the center 410 of the planned focal plane FP as shown in FIG. .

次に本実施形態では、撮像面114の水平/垂直方向を予定焦点面FPの水平/垂直方向と一致させる(第2のステップ)。具体的には、図14に戻り、ステップS220にて、撮像画素115の画像データを読み出し、水平方向のラインパターン像421と撮像画素115の行方向との傾き角および垂直方向のラインパターン像422と撮像画素115の列方向との傾き角を算出する。そして、それらの平均の傾き角に応じて撮像素子パッケージ110を光軸L1と直交する面内で光軸を中心に回転させて、図17に示すように、撮像面114の水平/垂直方向を予定焦点面FPの水平/垂直方向と一致させる。   Next, in the present embodiment, the horizontal / vertical direction of the imaging surface 114 is matched with the horizontal / vertical direction of the planned focal plane FP (second step). Specifically, returning to FIG. 14, in step S220, the image data of the imaging pixel 115 is read, the inclination angle between the horizontal line pattern image 421 and the imaging pixel 115 in the row direction, and the vertical line pattern image 422. And an inclination angle between the imaging pixel 115 and the column direction. Then, the image pickup device package 110 is rotated around the optical axis in a plane orthogonal to the optical axis L1 in accordance with the average inclination angle thereof, so that the horizontal / vertical direction of the image pickup surface 114 is changed as shown in FIG. Match the horizontal / vertical direction of the planned focal plane FP.

図17の状態では、撮像面114と予定焦点面FPは光軸L1と垂直な面内では中心および水平/垂直方向が一致した状態になり、水平方向のラインパターン像421が焦点検出画素列114a〜114cに重畳し、垂直方向のラインパターン像422が焦点検出エリア114a,114d,114eに重畳する。しかしながら、光軸L1の方向においては、図18に示すように、撮像面114の中心130と予定焦点面FPの中心410は、デフォーカス量def0だけ離間している。   In the state of FIG. 17, the imaging surface 114 and the planned focal plane FP are in a state where the center and the horizontal / vertical direction coincide with each other in a plane perpendicular to the optical axis L1, and the horizontal line pattern image 421 is the focus detection pixel row 114a. To 114c, and the vertical line pattern image 422 is superimposed on the focus detection areas 114a, 114d, and 114e. However, in the direction of the optical axis L1, as shown in FIG. 18, the center 130 of the imaging surface 114 and the center 410 of the planned focal plane FP are separated by a defocus amount def0.

そこで本実施形態では、次に、光軸L1の方向において、撮像面114の中心130と予定焦点面FPの中心410の位置を一致させる(第3のステップ)。具体的には、図14に戻り、ステップS230にて、撮像面114の中心にある焦点検出画素列114aの焦点検出画素116のデータを読み出し、前述した像ズレ検出演算処理を用いて画面中心130におけるデフォーカス量def0を算出する。そして、該デフォーカス量def0に応じて撮像素子パッケージ110を光軸L1の方向に移動させ、図19に示すように、光軸L1の方向において、撮像面114の中心130と予定焦点面FPの中心410の位置を一致させる。   Therefore, in the present embodiment, next, in the direction of the optical axis L1, the positions of the center 130 of the imaging surface 114 and the center 410 of the planned focal plane FP are matched (third step). Specifically, returning to FIG. 14, in step S230, the data of the focus detection pixel 116 of the focus detection pixel row 114a at the center of the imaging surface 114 is read, and the screen center 130 is used by using the image shift detection calculation process described above. The defocus amount def0 at is calculated. Then, the image pickup device package 110 is moved in the direction of the optical axis L1 in accordance with the defocus amount def0, and as shown in FIG. 19, in the direction of the optical axis L1, the center 130 of the image pickup surface 114 and the planned focal plane FP The positions of the centers 410 are matched.

次に本実施形態では、撮像面114と予定焦点面FPの水平方向の傾きを一致させる(第4のステップ)。具体的には、図14に戻り、ステップS240にて、撮像面114の中心から水平方向に離間した焦点検出画素列114b,114cの焦点検出画素116のデータを読み出し、前述した像ズレ検出演算処理を用いて焦点検出画素列114bと水平方向のラインパターン像421との交点132におけるデフォーカス量def2と、焦点検出画素列114cと水平方向のラインパターン像421との交点133におけるデフォーカス量def3とを、算出する。そして、該デフォーカス量def2、def3に基づいて予定焦点面FPに対する水平方向におけるアオリ角θhを算出する。画面中心から点132,133までの距離hを用いれば、θh=cos−1((def2+def3)/(2×h))となる。アオリ角θhに応じて撮像素子パッケージ110を撮像素子111の撮像面114の中心130を中心として水平方向にアオリ調整(傾き調整)し、図20に示すように、撮像面114と予定焦点面FPの水平方向の傾きを一致させる。 Next, in the present embodiment, the horizontal inclinations of the imaging surface 114 and the planned focal plane FP are matched (fourth step). Specifically, returning to FIG. 14, in step S240, the data of the focus detection pixels 116 of the focus detection pixel rows 114b and 114c spaced apart from the center of the imaging surface 114 in the horizontal direction is read out, and the image shift detection calculation process described above is performed. The defocus amount def2 at the intersection 132 between the focus detection pixel row 114b and the horizontal line pattern image 421, and the defocus amount def3 at the intersection 133 between the focus detection pixel row 114c and the horizontal line pattern image 421. Is calculated. Then, the tilt angle θh in the horizontal direction with respect to the planned focal plane FP is calculated based on the defocus amounts def2 and def3. If the distance h from the center of the screen to the points 132 and 133 is used, θh = cos −1 ((def2 + def3) / (2 × h)). According to the tilt angle θh, the image sensor package 110 is horizontally adjusted (inclined) around the center 130 of the image pickup surface 114 of the image pickup device 111, and as shown in FIG. 20, the image pickup surface 114 and the planned focal plane FP Match the horizontal slope of.

次に本実施形態では、撮像面114と予定焦点面FPの垂直方向の傾きを一致させる(第5のステップ)。具体的には、図14に戻り、ステップS250にて、水平方向のアオリ調整と同様にして、垂直方向のアオリ調整を行う。撮像面114の中心から垂直方向に離間した焦点検出画素列114d,114eの焦点検出画素116のデータを読み出し、前述した像ズレ検出演算処理を用いて焦点検出画素列114dと垂直方向のラインパターン像422の交点におけるデフォーカス量と、焦点検出画素列114eと垂直方向のラインパターン像422の交点におけるデフォーカス量とを、算出する。そして、該デフォーカス量に基づいて予定焦点面FPに対する垂直方向におけるアオリ角を算出する。該アオリ角に応じて撮像パッケージ110を撮像素子111の撮像面114の中心130を中心として垂直方向にアオリ調整(傾き調整)し、撮像面114と予定焦点面FPの垂直方向の傾きを一致させる。   Next, in the present embodiment, the vertical inclinations of the imaging surface 114 and the planned focal plane FP are matched (fifth step). Specifically, returning to FIG. 14, in step S250, the vertical tilt adjustment is performed in the same manner as the horizontal tilt adjustment. Data of the focus detection pixels 116 of the focus detection pixel rows 114d and 114e that are vertically separated from the center of the imaging surface 114 is read, and a line pattern image in the vertical direction with respect to the focus detection pixel row 114d using the image shift detection calculation process described above. The defocus amount at the intersection of 422 and the defocus amount at the intersection of the focus detection pixel array 114e and the line pattern image 422 in the vertical direction are calculated. Then, the tilt angle in the vertical direction with respect to the planned focal plane FP is calculated based on the defocus amount. In accordance with the tilt angle, the image pickup package 110 is tilt-adjusted (tilt adjustment) in the vertical direction around the center 130 of the image pickup surface 114 of the image sensor 111 so that the vertical inclinations of the image pickup surface 114 and the planned focal plane FP coincide. .

そして、撮像素子111の撮像面114と予定焦点面FPとが一致すると、位置調整処理を終了する(ステップS260)。   Then, when the imaging surface 114 of the imaging element 111 matches the planned focal plane FP, the position adjustment process is terminated (step S260).

本実施形態では、調整誤差を更に減少させるために、ステップ210からステップ250までの調整ステップを複数回繰り返すようにしてもよい。   In this embodiment, in order to further reduce the adjustment error, the adjustment steps from step 210 to step 250 may be repeated a plurality of times.

本実施形態によれば、光学系の予定焦点面FPの中心410に撮像素子111の撮像面114の中心130を一致させ(第1のステップ)、次に光学系の予定焦点面FPの水平垂直方向に撮像素子111の撮像面114の水平垂直方向を一致させ(第2のステップ)、次に光学系の予定焦点面FPの中心410と撮像素子111の撮像面114の中心130の光軸方向のズレを一致させ(第3のステップ)、次に光学系の予定焦点面FPと撮像素子111の撮像面114の水平方向の傾きを一致させ(第4のステップ)、最後に光学系の予定焦点面FPと撮像素子111の撮像面114の垂直方向の傾きを一致させる(第5のステップ)。このため、光学系の基準面(予定焦点面)からの撮像素子の撮像面の偏差方向以外の偏差や傾きを検出し、所定のステップを実行するので、撮像素子パッケージ110、すなわち撮像素子111の高精度な位置調整を短時間で効率的に行うことができる。   According to this embodiment, the center 130 of the imaging plane 114 of the imaging device 111 is made to coincide with the center 410 of the planned focal plane FP of the optical system (first step), and then the horizontal and vertical directions of the planned focal plane FP of the optical system. The horizontal and vertical directions of the imaging surface 114 of the image sensor 111 are aligned with each other (second step), and then the optical axis directions of the center 410 of the planned focal plane FP of the optical system and the center 130 of the imaging surface 114 of the image sensor 111 Are aligned (third step), and then the horizontal tilt of the imaging surface 114 of the imaging element 111 is matched with the planned focal plane FP of the optical system (fourth step), and finally the optical system is scheduled. The inclination in the vertical direction of the focal plane FP and the imaging surface 114 of the imaging element 111 is matched (fifth step). For this reason, deviations and inclinations other than the deviation direction of the imaging surface of the imaging device from the reference plane (scheduled focal plane) of the optical system are detected and predetermined steps are executed, so that the imaging device package 110, that is, the imaging device 111 High-accuracy position adjustment can be performed efficiently in a short time.

《第2実施形態》
第1実施形態では、撮像素子111の撮像面114を予定焦点面FPに一致させて調整を終了している。しかしながら、本実施形態では、図14のステップS250にて撮像面114と予定焦点面FPを一致させた後、焦点検出画素116の製造誤差に関する情報を測定して、測定した誤差情報をカメラボディ10に内蔵された記憶手段(図1ではメモリカード160)に書き込むようにしてもよい。
<< Second Embodiment >>
In the first embodiment, the adjustment is finished by matching the imaging surface 114 of the imaging element 111 with the planned focal plane FP. However, in the present embodiment, after the imaging surface 114 and the planned focal plane FP are matched in step S250 of FIG. 14, information on manufacturing errors of the focus detection pixels 116 is measured, and the measured error information is used as the camera body 10. The data may be written in a storage means (memory card 160 in FIG. 1) incorporated in the memory.

本実施形態では、図14のステップS250の終了後、調整用レンズ301に代え、図21に示すように、撮影光軸L上に調整用絞り開口41を有する絞り筒体40をカメラボディ10の前面に装着する。なお、絞り筒体40は、調整用絞り開口41と予定焦点面FPとの距離が測距瞳距離Dとなるように設置する。そして、図21の左側から撮像素子111に向けて照明光を照射する。   In the present embodiment, after step S250 in FIG. 14 is completed, instead of the adjustment lens 301, an aperture cylinder body 40 having an adjustment aperture opening 41 on the photographic optical axis L is provided on the camera body 10 as shown in FIG. Attach to the front. The diaphragm cylinder 40 is installed so that the distance between the adjustment aperture 41 and the planned focal plane FP becomes the distance measuring pupil distance D. Then, illumination light is irradiated toward the image sensor 111 from the left side of FIG.

図5B、図8B及び図9に示すように、上述した第1実施形態では、焦点検出画素116は、一対の光電変換部1162,1163の形状をマイクロレンズ1161によって前方に投影する構造となっている。例えば製造時に、マイクロレンズ1161の光軸と、一対の光電変換部1162,1163の中心との位置関係が設計値から外れた場合には、図9において測距瞳341,342の中心が光軸Lから外れてしまい、測距瞳341,342は光軸Lに対して対称な位置関係にならなくなる。このような状態になると、交換レンズ20の絞り開口により、測距瞳341,342が非対称にケラレてしまい、焦点検出精度が低下してしまう恐れがある。   As shown in FIGS. 5B, 8B, and 9, in the first embodiment described above, the focus detection pixel 116 has a structure in which the shape of the pair of photoelectric conversion units 1162 and 1163 is projected forward by the microlens 1161. Yes. For example, when the positional relationship between the optical axis of the microlens 1161 and the centers of the pair of photoelectric conversion units 1162 and 1163 deviates from the design value during manufacturing, the centers of the distance measuring pupils 341 and 342 in FIG. Accordingly, the distance measurement pupils 341 and 342 do not have a symmetrical positional relationship with respect to the optical axis L. In such a state, the distance measurement pupils 341 and 342 may be asymmetrically vignetted due to the aperture opening of the interchangeable lens 20, and the focus detection accuracy may be reduced.

そこでこのような誤差を測定するために、本実施形態では、上述した図21に示す調整用絞り開口41を有する絞り筒体40をカメラボディ10に取り付ける。   Therefore, in order to measure such an error, in this embodiment, the diaphragm cylinder 40 having the adjustment diaphragm opening 41 shown in FIG. 21 is attached to the camera body 10.

絞り開口41には拡散板42が取り付けられ、これにより絞り開口41を同図の左側である前方から一様に照明する。このような状態においては、一対の光電変換部1162,1163の出力は測距瞳341,342の非対称なケラレの程度に応じてレベル差を生じる。   A diffuser plate 42 is attached to the aperture opening 41, thereby illuminating the aperture opening 41 uniformly from the front, which is the left side of FIG. In such a state, the outputs of the pair of photoelectric conversion units 1162 and 1163 cause a level difference according to the degree of asymmetric vignetting of the distance measurement pupils 341 and 342.

予め測距瞳341,342の非対称なケラレの程度と、一対の光電変換部1162,1163の出力レベル差との関係を測定しておけば、測定した一対の光電変換部1162,1163の出力レベル差に基づいて測距瞳341,342の非対称なケラレの程度を検出することができる。非対称なケラレの程度は、例えば測距瞳距離Daとして数値化することができる。ここで測距瞳距離Daは一対の測距瞳341,342が光軸Lに対して対称な位置となる距離である。   If the relationship between the degree of asymmetric vignetting of the distance measuring pupils 341 and 342 and the output level difference between the pair of photoelectric conversion units 1162 and 1163 is measured in advance, the measured output level of the pair of photoelectric conversion units 1162 and 1163 is measured. Based on the difference, the degree of asymmetric vignetting of the distance measurement pupils 341 and 342 can be detected. The degree of asymmetric vignetting can be quantified as, for example, the distance measuring pupil distance Da. Here, the distance measurement pupil distance Da is a distance at which the pair of distance measurement pupils 341 and 342 are symmetrical with respect to the optical axis L.

撮像素子111の製造工程上、上記のような測距瞳の投影方向のバラツキは同一の撮像素子111においては略一定となる。   In the manufacturing process of the image sensor 111, the variation in the projection direction of the distance measuring pupil is substantially constant in the same image sensor 111.

そこで本実施形態では、撮像素子111の撮像面114と予定焦点面FPとを調整により一致させた後(図14のステップS250の後)に、上述した調整用絞り開口41を有するケラレ測定用の絞り筒体40をカメラボディ10に取り付け、一対の光電変換部1162,1163の出力レベルを測定し、測定結果に基づいて測距瞳距離Daを算出してメモリカード160に書き込むようにする。   Therefore, in the present embodiment, after the imaging surface 114 of the image sensor 111 and the planned focal plane FP are matched by adjustment (after step S250 in FIG. 14), the vignetting measurement having the above-described adjustment aperture opening 41 is used. The aperture cylinder 40 is attached to the camera body 10, the output levels of the pair of photoelectric conversion units 1162 and 1163 are measured, and the distance measurement pupil distance Da is calculated based on the measurement result and written to the memory card 160.

メモリカード160に記憶された製造誤差情報は、焦点検出時に読み出されて使用される。例えば一対の光電変換部1162,1163の出力データに対して、数式1の像ズレ検出を行う前に、製造誤差情報に応じて一対の光電変換部1162,1163の出力データのレベル調整を行うことができる。また、数式7の変換係数kを製造誤差情報に応じて補正することによりデフォーカス量の算出精度を高めることができるメリットがある。   The manufacturing error information stored in the memory card 160 is read and used at the time of focus detection. For example, before the image shift detection of Formula 1 is performed on the output data of the pair of photoelectric conversion units 1162 and 1163, the level of the output data of the pair of photoelectric conversion units 1162 and 1163 is adjusted according to the manufacturing error information. Can do. In addition, there is an advantage that the calculation accuracy of the defocus amount can be improved by correcting the conversion coefficient k of Expression 7 according to the manufacturing error information.

《その他の実施形態》
なお、図3に示す焦点検出画素列114a〜114eの配置は、図示する位置にのみ限定されず、対角線方向やその他の位置に焦点検出画素列を配置することも可能である。その際に画面中心に対して対称な位置にある焦点検出画素列の組を、上述した撮像素子111の位置調整に用いることにより、デフォーカス量の検出誤差および光学系の偏芯などによる誤差等を低減することができる。
<< Other Embodiments >>
Note that the arrangement of the focus detection pixel rows 114a to 114e shown in FIG. 3 is not limited to the illustrated positions, and the focus detection pixel rows can be arranged in a diagonal direction or other positions. At that time, the set of focus detection pixel rows located symmetrically with respect to the center of the screen is used for the position adjustment of the image sensor 111 described above, so that a defocus amount detection error, an error due to decentration of the optical system, and the like Can be reduced.

また、上述した実施形態では、交換レンズ20を使用するカメラシステム(デジタルスチルカメラやフィルムスチルカメラ)に関するものであるが、撮影レンズ(図示省略)がカメラボディ10および撮像素子111と一体となったシステム(デジタルスチルカメラやフィルムスチルカメラやビデオカメラなど)にも適用することができる。撮影レンズがカメラボディ10と一体となったシステムにも適用する場合には、図12の調整用レンズ301の代わりに撮影レンズそのものが撮像素子111の位置調整に用いられる。調整の際には、撮影レンズは所定の被写体距離位置に固定され、該被写体距離の光軸上に調整用画像パターン300が配置される。   In the above-described embodiment, the camera system (digital still camera or film still camera) using the interchangeable lens 20 is described. However, the photographing lens (not shown) is integrated with the camera body 10 and the image sensor 111. It can also be applied to systems (digital still cameras, film still cameras, video cameras, etc.). When the present invention is applied to a system in which the photographing lens is integrated with the camera body 10, the photographing lens itself is used for position adjustment of the image sensor 111 instead of the adjustment lens 301 of FIG. At the time of adjustment, the photographing lens is fixed at a predetermined subject distance position, and the adjustment image pattern 300 is disposed on the optical axis of the subject distance.

さらに本発明は、携帯電話等に内蔵される小型カメラモジュールや監視カメラやロボット用の視覚認識装置等にも適用でき、カメラ以外の焦点検出装置や測距装置やステレオ測距装置にも適用できる。   Furthermore, the present invention can be applied to a small camera module built in a mobile phone or the like, a surveillance camera, a visual recognition device for a robot, or the like, and can also be applied to a focus detection device other than a camera, a distance measuring device, or a stereo distance measuring device. .

図1は本実施形態に係るデジタルスチルカメラを示すブロック図である。FIG. 1 is a block diagram showing a digital still camera according to the present embodiment. 図2は図1のデジタルスチルカメラに装着される撮像素子パッケージの構造例を示す断面図である。FIG. 2 is a cross-sectional view showing an example of the structure of an image pickup device package mounted on the digital still camera shown in FIG. 図3は図2の撮像素子パッケージに含まれる撮像素子の撮像面における焦点検出位置を示す正面図である。FIG. 3 is a front view showing the focus detection position on the imaging surface of the imaging device included in the imaging device package of FIG. 図4Aは図3のIVA部分を拡大して焦点検出画素の配列を模式的に示す正面図である。FIG. 4A is a front view schematically showing an array of focus detection pixels by enlarging the IVA portion of FIG. 図4Bは図3のIVB部分を拡大して焦点検出画素の配列を模式的に示す正面図である。FIG. 4B is a front view schematically showing an array of focus detection pixels by enlarging the IVB portion of FIG. 3. 図5Aは図4Aに示す撮像画素の一つを拡大して示す正面図である。FIG. 5A is an enlarged front view showing one of the imaging pixels shown in FIG. 4A. 図5Bは図4Aに示す焦点検出画素の一つを拡大して示す正面図である。FIG. 5B is an enlarged front view showing one of the focus detection pixels shown in FIG. 4A. 図5Cは図4Aに相当する他の焦点検出画素の配列を模式的に示す正面図である。FIG. 5C is a front view schematically showing an arrangement of other focus detection pixels corresponding to FIG. 4A. 図5Dは図5CのVD部分を拡大して示す正面図である。FIG. 5D is an enlarged front view of the VD portion of FIG. 5C. 図6は図4Aに示す3つの撮像画素それぞれの波長に対する相対感度を示す分光特性図である。FIG. 6 is a spectral characteristic diagram showing the relative sensitivity with respect to the wavelength of each of the three imaging pixels shown in FIG. 4A. 図7は図4Aに示す焦点検出画素の波長に対する相対感度を示す分光特性図である。FIG. 7 is a spectral characteristic diagram showing the relative sensitivity with respect to the wavelength of the focus detection pixel shown in FIG. 4A. 図8Aは図4Aに示す撮像画素の一つを拡大して示す断面図である。FIG. 8A is an enlarged cross-sectional view showing one of the imaging pixels shown in FIG. 4A. 図8Bは図4Aに示す焦点検出画素の一つを拡大して示す断面図である。FIG. 8B is an enlarged cross-sectional view showing one of the focus detection pixels shown in FIG. 4A. 図9は図4AのIX-IX線に沿う断面図である。9 is a cross-sectional view taken along line IX-IX in FIG. 4A. 図10は本実施形態に係るデジタルスチルカメラの動作例を示すフローチャートである。FIG. 10 is a flowchart showing an operation example of the digital still camera according to the present embodiment. 図11(a)〜図11(c)は図1のカメラの焦点検出演算(デフォーカス量演算)手順を説明するためのグラフである。FIG. 11A to FIG. 11C are graphs for explaining the focus detection calculation (defocus amount calculation) procedure of the camera of FIG. 図12は本実施形態に係る撮像素子パッケージの位置調整時における構成図である。FIG. 12 is a configuration diagram at the time of position adjustment of the image sensor package according to the present embodiment. 図13Aは図12のブラケットの構成例を示す主要断面図である。FIG. 13A is a main cross-sectional view showing a configuration example of the bracket of FIG. 図13Bは図13Aのブラケットの正面図である。FIG. 13B is a front view of the bracket of FIG. 13A. 図14は図12の位置調整装置の動作を説明するフローチャートである。FIG. 14 is a flowchart for explaining the operation of the position adjustment apparatus of FIG. 図15は調整の初期状態における撮像素子の撮像面と予定焦点面の光軸と直交する面内の位置関係を示した図である。FIG. 15 is a diagram showing a positional relationship in a plane orthogonal to the optical axis of the imaging surface and the planned focal plane of the imaging device in the initial state of adjustment. 図16は調整第1段階における撮像素子の撮像面と予定焦点面の光軸と直交する面内の位置関係を示した図である。FIG. 16 is a diagram showing a positional relationship in a plane orthogonal to the optical axis of the imaging surface and the planned focal plane of the imaging device in the first adjustment stage. 図17は調整第2段階における撮像素子の撮像面と予定焦点面の光軸と直交する面内の位置関係を示した図である。FIG. 17 is a diagram showing a positional relationship in the plane orthogonal to the optical axis of the imaging surface and the planned focal plane of the imaging device in the second adjustment stage. 図18は図17の状態を光軸を含む水平断面で示した図である。FIG. 18 is a diagram showing the state of FIG. 17 in a horizontal section including the optical axis. 図19は調整第3段階における撮像素子の撮像面と予定焦点面の光軸方向の位置関係を示した図である。FIG. 19 is a diagram showing a positional relationship in the optical axis direction between the imaging surface of the image sensor and the planned focal plane in the third adjustment stage. 図20は調整最終段階における撮像素子の撮像面と予定焦点面の光軸と直交する面内の位置関係を示した図である。FIG. 20 is a diagram showing a positional relationship in a plane orthogonal to the optical axis of the imaging surface and the planned focal plane of the imaging device in the final adjustment stage. 図21は本実施形態に係る撮像素子パッケージの位置調整方法を説明するための図である。FIG. 21 is a diagram for explaining a method of adjusting the position of the image sensor package according to the present embodiment.

符号の説明Explanation of symbols

1…デジタルスチルカメラ(撮像装置)
10…カメラボディ
20…交換レンズ
110…撮像素子パッケージ
170…ブラケット(位置調整機構)
172…可動部;172a…凹部;173…固定部;174…突起部材
175…固定部材;176…バネ;177a,177b…位置調整部材
111…撮像素子
1111…半導体回路基板;114…撮像面
114a〜114e…焦点検出画素列;115…撮像画素
1151…マイクロレンズ;1152…光電変換部
116,116a,116b…焦点検出画素
1161,1161a,1161b…マイクロレンズ
1162,1163,1162a,1162b…光電変換部
300…調整用画像パターン;301…調整用レンズ;302…位置調整装置
40…絞り筒体;41…調整用絞り開口;42…拡散板
FP…予定焦点面;L,L1…光軸
1. Digital still camera (imaging device)
DESCRIPTION OF SYMBOLS 10 ... Camera body 20 ... Interchangeable lens 110 ... Image pick-up element package 170 ... Bracket (position adjustment mechanism)
172 ... Movable part; 172a ... Recessed part; 173 ... Fixed part; 174 ... Projection member 175 ... Fixed member; 176 ... Spring; 177a, 177b ... Position adjusting member 111 ... Imaging element 1111 ... Semiconductor circuit board; 114 ... Imaging surface 114a to 114e: Focus detection pixel row; 115 ... Imaging pixel 1151 ... Micro lens; 1152 ... Photoelectric conversion unit 116, 116a, 116b ... Focus detection pixel 1161, 1161a, 1161b ... Micro lens 1162, 1163, 1162a, 1162b ... Photoelectric conversion unit 300 ... Adjustment image pattern; 301 ... Adjustment lens; 302 ... Position adjustment device 40 ... Aperture cylinder; 41 ... Adjustment aperture opening; 42 ... Diffusion plate FP ... Focal focal plane; L, L1 ... Optical axis

Claims (11)

光学系の瞳の異なる領域から出射される一対の光束を受光し、前記光学系の焦点調節状態を検出する焦点検出画素を撮像面に有する撮像素子を、装置本体に組み付ける撮像装置の製造方法であって、
前記光学系の予定焦点面に所定の画像パターンを形成する第1の工程と、
前記画像パターンに対応する撮像パターンを前記撮像面で取得する第2の工程と、
前記焦点検出画素からの出力に基づいて、前記撮像面の前記予定焦点面に対するデフォーカス量を検出する第3の工程と、
検出されたデフォーカス量に基づいて、前記撮像素子の位置あるいは姿勢を調整する第4の工程とを、有する撮像装置の製造方法。
A method of manufacturing an imaging apparatus in which an imaging device having a focus detection pixel on an imaging surface for receiving a pair of light beams emitted from different regions of the pupil of an optical system and detecting a focus adjustment state of the optical system is mounted on the apparatus body. There,
A first step of forming a predetermined image pattern on a predetermined focal plane of the optical system;
A second step of acquiring an imaging pattern corresponding to the image pattern on the imaging surface;
A third step of detecting a defocus amount of the imaging plane with respect to the planned focal plane based on an output from the focus detection pixel;
And a fourth step of adjusting the position or orientation of the image sensor based on the detected defocus amount.
請求項1に記載の撮像装置の製造方法であって、
前記第3の工程では、前記焦点検出画素から出力される前記撮像パターンの前記画像パターンに対するズレ量を検出し、このズレ量に基づいて前記デフォーカス量を検出することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device according to claim 1,
In the third step, an amount of deviation of the imaging pattern output from the focus detection pixel with respect to the image pattern is detected, and the defocus amount is detected based on the amount of deviation. Production method.
請求項1または2に記載の撮像装置の製造方法であって、
前記第4の工程では、前記デフォーカス量に基づいて、前記撮像素子を前記光学系の光軸の方向に移動させることを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device according to claim 1 or 2,
In the fourth step, the image pickup device is moved in the direction of the optical axis of the optical system based on the defocus amount.
請求項1〜3のいずれか1項に記載の撮像装置の製造方法であって、
前記第4の工程では、前記デフォーカス量に基づいて、前記撮像素子の前記撮像面の前記光学系の光軸に対する傾きを調整することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device given in any 1 paragraph of Claims 1-3,
In the fourth step, an inclination of the imaging surface of the imaging element with respect to the optical axis of the optical system is adjusted based on the defocus amount.
請求項1〜4のいずれか1項に記載の撮像装置の製造方法であって、
前記第2の工程では、前記撮像素子から画像信号を取得し、
前記第4の工程では、前記画像信号に基づいて、前記光学系の光軸と直交する第1面内で前記撮像素子を移動させて、前記第1面内での前記撮像素子の位置を調整することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device given in any 1 paragraph of Claims 1-4,
In the second step, an image signal is acquired from the image sensor,
In the fourth step, based on the image signal, the image sensor is moved within a first surface orthogonal to the optical axis of the optical system to adjust the position of the image sensor within the first surface. A method for manufacturing an imaging device.
請求項5に記載の撮像装置の製造方法であって、
前記第4の工程では、前記画像信号に基づいて、前記第1面内で前記撮像素子を回動させ、前記第1面内での前記撮像素子の水平方向あるいは垂直方向の姿勢を調整することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device according to claim 5,
In the fourth step, based on the image signal, the image pickup device is rotated within the first surface, and the horizontal or vertical posture of the image pickup device within the first surface is adjusted. A method for manufacturing an imaging device.
請求項1〜6のいずれか1項に記載の撮像装置の製造方法であって、
前記撮像素子は、前記撮像面の第1の位置と、この第1の位置から互いに異なる方向に離間した第2及び第3の位置の少なくとも3ヶ所に前記焦点検出画素を有することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device given in any 1 paragraph of Claims 1-6,
The image pickup device includes the focus detection pixels at at least three positions of a first position of the image pickup surface and second and third positions separated from the first position in different directions. Manufacturing method of imaging apparatus.
撮像面の中心に配置される第1の焦点検出画素と、前記撮像面の中心から水平方向に対称に離間して配置される一対の第2の焦点検出画素と、前記撮像面の中心から垂直方向に対称に離間して配置される一対の第3の焦点検出画素を有する撮像素子を、装置本体に組み付ける撮像装置の製造方法であって、
前記撮像面で取得した、前記光学系の予定焦点面に形成された画像パターンに対応する撮像パターンのうち、前記撮像画素から前記撮像面の中心近傍の撮像データを読み出して、前記予定焦点面の中心に対する前記撮像面の中心の第1偏差量を算出し、この第1偏差量に基づいて、前記光学系の光軸と直交する第1面内で前記撮像素子を移動させ、前記撮像面の中心位置を調整する第1の工程と、
前記撮像画素から前記撮像面の像データを読み出して、前記予定焦点面に対する前記撮像面の傾き角を算出し、この傾き角に基づいて、前記第1面内で前記撮像素子を前記光軸の回りに回動させ、前記撮像面の水平垂直方向位置を調整する第2の工程と、
前記第1の焦点検出画素から前記光軸の方向における前記撮像面の中心近傍の撮像データを読み出して、前記予定焦点面の中心に対する前記撮像面の中心の第2偏差量を算出し、この第2偏差量に基づいて、前記光軸の方向に前記撮像素子を移動させ、前記撮像面の中心と前記予定焦点面の中心の光軸方向のズレを調整する第3の工程と、
前記第2の焦点検出画素から前記撮像面の像データを読み出して、前記予定焦点面に対する前記撮像面の第3偏差量を算出し、この第3偏差量に基づいて、前記撮像面の前記予定焦点面に対する水平傾き角を算出し、この水平傾き角に基づいて、前記撮像素子を前記撮像面の中心の回りに水平方向に回動させ、前記撮像面と予定焦点面の水平方向の傾きを調整する第4の工程と、
前記第3の焦点検出画素から前記撮像面の像データを読み出して、前記予定焦点面に対する前記撮像面の第4偏差量を算出し、この第4偏差量に基づいて、前記撮像面の前記予定焦点面に対する垂直傾き角を算出し、この垂直傾き角に基づいて、前記撮像素子を前記撮像面の中心の回りに垂直方向に回動させ、前記撮像面と予定焦点面の垂直方向の傾きを調整する第5の工程とを、有する撮像装置の製造方法。
A first focus detection pixel disposed at the center of the imaging surface, a pair of second focus detection pixels disposed symmetrically apart from the center of the imaging surface in the horizontal direction, and a vertical from the center of the imaging surface An image pickup apparatus manufacturing method in which an image pickup element having a pair of third focus detection pixels arranged symmetrically apart in a direction is assembled to an apparatus body,
Of the imaging pattern corresponding to the image pattern formed on the planned focal plane of the optical system acquired on the imaging plane, the imaging data near the center of the imaging plane is read from the imaging pixel, and A first deviation amount of the center of the imaging surface with respect to the center is calculated, and based on the first deviation amount, the imaging element is moved within a first surface orthogonal to the optical axis of the optical system, and the imaging surface A first step of adjusting the center position;
Image data of the imaging surface is read from the imaging pixels, and an inclination angle of the imaging surface with respect to the planned focal plane is calculated. Based on the inclination angle, the imaging element is moved along the optical axis within the first surface. A second step of rotating around and adjusting a horizontal and vertical position of the imaging surface;
The imaging data in the vicinity of the center of the imaging plane in the direction of the optical axis is read from the first focus detection pixel, and a second deviation amount of the center of the imaging plane with respect to the center of the planned focal plane is calculated. A third step of adjusting the shift in the optical axis direction between the center of the imaging plane and the center of the planned focal plane by moving the imaging element in the direction of the optical axis based on the two deviation amounts;
The image data of the imaging surface is read from the second focus detection pixel, a third deviation amount of the imaging surface with respect to the planned focal plane is calculated, and the schedule of the imaging surface is calculated based on the third deviation amount. A horizontal tilt angle with respect to the focal plane is calculated, and based on the horizontal tilt angle, the image sensor is rotated in the horizontal direction around the center of the imaging plane, and the horizontal tilt between the imaging plane and the planned focal plane is calculated. A fourth step to adjust;
The image data of the imaging surface is read from the third focus detection pixel, a fourth deviation amount of the imaging surface with respect to the planned focal plane is calculated, and the scheduled of the imaging surface is calculated based on the fourth deviation amount. A vertical tilt angle with respect to the focal plane is calculated, and based on the vertical tilt angle, the imaging device is rotated in the vertical direction around the center of the imaging plane, and the vertical tilt between the imaging plane and the planned focal plane is calculated. And a fifth step of adjusting the imaging device.
請求項8に記載の撮像装置の製造方法であって、
前記撮像素子が、マイクロレンズの背後に、受光部として一対の光電変換部を備えた前記焦点検出画素を有することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device according to claim 8,
The imaging device includes the focus detection pixel including a pair of photoelectric conversion units as a light receiving unit behind a microlens.
請求項8に記載の撮像装置の製造方法であって、
前記撮像素子が、第1のマイクロレンズの背後に、受光部として第1の光電変換部を備えた第1の焦点検出画素と、第2のマイクロレンズの背後に、前記第1の光電変換部と対を成す第2の光電変換部を備えた第2の焦点検出画素とで構成される前記焦点検出画素を有することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device according to claim 8,
The imaging element includes a first focus detection pixel including a first photoelectric conversion unit as a light receiving unit behind a first microlens, and a first photoelectric conversion unit behind a second microlens. And a second focus detection pixel provided with a second photoelectric conversion unit paired with the focus detection pixel.
請求項1〜10のいずれか1項に記載の撮像装置の製造方法であって、
前記画像パターンは、水平方向に延びる第1のラインパターンと、垂直方向に延びる第2のラインパターンとが、前記光学系の光軸上で交差することを特徴とする撮像装置の製造方法。
It is a manufacturing method of the imaging device given in any 1 paragraph of Claims 1-10,
In the image pattern, the first line pattern extending in the horizontal direction and the second line pattern extending in the vertical direction intersect on the optical axis of the optical system.
JP2007317450A 2007-12-07 2007-12-07 Manufacturing method of imaging apparatus Expired - Fee Related JP5029334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007317450A JP5029334B2 (en) 2007-12-07 2007-12-07 Manufacturing method of imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007317450A JP5029334B2 (en) 2007-12-07 2007-12-07 Manufacturing method of imaging apparatus

Publications (2)

Publication Number Publication Date
JP2009141791A true JP2009141791A (en) 2009-06-25
JP5029334B2 JP5029334B2 (en) 2012-09-19

Family

ID=40871930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007317450A Expired - Fee Related JP5029334B2 (en) 2007-12-07 2007-12-07 Manufacturing method of imaging apparatus

Country Status (1)

Country Link
JP (1) JP5029334B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011017842A (en) * 2009-07-08 2011-01-27 Nikon Corp Imaging unit and electronic camera
JP2011130061A (en) * 2009-12-16 2011-06-30 Fujifilm Corp Method and device for adjusting positional relation between photographic lens and imaging device, and method and device for manufacturing camera module
JP2012049999A (en) * 2010-08-30 2012-03-08 Nikon Corp Imaging apparatus and posture adjustment program
JP2014029393A (en) * 2012-07-31 2014-02-13 Canon Inc Distance detection device
WO2014171099A1 (en) * 2013-04-17 2014-10-23 コニカミノルタ株式会社 Method and apparatus for manufacturing camera module
JP2016042194A (en) * 2015-11-11 2016-03-31 株式会社ニコン Imaging apparatus
JP2016075772A (en) * 2014-10-03 2016-05-12 シャープ株式会社 Camera module
JP2020003523A (en) * 2018-06-25 2020-01-09 キヤノン株式会社 Imaging device and control method therefor
US12025490B2 (en) 2019-10-07 2024-07-02 Vexcel Imaging Gmbh Sensor arrangement

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030256A (en) * 2004-07-12 2006-02-02 Mitsubishi Electric Corp Focusing adjustment method and focusing adjustment device for imaging apparatus
JP2007093495A (en) * 2005-09-30 2007-04-12 Olympus Corp Imaging device and optical apparatus measuring device
JP2007233034A (en) * 2006-03-01 2007-09-13 Nikon Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006030256A (en) * 2004-07-12 2006-02-02 Mitsubishi Electric Corp Focusing adjustment method and focusing adjustment device for imaging apparatus
JP2007093495A (en) * 2005-09-30 2007-04-12 Olympus Corp Imaging device and optical apparatus measuring device
JP2007233034A (en) * 2006-03-01 2007-09-13 Nikon Corp Imaging apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011017842A (en) * 2009-07-08 2011-01-27 Nikon Corp Imaging unit and electronic camera
JP2011130061A (en) * 2009-12-16 2011-06-30 Fujifilm Corp Method and device for adjusting positional relation between photographic lens and imaging device, and method and device for manufacturing camera module
JP2012049999A (en) * 2010-08-30 2012-03-08 Nikon Corp Imaging apparatus and posture adjustment program
JP2014029393A (en) * 2012-07-31 2014-02-13 Canon Inc Distance detection device
WO2014171099A1 (en) * 2013-04-17 2014-10-23 コニカミノルタ株式会社 Method and apparatus for manufacturing camera module
JP2016075772A (en) * 2014-10-03 2016-05-12 シャープ株式会社 Camera module
JP2016042194A (en) * 2015-11-11 2016-03-31 株式会社ニコン Imaging apparatus
JP2020003523A (en) * 2018-06-25 2020-01-09 キヤノン株式会社 Imaging device and control method therefor
JP7187185B2 (en) 2018-06-25 2022-12-12 キヤノン株式会社 Imaging device and its control method
US12025490B2 (en) 2019-10-07 2024-07-02 Vexcel Imaging Gmbh Sensor arrangement

Also Published As

Publication number Publication date
JP5029334B2 (en) 2012-09-19

Similar Documents

Publication Publication Date Title
US9560258B2 (en) Image sensing apparatus, image sensing system and focus detection method of detecting a focus position of a lens using image signal pair
JP5169499B2 (en) Imaging device and imaging apparatus
JP5029334B2 (en) Manufacturing method of imaging apparatus
JP4961993B2 (en) Imaging device, focus detection device, and imaging device
KR101280248B1 (en) Camera and camera system
JP5159700B2 (en) Optical apparatus and focus detection method
KR101310105B1 (en) Focus detection apparatus
JP2007317951A (en) Optical sensing element and photographing device
JP4983271B2 (en) Imaging device
WO2008032820A1 (en) Imaging element and imaging device
JP5256675B2 (en) Imaging device
WO2009104417A1 (en) Image pickup device
JPWO2010050184A1 (en) Imaging unit
JP2008211631A (en) Focal point detection element, focal point detector, and imaging apparatus
JP2008224801A (en) Focus detector and imaging apparatus
JP5067148B2 (en) Imaging device, focus detection device, and imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2005300992A (en) Device for detecting focal point
US6643460B2 (en) Camera and focal point detection apparatus
JP5610005B2 (en) Imaging device
JP2009081522A (en) Imaging apparatus
JP2019184956A (en) Focus detection device, camera body and camera system
JP2018026604A (en) Imaging device and imaging device system
JP5012328B2 (en) Image sensor position adjustment method
JP2018031931A (en) Focus detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

R150 Certificate of patent or registration of utility model

Ref document number: 5029334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees