JP2009168995A - Range-finding device and imaging apparatus - Google Patents

Range-finding device and imaging apparatus Download PDF

Info

Publication number
JP2009168995A
JP2009168995A JP2008005550A JP2008005550A JP2009168995A JP 2009168995 A JP2009168995 A JP 2009168995A JP 2008005550 A JP2008005550 A JP 2008005550A JP 2008005550 A JP2008005550 A JP 2008005550A JP 2009168995 A JP2009168995 A JP 2009168995A
Authority
JP
Japan
Prior art keywords
image
imaging
optical system
distance measuring
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008005550A
Other languages
Japanese (ja)
Inventor
Yasushi Ogino
泰 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008005550A priority Critical patent/JP2009168995A/en
Publication of JP2009168995A publication Critical patent/JP2009168995A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a range-finding device capable of performing focus detection nearly all over the area of a photographic image plane. <P>SOLUTION: The range-finding device includes: first and second polarization elements 11 (11a and 11b) arranged at different positions from each other on a plane conjugate to the pupil of an optical system 1 and having different polarization characteristic from each other; a polarized light splitting element 2 splitting first luminous flux from the first polarization element 11 (11a) and second luminous flux from the second polarization element 11 (11b) out of luminous flux passing through the optical system 1; a plurality of imaging means 3 and 4 arranged on a scheduled imaging surface of the optical system 1 and picking up a first image formed by the first luminous flux and a second image formed by the second luminous flux respectively independently; and a focus detection means 5 detecting the focusing state of the optical system 1 based on relative image shift between the first and second images. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、測距装置および撮像装置に関する。   The present invention relates to a distance measuring device and an imaging device.

従来、瞳分割方式によって結像光学系の焦点検出を行う光学機器が知られている(例えば、特許文献1参照)。   Conventionally, an optical apparatus that performs focus detection of an imaging optical system by a pupil division method is known (see, for example, Patent Document 1).

上述の装置では、回折格子と液晶とを組み合わせた電気光学素子を結像光学系の瞳面に挿入し、射出瞳における異なる領域を通過した光を異なる方向に偏向する。そして、それぞれの光束を結像光学系の像を撮像する撮像素子の異なる領域に結像させ、その撮像データに基づいて位相差AFを行うようにしている。   In the above-described apparatus, an electro-optical element combining a diffraction grating and liquid crystal is inserted into the pupil plane of the imaging optical system, and light that has passed through different regions in the exit pupil is deflected in different directions. Then, the respective light fluxes are formed on different regions of the image pickup device for picking up an image of the image forming optical system, and phase difference AF is performed based on the image pickup data.

特開2006−106435号公報JP 2006-106435 A

しかしながら、上述した従来の装置では、結像光学系の像面の一部の領域しか焦点検出情報が得られなかった。   However, in the conventional apparatus described above, focus detection information can be obtained only in a part of the image plane of the imaging optical system.

請求項1の発明による測距装置は、光学系の瞳と共役な面の互いに異なる位置に配置され、互いに偏光特性が異なる第1および第2の偏光素子と、光学系を通過する光束のうち第1の偏光素子からの第1の光束と第2の偏光素子からの第2の光束とを分離する偏光分離素子と、光学系の予定結像面に配置され、第1の光束による第1の像と第2の光束による第2の像とをそれぞれ独立して撮像する複数の撮像手段と、第1および第2の像の相対的なズレに基づいて、光学系の焦点調節状態を検出する焦点検出手段とを備えたことを特徴とする。
請求項2の発明は、請求項1に記載の測距装置において、光学系の瞳近傍に配置され、第1および第2の光束をそれぞれ制限する開口絞りを備えたことを特徴とする。
請求項3の発明は、請求項2に記載の測距装置において、開口絞りは、光学系の光軸からの距離が互いに異なる複数の開口を有し、複数の開口のいずれか一つを選択的に瞳近傍に配置する選択手段を備えたことを特徴とする。
請求項4の発明は、請求項1に記載の測距装置において、第1の光束による像と第2の光束による像を再結像する再結像光学系を備え、第1および第2の偏光素子を、光学系の瞳と光学的に等価な面に配置したことを特徴とする。
請求項5の発明は、請求項1〜4のいずれか一項に記載の測距装置において、複数の撮像手段は、第1の像を撮像する第1の撮像素子と、第1の撮像素子よりも大きな撮像領域を有して第2の像を撮像する第2の撮像素子とを備えることを特徴とする。
請求項6の発明による撮像装置は、請求項1〜5のいずれか一項に記載の測距装置と、第1の像の撮像データおよび第2の像の撮像データの少なくとも一方を用いて撮影画像を生成する画像生成手段とを備えたことを特徴とする。
請求項7の発明は、請求項6に記載の撮像装置において、第1および第2の偏光素子を光学系の光路に対して進退可能に移動する移動手段を備え、第1および第2の偏光素子を光学系の光路から退避した位置に移動させた状態において撮像された第1および第2の像の撮像データに基づいて、撮影画像を生成することを特徴とする。
請求項8の発明は、請求項7に記載の撮像装置において、撮像された第1および第2の像の撮像データを加算して撮影画像を生成することを特徴とする。
請求項9の発明は、請求項6に記載の撮像装置において、第1および第2の像の相対的な像ズレに基づいて、第1および第2の像の撮像データの互いに対応する撮像データどうしを加算することにより、撮影画像を生成することを特徴とする。
請求項10の発明は、請求項6〜9のいずれか一項に記載の撮像装置において、第1の像の撮像データに基づく第1表示画像と、第2の像の撮像データに基づく第2表示画像とをそれぞれ表示する表示装置を備えたことを特徴とする。
請求項11の発明による撮像装置は、請求項5に記載の測距装置と、光学系の焦点距離に応じて、第1および第2の撮像素子のいずれか一方の撮像データを用いて撮影画像を生成する画像生成手段とを備えたことを特徴とする。
A distance measuring device according to a first aspect of the present invention includes first and second polarizing elements that are arranged at different positions on a plane conjugate with a pupil of an optical system and have different polarization characteristics, and a light beam that passes through the optical system. A polarization separation element that separates the first light flux from the first polarization element and the second light flux from the second polarization element, and the first light flux by the first light flux is disposed on the planned imaging plane of the optical system. And a plurality of imaging means for independently capturing the second image and the second image by the second light beam, and detecting the focus adjustment state of the optical system based on the relative displacement between the first and second images And a focus detection means.
According to a second aspect of the present invention, in the distance measuring device according to the first aspect, an aperture stop is provided in the vicinity of the pupil of the optical system and restricts the first and second light beams, respectively.
According to a third aspect of the present invention, in the distance measuring device according to the second aspect, the aperture stop has a plurality of apertures having different distances from the optical axis of the optical system, and selects any one of the plurality of apertures. It is characterized by comprising selection means arranged in the vicinity of the pupil.
According to a fourth aspect of the present invention, in the distance measuring device according to the first aspect, a re-imaging optical system that re-images the image by the first light beam and the image by the second light beam is provided. The polarizing element is arranged on a surface optically equivalent to the pupil of the optical system.
According to a fifth aspect of the present invention, in the distance measuring apparatus according to any one of the first to fourth aspects, the plurality of imaging means includes a first imaging element that captures a first image, and a first imaging element. And a second imaging element that has a larger imaging area and captures the second image.
An imaging device according to a sixth aspect of the present invention is photographed using the distance measuring device according to any one of the first to fifth aspects and at least one of the first image imaging data and the second image imaging data. An image generation means for generating an image is provided.
According to a seventh aspect of the present invention, in the imaging apparatus according to the sixth aspect, the first and second polarization elements are provided with moving means for moving the first and second polarization elements so as to advance and retreat relative to the optical path of the optical system. A captured image is generated based on imaging data of the first and second images captured in a state where the element is moved to a position retracted from the optical path of the optical system.
According to an eighth aspect of the present invention, in the imaging apparatus according to the seventh aspect, the captured image is generated by adding the captured image data of the captured first and second images.
According to a ninth aspect of the present invention, in the imaging device according to the sixth aspect, the imaging data corresponding to each other of the imaging data of the first and second images is based on the relative image shift between the first and second images. A photographed image is generated by adding the two to each other.
A tenth aspect of the present invention is the imaging apparatus according to any one of the sixth to ninth aspects, wherein the first display image based on the first image imaging data and the second image based on the second image imaging data. A display device that displays each display image is provided.
According to an eleventh aspect of the present invention, there is provided an image pickup apparatus that uses the image pickup data of one of the first and second image pickup elements in accordance with the distance measuring device according to the fifth aspect and the focal length of the optical system. And an image generation means for generating.

本発明によれば、撮影画面のほぼ全領域についての焦点検出を行うことができる。   According to the present invention, focus detection can be performed for almost the entire region of the shooting screen.

以下、図を参照して本発明を実施するための最良の形態について説明する。
−第1の実施の形態−
図1は、本発明による測距装置の第1の実施の形態を示す図であり、測距装置の基本構成を示す図である。測距装置は、対物光学系1、偏光分離素子2、第1の撮像素子3、第2の撮像素子4、画像処理回路5、AF制御回路6、AF駆動機構7および画像メモリ8を備えている。なお、本実施の形態の測距装置は、撮像素子3,4の画像データに基づいて、撮影用の画像を生成することもできる。
Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.
-First embodiment-
FIG. 1 is a diagram showing a first embodiment of a distance measuring device according to the present invention, and shows a basic configuration of the distance measuring device. The distance measuring device includes an objective optical system 1, a polarization separation element 2, a first image sensor 3, a second image sensor 4, an image processing circuit 5, an AF control circuit 6, an AF drive mechanism 7, and an image memory 8. Yes. Note that the distance measuring device according to the present embodiment can also generate an image for photographing based on the image data of the imaging elements 3 and 4.

対物光学系1は、瞳位置近傍に配置された偏光素子11が設けられている。偏光素子11は光軸を中心に2つの領域11a,11bに分かれており、領域11aの偏光軸と領域11bの偏光軸とは互いに直交している。偏光素子11は瞳位置近傍に配置されているので、瞳領域は領域11a,11bに対応する2つの部分瞳領域に分割されることになる。   The objective optical system 1 is provided with a polarizing element 11 disposed in the vicinity of the pupil position. The polarizing element 11 is divided into two regions 11a and 11b around the optical axis, and the polarization axis of the region 11a and the polarization axis of the region 11b are orthogonal to each other. Since the polarizing element 11 is disposed in the vicinity of the pupil position, the pupil region is divided into two partial pupil regions corresponding to the regions 11a and 11b.

対物光学系1に入射した光束は偏光素子11によって互いに直交する2つの偏光光束に変換される。領域11aから出射される偏光光は、偏光素子11と撮像素子3との間に配設された偏光分離素子(偏光ビームスプリッタ)2の偏光分離面を透過して撮像素子3上に結像される。一方、領域11bから出射される偏光光は偏光分離素子2の偏光分離面で反射され、偏光分離素子2の下方に配置された撮像素子4上に結像される。撮像素子4は撮像素子3と光学的に等価な位置に配置されており、撮像素子3にピントの合った像が結像されると、撮像素子4にもピントの合った像が結像される。撮像素子3,4には、受光素子が2次元状に配列されたエリアセンサが用いられる。   The light beam incident on the objective optical system 1 is converted into two polarized light beams orthogonal to each other by the polarizing element 11. The polarized light emitted from the region 11 a passes through the polarization separation surface of the polarization separation element (polarization beam splitter) 2 disposed between the polarization element 11 and the imaging element 3 and forms an image on the imaging element 3. The On the other hand, the polarized light emitted from the region 11 b is reflected by the polarization separation surface of the polarization separation element 2, and forms an image on the image sensor 4 disposed below the polarization separation element 2. The image sensor 4 is disposed at an optically equivalent position to the image sensor 3, and when an image in focus is formed on the image sensor 3, an image in focus is also formed on the image sensor 4. The As the image pickup elements 3 and 4, area sensors in which light receiving elements are arranged two-dimensionally are used.

撮像素子3および撮像素子4の出力はそれぞれ画像処理回路5に送られ、そこでA/D変換、色処理等の画像処理が施される。さらに、画像処理回路5では、撮像素子3および撮像素子4の出力から得られた画像データに基づいて、焦点検出に関する演算を行う。AF制御回路6は、画像処理回路5で算出された焦点検出演算値に基づいてAF駆動機構7を駆動制御し、対物光学系1の焦点調節を行う。また、画像処理回路5で得られた画像データは、画像メモリ8に記録される。   The outputs of the image pickup device 3 and the image pickup device 4 are respectively sent to the image processing circuit 5, where image processing such as A / D conversion and color processing is performed. Further, the image processing circuit 5 performs calculations related to focus detection based on image data obtained from the outputs of the image sensor 3 and the image sensor 4. The AF control circuit 6 controls the driving of the AF drive mechanism 7 based on the focus detection calculation value calculated by the image processing circuit 5 and performs the focus adjustment of the objective optical system 1. The image data obtained by the image processing circuit 5 is recorded in the image memory 8.

図2は、本実施の形態における焦点検出方式の原理を説明する図である。20は物体面、21は撮像素子3,4の撮像面を表している。なお、図1では対物光学系1に複数の対物レンズを示しているが、図2では一つの対物レンズ12で代表して示した。上述したように撮像素子3,4の各撮像面は光学的に等価な面を構成しているので、図2では同一の撮像面21で表している。   FIG. 2 is a diagram for explaining the principle of the focus detection method in the present embodiment. Reference numeral 20 denotes an object plane, and 21 denotes an imaging plane of the imaging elements 3 and 4. In FIG. 1, a plurality of objective lenses are shown in the objective optical system 1, but in FIG. As described above, the image pickup surfaces of the image pickup devices 3 and 4 constitute optically equivalent surfaces, and therefore are represented by the same image pickup surface 21 in FIG.

物体面20から発した光束22a,22bは対物光学系1の対物レンズ12によって結像される。対物レンズ12を介して偏光素子11の領域11aに光束22aが入射すると、領域11aを透過する偏光成分のみが領域11aから出射され、撮像素子3の撮像面21の近傍に結像する。一方、対物レンズ12を介して偏光素子11の領域11bに光束22bが入射すると、領域11bを透過する偏光成分のみが領域11bから出射され、撮像素子4の撮像面21の近傍に結像する。   Light beams 22 a and 22 b emitted from the object plane 20 are imaged by the objective lens 12 of the objective optical system 1. When the light beam 22a is incident on the region 11a of the polarizing element 11 through the objective lens 12, only the polarization component that passes through the region 11a is emitted from the region 11a and forms an image near the imaging surface 21 of the imaging device 3. On the other hand, when the light beam 22 b enters the region 11 b of the polarizing element 11 through the objective lens 12, only the polarization component that passes through the region 11 b is emitted from the region 11 b and forms an image near the imaging surface 21 of the imaging device 4.

図2(a)は合焦状態を示したものであり、光束22aによる像も光束22bによる像も撮像面21上に結像し、撮像面21の同一位置に投影される。すなわち、撮像素子3の撮像画像と撮像素子4の撮像画像とを重ねると、結像位置が一致している。図2(b)は前側にデフォーカスした状態を示したものである。結像位置は撮像面21よりも後方にあるため、撮像面21上の像はボケており、光束22a,22bによる像の位置にズレCが生じている。光束22aによる像23aは光軸に対して図示上側に像ズレしており、光束22bによる像23bは光軸に対して下側に像ズレしている。逆に、図2(c)に示す後側にデフォーカスした状態では、光束22aによる像23aは光軸に対して下側に像ズレしており、光束22bによる像23bは光軸に対して上側に像ズレしている。   FIG. 2A shows an in-focus state, and an image by the light beam 22 a and an image by the light beam 22 b are formed on the imaging surface 21 and projected on the same position on the imaging surface 21. That is, when the captured image of the image sensor 3 and the captured image of the image sensor 4 are overlapped, the imaging positions coincide. FIG. 2B shows a state defocused to the front side. Since the image formation position is behind the image pickup surface 21, the image on the image pickup surface 21 is blurred, and a deviation C occurs in the position of the image by the light beams 22a and 22b. The image 23a by the light beam 22a is shifted from the optical axis on the upper side in the drawing, and the image 23b by the light beam 22b is shifted from the lower side with respect to the optical axis. On the contrary, in the state defocused to the rear side shown in FIG. 2C, the image 23a by the light beam 22a is shifted downward with respect to the optical axis, and the image 23b by the light beam 22b is shifted with respect to the optical axis. The image is shifted to the upper side.

このように、領域11a,11bからの偏光成分を偏光分離素子2で分離して、独立した二つの撮像素子3,4に結像することにより各偏光成分の画像を取得し、その2つの画像の中の像の位相差を比較することで、通常の位相差AFと同様にしてデフォーカス量を算出することができる。なお、像ズレCがより明瞭に検出できるように、図2(d)に示すような瞳の透過領域を制限する瞳マスク24を挿入するようにしても良い。一対の透過部を有する瞳マスク24の挿入によって光軸近傍の光が遮光され、F値の大きい光束のみが使用されるため視差が大きくなり、光束が細く絞られるためデフォーカスによる像23a,23bのボケが小さくなる。その結果、像ズレCがより明瞭に検出できるようになる。   In this manner, the polarization components from the regions 11a and 11b are separated by the polarization separation element 2 and formed on the two independent image pickup devices 3 and 4, thereby obtaining images of the respective polarization components, and the two images. By comparing the phase differences of the images in the image, the defocus amount can be calculated in the same manner as the normal phase difference AF. Note that a pupil mask 24 for limiting the transmission region of the pupil as shown in FIG. 2D may be inserted so that the image shift C can be detected more clearly. By inserting a pupil mask 24 having a pair of transmission parts, light in the vicinity of the optical axis is shielded, and only a light beam having a large F value is used, so that the parallax becomes large and the light beam is narrowed down, so that the images 23a and 23b by defocusing are used. The blur becomes smaller. As a result, the image shift C can be detected more clearly.

図2の(a)〜(c)は、物体面20の一点に関して、撮影距離の違いに応じて像23a,23bの像ズレ状態が異なることを示したものである。一方、撮像素子3,4により撮像された画像の全画面領域を比較した場合、被写体領域が異なると撮影距離も異なっているので、被写体領域毎に像ズレ状態が異なっている。そのため、それぞれの像ズレを検出してデフォーカス量を算出すれば、1回の撮像により全画面領域に関する測距データを取得することができる。   2A to 2C show that the image shift states of the images 23a and 23b are different depending on the photographing distance with respect to one point of the object plane 20. FIG. On the other hand, when the entire screen areas of the images picked up by the image pickup devices 3 and 4 are compared, since the shooting distance is different if the subject area is different, the image shift state is different for each subject area. Therefore, if each image shift is detected and the defocus amount is calculated, distance measurement data regarding the entire screen area can be acquired by one imaging.

例えば、画面内に撮影距離の異なる被写体が2つだけあった場合について考える。図3(a)は撮像素子3で撮像された画像Aの撮像信号を模式的に示したものであり、横軸は撮像面21上における受光素子の位置を表しており、縦軸は受光素子から出力される撮像信号のレベルを示す。画像Aには、それぞれの被写体に対応して信号30Aと信号31Aが現れている。   For example, consider a case where there are only two subjects with different shooting distances on the screen. FIG. 3A schematically shows an image pickup signal of an image A picked up by the image pickup device 3, the horizontal axis represents the position of the light receiving element on the image pickup surface 21, and the vertical axis represents the light receiving element. The level of the imaging signal output from is shown. In the image A, a signal 30A and a signal 31A appear corresponding to each subject.

図3(b)は、撮像素子3の画像Aに撮像素子4の画像を重ね合わせたものであり、実線が画像Aの撮像信号分布を示し、破線が画像Bの撮像信号分布を示している。なお、図3(a)はノイズ成分等が現れていない理想的な信号を示しており、実際にはシャッタ速度の低下や感度アップなどによるノイズ増大等の影響が図3(b)に示すように含まれている。信号30Bと信号30Aは同一被写体に対応する信号であり、信号31Aと信号31Bは他の同一被写体に対応する信号である。図2の像23a,23bとの対応では、信号30A,31Aは像23aに対応し、信号30B,31Bは像23bに対応する。   FIG. 3B is an image obtained by superimposing the image of the image sensor 4 on the image A of the image sensor 3. The solid line indicates the image signal distribution of the image A, and the broken line indicates the image signal distribution of the image B. . FIG. 3A shows an ideal signal in which no noise component or the like appears. Actually, the influence of noise increase due to a decrease in shutter speed or an increase in sensitivity is shown in FIG. 3B. Included. The signal 30B and the signal 30A are signals corresponding to the same subject, and the signal 31A and the signal 31B are signals corresponding to other same subjects. In correspondence with the images 23a and 23b in FIG. 2, the signals 30A and 31A correspond to the image 23a, and the signals 30B and 31B correspond to the image 23b.

図3(b)の信号30Bは信号30Aに対してx1だけ像ズレしているが、この像ズレ量は、位相差AFにおける像ズレ量算の場合と同様の方法で求めることができる。例えば、信号30A,30Bを含む部分領域の画像に関して、画像Bの信号を受光素子一つ分ずつずらしたものと画像Aの信号との差分の絶対値をとって、その差分が極小をとるときのずらし量を像ズレ量x1とする。   Although the signal 30B in FIG. 3B is shifted by x1 with respect to the signal 30A, this image shift amount can be obtained by the same method as in the image shift amount calculation in the phase difference AF. For example, regarding the partial region image including the signals 30A and 30B, when the absolute value of the difference between the image B signal shifted by one light receiving element and the image A signal is taken and the difference is minimized. The shift amount is defined as an image shift amount x1.

図3(c)のように画像Bのずらし量がx1となったときに信号30Aと信号30Bとが打ち消し合い、差分の絶対値が極小となる。図3(d)は信号31A,31Bに対応する像に関して同様の処理を行った場合を示しており、画像Bのずらし量がx2となったときに信号31Aと信号31Bとが打ち消し合い、差分の絶対値が極小となる。このような処理を全画面領域に関して行うことにより、全画面領域の各被写体に対する距離情報が得られることになる。   As shown in FIG. 3C, when the shift amount of the image B becomes x1, the signal 30A and the signal 30B cancel each other, and the absolute value of the difference becomes the minimum. FIG. 3D shows a case where the same processing is performed on the images corresponding to the signals 31A and 31B. When the shift amount of the image B is x2, the signal 31A and the signal 31B cancel each other, and the difference The absolute value of is minimal. By performing such processing for the entire screen area, distance information for each subject in the entire screen area can be obtained.

なお、本実施の形態では、光束を偏光素子2で分離するため、一つの撮像素子に入射する光が半分となり、上述したシャッタ速度の低下や感度アップなどによるノイズ増大等の影響がでてくる。そこで、撮像素子3,4の画像データから撮影用の画像を生成する場合には、次のように2つの撮像素子3,4の出力を加算することで、感度アップとノイズの低減を図ることができる。この場合、図4(a)のように差分の絶対値が極小となった領域の撮像信号を加算(平均)し、図4(b)のようにこれを新たに像(信号30,31)として出力する。像ズレ量は領域によって異なるが、全ての領域についてこの処理を行う。この加算処理により感度アップとノイズの低減が可能となり、偏光分離を行わない従来の光学系での撮影とほぼ同一条件となる。   In the present embodiment, since the light beam is separated by the polarizing element 2, the light incident on one imaging element is halved, and the above-described effects such as an increase in noise due to a decrease in shutter speed and an increase in sensitivity occur. . Therefore, when an image for photographing is generated from the image data of the image sensors 3 and 4, the outputs of the two image sensors 3 and 4 are added as follows to increase sensitivity and reduce noise. Can do. In this case, the imaging signals in the area where the absolute value of the difference is minimized as shown in FIG. 4A are added (averaged), and this is newly added as an image (signals 30 and 31) as shown in FIG. 4B. Output as. Although the image shift amount varies depending on the region, this process is performed for all regions. This addition processing makes it possible to increase sensitivity and reduce noise, and the conditions are almost the same as those in a conventional optical system that does not perform polarization separation.

図5は偏光素子11の分割形態を示す図である。図5(a)は図1に示したものであって、光軸を中心に左右対称に分割したものである。この場合、像ズレは左右方向にしか生じないため、横縞パターンしかない被写体に関しては像ズレが検出できない。もちろん、上下対称に分割すると、今度は縦縞パターンしかない被写体の検出が不可能となる。そこで、図5(b)に示すように分割線を斜め45にすると、像ズレ方向も斜め45度方向(右上及び左下方向)となるため、縦縞、横縞パターンの両方とも像ズレ量を検出することができ、焦点検出が苦手な被写体の低減を図ることができる   FIG. 5 is a diagram showing a division form of the polarizing element 11. FIG. 5A is the same as that shown in FIG. 1 and is divided symmetrically about the optical axis. In this case, since the image shift occurs only in the left-right direction, the image shift cannot be detected for the subject having only the horizontal stripe pattern. Of course, if it is divided symmetrically, it becomes impossible to detect a subject that has only a vertical stripe pattern. Therefore, as shown in FIG. 5B, when the dividing line is inclined 45, the image displacement direction is also inclined 45 degrees (upper right and lower left directions), so that the image displacement amount is detected for both the vertical stripes and the horizontal stripe patterns. Can reduce the number of subjects that are not good at focus detection.

図6は、図2に示した瞳マスク24を説明する図である。瞳マスク24は遮光部240と透過部241とを備えており、対物光学系1のF値によって最適に選択される必要がある。ここでは、図6(a)に示すように、F値に応じて3種類の瞳マスク24a〜24cを選択して用いている。F値が小さい(明るい)場合は、瞳マスク24aのように光軸から最も離れた瞳領域を使用することで、測距精度の維持を図る。   FIG. 6 is a diagram for explaining the pupil mask 24 shown in FIG. The pupil mask 24 includes a light shielding unit 240 and a transmission unit 241 and needs to be optimally selected depending on the F value of the objective optical system 1. Here, as shown in FIG. 6A, three types of pupil masks 24a to 24c are selected and used according to the F value. When the F value is small (bright), the distance measurement accuracy is maintained by using a pupil region farthest from the optical axis as in the pupil mask 24a.

F値が大きく(暗く)なるに従って周辺部から光束が制限されるので、瞳マスクを24a→24b→24cのように切り換えて、透過部241を順に光軸に近づけるようにする。これらは開放F値に合わせて選択し、焦点距離によってF値が変わる場合、焦点距離によって切り替えることにより、常時最適の検出が可能となる。図6(b)は瞳マスク24a〜24cの配置例を示す図であり、光軸を中心に回転可能な円板242に瞳マスク24a〜24cが固定されている。太線で示した円243は対物光学系1の光路部を示しており、円板242を回転して、瞳マスク24a〜24cから所望のものを光路部243に位置決めする。すなわち円板242を回転することで、瞳マスクの切り替えを容易に行うことができる。   As the F value becomes larger (darker), the light flux is limited from the peripheral portion. Therefore, the pupil mask is switched in the order of 24a → 24b → 24c so that the transmitting portion 241 is brought closer to the optical axis in order. These are selected according to the open F value, and when the F value changes depending on the focal length, it is possible to always perform optimum detection by switching according to the focal length. FIG. 6B is a diagram showing an arrangement example of the pupil masks 24a to 24c, and the pupil masks 24a to 24c are fixed to a disc 242 that can rotate around the optical axis. A circle 243 indicated by a thick line indicates an optical path portion of the objective optical system 1, and the disc 242 is rotated to position a desired one from the pupil masks 24a to 24c on the optical path portion 243. That is, the pupil mask can be easily switched by rotating the disk 242.

図7は、瞳マスクとシャッタとを一体化した例を示す。光軸を中心に回転可能に設けられた円板242には、瞳マスク24、遮光部242aおよび透過部242bが設けられている。透過部242bの大きさは、対物光学系1の光路部243の大きさと略同一に設定されている。円板242を回転することによって、測距状態、遮光状態および露光状態を切り替える。   FIG. 7 shows an example in which the pupil mask and the shutter are integrated. A disc 242 provided so as to be rotatable around the optical axis is provided with a pupil mask 24, a light shielding part 242a, and a transmission part 242b. The size of the transmission part 242b is set to be approximately the same as the size of the optical path part 243 of the objective optical system 1. By rotating the circular plate 242, the distance measuring state, the light shielding state, and the exposure state are switched.

図1に示した構成では、被写体の光を偏光素子11で分離するため、各撮像素子3,4に入射する光量は、対物光学系1に入射する光の半分になり、上述したようにシャッタ速度の低下や感度アップなどによるノイズ増大等の影響がでてくる。また、偏光成分の光を撮像しているため、被写体によっては好ましくない偏光効果が出てしまう場合もある。   In the configuration shown in FIG. 1, since the light of the subject is separated by the polarizing element 11, the amount of light incident on each of the image pickup devices 3 and 4 is half of the light incident on the objective optical system 1, and as described above, the shutter. Effects such as increased noise due to reduced speed and increased sensitivity appear. In addition, since the light of the polarization component is imaged, an undesirable polarization effect may occur depending on the subject.

そこで、図7に示す構成の場合には、図1のように光路部243中に偏光素子11を配置したままにせず、偏光素子11が瞳マスク24と一体に回転するように構成されている。例えば、瞳マスク24の透過部241に偏光素子11を設けるようにするとともに、露光時には偏光分離素子2を光路外へと待避させる。その結果、露光時には無偏光状態の光束が撮像素子3にのみ入射することになる。   Therefore, in the case of the configuration shown in FIG. 7, the polarizing element 11 is configured to rotate integrally with the pupil mask 24 without leaving the polarizing element 11 arranged in the optical path portion 243 as shown in FIG. 1. . For example, the polarizing element 11 is provided in the transmission part 241 of the pupil mask 24, and the polarization separation element 2 is retracted outside the optical path during exposure. As a result, a non-polarized light beam is incident only on the image sensor 3 during exposure.

先ず、測距時には、図7(a)に示すように円板242を回転して、光路部243に瞳マスク24を位置決めする。次に、図7(b)のように遮光部242aを光路部243に位置決めしてシャッタ閉状態とし、撮像素子3,4をリセットする。露光時には、図7(c)のように透過部242bを光路部243に位置決めする。次いで、図7(d)のように遮光部242aを光路部243上に位置決めしてシャッタ閉状態とし、撮像素子の読み出しを行う。   First, at the time of distance measurement, the disc 242 is rotated as shown in FIG. 7A to position the pupil mask 24 in the optical path portion 243. Next, as shown in FIG. 7B, the light shielding portion 242a is positioned on the optical path portion 243 to close the shutter, and the image sensors 3 and 4 are reset. At the time of exposure, the transmission part 242b is positioned on the optical path part 243 as shown in FIG. Next, as shown in FIG. 7D, the light shielding unit 242a is positioned on the optical path unit 243 to close the shutter, and the image sensor is read.

なお、図7に示す例では、円板242を回転することで、瞳マスク24、遮光部242aおよび透過部242bの切り替えを行ったが、図8に示すようにスライド動作させて切り替えるようにしても良い。図8において、対物光学系1の瞳位置近傍にはスライド機構80が配設されている。スライド機構80の透過部80aが設けられており、透過部80aは、この透過部80aが光路部に位置決めされるように配置されている。   In the example shown in FIG. 7, the pupil mask 24, the light shielding part 242a, and the transmission part 242b are switched by rotating the disk 242. However, as shown in FIG. Also good. In FIG. 8, a slide mechanism 80 is disposed in the vicinity of the pupil position of the objective optical system 1. A transmissive portion 80a of the slide mechanism 80 is provided, and the transmissive portion 80a is disposed so that the transmissive portion 80a is positioned in the optical path portion.

スライド機構80には、遮光シャッタ800と図1に示した偏光素子11とが、光軸と直交する方向にスライドできるように設けられている。また、偏光分離素子2としては、図1に示す立方体形状の偏光分離素子(偏光ビームスプリッタ)2に代えて、板状のものが設けられている。この偏光分離素子2は、図8(a)〜(c)に示すように、撮像素子3に入射する光束の光路外に退避できるように構成されている。   The slide mechanism 80 is provided with a light-shielding shutter 800 and the polarizing element 11 shown in FIG. 1 so as to be slidable in a direction perpendicular to the optical axis. As the polarization separation element 2, a plate-shaped element is provided in place of the cubic polarization separation element (polarization beam splitter) 2 shown in FIG. As shown in FIGS. 8A to 8C, the polarization separation element 2 is configured to be retracted out of the optical path of the light beam incident on the imaging element 3.

図8(a)は測距時の状態を示したものであり、スライド機構80の透過部80aには偏光素子11が位置決めされている。そのため、偏光素子11の領域11aを透過した偏光成分は、偏光分離素子2を透過して撮像素子3に入射する。一方、偏光素子11の領域11bを透過した他の偏光成分は、偏光分離素子2で反射されて他方の撮像素子4に入射する。そして、撮像素子3,4の画像データに基づいて、全画面領域の距離情報(測距データ)を算出する。   FIG. 8A shows a state at the time of distance measurement, and the polarizing element 11 is positioned on the transmission part 80 a of the slide mechanism 80. Therefore, the polarization component transmitted through the region 11 a of the polarization element 11 is transmitted through the polarization separation element 2 and enters the imaging element 3. On the other hand, the other polarization component transmitted through the region 11 b of the polarization element 11 is reflected by the polarization separation element 2 and enters the other imaging element 4. Then, distance information (ranging data) of the entire screen area is calculated based on the image data of the imaging elements 3 and 4.

図8(b)では、撮影を指令するレリーズ信号に応じて、偏光素子11を透過部80aから退避させるとともに遮光シャッタ800を透過部80aにスライド移動する。その結果、被写体光束は遮光シャッタ800により遮光され、シャッタ閉状態となる。同時に偏光分離素子2も退避位置へ移動させ、このシャッタ閉状態で撮像素子3の蓄積電荷をリセットして露光の準備をする。   In FIG. 8B, the polarizing element 11 is retracted from the transmission unit 80a and the light-shielding shutter 800 is slid to the transmission unit 80a in response to a release signal that instructs photographing. As a result, the subject light flux is shielded by the light shielding shutter 800 and the shutter is closed. At the same time, the polarization separation element 2 is also moved to the retracted position, and the accumulated charge of the image pickup element 3 is reset in the shutter closed state to prepare for exposure.

図8(c)は露光時の状態を示したものである。撮像素子リセット完了後、遮光シャッタ800を開放し透過部80aから光路外(図示下方)へスライド移動させ、露光する。透過部80aは開放状態になっているので、偏光成分ではなく全光束が撮像素子3に入射し、撮像素子3のみにおいて撮像が行われる。その結果、偏光効果等のない通常の画像が得られる。なお、偏光分離素子2は図8(b)と同様の位置に退避状態となっている。   FIG. 8C shows a state at the time of exposure. After the image sensor reset is completed, the light-shielding shutter 800 is opened and slid out of the light path (downward in the drawing) from the transmission part 80a to be exposed. Since the transmission part 80a is in an open state, not the polarization component but the entire light beam is incident on the image sensor 3, and only the image sensor 3 is imaged. As a result, a normal image having no polarization effect is obtained. The polarization separation element 2 is in a retracted state at the same position as in FIG.

露光完了後は、上述した図8(a)〜(c)の手順を逆にたどる。すなわち、遮光シャッタ800を透過部80aに移動し、偏光分離素子2を撮像素子3の光路上に挿入するのと並行して、撮像素子3,4の電荷を読み出し、リセットする。その後、遮光シャッタ800を透過部80aから退避させるとともに偏光素子11を透過部80aに移動して測距可能状態とする。   After the exposure is completed, the procedure shown in FIGS. 8A to 8C is followed in reverse. That is, the charge of the image sensors 3 and 4 is read and reset in parallel with the movement of the light blocking shutter 800 to the transmission unit 80a and the polarization separation element 2 being inserted into the optical path of the image sensor 3. Thereafter, the light-shielding shutter 800 is retracted from the transmission unit 80a and the polarizing element 11 is moved to the transmission unit 80a so that distance measurement is possible.

なお、上述した例では、撮像素子3のみを撮像させて画像を得るようにしているので偏光分離素子2を図8(b)、(c)のように退避させたが、撮像素子3,4の両方の画像データを用いて撮影画像を生成する場合には、退避させなくても良い。すなわち、図8(c)のように透過部80aが全光束を透過する状態であれば像ズレは生じていないので、撮像素子3,4で撮像された偏光成分による各画像を単純に加算させることで、偏光効果と光量低下の影響を相殺することができる。   In the above-described example, since only the image sensor 3 is imaged to obtain an image, the polarization separation element 2 is retracted as shown in FIGS. 8B and 8C. When a captured image is generated using both of the image data, it is not necessary to save. That is, as shown in FIG. 8C, if the transmission unit 80a transmits the entire light flux, no image shift occurs, and thus each image based on the polarization component imaged by the imaging elements 3 and 4 is simply added. Thus, the effects of the polarization effect and the decrease in the amount of light can be offset.

ところで、撮像素子3,4の周辺部においては、像ズレが生じた場合に、像が撮像素子3,4の撮像領域からはみ出してしまう場合がある。そのような場合、像ズレ検出による測距が困難になる。図9(a),(b)は撮像素子からの像のはみ出しを説明する図であり、図9(c)はそれを解消するための対策例を示す図である。   By the way, in the peripheral part of the image pickup devices 3 and 4, when an image shift occurs, the image may protrude from the image pickup region of the image pickup devices 3 and 4. In such a case, it becomes difficult to perform distance measurement by detecting image shift. FIGS. 9A and 9B are diagrams for explaining the protrusion of an image from the image sensor, and FIG. 9C is a diagram showing an example of countermeasures for solving the problem.

図9(a)において、像23aは撮像素子3上に結像され、像23bは撮像素子4上に結像される。しかしながら、像23aの中心位置は撮像素子3の撮像範囲外にはみ出し量Eだけはみ出している。なお、像ズレの方向は、図2(b)、(c)に示したように前側デフォーカスか後側デフォーカスかによって逆になり、図9(a)、(b)では後側デフォーカスの場合を示している。また、偏光素子11の構成は図1に示すものを用いているので、像23aは右側に像ズレし、像23bは左側に像ズレする。   In FIG. 9A, an image 23 a is formed on the image sensor 3, and an image 23 b is formed on the image sensor 4. However, the center position of the image 23a protrudes outside the imaging range of the image sensor 3 by the amount of protrusion E. Note that the direction of image shift is reversed depending on whether front defocusing or rear defocusing is performed as shown in FIGS. 2B and 2C. In FIGS. 9A and 9B, rear defocusing is performed. Shows the case. Further, since the configuration of the polarizing element 11 shown in FIG. 1 is used, the image 23a is shifted to the right and the image 23b is shifted to the left.

一般的に、左右端付近の被写体は中央の被写体よりも遠景となる場合が多いので、ここでは、図9(a)、(b)に示すように像23a,23bが像ズレする。図9(b)は撮像素子3,4の左端に投影される像23a,23bを示したものであり、撮像素子3,4の位置は同一位置となっている。像23bの一部が撮像素子4から左側にはみ出しているので、この左端の領域では測距が困難となる。   In general, the subject near the left and right ends often has a distant view than the subject at the center, and therefore the images 23a and 23b are displaced as shown in FIGS. 9A and 9B. FIG. 9B shows images 23a and 23b projected on the left ends of the image sensors 3 and 4, and the positions of the image sensors 3 and 4 are the same. Since a part of the image 23b protrudes to the left from the image sensor 4, it is difficult to perform distance measurement in this left end region.

そこで、図9(c)に示すように、撮像素子3に対して撮像素子4のサイズを大きく設定して、像23bも撮像できるようにする。このような構成とすると、小さい方の撮像素子3の撮像範囲については全領域で距離情報を取得できる。そして、撮影画像の撮像は小さい方の撮像素子3で行うようにする。また、撮像素子3,4の両方の撮像データに基づいて撮影画像を生成する場合は、小さい方の撮像素子3の撮像範囲が撮影画像の範囲となる。このような構成とすることにより、小さい方の撮像素子3で撮像する範囲については全画面の距離情報を取得でき、大きな撮像素子を2つ使って余裕しろの大きな撮像を行う場合に比べて無駄がない。   Therefore, as shown in FIG. 9C, the size of the image sensor 4 is set larger than that of the image sensor 3, so that the image 23b can also be captured. With such a configuration, distance information can be acquired in the entire region of the imaging range of the smaller imaging device 3. The captured image is captured by the smaller image sensor 3. In addition, when a captured image is generated based on the imaging data of both the image sensors 3 and 4, the imaging range of the smaller image sensor 3 is the range of the captured image. By adopting such a configuration, distance information of the entire screen can be acquired for the range captured by the smaller image sensor 3, which is wasteful compared to the case where a large image sensor is used with two large image sensors. There is no.

望遠レンズでは、デフォーカス量が大きくなるとともに被写体を画面一杯に捉える可能性が高くなることから、像ズレによるはみ出しが生じやすくなる。また、画角を狭め、より望遠効果を高めるためには、撮像サイズは小さい方が良い。そのため、焦点距離が長くなった場合、測距は2つの撮像素子3,4で行い、小さい方の撮像素子3を主に撮影を行う。   In the telephoto lens, the amount of defocus increases and the possibility of capturing the subject full of the screen increases. Further, in order to narrow the angle of view and enhance the telephoto effect, it is better that the imaging size is small. Therefore, when the focal length becomes longer, the distance measurement is performed by the two image sensors 3 and 4, and the smaller image sensor 3 is mainly photographed.

一方、広角レンズでは像ズレ量が少なく、画面隅まで被写体で占められる可能性も低く、はみ出しの可能性は低い。また、画角を広くとったり撮影画素数を増やしたりするには、撮像サイズを大きくとる方が良い。そのため、焦点距離が短くなった場合、測距は2つの撮像素子3,4で行い、大きい方の撮像索子4を主に撮影を行う。   On the other hand, with a wide-angle lens, the amount of image shift is small, and it is unlikely that the subject will occupy the corners of the screen. In order to increase the angle of view or increase the number of shooting pixels, it is better to increase the imaging size. Therefore, when the focal length is shortened, the distance measurement is performed by the two imaging elements 3 and 4, and the larger imaging cord 4 is mainly imaged.

−第2の実施の形態−
図10は本発明の第2の実施の形態を示す図である。本実施の形態では、再結像位相差AFに第1の実施の形態で示した測距装置を適用した。従来の再結像式位相差測距装置では、固定の瞳マスクによって光束を分離し、像ズレを得るようにしている。しかし、瞳マスクが固定のため、マスク透過光のF値以上のレンズでは測距ができなくなる。
-Second Embodiment-
FIG. 10 is a diagram showing a second embodiment of the present invention. In the present embodiment, the distance measuring device shown in the first embodiment is applied to the re-imaging phase difference AF. In a conventional re-imaging type phase difference distance measuring device, a light beam is separated by a fixed pupil mask to obtain an image shift. However, since the pupil mask is fixed, distance measurement cannot be performed with a lens having an F value equal to or higher than the mask transmitted light.

図10(a)は第2の実施の形態における測距装置の基本構成を示す図であり、再結像光学系内の、対物レンズ100の瞳位置と光学的に等価(共役)な面に偏光素子11と瞳マスク24とを配置した。図10(a)では、再結像レンズ100a,100bの間に、偏光素子11と、図6(b)に示した3つの瞳マスク24a〜23cを備えた円板242とが配置されている。この場合、対物レンズ100の瞳位置に偏光素子11を挿入したのと同等の瞳分割効果を得る。   FIG. 10A is a diagram illustrating a basic configuration of the distance measuring apparatus according to the second embodiment, and a surface optically equivalent (conjugate) to the pupil position of the objective lens 100 in the re-imaging optical system. The polarizing element 11 and the pupil mask 24 are disposed. In FIG. 10A, the polarizing element 11 and the disc 242 including the three pupil masks 24a to 23c shown in FIG. 6B are arranged between the re-imaging lenses 100a and 100b. . In this case, the same pupil division effect as that obtained by inserting the polarizing element 11 at the pupil position of the objective lens 100 is obtained.

図10(b)は、図10(a)に示す測距装置を一眼レフデジタルカメラに内蔵した場合を示す。対物レンズ100からの被写体光束はメインミラー120の背後に設けられたサブミラー121によりカメラボディの下方に反射され、瞳マスク24、偏光素子11の順に通過する。偏光素子11を出射した光束はミラー123により90度折り曲げられ、再結像レンズ100bを通った後に偏光分離素子2に入射する。偏光分離素子2で分離された偏光成分は、それぞれ撮像素子3,4に入射する。撮像は専用の撮像素子122により行われる。   FIG. 10B shows a case where the distance measuring device shown in FIG. 10A is built in a single-lens reflex digital camera. The subject luminous flux from the objective lens 100 is reflected below the camera body by the sub mirror 121 provided behind the main mirror 120 and passes through the pupil mask 24 and the polarizing element 11 in this order. The light beam emitted from the polarizing element 11 is bent by 90 degrees by the mirror 123, passes through the re-imaging lens 100 b, and then enters the polarization separating element 2. The polarization components separated by the polarization separation element 2 are incident on the imaging elements 3 and 4, respectively. Imaging is performed by a dedicated image sensor 122.

円板242を回転することで、瞳マスク24a〜24cを簡単に切り替えることができ、対物レンズ100のF値に合わせた測距が可能となる。また、再結像する領域全体を測距範囲とすることができるため、ラインセンサを用いた位相差AFのように測距エリアの配置制約が生じない。   By rotating the disc 242, the pupil masks 24 a to 24 c can be easily switched, and distance measurement in accordance with the F value of the objective lens 100 becomes possible. In addition, since the entire area to be re-imaged can be set as the distance measurement range, there is no restriction on the arrangement of the distance measurement areas unlike phase difference AF using a line sensor.

−第3の実施の形態−
図11は第3の実施の形態を示す図であり、撮像素子3,4で撮像された画像をそれぞれ表示素子300a、300bに表示するような構成とした。観察者は、一方の接眼レンズ301aを介して表示素子300aの画像を右眼で観察し、他方の接眼レンズ301bを介して表示素子300bの画像を左眼で観察することにより、単眼の光学系で立体像を観察することができる。第1の実施の形態と同様に、撮像素子3,4の撮像データに基づく測距動作によってオートフォーカスとすることも可能である。
-Third embodiment-
FIG. 11 is a diagram showing the third embodiment, and is configured to display images picked up by the image pickup devices 3 and 4 on the display devices 300a and 300b, respectively. The observer observes the image of the display element 300a with the right eye through one eyepiece lens 301a, and observes the image of the display element 300b with the left eye through the other eyepiece lens 301b, thereby obtaining a monocular optical system. A three-dimensional image can be observed. As in the first embodiment, autofocusing can be performed by a distance measuring operation based on image data of the image sensors 3 and 4.

さらに、全画面について距離情報が得られているので、ある被写体にピントを合わせたい場合、他の領域をぼかすような処理を施して再生表示することにより、距離感を強調したり変えたりすることもできる。また、瞳マスクや偏光フィルタを切り替え可能な構成とすることにより、立体感の調整や、立体感(左右視差)のない単純な両眼観察も可能となる。例えば、瞳マスクのF値を変えることで立体感の調節を行い、偏光素子11を光路外に退避させることで立体感を消失させる。   In addition, since distance information is obtained for the entire screen, if you want to focus on a certain subject, you can emphasize or change the sense of distance by performing playback processing that blurs other areas. You can also. Further, by adopting a configuration in which the pupil mask and the polarization filter can be switched, it is possible to adjust the stereoscopic effect and to perform simple binocular observation without the stereoscopic effect (left-right parallax). For example, the stereoscopic effect is adjusted by changing the F value of the pupil mask, and the stereoscopic effect is lost by retracting the polarizing element 11 out of the optical path.

図12は、図11に示す基本構成を双眼観察装置として応用した場合の構成を示す図である。図12において(a)は装置の平面図を示し、(b)は接眼レンズ方向から見た図である。ここでは、一つの表示素子300の表示領域を2分割して、それぞれの領域に撮像素子3,4の画像を表示するようにしている。表示素子300から出射された右眼用画像の光束は分割ミラー330により図示右方向に反射された後に、屈曲ミラー332aにより接眼レンズ301a方向に反射される。一方、表示素子300から出射された左眼用画像の光束は分割ミラー330により図示左方向に反射された後に、屈曲ミラー332bにより接眼レンズ301b方向に反射される。通常のデジタルカメラ同様に、保存ボタン320の操作により画像メモリ310にデータを保存可能としておくことで、立体画像の保存と再生も可能である。   FIG. 12 is a diagram showing a configuration when the basic configuration shown in FIG. 11 is applied as a binocular observation device. 12A is a plan view of the apparatus, and FIG. 12B is a view seen from the eyepiece lens direction. Here, the display area of one display element 300 is divided into two, and the images of the imaging elements 3 and 4 are displayed in the respective areas. The light beam of the right-eye image emitted from the display element 300 is reflected in the right direction in the figure by the dividing mirror 330 and then reflected in the direction of the eyepiece lens 301a by the bending mirror 332a. On the other hand, the light beam of the image for the left eye emitted from the display element 300 is reflected by the split mirror 330 in the left direction in the figure, and then reflected by the bending mirror 332b in the direction of the eyepiece lens 301b. As with a normal digital camera, the data can be saved in the image memory 310 by operating the save button 320, so that a stereoscopic image can be saved and reproduced.

図13は上述した第3の実施の形態の変形例を示す図であり、図12の双眼観察装置において、対物光学系1の外部(前側)で瞳偏光分割を行う構成としたものである。筐体400には、所定の間隔で左右の瞳となる開口がそれぞれ設けられ、各開口には偏光素子411a,411bが設けられている。偏光素子411aは、図1に示した偏光素子11の領域11aを構成するものと同一の偏光素子が用いられ、偏光素子411bには偏光素子11の領域11bを構成するものと同一の偏光素子が用いられている。すなわち、偏光素子411a,411bは、偏光軸が互いに直交している。   FIG. 13 is a diagram showing a modification of the above-described third embodiment. In the binocular observation device of FIG. 12, the pupil polarization division is performed outside (front side) of the objective optical system 1. The casing 400 is provided with openings serving as left and right pupils at predetermined intervals, and polarizing elements 411a and 411b are provided in the openings. As the polarizing element 411a, the same polarizing element as that constituting the region 11a of the polarizing element 11 shown in FIG. 1 is used, and the same polarizing element as that constituting the region 11b of the polarizing element 11 is used as the polarizing element 411b. It is used. That is, the polarization axes of the polarizing elements 411a and 411b are orthogonal to each other.

左右開口から入射した光は、複数のミラーM1〜M3により光路が屈曲され、ハーフミラーM4により同一光軸に合成される。これを撮像面近傍の偏光分離素子2で分離し、2つの撮像素子3,4にそれぞれ入射させる。なお、ここでは、左右開口に偏光素子411a,411bを設けたが、ハーフミラーM4を偏光分離素子に置き換えることで、偏光素子を使用せず、かつ、ハーフミラーによる光量減衰を回避することができる。   The light incident from the left and right openings is bent in the optical path by the plurality of mirrors M1 to M3, and is synthesized on the same optical axis by the half mirror M4. This is separated by the polarization separation element 2 in the vicinity of the imaging surface and is incident on the two imaging elements 3 and 4 respectively. Here, the polarizing elements 411a and 411b are provided in the left and right openings. However, by replacing the half mirror M4 with the polarization separating element, the polarizing element is not used and the light quantity attenuation by the half mirror can be avoided. .

このような形態は、画角の広い対物光学系では左右光路が干渉してしまい実現は難しいが、画角が十分に狭く、入射光束が平行に近いような対物光学系であれば、干渉を回避して構成することが可能である。瞳を制約する開口を対物光学系の外部に設けることで、対物光学系の仕様とは関係なく左右瞳の距離(基線長)をとることができる、小型の光学系でも視差の大きい、すなわち立体感の強い撮像をすることが可能となる。   Such a configuration is difficult to achieve with an objective optical system with a wide angle of view, because the left and right optical paths interfere with each other. However, if the objective optical system has a sufficiently narrow angle of view and the incident light beam is nearly parallel, interference is not possible. It is possible to avoid the configuration. By providing an aperture that restricts the pupil outside the objective optical system, the distance (baseline length) between the left and right pupils can be taken regardless of the specifications of the objective optical system. It is possible to take a strong image.

以上説明したように、上述した実施の形態によれば、シングルレンズおよびワンショットで撮影と同時に全画面領域における距離情報を取得することができる。
すなわち、撮像面で受光した像によって位相差AFを行うため、画面内に測距不可能な領域がなく全画面位相差AFが可能で、また、AFエリア数も撮像素子の画素数単位で任意に設定することができる。
また、従来の測距センサと撮像センサとを同一の撮像素子で構成しているので、原理的に検出限界と撮像の要求精度とが一致し、高精度な測距を行うことができる。さらに、撮像用の対物光学系が測距光学系を兼ねているので、従来のように対物光学系と測距光学系とのマッチング不十分による測距不能や精度不足といった問題が生じない。
また、複数のレンズを用いることなく立体撮像が可能となり、従来の立体撮像装置と比べて大きさ及び重量の低減を図ることができるとともに、コスト低減も図れる。
なお、以上の説明はあくまでも一例であり、本発明の特徴を損なわない限り、本発明は上記実施の形態に何ら限定されるものではない。
As described above, according to the above-described embodiment, distance information in the entire screen area can be acquired simultaneously with shooting with a single lens and one shot.
In other words, since phase difference AF is performed using the image received on the imaging surface, there is no area that cannot be measured within the screen, and full-screen phase difference AF is possible. Also, the number of AF areas is arbitrary in the number of pixels of the image sensor. Can be set to
In addition, since the conventional distance measuring sensor and the image sensor are composed of the same image sensor, in principle, the detection limit and the required accuracy of imaging coincide with each other, and highly accurate distance measurement can be performed. Furthermore, since the imaging objective optical system also serves as the distance measuring optical system, there is no problem of inability to perform distance measurement or insufficient accuracy due to insufficient matching between the objective optical system and the distance measuring optical system as in the prior art.
Further, stereoscopic imaging can be performed without using a plurality of lenses, and the size and weight can be reduced as compared with the conventional stereoscopic imaging apparatus, and the cost can be reduced.
In addition, the above description is an example to the last, and this invention is not limited to the said embodiment at all unless the characteristic of this invention is impaired.

本発明による測距装置の第1の実施の形態を示す図であり、測距装置の基本構成を示す。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows 1st Embodiment of the ranging device by this invention, and shows the basic composition of a ranging device. 焦点検出方式の原理を説明する図である。It is a figure explaining the principle of a focus detection system. 測距データの取得を説明する図である。It is a figure explaining acquisition of ranging data. 画像合成を説明する図である。It is a figure explaining image composition. 瞳の領域分割を説明する図である。It is a figure explaining the area | region division of a pupil. 瞳マスク24を説明する図であるIt is a figure explaining the pupil mask 24 瞳マスクとシャッタとを一体化した例を示す。The example which integrated the pupil mask and the shutter is shown. スライド機構80を説明する図である。It is a figure explaining the slide mechanism. 撮像素子からの像のはみ出しを説明する図である。It is a figure explaining the protrusion of the image from an image sensor. 第2の実施の形態を説明する図である。It is a figure explaining 2nd Embodiment. 第3の実施の形態を示す図である。It is a figure which shows 3rd Embodiment. 図11に示す基本構成を双眼観察装置として応用した場合の構成を示す図である。It is a figure which shows the structure at the time of applying the basic structure shown in FIG. 11 as a binocular observation apparatus. 第3の実施の形態の変形例を示す図である。It is a figure which shows the modification of 3rd Embodiment.

符号の説明Explanation of symbols

1:対物光学系、2:偏光分離素子、3,4:撮像素子、5:画像処理回路、6:AF制御回路、7:AF駆動機構、8:画像メモリ、11:偏光素子、11a,11b:領域、24,24a〜24c:瞳マスク、80:スライド機構、242:円板、242a:遮光部、242b:透過部   1: objective optical system, 2: polarization separation element, 3, 4: imaging element, 5: image processing circuit, 6: AF control circuit, 7: AF drive mechanism, 8: image memory, 11: polarization element, 11a, 11b : Area, 24, 24a to 24c: Pupil mask, 80: Slide mechanism, 242: Disc, 242a: Light shielding part, 242b: Transmission part

Claims (11)

光学系の瞳と共役な面の互いに異なる位置に配置され、互いに偏光特性が異なる第1および第2の偏光素子と、
前記光学系を通過する光束のうち前記第1の偏光素子からの第1の光束と前記第2の偏光素子からの第2の光束とを分離する偏光分離素子と、
前記光学系の予定結像面に配置され、前記第1の光束による第1の像と前記第2の光束による第2の像とをそれぞれ独立して撮像する複数の撮像手段と、
前記第1および第2の像の相対的なズレに基づいて、前記光学系の焦点調節状態を検出する焦点検出手段とを備えたことを特徴とする測距装置。
First and second polarizing elements disposed at different positions on a plane conjugate with the pupil of the optical system and having different polarization characteristics;
A polarization separation element that separates a first light flux from the first polarization element and a second light flux from the second polarization element among the light fluxes passing through the optical system;
A plurality of imaging means arranged on a predetermined imaging plane of the optical system and independently imaging a first image by the first light beam and a second image by the second light beam;
A distance measuring apparatus comprising: a focus detection unit configured to detect a focus adjustment state of the optical system based on a relative shift between the first and second images.
請求項1に記載の測距装置において、
前記光学系の瞳近傍に配置され、前記第1および第2の光束をそれぞれ制限する開口絞りを備えたことを特徴とする測距装置。
The distance measuring device according to claim 1,
A distance measuring apparatus comprising an aperture stop disposed near a pupil of the optical system and configured to limit the first and second light beams, respectively.
請求項2に記載の測距装置において、
前記開口絞りは、前記光学系の光軸からの距離が互いに異なる複数の開口を有し、
前記複数の開口のいずれか一つを選択的に前記瞳近傍に配置する選択手段を備えたことを特徴とする測距装置。
The distance measuring device according to claim 2,
The aperture stop has a plurality of apertures with different distances from the optical axis of the optical system,
A distance measuring apparatus comprising: a selection unit that selectively arranges any one of the plurality of openings in the vicinity of the pupil.
請求項1に記載の測距装置において、
前記第1の光束による像と前記第2の光束による像を再結像する再結像光学系を備え、
前記第1および第2の偏光素子を、前記光学系の瞳と光学的に等価な面内に配置したことを特徴とする測距装置。
The distance measuring device according to claim 1,
A re-imaging optical system that re-images the image by the first light beam and the image by the second light beam;
A distance measuring device, wherein the first and second polarizing elements are arranged in a plane optically equivalent to a pupil of the optical system.
請求項1〜4のいずれか一項に記載の測距装置において、
前記複数の撮像手段は、前記第1の像を撮像する第1の撮像素子と、前記第1の撮像素子よりも大きな撮像領域を有して前記第2の像を撮像する第2の撮像素子とを備えることを特徴とする測距装置。
In the distance measuring device according to any one of claims 1 to 4,
The plurality of image pickup means includes a first image pickup device that picks up the first image, and a second image pickup device that picks up the second image having an image pickup area larger than that of the first image pickup device. A distance measuring device comprising:
請求項1〜5のいずれか一項に記載の測距装置と、
前記第1の像の撮像データおよび前記第2の像の撮像データの少なくとも一方を用いて撮影画像を生成する画像生成手段とを備えたことを特徴とする撮像装置。
A distance measuring device according to any one of claims 1 to 5,
An image pickup apparatus comprising: an image generation unit configured to generate a captured image using at least one of the image data of the first image and the image data of the second image.
請求項6に記載の撮像装置において、
前記第1および第2の偏光素子を前記光学系の光路に対して進退可能に移動する移動手段を備え、
前記画像生成手段は、前記第1および第2の偏光素子を前記光学系の光路から退避した位置に移動させた状態において撮像された前記第1および第2の像の撮像データに基づいて、前記撮影画像を生成することを特徴とする撮像装置。
The imaging device according to claim 6,
Moving means for moving the first and second polarizing elements so as to advance and retreat with respect to the optical path of the optical system;
The image generating means is based on imaging data of the first and second images captured in a state where the first and second polarizing elements are moved to positions retracted from the optical path of the optical system. An imaging device that generates a captured image.
請求項7に記載の撮像装置において、
前記画像生成手段は、撮像された前記第1および第2の像の撮像データを加算して前記撮影画像を生成することを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The image generation unit generates the captured image by adding image data of the captured first and second images.
請求項6に記載の撮像装置において、
前記画像生成手段は、前記第1および第2の像の相対的な像ズレに基づいて、前記第1および第2の像の撮像データの互いに対応する撮像データどうしを加算することにより、前記撮影画像を生成することを特徴とする撮像装置。
The imaging device according to claim 6,
The image generation means adds the imaging data corresponding to each other of the imaging data of the first and second images based on a relative image shift between the first and second images, thereby obtaining the imaging An imaging device that generates an image.
請求項6〜9のいずれか一項に記載の撮像装置において、
前記第1の像の撮像データに基づく第1表示画像と、前記第2の像の撮像データに基づく第2表示画像とをそれぞれ表示する表示装置を備えたことを特徴とする撮像装置。
In the imaging device according to any one of claims 6 to 9,
An imaging apparatus comprising: a display device configured to display a first display image based on imaging data of the first image and a second display image based on imaging data of the second image.
請求項5に記載の測距装置と、
前記光学系の焦点距離に応じて、前記第1および第2の撮像素子のいずれか一方の撮像データを用いて撮影画像を生成する画像生成手段とを備えたことを特徴とする撮像装置。
A distance measuring device according to claim 5;
An image pickup apparatus comprising: an image generation unit configured to generate a photographed image using image data of one of the first and second image sensors in accordance with a focal length of the optical system.
JP2008005550A 2008-01-15 2008-01-15 Range-finding device and imaging apparatus Pending JP2009168995A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008005550A JP2009168995A (en) 2008-01-15 2008-01-15 Range-finding device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008005550A JP2009168995A (en) 2008-01-15 2008-01-15 Range-finding device and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009168995A true JP2009168995A (en) 2009-07-30

Family

ID=40970243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008005550A Pending JP2009168995A (en) 2008-01-15 2008-01-15 Range-finding device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009168995A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device
JP2011197278A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Stereoscopic imaging apparatus
JP2011199502A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Three-dimensional imaging device
WO2012002297A1 (en) 2010-06-30 2012-01-05 富士フイルム株式会社 Imaging device and imaging method
WO2012002298A1 (en) 2010-06-30 2012-01-05 富士フイルム株式会社 Imaging apparatus and imaging method
JP2012008370A (en) * 2010-06-25 2012-01-12 Nikon Corp Imaging device and interchangeable lens
JP2012170026A (en) * 2011-02-17 2012-09-06 Sony Corp Imaging apparatus, image processing method and program
JP2012173916A (en) * 2011-02-21 2012-09-10 Nippon Hoso Kyokai <Nhk> Imaging device and image processing information generating program
WO2013035427A1 (en) 2011-09-09 2013-03-14 富士フイルム株式会社 Stereoscopic image capture device and method
WO2013038950A1 (en) 2011-09-13 2013-03-21 富士フイルム株式会社 3d imaging device
JP2013097280A (en) * 2011-11-04 2013-05-20 Nikon Corp Imaging apparatus
US8786676B2 (en) 2010-03-23 2014-07-22 Fujifilm Corporation Imaging device for generating stereoscopic image
WO2014125863A1 (en) * 2013-02-14 2014-08-21 オリンパス株式会社 Imaging device
US8854528B2 (en) 2010-03-18 2014-10-07 Fujifilm Corporation Imaging apparatus
JP2014228724A (en) * 2013-05-23 2014-12-08 株式会社ニコン Imaging device and intermediate adapter
US9124875B2 (en) 2012-05-23 2015-09-01 Fujifilm Corporation Stereoscopic imaging apparatus
JP2015215264A (en) * 2014-05-12 2015-12-03 日本電信電話株式会社 Positional relationship detector and positional relationship detecting method
WO2016110609A1 (en) * 2015-01-09 2016-07-14 Nokia Technologies Oy Method, apparatus and computer program for determining focusing information

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9258545B2 (en) 2010-03-18 2016-02-09 Fujifilm Corporation Stereoscopic imaging apparatus
JP2011197278A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Stereoscopic imaging apparatus
JP2011199502A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Three-dimensional imaging device
US8854528B2 (en) 2010-03-18 2014-10-07 Fujifilm Corporation Imaging apparatus
US8786676B2 (en) 2010-03-23 2014-07-22 Fujifilm Corporation Imaging device for generating stereoscopic image
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device
US8520059B2 (en) 2010-03-24 2013-08-27 Fujifilm Corporation Stereoscopic image taking apparatus
JP5192096B2 (en) * 2010-03-24 2013-05-08 富士フイルム株式会社 Stereo imaging device
JP2012008370A (en) * 2010-06-25 2012-01-12 Nikon Corp Imaging device and interchangeable lens
WO2012002298A1 (en) 2010-06-30 2012-01-05 富士フイルム株式会社 Imaging apparatus and imaging method
US9319659B2 (en) 2010-06-30 2016-04-19 Fujifilm Corporation Image capturing device and image capturing method
CN104977777A (en) * 2010-06-30 2015-10-14 富士胶片株式会社 Imaging device and imaging method
US8933995B2 (en) 2010-06-30 2015-01-13 Fujifilm Corporation Image capturing device and image capturing method
WO2012002297A1 (en) 2010-06-30 2012-01-05 富士フイルム株式会社 Imaging device and imaging method
US8902294B2 (en) 2010-06-30 2014-12-02 Fujifilm Corporation Image capturing device and image capturing method
JP2012170026A (en) * 2011-02-17 2012-09-06 Sony Corp Imaging apparatus, image processing method and program
JP2012173916A (en) * 2011-02-21 2012-09-10 Nippon Hoso Kyokai <Nhk> Imaging device and image processing information generating program
US20140176682A1 (en) * 2011-09-09 2014-06-26 Fujifilm Corporation Stereoscopic image capture device and method
CN103782234A (en) * 2011-09-09 2014-05-07 富士胶片株式会社 Stereoscopic image capture device and method
JPWO2013035427A1 (en) * 2011-09-09 2015-03-23 富士フイルム株式会社 Stereoscopic imaging apparatus and method
US9077979B2 (en) 2011-09-09 2015-07-07 Fujifilm Corporation Stereoscopic image capture device and method
WO2013035427A1 (en) 2011-09-09 2013-03-14 富士フイルム株式会社 Stereoscopic image capture device and method
WO2013038950A1 (en) 2011-09-13 2013-03-21 富士フイルム株式会社 3d imaging device
JP2013097280A (en) * 2011-11-04 2013-05-20 Nikon Corp Imaging apparatus
US9124875B2 (en) 2012-05-23 2015-09-01 Fujifilm Corporation Stereoscopic imaging apparatus
WO2014125863A1 (en) * 2013-02-14 2014-08-21 オリンパス株式会社 Imaging device
US9386207B2 (en) 2013-02-14 2016-07-05 Olympus Corporation Image-capturing apparatus
JP2014228724A (en) * 2013-05-23 2014-12-08 株式会社ニコン Imaging device and intermediate adapter
JP2015215264A (en) * 2014-05-12 2015-12-03 日本電信電話株式会社 Positional relationship detector and positional relationship detecting method
WO2016110609A1 (en) * 2015-01-09 2016-07-14 Nokia Technologies Oy Method, apparatus and computer program for determining focusing information

Similar Documents

Publication Publication Date Title
JP2009168995A (en) Range-finding device and imaging apparatus
JP5169499B2 (en) Imaging device and imaging apparatus
JP5569132B2 (en) Ranging device and imaging device
JP5168797B2 (en) Imaging device
JP4972960B2 (en) Focus adjustment device and imaging device
US20130335533A1 (en) Image pickup unit, image pickup device, picture processing method, diaphragm control method, and program
JP2015194706A5 (en)
JP2012100101A5 (en)
JP2009175528A (en) Focus-adjusting apparatus and imaging apparatus
JP6659100B2 (en) Imaging device
JP2012008370A (en) Imaging device and interchangeable lens
JP2010128205A (en) Imaging apparatus
JP2013186314A (en) Image capturing device
JP5157073B2 (en) Focus adjustment device and imaging device
JPH1066106A (en) Double-eye camera system
JP2009294301A (en) Light receiving device and focus detector
JP2018180135A (en) Imaging device
JP2013122494A (en) Focus detector and camera
JP4135202B2 (en) Focus detection device and camera
JP2009081522A (en) Imaging apparatus
JP6136566B2 (en) Imaging device and intermediate adapter
JP2011244377A (en) Imaging apparatus and image processing system, image processing method, and image processing program
JP6428845B2 (en) Imaging device
JP2005148232A (en) Imaging apparatus and reproducing device
JP2010266730A (en) Range-finding device and imaging apparatus