JP2017219650A - Zoom lens and imaging system - Google Patents

Zoom lens and imaging system Download PDF

Info

Publication number
JP2017219650A
JP2017219650A JP2016113109A JP2016113109A JP2017219650A JP 2017219650 A JP2017219650 A JP 2017219650A JP 2016113109 A JP2016113109 A JP 2016113109A JP 2016113109 A JP2016113109 A JP 2016113109A JP 2017219650 A JP2017219650 A JP 2017219650A
Authority
JP
Japan
Prior art keywords
focus
group
tracking
lens
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016113109A
Other languages
Japanese (ja)
Inventor
矢北 真一郎
Shinichiro Yakita
真一郎 矢北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016113109A priority Critical patent/JP2017219650A/en
Publication of JP2017219650A publication Critical patent/JP2017219650A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system that achieves accurate tracking with regard to a focus point in a zoom region and entire focus region in an arbitrary wavelength region from a visible region to a near infrared region in a system in which a picture can be taken in the arbitrary wavelength region from the visible region to the near infrared region.SOLUTION: In an imaging system having a zoom lens allowing a picture to be taken from a visible light region to a near infrared light region, the zoom lens has: a variable magnification group for varying a magnification; a focus lens group for focusing; and a tracking adjustment group for correcting a focus deviation when varying the magnification. The tracking adjustment group is configured to be driven in conjunction with a variable magnification group position and a focus lens position according to a prescribed tracking table; determine a wavelength region of a shooting environment from a focusing position of the focus lens group in at least three prescribed zoom positions with regard to an arbitrary subject; and correct tracking data.SELECTED DRAWING: Figure 1

Description

本発明は、ズームレンズ及びそれを有する撮像装置における可視域から近赤外域で任意の波長領域での合焦精度改善に関し、放送用テレビカメラ、ビデオカメラ、デジタルスチルカメラ、銀塩写真用カメラ等に好適なものである。   The present invention relates to an improvement in focusing accuracy in an arbitrary wavelength region from a visible region to a near infrared region in a zoom lens and an image pickup apparatus having the same, a television camera for broadcasting, a video camera, a digital still camera, a silver salt photography camera, and the like It is suitable for.

近年、テレビカメラ、デジタルカメラ、ビデオカメラ等の撮像装置の分野では、HDTV化(ハイビジョン)や更に高精細な4K対応化が進み、より高精細な映像を実現する為、より正確な合焦精度が求められる。   In recent years, in the field of imaging devices such as TV cameras, digital cameras, video cameras, etc., HDTV (high definition) and higher definition 4K support have progressed, and more precise focusing accuracy is required to realize higher definition images. Is required.

また、ユーザーの撮影環境へのニーズが多様化しており、可視光領域から赤外光領域まで撮影可能な撮像装置が開発されている。通常の明るい環境における可視光域での撮影に加えて、薄暮下等で光量確保を目的とした撮影波長領域の広域化や、夜間等暗い環境で被写体に可視光源を使用することができない状況での(近)赤外域での撮影が知られている。   In addition, user needs for photographing environments are diversified, and imaging devices capable of photographing from the visible light region to the infrared light region have been developed. In addition to shooting in the visible light range in normal bright environments, widening the shooting wavelength range to ensure light intensity under dusk, etc., or in situations where a visible light source cannot be used for subjects in dark environments such as at night The (near) infrared imaging is known.

但し、撮影光学系たるズームレンズにおいて、可視光領域から赤外光領域の全領域に渡り色収差を補正することは困難であり、可視光領域での撮影を想定して設計されたズームレンズを、上記可視光領域から赤外領域まで撮影可能な撮像装置に装着して赤外領域で使用すると、赤外領域での撮影における合焦状態でのフォーカスレンズの位置は、可視光領域での撮影におけるフォーカスレンズの位置と異なり、合焦精度が劣化する。赤外光を用いてフランジバック調整を行ったとしても、ズーム全域で合焦し続けること(トラッキング)は困難である。   However, in a zoom lens that is an imaging optical system, it is difficult to correct chromatic aberration over the entire region from the visible light region to the infrared light region, and a zoom lens designed for photographing in the visible light region is When mounted on an imaging device capable of photographing from the visible light region to the infrared region and used in the infrared region, the position of the focus lens in the focused state in photographing in the infrared region is the same as in photographing in the visible light region. Unlike the position of the focus lens, the focusing accuracy deteriorates. Even if flange back adjustment is performed using infrared light, it is difficult to keep focusing (tracking) throughout the entire zoom range.

上記問題を解決する為の手段として、ズームレンズについて、可視光領域から赤外光領域の全域に渡り軸上色収差を抑制する必要がある。その為には、レンズに蛍石等異常分散性を持つ低分散硝種を多数使用する必要があり、レンズが高価になったり小型軽量化が困難となる。   As a means for solving the above problem, it is necessary to suppress axial chromatic aberration over the entire range from the visible light region to the infrared light region for the zoom lens. For this purpose, it is necessary to use many low-dispersion glass types having anomalous dispersion such as fluorite for the lens, which makes the lens expensive and difficult to reduce in size and weight.

特許文献1、及び特許文献2では、フォーカスレンズとフランジバック調整用レンズを別に設け、撮影波長域毎にフランジバック調整用レンズによる補正量テーブルを有しており、フォーカスレンズ位置及びズームポジション位置に対する前記補正量テーブルに基づいて、フランジバック調整用レンズを駆動することで、可視光領域と赤外領域で結像位置が一致させている。   In Patent Document 1 and Patent Document 2, a focus lens and a flange back adjustment lens are separately provided, and a correction amount table by the flange back adjustment lens is provided for each imaging wavelength range, and the focus lens position and the zoom position position are determined. By driving the flange back adjustment lens based on the correction amount table, the imaging positions are matched in the visible light region and the infrared region.

また、特許文献3、特許文献4、及び特許文献5では、撮影レンズの光路中に、被写体光を可視光と赤外光に分離する為の色分離プリズムと、赤外光路中には結像位置を補正する為の補正レンズが配置されている。前記補正レンズは、可視光と赤外光で同時に合焦させることを可能としている。   In Patent Literature 3, Patent Literature 4, and Patent Literature 5, a color separation prism for separating subject light into visible light and infrared light in the optical path of the photographing lens, and imaging in the infrared optical path. A correction lens for correcting the position is arranged. The correction lens enables simultaneous focusing with visible light and infrared light.

特開2003-262775号公報Japanese Patent Laid-Open No. 2003-262775 特開2006-162757号公報JP 2006-162757 A 特開2004-354714号公報JP 2004-354714 A 特開2005-4181号公報JP 2005-4181 特開2005-128485号公報JP 2005-128485 A

特許文献1乃至特許文献5では、ズーム全域で正確なトラッキングを実現するには、撮影を想定する各波長領域毎の補正データを用意する必要があり、予め記憶させておくデータ量が多くなってしまう。また、使用者が撮影する波長領域、言い換えれば使用する補正データを指示する必要があり、特に撮影に使用する光源の波長特性が不明な場合は、正確なトラッキングは困難である。   In Patent Documents 1 to 5, in order to realize accurate tracking over the entire zoom range, it is necessary to prepare correction data for each wavelength region that is supposed to be imaged, and the amount of data stored in advance is increased. End up. In addition, it is necessary to instruct the wavelength region to be photographed by the user, in other words, correction data to be used. In particular, when the wavelength characteristic of the light source used for photographing is unknown, accurate tracking is difficult.

また、特許文献3、特許文献4、及び特許文献5では、撮影レンズの光路中に色分離プリズムと、分離後に結像の為の光学系を各々設ける必要があり、システムの小型化が困難である。   In Patent Document 3, Patent Document 4, and Patent Document 5, it is necessary to provide a color separation prism and an optical system for image formation after separation in the optical path of the photographing lens, and it is difficult to reduce the size of the system. is there.

そこで、本発明では、可視光領域から赤外領域までの任意の波長領域において、フォーカス全域、及びズーム全域に渡り正確なトラッキングを実現するズームレンズ及び撮影システムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a zoom lens and an imaging system that realizes accurate tracking over the entire focus range and the entire zoom range in an arbitrary wavelength region from the visible light region to the infrared region.

上記の目的を達成するために、本発明に係る撮影システムは、
可視光領域から赤外光領域まで撮影可能なズームレンズを有する撮影システムにおいて、ズームレンズは、変倍の為の変倍群と、フォーカスの為のフォーカスレンズ群と、変倍中のピントずれを補正する為のトラッキング調整群を有し、前記トラッキング調整群は所定のトラッキングテーブルに従って、変倍群位置、及びフォーカスレンズ位置に連動して駆動し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から撮影環境の波長領域を特定し、トラッキングデータを補正するのがよい。
In order to achieve the above object, an imaging system according to the present invention provides:
In an imaging system that has a zoom lens that can shoot from the visible light region to the infrared light region, the zoom lens has a zooming group for zooming, a focusing lens group for focusing, and defocusing during zooming. A tracking adjustment group for correction is provided, and the tracking adjustment group is driven in conjunction with a zooming group position and a focus lens position according to a predetermined tracking table, and at least three predetermined zooms for an arbitrary subject. It is preferable to correct the tracking data by specifying the wavelength region of the shooting environment from the focus position of the focus lens group at the position.

好ましくは、物体側から順に、フォーカスの為のフォーカスレンズ群、変倍の為の変倍群、変倍中のピントずれを補正する為のトラッキング調整群を有するズームレンズにおいて、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した補正テーブルBを有し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から算出された補正係数αから、トラッキング調整群のトラッキングデータをα・Bとするのがよい。   Preferably, in the zoom lens having a focus lens group for focusing, a zooming group for zooming, and a tracking adjustment group for correcting a focus shift during zooming in order from the object side, the position of the zooming group And a correction table B indicating the position of the tracking adjustment group with respect to the position of the focus group, and a correction coefficient α calculated from the focus position of the focus lens group at at least three predetermined zoom positions with respect to an arbitrary subject Therefore, the tracking data of the tracking adjustment group is preferably α · B.

また、物体側から順に、変倍の為の変倍群、フォーカスの為のフォーカスレンズ群を有し、前記フォーカスレンズ群はトラッキング調整群と兼用であるズームレンズにおいて、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した、基準となる波長領域のトラッキングテーブルAと、補正テーブルBを有し、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した補正テーブルBを有し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から算出された補正係数αから、トラッキング調整群のトラッキングデータをA+α・Bとするのがよい。
また、前記3つの所定のズームポジションのうち、2つは広角端と望遠端であるのがよい。
Further, in order from the object side, the zoom lens has a zooming group for zooming and a focus lens group for focusing, and the focus lens group is a zoom lens that is also used as a tracking adjustment group. It has a tracking table A in the reference wavelength region that shows the position of the tracking adjustment group relative to the position of the focus group, and a correction table B. The position of the zooming group and the position of the tracking adjustment group relative to the position of the focus group The tracking data of the tracking adjustment group is obtained from the correction coefficient α calculated from the focus position of the focus lens group at at least three predetermined zoom positions with respect to an arbitrary subject. B is better.
Of the three predetermined zoom positions, two may be a wide-angle end and a telephoto end.

本発明の更なる目的又はその他の特徴は、以下、添付の図面を参照して説明される好ましい実施例等によって明らかにされるであろう。   Further objects and other features of the present invention will be made clear by the preferred embodiments described below with reference to the accompanying drawings.

本発明によれば、可視域から近赤外域で任意の波長領域で撮影可能なシステムにおいて、可視域から近赤外域の任意の波長領域で、ズーム全域、及びフォーカス全域で、ピントに対して正確なトラッキングを達成する撮影システムを提供することができる。   According to the present invention, in a system capable of photographing in an arbitrary wavelength region from the visible region to the near infrared region, the focus is accurate over the entire zoom range and the entire focus region in the arbitrary wavelength region from the visible region to the near infrared region. It is possible to provide an imaging system that achieves accurate tracking.

本発明のシステム図System diagram of the present invention トラッキングデータ概略図Tracking data schematic 実施例1のフローチャートExample 1 flow chart 数値実施例1の広角端、無限遠合焦時の断面図Sectional view when focusing on infinity at the wide-angle end in Numerical Example 1 数値実施例1の広角端、2.5m合焦時の球面収差図Spherical aberration diagram at the wide-angle end and 2.5m in focus in Numerical value example 1 数値実施例1の望遠端、2.5m合焦時の球面収差図Spherical aberration diagram at the telephoto end of Numerical Example 1 at 2.5 m in focus 数値実施例1の望遠端、無限遠合焦時の球面収差図Spherical aberration diagram at the telephoto end and infinite focus in Numerical Example 1 数値実施例1の望遠端、最至近距離合焦時の球面収差図Spherical aberration diagram at the telephoto end and closest focus of Numerical Example 1

以下、本発明を実施するための形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

(実施形態1)
図1には、本発明の実施形態1である撮影システムの構成を示している。
(Embodiment 1)
FIG. 1 shows the configuration of an imaging system that is Embodiment 1 of the present invention.

図1において、114はテレビカメラやビデオカメラ等の撮像装置であり、101はカメラ114に対して着脱可能なズームレンズである。また、117はズームレンズ101に装着されたドライブユニット(制御装置)である。116は撮影システムである。また、ズームレンズ101とドライブユニット117とにより撮影システムが構成される。   In FIG. 1, reference numeral 114 denotes an imaging device such as a television camera or a video camera, and reference numeral 101 denotes a zoom lens that can be attached to and detached from the camera 114. Reference numeral 117 denotes a drive unit (control device) attached to the zoom lens 101. Reference numeral 116 denotes an imaging system. The zoom lens 101 and the drive unit 117 constitute an imaging system.

このズームレンズシステムでは、カメラ114とドライブユニット117を接続するケーブル(もしくはズームレンズ101とカメラ114の合体時に接続される接点コネクタ)121を通じて電源が供給されるように構成されている。   In this zoom lens system, power is supplied through a cable 121 (or a contact connector connected when the zoom lens 101 and the camera 114 are combined) 121 connecting the camera 114 and the drive unit 117.

ズームレンズ101において、102は固定のレンズユニットであり、103は変倍のために光軸方向に移動可能な変倍レンズユニットである。104は光量調節のために開口径を変化させる絞りユニットであり、105は自動合焦のために光軸方向に移動可能なフォーカスレンズユニットである。これらレンズユニット102〜105および絞りユニット104により撮影光学系が構成され、このズームレンズはリアフォーカス式のズームレンズである。   In the zoom lens 101, reference numeral 102 denotes a fixed lens unit, and reference numeral 103 denotes a zoom lens unit that can move in the optical axis direction for zooming. Reference numeral 104 denotes an aperture unit that changes the aperture diameter for light quantity adjustment, and reference numeral 105 denotes a focus lens unit that can move in the optical axis direction for automatic focusing. The lens units 102 to 105 and the aperture unit 104 constitute a photographing optical system, and this zoom lens is a rear focus type zoom lens.

また、108は変倍レンズユニット103を光軸方向に駆動するカム等のズーム駆動機構であり、118はフォーカスレンズユニット105を光軸方向に駆動する送りねじ等のフォーカス駆動機構である。   Reference numeral 108 denotes a zoom drive mechanism such as a cam that drives the variable magnification lens unit 103 in the optical axis direction, and reference numeral 118 denotes a focus drive mechanism such as a feed screw that drives the focus lens unit 105 in the optical axis direction.

なお、ズーム駆動機構108、フォーカス駆動機構118および絞りユニット104は、ドライブユニット117による電動駆動が可能であるとともに、手動による駆動も可能である。   The zoom drive mechanism 108, the focus drive mechanism 118, and the aperture unit 104 can be electrically driven by the drive unit 117, and can also be driven manually.

一方、カメラ114において、106はフィルターや色分解プリズムに相当するガラスブロック、107は撮影光学系によって形成された被写体像を光電変換するCCDやCMOSセンサ等の撮像素子である。115はカメラ114の制御を司るカメラ制御回路であり、各種演算処理を行うCPUや、撮像素子107からの撮像信号に対して各種画像処理を施す画像処理回路等が内蔵されている。   On the other hand, in the camera 114, reference numeral 106 denotes a glass block corresponding to a filter or a color separation prism, and 107 denotes an image sensor such as a CCD or a CMOS sensor that photoelectrically converts a subject image formed by a photographing optical system. Reference numeral 115 denotes a camera control circuit that controls the camera 114, and includes a CPU that performs various arithmetic processes, an image processing circuit that performs various image processes on an image pickup signal from the image sensor 107, and the like.

また、ドライブユニット117において、112はこのドライブユニット117の各種動作を制御するレンズ制御回路であり、このレンズ制御回路112内には、各種演算処理を行うCPUや、後述するトラッキングデータテーブルを記憶しているデータメモリ回路112aや、後述するモータのドライバ回路が内蔵されている。   In the drive unit 117, reference numeral 112 denotes a lens control circuit for controlling various operations of the drive unit 117. The lens control circuit 112 stores a CPU for performing various arithmetic processes and a tracking data table to be described later. The data memory circuit 112a and a motor driver circuit to be described later are incorporated.

トラッキングデータは、各被写体距離、及び各ズームポジション対して合焦状態を維持するためのフォーカスレンズユニット105の位置を示すデータであり、本実施形態では、各被写体距離と、ズーム駆動機構108の駆動位置、言い換えれば変倍レンズユニット103の光軸上の位置に対して、フォーカス駆動機構118の駆動位置、言い換えればフォーカスレンズユニット105の光軸上の位置データとしてデータメモリ回路112aに記憶されている。ここで、ズームトラッキング曲線データと本実施形態でのフランジバック調節について説明する。   The tracking data is data indicating the subject distance and the position of the focus lens unit 105 for maintaining the in-focus state with respect to each zoom position. In this embodiment, each subject distance and the drive of the zoom drive mechanism 108 are recorded. The position, in other words, the position of the zoom lens unit 103 on the optical axis is stored in the data memory circuit 112a as the drive position of the focus drive mechanism 118, in other words, the position data on the optical axis of the focus lens unit 105. . Here, zoom tracking curve data and flange back adjustment in the present embodiment will be described.

図2には、ズームレンズ101に対するズームトラッキング曲線データを概略的に示している。図2の横軸は変倍レンズユニット103の位置、つまりズームポジションを、縦軸はフォーカスレンズユニット105の位置、つまりフォーカスレンズ位置をそれぞれ示しており、ここでは、被写体距離がズームレンズが合焦し得る最至近距離でのデータと、無限遠距離でのデータを示している。   FIG. 2 schematically shows zoom tracking curve data for the zoom lens 101. In FIG. 2, the horizontal axis indicates the position of the zoom lens unit 103, that is, the zoom position, and the vertical axis indicates the position of the focus lens unit 105, that is, the focus lens position. Here, the subject distance is the focus of the zoom lens. The data at the shortest possible distance and the data at an infinite distance are shown.

ここで、図2から分かるように、ズームポジションが広角端である場合、被写体距離が無限遠から最至近距離の間で合焦が得られるフォーカスレンズ位置の差は小さく、ズームポジションが望遠端である場合、被写体距離が無限遠から最至近距離の間で合焦が得られるフォーカスレンズ位置の差は大きい。このフォーカスレンズ位置の差は、一般的に、焦点距離の自乗に比例することによる。   Here, as can be seen from FIG. 2, when the zoom position is at the wide-angle end, the difference in focus lens position where focus is obtained between the subject distance from infinity to the closest distance is small, and the zoom position is at the telephoto end. In this case, there is a large difference in focus lens position at which focusing can be obtained when the subject distance is between infinity and the closest distance. This difference in focus lens position is generally proportional to the square of the focal length.

このトラッキングデータを用いて実際に撮像装置114に装着されたズームレンズにおいて変倍に対する合焦維持制御を行うためには、トラッキングデータ上の基準位置と、該基準位置の撮影条件で合焦状態にある時のフォーカスレンズユニット105の位置を合致させる必要がある。これをフランジバック調整と呼ぶ。フランジバック調整は、撮像装置114の機種や個々の製品における、撮像装置114のズームレンズ101取り付け基準面から撮像素子107の光軸上の位置のバラつきを補正するものである。   In order to perform focus maintaining control for zooming in the zoom lens actually mounted on the imaging device 114 using this tracking data, the focus state is set based on the reference position on the tracking data and the shooting condition of the reference position. It is necessary to match the position of the focus lens unit 105 at a certain time. This is called flange back adjustment. The flange back adjustment is to correct the variation in the position of the image sensor 107 on the optical axis from the reference plane where the zoom lens 101 of the image sensor 114 is mounted in the model of the image sensor 114 and individual products.

更には、該フランジバックは、温度や湿度といった撮影システムの使用環境等によって変化する。このため、異なるカメラに装着される毎、あるいは異なる使用環境で撮影を行う毎、更には電源投入毎に、該フランジバック調整が必要となる。ドライブユニット117について説明する。109はレンズ制御回路112からの駆動信号に応じて作動し、ズーム駆動機構108を駆動するズームモータである。111はレンズ制御回路112からの駆動信号に応じて作動し、フォーカス駆動機構118を駆動するフォーカスモータである。   Further, the flange back changes depending on the use environment of the photographing system such as temperature and humidity. Therefore, it is necessary to adjust the flange back every time the camera is mounted on a different camera, each time shooting is performed in a different usage environment, and each time the power is turned on. The drive unit 117 will be described. Reference numeral 109 denotes a zoom motor that operates in accordance with a drive signal from the lens control circuit 112 and drives the zoom drive mechanism 108. Reference numeral 111 denotes a focus motor that operates in accordance with a drive signal from the lens control circuit 112 and drives the focus drive mechanism 118.

尚、ドライブユニット117には、変倍レンズユニット103の光軸上の位置を検出する為に、ズーム駆動機構108に連結されるエンコーダやポテンショメータ等のズームポジション検出器119が設けられており、レンズ制御回路112はこのズームポジション検出器119からの検出信号と前記トラッキングデータに基づき、フォーカスレンズユニット105の光軸上の位置をフォーカスモータ111を介して制御する。   The drive unit 117 is provided with a zoom position detector 119 such as an encoder or a potentiometer connected to the zoom drive mechanism 108 in order to detect the position of the zoom lens unit 103 on the optical axis. The circuit 112 controls the position of the focus lens unit 105 on the optical axis via the focus motor 111 based on the detection signal from the zoom position detector 119 and the tracking data.

これにより、ズーム全域において合焦状態が維持される。また、フォーカスレンズユニット105の光軸上の位置を検出する為に、フォーカス駆動機構118に連結されるエンコーダやフォトセンサ等のフォーカス位置検出器120が設けられている。   Thereby, the in-focus state is maintained over the entire zoom range. In addition, in order to detect the position of the focus lens unit 105 on the optical axis, a focus position detector 120 such as an encoder or a photo sensor connected to the focus drive mechanism 118 is provided.

110はレンズ制御回路112からの駆動信号に応じてズームレンズ101内の絞りユニット104を駆動する絞り駆動回路である。更に、113は使用者がフランジバック調整の実行を指示する為のスイッチであり、このスイッチ113からの操作信号はレンズ制御回路112に入力される。   Reference numeral 110 denotes an aperture drive circuit that drives the aperture unit 104 in the zoom lens 101 in accordance with a drive signal from the lens control circuit 112. Reference numeral 113 denotes a switch for the user to instruct execution of flange back adjustment. An operation signal from the switch 113 is input to the lens control circuit 112.

図3に、本撮影システム116におけるフランジバック調整、及びトラッキングデータ補正のフローチャートを示す。   FIG. 3 shows a flowchart of flange back adjustment and tracking data correction in the imaging system 116.

まず、ステップ(図ではSと記す)11において、レンズ制御回路112はフランジバック調整スイッチ113から動作開始信号が入力されたか否か、あるいは撮像装置114、あるいは外部からの電源供給が開始されたか否かを判断し、動作開始信号が入力された時、あるいは電源供給が開始されたときはステップ12に進む。   First, in step (denoted as S in the figure) 11, whether or not the lens control circuit 112 has received an operation start signal from the flange back adjustment switch 113 or whether or not power supply from the imaging device 114 or the outside has been started. When the operation start signal is input or when the power supply is started, the process proceeds to step 12.

ステップ12では、絞りを開放状態に駆動する。これにより、焦点深度が浅くなり、合焦の精度が上がる為、高精度なフランジバック調整、及びトラッキングデータ補正が可能となる。   In step 12, the aperture is driven to the open state. Thereby, since the depth of focus becomes shallow and the accuracy of focusing increases, highly accurate flange back adjustment and tracking data correction can be performed.

ステップ13では、レンズ回路112はズームモータ108を駆動し、変倍レンズユニット103をズームポジションaに移動させる。   In step 13, the lens circuit 112 drives the zoom motor 108 to move the zoom lens unit 103 to the zoom position a.

ステップ14では、レンズ回路112は、カメラ制御回路115から受信した映像信号に基づいてコントラスト検出方式等による合焦位置検出を行う。コントラスト検出方式による場合は、レンズ制御回路112は、映像信号の高周波成分を抽出し、この抽出した高周波成分のピークが最大となるまで、フォーカスモータ111の駆動によるフォーカスレンズユニット105の所定量移動と合焦検出とを繰り返す(ステップ15)。また、位相差検出方式による場合は、レンズ制御回路112は、被写体の同一11を撮像した2つの映像信号を比較して合焦検出を行う。   In step 14, the lens circuit 112 performs in-focus position detection by a contrast detection method or the like based on the video signal received from the camera control circuit 115. In the case of the contrast detection method, the lens control circuit 112 extracts a high-frequency component of the video signal, and moves the focus lens unit 105 by a predetermined amount by driving the focus motor 111 until the peak of the extracted high-frequency component becomes maximum. The focus detection is repeated (step 15). In the case of using the phase difference detection method, the lens control circuit 112 compares the two video signals obtained by capturing the same 11 of the subject and performs focus detection.

ステップ16では、ステップ15での方法で合焦判定を行う。合焦が得られたと判定された時は、ステップ17に進む。   In step 16, focus determination is performed by the method in step 15. When it is determined that the in-focus state has been obtained, the process proceeds to step 17.

ステップ17では、合焦時のフォーカスレンズユニット105の光軸上の位置(フォーカス駆動機構118の位置)を、前述のフォーカス位置検出器120により検出し、データメモリ112aや不図示のメモリ回路に記憶する。   In step 17, the position on the optical axis of the focus lens unit 105 at the time of focusing (the position of the focus drive mechanism 118) is detected by the focus position detector 120 described above and stored in the data memory 112a or a memory circuit (not shown). To do.

ステップ18では、レンズ制御回路112はズームモータ109を駆動し、変倍レンズユニット103を所定のズームポジションbに移動させる。   In step 18, the lens control circuit 112 drives the zoom motor 109 to move the zoom lens unit 103 to a predetermined zoom position b.

ステップ19では、レンズ制御回路112は、カメラ制御回路115から受信した映像信号に基づいてコントラスト検出方式等による合焦位置検出を行う。合焦位置検出方法は、ステップ15と同様である(ステップ21)。   In step 19, the lens control circuit 112 performs in-focus position detection using a contrast detection method or the like based on the video signal received from the camera control circuit 115. The focus position detection method is the same as in step 15 (step 21).

ステップ20では、合焦判定を行う。合焦が得られたと判定された時は、ステップ22に進む。   In step 20, in-focus determination is performed. When it is determined that the in-focus state has been obtained, the process proceeds to step 22.

ステップ22では、合焦時のフォーカスレンズユニット105の光軸上の位置(フォーカス駆動機構118の位置)を、前述のフォーカス位置検出器120により検出し、データメモリ112aや不図示のメモリ回路に記憶する。   In step 22, the position on the optical axis of the focus lens unit 105 at the time of focusing (the position of the focus drive mechanism 118) is detected by the focus position detector 120 described above and stored in the data memory 112a or a memory circuit (not shown). To do.

ステップ23では、レンズ制御回路112は、ステップ17及びステップ22で記憶したォーカスレンズユニット105の光軸上の位置から、トラッキングテーブルの基準位置を演算する。   In step 23, the lens control circuit 112 calculates the reference position of the tracking table from the position on the optical axis of the focus lens unit 105 stored in step 17 and step 22.

ステップ24では、レンズ制御回路112がズームモータ109を駆動し、変倍レンズユニット103を所定のズームポジションcに移動させる。   In step 24, the lens control circuit 112 drives the zoom motor 109 to move the zoom lens unit 103 to a predetermined zoom position c.

ステップ25では、レンズ制御回路112は、カメラ制御回路115から受信した映像信号に基づいてコントラスト検出方式等による合焦位置検出を行う。合焦位置検出方法は、ステップ15と同様である(ステップ27)。   In step 25, the lens control circuit 112 performs in-focus position detection using a contrast detection method or the like based on the video signal received from the camera control circuit 115. The focus position detection method is the same as in step 15 (step 27).

ステップ26では、合焦判定を行う。合焦が得られたと判定された時は、ステップ28に進む。   In step 26, focus determination is performed. When it is determined that the in-focus state is obtained, the process proceeds to step 28.

ステップ28では、合焦時のフォーカスレンズユニット105の光軸上の位置(フォーカス駆動機構118の位置)を、前述のフォーカス位置検出器120により検出し、データメモリ112aや不図示のメモリ回路に記憶する。   In step 28, the position on the optical axis of the focus lens unit 105 at the time of focusing (the position of the focus drive mechanism 118) is detected by the focus position detector 120 described above and stored in the data memory 112a or a memory circuit (not shown). To do.

ステップ29では、ステップ23で得られた基準位置を基づくトラッキングデータと、ステップ17及びステップ22で記憶したォーカスレンズユニット105の光軸上の位置から、トラッキングデータの被写体距離情報を算出する。   In step 29, subject distance information of the tracking data is calculated from the tracking data based on the reference position obtained in step 23 and the position on the optical axis of the focus lens unit 105 stored in steps 17 and 22.

ステップ30では、ステップ29で得られた被写体距離でのトラッキングデータAにおけるズームポジションcにおけるフォーカスレンズユニット位置と、ステップ28で得られたズームポジションcでの合焦位置との差から補正係数αを算出する。   In step 30, the correction coefficient α is determined from the difference between the focus lens unit position at the zoom position c in the tracking data A at the subject distance obtained in step 29 and the focus position at the zoom position c obtained in step 28. calculate.

ステップ31では、レンズ制御回路112で所定の演算式に基づき、トラッキングデータを補正する。   In step 31, the lens control circuit 112 corrects the tracking data based on a predetermined arithmetic expression.

尚、本実施形態では、ドライブユニット117がズームレンズ101に装着されてズームレンズシステムが構成される場合について説明したが、本発明は、ドライブユニット117に相当するものがズームレンズに内蔵されている場合にも適用することができる。   In the present embodiment, the case where the drive unit 117 is mounted on the zoom lens 101 and the zoom lens system is configured has been described. However, the present invention relates to the case where the drive unit 117 is incorporated in the zoom lens. Can also be applied.

以上、上記実施形態にて説明したトラッキングデータ補正制御を適用可能なズームレンズの実施例を示す。図4において、物体側から順に、Iは手動による合焦の為のレンズユニット、IIは変倍の為に移動可能な変倍レンズユニット、IIIは変倍時の結像位置の移動を補正する為の補正レンズユニット、SPは絞り、IVは固定のレンズユニット、Vは自動合焦、フランジバック調整、あるいはトラッキングデータ補正の為のレンズユニットGBは色分解プリズム等のガラスブロック、IPは撮像素子である。レンズユニットI、及び固定レンズユニットIVは変倍の際、固定である。表1に図4に対応したズームレンズの数値実施例を示す。

(数値実施例1)
単位 mm

面データ
面番号 r d nd vd 有効径
1 1169.481 2.40 1.81265 25.4 69.39
2 98.429 10.83 1.51825 64.2 68.86
3 -265.170 0.20 69.02
4 124.037 8.29 1.60548 60.7 68.76
5 -281.395 0.20 68.45
6 51.797 6.46 1.64254 60.1 61.58
7 97.915 (可変) 60.59
8 71.045 0.90 1.82017 46.6 23.36
9 17.601 6.01 19.91
10 -21.542 0.90 1.77621 49.6 19.28
11 18.397 4.63 1.85501 23.9 19.28
12 -4295.134 (可変) 19.19
13 -27.245 0.90 1.79013 44.2 18.72
14 31.613 3.84 1.85501 23.9 20.69
15 1125.345 (可変) 21.58
16(絞り) ∞ 1.60 22.82
17 10000.000 8.10 1.61671 55.0 24.16
18 -15.601 1.20 1.82017 46.6 25.04
19 -37.306 0.20 28.26
20 110.820 5.22 1.62508 53.2 30.57
21 -51.132 37.00 30.98
22 786.500 1.20 1.81264 25.4 30.16
23 25.913 7.96 1.66152 50.9 30.00
24 -77.604 0.20 30.17
25 37.803 5.34 1.66152 50.9 29.71
26 -1000.000 3.80 28.85
27 ∞ 29.00 1.60718 38.0 30.00
28 ∞ 11.20 1.51825 64.2 30.00
29 ∞ (可変) 30.00
像面 ∞

各種データ
ズーム比 14.67
広角 中間 望遠
焦点距離 7.60 29.11 111.48
Fナンバー 1.52 1.52 2.32
画角 27.76 7.83 2.05
像高 4.00 4.00 4.00
レンズ全長 225.47 225.47 225.47
BF 13.04 13.04 13.04

d 7 0.39 33.91 49.55
d12 52.91 14.80 3.78
d15 1.55 6.13 1.53
d29 13.04 13.04 13.04

入射瞳位置 40.71 180.89 487.71
射出瞳位置 170.26 170.26 170.26
前側主点位置 48.67 215.38 678.26
後側主点位置 5.44 -16.06 -98.44

ズームレンズ群データ
群 始面 焦点距離 レンズ構成長 前側主点位置 後側主点位置
1 1 76.58 28.38 11.12 -6.50
2 8 -13.79 12.44 3.16 -5.86
3 13 -36.06 4.74 0.03 -2.54
4 16 45.24 112.02 54.95 -85.67

単レンズデータ
レンズ 始面 焦点距離
1 1 -132.38
2 2 139.93
3 4 143.29
4 6 162.26
5 8 -28.75
6 10 -12.66
7 11 21.44
8 13 -18.40
9 14 37.98
10 17 25.27
11 18 -33.53
12 20 56.68
13 22 -33.00
14 23 30.29
15 25 55.18
16 27 0.00
17 28 0.00

図4のズームレンズにおいて、全ズーム域に渡って合焦可能な最至近距離はズームレンズ最前面より432mmである。全ズーム域に渡って合焦可能な最至近距離を距離Lとした時、本発明は、無限遠から距離Lの間の被写体に対して効果的であり、上記範囲外の被写体距離に関してはフランジバック調整、及びトラッキングデータ補正の精度が低化する。
図5に数値実施例1の広角端、レンズ第1面頂点からの距離2.5mに合焦時の球面収差図を示す。図6に望遠端、物体距離2.5mに合焦時の球面収差図を示す。図7に望遠端、物体距離無限遠に合焦時の球面収差図を示す。図8に望遠端、物体距離が最前面より432mmに合焦時の球面収差図を示す。
Examples of zoom lenses to which the tracking data correction control described in the above embodiment can be applied are described above. In FIG. 4, in order from the object side, I is a lens unit for manual focusing, II is a variable power lens unit that can be moved for zooming, and III is for correcting the movement of the imaging position during zooming. Correction lens unit, SP is aperture, IV is fixed lens unit, V is autofocus, flange back adjustment, or lens unit GB for tracking data correction is glass block such as color separation prism, IP is image sensor It is. The lens unit I and the fixed lens unit IV are fixed at the time of zooming. Table 1 shows numerical examples of zoom lenses corresponding to FIG.

(Numerical example 1)
Unit mm

Surface data surface number rd nd vd Effective diameter
1 1169.481 2.40 1.81265 25.4 69.39
2 98.429 10.83 1.51825 64.2 68.86
3 -265.170 0.20 69.02
4 124.037 8.29 1.60548 60.7 68.76
5 -281.395 0.20 68.45
6 51.797 6.46 1.64254 60.1 61.58
7 97.915 (variable) 60.59
8 71.045 0.90 1.82017 46.6 23.36
9 17.601 6.01 19.91
10 -21.542 0.90 1.77621 49.6 19.28
11 18.397 4.63 1.85501 23.9 19.28
12 -4295.134 (variable) 19.19
13 -27.245 0.90 1.79013 44.2 18.72
14 31.613 3.84 1.85501 23.9 20.69
15 1125.345 (variable) 21.58
16 (Aperture) ∞ 1.60 22.82
17 10000.000 8.10 1.61671 55.0 24.16
18 -15.601 1.20 1.82017 46.6 25.04
19 -37.306 0.20 28.26
20 110.820 5.22 1.62508 53.2 30.57
21 -51.132 37.00 30.98
22 786.500 1.20 1.81264 25.4 30.16
23 25.913 7.96 1.66152 50.9 30.00
24 -77.604 0.20 30.17
25 37.803 5.34 1.66152 50.9 29.71
26 -1000.000 3.80 28.85
27 ∞ 29.00 1.60718 38.0 30.00
28 ∞ 11.20 1.51825 64.2 30.00
29 ∞ (variable) 30.00
Image plane ∞

Various data Zoom ratio 14.67
Wide angle Medium Telephoto focal length 7.60 29.11 111.48
F number 1.52 1.52 2.32
Angle of View 27.76 7.83 2.05
Image height 4.00 4.00 4.00
Total lens length 225.47 225.47 225.47
BF 13.04 13.04 13.04

d 7 0.39 33.91 49.55
d12 52.91 14.80 3.78
d15 1.55 6.13 1.53
d29 13.04 13.04 13.04

Entrance pupil position 40.71 180.89 487.71
Exit pupil position 170.26 170.26 170.26
Front principal point position 48.67 215.38 678.26
Rear principal point position 5.44 -16.06 -98.44

Zoom lens group data group Start surface Focal length Lens configuration length Front principal point position Rear principal point position
1 1 76.58 28.38 11.12 -6.50
2 8 -13.79 12.44 3.16 -5.86
3 13 -36.06 4.74 0.03 -2.54
4 16 45.24 112.02 54.95 -85.67

Single lens Data lens Start surface Focal length
1 1 -132.38
2 2 139.93
3 4 143.29
4 6 162.26
5 8 -28.75
6 10 -12.66
7 11 21.44
8 13 -18.40
9 14 37.98
10 17 25.27
11 18 -33.53
12 20 56.68
13 22 -33.00
14 23 30.29
15 25 55.18
16 27 0.00
17 28 0.00

In the zoom lens of FIG. 4, the closest distance that can be focused over the entire zoom range is 432 mm from the front surface of the zoom lens. When distance L is the closest distance that can be focused over the entire zoom range, the present invention is effective for a subject between infinity and distance L. For subject distances outside the above range, flange back is effective. The accuracy of adjustment and tracking data correction is reduced.
FIG. 5 shows a spherical aberration diagram when focusing on a distance of 2.5 m from the wide-angle end of the first numerical embodiment and the apex of the first surface of the lens. FIG. 6 shows a spherical aberration diagram when focusing on the telephoto end and the object distance of 2.5 m. FIG. 7 shows a spherical aberration diagram when focusing on the telephoto end and the object distance at infinity. FIG. 8 shows a spherical aberration diagram when the telephoto end and the object distance are in focus at 432 mm from the forefront.

各収差図の横軸の単位はmmである。球面収差実線はd線、点線はF線、一点斜線はC線、二点斜線は950nmを示す。各波長におけるバックフォーカス、及び球面収差の違いが、撮影波長領域によるフォーカス位置の差となる。   The unit of the horizontal axis of each aberration diagram is mm. The spherical aberration solid line indicates the d line, the dotted line indicates the F line, the single oblique line indicates the C line, and the double oblique line indicates 950 nm. The difference in back focus and spherical aberration at each wavelength is the difference in focus position depending on the imaging wavelength region.

ここで表1に、基準となるトラッキングデータAを示す。トラッキングデータは、ズームレンズの焦点距離(表1の縦軸)と、被写体距離(表1の横軸)に対して、フォーカス繰り出し量の値からなる。正負の符号は、物体側が負、結像面側を正とする。表1に無いトラッキングデータ間の値は最寄りの値による直線補間で得るのがよい。表1では、例として、焦点距離が3つ、被写体距離が4つの分割としているが、分割数は、前記直線近似で得られるフォーカス繰り出し量と、実機で必要なフォーカス繰り出し量との差がボケとして認められない焦点深度の範囲内相当となるように定めるのが良い。   Table 1 shows reference tracking data A. The tracking data is composed of a focus extension amount value with respect to the focal length of the zoom lens (vertical axis in Table 1) and the subject distance (horizontal axis in Table 1). The positive / negative sign is negative on the object side and positive on the imaging plane side. Values between tracking data not listed in Table 1 should be obtained by linear interpolation using the nearest values. In Table 1, as an example, the focal length is 3 and the subject distance is 4 divisions. However, the number of divisions is the difference between the focus advance amount obtained by the linear approximation and the focus advance amount required for the actual device. It is good to set so that it may correspond to the range of the depth of focus which is not recognized as.

表1は、例として、可視光領域の波長であるd線、F線、C線の3波長から算出されたものとした。トラッキングテーブルAは基準となる為、撮影システムで最も使用頻度が高いと思われる波長領域のものであることが好ましい。   As an example, Table 1 was calculated from the three wavelengths of d-line, F-line, and C-line, which are wavelengths in the visible light region. Since the tracking table A is a reference, it is preferable that the tracking table A is in a wavelength region that is considered to be most frequently used in the imaging system.

上記トラッキングデータAは前記3波長の各々で算出された近軸理論によるフォーカスレンズの繰り出し量の平均値であり、広角端7.6mmの無限遠の値が0になるようにテーブル全体を一律遷移している。   The tracking data A is the average value of the focus lens extension calculated based on the paraxial theory calculated for each of the three wavelengths, and the entire table is transitioned uniformly so that the infinity value at the wide-angle end of 7.6 mm becomes zero. ing.

フォーカスの繰り出し量の算出に際し、好ましくは、球面収差が考慮されたMTF値がピークとなる光軸上の位置から算出するのがよい。また、複数の波長で、且つ撮像素子の分光感度、及び光源、撮影システムに挿入される各種フィルタの分光特性等を考慮した波長間の重みをもって算出するのがよい。これにより、より高精度なピントのトラッキングが可能となる。   When calculating the focus extension amount, it is preferable to calculate from the position on the optical axis where the MTF value considering the spherical aberration takes a peak. Further, it is preferable to calculate with a plurality of wavelengths and weights between wavelengths in consideration of spectral sensitivity of the image sensor, spectral characteristics of various filters inserted in the light source and the imaging system, and the like. As a result, more accurate focus tracking is possible.

次に、表2に補正データBを示す。   Next, Table 2 shows the correction data B.

可視域から近赤外域で任意の波長領域で撮影可能なシステムにおいて、可視域から近赤外域の任意の波長領域で、ズーム全域、及びフォーカス全域で、ピントに対して正確なトラッキングを達成する為、補正データBは、前記トラッキングデータAを補正する為に必要である。ズームレンズの焦点距離(表2の縦軸)と、被写体距離(表2の横軸)に対して、フォーカス繰り出し量の補正値からなる。正負の符号は、物体側が負、結像面側を正とする。表2に無い補正データ間の値は最寄りの値による直線補間で得るのがよい。   To achieve accurate tracking in the entire zoom range and focus range in any wavelength region from visible to near-infrared in a system that can shoot in any wavelength region from visible to near-infrared. The correction data B is necessary for correcting the tracking data A. It consists of a focus extension correction value for the focal length of the zoom lens (vertical axis in Table 2) and subject distance (horizontal axis in Table 2). The positive / negative sign is negative on the object side and positive on the imaging plane side. Values between correction data not listed in Table 2 should be obtained by linear interpolation using the nearest values.

表2では、例として、トラッキングデータAと同じく、焦点距離が3つ、被写体距離が4つの分割としているが、分割数は、トラッキングデータAと補正データBによる補正後に、前記直線近似で得られるフォーカス繰り出し量と、実機で必要なフォーカス繰り出し量との差がボケとして認められない焦点深度の範囲内相当となるように定めるのが良い。   In Table 2, as an example, like the tracking data A, the focal length is three and the subject distance is four. However, the number of divisions is obtained by the linear approximation after correction by the tracking data A and the correction data B. It is preferable that the difference between the focus extension amount and the focus extension amount necessary for the actual machine is set so as to correspond to the range of the depth of focus where blur is not recognized.

補正データBは、トラッキングデータAの算出に用いたものと異なる波長から算出したトラッキングデータ(不記載)と、表1の差分から算出する。補正データBの算出に使用する波長領域は、基準となるトラッキングデータAの算出に用いた波長領域に対して、本発明の撮影システム想定する撮影波長範囲で出来るだけ離れていることが好ましい。これにより、幅広い波長領域でより高精度なピントのトラッキングが可能となる。   The correction data B is calculated from the tracking data (not shown) calculated from a wavelength different from that used for calculating the tracking data A and the difference in Table 1. The wavelength region used for calculating the correction data B is preferably as far away as possible from the wavelength region used for calculating the reference tracking data A within the imaging wavelength range assumed by the imaging system of the present invention. As a result, focus tracking with higher accuracy can be performed in a wide wavelength range.

表2は、例として、近赤外領域の950nmの波長から算出したトラッキングデータ(不記載)と、表1の差分から作成した。   Table 2 was created from the tracking data (not shown) calculated from the wavelength of 950 nm in the near infrared region and the difference in Table 1 as an example.

上記補正データBは前記950nmの波長での近軸理論によるフォーカスレンズの繰り出し量から算出した。望遠端111.5mmの値が0になるように、不記載の950nmの波長から算出したトラッキングデータを直線近似を用いてテーブル全体を一律遷移している。フォーカスの繰り出し量の算出に際し、好ましくは、球面収差が考慮されたMTF値がピークとなる光軸上の位置から算出するのがよい。また、複数の波長で、且つ撮像素子の分光感度、及び光源、撮影システムに挿入される各種フィルタの分光特性等を考慮した波長間の重みをもって算出するのがよい。これにより、より高精度な合焦が可能となる。   The correction data B was calculated from the amount of extension of the focus lens based on the paraxial theory at the wavelength of 950 nm. Tracking data calculated from a wavelength of 950 nm (not shown) is linearly approximated using the linear approximation so that the value at the telephoto end of 111.5 mm becomes 0. When calculating the focus extension amount, it is preferable to calculate from the position on the optical axis where the MTF value considering the spherical aberration takes a peak. Further, it is preferable to calculate with a plurality of wavelengths and weights between wavelengths in consideration of spectral sensitivity of the image sensor, spectral characteristics of various filters inserted in the light source and the imaging system, and the like. Thereby, focusing with higher accuracy is possible.

上記トラッキングテーブルA、及び補正テーブルBの各値の中間が必要な場合は、2つの条件間を直線近似するのが好ましい。上記トラッキングテーブルA、及び補正テーブルBは近軸理論での算出値を用いているが、球面収差を考慮したベストピント位置を用いると更に高精度な合焦精度を実現でき。更に好ましい。   When intermediate values of the tracking table A and the correction table B are necessary, it is preferable to approximate the two conditions linearly. The tracking table A and the correction table B use values calculated by paraxial theory, but using the best focus position taking spherical aberration into consideration makes it possible to achieve higher accuracy of focusing. Further preferred.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。物体側から順に、Iは手動による合焦の為のレンズユニット、IIは変倍の為に移動可能な変倍レンズユニット、IIIは変倍時の結像位置の移動を補正する為の補正レンズユニット、SPは絞り、IVは固定のレンズユニット、Vは自動合焦、フランジバック調整、あるいはトラッキングデータ補正の為のレンズユニット、GBは色分解プリズム等のガラスブロック、IPは撮像素子である。レンズユニットI、及び固定レンズユニットIVは変倍の際、固定である。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist. In order from the object side, I is a lens unit for manual focusing, II is a variable power lens unit that can be moved for zooming, and III is a correction lens for correcting the movement of the imaging position during zooming. Unit, SP is an aperture, IV is a fixed lens unit, V is a lens unit for automatic focusing, flange back adjustment, or tracking data correction, GB is a glass block such as a color separation prism, and IP is an image sensor. The lens unit I and the fixed lens unit IV are fixed at the time of zooming.

I 変倍中固定のレンズ群、II 変倍の為に移動可能な変倍レンズユニット、
III 変倍時の結像位置の移動を補正する為の補正レンズユニット、
IV 固定のレンズユニット、
V 自動合焦、フランジバック調整、あるいはトラッキングデータ補正の為のレンズユニット、
GB ガラスブロック、SP 絞り、IP 撮像素子
I lens group fixed during zooming, II zooming lens unit movable for zooming,
III Correction lens unit to correct the movement of the imaging position during zooming,
IV fixed lens unit,
V Lens unit for automatic focusing, flange back adjustment, or tracking data correction,
GB glass block, SP aperture, IP image sensor

Claims (4)

可視光領域から赤外光領域まで撮影可能なズームレンズを有する撮影システムにおいて、ズームレンズは、変倍の為の変倍群と、フォーカスの為のフォーカスレンズ群と、変倍中のピントずれを補正する為のトラッキング調整群を有し、前記トラッキング調整群は所定のトラッキングテーブルに従って、変倍群位置、及びフォーカスレンズ位置に連動して駆動し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から撮影環境の波長領域を特定し、トラッキングデータを補正することを特徴とする撮影システム。 In an imaging system that has a zoom lens that can shoot from the visible light region to the infrared light region, the zoom lens has a zooming group for zooming, a focusing lens group for focusing, and defocusing during zooming. A tracking adjustment group for correction is provided, and the tracking adjustment group is driven in conjunction with a zooming group position and a focus lens position according to a predetermined tracking table, and at least three predetermined zooms for an arbitrary subject. An imaging system, wherein a wavelength region of an imaging environment is specified from a focus position of a focus lens group at a position, and tracking data is corrected. 物体側から順に、フォーカスの為のフォーカスレンズ群、変倍の為の変倍群、変倍中のピントずれを補正する為のトラッキング調整群を有するズームレンズにおいて、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した補正テーブルBを有し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から算出された補正係数αから、トラッキング調整群のトラッキングデータをα・Bとすることを特徴とする請求項1に記載の撮影システム。   In order from the object side, a zoom lens having a focus lens group for focusing, a zooming group for zooming, and a tracking adjustment group for correcting a focus shift during zooming, the position of the zooming group and the focus It has a correction table B indicating the position of the tracking adjustment group relative to the position of the group, and tracking from a correction coefficient α calculated from the focus position of the focus lens group at at least three predetermined zoom positions for any subject The imaging system according to claim 1, wherein tracking data of the adjustment group is α · B. 物体側から順に、変倍の為の変倍群、フォーカスの為のフォーカスレンズ群を有し、前記フォーカスレンズ群はトラッキング調整群と兼用であるズームレンズにおいて、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した、基準となる波長領域のトラッキングテーブルAと、補正テーブルBを有し、変倍群の位置、及びフォーカス群の位置に対するトラッキング調整群の位置を示した補正テーブルBを有し、任意の被写体に対して少なくとも3つの所定のズームポジションにおけるフォーカスレンズ群の合焦位置から算出された補正係数αから、トラッキング調整群のトラッキングデータをA+α・Bとすることを特徴とする請求項1に記載の撮影システム。 In order from the object side, there are a zooming group for zooming and a focus lens group for focusing, and the focus lens group is a zoom lens that is also used as a tracking adjustment group. It has a tracking table A in the reference wavelength region showing the position of the tracking adjustment group relative to the position, and a correction table B, showing the position of the zooming group and the position of the tracking adjustment group relative to the position of the focus group It has a correction table B, and tracking data of the tracking adjustment group is expressed as A + α · B from a correction coefficient α calculated from the focus position of the focus lens group at at least three predetermined zoom positions for an arbitrary subject. The imaging system according to claim 1, wherein: 前記3つの所定のズームポジションのうち、2つは広角端と望遠端であることを特徴とする請求項1に記載の撮影システム。 2. The photographing system according to claim 1, wherein two of the three predetermined zoom positions are a wide-angle end and a telephoto end.
JP2016113109A 2016-06-07 2016-06-07 Zoom lens and imaging system Pending JP2017219650A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113109A JP2017219650A (en) 2016-06-07 2016-06-07 Zoom lens and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113109A JP2017219650A (en) 2016-06-07 2016-06-07 Zoom lens and imaging system

Publications (1)

Publication Number Publication Date
JP2017219650A true JP2017219650A (en) 2017-12-14

Family

ID=60656167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113109A Pending JP2017219650A (en) 2016-06-07 2016-06-07 Zoom lens and imaging system

Country Status (1)

Country Link
JP (1) JP2017219650A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181157A (en) * 2019-04-26 2020-11-05 キヤノン株式会社 Lens device, image capturing device, correction method, and program
CN112084823A (en) * 2019-06-14 2020-12-15 湖北佳狮盾智能技术有限公司 Three-camera face recognition device and method based on FPGA
CN114414064A (en) * 2021-12-28 2022-04-29 河南三谱睿光电科技有限公司 Infrared large zoom lens optical axis deviation self-correcting device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181157A (en) * 2019-04-26 2020-11-05 キヤノン株式会社 Lens device, image capturing device, correction method, and program
US11573410B2 (en) 2019-04-26 2023-02-07 Canon Kabushiki Kaisha Lens apparatus, image pickup apparatus, method of correcting change in focal position, and storage medium
CN112084823A (en) * 2019-06-14 2020-12-15 湖北佳狮盾智能技术有限公司 Three-camera face recognition device and method based on FPGA
CN114414064A (en) * 2021-12-28 2022-04-29 河南三谱睿光电科技有限公司 Infrared large zoom lens optical axis deviation self-correcting device

Similar Documents

Publication Publication Date Title
US9389392B2 (en) Imaging apparatus, control method for the imaging apparatus, lens unit, and control method for the lens unit
EP2993506B1 (en) Interchangeable lens apparatus, image capturing apparatus and system
JP4181886B2 (en) Zoom lens control device and photographing system
US8564686B2 (en) Imaging apparatus, imaging apparatus body, and shading correcting method
KR20160072687A (en) Camera Module
JP2005004181A (en) Visible light/infrared light photographing lens system
JP2007078833A (en) Zoom lens and imaging apparatus having the same
US8848096B2 (en) Image-pickup apparatus and control method therefor
US8730381B2 (en) Image pickup system, camera and interchangeable lens
US10827124B2 (en) Shake correction device, imaging apparatus, and shake correction method
JP5935918B2 (en) Zoom lens device
CN107255900B (en) Control method of photographing apparatus
CN102200674A (en) Imaging apparatus performing auto focusing function with plurality of band pass filters and auto focusing method applied to the same
JP2017219650A (en) Zoom lens and imaging system
JP2016218439A (en) Attachment optical system and imaging system including the same
US9638916B2 (en) Image processing device for correcting chromatic aberration
KR20160104236A (en) Auto focusing image pick-up apparatus, terminal including the same and auto focus controlling method using the same
CN111131662B (en) Image output method, image output apparatus, camera, and storage medium
JP2011075647A (en) Imaging optical system having autofocus function, and photographing system of the same
JP5256847B2 (en) Imaging device
KR20170102755A (en) Apparatus of autofocusing for light field camera and method thereof
US8588599B2 (en) Imaging apparatus and focus control method for the imaging apparatus
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2005128485A (en) Visible light/infrared light photographing system
JP5475417B2 (en) Image sensor characteristic adjustment method and characteristic adjustment apparatus