JP2007060647A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2007060647A
JP2007060647A JP2006205117A JP2006205117A JP2007060647A JP 2007060647 A JP2007060647 A JP 2007060647A JP 2006205117 A JP2006205117 A JP 2006205117A JP 2006205117 A JP2006205117 A JP 2006205117A JP 2007060647 A JP2007060647 A JP 2007060647A
Authority
JP
Japan
Prior art keywords
image
optical
macro
modulation element
wavefront modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006205117A
Other languages
Japanese (ja)
Other versions
JP4777177B2 (en
Inventor
Masayuki Sato
将行 佐東
Yoichi Miyauchi
洋一 宮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2006205117A priority Critical patent/JP4777177B2/en
Publication of JP2007060647A publication Critical patent/JP2007060647A/en
Application granted granted Critical
Publication of JP4777177B2 publication Critical patent/JP4777177B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/50Optics for phase object visualisation
    • G02B27/52Phase contrast optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • G02B15/143Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective having three groups only
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B15/00Optical objectives with means for varying the magnification
    • G02B15/14Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective
    • G02B15/16Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective with interdependent non-linearly related movements between one lens or lens group, and another lens or lens group
    • G02B15/177Optical objectives with means for varying the magnification by axial movement of one or more lenses or groups of lenses relative to the image plane for continuously varying the equivalent focal length of the objective with interdependent non-linearly related movements between one lens or lens group, and another lens or lens group having a negative front lens or group of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0037Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration with diffracting elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and its method which can assure image quality after processing, without changing loading of an operation process, and moreover, which can also acquire certain image of blurs. <P>SOLUTION: The imaging apparatus has an imaging lens device 200 which images an object variance image, which has passed an optical system and a phase plate (light wave surface modulation element), an image processing apparatus 500 which forms an image signal which does not have variance from a distributed image signal from an imaging element 200, a photographic information formation portion 300 which forms a focal length, a result of multipoint ranging, information, corresponding to a distance to an object, zoom information, or photographing mode information and supplies to an image processing apparatus 500, and a selecting switching portion 400 which inserts or evacuates alternatively the desired phase plate of a plurality of the phase plates on an optical path. The image processing apparatus 500 forms the image signal, which does not have dispersion from the image signal, based on information formed by the photographic information formation portion 300. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系、位相板等の光波面変調素子を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ等の撮像装置およびその方法に関するものである。   The present invention relates to an imaging apparatus such as a digital still camera, a camera mounted on a mobile phone, and a camera mounted on a portable information terminal, and a method thereof, using an imaging element and including an optical wavefront modulation element such as an optical system and a phase plate.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used for a video camera, a digital video unit, a personal computer, a mobile phone, a personal digital assistant (PDA) and the like.

図24は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 24 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図24に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図25(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 24, the best focus surface is matched with the imaging element surface.
25A to 25C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.

また、位相板(Wavefront Coding optical element)により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
また、被写界の拡大量に応じて液晶空間位相変調器の位相変調量を可変にする被写界深度拡大システムが提案されている。
"Wavefront Coding;jointly optimized optical and digital imaging systems",Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. "Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems",Edward R.Dowski,Jr.,Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報
In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase front (wavefront coding optical element) and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
In addition, a depth-of-field expansion system has been proposed in which the phase modulation amount of the liquid crystal spatial phase modulator is variable according to the amount of expansion of the field.
"Wavefront Coding; jointly optimized optical and digital imaging systems", Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. "Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems", Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A

上述した各文献等にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズであっても、その物体距離によってそのスポット像が変化する通常の光学系では、一定の(変化しない)PSFは実現できず、それを解決するには、レンズの光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
In the imaging devices proposed in the above-mentioned documents and the like, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into the normal optical system is constant. When the PSF changes, it is extremely difficult to realize an image having a deep depth of field by convolution using a kernel thereafter.
Therefore, even with a single focal point lens, a regular (non-changing) PSF cannot be realized with a normal optical system in which the spot image changes depending on the object distance. There is a big problem in adopting due to the high accuracy of design and the accompanying cost increase.

また、複数の光学系を備えた光学系、たとえばデジタルカメラのように光学変倍機構を搭載した光学系において、上述した位相板とその後の信号処理によって被写界深度を拡大する等の技術を適用する場合、その光学設計においてPSFがそれぞれの光学系で同じ大きさ、形状になるように設計しなければならないが、そのためには設計の難度が増し、またレンズの精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えることになる。
また、1つの位相変調素子では合焦範囲を可変させるにはコンボリューション処理を変えることである程度は可能になるがコンボリューション処理にかかる負荷や処理後の画像品質から鑑みても好ましくない。
In addition, in an optical system including a plurality of optical systems, for example, an optical system equipped with an optical zoom mechanism such as a digital camera, a technique such as expanding the depth of field by the above-described phase plate and subsequent signal processing, etc. When applied, the optical design must be designed so that the PSF has the same size and shape in each optical system, but this increases the design difficulty and increases the accuracy of the lens and the associated costs. It will cause a big problem to adopt because of up.
Further, although it is possible to change the focusing range with one phase modulation element to some extent by changing the convolution process, it is not preferable in view of the load on the convolution process and the image quality after the process.

さらにまた、上述した各文献等にて提案された撮像装置においては、1つの位相板(光波面変調素子)と1つの復元処理では1つの被写界深度しか得られない。撮影範囲全域でピントの合った画像を望む場合はこれで問題ないが、一般的な光学系のように被写界深度のコントロールを行ってボケ味を得ることはできない。   Furthermore, in the imaging apparatus proposed in each of the above-mentioned documents, only one depth of field can be obtained with one phase plate (light wavefront modulation element) and one restoration process. This is fine if you want an image that is in focus over the entire shooting range, but you cannot control the depth of field as in a typical optical system to get a blur.

また、一般的なカメラでは、マクロ撮影を行う場合、レンズをマクロ域に切り替えた上でオートフォーカス(以下AF)によってピント合わせを行っている。あるいはF値を絞ることで被写界深度を広げて固定ピントとしているものも知られている。   In general cameras, when performing macro photography, the lens is switched to the macro area and then focused by autofocus (hereinafter referred to as AF). Alternatively, it is also known that the depth of field is expanded by reducing the F value to achieve a fixed focus.

ところで、マクロ撮影が本質的に抱えている問題は、距離が非常に近いことによって被写体のわずかな凹凸、あるいは手持ち撮影によるカメラの前後方向のずれが発生し、狙いの部分にピントが合わせ難かったり、深度が非常に浅いことにより画面全体にピントが合いにくいということである。
これは、マクロ撮影のAFと三脚等の固定手段を組み合わせることによって狙いの被写体に対して最適なフォーカシングを行いピントを合わせることはできるが、画面全体にピントを合わせるといったことはできない。また三脚等の固定手段が煩わしいといった問題がある。
By the way, the problem inherent to macro photography is that it is difficult to focus on the target part due to slight unevenness of the subject due to the very short distance, or the camera's front and rear displacement due to handheld photography. The depth is very shallow, making it difficult to focus on the entire screen.
This can be achieved by combining AF for macro photography and fixing means such as a tripod to achieve optimum focusing and focusing on a target subject, but cannot focus on the entire screen. There is also a problem that fixing means such as a tripod is troublesome.

この問題を解決する手段として、レンズのF値を絞ることで被写界深度を広げる方法も広く利用されているが、F値を絞ることで暗くなり、露出を維持するためにシャッタースピードが遅くなって手振れ等の問題も発生する。   As a means for solving this problem, a method of widening the depth of field by reducing the F value of the lens is widely used, but it becomes darker by reducing the F value, and the shutter speed is slow to maintain the exposure. Therefore, problems such as camera shake also occur.

一方、伝統光学系の理論に対し、積極的に光学位相板を挿入することによって像をぼかし、ぼけ復元デジタルフィルタによって画像処理で復元させる手法では、F値を低下させることなく被写界深度を広げられるメリットはあるが、通常の風景画やポートレート撮影では遠近感が無く、また画像処理独特のノイズがわずかに生じることで趣味や芸術性を追及する撮影には適用が困難であるといった問題があった。   On the other hand, in contrast to the theory of traditional optical systems, the technique of blurring an image by actively inserting an optical phase plate and restoring it by image processing using a blur restoration digital filter reduces the depth of field without reducing the F value. Although there is a merit that can be expanded, there is no perspective in normal landscape painting and portrait photography, and it is difficult to apply to photography that pursues hobbies and artistry due to slight noise unique to image processing was there.

本発明の第1の目的は、光学系を簡単化でき、コスト低減を図ることができ、物体距離やデフォーカス範囲を気にすることなく、レンズ設計を行うことができ、かつ精度の高い演算による画像復元が可能で、演算処理の負荷を変えることなくまた処理後の画像品質を確保でき、また、ボケのある画像をも得ることができる撮像装置およびその方法を提供することにある。
また、本発明の第2の目的は、芸術的な撮影は可能としながら、記録としてのマクロ撮影を失敗無く容易に行うことができる撮像装置およびその方法を提供することにある。
The first object of the present invention is to simplify the optical system, reduce costs, perform lens design without worrying about the object distance and defocus range, and perform highly accurate calculations. It is an object of the present invention to provide an imaging apparatus and method capable of restoring an image by the above-mentioned method, ensuring the image quality after processing without changing the processing load, and obtaining a blurred image.
A second object of the present invention is to provide an imaging apparatus and method capable of easily performing macro photography as a record without failure while enabling artistic photography.

上記目的を達成するため、本発明の第1の観点の撮像装置は、光学系および少なくとも一つの光波面変調素子と、前記光学系または前記光学系および光波面変調素子を通過した被写体分散像を撮像する撮像素子と、前記撮像素子からの被写体分散画像信号より分散のない画像信号を生成する変換手段を含む画像処理手段と、を備え、前記光波面変調素子は、光路上に挿入、退避可能である。   In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes an optical system and at least one light wavefront modulation element, and an object dispersion image that has passed through the optical system or the optical system and the light wavefront modulation element. An image pickup device for picking up an image, and an image processing means including a conversion means for generating a non-dispersion image signal from the subject dispersion image signal from the image pickup device. The light wavefront modulation element can be inserted into and retracted from the optical path. It is.

好適には、複数の光波面変調素子を有し、前記複数の光波面変調素子の各々を、前記光路上に選択的に挿入、退避させる選択切換手段を有する。   Preferably, it has a plurality of light wavefront modulation elements, and selection switching means for selectively inserting and retracting each of the plurality of light wavefront modulation elements on the optical path.

好適には、前記選択切換手段は、焦点距離に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える。   Preferably, the selection switching unit selectively switches between insertion and withdrawal of a desired light wavefront modulation element on the optical path in accordance with a focal length.

好適には、前記選択切換手段は、多点測距の結果に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える。   Preferably, the selection switching means selectively switches between insertion and withdrawal of a desired light wavefront modulation element on the optical path according to the result of multipoint distance measurement.

好適には、前記光学系はズーム機能を含み、前記選択切換手段は、ズーム情報に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える。   Preferably, the optical system includes a zoom function, and the selection switching unit selectively switches insertion and withdrawal of a desired light wavefront modulation element on the optical path in accordance with zoom information.

好適には、前記選択切換手段は、被写体までの距離に相当する情報に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える。   Preferably, the selection switching means selectively switches between insertion and withdrawal of a desired light wavefront modulation element on the optical path in accordance with information corresponding to the distance to the subject.

好適には、前記選択切換手段は、撮影モードに応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える。   Preferably, the selection switching unit selectively switches between insertion and withdrawal of a desired light wavefront modulation element on the optical path in accordance with a photographing mode.

好適には、前記撮像装置は、マクロモード・マクロ状態時に光波面変調素子を前記光路上への挿入し、非マクロモード・非マクロ状態時に光波面変調素子を前記光路上から退避する。   Preferably, the imaging apparatus inserts the light wavefront modulation element into the optical path in the macro mode / macro state, and retracts the light wavefront modulation element from the optical path in the non-macro mode / non-macro state.

好適には、前記撮像装置は、近接撮影を可能とするマクロ領域へ前記光学系を移動可能なレンズ鏡筒を有し、測距結果が近距離と判定されたときに、上記光学系のテイキングレンズを固定フォーカスのマクロレンズの構成に移動させる。   Preferably, the imaging apparatus includes a lens barrel capable of moving the optical system to a macro area that enables close-up photography, and when the distance measurement result is determined to be a short distance, the optical system is taken. Move the lens to a fixed focus macro lens configuration.

好適には、前記撮像装置は、近接撮影を可能とするマクロ領域へ前記光学系を移動可能なレンズ鏡筒を有し、マクロモードが選択されると、上記光学系のテイキングレンズを固定フォーカスのマクロレンズの構成に移動させる。   Preferably, the imaging apparatus includes a lens barrel capable of moving the optical system to a macro area that enables close-up photography, and when the macro mode is selected, the taking lens of the optical system is fixed-focused. Move to the macro lens configuration.

好適には、前記撮像装置は、機械的にマクロ位置へレンズを移動させる機構を有する。   Preferably, the imaging apparatus has a mechanism that mechanically moves the lens to a macro position.

好適には、マクロ状態にあるときに前記光波面変調素子を前記光学系の光路中に挿入し、マクロ状態が解除されると前記光波面変調素子を前記光学系の光路中から退避させる手段を有し、前記画像処理手段は、マクロ状態で前記光波面変調素子が挿入されている場合に、前記変換手段により、被写体分散画像信号より分散のない画像信号を生成し、マクロ状態から解除され、前記光波面変調素子が退避されている場合には、前記変換手段の処理を行わない。   Preferably, means for inserting the optical wavefront modulation element into the optical path of the optical system when in the macro state and retracting the optical wavefront modulation element from the optical path of the optical system when the macro state is released The image processing means, when the light wavefront modulation element is inserted in a macro state, the conversion means generates an image signal having no dispersion from the subject dispersion image signal, and is released from the macro state, When the light wavefront modulation element is retracted, the conversion means is not processed.

好適には、使用者が電源をオフした場合にマクロ状態を解除する制御手段を有する。   Preferably, there is a control means for releasing the macro state when the user turns off the power.

好適には、前記撮像装置は、マクロモード時に、光波面変調素子を前記光路上へ挿入するか否かを選択する選択手段を有する。   Preferably, the imaging apparatus includes a selection unit that selects whether or not to insert an optical wavefront modulation element into the optical path in the macro mode.

好適には、マクロ撮影において光波面変調素子を挿入するモードと、光波面変調素子を退避させるモードを選択する機能を備え、前記光波面変調素子が挿入されたマクロ撮影ではフォーカシングレンズは所定の場所に固定して測距動作を行わず、光波面変調素子が退避されたマクロ撮影ではフォーカシングレンズは測距動作を行い、フォーカシングレンズを駆動してオートフォーカス(AF)動作を行う制御手段を有する。   Preferably, the macro lens has a function of selecting a mode for inserting the light wavefront modulation element and a mode for retracting the light wavefront modulation element, and in the macro photography in which the light wavefront modulation element is inserted, the focusing lens is at a predetermined position. The focusing lens performs a distance measuring operation in macro photography in which the light wavefront modulation element is retracted without performing a distance measuring operation, and has a control unit that performs an auto focus (AF) operation by driving the focusing lens.

本発明の第2の観点の撮像方法は、撮影に関する情報を生成する第1ステップと、前記情報生成ステップにより生成される情報に基づいて所定の光波面変調素子を、光路上に挿入または退避させる第2ステップと、光学系と、前記第2ステップで前記光波面変調素子が選択的に設定された状態にある前記光波面変調素子の配置可能位置とを通過した被写体分散像を撮像素子で撮像する第3ステップと、前記第2ステップにより生成される情報に基づいて前記分散画像信号を変換して分散のない画像信号を生成する第4ステップとを有する。   An imaging method according to a second aspect of the present invention includes a first step of generating information relating to imaging, and a predetermined light wavefront modulation element being inserted into or retracted from the optical path based on the information generated by the information generation step. An object dispersion image that has passed through the second step, the optical system, and the position where the light wavefront modulation element can be arranged in the state where the light wavefront modulation element is selectively set in the second step is captured by the image sensor. And a fourth step of converting the dispersed image signal based on the information generated by the second step to generate an image signal without dispersion.

本発明によれば、物体距離やデフォーカス範囲を気にすることなく、レンズ設計を行うことができ、かつ精度の良いコンボリューション等の演算による画像復元が可能となる利点がある。
また、本発明によれば、芸術的な撮影は可能としながら、記録としてのマクロ撮影を失敗無く容易に行うことができる。
また、本発明によれば、光学系を簡単化でき、コスト低減を図ることができる。
また、演算処理の負荷を変えることなくまた処理後の画像品質を確保できる。
また、光波面変調素子と画像処理によってピントのあった画像を得る事を目的とした深度拡張光学系を用いながらも従来光学系の様なボケのある画像をも得ることができる。
According to the present invention, there is an advantage that lens design can be performed without worrying about an object distance and a defocus range, and that an image can be restored by calculation such as accurate convolution.
Further, according to the present invention, it is possible to easily perform macro shooting as a record without failure while allowing artistic shooting.
Further, according to the present invention, the optical system can be simplified and the cost can be reduced.
In addition, the image quality after processing can be ensured without changing the processing load.
In addition, it is possible to obtain a blurred image like a conventional optical system while using a depth-expanding optical system for the purpose of obtaining a focused image by an optical wavefront modulation element and image processing.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
図1は、本発明の第1の実施形態に係る撮像装置を示すブロック構成図である。
<First Embodiment>
FIG. 1 is a block diagram showing an imaging apparatus according to the first embodiment of the present invention.

本第1の実施形態に係る撮像装置100は、ズーム機能を有する光学系(以下、ズーム光学系という)を有する撮像レンズ装置200と、撮影に関する情報を生成する撮影情報生成部300と、光波面変調素子の選択切換部400と、画像処理装置(信号処理部)500と、を主構成要素として有している。   The imaging apparatus 100 according to the first embodiment includes an imaging lens apparatus 200 having an optical system having a zoom function (hereinafter referred to as a zoom optical system), a shooting information generation unit 300 that generates information related to shooting, and a light wavefront. A modulation element selection switching unit 400 and an image processing device (signal processing unit) 500 are included as main components.

撮像レンズ装置200は、撮像対象物体(被写体)OBJの映像を光学的に取り込むズーム光学系210と、ズーム光学系210で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして画像処理装置300に出力するCCDやCMOSセンサからなる撮像素子220とを有する。図1においては、撮像素子220を一例としてCCDとして記載している。   The imaging lens device 200 optically captures an image of an imaging target object (subject) OBJ, and an image captured by the zoom optical system 210 is formed. The image sensor 220 includes a CCD or a CMOS sensor that is output to the image processing apparatus 300 as the next image signal FIM. In FIG. 1, the imaging element 220 is described as a CCD as an example.

図2は、本実施形態に係るズーム光学系210の光学系の構成例を模式的に示す図である。   FIG. 2 is a diagram schematically illustrating a configuration example of the optical system of the zoom optical system 210 according to the present embodiment.

図2のズーム光学系210は、物体側OBJSに配置された物体側レンズ211と、撮像素子220に結像させるための結像レンズ212と、物体側レンズ211と結像レンズ212間に配置され、結像レンズ212による撮像素子220の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する複数の位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)群213を有する。また、物体側レンズ211と結像レンズ212間には図示しない絞りが配置される。
なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。
The zoom optical system 210 in FIG. 2 is disposed between an object side lens 211 disposed on the object side OBJS, an image forming lens 212 for forming an image on the image sensor 220, and between the object side lens 211 and the image forming lens 212. An optical wavefront modulation element (wavefront forming optical element) composed of a plurality of phase plates (Cubic Phase Plate) having, for example, a three-dimensional curved surface, which deforms the wavefront of image formation on the light receiving surface of the image sensor 220 by the imaging lens 212 : Wavefront Coding Optical Element) group 213. A stop (not shown) is disposed between the object side lens 211 and the imaging lens 212.
In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-described third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change by coding on the lens surface (for example, wavefront modulation) A light wavefront modulation element such as a hybrid lens or a liquid crystal element (for example, a liquid crystal spatial phase modulation element) capable of modulating the phase distribution of light may be used.

図2のズーム光学系210は、デジタルカメラに用いられる3倍ズームに光学位相板213aを挿入した例である。
図で示された位相板213aは、光学系により収束される光束を規則正しく分光する光学レンズである。この位相板を挿入することにより、撮像素子220上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板213aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
この規則的に分光した画像をデジタル処理により、ピントの合った画像に復元する手段を波面収差制御光学系システムといい、この処理を画像処理装置300において行う。
The zoom optical system 210 in FIG. 2 is an example in which an optical phase plate 213a is inserted into a 3 × zoom used in a digital camera.
The phase plate 213a shown in the figure is an optical lens that regularly splits the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 220 is realized.
In other words, the phase plate 213a forms a deep luminous flux (which plays a central role in image formation) and a flare (blurred portion).
Means for restoring the regularly dispersed image to a focused image by digital processing is called a wavefront aberration control optical system, and this processing is performed in the image processing apparatus 300.

図3は、位相板を含まないズーム光学系210の無限側のスポット像を示す図である。図4は、位相板を含まないズーム光学系210の至近側のスポット像を示す図である。図5は、位相板を含むズーム光学系210の無限側のスポット像を示す図である。図6は、位相板を含むズーム光学系210の至近側のスポット像を示す図である。   FIG. 3 is a diagram showing a spot image on the infinite side of the zoom optical system 210 that does not include a phase plate. FIG. 4 is a diagram showing a spot image on the near side of the zoom optical system 210 that does not include a phase plate. FIG. 5 is a diagram showing a spot image on the infinite side of the zoom optical system 210 including the phase plate. FIG. 6 is a diagram showing a spot image on the near side of the zoom optical system 210 including the phase plate.

基本的に、位相板を含まない光学レンズ系を通った光のスポット像は図3および図4に示されるように、その物体距離が至近側にある場合と無限側にある場合では、異なったスポット像を示す。
このように、物体距離で異なるスポット像を持つ光学系においては、後で説明するH関数が異なる。
当然、図5および図6に示すように、このスポット像に影響される位相板を通したスポット像もその物体距離が至近側と無限側では異なったスポット像となる。
Basically, the spot image of the light passing through the optical lens system not including the phase plate is different depending on whether the object distance is on the close side or on the infinite side, as shown in FIGS. A spot image is shown.
As described above, in an optical system having spot images different in object distance, the H function described later is different.
Naturally, as shown in FIGS. 5 and 6, the spot image passing through the phase plate influenced by the spot image also becomes a different spot image on the near side and the infinite side.

このような、物体位置で異なるスポット像を持つ光学系においては、従来の装置では適正なコンボリューション演算を行うことができず、このスポット像のズレを引き起こす非点、コマ収差、球面収差等の各収差を無くす光学設計が要求される。しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
そこで、本実施形態においては、図1に示すように、撮像装置(カメラ)100が撮影状態に入った時点で、撮影に関する情報を撮影情報生成部300において生成し、画像処理装置500に供給する。
In such an optical system having different spot images at the object position, the conventional apparatus cannot perform an appropriate convolution operation, and astigmatism, coma aberration, spherical aberration, etc. that cause this spot image shift. An optical design that eliminates each aberration is required. However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.
Therefore, in the present embodiment, as illustrated in FIG. 1, when the imaging apparatus (camera) 100 enters a shooting state, information related to shooting is generated in the shooting information generation unit 300 and supplied to the image processing apparatus 500. .

撮影情報生成部300が生成する撮影に関する情報としては、レンズの焦点距離、多点測距の結果、ズーム光学系210のズーム情報、被写体の物体距離の概略距離情報、あるいは撮影モード情報を例示することができる。
撮影情報生成部300で生成する撮影に関する情報は、画像処理装置500のコンボリューション演算処理のフィルタの切り換えに用いられる。
Examples of the information related to shooting generated by the shooting information generation unit 300 include lens focal length, multi-point distance measurement, zoom information of the zoom optical system 210, approximate distance information of the object distance of the subject, or shooting mode information. be able to.
Information relating to shooting generated by the shooting information generation unit 300 is used for switching the filter of the convolution calculation process of the image processing apparatus 500.

選択切換部400は、たとえば光波面変調素子としての複数の位相板と一体的に形成されており、撮影情報生成部300で生成された上述した撮影に関する情報に応じて複数の位相板の各々を、光学系210の光路上に選択的に挿入または退避させる。   The selection switching unit 400 is formed integrally with, for example, a plurality of phase plates as light wavefront modulation elements, and each of the plurality of phase plates is selected according to the above-described information relating to imaging generated by the imaging information generation unit 300. The optical system 210 is selectively inserted into or retracted from the optical path.

なお、ここでは、光波面変調素子としての複数の位相板を撮影に関する状態に応じて光学系210の光路上に選択的に挿入または退避させる場合を例を示すが、本発明は撮影に関する情報、たとえば撮影モードに応じて位相板を光学系210の光路上に選択的に挿入または退避させる場合にも適用可能である。この例としては、マクロモードのマクロ撮影とレンズ駆動を含めた実施形態として後で詳述する。   Note that, here, an example is shown in which a plurality of phase plates as light wavefront modulation elements are selectively inserted into or retracted from the optical path of the optical system 210 according to the state relating to imaging. For example, the present invention can also be applied to a case where the phase plate is selectively inserted into or retracted from the optical path of the optical system 210 according to the photographing mode. This example will be described later in detail as an embodiment including macro shooting in macro mode and lens driving.

図7および図8は、本実施形態の選択切換部400の構成例を示す図である。   7 and 8 are diagrams illustrating a configuration example of the selection switching unit 400 of the present embodiment.

図7の選択切換部400Aは、変調特性の異なる複数(本例では3または4)の位相板213a−1〜213a−4を、回転中心を持った回転可動な部品401に同心円上の軌跡に沿って配置し、部品401の縁部とモータ402の回転軸に取り付けた歯車402と噛合させて、撮影情報生成部300で生成された情報に応じて、所望の位相板213a−1(〜−4)を光軸中心AXを含む光路に挿入(位置させ)あるいは退避させる。これにより、撮影情報に応じて光波面変調を実現している。   The selection switching unit 400A of FIG. 7 has a plurality of (3 or 4 in this example) phase plates 213a-1 to 213a-4 having different modulation characteristics in a locus concentric with a rotationally movable part 401 having a rotation center. The desired phase plate 213 a-1 (˜−) is arranged according to the information generated by the imaging information generation unit 300 by engaging with the gear 402 attached to the edge of the component 401 and the rotation shaft of the motor 402. 4) is inserted (positioned) in the optical path including the optical axis center AX or retracted. Thereby, the light wavefront modulation is realized according to the photographing information.

図8の選択切換部400Bは、変調特性の異なる複数(本例では1または2)の位相板213a−1,213a−2を、板状の部品404に光軸中心と直交する方向に並列に配置し、同心円上の軌跡に沿って配置し、部品404の一縁部とモータ405の回転軸に取り付けた歯車406と噛合させて、撮影情報生成部300で生成された情報に応じて、所望の位相板213a−1(,−2)を光軸中心AXを含む光路に挿入(位置)させあるいは退避させる。これにより、撮影情報に応じて光波面変調を実現している。   The selection switching unit 400B in FIG. 8 has a plurality of (1 or 2 in this example) phase plates 213a-1 and 213a-2 with different modulation characteristics arranged in parallel in a direction perpendicular to the optical axis center on the plate-like component 404. Arranged along a locus on a concentric circle, meshed with one edge of the component 404 and a gear 406 attached to the rotating shaft of the motor 405, and in accordance with information generated by the imaging information generating unit 300 The phase plate 213a-1 (, -2) is inserted (positioned) into or retracted from the optical path including the optical axis center AX. Thereby, the light wavefront modulation is realized according to the photographing information.

なお、図7および図8の例では、部品401,404の位相板の配置位置すべてに位相板を配置しているが、たとえば、位相板を配置しない部分を設け、情報に応じて光波面変調を施さないで撮像素子220に入射させるように構成することも可能である。
このような構成を採用すると、たとえば撮影情報が撮影モードに関する情報であって、たとえばマクロ(近接)モードに場合には、位相板を光路に挿入(位置)させ、少しボケた画像にするモードの場合には、位相板を配置していな部分を光路に挿入(位置)させるといった態様が可能となる。
すなわち、光波面変調素子と画像処理によってピントのあった画像を得る事を目的とした深度拡張光学系を用いながらも従来光学系の様なボケのある画像をも得ることができる。
In the examples of FIGS. 7 and 8, the phase plate is arranged at all the arrangement positions of the phase plates of the components 401 and 404. For example, a portion where no phase plate is arranged is provided, and the light wavefront modulation is performed according to the information. It is also possible to make it enter into the image pick-up element 220, without giving.
When such a configuration is adopted, for example, when the shooting information is information related to the shooting mode, and the macro (proximity) mode, for example, the phase plate is inserted (positioned) in the optical path, and the image is slightly blurred. In this case, a mode in which a portion where the phase plate is not arranged is inserted (positioned) in the optical path is possible.
That is, it is possible to obtain a blurred image like a conventional optical system while using a depth expanding optical system for the purpose of obtaining a focused image by an optical wavefront modulation element and image processing.

また、単純にひとつの位相板等の光波面変調素子を光路に挿入あるいは退避させて、光路に光波面変調素子を配置するあるいは光波面変調処理を施さないように構成することも可能である。
さらに、ひとつの位相板当の光波面変調素子を光路上に固定させ、別の位相板等の光波面変調素子を光路に挿入あるいは退避させるように構成することも可能である。
It is also possible to simply insert or retract an optical wavefront modulation element such as a phase plate in the optical path so that the optical wavefront modulation element is not disposed in the optical path or the optical wavefront modulation processing is not performed.
Furthermore, it is also possible to fix the light wavefront modulation element corresponding to one phase plate on the optical path and insert or retract the light wavefront modulation element such as another phase plate in the optical path.

以上、制御の簡易性やスペースの有効性の高いと考えられる複数の位相板を一部品化したもののみを例示したが、一部品に構成せず各々複数個の光波面変調素子(位相板等)を出し入れする方法も採用することも可能である。   In the above, only a plurality of phase plates that are considered to be easy to control and highly effective in space are illustrated as one part. However, a plurality of light wavefront modulation elements (phase plates, etc.) are not included in one part. ) Can also be adopted.

撮影情報生成部300が生成する撮影に関する情報が焦点距離情報の場合には、たとえば以下のように構成される。   In the case where the information related to shooting generated by the shooting information generation unit 300 is focal length information, for example, the configuration is as follows.

図9は、撮影情報生成部300が生成する撮影に関する情報が焦点距離情報の場合の処理系のブロック図である。図10は、焦点距離に応じて光波面変調素子と復元処理への切換の簡単なフローチャートである。
この場合、撮影情報生成部300において、各々の焦点距離に対するレンズの情報と複数の光波面変調素子(本実施形態では位相板)の情報、さらには復元処理の情報を記憶装置に格納しておく。
焦点移動が行われた際にその焦点情報を取得し格納されている情報を記憶装置より引き出し、選択切換部400によって適宜の状態に切換を行う。
その後は、撮影による撮像素子220の信号を選択された画像処理理装置500のコンボリューション演算部のフィルタ切り換え等によって画像処理を行い、ピントの合った画像に復元する(ST1〜ST4)。
FIG. 9 is a block diagram of a processing system in the case where information related to shooting generated by the shooting information generation unit 300 is focal length information. FIG. 10 is a simple flowchart for switching to the light wavefront modulation element and the restoration process according to the focal length.
In this case, the imaging information generation unit 300 stores lens information for each focal length, information on a plurality of light wavefront modulation elements (phase plates in the present embodiment), and information on restoration processing in a storage device. .
When the focal point is moved, the focal point information is acquired, the stored information is extracted from the storage device, and the selection switching unit 400 switches to an appropriate state.
After that, image processing is performed by switching the filter of the convolution operation unit of the selected image processing apparatus 500 for the signal of the image sensor 220 obtained by photographing, and the image is restored to a focused image (ST1 to ST4).

図11は、撮影情報生成部300が生成する撮影に関する情報が多点測距の結果である被写界深度の場合の処理系のブロック図である。図12は、被写界深度に応じて焦点距離に応じて光波面変調素子と復元処理への切換の簡単なフローチャートである。
一つの光波面変調素子と一つの復元処理では被写界深度は一定の範囲となる。また、復元処理の係数を変えることで被写界深度を調整することは可能であるが、同時に撮影時に含まれているノイズの影響も変化し、適切な画像を復元することが困難になる。
したがって、要望される被写界深度に応じて光波面変調素子の切り替えと復元処理とを行うことでこの問題は解決できる。
FIG. 11 is a block diagram of a processing system in the case where the information related to shooting generated by the shooting information generation unit 300 is the depth of field that is the result of multipoint distance measurement. FIG. 12 is a simple flowchart of switching to the light wavefront modulation element and the restoration process according to the focal length according to the depth of field.
With one optical wavefront modulation element and one restoration process, the depth of field is in a certain range. In addition, it is possible to adjust the depth of field by changing the coefficient of the restoration process, but at the same time, the influence of noise included at the time of shooting also changes, making it difficult to restore an appropriate image.
Therefore, this problem can be solved by performing switching and restoration processing of the light wavefront modulation element according to the desired depth of field.

この場合、撮影情報生成部300において、レンズの情報と複数の位相変調素子の情報、さらには復元処理の情報を記憶装置に格納しておく。
撮影時に実行された測距結果、たとえば近点側(第1点目)と遠点側(第2点目)の2点を使用者によって入力された情報を取得し必要な被写界深度を算出しメモリに格納する。
その結果から格納されている光波面変調素子と復元処理によって得られる被写界深度とを比較し、適正な光波面変調素子と復元処理との組合せに切換を行う。
その後は、撮影による撮像素子220の信号を選択された画像処理理装置500のコンボリューション演算部のフィルタ切り換え等によって画像処理を行い、ピントの合った画像に復元する(ST11〜ST17)。
In this case, the imaging information generation unit 300 stores lens information, information on a plurality of phase modulation elements, and information on restoration processing in a storage device.
The distance measurement result executed at the time of photographing, for example, information input by the user for the near point side (first point) and the far point side (second point) is acquired and the necessary depth of field is obtained. Calculate and store in memory.
Based on the result, the stored optical wavefront modulation element is compared with the depth of field obtained by the restoration process, and the appropriate combination of the optical wavefront modulation element and the restoration process is switched.
After that, image processing is performed by switching the filter of the convolution operation unit of the selected image processing apparatus 500 for the signal of the image sensor 220 obtained by shooting, and the image is restored to a focused image (ST11 to ST17).

このように、本発明は、多点測距を備えたカメラ等にも適応することができる。測距の方法については、機器に応じて様々な方法が考えられるが、視野内に設けられた複数個の測距エリアから距離情報を抽出・算出し被写界深度を決めることとし詳細は割愛する。
また、ここでは、近距離側の第1の測距情報と遠距離側の第2の測距情報から被写界深度を算出し、その結果を基に最適な位相変調素子と復元処理を選択する例を示している。
また、この手段は単焦点でも多焦点でも使用可能であり、被写界深度の算出に当たっては多点測距によるものでも良い。
As described above, the present invention can also be applied to a camera or the like provided with multipoint ranging. There are various methods for ranging, depending on the device, but distance information is extracted and calculated from multiple ranging areas in the field of view, and the depth of field is determined. To do.
Here, the depth of field is calculated from the first distance measurement information on the short distance side and the second distance measurement information on the long distance side, and the optimum phase modulation element and restoration process are selected based on the result. An example is shown.
This means can be used with a single focal point or multiple focal points, and may be based on multi-point distance measurement in calculating the depth of field.

以上では、撮影情報生成部300が生成する撮影に関する情報としては、レンズの焦点距離、多点測距の結果を例示したが、ズーム光学系210のズーム情報、被写体の物体距離の概略距離情報、あるいは撮影モード情報を用いて上述したと同様に制御を行うことができる。
被写体の物体距離の概略距離情報の場合、たとえばAFセンサ等からなる体概略距離情報検出装置400が設けられる。
In the above, examples of the information related to photographing generated by the photographing information generation unit 300 include the focal length of the lens and the result of multipoint ranging. However, the zoom information of the zoom optical system 210, the approximate distance information of the object distance of the subject, Alternatively, control can be performed in the same manner as described above using the shooting mode information.
In the case of the approximate distance information of the object distance of the subject, for example, a body approximate distance information detection device 400 including an AF sensor or the like is provided.

また、撮影情報生成部300が撮影モード情報を生成する場合、撮像装置(カメラ)100が撮影状態に入った時点で、操作スイッチで選択され入力された撮影モード(本実施形態の場合、たとえば通常撮影モード、遠景撮影モード、マクロ撮影モード、ボケのあるモード)に応じた被写体の物体距離の概略距離を物体概略距離情報検出装置から読み出し、画像処理装置500に供給する。   When the shooting information generation unit 300 generates shooting mode information, the shooting mode selected by the operation switch and input when the imaging device (camera) 100 enters the shooting state (in this embodiment, for example, normal The approximate distance of the object distance of the subject corresponding to the photographing mode, the distant view photographing mode, the macro photographing mode, and the blurred mode) is read from the object approximate distance information detection device and supplied to the image processing device 500.

画像処理装置500は、撮影情報生成部300から供給された、レンズの焦点距離、多点測距の結果、ズーム光学系210のズーム情報、被写体の物体距離の概略距離情報、あるいは撮影モード情報に基づいて、撮像素子220からの分散画像信号より分散のない画像信号を生成する機能および光波面変調素子としての位相板が退避状態にあり、光波面変調作用を受けていない画像信号に対する所定の画像処理機能を有する。   The image processing apparatus 500 supplies the lens focal length, multipoint distance measurement, zoom information of the zoom optical system 210, approximate distance information of the object distance of the subject, or shooting mode information supplied from the shooting information generation unit 300. Based on the function of generating an image signal having no dispersion from the dispersion image signal from the image sensor 220 and the phase plate as the light wavefront modulation element in the retracted state, and a predetermined image for the image signal not subjected to the light wavefront modulation action Has a processing function.

なお、本実施形態において、分散とは、上述したように、位相板213aを挿入することにより、撮像素子220上ではピントのどこにも合わない画像を形成し、位相板213aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion means that, by inserting the phase plate 213a, an image that does not fit anywhere on the image sensor 220 is formed, and the phase plate 213a has a deep light flux ( It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

図13は、撮像素子220からの分散画像信号より分散のない画像信号を生成するが画像処理装置500の構成例を示すブロック図である。   FIG. 13 is a block diagram illustrating a configuration example of the image processing apparatus 500 that generates an image signal having no dispersion from the dispersion image signal from the image sensor 220.

画像処理装置500は、図13に示すように、コンボリューション装置501、カーネル・数値演算係数格納レジスタ502、および画像処理演算プロセッサ503を有する。   As illustrated in FIG. 13, the image processing apparatus 500 includes a convolution apparatus 501, a kernel / numerical arithmetic coefficient storage register 502, and an image processing arithmetic processor 503.

この画像処理装置500においては、撮影情報生成部300から供給された撮影に関する情報を得た画像処理演算プロセッサ503では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値演算係数格納レジスタ502に格納し、その値を用い、かつ、撮影情報生成部300から供給された撮影に関する情報に応じてフィルタを切り換えて演算するコンボリューション装置501にて適正な演算を行い、画像を復元する。   In this image processing apparatus 500, the image processing arithmetic processor 503 that obtains information related to photographing supplied from the photographing information generation unit 300 uses the kernel size and the arithmetic coefficient used in appropriate computation for the object separation position. An appropriate calculation is performed by a convolution device 501 that stores the value in the kernel and numerical value calculation coefficient storage register 502, uses the value, and switches the filter according to information related to shooting supplied from the shooting information generation unit 300. And restore the image.

ここで、波面収差制御光学系システムの基本原理について説明する。
図14に示すように、被写体の画像fが波面収差制御光学系システム光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表すことができる。
Here, the basic principle of the wavefront aberration control optical system will be described.
As shown in FIG. 14, the image f of the subject enters the wavefront aberration control optical system optical system H, thereby generating a g image.
This can be expressed by the following equation.

(数1)
g=H*f
ここで、*はコンボリューションを表す。
(Equation 1)
g = H * f
Here, * represents convolution.

生成された、画像から被写体を求めるためには、次の処理を要する。   In order to obtain a subject from the generated image, the following processing is required.

(数2)
f=H-1*g
(Equation 2)
f = H -1 * g

ここで、関数Hに関するカーネルサイズと演算係数について説明する。
個々の物体概略距離をAFPn、AFPn−1、・・・とし、個々のズームポジション(ズーム位置)をZpn、Zpn−1・・・とする。
そのH関数をHn、Hn−1、・・・・とする。
各々のスポットが異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding the function H will be described.
The individual object approximate distances are AFPn, AFPn-1,..., And the individual zoom positions (zoom positions) are Zpn, Zpn-1,.
The H function is defined as Hn, Hn-1,.
Since each spot is different, each H function is as follows.

Figure 2007060647
Figure 2007060647

この行列の行数および/または列数の違いをカーネイレサイズ、各々の数字を演算係数とする。   The difference in the number of rows and / or the number of columns in this matrix is the Carney size, and each number is the calculation coefficient.

上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本実施形態においては、撮影情報生成部300から供給された、レンズの焦点距離、多点測距の結果、ズーム光学系210のズーム情報、被写体の物体距離の概略距離情報、あるいは撮影モード情報に応じて異なる画像補正の処理を行うことにように構成されている。
As described above, in the case of an imaging device including a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, an image signal without proper aberrations by image processing within the predetermined focal length range However, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In the present embodiment, the focal length of the lens, the result of multipoint ranging, the zoom information of the zoom optical system 210, the approximate distance information of the object distance of the subject, or the shooting mode information supplied from the shooting information generation unit 300. In response to this, different image correction processes are performed.

前記の画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
The image processing is performed by convolution calculation. To achieve this, for example, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the focal length, The correction coefficient is used to correct the calculation coefficient, and an appropriate convolution calculation can be performed using the corrected calculation coefficient.
In addition to this configuration, the following configuration can be employed.

たとえば焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   For example, the kernel size and the convolution calculation coefficient itself are stored in advance according to the focal length, the convolution calculation is performed using the stored kernel size and the calculation coefficient, and the calculation coefficient according to the focal length is previously stored as a function. It is possible to adopt a configuration in which a calculation coefficient is obtained from this function based on the focal length and the convolution calculation is performed using the calculated calculation coefficient.

また、前述したレンズの焦点距離、多点測距の結果に応じた処理の他、図13の構成に対応付けると次のような構成をとることができる。   Further, in addition to the processing according to the focal length of the lens and the result of the multipoint distance measurement described above, the following configuration can be taken in association with the configuration of FIG.

変換係数記憶手段としてのレジスタ502に被写体距離に応じて少なくとも位相板213aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ503が、撮影情報生成部300の被写体距離情報生成手段としての物体概略距離情報検出装置により生成された情報に基づき、レジスタ502から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置501が、係数選択手段としての画像処理演算プロセッサ503で選択された変換係数および撮影情報生成部300の供給情報によって、画像信号の変換を行う。
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 213a are stored in advance in the register 502 as the conversion coefficient storage means according to the subject distance. A coefficient for the image processing arithmetic processor 503 to select a conversion coefficient corresponding to the distance from the register 502 to the subject based on the information generated by the object approximate distance information detecting device as the subject distance information generating means of the photographing information generating unit 300 It functions as a selection means.
Then, the convolution device 501 as the conversion unit converts the image signal based on the conversion coefficient selected by the image processing arithmetic processor 503 as the coefficient selection unit and the supply information of the imaging information generation unit 300.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ503が、被写体距離情報生成手段としての物体概略距離情報検出装置により生成された情報に基づき変換係数を演算し、レジスタ502に格納する。
そして、変換手段としてのコンボリューション装置501が、変換係数演算手段としての画像処理演算プロセッサ503で得られレジスタ502に格納された変換係数および撮影情報生成部300の供給情報によって、画像信号の変換を行う。
Alternatively, as described above, the image processing calculation processor 503 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device as the subject distance information generation unit, and stores it in the register 502. To do.
Then, the convolution device 501 as the conversion means converts the image signal by the conversion coefficient obtained by the image processing arithmetic processor 503 as the conversion coefficient calculation means and stored in the register 502 and the supply information of the imaging information generation unit 300. Do.

または、撮影情報生成部300から供給されるズーム情報を入力し、補正値記憶手段としてのレジスタ502にズーム光学系210のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ502に、所望の位相板213aに起因する収差に対応した変換係数を予め記憶する。
そして、たとえば距離情報や焦点距離情報、多点測距の結果等の撮影情報に基づき、補正値選択手段としての画像処理演算プロセッサ503が、補正値記憶手段としてのレジスタ502から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置501が、第2変換係数記憶手段としてのレジスタ502から得られた変換係数および撮影情報生成部300の供給情報と、補正値選択手段としての画像処理演算プロセッサ503により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, zoom information supplied from the photographing information generation unit 300 is input, and at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 210 is stored in advance in the register 502 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to an aberration caused by a desired phase plate 213a is stored in advance in a register 502 that also functions as a second conversion coefficient storage unit.
Then, based on photographing information such as distance information, focal length information, and multi-point distance measurement results, the image processing arithmetic processor 503 serving as a correction value selection unit determines the distance from the register 502 serving as a correction value storage unit to the subject. Select the correct correction value.
The convolution device 501 as the conversion means selects the conversion coefficient obtained from the register 502 as the second conversion coefficient storage means and the supply information of the imaging information generation unit 300, and the image processing arithmetic processor 503 as the correction value selection means. The image signal is converted based on the corrected value.

また、撮影情報が撮影モード情報の場合、たとえば、画像処理装置500は、通常撮影モードにおける通常変換処理と、この通常変換処理に比べて近接側に収差を少なくするマクロ撮影モードに対応したマクロ変換処理と、通常変換処理に比べて遠方側に収差を少なくする遠景撮影モードに対応した遠景変換処理と、を撮影モードに応じて選択的に実行する。   When the shooting information is shooting mode information, for example, the image processing apparatus 500 performs a normal conversion process in the normal shooting mode and a macro conversion corresponding to a macro shooting mode in which aberration is reduced closer to the normal conversion process. The processing and the distant view conversion process corresponding to the distant view photographing mode in which aberration is reduced on the far side compared to the normal conversion process are selectively executed according to the photographing mode.

本実施形態においては、波面収差制御光学系システムを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, a wavefront aberration control optical system can be adopted to obtain a high-definition image quality, and the optical system can be simplified and the cost can be reduced.
Hereinafter, this feature will be described.

図15(A)〜(C)は、撮像レンズ装置200の撮像素子220の受光面でのスポット像を示している。
図15(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図15(B)が合焦点の場合(Best focus)、図15(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図15(A)〜(C)からもわかるように、本実施形態に係る撮像レンズ装置200においては、位相板213aを含む波面形成用光学素子群213によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
FIGS. 15A to 15C show spot images on the light receiving surface of the imaging element 220 of the imaging lens device 200. FIG.
15A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 15B shows a case where the focal point is a focal point (Best focus), and FIG. 15C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 15A to 15C, in the imaging lens device 200 according to the present embodiment, a light beam having a deep depth (a central part of image formation) is formed by the wavefront forming optical element group 213 including the phase plate 213a. Play a role) and flare (blurred part) is formed.

このように、本実施形態の撮像レンズ装置200において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging lens device 200 of the present embodiment has a light beam condition with a very deep depth.

図16(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図16(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図16(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置500の補正処理に任せるため、図16(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 16A and 16B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 16A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 16B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction process of the image processing apparatus 500 including a digital signal processor, for example, as shown in FIGS. 16A and 16B. The MTF of the primary image is essentially a low value.

画像処理装置500は、たとえばDSPにより構成され、上述したように、撮像レンズ装置200による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   The image processing apparatus 500 is configured by a DSP, for example, and receives a primary image FIM from the imaging lens apparatus 200 as described above and performs a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image. A fine final image FNLIM is formed.

画像処理装置500のMTF補正処理は、たとえば図17の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図17中曲線Bで示す特性に近づく(達する)ような補正を行う。
図17中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the image processing apparatus 500 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristic indicated by the curve B in FIG.
The characteristic indicated by the curve B in FIG. 17 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図17に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図17のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図18に示すようになる。
In the present embodiment, as shown in FIG. 17, in order to achieve the MTF characteristic curve B to be finally realized with respect to the MTF characteristic curve A with respect to the optically obtained spatial frequency, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic of FIG. 17, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、1次画像を形成する光学系210を含む撮像レンズ装置200と、1次画像を高精細な最終画像に形成する画像処理装置500とを有し、光学系システムの光路中に、波面成形用の光学素子を選択的に配置するか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したもの選択的に設けることにより、結像の波面を変形し、そのような波面をCCDやCMOSセンサからなる撮像素子220の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置500を通して高精細画像を得る画像形成システムを形成することが可能である。
本実施形態では、撮像レンズ装置200による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置500で行う。
As described above, the imaging apparatus 100 according to the embodiment includes the imaging lens apparatus 200 including the optical system 210 that forms the primary image, and the image processing apparatus 500 that forms the primary image into a high-definition final image. In the optical path of the optical system, by selectively disposing an optical element for wavefront shaping, or by selectively providing a surface of an optical element such as glass or plastic that is molded for wavefront shaping, The wavefront of the imaging is deformed, such a wavefront is imaged on the imaging surface (light receiving surface) of the imaging element 220 composed of a CCD or a CMOS sensor, and the primary image formed through the image processing apparatus 500 is a high-definition image. Can be formed.
In the present embodiment, the primary image obtained by the imaging lens device 200 has a light beam condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing apparatus 500.

ここで、本実施形態における撮像レンズ装置200における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系210を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging lens apparatus 200 in the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly numerically calculated through the optical system 210, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図15(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置500でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the desired wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 500 including a DSP or the like at the subsequent stage. Thereby, the MTF value is significantly improved.

次に、本実施形態および従来光学系のMTFのレスポンスについて考察する。   Next, the response of the MTF of this embodiment and the conventional optical system will be considered.

図19は、従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図20は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図21は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
FIG. 19 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
FIG. 20 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 21 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学径よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, even when the object deviates from the focal position, the change in the MTF response is smaller than the optical diameter in which the light wavefront modulation element is not inserted.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

以上説明したように、本第1の実施形態によれば、光学系を通過した被写体像または光学系および位相板(光波面変調素子)とを通過した被写体分散像を撮像する撮像レンズ装置200と、撮像素子200からの分散画像信号より分散のない画像信号を生成する画像処理装置500と、焦点距離、多点測距の結果、被写体までの距離に相当する情報、ズーム情報、あるいは撮影モード情報を生成し画像処理装置500に供給する撮影情報生成部300と、複数の位相板のうちの所望の位相板を撮影情報に応じて選択的に光路上に挿入または退避させる選択切換部400とを備え、画像処理装置500は、撮影情報生成部300により生成される情報に基づいて分散画像信号より分散のない画像信号を生成することから、演算処理の負荷を変えることなくまた処理後の画像品質を確保できる。
また、光波面変調素子と画像処理によってピントのあった画像を得る事を目的とした深度拡張光学系を用いながらも従来光学系の様なボケのある画像をも得ることができる。
また、物体距離やデフォーカス範囲を気にすることなく、レンズ設計を行うことができ、かつ精度の良いコンボリューション等の演算による画像復元が可能となる利点がある。
また、本発明によれば、光学系を簡単化でき、コスト低減を図ることができる。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズの波面収差制御光学系システムに使用することが可能である。
さらには、指紋認証、静脈認証、あるいは虹彩認証等が可能で、個人差等によって認証条件が異なったり、2つ以上の認証を行うような生体認証装置にも使用することが可能である。
As described above, according to the first embodiment, the imaging lens device 200 that captures the subject image that has passed through the optical system or the subject dispersion image that has passed through the optical system and the phase plate (light wavefront modulation element); , An image processing device 500 that generates an image signal having no dispersion from the dispersion image signal from the image sensor 200, and information corresponding to the distance to the subject, zoom information, or shooting mode information as a result of focal length and multipoint distance measurement. And a selection switching unit 400 that selectively inserts or retracts a desired phase plate among a plurality of phase plates on the optical path according to the imaging information. The image processing apparatus 500 generates a non-dispersed image signal from the dispersed image signal based on the information generated by the photographing information generating unit 300, and thus changes the processing load. Can be secured also image quality after processing without.
In addition, it is possible to obtain a blurred image like a conventional optical system while using a depth-expanding optical system for the purpose of obtaining a focused image by an optical wavefront modulation element and image processing.
In addition, there is an advantage that the lens can be designed without worrying about the object distance and the defocus range, and the image can be restored by calculation such as convolution with high accuracy.
Further, according to the present invention, the optical system can be simplified and the cost can be reduced.
The imaging apparatus 100 according to the present embodiment can be used for a zoom lens wavefront aberration control optical system in consideration of the small size, light weight, and cost of consumer devices such as digital cameras and camcorders.
Furthermore, fingerprint authentication, vein authentication, iris authentication, and the like are possible, and it can be used for a biometric authentication device that has different authentication conditions depending on individual differences or performs two or more authentications.

また、本実施形態においては、結像レンズ212による撮像素子220の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ装置200と、撮像レンズ装置200による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する画像処理装置500とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、撮像レンズ装置200の光学系210の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens device 200 having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging device 220 by the imaging lens 212, and the primary image FIM by the imaging lens device 200. The image processing apparatus 500 that forms a high-definition final image FNLIM by performing a so-called predetermined correction process for raising the MTF at the spatial frequency of the primary image and the like, thereby obtaining a high-definition image quality. There is an advantage that it becomes possible.
In addition, the configuration of the optical system 210 of the imaging lens device 200 can be simplified, manufacturing becomes easy, and cost can be reduced.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いることなく、エリアジングの現象の発生を避けることができ、高精細な画質を得ることが可能となる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to the present embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系210の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。   In the present embodiment, the example in which the wavefront forming optical element of the optical system 210 is disposed closer to the object side lens than the stop has been described. The effect of this can be obtained.

また、光学系210を構成するレンズは、図2の例に限定されることはなく、本発明は、種々の態様が可能である。   Further, the lenses constituting the optical system 210 are not limited to the example of FIG. 2, and various aspects of the present invention are possible.

なお、第1の実施形態においては、光波面変調素子としての一または複数の位相板を撮影に関する状態に応じて光学系210の光路上に選択的に挿入または退避させる場合を例を示したが、本発明は撮影に関する情報、たとえば撮影モードに応じて位相板を光学系210の光路上に選択的に挿入または退避させる場合にも適用可能である。
以下に、マクロモードのマクロ撮影とレンズ駆動を含めた第2から第5の実施形態について説明する。
In the first embodiment, an example has been described in which one or more phase plates as light wavefront modulation elements are selectively inserted or withdrawn from the optical path of the optical system 210 according to the state relating to imaging. The present invention can also be applied to a case where a phase plate is selectively inserted into or retracted from the optical path of the optical system 210 in accordance with information relating to imaging, for example, the imaging mode.
Hereinafter, second to fifth embodiments including macro shooting in macro mode and lens driving will be described.

マクロ撮影で被写体のわずかな凹凸や手持ち撮影によるカメラの前後方向のずれの発生によって、狙いの部分にピントが合わせ難かったり、深度が非常に浅いことにより画面全体にピントが合いにくいという問題がある。一方で通常距離撮影においては明るいレンズで作画意図を込めた作品作りをするカメラでありたいという要望がある。
以下に説明する実施形態では、光学位相板(光波面変調素子)とボケ復元フィルタ処理を連動させが、基本的に通常撮影距離モードでは光学位相板(光波面変調素子)をテイキングレンズから退避させ、マクロモードでは光学位相板(光波面変調素子)を装填してボケ復元フィルタ処理を行うように構成されている。
There is a problem that it is difficult to focus on the target part due to slight unevenness of the subject in macro shooting or the camera's front-back displacement due to handheld shooting, or it is difficult to focus on the whole screen due to the very shallow depth . On the other hand, in normal distance shooting, there is a demand for a camera that makes a work with the intention of drawing with a bright lens.
In the embodiment described below, the optical phase plate (light wavefront modulation element) and the blur restoration filter process are linked, but basically the optical phase plate (light wavefront modulation element) is retracted from the taking lens in the normal shooting distance mode. In the macro mode, an optical phase plate (light wavefront modulation element) is loaded to perform blur restoration filter processing.

<第2実施形態>
図22は、本発明の第2の実施形態に係る撮像装置を示すブロック構成図である。
Second Embodiment
FIG. 22 is a block diagram showing an imaging apparatus according to the second embodiment of the present invention.

本第2の実施形態に係る撮像装置600はAF(オートフォーカス)機能を備え、図22に示すように、光学系610、撮像素子620、テイキングスレンズ駆動部630、光波面変調素子(光学位相板)駆動部640、アナログフロントエンド部(AFE)650、タイミングジェネレータ660、カメラ信号処理部670、外部メモリ680、画像モニタリング装置としてのLCDモニタ690、操作部700、およびシステム制御装置(MPU)710を有している。   An imaging apparatus 600 according to the second embodiment has an AF (autofocus) function, and as shown in FIG. 22, an optical system 610, an imaging element 620, a taking lens driving unit 630, an optical wavefront modulation element (optical phase). Board) drive unit 640, analog front end unit (AFE) 650, timing generator 660, camera signal processing unit 670, external memory 680, LCD monitor 690 as an image monitoring device, operation unit 700, and system control unit (MPU) 710 have.

光学系610は、被写体物体OBJを撮影した像を撮像素子620に供給する。
本実施形態の光学系610は、近接撮影を可能とするいわゆるマクロ領域へテイキングレンズ構成を移動できるレンズ鏡筒6101を有し、フォーカスレンズ611やズーム光学系612を含み、また、光学位相板駆動部640により選択的に光波面変調素子を含み、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成されている。
The optical system 610 supplies an image obtained by photographing the subject object OBJ to the image sensor 620.
The optical system 610 of this embodiment includes a lens barrel 6101 that can move the taking lens configuration to a so-called macro area that enables close-up photography, includes a focus lens 611 and a zoom optical system 612, and also drives an optical phase plate. The light wavefront modulation element is selectively included by the portion 640, and is formed so that the amount of defocusing is substantially constant at the in-focus position and the distance before and after the in-focus position.

光波面変調素子としては、たとえば光学位相板613が適用される。
ここで光学位相板は光束を分散させる働きがあるので、光学位相板613を含む撮像光学系(テイキングレンズ)610で撮像素子620の結像面上に結ぶ像はピントを結ぶことなく、ぼけた状態になる。
ただし、このぼけた状態とは、単純なデフォーカスによるぼけでは無く、スポットダイアグラムとしては最も集中している状態(ピントが合っている状態に近い)で、ピントは結んでいない状態となっている。これは前述の通り光学位相板613の光束を分散させる働きによって拡がった結果である。
このように、被写体の距離に応じてフォーカシングレンズを動かすので、ぼけ状態は最も小さく、ほぼ変わらず維持される。またこのボケ形状は、設計上の点光源のレスポンスである点像分布関数PSF(Point Spread Function)に従ったぼけ方になる。
ところで、光学位相板613はデフォーカス量に対してぼけ形状の変化が鈍感であるように設計されているので、被写体距離を中心とした前後の異なる距離に存在する物体のボケ像は、デフォーカスに対してあまり大きく変化はしない。
前述の通りテイキングレンズを通って撮像素子面上に結んだ像は光学位相板613の設計通りにぼけている。
As the optical wavefront modulation element, for example, an optical phase plate 613 is applied.
Here, since the optical phase plate has a function of dispersing the light flux, the image to be connected on the imaging surface of the image sensor 620 by the imaging optical system (taking lens) 610 including the optical phase plate 613 is blurred without being focused. It becomes a state.
However, this blurred state is not a blur caused by simple defocusing, but is the most concentrated state (similar to a focused state) as a spot diagram, and is not in focus. . This is a result of spreading by the function of dispersing the light beam of the optical phase plate 613 as described above.
Thus, since the focusing lens is moved according to the distance of the subject, the blurring state is the smallest and is maintained almost unchanged. Further, this blur shape becomes a blur in accordance with a point spread function PSF (Point Spread Function) which is a response of a designed point light source.
By the way, the optical phase plate 613 is designed so that the change in the blur shape is insensitive to the defocus amount. Therefore, blur images of objects existing at different distances around the subject distance are defocused. Does not change much.
As described above, the image formed on the imaging element surface through the taking lens is blurred as designed by the optical phase plate 613.

撮像素子620は、光学系610で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログフロントエンド部650を介してカメラ信号処理部670に出力するCCDやCMOSセンサからなる。
図1においては、撮像素子620を一例としてCCDとして記載している。
The image pickup device 620 forms an image captured by the optical system 610, and outputs the formed primary image information as a primary image signal FIM of an electric signal to the camera signal processing unit 670 via the analog front end unit 650. It consists of a CCD or CMOS sensor.
In FIG. 1, the image sensor 620 is described as a CCD as an example.

光学位相板駆動部640は、MPU710の指示の下、レンズ構成がマクロ状態にあるときに光学位相板613をテイキングレンズ構成の光路中に選択的に挿入し、また、非マクロ状態時には光学位相板613をテイキングレンズ構成の光路中から選択的に退避(脱出)させる。   The optical phase plate driving unit 640 selectively inserts the optical phase plate 613 into the optical path of the taking lens configuration when the lens configuration is in the macro state under the instruction of the MPU 710. 613 is selectively retracted (escaped) from the optical path of the taking lens structure.

テイキングスレンズ駆動部630は、システム制御装置710の指示の下、近接撮影を可能とするいわゆるマクロ領域へテイキングレンズ構成6101におけるフォーカスレンズ611を移動させる。   The taking lens driving unit 630 moves the focus lens 611 in the taking lens configuration 6101 to a so-called macro area that enables close-up photography under the instruction of the system control device 710.

アナログフロントエンド部650は、アナログ/デジタル(A/D)コンバータ651を有する。
A/Dコンバータ651は、CCDから入力されるアナログ信号をデジタル信号に変換し、たとえばベイヤー配列となっているデジタルデータをカメラ信号処理部670に出力する。
The analog front end unit 650 includes an analog / digital (A / D) converter 651.
The A / D converter 651 converts an analog signal input from the CCD into a digital signal, and outputs digital data having a Bayer array, for example, to the camera signal processing unit 670.

タイミングジェネレータ660は、システム制御装置710の制御の下、撮像素子620のCCDの駆動タイミングを生成する。   The timing generator 660 generates the drive timing of the CCD of the image sensor 620 under the control of the system control device 710.

カメラ信号処理部670は、図22に示すように、RAWバッファ671、RGB変換部672、YUB変換部673、ボケ復元フィルタ処理部674、Y′UV処理部675、およびJPEGエンジン676を有する。
本実施形態においては、カメラ信号処理部670は、システム制御装置710の制御の下、マクロ状態時には光学系に光学位相板613が挿入されることから、ボケ復元フィルタ処理部674のボケ復元処理を行う。
一方、カメラ信号処理部670は、システム制御装置710の制御の下、非マクロ状態時には光学系に光学位相板613が退避(脱出)されることから、ボケ復元フィルタ処理部674のボケ復元処理をバイパスした画像処理を行う。
ボケ復元フィルタ処理部674の処理は、第1の実施形態において説明した処理と同様に行われることから、ここではその詳細は省略する。
なお、この処理は一例であり、たとえば図7等の機構を用いて非マクロ状態時にも特性の異なる光学位相板613を挿入してボケ復元処理を行うように構成することも可能である。
As shown in FIG. 22, the camera signal processing unit 670 includes a RAW buffer 671, an RGB conversion unit 672, a YUB conversion unit 673, a blur restoration filter processing unit 674, a Y′UV processing unit 675, and a JPEG engine 676.
In the present embodiment, the camera signal processing unit 670 performs blur restoration processing of the blur restoration filter processing unit 674 because the optical phase plate 613 is inserted into the optical system in the macro state under the control of the system control device 710. Do.
On the other hand, the camera signal processing unit 670 performs the blur restoration process of the blur restoration filter processing unit 674 because the optical phase plate 613 is retracted (escaped) from the optical system in the non-macro state under the control of the system control device 710. Perform bypassed image processing.
Since the process of the blur restoration filter processing unit 674 is performed in the same manner as the process described in the first embodiment, the details thereof are omitted here.
Note that this process is an example, and for example, it is possible to perform a blur restoration process by inserting an optical phase plate 613 having different characteristics even in a non-macro state using the mechanism of FIG.

メモリ680は、カメラ信号処理部670で所定の画像処理を受けたキャプチャ画像等が記録される。   The memory 680 stores captured images that have undergone predetermined image processing by the camera signal processing unit 670.

画像モニタリング装置としてのLCDモニタ690は、たとえばカメラ信号処理部670により所定の画像処理を受けたスルー画やキャプチャ画像を表示する。   An LCD monitor 690 serving as an image monitoring device displays a through image or a captured image that has undergone predetermined image processing by the camera signal processing unit 670, for example.

操作部700は、システム制御装置710に対して所定の機能制御を行うように指示する入力スイッチ等により構成される。操作部700は、たとえばシャッタボタン、レリーズボタン、拡大ボタン、移動キー上、移動キー下、移動キー右、移動キー左、等の各スイッチを含む。   The operation unit 700 includes an input switch that instructs the system control device 710 to perform predetermined function control. The operation unit 700 includes switches such as a shutter button, a release button, an enlarge button, a movement key, a movement key, a movement key right, and a movement key left.

システム制御装置710は、露出制御を行うとともに、操作部700などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、テイキングレンズ駆動部630、光学位相板駆動部640、タイミングジェネレータ660、カメラ信号処理部670等を制御し、システム全体の調停制御を司るものである。   The system control device 710 performs exposure control and has operation inputs of the operation unit 700 and the like, determines the operation of the entire system according to those inputs, and takes a lens driving unit 630, an optical phase plate driving unit 640, It controls the timing generator 660, the camera signal processing unit 670, etc., and controls arbitration control of the entire system.

システム制御装置710は、たとえばマクロモード時には、テイキングレンズ駆動部630、光学位相板駆動部640を制御して、テイキングレンズをマクロ領域に移動させ、かつ、光学位相板613を光学系610の光路中に挿入させ、カメラ信号処理部670に対してボケ復元フィルタ処理部674を行うように制御する。
システム制御装置710は、たとえば非マクロモード時には、テイキングレンズ駆動部630、光学位相板駆動部640を制御して、テイキングレンズをマクロ領域から所定の領域に移動させ、かつ、光学位相板613を光学系610の光路中から退避させ、カメラ信号処理部670に対してボケ復元フィルタ処理部674の処理をバイパスするように制御する。
For example, in the macro mode, the system control device 710 controls the taking lens driving unit 630 and the optical phase plate driving unit 640 to move the taking lens to the macro region, and moves the optical phase plate 613 in the optical path of the optical system 610. And the camera signal processing unit 670 is controlled to perform the blur restoration filter processing unit 674.
For example, in the non-macro mode, the system control device 710 controls the taking lens driving unit 630 and the optical phase plate driving unit 640 to move the taking lens from the macro area to a predetermined area, and the optical phase plate 613 is optically operated. The camera 610 is retracted from the optical path of the system 610, and the camera signal processing unit 670 is controlled to bypass the processing of the blur restoration filter processing unit 674.

システム制御装置710は、測距結果が近距離と判定されたときに、マクロモードであると判断し、自動的にテイキングレンズを固定フォーカスのマクロレンズの構成に移動させるようにテイキングレンズ駆動部630を制御する。   When it is determined that the distance measurement result is a short distance, the system control device 710 determines that the macro mode is set, and the taking lens driving unit 630 automatically moves the taking lens to the configuration of the fixed focus macro lens. To control.

次に、第2の実施形態の動作を説明する。   Next, the operation of the second embodiment will be described.

まず、近接でない通常距離撮影状態について説明する。
被写体OBJの像(光線)は、鏡枠6101内のテイキングレンズを通して撮像素子620上に結像する。
画像データを取り込むときは、カメラ信号処理部670からタイミングジェネレータ660に制御データを設定し、タイミングジェネレータ660の駆動波形によって撮像素子620から画素信号FIMを吐き出させる。
画素信号FIMはAFE(アナログフロントエンド)回路650を通して内部のADコンバータ651でデジタルデータに変換される。次に,このデジタルデータはベイヤー(Bayer)配列となっているのでRAWバッファ661にいったん蓄えられ、RGB変換部662で補間処理することによりRプレーン、Gプレーン、Bプレーンに変換される。さらにYUV変換部663におけるYUV変換により、輝度、色差信号に変換される。
光学位相板613は光学系610の光路から退避(脱出)させられているので、それに連動してYUV変換後の出力に対するボケ復元デジタルフィルタ処理はパスされる。
すなわちY’はYと同じである。このY’UV信号によってLCDモニタ690にスルー画を表示させる。
First, a normal distance shooting state that is not close will be described.
An image (light ray) of the subject OBJ is formed on the image sensor 620 through the taking lens in the lens frame 6101.
When capturing image data, control data is set from the camera signal processing unit 670 to the timing generator 660, and the pixel signal FIM is discharged from the image sensor 620 according to the drive waveform of the timing generator 660.
The pixel signal FIM is converted into digital data by an internal AD converter 651 through an AFE (analog front end) circuit 650. Next, since this digital data is in a Bayer array, it is temporarily stored in the RAW buffer 661 and converted into an R plane, a G plane, and a B plane by interpolation processing by the RGB conversion unit 662. Further, it is converted into luminance and color difference signals by YUV conversion in the YUV conversion unit 663.
Since the optical phase plate 613 is retracted (escaped) from the optical path of the optical system 610, the blur restoration digital filter processing for the output after YUV conversion is passed in conjunction with it.
That is, Y ′ is the same as Y. The through image is displayed on the LCD monitor 690 by the Y′UV signal.

さて、ここで操作部700のレリーズ釦等が押下されると、システム制御装置710はカメラ信号処理部670に対して測距データを取得するようにコマンドを送る。
カメラ信号処理部670は前記Y’UV信号から図示しないバンドパス処理を行って低域周波数を除去しそれらを積算することで測距データを生成する。この測距データをモニタしながらシステム制御装置710はテイキングレンズ駆動部630でフォーカシングレンズを駆動させながらコントラスト法(いわゆる山登り法)によって測距を行う。この測距コントラストデータが最も高くなる(山のピーク位置)フォーカシングレンズ位置がピントが合った状態となる。
通常距離撮影領域より近距離側にピントのピークが存在すると判定された場合、システム制御装置710はテイキングレンズ駆動部630を制御して、フォーカシングレンズを近接撮影の所定の位置へ移動させ、さらにテイキングレンズの光学系の光路中から退避していた光学位相板613をテイキングレンズの光学系610内に装填(挿入)させる。
この光学位相板613によって点像分布関数(PSF)は複数の画素に渡ってボケることになる。ただしこの光学位相板は距離が変わってもぼけ状態があまり強い影響を受けないので異なる被写体距離が画面内に存在していてもぼけの状態は大きく変わらない。
このぼけ画像データはYUV変換までは前記同様の経路を通して処理されていくが、YUV変換後に連動して、ボケ復元フィルタ処理部664のボケ復元フィルタの処理を行い、ボケ画像はピントの合った画像に復元される。
このとき前記の通り、距離に対してPSFの形状が大きく変化しないので(距離感度が鈍くなる様に設計されているので)、ボケ画像が復元された時、広い範囲をピントが合ったようにすることができる。
この復元後の輝度信号Y’をLCDモニタ680に表示し、またJPEGエンジン666によってJPEGファイル圧縮を行って外部メモリに画像ファイルを記録する。
Now, when the release button or the like of the operation unit 700 is pressed, the system control device 710 sends a command to the camera signal processing unit 670 so as to acquire distance measurement data.
The camera signal processing unit 670 performs band pass processing (not shown) from the Y′UV signal to remove low frequency frequencies and integrate them to generate distance measurement data. While monitoring the distance measurement data, the system control device 710 measures the distance by the contrast method (so-called hill climbing method) while driving the focusing lens by the taking lens driving unit 630. The focusing lens position where the distance measurement contrast data is the highest (peak position of the mountain) is in focus.
When it is determined that a focus peak is present on the short distance side from the normal distance shooting area, the system control device 710 controls the taking lens driving unit 630 to move the focusing lens to a predetermined position for close-up shooting, and further takes. The optical phase plate 613 evacuated from the optical path of the lens optical system is loaded (inserted) into the optical system 610 of the taking lens.
By this optical phase plate 613, the point spread function (PSF) is blurred over a plurality of pixels. However, this optical phase plate is not greatly affected by the blurred state even if the distance changes, so the blurred state does not change greatly even if different subject distances exist in the screen.
This blur image data is processed through the same path as described above until YUV conversion, but in conjunction with the YUV conversion, the blur restoration filter processing unit 664 performs a blur restoration filter process, and the blur image is an in-focus image. To be restored.
At this time, as described above, since the shape of the PSF does not change greatly with respect to the distance (because the distance sensitivity is designed to be dull), it seems that the wide range is in focus when the blurred image is restored. can do.
The restored luminance signal Y ′ is displayed on the LCD monitor 680, and JPEG file compression is performed by the JPEG engine 666 to record the image file in the external memory.

第2の実施形態よれば、通常の撮影距離においては光学位相板を使用しないで撮影することができるので、デフォーカス量に対してぼけが線形になるため、画面内の異なる距離に応じてピントの合焦度が自然になり、芸術性の高い写真を撮影することができる。
一般的な技術であるレンズ絞り値によって好みの作画作りができる趣味性の高い使い方が可能である。
一方、マクロ撮影では光学位相板が挿入されデフォーカス量に対してPSF形状の変化が鈍感になるように設計されているので、ぼけ復元フィルタ処理をかけてピントを復元させた画像は、画面内で被写体の凹凸があっても全域でピントの合った画像を得ることができる。したがって、記録としての用途にあったマクロ撮影を提供することが可能となる。 また、一般的なマクロ撮影においては手持ち撮影では被写体との距離の前後方向のずれによるボケが無視できない。さらに従来のレンズ絞り値を絞る方法では、シャッター速度が遅くなり、手振れ被写体振れの問題もある。
しかしながら、本実施形態のマクロ撮影に光学位相板を挿入してボケ復元フィルタ処理を用いることにより、撮影時の多少のカメラの前後に起因するぼけは吸収でき、かつレンズ絞り値を絞る必要も無いので、従来困難であった手持ちのマクロ撮影が可能となる。
According to the second embodiment, since it is possible to shoot without using an optical phase plate at a normal shooting distance, the blur is linear with respect to the defocus amount. The degree of in-focus becomes natural and you can shoot pictures with high artistic quality.
It is possible to use it with high hobby that allows you to create your favorite drawing with the lens aperture value, which is a common technique.
On the other hand, in macro photography, an optical phase plate is inserted and designed to be insensitive to changes in the PSF shape with respect to the defocus amount. In this way, an image that is in focus throughout the entire area can be obtained even if the object has irregularities. Therefore, it is possible to provide macro photography suitable for recording use. Further, in general macro photography, blur due to a deviation in the front-rear direction of the distance from the subject cannot be ignored in hand-held photography. Further, in the conventional method of reducing the lens aperture value, the shutter speed becomes slow and there is a problem of camera shake subject shake.
However, by using the blur restoration filter processing by inserting an optical phase plate in the macro shooting of the present embodiment, it is possible to absorb blur caused by some camera front and back at the time of shooting, and it is not necessary to reduce the lens aperture value. Therefore, it is possible to perform hand-held macro photography that was difficult in the past.

また、使用者が近距離撮影を行うときにカメラが自動判定してマクロモードに遷移し、さらに光学位相板を伴った固定ピントとしたので、深度の深い記録重視の撮影ができる上、マクロ切り替え操作が不要となり、さらにマクロ域での測距動作が不要となるのでレリーズタイムラグがほとんど無くなる。従って近距離にカメラを向けてから画像を記録するまでの動作時間を大幅に削減することが可能となる。   In addition, when the user performs close-up shooting, the camera automatically determines and switches to the macro mode, and since the focus is fixed with an optical phase plate, it is possible to shoot with emphasis on deep recording and macro switching. There is no need for operation and there is no need for distance measurement in the macro area, so there is almost no release time lag. Accordingly, it is possible to greatly reduce the operation time from when the camera is pointed at a short distance to when an image is recorded.

<第3実施形態>
次に、第3の実施形態について説明する。本第3の実施形態のシステム構成は図22と同様である。
<Third Embodiment>
Next, a third embodiment will be described. The system configuration of the third embodiment is the same as that shown in FIG.

本第3の実施形態において、システム制御装置710は、使用者が操作部700によりマクロモードを選択した場合に、テイキングレンズを固定フォーカスのマクロレンズの構成に移動させるようにテイキングレンズ駆動部630を制御する。
また、システム制御装置710は、使用者が電源をオフした場合にマクロ状態を解除する機能を有する。
In the third embodiment, the system controller 710 causes the taking lens driving unit 630 to move the taking lens to the configuration of the fixed focus macro lens when the user selects the macro mode using the operation unit 700. Control.
Further, the system control device 710 has a function of canceling the macro state when the user turns off the power.

この場合、撮像装置600が通常距離撮影モードにある時に、使用者が操作部700の図示しないマクロ釦を押下する。
システム制御装置710は、使用者の前記マクロ釦の操作を検出し、テイキングレンズ駆動部630を制御して、テイキングレンズのフォーカシングレンズ611を近接撮影の所定の位置へ移動させ、さらにテイキングレンズの光学系610の光路中から退避していた光学位相板613をテイキングレンズの光学系内に装填(挿入)させる。この光学位相板613によって点像分布関数(PSF)は複数の画素に渡ってボケることになる。この光学位相板613の装填とYUV変換後にボケ復元フィルタ処理を連動させて行い、以下の処理は前記と同様である。
In this case, when the imaging apparatus 600 is in the normal distance shooting mode, the user presses a macro button (not shown) of the operation unit 700.
The system control device 710 detects the operation of the macro button by the user, controls the taking lens driving unit 630, moves the focusing lens 611 of the taking lens to a predetermined position for close-up photography, and further takes the optical of the taking lens. The optical phase plate 613 evacuated from the optical path of the system 610 is loaded (inserted) into the optical system of the taking lens. By this optical phase plate 613, the point spread function (PSF) is blurred over a plurality of pixels. The optical phase plate 613 is loaded and the blur restoration filter processing is performed after YUV conversion, and the following processing is the same as described above.

次に、近接撮影モードの状態で使用者が操作部700の図示しないマクロ釦を押下した時は、システム制御装置710は、使用者のマクロ釦の操作を検出し、光学位相板駆動部640を制御して、テイキングレンズの光学系610に装填(挿入)されていた光学位相板613をテイキングレンズの光学系613から退避させ、テイキングレンズ駆動手部630を制御して、テイキングレンズのフォーカシングレンズ611をノーマル距離撮影領域へ移動させる。
以降のレリーズに伴うカメラ動作は前述の通りのぼけ復元フィルタを通さずに処理されるので、撮影される画像はデフォーカス量に対し線形にぼけていき、味わいのある自然な描写の画像となる。
Next, when the user presses a macro button (not shown) of the operation unit 700 in the close-up mode, the system control device 710 detects the user's operation of the macro button and moves the optical phase plate driving unit 640. Then, the optical phase plate 613 loaded (inserted) in the optical system 610 of the taking lens is retracted from the optical system 613 of the taking lens, and the taking lens driving hand 630 is controlled to focus the focusing lens 611 of the taking lens. Is moved to the normal distance shooting area.
Since the camera operation associated with the subsequent release is processed without passing through the blur restoration filter as described above, the photographed image is linearly blurred with respect to the defocus amount, resulting in an image of a natural description with a taste. .

次に、近接撮影モードの状態で使用者が操作部700の図示しない電源釦を押下した時は、システム制御装置710は使用者の前記電源釦の操作を検出し、光学位相板駆動部640を制御してテイキングレンズの光学系610に装填されていた光学位相板613をテイキングレンズの光学系から退避させ、テイキングレンズ駆動部630を用いてテイキングレンズのフォーカシングレンズ611をノーマル距離撮影領域へ移動させる。さらに設計仕様に応じてレンズ格納状態までレンズを後退させる。
次に、たとえば使用者が操作部700の電源釦を押下するとマクロモードは解除されノーマル撮影状態となるので、光学位相板613はテイキングレンズ系には装填されておらず、後工程のYUV信号に対するぼけ復元フィルタ処理はパスされる。
Next, when the user presses a power button (not shown) of the operation unit 700 in the close-up mode, the system control device 710 detects the operation of the power button by the user, and sets the optical phase plate driving unit 640. The optical phase plate 613 loaded in the taking lens optical system 610 is controlled to be retracted from the taking lens optical system, and the taking lens driving unit 630 is used to move the taking lens focusing lens 611 to the normal distance photographing region. . Furthermore, the lens is retracted to the lens retracted state according to the design specifications.
Next, for example, when the user presses the power button of the operation unit 700, the macro mode is canceled and the normal photographing state is set. Therefore, the optical phase plate 613 is not loaded in the taking lens system, and the YUV signal for the post-process is The blur restoration filter process is passed.

第3の実施形態によれば、使用者がマクロモードを選択したときに、光学位相板を伴った固定ピントとしたので、深度の深い記録重視の撮影を予め設定して行うことができる上、レリーズタイムラグをほとんど無くすことが可能となる。
また、光学位相板を伴ったマクロ撮影から通常距離撮影モードに戻った場合に、光学位相板を退避させ、ぼけ復元フィルタ処理を施さないようにしたので、通常距離撮影においては自然なぼけ味を生かした撮影に戻ることが可能となる。
また、使用者が電源釦をオフした時に光学位相板をテイキングレンズ光学系から退避させ、フォーカシングレンズを通常距離撮影モードに移動させるようにしたので、次に使用する場合に誤ってマクロモードで撮影するという失敗を防げ、さらには次の撮影で最も可能性がある通常撮影モードをすぐ使用することが可能となる。
According to the third embodiment, when the user selects the macro mode, since the focus is fixed with the optical phase plate, it is possible to set and perform shooting with emphasis on deep recording in advance. The release time lag can be almost eliminated.
In addition, when returning from the macro photography with the optical phase plate to the normal distance photography mode, the optical phase plate is retracted so that the blur restoration filter processing is not performed. It is possible to return to the shooting that made the best use of.
Also, when the user turns off the power button, the optical phase plate is retracted from the taking lens optical system, and the focusing lens is moved to the normal distance shooting mode. It is possible to prevent the failure of the camera from being used, and to use the normal shooting mode most likely in the next shooting immediately.

<第4実施形態>
次に、第4の実施形態について説明する。
図23は、本発明の第4の実施形態に係る撮像装置を示すブロック構成図である。
<Fourth embodiment>
Next, a fourth embodiment will be described.
FIG. 23 is a block configuration diagram showing an imaging apparatus according to the fourth embodiment of the present invention.

本第4の実施形態に係る撮像装置600Aが第2および第3の実施形態に係る図22の撮像装置600と異なる点は、使用者が機械的にマクロ位置へレンズを移動させる機構を有していることにある。
そして、撮像装置600Aは、マクロレバー720、連動機構部730、および位相板位置検出部740を有する。
The imaging apparatus 600A according to the fourth embodiment is different from the imaging apparatus 600 of FIG. 22 according to the second and third embodiments in that the user mechanically moves the lens to the macro position. There is in being.
The imaging apparatus 600 </ b> A includes a macro lever 720, an interlocking mechanism unit 730, and a phase plate position detection unit 740.

まず、近接でない通常距離撮影状態について説明する。
この場合、マクロレバー720はノーマル距離のポジションにあり、連動機構部730により機械的(メカ的)に光学位相板613はテイキングレンズ系から退避されている。位相板位置検出部740によって光学位相板613の位置を検出し、システム制御装置710Aに退避状態を伝達する。
被写体OBJの像(光線)は、鏡枠6101内のテイキングレンズを通して撮像素子620上に結像する。
画像データを取り込むときは、カメラ信号処理部670からタイミングジェネレータ660に制御データを設定し、タイミングジェネレータ660の駆動波形によって撮像素子620から画素信号FIMを吐き出させる。
画素信号FIMはAFE(アナログフロントエンド)回路650を通して内部のADコンバータ651でデジタルデータに変換される。次に,このデジタルデータはベイヤー(Bayer)配列となっているのでRAWバッファ661にいったん蓄えられ、RGB変換部662で補間処理することによりRプレーン、Gプレーン、Bプレーンに変換される。さらにYUV変換部663におけるYUV変換により、輝度、色差信号に変換される。
光学位相板613はテイキングレンズから脱出していることを位相板位置検出部740からシステム制御装置710Aは報知され、このことをカメラ信号処理部670に伝達している。
光学位相板613は光学系610の光路から退避(脱出)させられているので、それに連動してYUV変換後の出力に対するボケ復元デジタルフィルタ処理はパスされる。
すなわちY’はYと同じである。このY’UV信号によってLCDモニタ690にスルー画を表示させる。
First, a normal distance shooting state that is not close will be described.
In this case, the macro lever 720 is at a normal distance position, and the optical phase plate 613 is mechanically (mechanically) retracted from the taking lens system by the interlocking mechanism 730. The phase plate position detector 740 detects the position of the optical phase plate 613 and transmits the retracted state to the system controller 710A.
An image (light ray) of the subject OBJ is formed on the image sensor 620 through the taking lens in the lens frame 6101.
When capturing image data, control data is set from the camera signal processing unit 670 to the timing generator 660, and the pixel signal FIM is discharged from the image sensor 620 according to the drive waveform of the timing generator 660.
The pixel signal FIM is converted into digital data by an internal AD converter 651 through an AFE (analog front end) circuit 650. Next, since this digital data is in a Bayer array, it is temporarily stored in the RAW buffer 661 and converted into an R plane, a G plane, and a B plane by interpolation processing by the RGB conversion unit 662. Further, it is converted into luminance and color difference signals by YUV conversion in the YUV conversion unit 663.
The system controller 710A is notified from the phase plate position detector 740 that the optical phase plate 613 has escaped from the taking lens, and this is transmitted to the camera signal processor 670.
Since the optical phase plate 613 is retracted (escaped) from the optical path of the optical system 610, the blur restoration digital filter processing for the output after YUV conversion is passed in conjunction with it.
That is, Y ′ is the same as Y. The through image is displayed on the LCD monitor 690 by the Y′UV signal.

ここで、操作部700のレリーズ釦等が押下されると、画像データは前述の流れでY’UVまで生成され(ここでのY’はYと同じ)JPEGエンジン666によってJPEGファイル圧縮を行って外部メモリ680に画像ファイルを記録する。   Here, when the release button or the like of the operation unit 700 is pressed, the image data is generated up to Y′UV in the above-described flow (Y ′ here is the same as Y), and the JPEG engine 666 performs JPEG file compression. The image file is recorded in the external memory 680.

次に、使用者がマクロレバー720をマクロ側に移動させると、テイキングレンズの光学系610から退避していた光学位相板613が、連動機構部730によってテイキングレンズ系に装填(挿入)される。この光学位相板613によって点像分布関数(PSF)は複数の画素に渡ってボケることになる。ただしこの光学位相板は距離が変わってもぼけ状態があまり強い影響を受けないので異なる被写体距離が画面内に存在していてもぼけの状態は大きく変わらない。このとき、位相板位置検出部740は、光学位相板613が装填されたことをシステム制御装置710Aに伝達する。
この状態(マクロ撮影モード)で操作部700のレリーズ釦等が押下されると、このぼけ画像データはYUV変換までは前記同様の経路を通して処理されていくが、YUV変換後に連動してボケ復元フィルタの処理を行い、ボケ画像はピントの合った画像に復元される。このとき前記の通り、距離に対してPSFの形状が大きく変化しないので(距離感度が鈍くなる様に設計されているので)、ボケ画像が復元された時、広い範囲をピントが合ったようにすることができる。
この復元後のY’UVをLCDモニタ690に表示し、またJPEGエンジン666によってJPEGファイル圧縮を行って外部メモリ680に画像ファイルを記録する。
Next, when the user moves the macro lever 720 to the macro side, the optical phase plate 613 evacuated from the optical system 610 of the taking lens is loaded (inserted) into the taking lens system by the interlocking mechanism 730. By this optical phase plate 613, the point spread function (PSF) is blurred over a plurality of pixels. However, this optical phase plate is not greatly affected by the blurred state even if the distance changes, so the blurred state does not change greatly even if different subject distances exist in the screen. At this time, the phase plate position detector 740 transmits to the system controller 710A that the optical phase plate 613 has been loaded.
When the release button or the like of the operation unit 700 is pressed in this state (macro shooting mode), the blurred image data is processed through the same path until the YUV conversion, but the blur restoration filter is interlocked after the YUV conversion. The blurred image is restored to an in-focus image. At this time, as described above, since the shape of the PSF does not change greatly with respect to the distance (because the distance sensitivity is designed to be dull), it seems that the wide range is in focus when the blurred image is restored. can do.
The restored Y′UV is displayed on the LCD monitor 690, and the JPEG engine 666 performs JPEG file compression to record the image file in the external memory 680.

第4の実施形態によれば、機械的にレンズの位置をノーマルとマクロを使用者が移動させる機構に光学位相板を連動させたので、AF機構を搭載していない携帯電話内蔵カメラ等では特に近接撮影での合焦域が狭いという問題を明るいレンズで解決できる。   According to the fourth embodiment, since the optical phase plate is interlocked with a mechanism for moving the lens position between normal and macro by the user mechanically, particularly in a camera with a mobile phone that does not have an AF mechanism. A bright lens can solve the problem of narrow focus range in close-up photography.

<第5実施形態>
次に、第5の実施形態について説明する。本第5の実施形態のシステム構成は図22と同様である。
<Fifth Embodiment>
Next, a fifth embodiment will be described. The system configuration of the fifth embodiment is the same as that of FIG.

本第5の実施形態に係る撮像装置600Aが第2および第3の実施形態に係る図22の撮像装置600と異なる点は、マクロモードにおいて、光学位相板を挿入するか退避させるかを選択する機能を有する。
より具体的には、本第5の実施形態においては、マクロ撮影において光学位相板613を装填するモードと、光学位相板を退避させるモードを選択する機能を備え、光学位相板613を装填されたマクロ撮影ではフォーカシングレンズ612は所定の場所に固定して測距動作を行わず、光学位相板613が退避されたマクロ撮影ではフォーカシングレンズ612は測距動作を行いフォーカシングレンズを駆動してAF動作をする。
The imaging apparatus 600A according to the fifth embodiment is different from the imaging apparatus 600 of FIG. 22 according to the second and third embodiments in that it selects whether to insert or retract an optical phase plate in the macro mode. It has a function.
More specifically, the fifth embodiment has a function of selecting a mode for loading the optical phase plate 613 and a mode for retracting the optical phase plate in macro photography, and the optical phase plate 613 is loaded. In macro photography, the focusing lens 612 is fixed at a predetermined position and does not perform distance measurement. In macro photography with the optical phase plate 613 retracted, the focusing lens 612 performs distance measurement and drives the focusing lens to perform AF operation. To do.

この場合、使用者は予めカメラ設定モードでマクロ領域の場合に光学位相板613を使用するかしないかを、操作部700と応じたLCDモニタ表示によって設定する。
マクロ撮影時に位相板を使用する(記録モード)とした場合は、前述の通り、マクロ撮影に切り替えた時にテイキングレンズ系に光学位相板613が装填され、フォーカスレンズは所定の固定位置に設定される。後工程のYUV信号からぼけ復元フィルタ処理を通して、ピントの合った画像のY’UV信号を生成する。この画像はデフォーカス量に対して形状の変化が鈍感なPSFを素に生成されているので被写界深度が深くなる。またAF動作を行わないのでレリーズタイムラグが大幅に短縮される。
In this case, the user previously sets whether or not to use the optical phase plate 613 in the case of the macro area in the camera setting mode by the LCD monitor display corresponding to the operation unit 700.
When the phase plate is used during macro photography (recording mode), as described above, the optical phase plate 613 is loaded into the taking lens system when the macro photography is switched, and the focus lens is set at a predetermined fixed position. . The Y′UV signal of the focused image is generated from the post-process YUV signal through the blur restoration filter processing. Since this image is generated based on PSF whose shape change is insensitive to the defocus amount, the depth of field becomes deep. Also, since the AF operation is not performed, the release time lag is greatly shortened.

一方、カメラ設定モードでマクロ撮影時に光学位相板を使用しない(AFマクロモード)とした場合は、使用者がマクロ釦を押下すると、システム制御装置710は操作部700の操作によりマクロ釦操作を検出し、テイキングレンズ駆動部630を介してフォーカスレンズをマクロ領域に移動させる。
事前に設定したカメラ設定モードで光学位相板613を使用しないとしてあるので、光学位相板613はテイキングレンズ系から退避したままとする。
レリーズ釦が押下されると鏡枠内のテイキングレンズを通して撮像素子620上に結像した被写体像(光線)は、カメラ信号処理部670からタイミングジェネレータ660に制御データを設定し、タイミングジェネレータ660の駆動波形によって撮像素子620から画素信号を吐き出される。
画素信号FIMはAFE(アナログフロントエンド)回路650を通して内部のADコンバータ651でデジタルデータに変換される。次に,このデジタルデータはベイヤー(Bayer)配列となっているのでRAWバッファ661にいったん蓄えられ、RGB変換部662で補間処理することによりRプレーン、Gプレーン、Bプレーンに変換される。さらにYUV変換部663におけるYUV変換により、輝度、色差信号に変換される。
On the other hand, when the optical phase plate is not used during macro shooting in the camera setting mode (AF macro mode), when the user presses the macro button, the system control device 710 detects the macro button operation by operating the operation unit 700. Then, the focus lens is moved to the macro region via the taking lens driving unit 630.
Since the optical phase plate 613 is not used in the camera setting mode set in advance, the optical phase plate 613 is kept retracted from the taking lens system.
When the release button is pressed, the subject image (light ray) imaged on the image sensor 620 through the taking lens in the lens frame sets control data from the camera signal processing unit 670 to the timing generator 660 and drives the timing generator 660. A pixel signal is discharged from the image sensor 620 by the waveform.
The pixel signal FIM is converted into digital data by an internal AD converter 651 through an AFE (analog front end) circuit 650. Next, since this digital data is in a Bayer array, it is temporarily stored in the RAW buffer 661 and converted into an R plane, a G plane, and a B plane by interpolation processing by the RGB conversion unit 662. Further, it is converted into luminance and color difference signals by YUV conversion in the YUV conversion unit 663.

光学位相板613はテイキングレンズの光学系610から脱出(退避)しているので、それに連動して前記YUV変換後の出力はボケ復元デジタルフィルタ処理はパスされる。すなわちY’はYと同じである。このY’UV信号によってLCDモニタ690にスルー画を表示させる。
同時に、システム制御装置710は、カメラ信号処理部670に対して測距データを取得するようにコマンドを送る。カメラ信号処理部670は前記Y’UV信号から図示しないバンドパス処理を行って低域周波数を除去しそれらを積算することで測距データを生成する。この測距データをモニタしながらシステム制御装置710はテイキングレンズ駆動部630を制御してフォーカシングレンズ612を駆動させながらコントラスト法(いわゆる山登り法)によって測距を行う。この測距コントラストデータが最も高くなる(山のピーク位置)フォーカシングレンズ位置がピントの合った状態となる。ピントが合うと、Y’UV信号はJPEGエンジン666によってJPEGファイル圧縮を行って外部メモリ680に画像ファイルを記録する。
Since the optical phase plate 613 has escaped (withdrawn) from the optical system 610 of the taking lens, the output after the YUV conversion passes through the blur restoration digital filter processing in conjunction with it. That is, Y ′ is the same as Y. The through image is displayed on the LCD monitor 690 by the Y′UV signal.
At the same time, the system control device 710 sends a command to the camera signal processing unit 670 so as to acquire distance measurement data. The camera signal processing unit 670 performs band pass processing (not shown) from the Y′UV signal to remove low frequency frequencies and integrate them to generate distance measurement data. While monitoring the distance measurement data, the system control device 710 controls the taking lens driving unit 630 to drive the focusing lens 612 and performs distance measurement by a contrast method (so-called hill climbing method). The focusing lens position where the distance measurement contrast data is highest (the peak position of the mountain) is in focus. When in focus, the Y′UV signal is JPEG file compressed by the JPEG engine 666 and an image file is recorded in the external memory 680.

第5の実施形態によれば、マクロ撮影時に光学位相板613を装填するが否かを選択できるようにしたので、記録用のマクロ撮影では光学位相板を装填しぼけ画像復元フィルタを用いて被写界深度を広げることができる。
一方、AFマクロ撮影では光学位相板を退避させたまま撮影には使用せず、ぼけ画像復元フィルタも使用しないので、意図的にぼけ効果を利用することができ、また復元デジタル処理でわずかに発生するノイズの影響を受けることもないので、芸術性の高い撮影を楽しむことができる。
また、マクロ撮影において光学位相板を装填するモードと、光学位相板を退避させるモードを選択する機能を備え、光学位相板613を装填されたマクロ撮影ではフォーカシングレンズは所定の場所に固定して測距動作を行わず、光学位相板が退避されたマクロ撮影ではフォーカシングレンズは測距動作を行いフォーカシングレンズを駆動してAF動作を行うようにしたので、光学位相板が装填された場合は、レンズを動かす必要がなく、しかもピントの合う範囲も広いのでレリーズタイムラグも無く、記録用に用いるのに都合がよく、光学位相板が退避させた場合は、AF動作を行うのでマクロ領域においても芸術性の高い撮影を行うことができる。
According to the fifth embodiment, since it is possible to select whether or not the optical phase plate 613 is loaded at the time of macro photography, in the macro photography for recording, the optical phase plate is loaded and a blurred image restoration filter is used. The depth of field can be expanded.
On the other hand, in AF macro shooting, the optical phase plate is retracted and is not used for shooting, and the blurred image restoration filter is not used. Therefore, the blur effect can be intentionally used, and it is slightly generated by restored digital processing. Because it is not affected by noise, you can enjoy highly artistic shooting.
It also has a function for selecting a mode for loading an optical phase plate and a mode for retracting the optical phase plate in macro photography. In macro photography with an optical phase plate 613, the focusing lens is fixed at a predetermined position for measurement. In macro photography where the optical phase plate is retracted without performing the distance operation, the focusing lens performs the distance measurement operation and performs the AF operation by driving the focusing lens, so if the optical phase plate is loaded, the lens Since there is no release time lag because there is no need to move the lens, and there is no release time lag, it is convenient to use for recording. When the optical phase plate is retracted, AF operation is performed, so artistry is possible even in the macro area. High-quality photography can be performed.

本発明の第1の実施形態に係る撮像装置を示すブロック構成図である。It is a block block diagram which shows the imaging device which concerns on the 1st Embodiment of this invention. 本実施形態に係る撮像レンズ装置のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the imaging lens apparatus which concerns on this embodiment. 位相板を含まないズーム光学系の無限側のスポット像を示す図である。It is a figure which shows the spot image of the infinite side of the zoom optical system which does not include a phase plate. 図4は、位相板を含まないズーム光学系の至近側のスポット像を示す図である。FIG. 4 is a diagram showing a spot image on the close side of a zoom optical system that does not include a phase plate. 位相板を含むズーム光学系の無限側のスポット像を示す図である。It is a figure which shows the spot image of the infinite side of the zoom optical system containing a phase plate. 位相板を含むズーム光学系の至近側のスポット像を示す図である。It is a figure which shows the spot image of the near side of the zoom optical system containing a phase plate. 本実施形態の選択切換部の第1の構成例を示す図である。It is a figure which shows the 1st structural example of the selection switching part of this embodiment. 本実施形態の選択切換部の第2の構成例を示す図である。It is a figure which shows the 2nd structural example of the selection switching part of this embodiment. 撮影情報生成部が生成する撮影に関する情報が焦点距離情報の場合の処理系のブロック図である。It is a block diagram of a processing system when the information regarding imaging | photography which a imaging | photography information generation part produces | generates is focal distance information. 焦点距離に応じて光波面変調素子と復元処理への切換の簡単なフローチャートである。It is a simple flowchart of switching to a light wavefront modulation element and a restoration process according to a focal distance. 撮影情報生成部が生成する撮影に関する情報が多点測距の結果である被写界深度の場合の処理系のブロック図である。It is a block diagram of a processing system in case the information regarding the imaging | photography which a imaging | photography information generation part produces | generates the depth of field which is a result of multipoint ranging. 被写界深度に応じて焦点距離に応じて光波面変調素子と復元処理への切換の簡単なフローチャートである。It is a simple flowchart of switching to an optical wavefront modulation element and a restoration process according to a focal length according to a depth of field. 本実施形態の画像処理装置の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the image processing apparatus of this embodiment. 波面収差制御光学系システムの原理を説明するための図である。It is a figure for demonstrating the principle of a wavefront aberration control optical system system. 本実施形態に係る撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element of the image pick-up lens apparatus which concerns on this embodiment, Comprising: (A) is a case where a focus shifts by 0.2 mm (Defocus = 0.2 mm), (B) is a result. In the case of a focus (Best focus), (C) is a figure which shows each spot image when a focus shifts by -0.2 mm (Defocus = -0.2 mm). 本実施形態に係る撮像レンズ装置により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the imaging lens apparatus which concerns on this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an imaging lens apparatus, ( B) shows the MTF characteristic with respect to the spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of the conventional optical system, and when it remove | deviated from the focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 本発明の第2、第3、第5の実施形態に係る撮像装置を示すブロック構成図である。It is a block block diagram which shows the imaging device which concerns on 2nd, 3rd, 5th embodiment of this invention. 本発明の第4の実施形態に係る撮像装置を示すブロック構成図である。It is a block block diagram which shows the imaging device which concerns on the 4th Embodiment of this invention. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図24の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 25A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device of FIG. 24, where FIG. 24A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and FIG. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100・・・撮像装置、200・・・撮像レンズ装置、211・・・物体側レンズ、212・・・結像レンズ、213・・・波面形成用光学素子、213a・・・位相板(光波面変調素子)、300・・・撮影情報生成部、400・・・選択切換部、500・・・画像処理装置、501・・・コンボリューション装置、502・・・カーネル、数値演算係数格納レジスタ、503・・・画像処理演算プロセッサ、600,600A・・・撮像装置、610・・・光学系、620・・・撮像素子、630・・・テイキングスレンズ駆動部、640・・・光波面変調素子(光学位相板)駆動部、650・・・アナログフロントエンド部(AFE)、660・・・タイミングジェネレータ、670・・・カメラ信号処理部、680・・・外部メモリ、690・・・LCDモニタ、700・・・操作部、710,710A・・・システム制御装置(MPU)、720・・・マクロレバー、730・・・連動機構部、740・・・位相板位置検出部。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 200 ... Imaging lens device, 211 ... Object side lens, 212 ... Imaging lens, 213 ... Optical element for wavefront formation, 213a ... Phase plate (light wavefront) (Modulation element), 300 ... photographing information generation unit, 400 ... selection switching unit, 500 ... image processing device, 501 ... convolution device, 502 ... kernel, numerical operation coefficient storage register, 503 ... Image processing arithmetic processor, 600, 600A ... Imaging device, 610 ... Optical system, 620 ... Imaging element, 630 ... Taking lens driving unit, 640 ... Light wavefront modulation element ( Optical phase plate) drive unit, 650... Analog front end unit (AFE), 660... Timing generator, 670... Camera signal processing unit, 680. 690 ... LCD monitor, 700 ... operation unit, 710, 710A ... system control unit (MPU), 720 ... macro lever, 730 ... interlocking mechanism, 740 ... phase plate position detection Department.

Claims (16)

光学系および少なくとも一つの光波面変調素子と、
前記光学系または前記光学系および光波面変調素子を通過した被写体分散像を撮像する撮像素子と、
前記撮像素子からの被写体分散画像信号より分散のない画像信号を生成する変換手段を含む画像処理手段と、を備え、
前記光波面変調素子は、光路上に挿入、退避可能である
撮像装置。
An optical system and at least one light wavefront modulation element;
An imaging device that captures a subject dispersion image that has passed through the optical system or the optical system and the light wavefront modulation device;
Image processing means including conversion means for generating an image signal having no dispersion from the subject dispersion image signal from the imaging device,
The optical wavefront modulation element can be inserted into and retracted from an optical path.
複数の光波面変調素子を有し、
前記複数の光波面変調素子の各々を、前記光路上に選択的に挿入、退避させる選択切換手段を有する
請求項1に記載の撮像装置。
Having a plurality of light wavefront modulation elements,
The imaging apparatus according to claim 1, further comprising a selection switching unit that selectively inserts and retracts each of the plurality of light wavefront modulation elements on the optical path.
前記選択切換手段は、焦点距離に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える
請求項2記載の撮像装置。
The imaging apparatus according to claim 2, wherein the selection switching unit selectively switches insertion and withdrawal of a desired light wavefront modulation element on the optical path according to a focal length.
前記選択切換手段は、多点測距の結果に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える
請求項2記載の撮像装置。
The imaging apparatus according to claim 2, wherein the selection switching unit selectively switches insertion and withdrawal of a desired light wavefront modulation element on the optical path according to a result of multipoint ranging.
前記光学系はズーム機能を含み、
前記選択切換手段は、ズーム情報に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える
請求項2記載の撮像装置。
The optical system includes a zoom function,
The imaging apparatus according to claim 2, wherein the selection switching unit selectively switches insertion and retraction of a desired light wavefront modulation element on the optical path according to zoom information.
前記選択切換手段は、被写体までの距離に相当する情報に応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える
請求項2記載の撮像装置。
The imaging apparatus according to claim 2, wherein the selection switching unit selectively switches insertion and withdrawal of a desired light wavefront modulation element on the optical path according to information corresponding to a distance to a subject.
前記選択切換手段は、撮影モードに応じて所望の光波面変調素子の前記光路上への挿入、退避を選択的に切り換える
請求項2記載の撮像装置。
The imaging apparatus according to claim 2, wherein the selection switching unit selectively switches between insertion and withdrawal of a desired light wavefront modulation element on the optical path according to a photographing mode.
前記撮像装置は、マクロモード・マクロ状態時に光波面変調素子を前記光路上への挿入し、非マクロモード・非マクロ状態時に光波面変調素子を前記光路上から退避する
請求項1から7のいずれか一に記載の撮像装置。
8. The imaging device inserts an optical wavefront modulation element on the optical path when in a macro mode / macro state, and retracts the optical wavefront modulation element from the optical path when in a non-macro mode / non-macro state. The imaging device according to claim 1.
前記撮像装置は、
近接撮影を可能とするマクロ領域へ前記光学系を移動可能なレンズ鏡筒を有し、
測距結果が近距離と判定されたときに、上記光学系のテイキングレンズを固定フォーカスのマクロレンズの構成に移動させる
請求項8記載の撮像装置。
The imaging device
It has a lens barrel that can move the optical system to a macro area that enables close-up photography,
The imaging apparatus according to claim 8, wherein when the distance measurement result is determined to be a short distance, the taking lens of the optical system is moved to a fixed focus macro lens configuration.
前記撮像装置は、
近接撮影を可能とするマクロ領域へ前記光学系を移動可能なレンズ鏡筒を有し、
マクロモードが選択されると、上記光学系のテイキングレンズを固定フォーカスのマクロレンズの構成に移動させる
請求項8記載の撮像装置。
The imaging device
It has a lens barrel that can move the optical system to a macro area that enables close-up photography,
The imaging apparatus according to claim 8, wherein when the macro mode is selected, the taking lens of the optical system is moved to a configuration of a fixed focus macro lens.
前記撮像装置は、
機械的にマクロ位置へレンズを移動させる機構を有する
請求項8記載の撮像装置。
The imaging device
The imaging apparatus according to claim 8, further comprising a mechanism that mechanically moves the lens to a macro position.
前記画像処理手段は、
マクロ状態にあるときに前記光波面変調素子を前記光学系の光路中に挿入し、マクロ状態が解除されると前記光波面変調素子を前記光学系の光路中から退避させる手段を有し、
前記画像処理手段は、
マクロ状態で前記光波面変調素子が挿入されている場合に、前記変換手段により、被写体分散画像信号より分散のない画像信号を生成し、
マクロ状態から解除され、前記光波面変調素子が退避されている場合には、前記変換手段の処理を行わない
請求項8から10のいずれか一に記載の撮像装置。
The image processing means includes
Means for inserting the optical wavefront modulation element into the optical path of the optical system when in a macro state, and retracting the optical wavefront modulation element from the optical path of the optical system when the macro state is released;
The image processing means includes
When the light wavefront modulation element is inserted in a macro state, the conversion unit generates an image signal having less dispersion than the subject dispersion image signal,
The imaging apparatus according to any one of claims 8 to 10, wherein when the light wavefront modulation element is released from a macro state and the light wavefront modulation element is retracted, the processing of the conversion unit is not performed.
使用者が電源をオフした場合にマクロ状態を解除する制御手段を有する
請求項11記載の撮像装置。
The imaging apparatus according to claim 11, further comprising a control unit that cancels the macro state when the user turns off the power.
前記撮像装置は、マクロモード時に、光波面変調素子を前記光路上へ挿入するか否かを選択する選択手段を有する
請求項1から7のいずれか一に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the imaging apparatus includes a selection unit that selects whether or not to insert an optical wavefront modulation element into the optical path in the macro mode.
マクロ撮影において光波面変調素子を挿入するモードと、光波面変調素子を退避させるモードを選択する機能を備え、
前記光波面変調素子が挿入されたマクロ撮影ではフォーカシングレンズは所定の場所に固定して測距動作を行わず、光波面変調素子が退避されたマクロ撮影ではフォーカシングレンズは測距動作を行い、フォーカシングレンズを駆動してオートフォーカス(AF)動作を行う制御手段を有する
請求項13記載の撮像装置。
With a function of selecting a mode for inserting a light wavefront modulation element and a mode for retracting the light wavefront modulation element in macro photography,
In macro photography where the light wavefront modulation element is inserted, the focusing lens is fixed at a predetermined position and distance measurement is not performed. In macro photography where the light wavefront modulation element is retracted, the focusing lens performs distance measurement operation and focusing. The imaging apparatus according to claim 13, further comprising control means for driving a lens to perform an autofocus (AF) operation.
撮影に関する情報を生成する第1ステップと、
前記情報生成ステップにより生成される情報に基づいて所定の光波面変調素子を、光路上に挿入または退避させる第2ステップと、
光学系と、前記第2ステップで前記光波面変調素子が選択的に設定された状態にある前記光波面変調素子の配置可能位置とを通過した被写体分散像を撮像素子で撮像する第3ステップと、
前記第2ステップにより生成される情報に基づいて前記分散画像信号を変換して分散のない画像信号を生成する第4ステップと
を有する撮像方法。
A first step of generating information relating to shooting;
A second step of inserting or retracting a predetermined light wavefront modulation element on the optical path based on the information generated by the information generation step;
A third step of picking up an object dispersion image that has passed through the optical system and a position where the light wavefront modulation element can be arranged in a state in which the light wavefront modulation element is selectively set in the second step with an image pickup element; ,
And a fourth step of converting the dispersed image signal based on the information generated in the second step to generate an image signal without dispersion.
JP2006205117A 2005-07-28 2006-07-27 Imaging apparatus and imaging method Expired - Fee Related JP4777177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006205117A JP4777177B2 (en) 2005-07-28 2006-07-27 Imaging apparatus and imaging method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005218677 2005-07-28
JP2005218677 2005-07-28
JP2006205117A JP4777177B2 (en) 2005-07-28 2006-07-27 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2007060647A true JP2007060647A (en) 2007-03-08
JP4777177B2 JP4777177B2 (en) 2011-09-21

Family

ID=37923647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006205117A Expired - Fee Related JP4777177B2 (en) 2005-07-28 2006-07-27 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4777177B2 (en)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008117766A1 (en) * 2007-03-26 2008-10-02 Fujifilm Corporation Image capturing apparatus, image capturing method and program
WO2008120775A1 (en) * 2007-03-30 2008-10-09 Ricoh Company, Ltd. Wide-angle lens and image capturing apparatus
JP2008249911A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Imaging apparatus, imaging method, and program
WO2008123503A1 (en) * 2007-03-29 2008-10-16 Kyocera Corporation Imaging device and imaging method
EP2023183A1 (en) 2007-08-07 2009-02-11 Fujinon Corporation Method and apparatus as well as corrective optical system for evaluating restoration-premised lens
JP2009122514A (en) * 2007-11-16 2009-06-04 Fujinon Corp Imaging system, imaging apparatus having the imaging system, portable terminal apparatus, onboard apparatus, medical apparatus, and method of manufacturing the imaging system
WO2009069752A1 (en) * 2007-11-29 2009-06-04 Kyocera Corporation Imaging device and electronic apparatus
JP2009139698A (en) * 2007-12-07 2009-06-25 Fujinon Corp Imaging system, imaging apparatus, portable terminal apparatus, in-vehicle apparatus and medical apparatus with imaging system
JP2009139697A (en) * 2007-12-07 2009-06-25 Fujinon Corp Imaging system, and imaging apparatus, portable terminal apparatus, in-vehicle apparatus and medical apparatus with imaging system, and method for manufacturing imaging system
JP2009159603A (en) * 2007-12-07 2009-07-16 Fujinon Corp Imaging system, imaging apparatus with the system, portable terminal apparatus, on-vehicle apparatus, medical apparatus, and manufacturing method of imaging system
WO2009119838A1 (en) * 2008-03-27 2009-10-01 京セラ株式会社 Optical system, imaging device, and information code reader
WO2011027536A1 (en) * 2009-09-01 2011-03-10 オリンパス株式会社 Optical device, image capturing device using same, and image capturing system
JP2011053418A (en) * 2009-09-01 2011-03-17 Olympus Corp Optical device, imaging apparatus and imaging system using the same
JP2011090234A (en) * 2009-10-26 2011-05-06 Olympus Corp Optical device, imaging apparatus using the same, and imaging system
JP2011090233A (en) * 2009-10-26 2011-05-06 Olympus Corp Optical device, imaging apparatus using the same, and imaging system
US7944490B2 (en) 2006-05-30 2011-05-17 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
JP2011128238A (en) * 2009-12-16 2011-06-30 Fujitsu Ltd Imaging apparatus and information terminal device
JP2011130242A (en) * 2009-12-18 2011-06-30 Fujifilm Corp Imaging apparatus
US8044331B2 (en) 2006-08-18 2011-10-25 Kyocera Corporation Image pickup apparatus and method for manufacturing the same
US8059955B2 (en) 2006-09-25 2011-11-15 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
JP2012003128A (en) * 2010-06-18 2012-01-05 Nikon Corp Autofocus control device, electronic camera, and autofocus control method
US8125537B2 (en) 2007-06-28 2012-02-28 Kyocera Corporation Image processing method and imaging apparatus using the same
US8149298B2 (en) 2008-06-27 2012-04-03 Kyocera Corporation Imaging device and method
JP2012133262A (en) * 2010-12-24 2012-07-12 Canon Inc Imaging apparatus, lens system and control method thereof
US8223244B2 (en) 2007-03-26 2012-07-17 Fujifilm Corporation Modulated light image capturing apparatus, image capturing method and program
US8310583B2 (en) 2008-09-29 2012-11-13 Kyocera Corporation Lens unit, image pickup apparatus, electronic device and an image aberration control method
US8334500B2 (en) 2006-12-27 2012-12-18 Kyocera Corporation System for reducing defocusing of an object image due to temperature changes
US8363129B2 (en) 2008-06-27 2013-01-29 Kyocera Corporation Imaging device with aberration control and method therefor
JP2013029806A (en) * 2011-06-22 2013-02-07 Canon Inc Imaging apparatus
US8482637B2 (en) 2007-03-29 2013-07-09 Kyocera Corporation Imaging device and imaging method having zoom optical system including a light wavefront modulation element
US8502877B2 (en) 2008-08-28 2013-08-06 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
US8567678B2 (en) 2007-01-30 2013-10-29 Kyocera Corporation Imaging device, method of production of imaging device, and information code-reading device
US8810674B2 (en) 2011-03-16 2014-08-19 Olympus Imaging Corp. Optical apparatus, imaging apparatus and imaging system having a substantially constant MTF or MTF shape
US9148558B2 (en) 2012-04-18 2015-09-29 Kabushiki Kaisha Toshiba Camera module having first and second imaging optical system controlled in relation to imaging modes and imaging method
WO2016010096A1 (en) * 2014-07-16 2016-01-21 オリンパス株式会社 System for phase modulation element adjustment and method for phase modulation element adjustment
WO2016056148A1 (en) * 2014-10-08 2016-04-14 オリンパス株式会社 Image-forming optical system, illumination device, and observation device
JP2016133517A (en) * 2015-01-15 2016-07-25 日立マクセル株式会社 Imaging device and lens module using the same, as well as imaging system using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275532A (en) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd Objective lens and its manufacture
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000275532A (en) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd Objective lens and its manufacture
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7944490B2 (en) 2006-05-30 2011-05-17 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
US8044331B2 (en) 2006-08-18 2011-10-25 Kyocera Corporation Image pickup apparatus and method for manufacturing the same
US8059955B2 (en) 2006-09-25 2011-11-15 Kyocera Corporation Image pickup apparatus and method and apparatus for manufacturing the same
US8334500B2 (en) 2006-12-27 2012-12-18 Kyocera Corporation System for reducing defocusing of an object image due to temperature changes
US8567678B2 (en) 2007-01-30 2013-10-29 Kyocera Corporation Imaging device, method of production of imaging device, and information code-reading device
US8223244B2 (en) 2007-03-26 2012-07-17 Fujifilm Corporation Modulated light image capturing apparatus, image capturing method and program
WO2008117766A1 (en) * 2007-03-26 2008-10-02 Fujifilm Corporation Image capturing apparatus, image capturing method and program
US8482637B2 (en) 2007-03-29 2013-07-09 Kyocera Corporation Imaging device and imaging method having zoom optical system including a light wavefront modulation element
WO2008123503A1 (en) * 2007-03-29 2008-10-16 Kyocera Corporation Imaging device and imaging method
JP2008249911A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Imaging apparatus, imaging method, and program
TWI416164B (en) * 2007-03-30 2013-11-21 Ricoh Co Ltd Wide-angle lens and image capturing apparatus
JP2008276185A (en) * 2007-03-30 2008-11-13 Ricoh Opt Ind Co Ltd Wide-angle lens and image capturing apparatus
WO2008120775A1 (en) * 2007-03-30 2008-10-09 Ricoh Company, Ltd. Wide-angle lens and image capturing apparatus
US7773305B2 (en) 2007-03-30 2010-08-10 Ricoh Company, Ltd. Wide-angle lens and image capturing apparatus
US8125537B2 (en) 2007-06-28 2012-02-28 Kyocera Corporation Image processing method and imaging apparatus using the same
EP2023183A1 (en) 2007-08-07 2009-02-11 Fujinon Corporation Method and apparatus as well as corrective optical system for evaluating restoration-premised lens
US7876429B2 (en) 2007-08-07 2011-01-25 Fujinon Corporation Method and apparatus as well as corrective optical system for evaluating restoration-premised lens
JP2009041968A (en) * 2007-08-07 2009-02-26 Fujinon Corp Method and device for evaluating lens on premise of restoration processing, and correction optical system for evaluation
JP2009122514A (en) * 2007-11-16 2009-06-04 Fujinon Corp Imaging system, imaging apparatus having the imaging system, portable terminal apparatus, onboard apparatus, medical apparatus, and method of manufacturing the imaging system
JPWO2009069752A1 (en) * 2007-11-29 2011-04-21 京セラ株式会社 Imaging apparatus and electronic apparatus
US8605192B2 (en) 2007-11-29 2013-12-10 Kyocera Corporation Imaging apparatus and electronic device including an imaging apparatus
WO2009069752A1 (en) * 2007-11-29 2009-06-04 Kyocera Corporation Imaging device and electronic apparatus
JP2009139698A (en) * 2007-12-07 2009-06-25 Fujinon Corp Imaging system, imaging apparatus, portable terminal apparatus, in-vehicle apparatus and medical apparatus with imaging system
JP2009159603A (en) * 2007-12-07 2009-07-16 Fujinon Corp Imaging system, imaging apparatus with the system, portable terminal apparatus, on-vehicle apparatus, medical apparatus, and manufacturing method of imaging system
JP2009139697A (en) * 2007-12-07 2009-06-25 Fujinon Corp Imaging system, and imaging apparatus, portable terminal apparatus, in-vehicle apparatus and medical apparatus with imaging system, and method for manufacturing imaging system
US8462213B2 (en) 2008-03-27 2013-06-11 Kyocera Corporation Optical system, image pickup apparatus and information code reading device
JPWO2009119838A1 (en) * 2008-03-27 2011-07-28 京セラ株式会社 Optical system, imaging device, and information code reader
WO2009119838A1 (en) * 2008-03-27 2009-10-01 京セラ株式会社 Optical system, imaging device, and information code reader
US8363129B2 (en) 2008-06-27 2013-01-29 Kyocera Corporation Imaging device with aberration control and method therefor
US8149298B2 (en) 2008-06-27 2012-04-03 Kyocera Corporation Imaging device and method
US8773778B2 (en) 2008-08-28 2014-07-08 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US8502877B2 (en) 2008-08-28 2013-08-06 Kyocera Corporation Image pickup apparatus electronic device and image aberration control method
US8310583B2 (en) 2008-09-29 2012-11-13 Kyocera Corporation Lens unit, image pickup apparatus, electronic device and an image aberration control method
JP2011053418A (en) * 2009-09-01 2011-03-17 Olympus Corp Optical device, imaging apparatus and imaging system using the same
WO2011027536A1 (en) * 2009-09-01 2011-03-10 オリンパス株式会社 Optical device, image capturing device using same, and image capturing system
US9137426B2 (en) 2009-09-01 2015-09-15 Olympus Corporation Optical device and image pickup device and image pickup system using the same
US8704938B2 (en) 2009-09-01 2014-04-22 Olympus Corporation Optical device and image pickup device and image pickup system using the same
JP2011090233A (en) * 2009-10-26 2011-05-06 Olympus Corp Optical device, imaging apparatus using the same, and imaging system
JP2011090234A (en) * 2009-10-26 2011-05-06 Olympus Corp Optical device, imaging apparatus using the same, and imaging system
JP2011128238A (en) * 2009-12-16 2011-06-30 Fujitsu Ltd Imaging apparatus and information terminal device
JP2011130242A (en) * 2009-12-18 2011-06-30 Fujifilm Corp Imaging apparatus
JP2012003128A (en) * 2010-06-18 2012-01-05 Nikon Corp Autofocus control device, electronic camera, and autofocus control method
JP2012133262A (en) * 2010-12-24 2012-07-12 Canon Inc Imaging apparatus, lens system and control method thereof
US8810674B2 (en) 2011-03-16 2014-08-19 Olympus Imaging Corp. Optical apparatus, imaging apparatus and imaging system having a substantially constant MTF or MTF shape
JP2013029806A (en) * 2011-06-22 2013-02-07 Canon Inc Imaging apparatus
JP2013214254A (en) * 2012-04-04 2013-10-17 Nikon Corp Information detection device
US9148558B2 (en) 2012-04-18 2015-09-29 Kabushiki Kaisha Toshiba Camera module having first and second imaging optical system controlled in relation to imaging modes and imaging method
WO2016010096A1 (en) * 2014-07-16 2016-01-21 オリンパス株式会社 System for phase modulation element adjustment and method for phase modulation element adjustment
JP2016024210A (en) * 2014-07-16 2016-02-08 オリンパス株式会社 Phase modulation element adjustment system and phase modulation element adjustment method
US10437050B2 (en) 2014-07-16 2019-10-08 Olympus Corporation Phase-modulation-element adjustment system and method for decreasing wavefront aberration
WO2016056148A1 (en) * 2014-10-08 2016-04-14 オリンパス株式会社 Image-forming optical system, illumination device, and observation device
JP2016133517A (en) * 2015-01-15 2016-07-25 日立マクセル株式会社 Imaging device and lens module using the same, as well as imaging system using the same

Also Published As

Publication number Publication date
JP4777177B2 (en) 2011-09-21

Similar Documents

Publication Publication Date Title
JP4777177B2 (en) Imaging apparatus and imaging method
US7916194B2 (en) Image pickup apparatus
US8059955B2 (en) Image pickup apparatus and method and apparatus for manufacturing the same
JP4712631B2 (en) Imaging device
US7944490B2 (en) Image pickup apparatus and method and apparatus for manufacturing the same
US7885489B2 (en) Image pickup apparatus and method and apparatus for manufacturing the same
JP6296887B2 (en) Focus adjustment apparatus and control method thereof
CN101360190B (en) Imaging device, and control method for imaging device
JP4818957B2 (en) Imaging apparatus and method thereof
US8462213B2 (en) Optical system, image pickup apparatus and information code reading device
JP2008268937A (en) Imaging device and imaging method
JP2007300208A (en) Imaging apparatus
US20100045825A1 (en) Image Apparatus and Image Processing Method
JP2007206738A (en) Imaging device and method
JP4364847B2 (en) Imaging apparatus and image conversion method
JP2008033060A (en) Imaging apparatus and imaging method, and image processor
JP2008245266A (en) Imaging apparatus and method
JP2009086017A (en) Imaging device and imaging method
JP2006311473A (en) Imaging device and imaging method
JP2006094468A (en) Imaging device and imaging method
JP2006094469A (en) Imaging device and imaging method
JP2006094470A (en) Imaging device and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP4812541B2 (en) Imaging device
JP2009033607A (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110629

R150 Certificate of patent or registration of utility model

Ref document number: 4777177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees