JP2008245266A - Imaging apparatus and method - Google Patents

Imaging apparatus and method Download PDF

Info

Publication number
JP2008245266A
JP2008245266A JP2008044580A JP2008044580A JP2008245266A JP 2008245266 A JP2008245266 A JP 2008245266A JP 2008044580 A JP2008044580 A JP 2008044580A JP 2008044580 A JP2008044580 A JP 2008044580A JP 2008245266 A JP2008245266 A JP 2008245266A
Authority
JP
Japan
Prior art keywords
image
optical system
wavefront modulation
light wavefront
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008044580A
Other languages
Japanese (ja)
Inventor
Jiyouya Sugita
丈也 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to PCT/JP2008/053334 priority Critical patent/WO2008105431A1/en
Priority to JP2008044580A priority patent/JP2008245266A/en
Publication of JP2008245266A publication Critical patent/JP2008245266A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Blocking Light For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus which can readily detect the definition performance peak position, while simplifying the optical system and reducing the cost, and can obtain a properly reconstructed image while reducing the impact of noise, and to provide its manufacturing apparatus and method. <P>SOLUTION: The imaging apparatus comprises an optical system 110 equipped with an optical wave front modulating element 114, having a function for deforming the wave front of the image formed on the light receiving surface of an image sensor 120 by an image formation lens where emergence of the optical wave front modulation function depends on the outside, an image sensor 120, and an image processor 140 that generates an image signal, having no dispersion from an object dispersion image signal, wherein the outside dependent optical wave front modulation element 114 has such a performance where the light passing through the optical system under one focus state forms an image at a position different in the direction of optical axis, depending on the distance of the light source when the optical wave front modulation function is controlled to non-emergence state by a modulation function control section 200, and becomes multi-focal point state, when it is controlled to be an emerging state. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等の撮像装置および撮像装置に関するものである。   The present invention relates to an image pickup apparatus and an image pickup apparatus using an image pickup element, such as a digital still camera equipped with an optical system, a camera mounted on a mobile phone, a camera mounted on a portable information terminal, an image inspection apparatus, and an industrial camera for automatic control.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)、画像検査装置、自動制御用産業カメラ等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used in video cameras, digital video units, personal computers, mobile phones, personal digital assistants (PDAs), image inspection devices, industrial cameras for automatic control, and the like.

図27は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 27 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図27に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図28(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 27, the best focus surface is matched with the imaging device surface.
FIGS. 28A to 28C show spot images on the light receiving surface of the image sensor 3 of the imaging lens device 1.

また、位相板(Wavefront Coding optical element)により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
また、伝達関数を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている(たとえば特許文献6参照)。
“Wavefront Coding;jointly optimized optical and digital imaging systems”,Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. “Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems”,Edward R.Dowski,Jr.,Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報 特開2004−153497号公報
In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase front (wavefront coding optical element) and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
In addition, an automatic exposure control system for a digital camera that performs filter processing using a transfer function has been proposed (see, for example, Patent Document 6).
“Wavefront Coding; jointly optimized optical and digital imaging systems”, Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. “Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems”, Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A JP 2004-153497 A

上述した各文献にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかく、ズーム系やAF系などのレンズでは、その光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューション演算を行うことができず、ワイド(Wide)時やテレ(Tele)時のスポット(SPOT)像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。
しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
In the imaging devices proposed in the above-mentioned documents, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into a normal optical system is constant, When the PSF changes, it is extremely difficult to realize an image with a deep depth of field by convolution using a subsequent kernel.
Therefore, apart from a single-focus lens, a zoom system, an AF system, or the like has a great problem in adopting due to the high accuracy of the optical design and the associated cost increase.
In other words, in the conventional imaging apparatus, proper convolution calculation cannot be performed, and astigmatism and coma that cause a shift of a spot (SPOT) image at the time of wide or tele (Tele). Therefore, an optical design that eliminates various aberrations such as zoom chromatic aberration is required.
However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.

また、上述した各文献に開示された装置においては、たとえば暗所における撮影で、信号処理によって画像を復元する際、ノイズも同時に増幅してしまう。
したがって、たとえば上述した位相板等の光波面変調素子とその後の信号処理を用いるような、光学系と信号処理を含めた光学システムでは、暗所での撮影を行う場合、ノイズが増幅してしまい、復元画像に影響を与えてしまうという不利益がある。
In addition, in the devices disclosed in the above-described documents, noise is also amplified simultaneously when an image is restored by signal processing, for example, in shooting in a dark place.
Therefore, for example, in an optical system including an optical system and signal processing using the above-described optical wavefront modulation element such as a phase plate and subsequent signal processing, noise is amplified when shooting in a dark place. This has the disadvantage of affecting the restored image.

また、深度拡張技術は、深い被写界深度内で像性能の変化量が少ないために、ディフォーカスに対する光学性能ピーク位置の検出が困難であり、適切な評価が行い難いため、製造工程に負担をかけ、また、歩留りの面でも不利であるという欠点を持つ。
位相変調を行った深度拡張光学系においては、システム名が意味するように像性能の変化量が小さいために、解像性能の変化を尺度としてバックフォーカス調整するのは、変化量を見るために広い範囲をディフォーカスしてピークらしきところを算出する事になる。この場合は、広い範囲をディフォーカスするための手間がかかるか、粗くサーチするために、その精度が落ちるといったように、製造工程に負荷がかかるか、製品の性能が劣化してしまう。
特に、復元を前提とした深度拡張光学系では、保証される深度内では、性能の変化が極端に抑えられているため、解像ピークの算出は極めて困難である。
そこで、深度拡張光学系において、解像性能ピーク位置を容易に検出可能とすることが
課題となる。
In addition, depth expansion technology has a small amount of change in image performance within a deep depth of field, so it is difficult to detect the optical performance peak position with respect to defocus, and it is difficult to perform an appropriate evaluation, which imposes a burden on the manufacturing process. And has the disadvantage of being disadvantageous in terms of yield.
In depth-expanded optical systems that have undergone phase modulation, the amount of change in image performance is small as the system name implies, so back focus adjustment using the change in resolution performance as a measure is to see the amount of change. Defocus the wide range and calculate the peak-like part. In this case, it takes time for defocusing a wide range, or a rough search is performed so that the accuracy is lowered, or the manufacturing process is burdened or the performance of the product is deteriorated.
In particular, in a depth-expanded optical system premised on restoration, it is extremely difficult to calculate a resolution peak because a change in performance is extremely suppressed within a guaranteed depth.
Therefore, it becomes an issue to be able to easily detect the resolution performance peak position in the depth extension optical system.

さらに、深度拡張光学系では、その名が示すとおり被写体の奥行き感によるボケを減少、あるいは喪失させている。一般的な写真撮影において、意図的に背景にボケを生じさせる事で被写体のクローズアップを図る手法もあり、こういった用途には、深度拡張光学系は向かない。
複数のカメラを持つことなく、用途に応じて深度の異なる撮影を行いたい場合、F値の明暗によって従来は行ってきたが、F値を暗くした光学系は、シャッター速度の低下やノイズの増加などにつながり、望ましくない。
Furthermore, in the depth extension optical system, as the name suggests, the blur due to the sense of depth of the subject is reduced or lost. In general photography, there is also a method for close-up of a subject by intentionally generating a blur in the background, and a depth expansion optical system is not suitable for such applications.
If you want to shoot at different depths depending on the application without having multiple cameras, the optical system with dark F value has been used in the past, but an optical system with a low F value reduces shutter speed and increases noise. This is undesirable.

本発明の目的は、解像性能ピーク位置を容易に検出可能で、光学系を簡単化でき、コスト低減を図ることができ、しかもノイズの影響が小さい復元画像を得ることが可能な撮像装置および撮像方法を提供することにある。   An object of the present invention is to provide an imaging apparatus capable of easily detecting a resolution performance peak position, simplifying an optical system, reducing costs, and obtaining a restored image with little influence of noise. It is to provide an imaging method.

本発明の第1の観点の撮像装置は、光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子を含む光学系と、前記光学系を通過した被写体像を撮像する撮像素子と、前記外部依存型光波面変調素子の光波面変調機能の発現、非発現を制御する変調機能制御部と、前記撮像素子からの被写体の画像信号に対して所定の処理を施す画像処理部と、を有し、前記光学系は、前記外部依存型光波面変調素子が、前記変調機能制御部により光波面変調機能が非発現状態に制御されているときは、1焦点状態となり、発現状態に制御されているときは複数焦点状態となる。   An image pickup apparatus according to a first aspect of the present invention picks up an optical system including an externally dependent light wavefront modulation element whose expression or non-expression of an optical wavefront modulation function depends on the outside, and a subject image that has passed through the optical system. An image sensor, a modulation function controller for controlling the on / off expression of the light wavefront modulation function of the externally dependent light wavefront modulator, and image processing for performing predetermined processing on the image signal of the subject from the image sensor And the optical system is in a one-focus state when the light wavefront modulation element is controlled to the non-expressed state by the modulation function control unit. When the state is controlled, a multi-focus state is obtained.

本発明の第2の観点は、光波面変調素子を含む光学系と、前記光学系の光路に配置され、前記光波面変調素子の光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子と、前記光学系を通過した被写体像を撮像する撮像素子と、前記外部依存型逆光波面変調素子の光波面変調機能の発現、非発現を制御する変調機能制御部と、前記撮像素子からの被写体の画像信号に対して所定の処理を施す画像処理部と、を有し、前記光学系は、前記外部依存型逆光波面変調素子が、前記変調機能制御部により逆光波面変調機能が発現状態に制御されているときは、1焦点状態となり、非発現状態に制御されているときは複数焦点状態となる。   According to a second aspect of the present invention, an optical system including an optical wavefront modulation element and an expression or non-expression of an inverse optical wavefront modulation function that is disposed in an optical path of the optical system and cancels the optical wavefront modulation function of the optical wavefront modulation element Controls on / off expression of an externally dependent inverse light wavefront modulation element that depends on the outside, an imaging element that captures a subject image that has passed through the optical system, and a light wavefront modulation function of the externally dependent inverse light wavefront modulation element A modulation function control unit, and an image processing unit that performs predetermined processing on an image signal of a subject from the imaging device, wherein the optical system includes the externally dependent inverse light wavefront modulation device, the modulation function When the inverse light wavefront modulation function is controlled to the expression state by the control unit, the focus state is set to one focus state, and when the control unit is controlled to the non-expression state, the multi-focus state is set.

好適には、前記画像処理部は、所定の情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う機能を有し、前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記画像処理部に作用するフィルタの切り替えとリンクしている。   Preferably, the image processing unit has a function of performing a filter process on an optical transfer function (OTF) in accordance with predetermined information, and switches between the expression and non-expression of the modulation function of the modulation function control unit. Are linked to the switching of the filter acting on the image processing unit.

好適には、前記画像処理部の画像処理後の画像をカラーまたは白黒で表示可能なモニタを有し、前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記モニタ出力のカラー出力と白黒出力の切り替えとリンクしている。   Preferably, the image processing unit has a monitor capable of displaying an image after image processing in color or black and white, and switching between the on / off of the modulation function of the modulation function control unit is a color output of the monitor output And link to black and white output switching.

好適には、前記画像処理部は、所定の情報に応じて光学的伝達関数(OTF)に対するフィルタ処理による色収差補正機能を有し、前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記画像処理部の色収差補正機能の切り替えとリンクしている。   Preferably, the image processing unit has a chromatic aberration correction function by a filter process on an optical transfer function (OTF) according to predetermined information, and the modulation function of the modulation function control unit is switched between expression and non-expression. This is linked to switching of the chromatic aberration correction function of the image processing unit.

好適には、前記画像処理部は、複数種類の復元フィルタを用いて前記画像の復元処理を行う。   Preferably, the image processing unit performs the image restoration process using a plurality of types of restoration filters.

好適には、前記画像処理部は、フィルタの演算係数を格納するメモリ手段を有する。   Preferably, the image processing unit includes memory means for storing a calculation coefficient of the filter.

好適には、前記メモリ手段には、露出情報に応じたノイズ低減処理のための演算係数が格納される。   Preferably, the memory means stores a calculation coefficient for noise reduction processing according to exposure information.

好適には、前記メモリ手段には、露出情報に応じた光学的伝達関数(OTF)復元のための演算係数が格納される。   Preferably, the memory means stores a calculation coefficient for restoring an optical transfer function (OTF) according to exposure information.

好適には、前記撮像装置は、被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、を備え、前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する。   Preferably, the imaging device includes subject distance information generating means for generating information corresponding to a distance to the subject, and the converting means is based on the information generated by the subject distance information generating means. A non-dispersed image signal is generated from the dispersed image signal.

好適には、前記撮像装置は、被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を備え、前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する。   Preferably, the imaging apparatus includes subject distance information generating means for generating information corresponding to a distance to the subject, and conversion coefficient calculating means for calculating a conversion coefficient based on the information generated by the subject distance information generating means. The conversion unit converts the image signal using the conversion coefficient obtained from the conversion coefficient calculation unit, and generates an image signal without dispersion.

好適には、前記撮像装置は、撮影する被写体の撮影モードを設定する撮影モード設定手段と、を備え、前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う。   Preferably, the imaging apparatus includes a shooting mode setting unit that sets a shooting mode of a subject to be shot, and the conversion unit performs different conversion processing according to the shooting mode set by the shooting mode setting unit. Do.

本発明の第3の観点は、光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子を含む光学系を通過した被写体像を撮像素子で撮像し、前記撮像素子からの被写体の画像信号に対して所定の処理を施す撮像方法であって、前記外部依存型光波面変調素子を、光波面変調機能が非発現状態に制御して前記光学系を1焦点状態として光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するように形成した後、発現状態に制御して複数焦点状態を形成する。   According to a third aspect of the present invention, an image of a subject that has passed through an optical system including an externally dependent light wavefront modulation element whose expression or non-expression of the light wavefront modulation function depends on the outside is picked up by the image pickup element. An imaging method for performing predetermined processing on an image signal of a subject, wherein the externally-dependent light wavefront modulation element is optically controlled by controlling the light wavefront modulation function to a non-expressed state and setting the optical system to a single focus state. After the light passing through the system is formed so as to form an image at different positions in the optical axis direction depending on the distance of the light source, a multi-focus state is formed by controlling the expression state.

本発明の第4の観点は、光波面変調素子を含む光学系を通過した被写体像を撮像素子で撮像し、前記撮像素子からの被写体の画像信号に対して所定の処理を施す撮像方法であって、前記光学系の光路に配置され、前記光波面変調素子の光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子を配置し、前記外部依存型逆光波面変調素子を、逆光波面変調機能が発現状態に制御して前記光学系を1焦点状態として光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するように形成した後、非発現状態に制御して前記光学系を複数焦点状態とする。   According to a fourth aspect of the present invention, there is provided an imaging method in which a subject image that has passed through an optical system including a light wavefront modulation element is captured by an imaging element, and predetermined processing is performed on an image signal of the subject from the imaging element. An externally dependent inverse light wavefront modulation element that is arranged in the optical path of the optical system and has an expression or non-expression of an inverse light wavefront modulation function that cancels out the light wavefront modulation function of the light wavefront modulation element, The externally dependent inverse light wavefront modulation element is controlled so that the inverse light wavefront modulation function is manifested, and the light passing through the optical system is imaged at different positions in the optical axis direction depending on the distance of the light source with the optical system as a single focus state. Then, the optical system is controlled to a non-expressing state to bring the optical system into a multi-focus state.

本発明によれば、解像性能ピーク位置を容易に検出可能で、光学系を簡単化でき、コスト低減を図ることができ、しかもノイズの影響が小さい復元画像を得ることができる利点がある。   According to the present invention, there is an advantage that a resolution performance peak position can be easily detected, the optical system can be simplified, cost can be reduced, and a restored image with less influence of noise can be obtained.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。   FIG. 1 is a block diagram illustrating an embodiment of an imaging apparatus according to the present invention.

本実施形態に係る撮像装置100は、光学系110、撮像素子120、アナログフロントエンド部(AFE)130、画像処理装置140、カメラ信号処理部150、画像表示メモリ160、画像モニタリング装置170、操作部180、露出制御装置190、および変調機能制御部200を有している。   The imaging apparatus 100 according to the present embodiment includes an optical system 110, an imaging element 120, an analog front end unit (AFE) 130, an image processing device 140, a camera signal processing unit 150, an image display memory 160, an image monitoring device 170, and an operation unit. 180, an exposure control device 190, and a modulation function control unit 200.

光学系110は、被写体物体OBJを撮影した像を撮像素子120に供給する。
光学系110は、たとえば物体側OBJSから順に配置された第1レンズ111と、第2レンズ112、絞り113、外部依存型光波面変調素子114、第3レンズ115、および第4レンズ116を有する。
第3レンズ115および第4レンズ116は接合され、撮像素子120に結像させるための結像レンズとして機能する。
外部依存型光波面変調素子114は、結像レンズによる撮像素子120の受光面への結像の波面を変形させる機能を有する光波面変調機能の発現、非発現が外部に依存する。
外部依存型光波面変調素子114は、変調機能制御部200により光波面変調機能が非発現状態に制御されているときは、光学系110が1焦点状態となって光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を有し、発現状態に制御されているときは光学系110が複数焦点状態となる。
The optical system 110 supplies an image obtained by photographing the subject object OBJ to the image sensor 120.
The optical system 110 includes, for example, a first lens 111, a second lens 112, a diaphragm 113, an externally dependent light wavefront modulation element 114, a third lens 115, and a fourth lens 116 that are arranged in order from the object side OBJS.
The third lens 115 and the fourth lens 116 are cemented and function as an imaging lens for forming an image on the image sensor 120.
The externally dependent optical wavefront modulation element 114 depends on the outside for the expression and non-expression of the optical wavefront modulation function having the function of deforming the wavefront of the image formed on the light receiving surface of the image sensor 120 by the imaging lens.
When the light wavefront modulation function is controlled to the non-expressed state by the modulation function control unit 200, the externally dependent light wavefront modulation element 114 is configured such that the light passing through the optical system with the optical system 110 in a single focus state is a light source. The optical system 110 is in a multi-focal state when it has a good imaging performance such that an image is formed at a different position in the optical axis direction depending on the distance.

図2(A)および(B)は、本実施形態に係る外部依存型光波面変調素子の構成例および機能を説明するための図である。   2A and 2B are diagrams for explaining a configuration example and functions of the externally dependent optical wavefront modulation element according to the present embodiment.

外部依存型光波面変調素子114は、図2(A),(B)に示すように、たとえば液晶素子114aにより構成することが可能である。
この液晶素子114aは、素子に与える電圧を切り替えることで、光線の集光状態を変化させることができる。
たとえば、変調機能制御部200により電圧を印加されると、図2(A)に示すように、液晶素子114aは光波面変調機能が発現状態に制御され、光学系110が複数焦点状態となる。
一方、変調機能制御部200により電圧印加が停止(あるいは発現状態より低レベルに設定)されると、図2(B)に示すように、液晶素子114aは光波面変調機能が非発現状態に制御され、光学系110が1焦点状態となる。
As shown in FIGS. 2A and 2B, the externally dependent light wavefront modulation element 114 can be constituted by, for example, a liquid crystal element 114a.
The liquid crystal element 114a can change the light collection state by switching the voltage applied to the element.
For example, when a voltage is applied by the modulation function control unit 200, as shown in FIG. 2A, the light wavefront modulation function of the liquid crystal element 114a is controlled to be manifested, and the optical system 110 is in a multi-focus state.
On the other hand, when the voltage application is stopped (or set to a lower level than the manifestation state) by the modulation function control unit 200, as shown in FIG. 2B, the liquid crystal element 114a controls the light wavefront modulation function to the non-expression state. As a result, the optical system 110 is in a single focus state.

また、光学系110Aは、図3に示すように、たとえば第2レンズ112aとして、結像レンズによる撮像素子120の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)により形成し、かつ、外部依存型光波面変調素子の代わりに、光波面変調素子112aの光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子117を配置するように構成することも可能である。
この場合、光学系110Aは、外部依存型逆光波面変調素子117が、変調機能制御部200により逆光波面変調機能が発現状態に制御されているときは、1焦点状態となって光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を有し、非発現状態に制御されているときは複数焦点状態となる。
Further, as shown in FIG. 3, the optical system 110A, for example, as a second lens 112a, deforms the wavefront of image formation on the light receiving surface of the image sensor 120 by the imaging lens, for example, a phase plate having a three-dimensional curved surface, for example. The light wavefront modulation function of the light wavefront modulation element 112a is formed by a light wavefront modulation element (wavefront forming optical element) made of (Cubic Phase Plate), and instead of the externally dependent light wavefront modulation element It is also possible to arrange so that an externally dependent inverse light wavefront modulation element 117 whose expression or non-expression of the inverse light wavefront modulation function that cancels out the above depends on the outside is arranged.
In this case, the optical system 110A passes through the optical system in a one-focus state when the externally dependent inverse light wavefront modulation element 117 is controlled to the manifestation state of the inverse light wavefront modulation function by the modulation function control unit 200. It has a good imaging performance such that light is imaged at different positions in the optical axis direction depending on the distance of the light source, and when it is controlled to the non-expressed state, it becomes a multi-focus state.

図4(A)および(B)は、本実施形態に係る外部依存型逆光波面変調素子の構成例および機能を説明するための図である。   FIGS. 4A and 4B are diagrams for explaining a configuration example and a function of the externally dependent inverse light wavefront modulation element according to the present embodiment.

外部依存型逆光波面変調素子117も、図4(A),(B)に示すように、たとえば液晶素子117aにより構成することが可能である。
この液晶素子117aは、素子に与える電圧を切り替えることで、光線の集光状態を変化させることができる。
たとえば、変調機能制御部200により電圧を印加されると、図4(A)に示すように、液晶素子117aは逆光波面変調機能が非発現状態に制御され、光学系110Aは複数焦点状態となる。
一方、変調機能制御部200により電圧印加が停止(あるいは発現状態より低レベルに設定)されると、図4(B)に示すように、液晶素子117aは逆光波面変調機能が非発現状態に制御され、光学系110Aは1焦点状態となる。
As shown in FIGS. 4A and 4B, the externally dependent inverse light wavefront modulation element 117 can also be constituted by, for example, a liquid crystal element 117a.
The liquid crystal element 117a can change the light collection state by switching the voltage applied to the element.
For example, when a voltage is applied by the modulation function control unit 200, as shown in FIG. 4A, the liquid crystal element 117a is controlled to be in a state where the inverse light wavefront modulation function is not developed, and the optical system 110A is in a multi-focus state. .
On the other hand, when the voltage application is stopped (or set to a lower level than the manifestation state) by the modulation function control unit 200, as shown in FIG. 4B, the liquid crystal element 117a controls the inverse light wavefront modulation function to the non-expression state. Thus, the optical system 110A is in a single focus state.

撮像装置120は、光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログフロントエンド部130を介して画像処理装置140に出力するCCDやCMOSセンサからなる。
図1においては、撮像素子120を一例としてCCDとして記載している。
The imaging device 120 forms an image captured by the optical system 110, and outputs the primary image information of the image formation as the primary image signal FIM of the electrical signal to the image processing device 140 via the analog front end unit 130. And a CMOS sensor.
In FIG. 1, the image sensor 120 is described as a CCD as an example.

アナログフロントエンド部130は、タイミングジェネレータ131、アナログ/デジタル(A/D)コンバータ132と、を有する。
タイミングジェネレータ131では、撮像素子120のCCDの駆動タイミングを生成しており、A/Dコンバータ132は、CCDから入力されるアナログ信号をデジタル信号に変換し、画像処理装置140に出力する。
The analog front end unit 130 includes a timing generator 131 and an analog / digital (A / D) converter 132.
The timing generator 131 generates the drive timing of the CCD of the image sensor 120, and the A / D converter 132 converts an analog signal input from the CCD into a digital signal and outputs it to the image processing device 140.

画像処理部の一部を構成する画像処理装置(二次元コンボリューション手段)140は、前段のAFE130からくる撮像画像のデジタル信号を入力し、二次元のコンボリューション処理を施し、後段のカメラ信号処理部(DSP)150に渡す。
画像処理装置140は、たとえば露出制御装置190の露出情報に応じて、光学的伝達関数(OTF)に対してフィルタ処理を行うと共に、色収差補正を行って色収差を改善する画像劣化の復元処理を行う。なお、露出情報として絞り情報を含む。
画像処理装置140は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する機能を有する。また、画像処理部は、最初のステップでノイズ低減フィルタリングを施す機能を有する。
画像処理装置140の処理については後でさらに詳述する。
An image processing apparatus (two-dimensional convolution means) 140 that constitutes a part of the image processing unit inputs a digital signal of a captured image coming from the previous AFE 130, performs two-dimensional convolution processing, and performs subsequent camera signal processing. Part (DSP) 150.
The image processing apparatus 140 performs a filter process on the optical transfer function (OTF), for example, according to the exposure information of the exposure control apparatus 190, and performs an image deterioration restoration process that improves chromatic aberration by correcting chromatic aberration. . Note that aperture information is included as exposure information.
The image processing device 140 has a function of generating a non-dispersed image signal from the subject dispersed image signal from the image sensor 120. The image processing unit has a function of performing noise reduction filtering in the first step.
The processing of the image processing apparatus 140 will be described in detail later.

カメラ信号処理部(DSP)150は、カラー補間、ホワイトバランス、YCbCr変換処理、圧縮、ファイリング等の処理を行い、メモリ160への格納や画像モニタリング装置170への画像表示等を行う。画像モニタリング装置170は、カメラ信号処理部150の制御の下、カラー出力あるいは白黒出力が可能である。   A camera signal processing unit (DSP) 150 performs processing such as color interpolation, white balance, YCbCr conversion processing, compression, and filing, and stores in the memory 160, displays an image on the image monitoring device 170, and the like. The image monitoring device 170 can perform color output or monochrome output under the control of the camera signal processing unit 150.

カメラ信号処理部150は、露出制御装置190と変調機能制御部200との協働により、変調機能制御部200による光波面変調機能(逆光波面変調機能)の発現、非発現とフィルタ(カーネル)の適用の切り替えとのリンク、カラー出力あるいは白黒出力の切り替えとのリンク、色収差補正機能の切り替えとのリンク制御等を行う。   The camera signal processing unit 150 cooperates with the exposure control device 190 and the modulation function control unit 200 to express or not express the light wavefront modulation function (reverse light wavefront modulation function) by the modulation function control unit 200, and filter (kernel). Link control with application switching, link with color output or monochrome output switching, link control with chromatic aberration correction function switching, and the like are performed.

露出制御装置190は、露出制御を行うとともに、操作部180などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、AFE130、画像処理装置140、DSP150等を制御し、システム全体の調停制御を司るものである。   The exposure control device 190 performs exposure control, has operation inputs such as the operation unit 180, determines the operation of the entire system according to those inputs, controls the AFE 130, the image processing device 140, the DSP 150, etc. It governs mediation control of the entire system.

変調機能制御部200は、カメラ信号処理部150の指示に応じて外部依存型光波面変調素子114(または逆光波面変調素子117)の光波面変調機能(または逆光波面変調素子)の発現、非発現を電圧により制御する。   The modulation function control unit 200 expresses or does not express the light wavefront modulation function (or reverse light wavefront modulation element) of the externally dependent light wavefront modulation element 114 (or reverse light wavefront modulation element 117) in accordance with an instruction from the camera signal processing unit 150. Is controlled by voltage.

以下、本実施形態の光学系、画像処理装置の構成および機能について具体的に説明する。   Hereinafter, the configuration and functions of the optical system and the image processing apparatus according to the present embodiment will be described in detail.

なお、本実施形態においては、外部依存型の光波面変調素子または逆光波面変調素子を用いた場合について説明したが、本発明の光波面変調素子または逆光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。
また、図3の例においては、光波面変調素子である位相板を用いて規則的に分散した画像を形成する場合について説明したが、通常の光学系として用いるレンズで光波面変調素子と同様に規則的に分散した画像を形成できるものを選択した場合には、光波面変調素子を用いずに光学系のみで実現することができる。この際は、後述する位相板に起因する分散に対応するのではなく、光学系に起因する分散に対応することとなる。
位相板は、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子120上ではピントのどこにも合わない画像を実現する。
換言すれば、光波面変調素子によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
In this embodiment, the case where an externally dependent light wavefront modulation element or inverse light wavefront modulation element is used has been described. However, as the light wavefront modulation element or inverse light wavefront modulation element of the present invention, a wavefront deformation element is used. As long as the optical element changes in thickness (for example, the above-described third-order phase plate), the optical element changes in refractive index (for example, a gradient index wavefront modulation lens), An optical wavefront modulation element such as an optical element whose thickness and refractive index change by coding (for example, a wavefront modulation hybrid lens) and a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element) may be used.
In the example of FIG. 3, the case where a regularly dispersed image is formed using a phase plate that is a light wavefront modulation element has been described. However, a lens used as a normal optical system is similar to the light wavefront modulation element. When an image that can form a regularly dispersed image is selected, it can be realized only by an optical system without using a light wavefront modulation element. In this case, it does not correspond to the dispersion caused by the phase plate described later, but corresponds to the dispersion caused by the optical system.
The phase plate is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 120 is realized.
In other words, a light beam having a deep depth (which plays a central role in image formation) and a flare (blurred portion) are formed by the light wavefront modulation element.

この規則的に分散した画像をデジタル処理により、光学系110や110Aを移動させずにピントの合った画像に復元する手段を波面収差制御光学系システム、あるいは深度拡張光学系システム(DEOS:Depth Expantion Optical system)といい、この処理を画像処理装置140において行う。   Means for restoring the regularly dispersed image to a focused image without moving the optical system 110 or 110A by digital processing is a wavefront aberration control optical system or a depth expansion optical system (DEOS: Depth Expansion System). This is called an “optical system”, and this processing is performed in the image processing apparatus 140.

ここで、DEOSの基本原理について説明する。
図5に示すように、被写体の画像fがDEOS光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表される。
Here, the basic principle of DEOS will be described.
As shown in FIG. 5, when the subject image f enters the DEOS optical system H, a g image is generated.
This is expressed by the following equation.

(数1)
g=H*f
ただし、*はコンボリューションを表す。
(Equation 1)
g = H * f
However, * represents convolution.

生成された画像から被写体を求めるためには、次の処理を要する。   In order to obtain the subject from the generated image, the following processing is required.

(数2)
f=H−1*g
(Equation 2)
f = H −1 * g

ここで、Hに関するカーネルサイズと演算係数について説明する。
ズームポジションをZPn,ZPn−1・・・とする。また、それぞれのH関数をHn,Hn−1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding H will be described.
Let the zoom positions be ZPn, ZPn-1,. In addition, each H function is defined as Hn, Hn-1,.
Since each spot image is different, each H function is as follows.

Figure 2008245266
Figure 2008245266

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。
ここで、各々のH関数はメモリに格納しておいても構わないし、PSFを物体距離の関数としておき、物体距離によって計算し、H関数を算出することによって任意の物体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.
Here, each H function may be stored in a memory, and the PSF is set as a function of the object distance, and is calculated based on the object distance. By calculating the H function, an optimum object distance is obtained. It may be possible to set so as to create a filter. Alternatively, the H function may be directly obtained from the object distance using the H function as a function of the object distance.

本実施形態においては、図1や図3に示すように、光学系110や110Aからの像を撮像素子120で受像して、画像処理装置140に入力させ、光学系に応じた変換係数を取得して、取得した変換係数をもって撮像素子120からの分散画像信号より分散のない画像信号を生成するように構成している。   In this embodiment, as shown in FIGS. 1 and 3, an image from the optical system 110 or 110 </ b> A is received by the image sensor 120 and input to the image processing device 140 to obtain a conversion coefficient corresponding to the optical system. Thus, an image signal having no dispersion is generated from the dispersion image signal from the image sensor 120 with the obtained conversion coefficient.

なお、本実施形態において、分散とは、上述したように、光波面変調素子114や112aを挿入することにより、撮像素子120上ではピントのどこにも合わない画像を形成し、位相板113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to the formation of an image that does not fit anywhere on the image sensor 120 by inserting the light wavefront modulation elements 114 and 112a. This is a phenomenon that forms a deep light beam (which plays a central role in image formation) and flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

ところで、DEOS(深度拡張光学系)では、深い被写界深度内で像性能の変化量が少ないために、ディフォーカスに対する光学性能ピーク位置の検出が困難である傾向にある。適切な評価が行い難いため、製造工程に負担をかけ、また、歩留りの面でも不利な面がある。
さらに、DEOSでは、そのシステムの特性上、被写体の奥行き感が喪失、あるいは減少するため、意図的に背景をぼかした撮影などには向かない。
そこで、本実施形態においては、図1〜図4に関連付けて説明したようなDEOS(深度拡張光学系)における解像性能ピーク位置の検出方法、および、容易に検出可能な光学系システムでありながら、用途に応じ深度拡張機能を失くす光学系システムを実現している。
前述したように、本実施形態においては、DEOS(深度拡張光学系)において、光波面変調素子を液晶素子としている。
この液晶素子は、素子に与える電圧の切り替えにより光波面(位相)変調を行えることを特徴とする。
光波面(位相)変調作用を含まない光学系の場合、もしくは位相変調作用を光学系として相殺している場合、一般的な光学系同様な光学系となり、良好な光学性能を有することが可能となる。これは、通常の撮像光学系と同様に性能だしを行うことが可能であることをも意味する。
そこに、液晶素子の位相変調作用を切り替えることで、深度拡張を生じさせることで、簡便に光学性能を調整可能な製造工程を構築することが可能となる。
By the way, in DEOS (depth extension optical system), since the amount of change in image performance is small within a deep depth of field, it tends to be difficult to detect the optical performance peak position for defocusing. Since it is difficult to perform an appropriate evaluation, the manufacturing process is burdened, and there is a disadvantage in terms of yield.
Further, DEOS is not suitable for shooting with intentionally blurred background because the depth of the subject is lost or reduced due to the characteristics of the system.
Therefore, in the present embodiment, the resolution performance peak position detection method in DEOS (depth extension optical system) as described with reference to FIGS. 1 to 4 and an optical system that can be easily detected are provided. An optical system that loses the depth expansion function according to the application has been realized.
As described above, in the present embodiment, in the DEOS (depth extension optical system), the light wavefront modulation element is a liquid crystal element.
This liquid crystal element is characterized in that light wavefront (phase) modulation can be performed by switching a voltage applied to the element.
In the case of an optical system that does not include a light wavefront (phase) modulation action, or when the phase modulation action is canceled as an optical system, it becomes an optical system similar to a general optical system and can have good optical performance. Become. This also means that performance can be performed in the same way as a normal imaging optical system.
Then, by switching the phase modulation action of the liquid crystal element, it is possible to construct a manufacturing process that can easily adjust the optical performance by causing the depth expansion.

図1に示す光学系110においては、結像レンズによる撮像素子120の受光面への結像の波面を変形させる機能を有する光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子114を設けている。
外部依存型光波面変調素子114は、変調機能制御部200により光波面変調機能が非発現状態に制御されているときは、光学系110が1焦点状態となって光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を有し、発現状態に制御されているときは光学系110が複数焦点状態となる。
In the optical system 110 shown in FIG. 1, an externally dependent light wave whose appearance or non-expression of a light wavefront modulation function having a function of deforming a wavefront of an image formed on the light receiving surface of the image sensor 120 by an imaging lens depends on the outside. A surface modulation element 114 is provided.
When the light wavefront modulation function is controlled to the non-expressed state by the modulation function control unit 200, the externally dependent light wavefront modulation element 114 is configured such that the light passing through the optical system with the optical system 110 in a single focus state is a light source. The optical system 110 is in a multi-focal state when it has a good imaging performance such that an image is formed at a different position in the optical axis direction depending on the distance.

この場合、光学系110は、光波面変調素子を含まない光学系が、光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を有することとしている。これは、通常の撮像光学系と同様に性能だしを行うことが可能であることを意味する。この光学系110に対し、パワーの無い状態の光波面変調素子を付加しても、結像性能は変化しない。F値の明るい光学系を採用することで、奥行き感のあるボケ味を伴った写真撮影が可能になる。
また、この状態で、光学性能の調整を行うことは多種ある既存の評価手法に則っている。
そこで、本実施形態においては、液晶素子114aへの電圧を変化させ、光波面(たとえば)位相変調作用を生じさせる。このとき、液晶素子114aは複数焦点状態とする。この複数焦点状態画像を復元することで、深度拡張作用を生じさせることを実現できる。
In this case, the optical system 110 has a good imaging performance such that the optical system that does not include the light wavefront modulation element forms an image at different positions in the optical axis direction depending on the distance of the light source. It is said. This means that performance can be performed in the same manner as a normal imaging optical system. Even if an optical wavefront modulation element having no power is added to the optical system 110, the imaging performance does not change. By employing an optical system with a bright F value, it is possible to take a photograph with a sense of depth.
In this state, the adjustment of the optical performance is in accordance with various existing evaluation methods.
Therefore, in the present embodiment, the voltage to the liquid crystal element 114a is changed to cause a light wavefront (for example) phase modulation effect. At this time, the liquid crystal element 114a is in a multi-focus state. By restoring the multi-focus state image, it is possible to realize a depth expansion effect.

このように、図1の光学系110を有する撮像装置100は、液晶素子114aにかかる電圧の切り替えにより光波面変調機能の有無を変化させている。このとき、光波面(位相)変調と画像復元の有無(フィルタ(カーネル)の適用の切り替え)とをリンクするように制御する。   As described above, the imaging apparatus 100 having the optical system 110 in FIG. 1 changes the presence or absence of the light wavefront modulation function by switching the voltage applied to the liquid crystal element 114a. At this time, control is performed so as to link the light wavefront (phase) modulation and presence / absence of image restoration (switching of application of filter (kernel)).

図6(A)および(B)は、液晶素子にかかる電圧の切り替えと同時に、フィルタ(カーネル)の機能をも切り替える例を示す図である。   6A and 6B are diagrams illustrating an example in which the function of the filter (kernel) is switched simultaneously with the switching of the voltage applied to the liquid crystal element.

図6(A)に示すように、液晶素子114aが光波面変調機能(作用)を発現(有している)場合は、フィルタを機能させ、画像を復元させる。それにより、深度拡張された復元画像が得られる。
一方、図6(B)に示すように、液晶素子114aが位相変調機能(作用)を発現していない(有していない場合)は、フィルタを機能させない。それにより、一般撮影が可能な良好な結像状態の光学系となる。
このような構成により、液晶素子114aが光波面変調機能を発現していない状態で光学系110の焦点調整を行って光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するように形成した後で、光波面変調機能を発現状態に維持することで深度拡張作用を生じさせることを実現できる。これにより、光波面変調素子を配置した際の製造時に焦点調整を行いにくいという課題を解決することができるようにすることも出来る。
なお、図6乃至9における光学系110や110Aは、構成を一部省略しているが、図1や図3の光学系110や110Aと同様の構成であるものとする。
As shown in FIG. 6A, when the liquid crystal element 114a exhibits (has) a light wavefront modulation function (action), the filter functions to restore the image. Thereby, a restored image whose depth is extended is obtained.
On the other hand, as shown in FIG. 6B, when the liquid crystal element 114a does not exhibit the phase modulation function (action) (when it does not have), the filter does not function. As a result, an optical system in a good imaging state capable of general photographing is obtained.
With such a configuration, the focus adjustment of the optical system 110 is performed in a state where the liquid crystal element 114a does not exhibit the light wavefront modulation function, and the light passing through the optical system forms an image at different positions in the optical axis direction depending on the distance of the light source. After being formed as described above, it is possible to realize the effect of expanding the depth by maintaining the light wavefront modulation function in the expression state. Accordingly, it is possible to solve the problem that it is difficult to perform focus adjustment during manufacturing when the light wavefront modulation element is disposed.
Although the optical systems 110 and 110A in FIGS. 6 to 9 are partially omitted, they are assumed to have the same configuration as the optical systems 110 and 110A in FIGS.

また、図1の光学系110を有する撮像装置100は、液晶素子114aにかかる電圧の切り替えにより光波面変調機能の有無を変化させているが、このとき、光波面変調機能が生じると同時に、色収差にも変化が生じる。
したがって、一般撮影時は良好な色収差補正状態を実現した上でモニタにカラー出力を行い、一方でDEOSシステム時は、モニタに白黒出力とする。
In addition, the imaging apparatus 100 having the optical system 110 in FIG. 1 changes the presence or absence of the light wavefront modulation function by switching the voltage applied to the liquid crystal element 114a. Changes also occur.
Therefore, a color correction is performed on the monitor after realizing a good chromatic aberration correction state during general photographing, while a monochrome output is performed on the monitor during the DEOS system.

図7(A)および(B)は、液晶素子にかかる電圧の切り替えと同時に、モニタへの出力を切り替える例を示す図である。   FIGS. 7A and 7B are diagrams illustrating an example in which the output to the monitor is switched simultaneously with the switching of the voltage applied to the liquid crystal element.

図7(A)に示すように、液晶素子114aが光波面変調機能(作用)を発現(有している)場合は、白黒出力をする。
一方、図7(B)に示すように、液晶素子114aが位相変調機能(作用)を発現していない(有していない場合)は、色収差の補正を光学系で行い、モニタにはカラー出力をする。
As shown in FIG. 7A, when the liquid crystal element 114a exhibits (has) a light wavefront modulation function (action), monochrome output is performed.
On the other hand, as shown in FIG. 7B, when the liquid crystal element 114a does not exhibit the phase modulation function (action) (when it does not have), chromatic aberration is corrected by the optical system, and color output is output to the monitor. do.

また、図1の光学系110を有する撮像装置100は、液晶素子114aにかかる電圧の切り替えにより光波面変調機能の有無を変化させているが、このとき、光波面変調機能が生じると同時に、色収差にも変化が生じる。したがって、液晶にかかる電圧の切り替えと、画像処理部の色収差補正機能の有無をリンクさせる。   In addition, the imaging apparatus 100 having the optical system 110 in FIG. 1 changes the presence or absence of the light wavefront modulation function by switching the voltage applied to the liquid crystal element 114a. Changes also occur. Therefore, the switching of the voltage applied to the liquid crystal is linked to the presence or absence of the chromatic aberration correction function of the image processing unit.

図8(A)および(B)は、液晶素子にかかる電圧の切り替えと同時に、画像処理部内の色収差補正機能を切り替える例を示す図である。   FIGS. 8A and 8B are diagrams illustrating an example in which the chromatic aberration correction function in the image processing unit is switched simultaneously with the switching of the voltage applied to the liquid crystal element.

図8(A)に示すように、液晶素子114aが光波面変調機能(作用)を発現(有している)場合は、色収差の影響を受けるため、画像処理部内の色収差補正機能を使い、良好な画像を得る。
一方、図8(B)に示すように、液晶素子114aが位相変調機能(作用)を発現していない(有していない場合)は、色収差の影響を受けないため、色収差補正機能は作動させない。
As shown in FIG. 8A, when the liquid crystal element 114a exhibits (has) a light wavefront modulation function (action), it is affected by chromatic aberration. Therefore, the chromatic aberration correction function in the image processing unit is used and is good. Get a good picture.
On the other hand, as shown in FIG. 8B, when the liquid crystal element 114a does not exhibit the phase modulation function (action) (when it does not have), it is not affected by chromatic aberration, so the chromatic aberration correction function is not activated. .

また、図3に示す光学系110Aにおいては、光波面変調機能を持つ光波面変調素子112aを有する構成において、外部依存型光波面変調素子の代わりに、光波面変調素子112aの光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子117を配置するように構成している。
光学系110Aは、外部依存型逆光波面変調素子117が、変調機能制御部200により逆光波面変調機能が発現状態に制御されているときは、1焦点状態となって光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を有し、非発現状態に制御されているときは複数焦点状態となる。
Further, in the optical system 110A shown in FIG. 3, in the configuration having the optical wavefront modulation element 112a having the optical wavefront modulation function, the optical wavefront modulation function of the optical wavefront modulation element 112a is provided instead of the externally dependent optical wavefront modulation element. An externally dependent inverse light wavefront modulation element 117 in which the expression or non-expression of the inverse light wavefront modulation function to cancel is dependent on the outside is arranged.
In the optical system 110A, when the externally dependent inverse light wavefront modulation element 117 is controlled by the modulation function control unit 200 to exhibit the inverse light wavefront modulation function, the light passing through the optical system in a single focus state is a light source. With a good imaging performance such that an image is formed at a different position in the optical axis direction depending on the distance, a multi-focus state is obtained when the non-expression state is controlled.

この場合、光波面変調素子112aを含まない光学系が位相変調作用を有しているとする。この光学系に対し、パワーの無い状態の光波面変調素子を付加しても、結像状態は変化しない。このとき得られる画像を復元することで深度拡張作用を実現している。
そこで、液晶素子117aへの電圧を変化させ、逆光波面変調を生じさせる。光波面変調素子112aと液晶素子117aとの相殺作用により、光学系110Aが光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するような良好な結像性能を持つ。
この状態で、光学性能の調整を行うことは多種ある既存の評価手法に則っている。また、F値の明るい光学系を採用することで、奥行き感のあるボケ味を伴った写真撮影が可能になる。
In this case, it is assumed that an optical system that does not include the light wavefront modulation element 112a has a phase modulation function. Even if an optical wavefront modulation element having no power is added to this optical system, the imaging state does not change. The depth expansion effect is realized by restoring the image obtained at this time.
Therefore, the voltage to the liquid crystal element 117a is changed to cause reverse light wavefront modulation. Due to the canceling action between the light wavefront modulation element 112a and the liquid crystal element 117a, the optical system 110A has a good imaging performance such that light passing through the optical system forms an image at different positions in the optical axis direction depending on the distance of the light source.
In this state, adjusting the optical performance is in accordance with various existing evaluation methods. In addition, by adopting an optical system with a bright F value, it is possible to take a photograph with a sense of depth.

このように、図3の光学系110Aを有する撮像装置100Aは、液晶素子117aにかかる電圧の切り替えにより逆光波面変調機能の有無を変化させている。このとき、光波面(位相)変調と画像復元の有無(フィルタ(カーネル)の適用の切り替え)とをリンクするように制御する。   As described above, the imaging apparatus 100A having the optical system 110A of FIG. 3 changes the presence or absence of the inverse light wavefront modulation function by switching the voltage applied to the liquid crystal element 117a. At this time, control is performed so as to link the light wavefront (phase) modulation and presence / absence of image restoration (switching of application of filter (kernel)).

図9(A)および(B)は、逆光波面変調機能を発現する液晶素子にかかる電圧の切り替えと同時に、フィルタ(カーネル)の機能をも切り替える例を示す図である。   FIGS. 9A and 9B are diagrams illustrating an example in which the function of the filter (kernel) is switched simultaneously with the switching of the voltage applied to the liquid crystal element that exhibits the inverse light wavefront modulation function.

図9(A)に示すように、光波面変調機能(作用)を有している光学系110Aに対し、液晶素子117aが逆光波面変調機能(作用)を発現していない(有していない場合)は、フィルタを機能させ、画像を復元させる。それにより、深度拡張された復元画像が得られる。
一方、図9(B)に示すように、光波面変調機能(作用)を有している光学系110Aに対し、液晶素子117aが逆光波面変調機能(作用)を発現させて光学系の光波面変調作用を相殺する場合は、フィルタを機能させない。それにより、一般撮影が可能な良好な結像状態の光学系となる。
このような構成により、液晶素子117aが逆光波面変調機能の発現状態で光学系110Aの焦点調整を行って良好な結像状態を形成した後で、逆光波面変調機能を発現していない状態に維持することで深度拡張作用を生じさせることを実現できる。これにより、光波面変調素子112aを配置した際の製造時に焦点調整を行いにくいという課題を解決することができるようにすることもできる。また、撮像素子120以降の構成を図7と図8と同様にすることもできる。
As shown in FIG. 9A, the liquid crystal element 117a does not exhibit the inverse light wavefront modulation function (action) (if it does not have) with respect to the optical system 110A having the light wavefront modulation function (action). ) Causes the filter to function and restore the image. Thereby, a restored image whose depth is extended is obtained.
On the other hand, as shown in FIG. 9B, for the optical system 110A having the light wavefront modulation function (action), the liquid crystal element 117a exhibits the inverse light wavefront modulation function (action), and the optical wavefront of the optical system. When canceling the modulation effect, the filter is not functioned. As a result, an optical system in a good imaging state capable of general photographing is obtained.
With such a configuration, after the liquid crystal element 117a adjusts the focus of the optical system 110A in a state where the inverse light wavefront modulation function is manifested to form a favorable imaging state, the liquid crystal element 117a is maintained in a state where the inverse light wavefront modulation function is not manifested. By doing so, it is possible to realize a depth expansion effect. Accordingly, it is possible to solve the problem that it is difficult to perform focus adjustment at the time of manufacturing when the light wavefront modulation element 112a is disposed. Further, the configuration after the image sensor 120 can be the same as that shown in FIGS.

また、本実施形態においては、DEOSにおける解像性能ピーク位置の検出方法、および、容易に検出可能な鏡枠構造(光学系保持部の構造)を実現している。
以下のその一例を示す。
In this embodiment, a resolution performance peak position detection method in DEOS and a lens frame structure (structure of an optical system holding unit) that can be easily detected are realized.
The following is an example.

ここで示す鏡枠構造部200は、基本的に、図10に示すように、レンズ保持部210と撮像素子保持部220とが別個に構成され、これらのレンズ保持部210と撮像素子保持部220は中間部材230によって介して固定されており、レンズ保持部210と撮像素子保持部220の線膨張係数が異なる。
さらにこの線膨張係数による影響はレンズ保持部210の係数が撮像素子保持部220の係数に比べて大きく、この係数を制御することによりバックフォーカス位置ズレを緩和し使用環境が低温から高温にまで及んだとしても十分な性能を確保することができるように構成することができる。さらにDEOS(深度拡張光学系)において、被写界深度の温度変化も緩和することができるように構成されている。
As shown in FIG. 10, the lens frame structure unit 200 shown here basically includes a lens holding unit 210 and an image sensor holding unit 220 that are configured separately, and these lens holding unit 210 and image sensor holding unit 220. Is fixed by an intermediate member 230, and the linear expansion coefficients of the lens holding unit 210 and the image sensor holding unit 220 are different.
Further, the influence of this linear expansion coefficient is that the coefficient of the lens holding unit 210 is larger than the coefficient of the image sensor holding unit 220, and by controlling this coefficient, the back focus position shift is alleviated and the usage environment extends from low temperature to high temperature. Even so, it can be configured to ensure sufficient performance. Further, the DEOS (Depth Extension Optical System) is configured so that the temperature change of the depth of field can be reduced.

レンズ保持部210は、たとえば円筒状に形成され、物体側から順に、第1レンズ111を保持する第1保持部211、第2レンズ112(112a)を保持する第2保持部212、液晶素子114a(117a)を保持する第3保持部213、第3レンズ115を保持する第4保持部214、第4レンズ116を保持する第4保持部215が形成されている。
そして、レンズ保持部210の外側部の軸方向の中央より物体側が中間部材230の一端部と、たとえば接着剤240により固定されている。
レンズ保持部210は、たとえば樹脂により形成される。
The lens holding unit 210 is formed in, for example, a cylindrical shape, and in order from the object side, the first holding unit 211 that holds the first lens 111, the second holding unit 212 that holds the second lens 112 (112a), and the liquid crystal element 114a. A third holding portion 213 that holds (117a), a fourth holding portion 214 that holds the third lens 115, and a fourth holding portion 215 that holds the fourth lens 116 are formed.
The object side from the axial center of the outer side of the lens holding part 210 is fixed to one end of the intermediate member 230 by, for example, an adhesive 240.
The lens holding part 210 is made of, for example, resin.

撮像素子保持部220は、レンズ保持部210の外径より大きい外径を有する円筒状に形成され、中央部が軸方向に開口され、底面側(第1面側)221に撮像素子120が固定されている。
また、撮像素子保持部220の上面側(物体側面)222には中間部材230の一端部231が接着剤等により固定されている。
撮像素子保持部220は、たとえば樹脂により形成される。
The image sensor holding unit 220 is formed in a cylindrical shape having an outer diameter larger than the outer diameter of the lens holding unit 210, the central part is opened in the axial direction, and the image sensor 120 is fixed to the bottom surface side (first surface side) 221. Has been.
Further, one end 231 of the intermediate member 230 is fixed to the upper surface side (object side surface) 222 of the image sensor holding unit 220 with an adhesive or the like.
The image sensor holding unit 220 is made of, for example, resin.

中間部材2330は、レンズ保持部210の外径より大きな内径を有する円筒状に形成され、その内壁231の一端部には円周上に、レンズ保持部210を固定する際に注入される接着剤240の溜り部232が形成されている。
また、中間部材230の他端部は、内側に延びるように鍔部233が形成されており、この鍔部233の外側面(底面)が撮像素子保持部220の上面側222と当接するようにして固定されている。
この中間部材230は、線膨張係数が小さい金属材料、たとえばアルミニウム(Al)により形成される。
The intermediate member 2330 is formed in a cylindrical shape having an inner diameter larger than the outer diameter of the lens holding portion 210, and an adhesive is injected into one end portion of the inner wall 231 on the circumference when the lens holding portion 210 is fixed. 240 reservoirs 232 are formed.
Further, a flange portion 233 is formed at the other end portion of the intermediate member 230 so as to extend inward. The outer surface (bottom surface) of the flange portion 233 is in contact with the upper surface side 222 of the image sensor holding portion 220. Is fixed.
The intermediate member 230 is made of a metal material having a small linear expansion coefficient, such as aluminum (Al).

このように、本鏡枠構造部200においては、撮像素子保持部220とレンズ保持部210は固定し光学系は固定焦点となっており、レンズ保持部210の材質と撮像素子保持部220の材質の線膨張係数を異ならせることで駆動機構を持たずに温度変化によるバックフォーカスの位置変動を緩和できる機構をもつようになる。   As described above, in the lens frame structure unit 200, the image sensor holding unit 220 and the lens holding unit 210 are fixed and the optical system has a fixed focal point. The material of the lens holding unit 210 and the material of the image sensor holding unit 220 are as follows. By making the coefficient of linear expansion different from each other, a mechanism can be provided that can mitigate back focus position fluctuations due to temperature changes without having a drive mechanism.

中間部材230の線膨張係数をレンズ保持部210および撮像素子保持部220の線膨張係数に比べて小さくすることで、たとえば温度によるレンズ系のバックフォーカス位置変動が小さく、バックフォーカスが十分に長い光学系に対し、鏡枠構造部200の各レンズの相対的な位置変動量を抑えることができる。   By making the linear expansion coefficient of the intermediate member 230 smaller than the linear expansion coefficients of the lens holding unit 210 and the image sensor holding unit 220, for example, the back focus position variation of the lens system due to temperature is small, and the back focus is sufficiently long. The relative positional fluctuation amount of each lens of the lens frame structure unit 200 can be suppressed with respect to the system.

また、本実施形態においては、光学系110(110A)に含まれる樹脂レンズ(たとえば第2レンズ112)のパワーの合算が負であるとき、最終レンズである第4レンズ116の撮像素子120側の面と撮像素子120の間隔が常温より高温で短くなり、低温で長くなるように構成される。   In the present embodiment, when the sum of the powers of the resin lenses (for example, the second lens 112) included in the optical system 110 (110A) is negative, the fourth lens 116, which is the final lens, on the image sensor 120 side. The interval between the surface and the image sensor 120 is configured to be shorter at a temperature higher than normal temperature and longer at a low temperature.

また、本実施形態においては、光学系110に含まれる樹脂レンズのパワーの合算が正であるとき、最終レンズである第4レンズ116の撮像素子120側の面と撮像素子の間隔が常温より高温で長くなり、低温で短くなるように構成される。   In this embodiment, when the sum of the powers of the resin lenses included in the optical system 110 is positive, the distance between the imaging element 120 side surface of the fourth lens 116 as the final lens and the imaging element is higher than room temperature. It is configured to become longer and shorter at low temperatures.

また、中間部材230とレンズ保持部210は、レンズ保持部210の軸方向における中央部より物体側で固定されている。   Further, the intermediate member 230 and the lens holding part 210 are fixed on the object side from the central part in the axial direction of the lens holding part 210.

このように、本実施形態においては、レンズ設計の時点で樹脂レンズのパワーを抑えることで温度による樹脂レンズの変動を抑え、さらにレンズ保持部210と撮像素子保持部220が別である構成を有し、両部材の線膨張係数を変えることで温度によるバックフォーカス変動の性能劣化を抑えるように構成される。   As described above, in this embodiment, the power of the resin lens is suppressed at the time of lens design to suppress the variation of the resin lens due to temperature, and the lens holding unit 210 and the image sensor holding unit 220 are separate. And it is comprised so that the performance deterioration of the back focus fluctuation | variation by temperature may be suppressed by changing the linear expansion coefficient of both members.

次に、画像処理装置140の構成および処理について説明する。   Next, the configuration and processing of the image processing apparatus 140 will be described.

画像処理装置140は、図1に示すように、生(RAW)バッファメモリ141、コンボリューション演算器142、記憶手段としてのカーネルデータ格納ROM143、およびコンボリューション制御部144を有する。   As illustrated in FIG. 1, the image processing apparatus 140 includes a raw (RAW) buffer memory 141, a convolution calculator 142, a kernel data storage ROM 143 as a storage unit, and a convolution control unit 144.

コンボリューション制御部144は、コンボリューション処理のオンオフ、画面サイズ、カーネルデータの入れ替え等の制御を行い、露出制御装置190により制御される。   The convolution control unit 144 performs control such as on / off of the convolution process, screen size, and replacement of kernel data, and is controlled by the exposure control device 190.

また、カーネルデータ格納ROM143には、図11に示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータが格納されており、露出制御装置190によって露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
なお、露出情報には、絞り情報が含まれる。
The kernel data storage ROM 143 stores kernel data for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG. The exposure information is acquired and the kernel data is selected and controlled through the convolution control unit 144.
The exposure information includes aperture information.

また、図11の例では、カーネルデータAは絞り情報としてのFナンバ(2.8)、カーネルデータBはFナンバ(4)、カーネルデータCはFナンバ(5.6)に対応したデータとなっている。   In the example of FIG. 11, the kernel data A is an F number (2.8) as aperture information, the kernel data B is F number (4), and the kernel data C is data corresponding to the F number (5.6). It has become.

図11の例のように、絞り情報に応じたフィルタ処理を行うのは以下の理由による。
絞りを絞って撮影を行う場合、絞りによって光波面変調素子が覆われてしまい、位相が変化してしまうため、適切な画像を復元することが困難となる。
そこで、本実施形態においては、本例のように、露出情報中の絞り情報に応じたフィルタ処理を行うことによって適切な画像復元を実現している。
As in the example of FIG. 11, the filtering process corresponding to the aperture information is performed for the following reason.
When shooting with the aperture stopped, the optical wavefront modulation element is covered by the aperture and the phase changes, making it difficult to restore an appropriate image.
Therefore, in the present embodiment, as in this example, appropriate image restoration is realized by performing filter processing according to aperture information in exposure information.

図12は、露出制御装置190の露出情報(絞り情報を含む)により切り替え処理のフローチャートである。
まず、露出情報(RP)が検出されコンボリューション制御部144に供給される(ST101)。
コンボリューション制御部144においては、露出情報RPから、カーネルサイズ、数値演係数がレジスタにセットされる(ST102)。
そして、撮像素子120で撮像され、AFE130を介して二次元コンボリューション演算部142に入力された画像データに対して、レジスタに格納されたデータに基づいてコンボリューション演算が行われ、演算され変換されたデータがカメラ信号処理部150に転送される(ST103)。
FIG. 12 is a flowchart of the switching process based on the exposure information (including aperture information) of the exposure control apparatus 190.
First, exposure information (RP) is detected and supplied to the convolution control unit 144 (ST101).
In the convolution control unit 144, the kernel size and the numerical performance coefficient are set in the register from the exposure information RP (ST102).
The image data captured by the image sensor 120 and input to the two-dimensional convolution operation unit 142 via the AFE 130 is subjected to a convolution operation based on the data stored in the register, and is calculated and converted. The transferred data is transferred to the camera signal processing unit 150 (ST103).

コンボリューション演算は下記の式で表される。   The convolution operation is expressed by the following equation.

Figure 2008245266
Figure 2008245266

ただし、fはフィルタ(filter)カーネルを示している(ここでは計算を容易にするために180度回転済みのものを使用している)。
また、Aは元画像、Bはフィルタリングされた画像(ボケ復元画像)を示している。
この式から分かる通り、fを画像に重ねて各タップ同士の積和した結果をその重ねた中心座標の値とすることである。
Here, f indicates a filter kernel (here, the one rotated 180 degrees is used for easy calculation).
A indicates an original image, and B indicates a filtered image (blurred restored image).
As can be seen from this equation, f is superimposed on the image and the result of summing the products of the taps is taken as the value of the center coordinate that has been superimposed.

上述したように、コンボリューション処理は画像処理装置140で行われる。撮像素子120からの画素データは式4に従いコンボリュージョン処理される。   As described above, the convolution process is performed by the image processing apparatus 140. Pixel data from the image sensor 120 is subjected to convolution processing according to Equation 4.

画像処理装置140は、はじめに位相変調素子によるボケを位相変調素子によるボケ復元フィルタを用いて、換言すれば、カーネルデータ格納ROM143から位相変調素子によるボケ復元用のフィルタ係数を読み込み、このフィルタ係数により復元処理を行う。
すると処理後は位相変調素子によるボケは改善される。
First, the image processing apparatus 140 reads a blur coefficient by the phase modulation element by using the blur restoration filter by the phase modulation element, in other words, reads a filter coefficient for blur restoration by the phase modulation element from the kernel data storage ROM 143, and uses the filter coefficient. Perform the restoration process.
Then, the blur caused by the phase modulation element is improved after the processing.

以下に画像処理装置140の信号処理部とカーネルデータ格納ROMについてさらに具体的な例について説明する。   A more specific example of the signal processing unit and kernel data storage ROM of the image processing apparatus 140 will be described below.

図13は、信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図13の例は露出情報に応じたフィルタカーネルを予め用意した場合のブロック図である。
FIG. 13 is a diagram illustrating a first configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 13 is a block diagram when a filter kernel corresponding to the exposure information is prepared in advance.

露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。2次元コンボリューション演算部142においては、カーネルデータを用いてコンボリューション処理を施す。   Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144. The two-dimensional convolution operation unit 142 performs convolution processing using kernel data.

図14は、信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図14の例は、信号処理部の最初にノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタ処理ST1を予め用意した場合のブロック図である。
FIG. 14 is a diagram illustrating a second configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 14 is a block diagram when the signal processing unit has a noise reduction filter processing step at the beginning and noise reduction filter processing ST1 corresponding to the exposure information is prepared in advance as filter kernel data.

露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142においては、前記ノイズ低減フィルタST1を施した後、カラーコンバージョン処理ST2によって色空間を変換、その後カーネルデータを用いてコンボリューション処理ST3を施す。
再度ノイズ処理ST4を行い、カラーコンバージョン処理ST5によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、再度のノイズ処理ST4は省略することも可能である。
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
In the two-dimensional convolution calculation unit 142, after applying the noise reduction filter ST1, the color space is converted by the color conversion process ST2, and then the convolution process ST3 is performed using the kernel data.
The noise process ST4 is performed again, and the original color space is restored by the color conversion process ST5. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
Note that the second noise processing ST4 can be omitted.

図15は、信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図15の例は、露出情報に応じたOTF復元フィルタを予め用意した場合のブロック図である。
FIG. 15 is a diagram illustrating a third configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 15 is a block diagram when an OTF restoration filter corresponding to exposure information is prepared in advance.

露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142は、ノイズ低減処理ST11、カラーコンバージョン処理ST12の後に、前記OTF復元フィルタを用いてコンボリューション処理ST13を施す。
再度ノイズ処理ST14を行い、カラーコンバージョン処理ST15によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST11、ST14は、いずれか一方のみでもよい。
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
The two-dimensional convolution calculation unit 142 performs the convolution process ST13 using the OTF restoration filter after the noise reduction process ST11 and the color conversion process ST12.
Noise processing ST14 is performed again, and the original color space is restored by color conversion processing ST15. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
Note that only one of the noise reduction processes ST11 and ST14 may be performed.

図16は、信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図16の例は、ノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタを予め用意した場合のブロック図である。
なお、再度のノイズ処理ST4は省略することも可能である。
露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142においては、ノイズ低減フィルタ処理ST21を施した後、カラーコンバージョン処理ST22によって色空間を変換、その後カーネルデータを用いてコンボリューション処理ST23を施す。
再度、露出情報に応じたノイズ処理ST24を行い、カラーコンバージョン処理ST25によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST21は省略することも可能である。
FIG. 16 is a diagram illustrating a fourth configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 16 is a block diagram in the case where a noise reduction filter processing step is included and a noise reduction filter corresponding to exposure information is prepared in advance as filter kernel data.
Note that the second noise processing ST4 can be omitted.
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
In the two-dimensional convolution operation unit 142, after performing the noise reduction filter process ST21, the color space is converted by the color conversion process ST22, and then the convolution process ST23 is performed using the kernel data.
The noise process ST24 corresponding to the exposure information is performed again, and the original color space is restored by the color conversion process ST25. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
The noise reduction process ST21 can be omitted.

以上は露出情報のみに応じて2次元コンボリューション演算部142においてフィルタ処理を行う例を説明したが、たとえば被写体距離情報、ズーム情報、あるいは撮影モード情報と露出情報とを組み合わせることにより適した演算係数の抽出、あるいは演算を行うことが可能となる。   The example in which the filtering process is performed in the two-dimensional convolution calculation unit 142 according to only the exposure information has been described above. For example, the calculation coefficient suitable for combining subject distance information, zoom information, or shooting mode information and exposure information is suitable. Can be extracted or calculated.

図17は、被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図12は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成するが画像処理装置300の構成例を示している。
FIG. 17 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
FIG. 12 shows an example of the configuration of the image processing apparatus 300 that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300は、図17に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   As illustrated in FIG. 17, the image processing apparatus 300 includes a convolution apparatus 301, a kernel / numerical arithmetic coefficient storage register 302, and an image processing arithmetic processor 303.

この画像処理装置300においては、物体概略距離情報検出装置400から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300, the image processing arithmetic processor 303 that has obtained the information about the approximate distance of the object distance of the subject read from the object approximate distance information detection apparatus 400 and the exposure information, performs an appropriate calculation on the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

上述のように、光波面変調機能を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置400により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
As described above, in the case of an imaging apparatus having an optical wavefront modulation function, an image signal without proper aberration can be generated by image processing within a predetermined focal length range. In the case of outside, there is a limit to the correction of image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 400 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

上記の画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
The above image processing is performed by convolution calculation. To realize this, for example, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the focal length, The correction coefficient is used to correct the calculation coefficient, and an appropriate convolution calculation can be performed using the corrected calculation coefficient.
In addition to this configuration, the following configuration can be employed.

焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The kernel size and the convolution calculation coefficient itself are stored in advance according to the focal length, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient according to the focal length is stored in advance as a function. In addition, it is possible to employ a configuration in which a calculation coefficient is obtained from this function based on the focal length and a convolution calculation is performed using the calculated calculation coefficient.

図17の構成に対応付けると次のような構成をとることができる。   When associated with the configuration of FIG. 17, the following configuration can be adopted.

変換係数記憶手段としてのレジスタ302に被写体距離に応じて少なくとも位相板113に起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき、レジスタ302から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 113 are stored in advance in the register 302 as the conversion coefficient storage means according to the subject distance. The image processing arithmetic processor 303 functions as a coefficient selection unit that selects a conversion coefficient corresponding to the distance from the register 302 to the subject based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit. .
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
Alternatively, as described above, the image processing calculation processor 303 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit, and stores it in the register 302. Store.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系110のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板113に起因する収差に対応した変換係数を予め記憶する。
そして、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 110 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 113 is stored in advance in the register 302 that also functions as the second conversion coefficient storage unit.
Then, based on the distance information generated by the object approximate distance information detection device 400 as the subject distance information generation means, the image processing arithmetic processor 303 as the correction value selection means performs a process from the register 302 as the correction value storage means to the subject. Select a correction value according to the distance.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図18に、露出情報と、物体距離情報と、撮影モードとを用いた場合のフィルタの構成例を示す。
この例では、物体距離情報と撮影モード情報で2次元的な情報を形成し、露出情報が奥行きのような情報を形成している。
FIG. 18 shows a configuration example of a filter in the case of using exposure information, object distance information, and shooting mode.
In this example, two-dimensional information is formed by object distance information and shooting mode information, and exposure information forms information such as depth.

図19は、撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図19は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300Bの構成例を示している。
FIG. 19 is a diagram illustrating a configuration example of an image processing apparatus that combines shooting mode information and exposure information.
FIG. 19 shows a configuration example of an image processing device 300B that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300Bは、図17と同様に、コンボリューション装置301、記憶手段としてのカーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   Similarly to FIG. 17, the image processing apparatus 300 </ b> B includes a convolution apparatus 301, a kernel / numerical calculation coefficient storage register 302 as a storage unit, and an image processing calculation processor 303.

この画像処理装置300Bにおいては、物体概略距離情報検出装置500から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300B, the image processing arithmetic processor 303 that has obtained the information about the approximate distance of the object distance of the subject read from the object approximate distance information detection apparatus 500 and the exposure information, calculates appropriate for the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

この場合も上述のように、光波面変調機能を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置500により検出し、検出した距離に応じて異なる画像補正の処理を行うように構成されている。
Also in this case, as described above, in the case of an imaging apparatus having a light wavefront modulation function, an image signal without proper aberration can be generated by image processing within a predetermined focal length range. When it is outside the focal length range, there is a limit to the correction of the image processing, so that only an object outside the range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection apparatus 500 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

上記の画像処理はコンボリューション演算により行うが、これを実現するには、コンボリューション演算の演算係数を共通で1種類記憶しておき、物体距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、物体距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成、物体距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The above image processing is performed by convolution calculation. To realize this, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the object distance. A configuration in which a correction coefficient is used to correct a calculation coefficient and an appropriate convolution calculation is performed using the corrected calculation coefficient, a calculation coefficient corresponding to the object distance is stored in advance as a function, and the calculation coefficient is calculated from this function according to the focal length. The convolution calculation is performed using the calculated calculation coefficient, the kernel size and the convolution calculation coefficient are stored in advance according to the object distance, and the convolution calculation is performed using the stored kernel size and calculation coefficient. It is possible to adopt a configuration or the like.

本実施形態においては、上述したように、DSCのモード設定(ポートレイト、無限遠(風景)、マクロ)に応じて画像処理を変更する。   In the present embodiment, as described above, the image processing is changed according to the DSC mode setting (portrait, infinity (landscape), macro).

図19の構成に対応付けると次のような構成をとることができる。   Corresponding to the configuration of FIG. 19, the following configuration can be taken.

前述したように、変換係数演算手段としての画像処理演算プロセッサ303を通して操作部180の撮影モード設定部600により設定される各撮影モードに応じて異なる変換係数を変換係数記憶手段としてのレジスタ302に格納する。
画像処理演算プロセッサ303が、撮影モード設定部600の操作スイッチ601により設定された撮影モードに応じて、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき、変換係数記憶手段としてのレジスタ302から変換係数を抽出する。このとき、たとえば画像処理演算プロセッサ303が変換係数抽出手段として機能する。
そして、変換手段としてのコンボリューション装置301が、レジスタ302に格納された変換係数によって、画像信号の撮影モードに応じた変換処理を行う。
As described above, different conversion coefficients are stored in the register 302 as the conversion coefficient storage unit according to each shooting mode set by the shooting mode setting unit 600 of the operation unit 180 through the image processing arithmetic processor 303 as the conversion coefficient calculation unit. To do.
Based on the information generated by the object approximate distance information detecting device 500 as the subject distance information generating unit, the image processing arithmetic processor 303 according to the shooting mode set by the operation switch 601 of the shooting mode setting unit 600 converts the conversion coefficient. A conversion coefficient is extracted from the register 302 serving as a storage unit. At this time, for example, the image processing arithmetic processor 303 functions as conversion coefficient extraction means.
Then, the convolution device 301 serving as a conversion unit performs conversion processing according to the image signal shooting mode using the conversion coefficient stored in the register 302.

また、図1のカーネルデータ格納ROMに関しても、光学倍率、Fナンバやそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。
図18のように3次元、さらには4次元以上とすることで格納量が多くなるが、種々の条件を考慮してより適したものを選択することができるようになる。情報としては、上述した露出情報、物体距離情報、撮像モード情報等であればよい。
Also, the kernel data storage ROM of FIG. 1 is not necessarily used for the optical magnification, F number, and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.
As shown in FIG. 18, the storage amount increases by setting to three dimensions or even four dimensions or more, but a more suitable one can be selected in consideration of various conditions. The information may be the above-described exposure information, object distance information, imaging mode information, or the like.

なお、上述のように、光波面変調素子を有する撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
As described above, in the case of an imaging apparatus having a light wavefront modulation element, an image signal without proper aberration can be generated by image processing within a predetermined focal length range. If it is out of the range, there is a limit to the correction of the image processing, so that only an object outside the range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.

本実施形態においては、DEOSを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, DEOS can be employed to obtain high-definition image quality, and the optical system can be simplified and the cost can be reduced.
Hereinafter, this feature will be described.

図20(A)〜(C)は、撮像素子120の受光面でのスポット像を示している。
図20(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図20(B)が合焦点の場合(Best focus)、図20(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図20(A)〜(C)からもわかるように、本実施形態に係る撮像装置100においては、光波面変調機能によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
20A to 20C show spot images on the light receiving surface of the image sensor 120.
20A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 20B shows a case where the focal point is a focal point (Best focus), and FIG. 20C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 20A to 20C, in the imaging apparatus 100 according to the present embodiment, a light beam having a deep depth (which plays a central role in image formation) and a flare (blurred portion) by the light wavefront modulation function. ) Is formed.

このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図21(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図21(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図21(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置140の補正処理に任せるため、図21(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 21A and 21B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens apparatus according to the present embodiment. FIG. 21A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 21B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 140 including a digital signal processor (Digital Signal Processor), for example, as shown in FIGS. 21A and 21B. The MTF of the primary image is essentially a low value.

画像処理装置140は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   As described above, the image processing apparatus 140 receives the primary image FIM from the image sensor 120 and performs a predetermined correction process or the like for raising the MTF at the spatial frequency of the primary image to form a high-definition final image FNLIM. To do.

画像処理装置140のMTF補正処理は、たとえば図22の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図22中曲線Bで示す特性に近づく(達する)ような補正を行う。
図22中曲線Bで示す特性は、たとえば本実施形態のように、光波面変調機能を発現させずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the image processing apparatus 140 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristics indicated by the curve B in FIG.
The characteristic indicated by curve B in FIG. 22 is a characteristic obtained when the wavefront is not deformed without exhibiting the optical wavefront modulation function, as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図22に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図22のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図23に示すようになる。
In the present embodiment, as shown in FIG. 22, in order to achieve the MTF characteristic curve B to be finally realized with respect to the MTF characteristic curve A with respect to the spatial frequency obtained optically, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic of FIG. 22, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、基本的に、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140からなり、光学系システムの中に、光波面変調機能の発現、非発現を切り替え可能な光学素子を新たに設けるか、光波面変調機能を有する光学系に光波面変調機能を相殺可能な逆光波面変調素子を設けることにより、結像の波面を変形(変調)し、そのような波面をCCDやCMOSセンサからなる撮像素子120の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置140を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像素子120による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置140で行う。
As described above, the imaging apparatus 100 according to the embodiment basically includes the optical system 110 and the imaging element 120 that form a primary image, and the image processing apparatus 140 that forms the primary image into a high-definition final image. In the optical system, an optical element capable of switching on / off of the light wavefront modulation function is newly provided, or an inverse light wavefront modulation element capable of canceling the light wavefront modulation function in an optical system having the light wavefront modulation function By deforming (modulating) the wavefront of imaging, such a wavefront is imaged on the imaging surface (light-receiving surface) of the imaging device 120 including a CCD or CMOS sensor, The image forming system obtains a high-definition image through the image processing apparatus 140.
In the present embodiment, the primary image from the image sensor 120 has a light beam condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 140.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly calculated numerically through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図20(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置140でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the target wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 140 made up of a later stage DSP or the like. Thereby, the MTF value is significantly improved.

次に、本実施形態および従来光学系のMTFのレスポンスについて考察する。   Next, the response of the MTF of this embodiment and the conventional optical system will be considered.

図24は、一般的な光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図25は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図26は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
FIG. 24 is a diagram illustrating the MTF response when the object is at the focal position and when the object is out of the focal position in the case of a general optical system.
FIG. 25 is a diagram illustrating the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 26 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学径よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, even when the object deviates from the focal position, the change in the MTF response is smaller than the optical diameter in which the light wavefront modulation element is not inserted.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

以上説明したように、本実施形態によれば、結像レンズによる撮像素子120の受光面への結像の波面を変形させる機能を有する光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子114を備えた光学系110と、光学系110を通過した被写体像を撮像する撮像素子120と、撮像素子120からの被写体の画像信号に対して所定の処理を施す画像処理装置140と、を有し、光学系110は外部依存型光波面変調素子114が、変調機能制御部200により光波面変調機能が非発現状態に制御されているときは、1焦点状態となり、発現状態に制御されているときは複数焦点状態となる。
また、本実施形態によれば光波面変調機能を含む光学系110Aと、光学系110Aを通過した被写体像を撮像する撮像素子120と、撮像素子120からの被写体の画像信号に対して所定の処理を施す画像処理装置140と、を有し、光学系110Aに、光波面変調素子112aの光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子117を配置し、光学系110Aは、外部依存型逆光波面変調素子117が、変調機能制御部200により逆光波面変調機能が発現状態に制御されているときは、1焦点状態となり、非発現状態に制御されているときは複数焦点状態となる。
したがって、以下の効果を得ることができる。
As described above, according to the present embodiment, the appearance or non-expression of the light wavefront modulation function having the function of deforming the wavefront of the image formed on the light receiving surface of the image sensor 120 by the imaging lens depends on the outside. An optical system 110 including a dependent light wavefront modulation element 114, an image sensor 120 that captures a subject image that has passed through the optical system 110, and image processing that performs predetermined processing on an image signal of the subject from the image sensor 120 The optical system 110 is in a one-focus state when the externally dependent light wavefront modulation element 114 is controlled to the non-expressed state by the modulation function control unit 200. When the state is controlled, a multi-focus state is obtained.
In addition, according to the present embodiment, the optical system 110A including the light wavefront modulation function, the image sensor 120 that captures the subject image that has passed through the optical system 110A, and predetermined processing on the image signal of the subject from the image sensor 120 An externally dependent inverse light wavefront modulation in which the appearance and non-expression of an inverse light wavefront modulation function that cancels the light wavefront modulation function of the light wavefront modulation element 112a depends on the outside. The element 117 is disposed, and the optical system 110A is in a one-focus state when the externally dependent inverse light wavefront modulation element 117 is controlled to be in an expression state by the modulation function control unit 200, and is in a non-expression state. When it is controlled to be in multiple focus state.
Therefore, the following effects can be obtained.

解像性能ピーク位置を容易に検出可能で、また、容易に検出可能な光学システムでありながら、用途に応じ深度拡張機能をなくすこともできる利点がある。
また、フォーカス調整はDEOS技術を用いることから画像全体にピントの合った復元画像を提供できる。特に監視カメラのような電子画像機器システムには最適な光学システムと言える。
The resolution performance peak position can be easily detected, and there is an advantage that the depth extension function can be eliminated depending on the application while the optical system can be easily detected.
Further, since the focus adjustment uses the DEOS technology, a restored image in which the entire image is in focus can be provided. In particular, it can be said to be an optimal optical system for an electronic image equipment system such as a surveillance camera.

また、画像処理装置140において、露出制御装置190からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行うことから、光学系を簡単化でき、コスト低減を図ることができ、しかもノイズの影響が小さい復元画像を得ることができる利点がある。
また、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部180等の入力により知り、適性となるカーネルサイズや上述した係数を対応させることにより、倍率やディフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。
また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景はぼかすといった、いわゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズのDEOSに使用することが可能である。
In addition, since the image processing device 140 performs the filtering process on the optical transfer function (OTF) according to the exposure information from the exposure control device 190, the optical system can be simplified and the cost can be reduced. Moreover, there is an advantage that a restored image that is less affected by noise can be obtained.
In addition, the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable, know by input from the operation unit 180, etc. There is an advantage that the lens can be designed without worrying about the image and that the image can be restored by convolution with high accuracy.
Also, a so-called natural image is obtained in which the object to be photographed is in focus and the background is blurred without requiring a highly difficult, expensive and large-sized optical lens and without driving the lens. There are advantages that can be made.
The imaging apparatus 100 according to the present embodiment can be used for DEOS of a zoom lens considering the small size, light weight, and cost of consumer devices such as a digital camera and a camcorder.

また、本実施形態においては、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する画像処理装置140とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens system having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging element 120 by the imaging lens 112 and the primary image FIM by the imaging element 120 are received. In addition, the image processing apparatus 140 that forms a high-definition final image FNLIM by performing a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image, so that high-definition image quality can be obtained. There is an advantage of becoming.
In addition, the configuration of the optical system 110 can be simplified, manufacturing becomes easy, and cost reduction can be achieved.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to this embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。   In this embodiment, the example in which the wavefront forming optical element of the optical system is arranged closer to the object side lens than the stop is shown. An effect can be obtained.

本発明に係る撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention. 本実施形態に係る外部依存型光波面変調素子の構成例および機能を説明するための図である。It is a figure for demonstrating the structural example and function of the external dependence type | mold optical wavefront modulation element which concern on this embodiment. 本実施形態に係る光学系の他の構成例を説明するための図である。It is a figure for demonstrating the other structural example of the optical system which concerns on this embodiment. 本実施形態に係る外部依存型逆光波面変調素子の構成例および機能を説明するための図である。It is a figure for demonstrating the structural example and function of the external dependence type | mold reverse light wavefront modulation element which concern on this embodiment. DEOSの原理を説明するための図である。It is a figure for demonstrating the principle of DEOS. 液晶素子にかかる電圧の切り替えと同時に、フィルタ(カーネル)の機能をも切り替える例を示す図である。It is a figure which shows the example which switches the function of a filter (kernel) simultaneously with switching of the voltage concerning a liquid crystal element. 液晶素子にかかる電圧の切り替えと同時に、モニタへの出力を切り替える例を示す図である。It is a figure which shows the example which switches the output to a monitor simultaneously with the switching of the voltage concerning a liquid crystal element. 液晶素子にかかる電圧の切り替えと同時に、画像処理部内の色収差補正機能を切り替える例を示す図である。It is a figure which shows the example which switches the chromatic aberration correction function in an image process part simultaneously with switching of the voltage concerning a liquid crystal element. 逆光波面変調機能を発現する液晶素子にかかる電圧の切り替えと同時に、フィルタ(カーネル)の機能をも切り替える例を示す図である。It is a figure which shows the example which switches the function of a filter (kernel) simultaneously with the switching of the voltage concerning the liquid crystal element which expresses a reverse light wavefront modulation function. 本実施形態に係る鏡枠構造の一例を示す図である。It is a figure which shows an example of the lens-frame structure which concerns on this embodiment. カーネルデータROMの格納データの他例(Fナンバ)を示す図である。It is a figure which shows the other example (F number) of the storage data of kernel data ROM. 露出制御装置の光学系設定処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the optical system setting process of an exposure control apparatus. 信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。It is a figure which shows the 1st structural example about a signal processing part and a kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。It is a figure which shows the 2nd structural example about a signal processing part and a kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。It is a figure which shows the 3rd structural example about a signal processing part and kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。It is a figure which shows the 4th structural example about a signal processing part and kernel data storage ROM. 被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines subject distance information and exposure information. 露出情報と、物体距離情報と、ズーム情報とを用いた場合のフィルタの構成例を示す図である。It is a figure which shows the structural example of the filter at the time of using exposure information, object distance information, and zoom information. 撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines imaging | photography mode information and exposure information. 本実施形態に係る撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)は合焦点の場合(Best focus)、(C)は焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element which concerns on this embodiment, Comprising: (A) is a case where a focus shifts 0.2 mm (Defocus = 0.2 mm), (B) is a case where it is a focusing point ( (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm). 本実施形態に係る撮像素子により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示す図である。It is a figure for demonstrating MTF of the primary image formed with the image pick-up element concerning this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an image pick-up lens apparatus, (B ) Is a diagram showing an MTF characteristic with respect to a spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 一般的な光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of a general optical system, and it remove | deviates from a focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図27の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 28A is a diagram showing a spot image on the light receiving surface of the image sensor of the imaging lens device of FIG. 27, where FIG. 27A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and FIG. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100,100A・・・撮像装置、110,110A・・・光学系、120・・・撮像素子、130・・・アナログフロントエンド部(AFE)、140・・・画像処理装置、150・・・カメラ信号処理部、180・・・操作部、190・・・露出制御装置、200・・・変調機能制御部、111・・・第1レンズ、112・・・第2レンズ、112a・・・光波面変調素子、113・・・絞り、114・・・外部依存型光波面変調素子、114a・・・光波面変調機能を発現可能な液晶素子、115・・・第3レンズ、116・・・第4レンズ、117・・・外部依存型逆光波面変調素子、117a・・・逆光波面変調機能を発現可能な液晶素子、142・・・コンボリューション演算器、143・・・カーネルデータROM、144・・・コンボリューション制御部。   DESCRIPTION OF SYMBOLS 100,100A ... Imaging device, 110, 110A ... Optical system, 120 ... Imaging element, 130 ... Analog front end part (AFE), 140 ... Image processing apparatus, 150 ... Camera Signal processing unit, 180 ... operation unit, 190 ... exposure control device, 200 ... modulation function control unit, 111 ... first lens, 112 ... second lens, 112a ... light wavefront Modulating element, 113... Aperture, 114... Externally dependent light wavefront modulating element, 114 a... Liquid crystal element capable of exhibiting a light wavefront modulating function, 115. Lens, 117... Externally dependent inverse light wavefront modulation element, 117a... Liquid crystal element capable of developing inverse light wavefront modulation function, 142... Convolution calculator, 143. Convolution control unit.

Claims (14)

光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子を含む光学系と、
前記光学系を通過した被写体像を撮像する撮像素子と、
前記外部依存型光波面変調素子の光波面変調機能の発現、非発現を制御する変調機能制御部と、
前記撮像素子からの被写体の画像信号に対して所定の処理を施す画像処理部と、を有し、
前記光学系は、
前記外部依存型光波面変調素子が、前記変調機能制御部により光波面変調機能が非発現状態に制御されているときは、1焦点状態となり、発現状態に制御されているときは複数焦点状態となる
撮像装置。
An optical system including an externally dependent optical wavefront modulation element in which the expression or non-expression of the optical wavefront modulation function depends on the outside;
An image sensor that images a subject image that has passed through the optical system;
A modulation function control unit for controlling the expression and non-expression of the light wavefront modulation function of the externally dependent light wavefront modulation element;
An image processing unit that performs a predetermined process on the image signal of the subject from the image sensor,
The optical system is
The externally dependent light wavefront modulation element is in a single focus state when the light wavefront modulation function is controlled to the non-expressed state by the modulation function control unit, and is in a multi-focus state when controlled to the manifestation state. An imaging device.
光波面変調素子を含む光学系と、
前記光学系の光路に配置され、前記光波面変調素子の光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子と、
前記光学系を通過した被写体像を撮像する撮像素子と、
前記外部依存型逆光波面変調素子の光波面変調機能の発現、非発現を制御する変調機能制御部と、
前記撮像素子からの被写体の画像信号に対して所定の処理を施す画像処理部と、を有し、
前記光学系は、
前記外部依存型逆光波面変調素子が、前記変調機能制御部により逆光波面変調機能が発現状態に制御されているときは、1焦点状態となり、非発現状態に制御されているときは複数焦点状態となる
撮像装置。
An optical system including an optical wavefront modulation element;
An externally dependent inverse light wavefront modulation element that is arranged in the optical path of the optical system and has an expression or non-expression of an inverse light wavefront modulation function that cancels the light wavefront modulation function of the light wavefront modulation element;
An image sensor that images a subject image that has passed through the optical system;
A modulation function controller for controlling the expression and non-expression of the light wavefront modulation function of the externally dependent inverse light wavefront modulation element;
An image processing unit that performs a predetermined process on the image signal of the subject from the image sensor,
The optical system is
The externally dependent inverse light wavefront modulation element is in a single focus state when the inverse light wavefront modulation function is controlled to be expressed by the modulation function control unit, and is in a multi-focus state when controlled to a non-expressed state. An imaging device.
前記画像処理部は、
所定の情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う機能を有し、
前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記画像処理部に作用するフィルタの切り替えとリンクしている
請求項1または2記載の撮像装置。
The image processing unit
A function of performing a filtering process on an optical transfer function (OTF) according to predetermined information;
The imaging apparatus according to claim 1, wherein switching between the expression and non-expression of the modulation function of the modulation function control unit is linked to switching of a filter that acts on the image processing unit.
前記画像処理部の画像処理後の画像をカラーまたは白黒で表示可能なモニタを有し、
前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記モニタ出力のカラー出力と白黒出力の切り替えとリンクしている
請求項1から3のいずれか一に記載の撮像装置。
A monitor capable of displaying the image after the image processing of the image processing unit in color or black and white;
The imaging apparatus according to any one of claims 1 to 3, wherein switching between the expression and non-expression of the modulation function of the modulation function controller is linked to the switching of the color output and the monochrome output of the monitor output.
前記画像処理部は、
所定の情報に応じて光学的伝達関数(OTF)に対するフィルタ処理による色収差補正機能を有し、
前記変調機能制御部の変調機能の発現、非発現の切り替えが、前記画像処理部の色収差補正機能の切り替えとリンクしている
請求項1から4のいずれか一に記載の撮像装置。
The image processing unit
A function of correcting chromatic aberration by filtering the optical transfer function (OTF) according to predetermined information,
The imaging apparatus according to any one of claims 1 to 4, wherein switching between the on / off of the modulation function of the modulation function control unit is linked to the switching of the chromatic aberration correction function of the image processing unit.
前記画像処理部は、複数種類の復元フィルタを用いて前記画像の復元処理を行う
請求項1から5のいずれか一に記載の撮像装置。
The imaging apparatus according to any one of claims 1 to 5, wherein the image processing unit performs the image restoration process using a plurality of types of restoration filters.
前記画像処理部は、フィルタの演算係数を格納するメモリ手段を有する
請求項1から6のいずれか一に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the image processing unit includes a memory unit that stores a calculation coefficient of a filter.
前記メモリ手段には、露出情報に応じたノイズ低減処理のための演算係数が格納される
請求項7記載の撮像装置。
The imaging device according to claim 7, wherein the memory means stores a calculation coefficient for noise reduction processing according to exposure information.
前記メモリ手段には、露出情報に応じた光学的伝達関数(OTF)復元のための演算係数が格納される
請求項7記載の撮像装置。
The imaging device according to claim 7, wherein the memory means stores a calculation coefficient for restoring an optical transfer function (OTF) according to exposure information.
前記撮像装置は、
被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、を備え、
前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する
請求項1から9のいずれか一に記載の撮像装置。
The imaging device
Subject distance information generating means for generating information corresponding to the distance to the subject,
The imaging device according to any one of claims 1 to 9, wherein the conversion unit generates an image signal that is less dispersed than the dispersed image signal based on information generated by the subject distance information generation unit.
前記撮像装置は、
被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、
前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を備え、
前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する
請求項1から9のいずれか一に記載の撮像装置。
The imaging device
Subject distance information generating means for generating information corresponding to the distance to the subject;
Conversion coefficient calculation means for calculating a conversion coefficient based on the information generated by the subject distance information generation means,
The imaging device according to any one of claims 1 to 9, wherein the conversion unit converts an image signal by using the conversion coefficient obtained from the conversion coefficient calculation unit to generate an image signal without dispersion.
前記撮像装置は、
撮影する被写体の撮影モードを設定する撮影モード設定手段と、を備え、
前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う
請求項1から9のいずれか一に記載の撮像装置。
The imaging device
Photographing mode setting means for setting the photographing mode of the subject to be photographed,
The imaging device according to any one of claims 1 to 9, wherein the conversion unit performs different conversion processing according to a shooting mode set by the shooting mode setting unit.
光波面変調機能の発現、非発現が外部に依存する外部依存型光波面変調素子を含む光学系を通過した被写体像を撮像素子で撮像し、前記撮像素子からの被写体の画像信号に対して所定の処理を施す撮像方法であって、
前記外部依存型光波面変調素子を、
光波面変調機能が非発現状態に制御して前記光学系を1焦点状態として光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するように形成した後、
発現状態に制御して複数焦点状態を形成する
撮像方法。
A subject image that has passed through an optical system including an externally dependent light wavefront modulation element whose expression or non-expression of the light wavefront modulation function depends on the outside is captured by an image sensor, and a predetermined image signal of the subject from the image sensor is obtained. An imaging method that performs the process of
The externally dependent light wavefront modulation element,
After the light wavefront modulation function is controlled to the non-expressed state and the optical system is in a single focus state, the light passing through the optical system is formed so as to form an image at different positions in the optical axis direction depending on the distance of the light source,
An imaging method in which a multi-focus state is formed by controlling the expression state.
光波面変調素子を含む光学系を通過した被写体像を撮像素子で撮像し、前記撮像素子からの被写体の画像信号に対して所定の処理を施す撮像方法であって、
前記光学系の光路に配置され、前記光波面変調素子の光波面変調機能を相殺する逆光波面変調機能の発現、非発現が外部に依存する外部依存型逆光波面変調素子を配置し、
前記外部依存型逆光波面変調素子を、
逆光波面変調機能が発現状態に制御して前記光学系を1焦点状態として光学系を通過する光が光源の距離によって光軸方向で異なる位置に結像するように形成した後、
非発現状態に制御して前記光学系を複数焦点状態とする
撮像方法。
An imaging method for imaging a subject image that has passed through an optical system including a light wavefront modulation element with an imaging element, and performing predetermined processing on an image signal of the subject from the imaging element,
An externally-dependent inverse light wavefront modulation element that is arranged in the optical path of the optical system and has an inverse light wavefront modulation function that cancels out the light wavefront modulation function of the light wavefront modulation element, the non-expression of which depends on the outside,
The externally dependent inverse light wavefront modulation element,
After the inverse light wavefront modulation function is controlled to the manifestation state and the optical system is in a single focus state, the light passing through the optical system is formed so as to form an image at different positions in the optical axis direction depending on the distance of the light source,
An imaging method in which the optical system is controlled to a non-expressing state to bring the optical system into a multifocal state.
JP2008044580A 2007-02-26 2008-02-26 Imaging apparatus and method Pending JP2008245266A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2008/053334 WO2008105431A1 (en) 2007-02-26 2008-02-26 Image picking-up device, image picking-up method, and device and method for manufacturing image picking-up device
JP2008044580A JP2008245266A (en) 2007-02-26 2008-02-26 Imaging apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007046253 2007-02-26
JP2008044580A JP2008245266A (en) 2007-02-26 2008-02-26 Imaging apparatus and method

Publications (1)

Publication Number Publication Date
JP2008245266A true JP2008245266A (en) 2008-10-09

Family

ID=39915979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044580A Pending JP2008245266A (en) 2007-02-26 2008-02-26 Imaging apparatus and method

Country Status (1)

Country Link
JP (1) JP2008245266A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188894A (en) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp Imaging device
JP2011160266A (en) * 2010-02-02 2011-08-18 Fujitsu Ltd Imaging apparatus, and image processing method
WO2012132870A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Focus extending optical system and edof imaging system
KR20140114734A (en) * 2013-03-19 2014-09-29 가부시끼가이샤 도시바 Optical system of electrical equipment, electrical equipment, and camera
WO2016013518A1 (en) * 2014-07-25 2016-01-28 オリンパス株式会社 Image-forming optical system, illumination device, observation device, and wavefront recovery element
WO2016056251A1 (en) * 2014-10-08 2016-04-14 オリンパス株式会社 Image-forming optical system, illumination device, and observation device
US10168283B2 (en) 2014-07-25 2019-01-01 Olympus Corporation Observation apparatus and method for sharpening final image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098303A (en) * 1998-09-21 2000-04-07 Olympus Optical Co Ltd Optical system with enlarged depth of field
JP2000275532A (en) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd Objective lens and its manufacture
WO2007013621A1 (en) * 2005-07-28 2007-02-01 Kyocera Corporation Imaging device and image processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098303A (en) * 1998-09-21 2000-04-07 Olympus Optical Co Ltd Optical system with enlarged depth of field
JP2000275532A (en) * 1999-03-24 2000-10-06 Olympus Optical Co Ltd Objective lens and its manufacture
WO2007013621A1 (en) * 2005-07-28 2007-02-01 Kyocera Corporation Imaging device and image processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188894A (en) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp Imaging device
JP2011160266A (en) * 2010-02-02 2011-08-18 Fujitsu Ltd Imaging apparatus, and image processing method
WO2012132870A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Focus extending optical system and edof imaging system
CN103460108A (en) * 2011-03-31 2013-12-18 富士胶片株式会社 Focus extending optical system and EDoF imaging system
US8743266B2 (en) 2011-03-31 2014-06-03 Fujifilm Corporation Focus extending optical system and EDOF imaging system
KR20140114734A (en) * 2013-03-19 2014-09-29 가부시끼가이샤 도시바 Optical system of electrical equipment, electrical equipment, and camera
KR101597879B1 (en) * 2013-03-19 2016-02-25 가부시끼가이샤 도시바 Optical system of electrical equipment, electrical equipment, and camera
WO2016013518A1 (en) * 2014-07-25 2016-01-28 オリンパス株式会社 Image-forming optical system, illumination device, observation device, and wavefront recovery element
JP2016031389A (en) * 2014-07-25 2016-03-07 オリンパス株式会社 Imaging optical system, illumination device, observation device, and wavefront recovery element
US10168283B2 (en) 2014-07-25 2019-01-01 Olympus Corporation Observation apparatus and method for sharpening final image
US10422747B2 (en) 2014-07-25 2019-09-24 Olympus Corporation Imaging optical system, illumination apparatus, observation apparatus, and wavefront recovery device
WO2016056251A1 (en) * 2014-10-08 2016-04-14 オリンパス株式会社 Image-forming optical system, illumination device, and observation device

Similar Documents

Publication Publication Date Title
JP4712631B2 (en) Imaging device
JP4663737B2 (en) Imaging apparatus and image processing method thereof
JP4749959B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4749984B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP2008268937A (en) Imaging device and imaging method
JP4749985B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP2007322560A (en) Imaging apparatus, and apparatus and method of manufacturing the same
JP4818957B2 (en) Imaging apparatus and method thereof
JP2008048293A (en) Imaging device and method for manufacturing same
JP5188397B2 (en) Imaging apparatus and information code reading apparatus
JP2007300208A (en) Imaging apparatus
JP2008245266A (en) Imaging apparatus and method
JP2009244430A (en) Imaging apparatus
JP2006311473A (en) Imaging device and imaging method
JP2009086017A (en) Imaging device and imaging method
JP4812541B2 (en) Imaging device
JP4813147B2 (en) Imaging apparatus and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP2008245265A (en) Imaging apparatus and its manufacturing apparatus and method
JP2009033607A (en) Imaging apparatus and image processing method
JP4722748B2 (en) Imaging apparatus and image generation method thereof
JP2009134023A (en) Imaging device and information code reading device
JP5197784B2 (en) Imaging device
JP2008058540A (en) Imaging apparatus and image processing method
JP2009008935A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120313