JP2008211678A - Imaging apparatus and method thereof - Google Patents

Imaging apparatus and method thereof Download PDF

Info

Publication number
JP2008211678A
JP2008211678A JP2007048132A JP2007048132A JP2008211678A JP 2008211678 A JP2008211678 A JP 2008211678A JP 2007048132 A JP2007048132 A JP 2007048132A JP 2007048132 A JP2007048132 A JP 2007048132A JP 2008211678 A JP2008211678 A JP 2008211678A
Authority
JP
Japan
Prior art keywords
image
blur
optical system
filter
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007048132A
Other languages
Japanese (ja)
Other versions
JP4818956B2 (en
Inventor
Hiroyuki Minagawa
博幸 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2007048132A priority Critical patent/JP4818956B2/en
Publication of JP2008211678A publication Critical patent/JP2008211678A/en
Application granted granted Critical
Publication of JP4818956B2 publication Critical patent/JP4818956B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus that can have an optical system simplified to lower the cost, and perform suitable restoration processing on a subject to be photographed, and to provide a method thereof. <P>SOLUTION: The imaging apparatus includes: the optical system 110 designed to have a nearly constant PSF before and behind a focusing position in spite of being not in focus at the focusing position; an imaging device 120; a blur processing unit 160 which performs blur restoration processing; a blur amount detecting circuit 190 which detects a blur amount; and a control unit 200 which detects a blur amount of an image after performing filtering processing, using an arbitrary blur restoring filter, on image data obtained by the imaging device and which selects a filter according to the blur amount from a blur restoring filter group to perform filtering processing. If the blur amount of the image is smaller when the arbitrary restoring filter is used than when the selected blur restoring filter is used, the control unit 200 performs control to perform the filtering processing using the blur restoring filter suitable to the focus position of the optical system. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系を有したデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等の撮像装置およびその方法に関するものである。   The present invention relates to an imaging apparatus such as a digital still camera, a camera mounted on a mobile phone, a camera mounted on a portable information terminal, an image inspection apparatus, and an industrial camera for automatic control using an imaging element and an optical system.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)、画像検査装置、自動制御用産業カメラ等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used in video cameras, digital video units, personal computers, mobile phones, personal digital assistants (PDAs), image inspection devices, industrial cameras for automatic control, and the like.

図25は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 25 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図25に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図26(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 25, the best focus surface is matched with the imaging element surface.
FIGS. 26A to 26C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.

また、位相板(Wavefront Coding optical element)等により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜6参照)。
また、伝達関数を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている(たとえば特許文献7参照)。
In addition, an imaging apparatus has been proposed in which a luminous flux is regularly dispersed by a phase plate (Wavefront Coding optical element) or the like, and is restored by digital processing so that an image can be taken with a deep depth of field (for example, non-patent) References 1, 2 and Patent References 1 to 6).
Further, an automatic exposure control system for a digital camera that performs filter processing using a transfer function has been proposed (see, for example, Patent Document 7).

また、特許文献8には、被写体像を結像する光学系の光路上に、透明弾性膜を対向させた内部に透明液体を封入して、レンズ形状を形成した可変焦点集光手段を構成し、外部から透明液体に所定の周期で圧力変化を与え、透明弾性膜の曲面の曲率を変化させて焦点距離を変化させ、視覚で残像現象が生じる全ての位置に焦点があった像を捕らえるカメラ装置が提案されている(たとえば特許文献7参照)。   Further, Patent Document 8 includes variable focus condensing means in which a transparent liquid is sealed in an optical path of an optical system that forms a subject image and a transparent elastic film is sealed inside to form a lens shape. A camera that captures images that are focused at all positions where afterimage phenomenon occurs visually, by applying a pressure change to the transparent liquid from the outside in a predetermined cycle, changing the curvature of the curved surface of the transparent elastic film, and changing the focal length. An apparatus has been proposed (see, for example, Patent Document 7).

"Wavefront Coding;jointly optimized optical and digital imaging systems",Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama."Wavefront Coding; jointly optimized optical and digital imaging systems", Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. "Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems",Edward R.Dowski,Jr.,Gregory E.Johnson."Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems", Edward R. Dowski, Jr., Gregory E. Johnson. USP6,021,005USP 6,021,005 USP6,642,504USP 6,642,504 USP6,525,302USP 6,525,302 USP6,069,738USP 6,069,738 特開2003−235794号公報JP 2003-235794 A 特開2000−98301号公報JP 2000-98301 A 特開2004−153497号公報JP 2004-153497 A 特開平9−230252号公報Japanese Patent Laid-Open No. 9-230252

上述した各文献にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかく、ズーム系やAF系などのレンズでは、その光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューション演算を行うことができず、ワイド(Wide)時やテレ(Tele)時のスポット(SPOT)像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。
しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
In the imaging devices proposed in the above-mentioned documents, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into a normal optical system is constant, When the PSF changes, it is extremely difficult to realize an image with a deep depth of field by convolution using a subsequent kernel.
Therefore, apart from a single-focus lens, a zoom system, an AF system, or the like has a great problem in adopting due to the high accuracy of the optical design and the associated cost increase.
In other words, in the conventional imaging apparatus, proper convolution calculation cannot be performed, and astigmatism and coma that cause a shift of a spot (SPOT) image at the time of wide or tele (Tele). Therefore, an optical design that eliminates various aberrations such as zoom chromatic aberration is required.
However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.

また、上述した各文献に開示された深度拡張システムにおいては、基本的に一律(1回)の復元処理を施す。この場合、深度拡張するための光学系を組み合わせるが、レンズの設定物体距離と、それ以外の物体距離では少なからず画像差が出てくる。この微小な画像差のため、復元処理を施しても、完全な復元にはならない。
したがって、一般的な深度拡張システムにおいては、撮影する被写体に対して最適な復元処理を施すことができないという不利益がある。
In addition, in the depth extension system disclosed in each of the above-mentioned documents, basically (one time) restoration processing is performed. In this case, an optical system for extending the depth is combined, but there is a considerable image difference between the lens set object distance and other object distances. Due to this minute image difference, even if the restoration process is performed, the restoration is not complete.
Therefore, in a general depth extension system, there is a disadvantage that an optimal restoration process cannot be performed on a subject to be photographed.

本発明の目的は、光学系を簡単化でき、コスト低減を図ることができ、しかも撮影する被写体に対して最適な復元処理を施すことが可能な撮像装置およびその方法を提供することにある。   An object of the present invention is to provide an imaging apparatus and method that can simplify an optical system, reduce costs, and perform an optimal restoration process on a subject to be photographed.

本発明の第1の観点の撮像装置は、光波面変調素子を含む光学系と、前記撮像光学系によって得られた像を電気信号に変換する撮像素子と、撮像素子で得られた画像のボケ量を検出する機能を有する演算手段と、前記光学系の焦点位置を基準としてデフォーカス量に応じた点広がり関数から算出されたボケ復元フィルタ群と、前記ボケ復元フィルタで前記画像データをフィルタリング処理するフィルタ手段と、前記撮像素子によって得られた画像データに、任意の前記ボケ復元フィルタによるフィルタリング処理を施した後に前記画像のボケ量を検出し、フィルタリングの結果ボケ量が最小となると推定される当該ボケ量に応じたフィルタを前記ボケ復元フィルタ群から選択して前記フィルタリング処理を行うように制御する制御部と、を有し、前記制御部は、前記選択したボケ復元フィルタより前記任意のボケ復元フィルタを用いたほうが前記画像のボケ量が小さい場合は、前記光学系の焦点位置に適した前記ボケ復元フィルタにて前記フィルタリング処理を行うように制御する。   An imaging apparatus according to a first aspect of the present invention includes an optical system including a light wavefront modulation element, an imaging element that converts an image obtained by the imaging optical system into an electrical signal, and blurring of an image obtained by the imaging element. A computing unit having a function of detecting the amount, a blur restoration filter group calculated from a point spread function corresponding to a defocus amount with reference to a focal position of the optical system, and filtering processing of the image data by the blur restoration filter The image data obtained by the filter means and the image sensor are subjected to filtering processing by an arbitrary blur restoration filter, and then the blur amount of the image is detected, and it is estimated that the blur amount is minimized as a result of filtering. A control unit that controls to perform the filtering process by selecting a filter corresponding to the blur amount from the blur restoration filter group. The control unit, when the blur amount of the image is smaller than the selected blur restoration filter, the filtering by the blur restoration filter suitable for the focal position of the optical system. Control to perform processing.

好適には、前記画像のボケ量の検出は画像データの振幅相関値とエッジの微分値の何れか若しくは両方に基づいて行う。   Preferably, the blur amount of the image is detected based on one or both of an amplitude correlation value of image data and an edge differential value.

好適には、前記制御部は、前記画像のボケ量からデフォーカス量の推定を行い、前記推定デフォーカス量に対して最適となるフィルタを選択する。   Preferably, the control unit estimates a defocus amount from the blur amount of the image, and selects a filter that is optimal for the estimated defocus amount.

好適には、前記光学系の焦点位置は至近端に設定されている。   Preferably, the focal position of the optical system is set at the closest end.

好適には、撮影距離に応じた複数の撮影モードを備え、前記複数の撮影モードのうち近距離の撮影に適した撮影モードが選択された場合は、前記光学系の焦点位置を至近端に設定する。   Preferably, a plurality of shooting modes corresponding to shooting distances are provided, and when a shooting mode suitable for short-distance shooting is selected from the plurality of shooting modes, the focal position of the optical system is set to the nearest end. Set.

好適には、前記任意のボケ復元フィルタは、前記撮像光学系が至近端と無限遠の焦点位置の略中央となる位置でデフォーカスが無い状態に対して最適となるように設定されている。   Preferably, the arbitrary blur restoration filter is set so as to be optimal for a state where there is no defocus at a position where the imaging optical system is approximately the center of the focal position between the closest end and the infinity. .

好適には、前記画像データの振幅相関値とエッジの微分値の何れか若しくは両方は画面内の所定の領域に対して検出を行う。   Preferably, either or both of the amplitude correlation value and the edge differential value of the image data are detected in a predetermined area in the screen.

好適には、前記画面内の所定の領域は任意に設定が可能である。   Preferably, the predetermined area in the screen can be arbitrarily set.

本発明の第2の観点の撮像方法は、光波面変調素子を含む光学系を通過した被写体像を撮像素子により撮像し、前記撮像素子によって得られた画像データに、任意の前記ボケ復元フィルタを選択してフィルタリング処理を施し、フィルタリング処理を受けた後に前記画像のボケ量を検出し、フィルタリングの結果ボケ量が最小となると推定される当該ボケ量に応じたフィルタを前記光学系の焦点位置を基準としてデフォーカス量に応じた点広がり関数から算出された前記ボケ復元フィルタ群から選択して前記フィルタリング処理を行い、前記選択したボケ復元フィルタより前記任意のボケ復元フィルタを用いたほうが前記画像のボケ量が小さい場合は、前記光学系の焦点位置に適した前記ボケ復元フィルタにて前記フィルタリング処理を行う。   The imaging method of the second aspect of the present invention is to capture an image of a subject that has passed through an optical system including a light wavefront modulation element with an imaging element, and apply an arbitrary blur restoration filter to image data obtained by the imaging element. Select and perform filtering processing, detect the blur amount of the image after receiving the filtering processing, and filter the filter according to the blur amount estimated to be the minimum blur amount as a result of filtering the focal position of the optical system The filtering process is performed by selecting from the blur restoration filter group calculated from the point spread function corresponding to the defocus amount as a reference, and the arbitrary blur restoration filter is used instead of the selected blur restoration filter. When the amount of blur is small, the filtering process is performed by the blur restoration filter suitable for the focal position of the optical system.

本発明によれば、光学系を簡単化でき、コスト低減を図ることができ、しかも撮影する被写体に対して最適な復元処理を施すことができる。   According to the present invention, the optical system can be simplified, the cost can be reduced, and an optimal restoration process can be performed on the subject to be photographed.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。   FIG. 1 is a block diagram illustrating an embodiment of an imaging apparatus according to the present invention.

本実施形態に係る撮像装置100は、光学系110、撮像素子120、アナログデジタルコンバータ(A/D)130、信号処理部140、第1メモリ150、ボケ復元処理部160、第2メモリ170、復元フィルタ部180、ボケ量検出回路190、制御部200、デジタルアナログコンバータ(D/A)210、およびモニタ装置220を有している。   The imaging apparatus 100 according to the present embodiment includes an optical system 110, an imaging device 120, an analog / digital converter (A / D) 130, a signal processing unit 140, a first memory 150, a blur restoration processing unit 160, a second memory 170, and restoration. A filter unit 180, a blur amount detection circuit 190, a control unit 200, a digital-analog converter (D / A) 210, and a monitor device 220 are included.

本実施形態の撮像装置100は、基本的に、光波面変調素子により規則的に分散した画像をデジタル処理により、光学系110を移動させずにピントの合った画像に復元する波面収差制御光学系システム、あるいは深度拡張光学系システム(DEOS:Depth Expantion Optical system)を採用しており、この復元処理を制御部200の制御の下、ボケ復元処理部160で行う。   The imaging apparatus 100 according to the present embodiment basically includes a wavefront aberration control optical system that restores an image regularly dispersed by a light wavefront modulation element to a focused image without moving the optical system 110 by digital processing. A system or a depth expansion optical system (DEOS: Depth Expansion Optical system) is employed, and this restoration processing is performed by the blur restoration processing unit 160 under the control of the control unit 200.

そして、DEOSを採用した本実施形態の撮像装置100は、撮影深度を深くする画像処理系において、最適な処理ルーチンを施すことにより、より良い画像作成をすることが可能な撮影システムとして構成されている。   The imaging apparatus 100 according to the present embodiment adopting DEOS is configured as an imaging system capable of creating a better image by performing an optimal processing routine in an image processing system that increases the imaging depth. Yes.

通常の深度拡張システムにおける画像復元処理は、一律(1回)の復元処理を施す。この場合、深度拡張するための光学系を組み合わせるが、レンズの設定物体距離と、それ以外の物体距離では少なからず画像差が出てくる。この微小な画像差のため、復元処理を施しても、完全な復元にはならない。
そのため、本実施形態においては、撮影する被写体に対しての最適な復元処理を施すことができるように、一度復元処理を行った後、その被写体像の情況に合わせ、最適な画像復元量を算出し、その最適な復元処理にて再度復元する。
Image restoration processing in a normal depth extension system performs uniform (one time) restoration processing. In this case, an optical system for extending the depth is combined, but there is a considerable image difference between the lens set object distance and other object distances. Due to this minute image difference, even if the restoration process is performed, the restoration is not complete.
Therefore, in the present embodiment, after performing the restoration process once so that the optimum restoration process can be performed on the subject to be photographed, the optimum image restoration amount is calculated according to the situation of the subject image. Then, it restores again by the optimum restoration process.

図2は、本実施形態に係る復元処理の基本概念を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining the basic concept of the restoration processing according to the present embodiment.

図2に示すように、被写体を撮影し(ST1)、一度規定のフィルタリング処理を施し復元処理を行う(ST2)。
フィルタリング処理を受けた後に撮像素子により得られた被写体の画像データの振幅相関値とエッジの微分値の何れか若しくは両方を検出し(ST3)、たとえば被写体の物体距離(復元処理係数)を決定する(ST4)。
そして、この決定に応じたフィルタをボケ復元フィルタ群から選択して新復元係数で再度フィルタリング処理による復元処理を行う(ST5)。
そして、新復元処理による画像のほうが規定復元処理の画像よりボケ量が多いか否かを比較し(ST6)、多い場合には、至近端フィルタでの復元処理を行う(ST7)。
これにより、撮影する被写体に対しての最適な復元処理を施すことができる。
As shown in FIG. 2, the subject is photographed (ST1), and once subjected to a prescribed filtering process, a restoration process is performed (ST2).
Either or both of the amplitude correlation value and the edge differential value of the image data of the subject obtained by the image sensor after receiving the filtering process are detected (ST3), for example, the object distance (restoration processing coefficient) of the subject is determined. (ST4).
Then, a filter corresponding to this determination is selected from the blur restoration filter group, and restoration processing by filtering processing is performed again with the new restoration coefficient (ST5).
Then, it is compared whether or not the image by the new restoration process has a larger amount of blur than the image by the prescribed restoration process (ST6), and if it is larger, the restoration process by the near-end filter is performed (ST7).
As a result, it is possible to perform an optimal restoration process on the subject to be photographed.

この画像復元処理を行うレンズは、測距によるレンズ駆動部が無いためレンズを固定する。今システムでは、レンズを至近位置に配置し、基本的な性能確保するために、スナップ用としての至近被写体側で設置する。   The lens that performs this image restoration processing is fixed because there is no lens driving unit for distance measurement. In the current system, the lens is placed at a close position, and is installed on the close subject side for snapping to ensure basic performance.

光学系110は、被写体物体OBJを撮影した像を撮像素子120に供給する。
本実施形態の光学系110は、後述するように、光波面変調素子を含み、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成されている。
The optical system 110 supplies an image obtained by photographing the subject object OBJ to the image sensor 120.
As will be described later, the optical system 110 of the present embodiment includes a light wavefront modulation element, and is formed so that the amount of blurring of the focal point is substantially constant at the in-focus position and the distance before and after the in-focus position.

撮像素子120は、光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号(FIM)として、アナログデジタルコンバータ部130を介して信号処理部140に出力するCCDやCMOSセンサからなる。
本実施形態では、撮像素子120の撮像面は、光学系110のレンズ至近位置に配置されている。
The image sensor 120 forms an image captured by the optical system 110 and outputs the primary image information of the image formation as a primary image signal (FIM) of an electrical signal to the signal processing unit 140 via the analog-digital converter unit 130. It consists of a CCD or CMOS sensor.
In the present embodiment, the image pickup surface of the image pickup device 120 is disposed at a lens close position of the optical system 110.

アナログデジタルコンバータ130は、撮像素子120で得られるアナログ画像信号FIMをデジタル信号に変換して信号処理部140に出力する。
信号処理部140は、デジタル画像信号の処理の画像処理を施して第1メモリ150に格納する。
The analog-digital converter 130 converts the analog image signal FIM obtained by the image sensor 120 into a digital signal and outputs the digital signal to the signal processing unit 140.
The signal processing unit 140 performs image processing of processing of the digital image signal and stores it in the first memory 150.

ボケ復元処理部160は、第1メモリ150に可能された撮像画像のデジタル信号を入力し、二次元のコンボリューション処理を施し、第2メモリ170に格納する。
ボケ復元処理部160は、制御部200の露出情報や被写体画像データの振幅相関値(エッジの微分値)に基づくボケ復元デジタルフィルタの選定結果に応じたデジタルフィルタを復元フィルタ180として用いて、光学的伝達関数(OTF)を介して撮像された画像データに対してフィルタ処理を行って、ボケ復元処理を行い、ボケ復元処理後の画像を第2メモリ170に格納する。
ボケ復元処理部160は、撮像素子120からの画像の焦点のボケを補正して復元した画像信号を生成する。より具体的には、ボケ復元処理部160は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する機能を有する。
The blur restoration processing unit 160 inputs a digital signal of the captured image that is made available in the first memory 150, performs a two-dimensional convolution process, and stores it in the second memory 170.
The blur restoration processing unit 160 uses a digital filter corresponding to the selection result of the blur restoration digital filter based on the exposure information of the control unit 200 and the amplitude correlation value (edge differential value) of the subject image data as the restoration filter 180, and performs optical A filter process is performed on the image data imaged via the dynamic transfer function (OTF), a blur restoration process is performed, and an image after the blur restoration process is stored in the second memory 170.
The blur restoration processing unit 160 generates a restored image signal by correcting the focal blur of the image from the image sensor 120. More specifically, the blur restoration processing unit 160 has a function of generating an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

復元フィルタ部180は、ボケ復元処理部160においてボケ復元処理に用いる複数のデジタルフィルタが用意され、制御部200の指示に従ったデジタルフィルタがボケ復元処理部160で用いられる。   In the restoration filter unit 180, a plurality of digital filters used for blur restoration processing are prepared in the blur restoration processing unit 160, and a digital filter according to an instruction from the control unit 200 is used in the blur restoration processing unit 160.

ボケ量検出回路190は、第2メモリ170に格納されたボケ復元処理画像を読み出して、制御部210の制御の下、画像データの振幅相関値とエッジの微分値の何れか若しくは両方に基づいて行い、損結果を制御部200に出力する。   The blur amount detection circuit 190 reads the blur restoration processing image stored in the second memory 170, and based on one or both of the amplitude correlation value and the edge differential value of the image data under the control of the control unit 210. The loss result is output to the control unit 200.

制御部200は、露出制御を行うとともに、操作部などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、システム全体の調停制御を司るものである。
制御部200は、振幅相関値検出回路190により供給されたボケ復元処理が施された画像に対して、カラー補間、ホワイトバランス、YCbCr変換処理、圧縮、ファイリング等の所定の画像処理を行い、図示しないメモリへの格納やモニタ装置220への画像表示制御等を行う。
制御部200は、複数のデジタルフィルタを用い、各デジタルフィルタでのボケ復元処理を行わせ、ボケ量検出回路190の検出結果に応じて2復元処理に用いる最適なフィルタを選択させる。
そして、制御部200は、新復元処理による画像のほうが規定復元処理の画像よりボケ量が多いか否かを比較し、多い場合には、至近端フィルタでの復元処理を行うように制御する。
The control unit 200 performs exposure control and has operation inputs of the operation unit and the like, determines the operation of the entire system according to those inputs, and controls arbitration control of the entire system.
The control unit 200 performs predetermined image processing such as color interpolation, white balance, YCbCr conversion processing, compression, and filing on the image subjected to the blur restoration processing supplied from the amplitude correlation value detection circuit 190. Storage in a memory that is not used, image display control on the monitor device 220, and the like.
The control unit 200 uses a plurality of digital filters, performs blur restoration processing with each digital filter, and selects an optimum filter used for the two restoration processing according to the detection result of the blur amount detection circuit 190.
Then, the control unit 200 compares whether or not the image by the new restoration process has a larger amount of blur than the image by the prescribed restoration process, and if so, controls to perform the restoration process by the near-end filter. .

デジタルアナログコンバータ210は、制御部200で処理されたデジタルデータをアナログデータに変換してモニタ装置220に出力する。   The digital / analog converter 210 converts the digital data processed by the control unit 200 into analog data and outputs the analog data to the monitor device 220.

モニタ装置220は、たとえば液晶表示装置により形成され、制御部200で所定の画像処理を受けた画像やデコード等を表示する。   The monitor device 220 is formed of, for example, a liquid crystal display device, and displays an image that has undergone predetermined image processing by the control unit 200, a decoding, and the like.

ここで、図3〜図5に関連付けて、本実施形態におけるピントの合った最適な画像を得るためのボケ復元用のデジタルフィルタの選択処理について説明する。   Here, with reference to FIGS. 3 to 5, the selection process of the digital filter for blur restoration for obtaining the optimal image in focus in the present embodiment will be described.

前述したように、測距によるレンズ駆動部が無いためレンズを固定する。今システムでは、レンズを至近位置に配置し、基本的な性能確保するために、スナップ用としての至近被写体側で設置する。   As described above, since there is no lens driving unit for distance measurement, the lens is fixed. In the current system, the lens is placed at a close position, and is installed on the close subject side for snapping to ensure basic performance.

レンズの設置位置が至近端とわかっているため、ボケ像は遠距離側の前ピンであることが殆どであり、距離によるレンズのボケ具合の情報は予めシステム側で持っていて、撮影後に一定の復元処理を施せば、その像のコントラスト(ボケ量)よりデフォーカス量(物体像距離)が推定され、その推定された距離に見合う復元画像処理を行う。   Since the position of the lens is known as the closest end, the blurred image is mostly the front pin on the far side, and information on the degree of lens blur depending on the distance is held in advance by the system, and after shooting If a certain restoration process is performed, a defocus amount (object image distance) is estimated from the contrast (blur amount) of the image, and a restored image process corresponding to the estimated distance is performed.

ボケ量の検出は画像データの振幅相関値とエッジの微分値の何れか若しくは両方に基づいて行うことが可能である。
通常、画像のボケ状態(ピントの状態)は振幅相関値(コントラストの強弱)に相関があるが、これは被写体の明るさに影響を受ける。自動露出制御で受光量は一定の明るさになるように制御されてはいるが、何らかの条件の変化等で絶対値が変化することは否めない。
このような場合でも画像のエッジの微分値を用いれば、明るさの影響を受けることなく絶対値検出が可能である。もちろんこれらを組み合わせて使い、ボケ量の検出をすることも可能である。
The amount of blur can be detected based on one or both of the amplitude correlation value and the edge differential value of the image data.
Normally, the blurred state (focus state) of an image is correlated with the amplitude correlation value (contrast strength), but this is affected by the brightness of the subject. Although the amount of received light is controlled to have a constant brightness by automatic exposure control, it cannot be denied that the absolute value changes due to a change in some condition.
Even in such a case, if the differential value of the edge of the image is used, the absolute value can be detected without being affected by the brightness. Of course, it is also possible to detect the amount of blur using a combination of these.

本実施形態の特徴は、一回復元処理を施すことにより、物体距離の推定精度を高めることが出来ることにあり、それにより、撮影された物体像ボケ(距離)に合わせた復元処理を行うことである。この最適な処理を施すことで、測距駆動系のいらない撮影システムが出来る。特に、F値の小さいレンズ系になればより効果が発揮される。   The feature of this embodiment is that it is possible to improve the estimation accuracy of the object distance by performing the restoration process once, thereby performing the restoration process according to the photographed object image blur (distance). It is. By performing this optimum processing, an imaging system that does not require a distance measuring drive system can be obtained. In particular, a lens system with a small F-number is more effective.

至近側での距離差と、遠距離側での距離差における、センサ面上でのボケ量は、至近側のほうが大きい。このため、センサ位置を至近側に設置しておけば、一般撮影において、距離推定(フィルター推定)するときに、至近近傍での推定は遠距離側より高精度に推定できる。
一方、遠距離側の推定は粗くなるが、遠距離側の推定誤差のボケ変化量は小さく済む。
The amount of blur on the sensor surface between the distance difference on the near side and the distance difference on the far side is larger on the near side. For this reason, if the sensor position is installed on the close side, when performing distance estimation (filter estimation) in general imaging, estimation in the close vicinity can be estimated with higher accuracy than on the far side.
On the other hand, although the estimation on the far side becomes rough, the blur change amount of the estimation error on the far side is small.

図3は、撮影距離とセンサ(撮像素子)上でのボケ量の関係を示す図である。   FIG. 3 is a diagram showing the relationship between the shooting distance and the amount of blur on the sensor (imaging device).

図3に示すように、撮影距離差 A=B に対して、それぞれの距離差におけるボケ量差(C、D)は、 C > D となる。
しかしながら、被写体は常に至近端より無限遠側にあるとは限らない。レンズの仕様上の至近端より更に近距離側(超至近)に被写体が存在する場合、得られる画像にはボケが生じ、そのボケから被写体が至近端より無限縁側にあるのか、超至近にあるのかは判別できない。
つまり、必ずしもボケ量が大きいほど被写体距離は無限遠側とはならず、ボケ量から被写体距離を推定して一義的に選択したフィルタを用いてボケ復元処理を行なうと、選択前のフィルタでボケ復元した画像よりボケの大きい画像となってしまう。
As shown in FIG. 3, with respect to the shooting distance difference A = B, the blur amount difference (C, D) at each distance difference is C> D.
However, the subject is not always on the infinity side from the closest end. If the subject is located closer to the near end (super close) than the close end of the lens specifications, the resulting image will be blurred, and whether the subject is on the infinite edge side from the close end will be very close Cannot be determined.
In other words, the subject distance does not necessarily reach the infinity side as the blur amount increases, and if the blur restoration process is performed using a filter that is uniquely selected by estimating the subject distance from the blur amount, the subject filter is not blurred. The image is more blurred than the restored image.

この問題を解決するためには、推定した被写体距離によって選択したフィルタを用いてボケ復元処理を行なった画像のボケ量が選択前のフィルタでボケ復元処理を行なった画像のボケ量より大きい場合は、被写体が超至近領域にあるものと判断して、至近端距離に適したフィルタを選択してボケ復元処理を行う。
また、上述のレンズを至近端に設定する構成及び処理は、特に被写体が近距離に存在する場合に有効であることから、マクロ撮影モードにおいて用い、通常の撮影モードではレンズ位置を無限遠に設定して処理を実施するという様に、撮影モードに応じて切り替えて用いることも可能である。
In order to solve this problem, when the blur amount of the image subjected to the blur restoration process using the filter selected based on the estimated subject distance is larger than the blur amount of the image subjected to the blur restoration process using the filter before selection, Then, it is determined that the subject is in the extremely close range, and a filter suitable for the close end distance is selected to perform blur restoration processing.
The configuration and processing for setting the lens at the closest distance are particularly effective when the subject is at a short distance. Therefore, it is used in the macro shooting mode, and the lens position is set to infinity in the normal shooting mode. It is also possible to switch and use depending on the shooting mode, such as setting and executing the process.

デフォーカス量を推定するために最初に用いるボケ復元フィルタは、至近側、無限側の何れに対しても精度良くボケ量を検出できるように、撮像光学系が至近端と無限遠の焦点位置の略中央となる位置でデフォーカスが無い状態に対して最適となるように設計されたものを用いる。   The blur restoration filter that is used first to estimate the defocus amount is designed so that the imaging optical system can detect the blur amount accurately on both the near side and the infinity side. Is designed so as to be optimal for a state where there is no defocus at a position which is approximately the center of.

図4は、被写体距離と焦点距離との関係を示す図である。   FIG. 4 is a diagram illustrating the relationship between the subject distance and the focal length.

<1>:初期設定である任意のフィルタによりボケ復元した画像からAのボケ量を検出する。ただし、以下の何れの状態にあるものなのかの判別は不能である。
・被写体が至近端より無限遠側のbの位置にあることによる結果のA’、
・超至近のaの位置にあることによる結果のA。
<1>: A blur amount of A is detected from an image restored by blurring using an arbitrary filter which is an initial setting. However, it is impossible to determine which of the following states is present.
A 'as a result of the subject being at a position b on the infinity side from the closest end,
-A of the result by being in the position of a very close a.

<2>:Aのボケ量からbという被写体距離を推定し、bの距離に適したフィルタを選択してボケ復元処理を実施する。 <2>: The subject distance b is estimated from the blur amount A, and a filter suitable for the distance b is selected to perform the blur restoration process.

<3>:ボケ復元した画像のボケ量を検出すると、B>A となり、初期設定のフィルタの場合より増大する。 <3>: When the amount of blur of the restored image is detected, B> A, which is larger than in the case of the default filter.

<4>:至近端距離に最適なフィルタにてボケ復元処理を行う。 <4>: The blur restoration process is performed using a filter that is optimal for the closest distance.

なお、画像データのピントのボケ量は、たとえば図5(A)〜(C)に示すように、モニタ220に表示される画面内の処理の領域(図中、破線で示す領域AR1,AR2,AR3)に対して検出を行うように構成することも可能である。
図5(A)はたとえば初期設定領域AR1を示している。
図5(B)は主要被写体をカバーするように、設定領域をAR1からAR2に拡大した場合を示している。
図5(C)は主要被写体に併せて設定領域をAR1からAR3に移動した場合を示している。
Note that, as shown in FIGS. 5A to 5C, for example, as shown in FIG. 5A to FIG. It is also possible to configure to detect for AR3).
FIG. 5A shows, for example, the initial setting area AR1.
FIG. 5B shows a case where the setting area is expanded from AR1 to AR2 so as to cover the main subject.
FIG. 5C shows a case where the setting area is moved from AR1 to AR3 along with the main subject.

以下に、本実施形態の光学系の基本的な機能およびボケ画像復元の有無に応じた基本的な処理について説明した後、本実施形態の特徴である光学系110とボケ復元処理部160のさらに具体的な構成および機能について具体的に説明する。   The basic function of the optical system according to the present embodiment and the basic processing according to the presence / absence of the blurred image restoration will be described below, and then the optical system 110 and the blur restoration processing unit 160 that are features of the present embodiment are further described. A specific configuration and function will be specifically described.

ここでは、ベストフォーカス(焦点)位置で光線が集中する一般的な結像光学系を比較例として挙げる。
図6は、一般的な結像光学系の光線高さとデフォーカスとの関係を示す図である。
また、図7は、本実施形態の光学系の結像付近の光学特性を示す図である。
Here, a general imaging optical system in which light rays concentrate at the best focus (focal point) position will be described as a comparative example.
FIG. 6 is a diagram illustrating the relationship between the light beam height and defocus of a general imaging optical system.
FIG. 7 is a diagram showing optical characteristics in the vicinity of image formation of the optical system of the present embodiment.

図6に示すように、一般的な結像光学系においては、ベストフォーカスの位置では光線が最も密に集中し、ベストフォーカス位置から離れていくとそのデフォーカス量にほぼ比例してボケ径が広がる。
これに対し、本実施形態の光学系110は、図7に示すように、一般的な結像系光学系と異なり、ベストフォーカスの位置で光線が集中しないため、ベストフォーカス位置であってもボケている。しかしながら、本実施形態の光学系110は、このベストフォーカス近傍では、デフォーカス量に対してボケの形(PSF)の変化が鈍感になるように設計されている。
したがって、ベストフォーカス位置のPSFに応じたボケ復元処理を行えば、ベストフォーカス点はもちろんその前後もボケを除去し鮮明な画像を得ることができる。
これが本実施形態で採用している深度拡大の原理である。
As shown in FIG. 6, in a general imaging optical system, light rays are most densely concentrated at the best focus position, and when the distance from the best focus position is increased, the blur diameter is approximately proportional to the defocus amount. spread.
On the other hand, as shown in FIG. 7, the optical system 110 according to the present embodiment does not concentrate light rays at the best focus position, unlike the general imaging system optical system. ing. However, the optical system 110 according to the present embodiment is designed so that the change in the blur shape (PSF) is insensitive to the defocus amount in the vicinity of the best focus.
Therefore, if a blur restoration process according to the PSF at the best focus position is performed, a clear image can be obtained by removing the blur not only before and after the best focus point.
This is the principle of depth expansion adopted in this embodiment.

次に、ボケ画像復元処理について説明する。
図8、一般的な光学系のベストフォーカス(BestForcus)位置でのMTF(Modulation Transfer Function:振幅伝達関数)特性図である。
図9は、本実施形態の光学系のMTF特性を示す図である。
Next, the blurred image restoration process will be described.
FIG. 8 is an MTF (Modulation Transfer Function) characteristic diagram at the best focus position of a general optical system.
FIG. 9 is a diagram showing the MTF characteristics of the optical system of the present embodiment.

本実施形態の光学系110を通過して撮像素子120で得られた撮像画像はボケているため中域〜高域にかけてMTFが低下している。このMTFを演算によって上昇させる。レンズ単体の振幅特性であるMTFに対し、画像処理を含めたトータルの振幅特性はSFR(Spatial Frequency Response)と呼ばれている。
ボケ画像を発生させるPSFの周波数特性がMTFであるので、これから所望のSFR特性まで引き上げるゲイン特性に設計してできたものがボケ復元フィルタである。どの程度のゲインにするかはノイズや偽像とのバランスで決めていく。
Since the picked-up image obtained by the image pickup device 120 after passing through the optical system 110 of the present embodiment is blurred, the MTF decreases from the middle range to the high range. This MTF is raised by calculation. In contrast to the MTF, which is the amplitude characteristic of a single lens, the total amplitude characteristic including image processing is called SFR (Spatial Frequency Response).
Since the frequency characteristic of a PSF that generates a blurred image is MTF, a blur restoration filter is designed to have a gain characteristic that is increased to a desired SFR characteristic. The degree of gain is determined by the balance with noise and false images.

このボケ復元フィルタを元画像にデジタルフィルタリングする方法は、画像をフーリエ変換し周波数領域でフィルタと周波数毎に積を取る方法と、空間領域でコンボリューション(Convolution)演算(畳み込み演算)を行なう方法がある。ここでは後者での実現方法を説明する。コンボリューション演算は下記の式で表される。   There are two methods for digitally filtering this blur restoration filter to the original image: Fourier transforming the image and multiplying the filter and frequency in the frequency domain, and convolution (convolution) in the spatial domain. is there. Here, the latter implementation method will be described. The convolution operation is expressed by the following equation.

Figure 2008211678
Figure 2008211678

ただし、fはフィルタ(filter)カーネルを示している(ここでは計算を容易にするために180度回転済みのものを使用している)。
また、Aは元画像、Bはフィルタリングされた画像(ボケ復元画像)を示している。
この式から分かる通り、fを画像に重ねて各タップ同士の積和した結果をその重ねた中心座標の値とすることである。
Here, f indicates a filter kernel (here, the one rotated 180 degrees is used for easy calculation).
A indicates an original image, and B indicates a filtered image (blurred restored image).
As can be seen from this equation, f is superimposed on the image and the result of summing the products of the taps is taken as the value of the center coordinate that has been superimposed.

次に、図10(A)〜(C)に関連付けて3*3のフィルタを例に挙げ具体的に説明する。
図10(A)の復元フィルタ(既に180度回転済み)を図10(B)に示すボケ画像のA(i,j)上にフィルタの中心f(0,0)を重ね、各タップ同士の積をとりこの9個の総和値を図10(C)に示すボケ復元画像のB(i,j)とする。
(i,j)を画像全体に渡ってスキャンすると新たなB画像が生成される。これがデジタルフィルタである。ここではフィルタがボケ復元目的であるので、この処理を行なうことでボケ復元処理を実施することができる。
Next, a 3 * 3 filter will be specifically described with reference to FIGS. 10A to 10C.
The restoration filter of FIG. 10A (already rotated by 180 degrees) is overlaid with the filter center f (0,0) on A (i, j) of the blurred image shown in FIG. The product is taken and the nine total values are set as B (i, j) of the blurred restored image shown in FIG.
When (i, j) is scanned over the entire image, a new B image is generated. This is a digital filter. Here, since the filter is used for blur restoration, blur restoration processing can be performed by performing this processing.

以下、本実施形態の光学系、画像処理装置の構成および機能についてさらに具体的には説明する。   Hereinafter, the configuration and function of the optical system and the image processing apparatus of the present embodiment will be described more specifically.

図11は、本実施形態に係る光学系110の構成例を模式的に示す図である。   FIG. 11 is a diagram schematically illustrating a configuration example of the optical system 110 according to the present embodiment.

図11の光学系110は、物体側OBJSに配置された物体側レンズ111と、撮像素子120に結像させるための結像レンズ112と、物体側レンズ111と結像レンズ112間に配置され、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)群113を有する。また、物体側レンズ111と結像レンズ112間には図示しない絞りが配置される。
たとえば、本実施形態においては、可変絞りが設けられ、露出制御(装置)において可変絞りの絞り度(開口度)を制御する。
An optical system 110 in FIG. 11 is disposed between an object-side lens 111 disposed on the object-side OBJS, an imaging lens 112 for forming an image on the image sensor 120, and between the object-side lens 111 and the imaging lens 112. An optical wavefront modulation element (wavefront forming optical element: wavefront coding element) made of, for example, a phase plate (Cubic Phase Plate) having a three-dimensional curved surface, which deforms the wavefront of the image formation on the light receiving surface of the image sensor 120 by the imaging lens 112. An optical element group 113; A stop (not shown) is disposed between the object side lens 111 and the imaging lens 112.
For example, in this embodiment, a variable aperture is provided, and the aperture (aperture) of the variable aperture is controlled by exposure control (apparatus).

なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。   In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-described third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change by coding on the lens surface (for example, wavefront modulation) A light wavefront modulation element such as a hybrid lens) or a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element) may be used.

図で示された位相板113aは、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子120上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
前述したように、この規則的に分光した画像をデジタル処理により、ピントの合った画像に復元する手段を、前述した波面収差制御光学系システム(DEOS:Depth Expantion Optical system)といい、この処理をボケ復元処理部160において行う。
The phase plate 113a shown in the figure is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 120 is realized.
In other words, the phase plate 113a forms a deep luminous flux (which plays a central role in image formation) and a flare (blurred portion).
As described above, means for restoring the regularly dispersed image to a focused image by digital processing is called the above-described wavefront aberration control optical system (DEOS: Depth Expansion Optical system), and this processing is This is performed in the blur restoration processing unit 160.

ここで、DEOSの基本原理について説明する。
図12に示すように、被写体の画像fがDEOS光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表される。
Here, the basic principle of DEOS will be described.
As shown in FIG. 12, when the subject image f enters the DEOS optical system H, a g image is generated.
This is expressed by the following equation.

(数2)
g=H*f
ただし、*はコンボリューションを表す。
(Equation 2)
g = H * f
However, * represents convolution.

生成された画像から被写体を求めるためには、次の処理を要する。   In order to obtain the subject from the generated image, the following processing is required.

(数3)
f=H−1*g
(Equation 3)
f = H −1 * g

ここで、Hに関するカーネルサイズと演算係数について説明する。
ズームポジションをZPn,ZPn−1・・・とする。また、それぞれのH関数をHn,Hn−1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding H will be described.
Let the zoom positions be ZPn, ZPn-1,. In addition, each H function is defined as Hn, Hn-1,.
Since each spot image is different, each H function is as follows.

Figure 2008211678
Figure 2008211678

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。
ここで、各々のH関数はメモリに格納しておいても構わないし、PSFをピントのボケ量(物体距離)の関数としておき、物体距離によって計算し、H関数を算出することによって任意の物体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.
Here, each H function may be stored in a memory, or a PSF is set as a function of a focus blur amount (object distance), calculated by an object distance, and an arbitrary object can be calculated by calculating the H function. It may be possible to set so as to create an optimum filter with respect to the distance. Alternatively, the H function may be directly obtained from the object distance using the H function as a function of the object distance.

本実施形態においては、図1に示すように、光学系110からの像を撮像素子120で受像して、ボケ復元処理部160に入力させ、光学系に応じた変換係数を取得して、取得した変換係数をもって撮像素子120からの分散画像信号より分散のない画像信号を生成するように構成している。   In the present embodiment, as shown in FIG. 1, an image from the optical system 110 is received by the image sensor 120 and input to the blur restoration processing unit 160, and a conversion coefficient corresponding to the optical system is acquired and acquired. A non-dispersed image signal is generated from the dispersed image signal from the image sensor 120 with the converted coefficient.

なお、本実施形態において、分散とは、上述したように、位相板113aを挿入することにより、撮像素子120上ではピントのどこにも合わない画像を形成し、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to forming a non-focused image on the image sensor 120 by inserting the phase plate 113a as described above. It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

次に、ボケ復元処理部160の構成および処理について説明する。   Next, the configuration and processing of the blur restoration processing unit 160 will be described.

ボケ復元処理部160は、図13に示すように、生(RAW)バッファメモリ161、二次元コンボリューション演算部162、記憶手段としてのカーネルデータ格納ROM163、およびコンボリューション制御部164を有する。   As illustrated in FIG. 13, the blur restoration processing unit 160 includes a raw (RAW) buffer memory 161, a two-dimensional convolution operation unit 162, a kernel data storage ROM 163 as a storage unit, and a convolution control unit 164.

コンボリューション制御部164は、コンボリューション処理のオンオフ、画面サイズ、カーネルデータの入れ替え等の制御を行い、たとえば制御部220により制御される。   The convolution control unit 164 controls the convolution process on / off, the screen size, the replacement of kernel data, and the like, and is controlled by the control unit 220, for example.

また、カーネルデータ格納ROM163には、図14または図15に示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータが格納されており、制御部220によって露出設定時に決まる露出情報を取得し、コンボリューション制御部164を通じてカーネルデータを選択制御する。
なお、露出情報には、絞り情報が含まれる。
Further, the kernel data storage ROM 163 stores kernel data for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG. 14 or FIG. Exposure information determined at times is acquired, and kernel data is selected and controlled through the convolution control unit 164.
The exposure information includes aperture information.

図14の例では、カーネルデータAは光学倍率(×1.5)、カーネルデータBは光学倍率(×5)、カーネルデータCは光学倍率(×10)に対応したデータとなっている。   In the example of FIG. 14, the kernel data A is data corresponding to the optical magnification (× 1.5), the kernel data B is data corresponding to the optical magnification (× 5), and the kernel data C is data corresponding to the optical magnification (× 10).

また、図15の例では、カーネルデータAは絞り情報としてのFナンバ(2.8)、カーネルデータBはFナンバ(4)、カーネルデータCはFナンバ(5.6)に対応したデータとなっている。   In the example of FIG. 15, the kernel data A corresponds to the F number (2.8) as aperture information, the kernel data B corresponds to the F number (4), and the kernel data C corresponds to the data corresponding to the F number (5.6). It has become.

図15の例のように、絞り情報に応じたフィルタ処理を行うのは以下の理由による。
絞りを絞って撮影を行う場合、絞りによって光波面変調素子を形成する位相板113aが覆われてしまい、位相が変化してしまうため、適切な画像を復元することが困難となる。
そこで、本実施形態においては、本例のように、露出情報中の絞り情報に応じたフィルタ処理を行うことによって適切な画像復元を実現している。
As in the example of FIG. 15, the filtering process according to the aperture information is performed for the following reason.
When shooting with the aperture stopped, the phase plate 113a forming the light wavefront modulation element is covered by the aperture and the phase changes, making it difficult to restore an appropriate image.
Therefore, in the present embodiment, as in this example, appropriate image restoration is realized by performing filter processing according to aperture information in exposure information.

以上は露出情報のみに応じて二次元コンボリューション演算部162においてフィルタ処理を行う例を説明したが、たとえば被写体距離情報、ズーム情報、あるいは撮影モード情報と露出情報とを組み合わせることにより適した演算係数の抽出、あるいは演算を行うことが可能となる。   The example in which the two-dimensional convolution calculation unit 162 performs the filtering process according to only the exposure information has been described above. For example, the calculation coefficient suitable for combining subject distance information, zoom information, or shooting mode information and exposure information. Can be extracted or calculated.

図16は、被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図16は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300の構成例を示している。
FIG. 16 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
FIG. 16 shows a configuration example of an image processing apparatus 300 that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300は、図16に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   As illustrated in FIG. 16, the image processing apparatus 300 includes a convolution apparatus 301, a kernel / numerical operation coefficient storage register 302, and an image processing operation processor 303.

この画像処理装置300においては、被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300, the image processing arithmetic processor 303 which has obtained information on the approximate distance of the object distance of the subject and the exposure information calculates the kernel size and the arithmetic coefficient used in the appropriate calculation for the object separation position. The image is restored by performing an appropriate calculation in the convolution device 301 that stores the value in the kernel and numerical calculation coefficient storage register 302 and calculates using the value.

上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置400により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
As described above, in the case of an imaging device having a phase plate (Wavefront Coding optical element) as a light wavefront modulation element, an image signal without proper aberrations by image processing within the predetermined focal length range However, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 400 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

前記の画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
The image processing is performed by convolution calculation. To achieve this, for example, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the focal length, The correction coefficient is used to correct the calculation coefficient, and an appropriate convolution calculation can be performed using the corrected calculation coefficient.
In addition to this configuration, the following configuration can be employed.

焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The kernel size and the convolution calculation coefficient itself are stored in advance according to the focal length, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient according to the focal length is stored in advance as a function. In addition, it is possible to employ a configuration in which a calculation coefficient is obtained from this function based on the focal length and a convolution calculation is performed using the calculated calculation coefficient.

図16の構成に対応付けると次のような構成をとることができる。   Corresponding to the configuration of FIG. 16, the following configuration can be taken.

変換係数記憶手段としてのレジスタ302に被写体距離に応じて少なくとも位相板113aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき、レジスタ302から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 113a are stored in advance in the register 302 as the conversion coefficient storage means according to the subject distance. The image processing arithmetic processor 303 functions as a coefficient selection unit that selects a conversion coefficient corresponding to the distance from the register 302 to the subject based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit. .
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
Alternatively, as described above, the image processing calculation processor 303 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit, and stores it in the register 302. Store.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系110のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板113aに起因する収差に対応した変換係数を予め記憶する。
そして、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 110 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 113a is stored in advance in the register 302 that also functions as a second conversion coefficient storage unit.
Then, based on the distance information generated by the object approximate distance information detection device 400 as the subject distance information generation means, the image processing arithmetic processor 303 as the correction value selection means performs a process from the register 302 as the correction value storage means to the subject. Select a correction value according to the distance.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図17は、撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図17は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300Aの構成例を示している。
FIG. 17 is a diagram illustrating a configuration example of an image processing apparatus that combines shooting mode information and exposure information.
FIG. 17 shows a configuration example of an image processing apparatus 300A that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300Aは、図16と同様に、図17に示すように、コンボリューション装置301、記憶手段としてのカーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   As shown in FIG. 17, the image processing apparatus 300A includes a convolution apparatus 301, a kernel / numerical calculation coefficient storage register 302 as a storage unit, and an image processing calculation processor 303, as shown in FIG.

この画像処理装置300Aにおいては、物体概略距離情報検出装置500から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In the image processing apparatus 300A, the image processing arithmetic processor 303 that has obtained information and exposure information related to the approximate object distance of the subject read from the approximate object distance information detection apparatus 500 performs an appropriate calculation for the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

この場合も上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、上記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置500により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
Also in this case, as described above, in the case of an imaging apparatus having a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, an appropriate aberration is obtained by image processing within the predetermined focal length range. Although no image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 500 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

上記の画像処理はコンボリューション演算により行うが、これを実現するには、コンボリューション演算の演算係数を共通で1種類記憶しておき、物体距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、物体距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成、物体距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The above image processing is performed by convolution calculation. To realize this, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the object distance. A configuration in which a correction coefficient is used to correct a calculation coefficient and an appropriate convolution calculation is performed using the corrected calculation coefficient, a calculation coefficient corresponding to the object distance is stored in advance as a function, and the calculation coefficient is calculated from this function according to the focal length. The convolution calculation is performed using the calculated calculation coefficient, the kernel size and the convolution calculation coefficient are stored in advance according to the object distance, and the convolution calculation is performed using the stored kernel size and calculation coefficient. It is possible to adopt a configuration or the like.

本実施形態においては、上述したように、DSCのモード設定(ポートレイト、無限遠(風景)、マクロ)に応じて画像処理を変更する。   In the present embodiment, as described above, the image processing is changed according to the DSC mode setting (portrait, infinity (landscape), macro).

図17の構成に対応付けると次のような構成をとることができる。   When associated with the configuration of FIG. 17, the following configuration can be adopted.

前述したように、変換係数演算手段としての画像処理演算プロセッサ303を通して操作部の撮影モード設定部600により設定される各撮影モードに応じて異なる変換係数を変換係数記憶手段としてのレジスタ302に格納する。
画像処理演算プロセッサ303が、撮影モード設定部600の操作スイッチ601により設定された撮影モードに応じて、被写体距離情報生成手段としての物体概略距離情報検出装置500により生成された情報に基づき、変換係数記憶手段としてのレジスタ302から変換係数を抽出する。このとき、たとえば画像処理演算プロセッサ303が変換係数抽出手段とて機能する。
そして、変換手段としてのコンボリューション装置301が、レジスタ302に格納された変換係数によって、画像信号の撮影モードに応じた変換処理を行う。
As described above, different conversion coefficients are stored in the register 302 as the conversion coefficient storage means according to each shooting mode set by the shooting mode setting unit 600 of the operation unit through the image processing arithmetic processor 303 as the conversion coefficient calculation means. .
Based on the information generated by the object approximate distance information detecting device 500 as the subject distance information generating unit, the image processing arithmetic processor 303 according to the shooting mode set by the operation switch 601 of the shooting mode setting unit 600 converts the conversion coefficient. A conversion coefficient is extracted from the register 302 serving as a storage unit. At this time, for example, the image processing arithmetic processor 303 functions as conversion coefficient extraction means.
Then, the convolution device 301 serving as a conversion unit performs conversion processing according to the image signal shooting mode using the conversion coefficient stored in the register 302.

なお、図11の光学系は一例であり、本発明は図11の光学系に対して用いられるものとは限らない。また、図14および図15のカーネルデータ格納ROMに関しても、光学倍率、Fナンバやそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。   Note that the optical system of FIG. 11 is an example, and the present invention is not necessarily used for the optical system of FIG. Also, the kernel data storage ROM of FIGS. 14 and 15 is not necessarily used for the optical magnification, F number, and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.

なお、上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
As described above, in the case of an imaging apparatus having a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, there is no appropriate aberration by image processing within the predetermined focal length range. Although an image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of image processing, so that only an object outside the range has an aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.

本実施形態においては、DEOSを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, DEOS can be employed to obtain high-definition image quality, and the optical system can be simplified and the cost can be reduced.
Hereinafter, this feature will be described.

図18(A)〜(C)は、撮像素子120の受光面でのスポット像を示している。
図18(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図18(B)が合焦点の場合(Best focus)、図18(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図18(A)〜(C)からもわかるように、本実施形態に係る撮像装置100においては、位相板113aを含む波面形成用光学素子群113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
18A to 18C show spot images on the light receiving surface of the image sensor 120. FIG.
18A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 18B shows a case where the focal point is a focal point (Best focus), and FIG. 18C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 18A to 18C, in the imaging apparatus 100 according to the present embodiment, a light beam having a deep depth (a central role of image formation) is obtained by the wavefront forming optical element group 113 including the phase plate 113a. And flare (blurred part) are formed.

このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図19(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図19(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図19(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置160の補正処理に任せるため、図19(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 19A and 19B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 19A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 19B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 160 including a digital signal processor, for example, as shown in FIGS. 19A and 19B. The MTF of the primary image is essentially a low value.

画像処理装置160は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   As described above, the image processing apparatus 160 receives the primary image FIM from the image sensor 120, performs a so-called predetermined correction process for raising the MTF at the spatial frequency of the primary image, and forms a high-definition final image FNLIM. To do.

画像処理装置160のMTF補正処理は、たとえば図20の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図20中曲線Bで示す特性に近づく(達する)ような補正を行う。
図20中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the image processing device 160 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristics indicated by the curve B in FIG.
The characteristic indicated by the curve B in FIG. 20 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図20に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図20のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図21に示すようになる。
In this embodiment, as shown in FIG. 20, in order to achieve the MTF characteristic curve B to be finally realized with respect to the MTF characteristic curve A with respect to the optically obtained spatial frequency, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic shown in FIG. 20, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、基本的に、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成するボケ復元処理部160からなり、光学系システムの中に、波面成形用の光学素子を新たに設けるか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像の波面を変形(変調)し、そのような波面をCCDやCMOSセンサからなる撮像素子120の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置150を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像素子120による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置150で行う。
As described above, the imaging apparatus 100 according to the embodiment basically includes the optical system 110 and the imaging element 120 that form a primary image, and the blur restoration processing unit 160 that forms the primary image in a high-definition final image. In the optical system, a wavefront forming optical element is newly provided, or an optical element surface such as glass, plastic or the like is formed for wavefront shaping, thereby forming a wavefront for imaging. Is deformed (modulated), and such a wavefront is imaged on the imaging surface (light-receiving surface) of the imaging device 120 made up of a CCD or CMOS sensor. An image forming system obtained.
In the present embodiment, the primary image from the image sensor 120 has a light beam condition with a very deep depth. Therefore, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 150.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly calculated numerically through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図18(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置160でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the target wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing device 160 composed of a later stage DSP or the like. Thereby, the MTF value is significantly improved.

次に、本実施形態および従来光学系のMTFのレスポンスについて考察する。   Next, the response of the MTF of this embodiment and the conventional optical system will be considered.

図22は、従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図23は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図24は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
FIG. 22 is a diagram showing MTF responses when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
FIG. 23 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 24 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学径よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, even when the object deviates from the focal position, the change in the MTF response is smaller than the optical diameter in which the light wavefront modulation element is not inserted.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

以上説明したように、本実施形態によれば、合焦位置でもピントを結ばないがその前後でほぼPSF(Point Spread Function 点広がり関数)が一定になるように設計された光学系110と、光学系の像をとらえる撮像素子120と、ボケ復元処理を行うボケ処理部160と、撮像素子により得られた画像データのボケ量を検出するボケ量検出回路190と、光学系の焦点位置を基準としてデフォーカス量に応じた点広がり関数から算出されたボケ復元フィルタ群180と、撮像素子によって得られた画像データに、任意の前記ボケ復元フィルタによるフィルタリング処理を施した後に画像のボケ量を検出し、このボケ量に応じたフィルタをボケ復元フィルタ群から選択してフィルタリング処理を行うように制御する制御部200と、を有し、制御部200は、記選択したボケ復元フィルタより任意のボケ復元フィルタを用いたほうが画像のボケ量が小さい場合は、光学系の焦点位置に適したボケ復元フィルタにてフィルタリング処理を行うように制御することから、画像処理にて深度拡張するシステムにて画像復元するより、より最適な処理を施すことによって、より忠実な画像復元を行うことができる。   As described above, according to the present embodiment, the optical system 110 is designed so that the PSF (Point Spread Function point spread function) is substantially constant before and after the focusing position even though the in-focus position is not achieved. An image sensor 120 that captures an image of the system, a blur processing unit 160 that performs blur restoration processing, a blur amount detection circuit 190 that detects a blur amount of image data obtained by the image sensor, and a focal position of the optical system The blur restoration filter group 180 calculated from the point spread function according to the defocus amount and the image data obtained by the image sensor are subjected to filtering processing by an arbitrary blur restoration filter, and then the blur amount of the image is detected. A control unit 200 that controls to perform filtering processing by selecting a filter corresponding to the blur amount from the blur restoration filter group, and the control unit 200, control is performed so that filtering processing is performed by a blur restoration filter suitable for the focal position of the optical system when an arbitrary blur restoration filter is used rather than the selected blur restoration filter. Therefore, it is possible to perform more faithful image restoration by performing more optimal processing than performing image restoration in a system that expands the depth by image processing.

そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズのDEOSに使用することが可能である。   The imaging apparatus 100 according to the present embodiment can be used for DEOS of a zoom lens considering the small size, light weight, and cost of consumer devices such as a digital camera and a camcorder.

また、本実施形態においては、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成するボケ復元処理部160とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens system having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging element 120 by the imaging lens 112 and the primary image FIM by the imaging element 120 are received. In addition, since it has a blur restoration processing unit 160 that forms a high-definition final image FNLIM by performing a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image, it is possible to obtain a high-definition image quality There is an advantage that
In addition, the configuration of the optical system 110 can be simplified, manufacturing becomes easy, and cost reduction can be achieved.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to this embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。   In this embodiment, the example in which the wavefront forming optical element of the optical system is arranged closer to the object side lens than the stop is shown. An effect can be obtained.

本発明に係る撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention. 本実施形態に係る復元処理の基本概念を説明するためのフローチャートである。It is a flowchart for demonstrating the basic concept of the decompression | restoration process which concerns on this embodiment. 撮影距離とセンサ(撮像素子)上でのボケ量の関係を示す図である。It is a figure which shows the relationship between an imaging distance and the amount of blurs on a sensor (imaging element). 被写体距離と焦点位置との関係を示す図である。It is a figure which shows the relationship between a to-be-photographed object distance and a focus position. 振幅相関値の検出領域の設定例を示す図である。It is a figure which shows the example of a setting of the detection area | region of an amplitude correlation value. 一般的な結像光学系の光線高さとデフォーカスとの関係を示す図である。It is a figure which shows the relationship between the light ray height of a general imaging optical system, and defocusing. 本実施形態の光学系の結像付近の光学特性を示す図である。It is a figure which shows the optical characteristic of image formation vicinity of the optical system of this embodiment. 一般的な光学系のベストフォーカス(BestForcus)位置でのMTF(Modulation Transfer Function 振幅伝達関数)特性図である。It is a MTF (Modulation Transfer Function amplitude characteristic) characteristic figure in the best focus (Best Focus) position of a general optical system. 本実施形態の光学系のMTF特性を示す図である。It is a figure which shows the MTF characteristic of the optical system of this embodiment. 本実施形態におけるボケ復元処理の説明図である。It is explanatory drawing of the blur decompression | restoration process in this embodiment. 本実施形態に係る撮像レンズ装置の光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the optical system of the imaging lens apparatus which concerns on this embodiment. DEOSの原理を説明するための図である。It is a figure for demonstrating the principle of DEOS. 本実施形態に係るボケ復元処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the blur restoration process part which concerns on this embodiment. カーネルデータROMの格納データの一例(光学倍率)を示す図である。It is a figure which shows an example (optical magnification) of the storage data of kernel data ROM. カーネルデータROMの格納データの他例(Fナンバ)を示す図である。It is a figure which shows the other example (F number) of the storage data of kernel data ROM. 被写体距離情報と露出情報とを組み合わせるボケ復元処理部の構成例を示す図である。It is a figure which shows the structural example of the blur restoration process part which combines subject distance information and exposure information. 撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示図である。It is a figure which shows the structural example of the image processing apparatus which combines imaging | photography mode information and exposure information. 本実施形態に係る撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element which concerns on this embodiment, Comprising: (A) is a case where a focus shifts 0.2 mm (Defocus = 0.2 mm), (B) is a focus point ( Best focus), (C) is a diagram showing each spot image when the focal point is deviated by −0.2 mm (Defocus = −0.2 mm). 本実施形態に係る撮像素子により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the image pick-up element concerning this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an image pick-up lens apparatus, (B ) Shows the MTF characteristics with respect to the spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of the conventional optical system, and when it remove | deviated from the focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図25の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 26A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens apparatus of FIG. 25, where FIG. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100・・・撮像装置、110・・・光学系、120・・・撮像素子、130・・・アナログデジタルコンバータ(A/D)、140・・・信号処理部、150・・・第1メモリ、160・・・ボケ復元処理部、170・・・第2メモリ、180・・・復元フィルタ部、190・・・ボケ量検出回路、200・・・制御部、210・・・デジタルアナログコンバータ(D/A)、220・・・モニタ装置、111・・・物体側レンズ、112・・・結像レンズ、113・・・波面形成用光学素子、113a・・・位相板(光波面変調素子)、162・・・二次元コンボリューション演算部、163・・・カーネルデータROM、164・・・コンボリューション制御部。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Optical system, 120 ... Imaging element, 130 ... Analog-digital converter (A / D), 140 ... Signal processing part, 150 ... 1st memory, 160 ... Bokeh restoration processing unit, 170 ... second memory, 180 ... restoration filter unit, 190 ... blur amount detection circuit, 200 ... control unit, 210 ... digital analog converter (D / A), 220 ... monitor device, 111 ... object side lens, 112 ... imaging lens, 113 ... optical element for wavefront formation, 113a ... phase plate (light wavefront modulation element), 162: Two-dimensional convolution operation unit, 163: Kernel data ROM, 164 ... Convolution control unit.

Claims (9)

光波面変調素子を含む光学系と、
前記撮像光学系によって得られた像を電気信号に変換する撮像素子と、
撮像素子で得られた画像のボケ量を検出する機能を有する演算手段と、
前記光学系の焦点位置を基準としてデフォーカス量に応じた点広がり関数から算出された複数のボケ復元フィルタと、
前記複数のボケ復元フィルタの何れか一つで前記画像データをフィルタリング処理するフィルタ手段と、
前記撮像素子によって得られた画像データに、任意の前記ボケ復元フィルタによるフィルタリング処理を施した後に前記画像のボケ量を検出し、フィルタリングの結果ボケ量が最小となると推定される当該ボケ量に応じたフィルタを前記複数のボケ復元フィルタから再度選択して前記フィルタリング処理を行うように制御する制御部と、を有し、
前記制御部は、
前記再度選択したボケ復元フィルタより前記任意のボケ復元フィルタを用いたほうが前記画像のボケ量が小さい場合は、前記光学系の焦点位置に適した前記ボケ復元フィルタにて前記フィルタリング処理を行うように制御する
撮像装置。
An optical system including an optical wavefront modulation element;
An image sensor for converting an image obtained by the imaging optical system into an electrical signal;
Arithmetic means having a function of detecting a blur amount of an image obtained by the image sensor;
A plurality of blur restoration filters calculated from a point spread function corresponding to a defocus amount with reference to the focal position of the optical system;
Filter means for filtering the image data with any one of the plurality of blur restoration filters;
The image data obtained by the image sensor is subjected to a filtering process using an arbitrary blur restoration filter, and then the blur amount of the image is detected. According to the blur amount estimated to be the minimum blur amount as a result of filtering. A control unit that controls to perform the filtering process by selecting again the filter from the plurality of blur restoration filters,
The controller is
When the blur amount of the image is smaller when the arbitrary blur restoration filter is used than the reselected blur restoration filter, the filtering processing is performed by the blur restoration filter suitable for the focal position of the optical system. The imaging device to control.
前記画像のボケ量の検出は画像データの振幅相関値とエッジの微分値の何れか若しくは両方に基づいて行う
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the blur amount of the image is detected based on one or both of an amplitude correlation value and an edge differential value of image data.
前記制御部は、
前記画像のボケ量からデフォーカス量の推定を行い、前記推定デフォーカス量に対して最適となるフィルタを選択する
請求項1または2に記載の撮像装置。
The controller is
The imaging apparatus according to claim 1, wherein a defocus amount is estimated from a blur amount of the image, and a filter that is optimal for the estimated defocus amount is selected.
前記光学系の焦点位置は至近端に設定されている
請求項1から3のいずれか一に記載の撮像装置。
The imaging device according to any one of claims 1 to 3, wherein a focal position of the optical system is set at a close end.
撮影距離に応じた複数の撮影モードを備え、前記複数の撮影モードのうち近距離の撮影に適した撮影モードが選択された場合は、前記光学系の焦点位置を至近端に設定する
請求項1から3のいずれか一に記載の撮像装置。
A plurality of shooting modes corresponding to a shooting distance are provided, and when a shooting mode suitable for short-distance shooting is selected from the plurality of shooting modes, the focal position of the optical system is set to the closest end. The imaging device according to any one of 1 to 3.
前記任意のボケ復元フィルタは、
前記撮像光学系が至近端と無限遠の焦点位置の略中央となる位置でデフォーカスが無い状態に対して最適となるように設定されている
請求項1から5のいずれか一に記載の撮像装置。
The arbitrary blur restoration filter is:
The said imaging optical system is set so that it may become optimal with respect to the state without a defocus in the position which becomes the approximate center of a near end and a infinity focus position. Imaging device.
前記画像データの振幅相関値とエッジの微分値の何れか若しくは両方は画面内の所定の領域に対して検出を行う
請求項2から6のいずれか一に記載の撮像装置。
The imaging device according to any one of claims 2 to 6, wherein either or both of an amplitude correlation value and an edge differential value of the image data are detected for a predetermined region in the screen.
前記画面内の所定の領域は任意に設定が可能である
請求項7に記載の撮像装置。
The imaging apparatus according to claim 7, wherein the predetermined area in the screen can be arbitrarily set.
光波面変調素子を含む光学系を通過した被写体像を撮像素子により撮像し、
前記撮像素子によって得られた画像データに、任意の前記ボケ復元フィルタを選択してフィルタリング処理を施し、
フィルタリング処理を受けた後に前記画像のボケ量を検出し、
、フィルタリングの結果ボケ量が最小となると推定される当該ボケ量に応じたフィルタを前記光学系の焦点位置を基準としてデフォーカス量に応じた点広がり関数から算出された前記複数のボケ復元フィルタから選択して前記フィルタリング処理を行い、
前記選択したボケ復元フィルタより前記任意のボケ復元フィルタを用いたほうが前記画像のボケ量が小さい場合は、前記光学系の焦点位置に適した前記ボケ復元フィルタにて前記フィルタリング処理を行う
撮像方法。
The subject image that has passed through the optical system including the light wavefront modulation element is captured by the imaging element,
The image data obtained by the imaging device is subjected to a filtering process by selecting an arbitrary blur restoration filter,
After receiving the filtering process, detect the amount of blur of the image,
From the plurality of blur restoration filters calculated from the point spread function corresponding to the defocus amount with reference to the focal position of the optical system, the filter corresponding to the blur amount estimated to be the minimum blur amount as a result of filtering Select to perform the filtering process,
An imaging method in which the filtering process is performed with the blur restoration filter suitable for the focal position of the optical system when the amount of blur of the image is smaller when the arbitrary blur restoration filter is used than the selected blur restoration filter.
JP2007048132A 2007-02-27 2007-02-27 Imaging apparatus and method thereof Expired - Fee Related JP4818956B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007048132A JP4818956B2 (en) 2007-02-27 2007-02-27 Imaging apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007048132A JP4818956B2 (en) 2007-02-27 2007-02-27 Imaging apparatus and method thereof

Publications (2)

Publication Number Publication Date
JP2008211678A true JP2008211678A (en) 2008-09-11
JP4818956B2 JP4818956B2 (en) 2011-11-16

Family

ID=39787595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007048132A Expired - Fee Related JP4818956B2 (en) 2007-02-27 2007-02-27 Imaging apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP4818956B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505489A (en) * 2009-10-02 2012-03-01 ザ チャイニーズ ユニバーシティー オブ ホンコン Method and apparatus for editing images
JP2012145757A (en) * 2011-01-12 2012-08-02 Canon Inc Imaging device and method of acquiring subject distance distribution information
JP2013186355A (en) * 2012-03-09 2013-09-19 Casio Comput Co Ltd Automatic focusing apparatus, automatic focusing method, and program
EP2991337A1 (en) 2014-08-28 2016-03-02 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, method for processing image, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698170A (en) * 1992-04-28 1994-04-08 Olympus Optical Co Ltd Image pickup device
JPH11331676A (en) * 1998-05-15 1999-11-30 Ricoh Co Ltd Automatic focus controller
JP2000105332A (en) * 1998-09-29 2000-04-11 Oki Electric Ind Co Ltd Method and device for deciding focusing position
JP2002288652A (en) * 2001-03-23 2002-10-04 Minolta Co Ltd Image processing device, method, program and recording medium
JP2005316314A (en) * 2004-04-30 2005-11-10 Casio Comput Co Ltd Image pickup device
JP2006094471A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and image conversion method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698170A (en) * 1992-04-28 1994-04-08 Olympus Optical Co Ltd Image pickup device
JPH11331676A (en) * 1998-05-15 1999-11-30 Ricoh Co Ltd Automatic focus controller
JP2000105332A (en) * 1998-09-29 2000-04-11 Oki Electric Ind Co Ltd Method and device for deciding focusing position
JP2002288652A (en) * 2001-03-23 2002-10-04 Minolta Co Ltd Image processing device, method, program and recording medium
JP2005316314A (en) * 2004-04-30 2005-11-10 Casio Comput Co Ltd Image pickup device
JP2006094471A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and image conversion method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505489A (en) * 2009-10-02 2012-03-01 ザ チャイニーズ ユニバーシティー オブ ホンコン Method and apparatus for editing images
JP2012145757A (en) * 2011-01-12 2012-08-02 Canon Inc Imaging device and method of acquiring subject distance distribution information
JP2013186355A (en) * 2012-03-09 2013-09-19 Casio Comput Co Ltd Automatic focusing apparatus, automatic focusing method, and program
EP2991337A1 (en) 2014-08-28 2016-03-02 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, method for processing image, and recording medium
CN105391931A (en) * 2014-08-28 2016-03-09 松下知识产权经营株式会社 Image processing apparatus, and method for processing image
US9990709B2 (en) 2014-08-28 2018-06-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, method, and recording medium for processing images using different filters

Also Published As

Publication number Publication date
JP4818956B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
JP4818957B2 (en) Imaging apparatus and method thereof
JP4712631B2 (en) Imaging device
JP4749959B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4663737B2 (en) Imaging apparatus and image processing method thereof
JP4749984B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP2008268937A (en) Imaging device and imaging method
JP2007322560A (en) Imaging apparatus, and apparatus and method of manufacturing the same
JP2008048293A (en) Imaging device and method for manufacturing same
US8462213B2 (en) Optical system, image pickup apparatus and information code reading device
JP2007300208A (en) Imaging apparatus
JP2008085697A (en) Image pickup device and its manufacturing device and method
JP2008245157A (en) Imaging device and method therefor
JP2007206738A (en) Imaging device and method
JP4364847B2 (en) Imaging apparatus and image conversion method
JP2008033060A (en) Imaging apparatus and imaging method, and image processor
JP2008245266A (en) Imaging apparatus and method
WO2006106737A1 (en) Imaging device and imaging method
JP2009086017A (en) Imaging device and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP2006094468A (en) Imaging device and imaging method
JP2006094469A (en) Imaging device and imaging method
JP2008245265A (en) Imaging apparatus and its manufacturing apparatus and method
JP2009033607A (en) Imaging apparatus and image processing method
JP4916853B2 (en) Imaging apparatus and method thereof
JP2007116261A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees