JP2008028454A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2008028454A
JP2008028454A JP2006195738A JP2006195738A JP2008028454A JP 2008028454 A JP2008028454 A JP 2008028454A JP 2006195738 A JP2006195738 A JP 2006195738A JP 2006195738 A JP2006195738 A JP 2006195738A JP 2008028454 A JP2008028454 A JP 2008028454A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
processing
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006195738A
Other languages
Japanese (ja)
Other versions
JP4693720B2 (en
Inventor
Masayuki Sato
将行 佐東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2006195738A priority Critical patent/JP4693720B2/en
Publication of JP2008028454A publication Critical patent/JP2008028454A/en
Application granted granted Critical
Publication of JP4693720B2 publication Critical patent/JP4693720B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and imaging method which can be simplified of an optical system, which can be reduced to a cost, and whereby an image resulting from composing a blur image and a focused image can be obtained by one imaging and a restored image less affected by noise can be obtained. <P>SOLUTION: A signal processing section comprising an image processing apparatus 140 or the like applies prescribed processing to a dispersed image signal such as generation of an image signal without dispersion and an image signal with less dispersion from an object dispersed image signal from an imaging element 120, and composes an image (blur image) before the processing of the signal processing section with images (intermediate image and focused image) after the processing into a new image, which is displayed and recorded. In the case of the composition, an operation section 180 can establish a blur image region or a focused image region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系を備えたデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等の撮像装置に関するものである。   The present invention relates to an imaging apparatus such as a digital still camera, a mobile phone camera, a mobile information terminal camera, an image inspection apparatus, and an industrial camera for automatic control using an image sensor and an optical system.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)、画像検査装置、自動制御用産業カメラ等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used in video cameras, digital video units, personal computers, mobile phones, personal digital assistants (PDAs), image inspection devices, industrial cameras for automatic control, and the like.

図38は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。撮像レンズ装置1においては、図38に示すように、ベストフォーカス面を撮像素子面上に合致させている。   FIG. 38 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device. The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor. In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side. In the imaging lens device 1, as shown in FIG. 38, the best focus surface is matched with the imaging device surface.

図39(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。また、位相板(Wavefront Coding optical element)により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
また、カメラによる写真撮影では、たとえば絞りを開放側に設定して被写体深度を浅くしつつ被写体にピントを合わせることにより、主たる被写体以外の他の部分を意図的にぼかす撮影手法が知られている。
また、被写体と背景との間の距離関係に拘束されることなく背景だけボケた画像を得るために、複数のフォーカス位置で画像を撮像し、合成する撮影手法が知られている。
また、伝達関数を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている(たとえば特許文献6参照)。
"Wavefront Coding;jointly optimized optical and digital imaging systems", Edward R. Dowski,Jr., Robert H.Cormack, Scott D.Sarama. "Wavefront Coding; A modern method of achieving high performance and/or low cost imaging systems", Edward R.Dowski,Jr., Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報 特開2004−153497号公報
39A to 39C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1. In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase front (wavefront coding optical element) and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
In addition, in photography with a camera, for example, an imaging method is known in which a portion other than the main subject is intentionally blurred by setting the aperture to the open side and focusing on the subject while reducing the depth of the subject. .
In addition, in order to obtain an image in which only the background is blurred without being constrained by the distance relationship between the subject and the background, an imaging technique is known in which images are captured at a plurality of focus positions and combined.
In addition, an automatic exposure control system for a digital camera that performs filter processing using a transfer function has been proposed (see, for example, Patent Document 6).
"Wavefront Coding; jointly optimized optical and digital imaging systems", Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. "Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems", Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A JP 2004-153497 A

上述した各文献にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかく、ズーム系やAF系などのレンズでは、その光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューション演算を行うことができず、ワイド(Wide)時やテレ(Tele)時のスポット(SPOT)像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。
しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
In the imaging devices proposed in the above-mentioned documents, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into a normal optical system is constant, When the PSF changes, it is extremely difficult to realize an image with a deep depth of field by convolution using a subsequent kernel.
Therefore, apart from a single-focus lens, a zoom system, an AF system, or the like has a great problem in adopting due to the high accuracy of the optical design and the associated cost increase.
In other words, in the conventional imaging apparatus, proper convolution calculation cannot be performed, and astigmatism and coma that cause a shift of a spot (SPOT) image at the time of wide or tele (Tele). Therefore, an optical design that eliminates various aberrations such as zoom chromatic aberration is required.
However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.

また、前述した背景だけボケた画像を得るために、複数のフォーカス位置で画像を撮像し、合成する撮影手法では、フォーカス位置を変えて撮像することを複数回行うため、全ての撮像が終了するまでに時間がかかるといった問題がある。また、この撮影手法では、複数毎撮影する間に被写体や背景にある物体が動いて変化してしまい、合成後の画が不自然になってしまうことがあるという問題がある。   Further, in order to obtain an image that is blurred only in the background described above, in the imaging method in which images are captured at a plurality of focus positions and combined, imaging is performed a plurality of times by changing the focus position, and thus all imaging is completed. There is a problem that it takes a long time. In addition, with this photographing method, there is a problem that the subject or the object in the background moves and changes during photographing, and the combined image may become unnatural.

また、上述した各文献に開示された装置においては、たとえば暗所における撮影で、信号処理によって画像を復元する際、ノイズも同時に増幅してしまう。
したがって、たとえば上述した位相板等の光波面変調素子とその後の信号処理を用いるような、光学系と信号処理を含めた光学システムでは、暗所での撮影を行う場合、ノイズが増幅してしまい、復元画像に影響を与えてしまうという不利益がある。
In addition, in the devices disclosed in the above-described documents, noise is also amplified simultaneously when an image is restored by signal processing, for example, in shooting in a dark place.
Therefore, for example, in an optical system including an optical system and signal processing using the above-described optical wavefront modulation element such as a phase plate and subsequent signal processing, noise is amplified when shooting in a dark place. This has the disadvantage of affecting the restored image.

本発明の目的は、光学系を簡単化でき、コスト低減を図ることができ、しかも1回の撮像より所望の領域だけがボケた画像、あるいは合焦画像を得ることが可能で、またノイズの影響が小さい復元画像を得ることが可能な撮像装置および撮像方法を提供することにある。   The object of the present invention is to simplify the optical system, to reduce the cost, and to obtain an image in which only a desired region is blurred or in-focus image from one imaging, and to reduce noise. An object of the present invention is to provide an imaging apparatus and an imaging method capable of obtaining a restored image having a small influence.

本発明の撮像装置は、少なくとも光学系および光波面変調素子を通過した被写体分散像を撮像する撮像素子と、該撮像素子からの分散画像信号より分散のない画像信号、及び分散の少ない画像信号を1または複数生成する変換手段を備え、前記撮像素子による画像信号に複数の異なる所定の処理を行う信号処理部と、該信号処理部による処理前のボケ画像、処理後の分散のない合焦画像、処理後の分散の少ない中間画像、及び/又は前記ボケ画像、合焦画像、あるいは中間画像を合成した新たな画像を記録する記録部と、該記録部に記録された画像、または記録するための画像を表示する表示部と、該表示部内の範囲の設定、及び/又はボケ画像の選択を行なう操作部と、該操作部による前記表示部での設定範囲内又は設定範囲外における合焦画像を生成し、かつ該合焦画像生成以外の範囲を前記中間画像、または前記中間画像及びボケ画像により、前記合焦画像から離れるに従って序々にボケ度合いが大きくなる段階的ボケ画像を生成し、前記合焦画像と段階的ボケ画像とを合成して新たな画像を生成する生成手段と、を備えている。   An image pickup apparatus according to the present invention includes an image pickup device that picks up a subject dispersion image that has passed through at least an optical system and a light wavefront modulation device, an image signal that is less dispersed than a dispersed image signal from the image pickup device, and an image signal that has less dispersion. A signal processing unit that includes one or a plurality of conversion units that generate a plurality of different predetermined processes on an image signal from the image sensor, a blurred image before processing by the signal processing unit, and a focused image without dispersion after processing A recording unit that records an intermediate image with little dispersion after processing, and / or a new image obtained by synthesizing the blurred image, the focused image, or the intermediate image, and an image recorded in the recording unit, or for recording A display unit that displays the image, an operation unit that sets a range in the display unit and / or selects a blurred image, and an in-focus state within or outside the set range on the display unit by the operation unit An image is generated, and a range other than the focused image generation is generated by the intermediate image, or the intermediate image and the blurred image, and a stepwise blurred image in which the degree of blur gradually increases as the distance from the focused image increases. Generating means for synthesizing the focused image and the stepwise blurred image to generate a new image;

好適には、前記光学系は、ズーム光学系を含み、前記ズーム光学系のズーム位置またズーム量に相当する情報を生成するズーム情報生成手段を備え、前記変換手段は、前記ズーム情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する。   Preferably, the optical system includes a zoom optical system, and further includes zoom information generation means for generating information corresponding to a zoom position or a zoom amount of the zoom optical system, and the conversion means includes the zoom information generation means. Based on the generated information, a non-dispersed image signal is generated from the dispersed image signal.

好適には、被写体までの距離に相当する情報を生成する被写体距離情報生成手段を備え、 前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する。   Preferably, a subject distance information generation unit that generates information corresponding to a distance to the subject is provided, and the conversion unit is less dispersed than the dispersed image signal based on information generated by the subject distance information generation unit. An image signal is generated.

好適には、被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を備え、前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する。   Preferably, comprising: subject distance information generating means for generating information corresponding to the distance to the subject; and conversion coefficient calculating means for calculating a conversion coefficient based on the information generated by the subject distance information generating means, The conversion means converts the image signal using the conversion coefficient obtained from the conversion coefficient calculation means and generates an image signal without dispersion.

好適には、撮影する被写体の撮影モードを設定する撮影モード設定手段を備え、前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う。   Preferably, a photographing mode setting unit that sets a photographing mode of a subject to be photographed is provided, and the conversion unit performs different conversion processing according to the photographing mode set by the photographing mode setting unit.

好適には、前記撮像装置は、複数のレンズを交換可能であって、前記撮像素子は、前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被写体収差像を撮像可能で、さらに、前記一のレンズに応じた変換係数を取得する変換係数取得手段を備え、前記変換手段は、前記変換係数取得手段から得られた変換係数によって、画像信号の変換を行う。   Preferably, the imaging device is capable of exchanging a plurality of lenses, and the imaging element is capable of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element, Furthermore, a conversion coefficient acquisition unit that acquires a conversion coefficient corresponding to the one lens is provided, and the conversion unit converts an image signal using the conversion coefficient obtained from the conversion coefficient acquisition unit.

好適には、露出制御を行う露出制御手段を備え、前記信号処理部は、前記露出制御手段からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う。   Preferably, an exposure control unit that performs exposure control is provided, and the signal processing unit performs a filtering process on an optical transfer function (OTF) in accordance with exposure information from the exposure control unit.

本発明によれば、光学系を簡単化でき、コスト低減を図ることができ、しかも1回の撮影で所望の領域だけがボケた画像、あるいはノイズの影響が小さい復元画像(すなわち、合焦画像)、さらにはそれらの合成画像を得ることができる利点がある。   According to the present invention, the optical system can be simplified, the cost can be reduced, and an image in which only a desired area is blurred by one shooting, or a restored image with a small influence of noise (that is, a focused image). Further, there is an advantage that a composite image of them can be obtained.

以下、本発明の実施形態を添付図面に関連付けて説明する。
図1は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。
本実施形態に係る撮像装置100は、光学系110、撮像素子120、アナログフロントエンド部(AFE)130、画像処理装置140、カメラ信号処理部150、画像表示メモリ160、画像モニタリング装置170、操作部180、および露出制御装置190を有している。
光学系110は、被写体物体OBJを撮影した像を撮像素子120に供給する。
本実施形態の光学系110は、後で詳述するように、光波面変調素子を含んで構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating an embodiment of an imaging apparatus according to the present invention.
The imaging apparatus 100 according to the present embodiment includes an optical system 110, an imaging element 120, an analog front end unit (AFE) 130, an image processing device 140, a camera signal processing unit 150, an image display memory 160, an image monitoring device 170, and an operation unit. 180 and an exposure control device 190.
The optical system 110 supplies an image obtained by photographing the subject object OBJ to the image sensor 120.
The optical system 110 of this embodiment is configured to include a light wavefront modulation element, as will be described in detail later.

撮像素子120は、光波面変調素子を含む光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログフロントエンド部130を介して画像処理装置140に出力するCCDやCMOSセンサからなる。
図1においては、撮像素子120を一例としてCCDとして記載している。
The image pickup device 120 forms an image captured by the optical system 110 including a light wavefront modulation device, and performs image processing via the analog front end unit 130 using the formed primary image information as a primary image signal FIM of an electrical signal. It consists of a CCD or CMOS sensor that outputs to the device 140.
In FIG. 1, the image sensor 120 is described as a CCD as an example.

アナログフロントエンド部130は、タイミングジェネレータ131、およびアナログ/デジタル(A/D)コンバータ132を有する。
タイミングジェネレータ131では、撮像素子120のCCDの駆動タイミングを生成しており、A/Dコンバータ132は、CCDから入力されるアナログ信号をデジタル信号に変換し、画像処理装置140に出力する。
The analog front end unit 130 includes a timing generator 131 and an analog / digital (A / D) converter 132.
The timing generator 131 generates the drive timing of the CCD of the image sensor 120, and the A / D converter 132 converts an analog signal input from the CCD into a digital signal and outputs it to the image processing device 140.

信号処理部の一部を構成する画像処理装置(二次元コンボリューション手段)140は、前段のAFE130からくる撮像画像のデジタル信号を入力し、二次元のコンボリューション処理を施し、後段のカメラ信号処理部(DSP)150に渡す。
カメラ信号処理部(DSP)150は、画像処理装置140、露出制御装置190の露出情報に応じて、光学的伝達関数(OTF)に対してフィルタ処理を行う。
画像処理装置140は、撮像素子120からの被写体分散画像信号より分散のない画像(合焦画像)信号、および1または複数の分散の少ない画像(中間画像)信号を生成する機能を有する。また、信号処理部は、最初のステップでノイズ低減フィルタリングを施す機能を有する。
画像処理装置140の処理については後でさらに詳述する。
An image processing apparatus (two-dimensional convolution means) 140 constituting a part of the signal processing unit inputs a digital signal of a captured image coming from the previous AFE 130, performs two-dimensional convolution processing, and performs subsequent camera signal processing. Part (DSP) 150.
The camera signal processing unit (DSP) 150 performs a filtering process on the optical transfer function (OTF) according to the exposure information of the image processing device 140 and the exposure control device 190.
The image processing apparatus 140 has a function of generating an image (focused image) signal that is less dispersed than an object dispersed image signal from the image sensor 120 and one or a plurality of image signals (intermediate image) with less dispersion. The signal processing unit has a function of performing noise reduction filtering in the first step.
The processing of the image processing apparatus 140 will be described in detail later.

カメラ信号処理部(DSP)150は、カラー補間、ホワイトバランス、YCbCr変換処理、圧縮、ファイリング等の処理を行い、メモリ160への格納や画像モニタリング装置170への画像表示等を行う。   A camera signal processing unit (DSP) 150 performs processing such as color interpolation, white balance, YCbCr conversion processing, compression, and filing, and stores in the memory 160, displays an image on the image monitoring device 170, and the like.

露出制御装置190は、露出制御を行うとともに、操作部180などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、AFE130、画像処理装置140、DSP150等を制御し、システム全体の調停制御を司るものである。   The exposure control device 190 performs exposure control, has operation inputs such as the operation unit 180, determines the operation of the entire system according to those inputs, controls the AFE 130, the image processing device 140, the DSP 150, etc. It governs mediation control of the entire system.

本実施形態の撮像装置100は、複数の撮影モード、たとえばポートレートモードの他、マクロ撮影モード(至近)および遠景撮影モード(無限遠)を有しており、これら各種撮影モードは、操作部180により選択して入力することが可能に構成されている。
操作部180は、たとえば図2に示すように、カメラ(撮像装置)100の背面側の画像モニタリング装置170である液晶画面1701の近傍に配置されたMENUボタン1801、ズームボタン1802、および十字キー1803により構成される。
なお、ポートレートモードは、通常撮影時に被写体に応じて設定する撮影モードの1つであり、人物撮影に適した撮影モードで、中央の人物に焦点を合わせ、背景の画像をボケた画像とするものである。他の設定できるモードとしては、スポーツモード、夕焼けモード、夜景モード、白黒モード、セピアモード等がある。
The imaging apparatus 100 according to the present embodiment has a plurality of shooting modes, for example, a portrait mode, a macro shooting mode (close-up), and a far-field shooting mode (infinity). It is possible to select and input by.
For example, as shown in FIG. 2, the operation unit 180 includes a MENU button 1801, a zoom button 1802, and a cross key 1803 arranged in the vicinity of a liquid crystal screen 1701 that is an image monitoring device 170 on the back side of the camera (imaging device) 100. Consists of.
The portrait mode is one of the shooting modes set according to the subject during normal shooting, and is a shooting mode suitable for human shooting, focusing on the central person and making the background image blurred. Is. Other modes that can be set include a sport mode, a sunset mode, a night view mode, a black and white mode, and a sepia mode.

MENUボタン1801及び十字キー1803により各モードを選択して設定することができる。本実施形態においては、ポートレートモードは横撮影用ポートレートと縦撮影用ポートレートを選択可能に構成されている。なお、モードの切り替えは、液晶画面1701でのタッチパネル式でも構わない。   Each mode can be selected and set by the MENU button 1801 and the cross key 1803. In the present embodiment, the portrait mode is configured so that a portrait for horizontal shooting and a portrait for vertical shooting can be selected. Note that the mode switching may be a touch panel type on the liquid crystal screen 1701.

そして、本実施形態における撮像装置100は、ポートレート撮影をより容易にするために以下の機能を有している。
すなわち、画像処理装置140、DSP150、および露出制御装置190により形成される信号処理部は、撮像素子120からの被写体分散画像信号より分散のない画像信号、および分散の少ない画像信号を生成する等の分散画像信号に対する所定の信号処理を行うが、この信号処理部の処理前の画像と処理後の画像を合成して新たな画像を合成する生成機能を有している。
この生成機能において、背景領域は、ぼかし画像処理により複数の画像を生成し、前記処理後の主たる被写体を含む被写体領域の合焦画像を合成して、新たな画像を生成する。
And the imaging device 100 in this embodiment has the following functions in order to make portrait photography easier.
That is, the signal processing unit formed by the image processing device 140, the DSP 150, and the exposure control device 190 generates an image signal that is less dispersed than the subject dispersed image signal from the image sensor 120 and an image signal that has less dispersion. Predetermined signal processing is performed on the dispersed image signal, and a generation function for synthesizing a new image by synthesizing the unprocessed image and the processed image of the signal processing unit is provided.
In this generation function, the background region generates a plurality of images by the blurred image processing, and generates a new image by synthesizing the focused image of the subject region including the main subject after the processing.

さらに、信号処理部140,150等の信号処理前の画像、処理後の復元画像、合成した新たな画像をたとえば図示しないメモリバッファや画像表示メモリ160に記録する記録機能を備えている。
この記録機能を備えていることから、本撮像装置100は、生成機能を備えたことによるポートレート撮影を容易に行えるという効果に加えて、以下の効果を得ることが可能となっている。
すなわち、信号処理前の画像、処理後の画像を記録しておくことで、撮影して記録した後に明瞭にさせたい(ハッキリさせたい)エリア(逆に、ボカしたいエリア)の位置や大きさを選択し、新たな画像を作成することができる。
そのため、撮影時にポートレートモード以外で撮影した記録した画像からポートレート撮影画像を作成することができる。
Furthermore, a recording function for recording an image before signal processing, a restored image after processing, and a new composite image, for example, in a memory buffer (not shown) or an image display memory 160 is provided.
Since this recording function is provided, the imaging apparatus 100 can obtain the following effects in addition to the effect that portrait photography can be easily performed due to the generation function.
In other words, by recording the image before signal processing and the image after processing, the position and size of the area that you want to make clear (clear) after shooting and recording (in contrast, the area that you want to blur) You can select and create a new image.
Therefore, a portrait photographed image can be created from a recorded image photographed in a mode other than the portrait mode at the time of photographing.

このような機能を有する撮像装置100の信号処理部においては、画像復元処理後の画像から主たる被写体を含む被写体領域の合焦画像を抽出し、画像復元処理前の画像から被写体領域に接する背景領域の非合焦画像を抽出する。これら抽出された被写体領域の合焦画像と背景領域の非合焦画像とを合成して新たな画像を生成する。そして、生成された画像を記録する。
また、本実施形態では、操作部180は、被写体領域を使用者に指定させる指定部としても機能する。
In the signal processing unit of the imaging apparatus 100 having such a function, a focused image of a subject area including a main subject is extracted from an image after the image restoration process, and a background area in contact with the subject area from the image before the image restoration process The out-of-focus image is extracted. The extracted in-focus image of the subject area and the out-of-focus image of the background area are synthesized to generate a new image. Then, the generated image is recorded.
In the present embodiment, the operation unit 180 also functions as a designation unit that allows the user to designate a subject area.

以下に、本実施形態に係るポートレート画像の作成処理例を図3〜図9に関連付けて説明する。   Hereinafter, an example of a portrait image creation process according to the present embodiment will be described with reference to FIGS.

図3は、被写体部分の網掛け部分のみを復元処理を行い、ポートレートの画像を作成する例を示す図である。
図4は、横撮影ポートレートモード時の中央領域を示す図である。
図5は、縦撮影ポートレートモード時の中央領域を示す図である。
図6は、プレビュー画表示中に被写体選択をユーザが行っている様子であって、中央領域を示す枠の大きさと位置をユーザが十字キー1803によって決定する例を示す図である。
また、図7は、画像の中央領域を復元処理する場合のフローチャートであり、図8は、選択された領域を復元処理する場合のフローチャートである。
FIG. 3 is a diagram illustrating an example of creating a portrait image by performing restoration processing only on the shaded portion of the subject portion.
FIG. 4 is a diagram illustrating a central region in the horizontal photographing portrait mode.
FIG. 5 is a diagram illustrating a central region in the portrait shooting portrait mode.
FIG. 6 is a diagram illustrating an example in which the user selects a subject while the preview image is displayed, and the user determines the size and position of the frame indicating the center area using the cross key 1803.
FIG. 7 is a flowchart when the central area of the image is restored, and FIG. 8 is a flowchart when the selected area is restored.

<第1例>
撮像素子120によって得られたアナログ信号を画像処理部140でデジタル化され、DSP150においてY、Cb、Cr信号になって、表示部としての画像モニタリング装置170にスルー画として表示される。
操作部180によって、縦撮影ポートレートモードもしくは、横撮影ポートレートモードを選択すると、図4または図5に示すように、撮像された画像の中央の部分に縦撮影用、横撮影用の枠が表示され、ユーザは、その枠内に人物を合わせ撮影する。
すると、図3に示すように、枠内のみ画像処理がされ被写体部分の網掛け部分のみを復元処理することによりポートレートの画像が作成できる。
ちなみに、縦撮影、横撮影かどうかは、角速度センサを用いて、自動的に検出してもよい。
<First example>
The analog signal obtained by the image sensor 120 is digitized by the image processing unit 140, converted into Y, Cb, and Cr signals by the DSP 150 and displayed as a through image on the image monitoring device 170 as a display unit.
When the portrait shooting portrait mode or the landscape shooting portrait mode is selected by the operation unit 180, as shown in FIG. 4 or 5, frames for vertical shooting and horizontal shooting are provided at the center of the captured image. Then, the user photographs a person in the frame.
Then, as shown in FIG. 3, a portrait image can be created by performing image processing only within the frame and restoring only the shaded portion of the subject portion.
Incidentally, whether vertical shooting or horizontal shooting may be automatically detected using an angular velocity sensor.

この処理動作を図7に関連付けて説明すると、縦撮影用ポートレートモード、または、横撮影用ポートレートモードが設定されると、撮像装置100は、撮像素子120による撮像動作を開始して、表示部である画像モニタリング装置170にプレビュー画を表示させる(ST1)。
そして、プレビュー画表示中にユーザがシャッターキーを押すと(ST2)、画像をバッファのRAMに記録し(ST3)、あらかじめ設定されている中央の領域のみを画像復元を行い(ST4)、記録処理を行う(ST5)。
This processing operation will be described with reference to FIG. 7. When the portrait mode for vertical shooting or the portrait mode for horizontal shooting is set, the imaging device 100 starts the imaging operation by the image sensor 120 and displays it. The preview image is displayed on the image monitoring device 170 as a part (ST1).
When the user presses the shutter key while displaying the preview image (ST2), the image is recorded in the RAM of the buffer (ST3), and only the central area set in advance is restored (ST4), and the recording process is performed. (ST5).

<第2例>
この場合、撮影完了後、プレビュー画像において、図6に示すように、ユーザが被写体を選択し、その部分を画像処理することによって、ポートレートの画像が作成できる。
この処理動作を図8に関連付けて説明すると、縦撮影用ポートレートモード、または、横撮影用ポートレートモードが設定されると、撮像装置100は、撮像素子120による撮像動作を開始して、表示部である画像モニタリング装置170にプレビュー画を表示させる(ST11)。
そして、プレビュー画表示中にユーザがシャッターキーを押すと(ST12)、画像をバッファのRAMに記録し(ST13)、プレビュー画像を表示し、操作部180によって、ユーザが被写体の選択を行う(ST14)。
そして、選択された領域部分の画像復元処理を行い(ST15)、復元画像の録処理を行う(ST16)。
<Second example>
In this case, after the photographing is completed, a portrait image can be created by selecting a subject in the preview image and performing image processing on that portion as shown in FIG.
This processing operation will be described with reference to FIG. 8. When the portrait mode for vertical shooting or the portrait mode for horizontal shooting is set, the imaging apparatus 100 starts the imaging operation by the image sensor 120 and displays it. The preview image is displayed on the image monitoring device 170 as a part (ST11).
Then, when the user presses the shutter key during the preview image display (ST12), the image is recorded in the RAM of the buffer (ST13), the preview image is displayed, and the user selects a subject by the operation unit 180 (ST14). ).
Then, image restoration processing of the selected area portion is performed (ST15), and restored image recording processing is performed (ST16).

ここで、本発明の特徴である操作部180により液晶画面1701での設定範囲内又は設定範囲外における合焦画像を生成し、ボケ画像と合成して新たな画像を生成する具体例について説明する。
図9は、撮影して記録した画像を液晶画面1701に表示した状態を示す図である。図9(A)は、信号処理前の画像(ボケ画像)を表示した状態を示す図である。
図9(B)の左側は操作部180の操作により信号処理後の画像(合焦画像)範囲として全領域を網掛けにより指定している状態を示す図であり、右側は本指定により全領域で合焦画像を表示した状態を示す図である。
本発明は、この合焦画像とする範囲の大きさ・位置を操作部180で任意に可変可能とすることを特徴とし、図9(C)の左側は操作部180により中心の人物近傍のみを合焦画像範囲として指定している状態を示す図であり、右側は本指定により人物近傍のみ合焦画像とし、周辺をボケ画像で表示した状態を示す図である。なお、合焦画像範囲の形状も操作部180で選択可能とすればよく、たとえば図9(D)に示すような台形形状や四角形状であってもよい。
また、図9(E)の左側は操作部180によりボケ画像範囲として右下部分を指定している状態を示す図であり、右側は本指定により右下部分(花の近傍)のみボケ画像とし、その他の部分を合焦画像で表示した状態を示す図である。
Here, a specific example in which a focused image within or outside the setting range on the liquid crystal screen 1701 is generated by the operation unit 180, which is a feature of the present invention, and is combined with the blurred image to generate a new image will be described. .
FIG. 9 is a diagram showing a state in which an image that has been shot and recorded is displayed on the liquid crystal screen 1701. FIG. 9A is a diagram illustrating a state in which an image (blurred image) before signal processing is displayed.
The left side of FIG. 9B is a diagram showing a state in which all areas are designated by shading as an image (focused image) range after signal processing by operation of the operation unit 180, and the right side is the whole area designated by this designation. It is a figure which shows the state which displayed the focused image by.
The present invention is characterized in that the size and position of the range to be a focused image can be arbitrarily changed by the operation unit 180, and the left side of FIG. It is a figure which shows the state designated as an in-focus image range, and the right side is a figure which shows the state which made only the vicinity of a person a focused image by this designation | designated, and displayed the periphery with a blurred image. Note that the shape of the focused image range only needs to be selectable by the operation unit 180, and may be, for example, a trapezoidal shape or a quadrangular shape as illustrated in FIG.
Further, the left side of FIG. 9E is a diagram showing a state in which the lower right part is designated as the blurred image range by the operation unit 180, and the right side is a blurred image only in the lower right part (near the flower) by this designation. It is a figure which shows the state which displayed the other part by the focused image.

ここで、範囲を指定する具体的方法について説明する。たとえば、液晶画面1701上のカーソル(十字マーク)を十字キー1803で移動させて中心と半径を指定して円形状を決定したり、3点を指定して円形状を決定したり、図10(A)に示すように、中心と2つの半径を指定して楕円形状を決定すればよい。 図10は、液晶画面1701の表示状態を示す図である。   Here, a specific method for specifying the range will be described. For example, the cursor (cross mark) on the liquid crystal screen 1701 is moved with the cross key 1803 to specify the center and radius to determine the circular shape, to specify three points to determine the circular shape, FIG. As shown in A), an elliptical shape may be determined by designating the center and two radii. FIG. 10 is a diagram showing a display state of the liquid crystal screen 1701.

また、形状の角を指定して多角形状を決定してもよい。また、画面を2分するような場合は、2点を指定して2分させることを決定してもよい。たとえば、図10(B)に示すように、角に相当する4点を指定して台形形状を決定すればよい。ここで、図10(A)及び図10(B)に示す矢印は、指定した範囲内を十時キー1803によりボケ画像とするか合焦画像とするかの選択、及び/又は指定した範囲を移動させることを示したものである。   Alternatively, the polygonal shape may be determined by designating corners of the shape. Further, when the screen is divided into two, it may be determined that two points are specified and divided into two. For example, as shown in FIG. 10B, the trapezoidal shape may be determined by designating four points corresponding to the corners. Here, the arrows shown in FIGS. 10A and 10B indicate selection of whether the designated range is to be a blurred image or an in-focus image with the 10 o'clock key 1803 and / or the designated range. It shows that it is moved.

図11は、操作部180による手順を示したものである。
図11(A)に示すように、まずMENUボタン1801を押して液晶画面1701内にメニューを表示させ、十字キー1803やズームボタン1802を用いて範囲を選択する。範囲の選択は、図11に示すような点による指定と、予めテンプレートとして用意した範囲の形状を選択してサイズを調整するいずれかであればよい。
点による指定を選択した場合、図11(B)(C)に示すように、液晶画面1701上に矢印が出て、この矢印を十字キー1803で移動して十字キー1803の中心を押圧することでコの字として角が決定する。これを4回繰り返すことで図11(C)の状態となり、ズームボタン1802により処理実行を選択し、十字キー1803の中心を押圧する。そして、図面では省略するが、指定した範囲をボケ画像とするか合焦画像とするかの選択をする。指定した範囲を合焦画像とした場合には、図11(D)に示すような画像が表示されるとともに、このボケ画像と合焦画像による合成画像も画像表示メモリ160に記録する。
FIG. 11 shows a procedure by the operation unit 180.
As shown in FIG. 11A, first, the MENU button 1801 is pressed to display a menu in the liquid crystal screen 1701, and a range is selected using the cross key 1803 or the zoom button 1802. The selection of the range may be any of designation by points as shown in FIG. 11 and adjustment of the size by selecting the shape of the range prepared as a template in advance.
When designation by a point is selected, as shown in FIGS. 11B and 11C, an arrow appears on the liquid crystal screen 1701, and this arrow is moved with the cross key 1803 to press the center of the cross key 1803. The angle is determined as a U-shape. By repeating this four times, the state shown in FIG. 11C is obtained. Processing execution is selected by the zoom button 1802, and the center of the cross key 1803 is pressed. Then, although omitted in the drawing, it is selected whether the designated range is a blurred image or a focused image. When the designated range is an in-focus image, an image as shown in FIG. 11D is displayed, and a composite image of the blurred image and the in-focus image is also recorded in the image display memory 160.

なお、ここまでの実施例では、ボケ画像又は合焦画像の範囲(位置・大きさ)を指定して、ボケ画像と合焦画像を合成して新たな画像を生成して記録する場合について説明したが、本発明は、合焦画像とボケ画像の中間となる中間画像を生成し、中間画像とボケ画像、あるいは複数の中間画像により合焦画像から離れるに従って序々にボケ度合いが大きくなる段階的ボケ画像を生成して記録することを特徴とする。なお、本発明の段階的ボケ画像は、合焦画像の範囲外の部分を自動的に処理を行えばよく、何段階にするかをユーザが操作部180で指定するようにしてもよい。   In the embodiments described so far, a case where a range (position / size) of a blurred image or a focused image is designated, and a new image is generated and recorded by combining the blurred image and the focused image is described. However, the present invention generates an intermediate image that is intermediate between the focused image and the blurred image, and the degree of blur gradually increases as the distance from the focused image increases due to the intermediate image and the blurred image, or a plurality of intermediate images. A blurred image is generated and recorded. The stepwise blurred image of the present invention may be processed automatically for the portion outside the range of the in-focus image, and the user may specify the number of steps with the operation unit 180.

この中間画像は、分散の少ない画像であり、合焦画像よりも合焦しておらず、ボケ画像よりもボケていない画像を意味するものとし、合焦画像を生成するのと同処理で完全な合焦画像を生成しない処理、例えば合焦画像とするための係数と異なる係数により処理することにより生成することができる。そして、本発明は、信号処理後の中間画像と合焦画像を合成して新たな画像を合成したことを特徴としている。   This intermediate image is an image with less dispersion, means an image that is less focused than the focused image, and is less blurred than the blurred image, and is completely the same process that generates the focused image. It can be generated by processing that does not generate a focused image, for example, by processing with a coefficient different from the coefficient for obtaining a focused image. The present invention is characterized in that a new image is synthesized by synthesizing the intermediate image after the signal processing and the focused image.

この生成機能により、背景領域に中間画像を生成し、主たる被写体を含む被写体領域に合焦画像を生成し、これらの画像を合成して新たな画像を生成することが可能となる。ボケ画像と合焦画像を合成する場合、その合成部分近傍で画質に大きな差が発生してしまい、不自然なボケ味となってしまう可能性があるが、上述したようにボケ画像の代わりに中間画像とすることにより、合成部分近傍の画質の差が緩和され、より自然なボケ味を出すことができるようになる。これより、本実施例のボケ画像を中間画像に置き換えた場合であっても本発明の効果を得ることができる。さらに、図12(a)に示すように合焦画像Aの周囲に中間画像B、さらにその周囲に中間画像Bよりボケ度合いが大きい中間画像Cまたはボケ画像Cを形成することで、合焦画像から離れるに従って序々にボケ度合いが大きくなる段階的ボケ画像を生成することができ、ポートレート撮像画像に種々のバリエーションを持たせることができるようになる。図12(b)は、ボケ度合いを示す図であり、左右方向が図12(a)のX方向、上下方向がボケ度合いを示す大きさであり、高い程ボケ度合いが小さい状態を示し、合焦画像Aから離れるに従って2段階でボケ度合いが大きくなる段階的ボケ画像を生成した状態を示している。   With this generation function, it is possible to generate an intermediate image in the background area, generate a focused image in the subject area including the main subject, and synthesize these images to generate a new image. When a blurred image and a focused image are combined, a large difference in image quality may occur in the vicinity of the combined portion, resulting in an unnatural blur, but as described above, instead of a blurred image By using the intermediate image, the difference in image quality in the vicinity of the combined portion is alleviated, and a more natural blur can be obtained. Accordingly, the effect of the present invention can be obtained even when the blurred image of this embodiment is replaced with an intermediate image. Further, as shown in FIG. 12 (a), an intermediate image B is formed around the focused image A, and an intermediate image C or a blurred image C having a greater degree of blur than the intermediate image B is formed around the focused image A. It is possible to generate a stepwise blurred image in which the degree of blur gradually increases as the user moves away from the image, and the portrait captured image can have various variations. FIG. 12B is a diagram showing the degree of blur. The horizontal direction is the X direction in FIG. 12A, the vertical direction is the magnitude indicating the degree of blur, and the higher the level, the smaller the degree of blur. A state is shown in which a stepwise blurred image in which the degree of blurring increases in two steps as the distance from the focused image A increases.

なお、本実施例では、2段階でボケ度合いが大きくなる段階的ボケ画像を生成する場合について説明したが、図13(a)に示すように多段階のボケ画像を生成するようにしてもよい。また、ボケ度合いの異なる中間画像を増やすことにより図13(b)に示すような略直線的なボケ度合いの変化となるようにしてもよい。また、図13(c)に示すように、合焦画像近傍のボケ度合いをやや大きくして曲線的な変化となるようにすることで、合焦画像の合焦度合いを強調することができる。さらに、図13(d)に示すように、合焦画像近傍のボケ度合いをやや緩やかにして曲線的な変化となるようにすることで、序々にボケる印象を持たせることができる。   In the present embodiment, the case where the stepwise blurred image in which the degree of blurring increases in two steps has been described, but a multistage blurred image may be generated as shown in FIG. . Further, by increasing the number of intermediate images having different degrees of blur, a substantially linear blur degree change as shown in FIG. 13B may be obtained. Further, as shown in FIG. 13C, the degree of focus of the focused image can be enhanced by slightly increasing the degree of blurring in the vicinity of the focused image so as to have a curvilinear change. Furthermore, as shown in FIG. 13 (d), by gradually changing the degree of blurring in the vicinity of the focused image so as to have a curvilinear change, an impression of blurring can be given gradually.

本発明では、新たに1または複数の中間画像を形成する必要がある。本実施例では信号処理部140,150,190が1つの場合について説明しているが、中間画像を生成する場合には、信号処理部140,150,190等を2つ以上有してもよい。2つ以上有することにより、1つを合焦画像生成用、それ以外を中間画像生成用の信号処理部と区分けすることができ、合焦画像生成と中間画像生成を同時に行えることで処理スピードを高速化することができる。   In the present invention, it is necessary to newly form one or a plurality of intermediate images. In this embodiment, the case where there is one signal processing unit 140, 150, 190 has been described. However, when an intermediate image is generated, two or more signal processing units 140, 150, 190, etc. may be provided. . By having two or more, it is possible to classify one as a signal processing unit for generating a focused image and the other as a signal processing unit for generating an intermediate image. The speed can be increased.

本実施形態の撮像装置100は、さらに、手振れ等の影響を受けずに、人物等をよりハッキリさせることができるように、以下に説明するように、光学系、画像処理装置に特徴的な構成を有している。




以下、本実施形態の光学系、画像処理装置の構成および機能について具体的には説明する。
The imaging apparatus 100 according to the present embodiment further has a characteristic configuration in the optical system and the image processing apparatus as described below so that a person or the like can be more clearly recognized without being affected by camera shake or the like. have.




Hereinafter, the configuration and function of the optical system and the image processing apparatus according to the present embodiment will be specifically described.

図14は、本実施形態に係るズーム光学系110の構成例を模式的に示す図である。この図は広角側を示している。
また、図15は深度拡張光学系システムの原理を説明するための図である。
また、図16は、本実施形態に係るズーム光学系110の構成例を模式的に示す図である。図17は広角側の像高中心のスポット形状を示す図であり、図18は望遠側の像高中心のスポット形状を示す図である。
FIG. 14 is a diagram schematically illustrating a configuration example of the zoom optical system 110 according to the present embodiment. This figure shows the wide angle side.
FIG. 15 is a diagram for explaining the principle of the depth extension optical system.
FIG. 16 is a diagram schematically illustrating a configuration example of the zoom optical system 110 according to the present embodiment. FIG. 17 is a diagram showing a spot shape at the center of the image height on the wide angle side, and FIG. 18 is a diagram showing a spot shape at the center of the image height on the telephoto side.

図14のズーム光学系110は、物体側OBJSに配置された物体側レンズ111と、撮像素子120に結像させるための結像レンズ112と、物体側レンズ111と結像レンズ112間に配置され、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)群113を有する。また、物体側レンズ111と結像レンズ112間には図示しない絞りが配置される。
なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。
The zoom optical system 110 in FIG. 14 is disposed between an object side lens 111 disposed on the object side OBJS, an image forming lens 112 for forming an image on the image sensor 120, and between the object side lens 111 and the image forming lens 112. An optical wavefront modulation element (wavefront forming optical element: Wavefront) made of, for example, a phase plate (Cubic Phase Plate) having a three-dimensional curved surface, which deforms the wavefront of the image formation on the light receiving surface of the imaging element 120 by the imaging lens 112. Coding Optical Element) group 113 is included. A stop (not shown) is disposed between the object side lens 111 and the imaging lens 112.
In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-described third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change by coding on the lens surface (for example, wavefront modulation) A light wavefront modulation element such as a hybrid lens) or a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element) may be used.

図14のズーム光学系110は、デジタルカメラに用いられる3倍ズームに光学位相板113aを挿入した例である。
図で示された位相板113aは、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子120上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
この規則的に分光した画像をデジタル処理により、ピントの合った画像に復元する手段を被写界深度拡張光学系システムといい、この処理を画像処理装置140において行う。
The zoom optical system 110 in FIG. 14 is an example in which an optical phase plate 113a is inserted into a 3 × zoom used in a digital camera.
The phase plate 113a shown in the figure is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 120 is realized.
In other words, the phase plate 113a forms a deep luminous flux (which plays a central role in image formation) and a flare (blurred portion).
Means for restoring the regularly dispersed image into a focused image by digital processing is called a depth-of-field expansion optical system, and this processing is performed in the image processing apparatus 140.

ここで、この被写界深度拡張光学系システムの基本原理について説明する。
図15に示すように、被写体の画像fが光学系Hに入ることにより、画像gが生成される。
これは、次のような式で表される。
Here, the basic principle of this depth-of-field extended optical system will be described.
As shown in FIG. 15, when the subject image f enters the optical system H, an image g is generated.
This is expressed by the following equation.

(数1)
g=H*f
ただし、*はコンボリューションを表す。
(Equation 1)
g = H * f
However, * represents convolution.

生成された画像から被写体を求めるためには、次の処理を要する。   In order to obtain the subject from the generated image, the following processing is required.

(数2)
f=H-−1*g
ここで、Hに関するカーネルサイズと演算係数について説明する。
ズームポジションをZPn,ZPn−1・・・とする。また、それぞれのH関数をHn,Hn−1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、次のようになる。

Figure 2008028454
(Equation 2)
f = H -1 * g
Here, the kernel size and calculation coefficient regarding H will be described.
Let the zoom positions be ZPn, ZPn-1,. In addition, each H function is defined as Hn, Hn-1,.
Since each spot image is different, each H function is as follows.
Figure 2008028454

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。
ここで、各々のH関数はメモリに格納しておいても構わないし、PSFを物体距離の関数としておき、物体距離によって計算し、H関数を算出することによって任意の物体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.
Here, each H function may be stored in a memory, and the PSF is set as a function of the object distance, and is calculated based on the object distance. By calculating the H function, an optimum object distance is obtained. It may be possible to set so as to create a filter. Alternatively, the H function may be directly obtained from the object distance using the H function as a function of the object distance.

本実施形態においては、図1に示すように、光学系110からの像を撮像素子120で受像して、画像処理装置140に入力させ、光学系に応じた変換係数を取得して、取得した変換係数をもって撮像素子120からの分散画像信号より分散のない画像信号を生成するように構成している。   In the present embodiment, as shown in FIG. 1, an image from the optical system 110 is received by the image sensor 120 and input to the image processing device 140, and a conversion coefficient corresponding to the optical system is acquired and acquired. An image signal having no dispersion is generated from the dispersion image signal from the image sensor 120 with a conversion coefficient.

なお、本実施形態において、分散とは、上述したように、位相板113aを挿入することにより、撮像素子120上ではピントのどこにも合わない画像を形成し、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to forming a non-focused image on the image sensor 120 by inserting the phase plate 113a as described above. It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

次に、画像処理装置140の構成および処理について説明する。
画像処理装置140は、図1に示すように、生(RAW)バッファメモリ141、コンボリューション演算器142、記憶手段としてのカーネルデータ格納ROM143、およびコンボリューション制御部144を有する。
Next, the configuration and processing of the image processing apparatus 140 will be described.
As illustrated in FIG. 1, the image processing apparatus 140 includes a raw (RAW) buffer memory 141, a convolution calculator 142, a kernel data storage ROM 143 as a storage unit, and a convolution control unit 144.

コンボリューション制御部144は、コンボリューション処理のオンオフ、画面サイズ、カーネルデータの入れ替え等の制御を行い、露出制御装置190により制御される。
また、カーネルデータ格納ROM143には、図19に示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータが格納されており、露出制御装置190によって露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
図19の例では、カーネルデータAは光学倍率(×1.5)、カーネルデータBは光学倍率(×5)、カーネルデータCは光学倍率(×10)に対応したデータとなっている。
The convolution control unit 144 performs control such as on / off of the convolution process, screen size, and replacement of kernel data, and is controlled by the exposure control device 190.
Further, the kernel data storage ROM 143 stores kernel data for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG. The exposure information is acquired and the kernel data is selected and controlled through the convolution control unit 144.
In the example of FIG. 19, the kernel data A is data corresponding to the optical magnification (× 1.5), the kernel data B is data corresponding to the optical magnification (× 5), and the kernel data C is data corresponding to the optical magnification (× 10).

図20は、露出制御装置190の露出情報により切り替え処理のフローチャートである。
まず、露出情報(RP)が検出されコンボリューション制御部144に供給される(ST21)。
コンボリューション制御部144においては、露出情報RPから、カーネルサイズ、数値演係数がレジスタにセットされる(ST22)。
そして、撮像素子120で撮像され、AFE130を介して二次元コンボリューション演算部142に入力された画像データに対して、レジスタに格納されたデータに基づいてコンボリューション演算が行われ、演算され変換されたデータがカメラ信号処理部150に転送される(ST23)。
FIG. 20 is a flowchart of the switching process based on the exposure information of the exposure control device 190.
First, exposure information (RP) is detected and supplied to the convolution control unit 144 (ST21).
In the convolution control unit 144, the kernel size and the numerical performance coefficient are set in the register from the exposure information RP (ST22).
The image data captured by the image sensor 120 and input to the two-dimensional convolution operation unit 142 via the AFE 130 is subjected to a convolution operation based on the data stored in the register, and is calculated and converted. The transferred data is transferred to the camera signal processing unit 150 (ST23).

以下に画像処理装置140の信号処理部とカーネルデータ格納ROMについてさらに具体的な例について説明する。
図21は、信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図21の例は露出情報に応じたフィルタカーネルを予め用意した場合のブロック図である。
A more specific example of the signal processing unit and kernel data storage ROM of the image processing apparatus 140 will be described below.
FIG. 21 is a diagram illustrating a first configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 21 is a block diagram when a filter kernel corresponding to the exposure information is prepared in advance.

露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。2次元コンボリューション演算部142においては、カーネルデータを用いてコンボリューション処理を施す。   Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144. The two-dimensional convolution operation unit 142 performs convolution processing using kernel data.

図22は、信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図22の例は、信号処理部の最初にノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタ処理ST31を予め用意した場合のブロック図である。
FIG. 22 is a diagram illustrating a second configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 22 is a block diagram when the signal processing unit has a noise reduction filter processing step at the beginning, and noise reduction filter processing ST31 corresponding to exposure information is prepared in advance as filter kernel data.

露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142においては、前記ノイズ低減フィルタST31を施した後、カラーコンバージョン処理ST32によって色空間を変換、その後カーネルデータを用いてコンボリューション処理ST33を施す。
再度ノイズ処理ST34を行い、カラーコンバージョン処理ST35によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、再度のノイズ処理ST34は省略することも可能である。
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
In the two-dimensional convolution calculation unit 142, after applying the noise reduction filter ST31, the color space is converted by the color conversion process ST32, and then the convolution process ST33 is performed using the kernel data.
Noise processing ST34 is performed again, and the original color space is restored by color conversion processing ST35. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
It should be noted that the second noise processing ST34 can be omitted.

図23は、信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図23の例は、露出情報に応じたOTF復元フィルタを予め用意した場合のブロック図である。
露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142は、ノイズ低減処理ST41、カラーコンバージョン処理ST42の後に、前記OTF復元フィルタを用いてコンボリューション処理ST43を施す。
再度ノイズ処理ST44を行い、カラーコンバージョン処理ST45によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST41、ST44は、いずれか一方のみでもよい。
FIG. 23 is a diagram illustrating a third configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 23 is a block diagram in a case where an OTF restoration filter corresponding to exposure information is prepared in advance.
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
The two-dimensional convolution operation unit 142 performs the convolution process ST43 using the OTF restoration filter after the noise reduction process ST41 and the color conversion process ST42.
Noise processing ST44 is performed again, and the original color space is restored by color conversion processing ST45. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
Note that only one of the noise reduction processes ST41 and ST44 may be performed.

図24は、信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図24の例は、ノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタを予め用意した場合のブロック図である。
なお、再度のノイズ処理ST5は省略することも可能である。
露出設定時に決まる露出情報を取得し、コンボリューション制御部144を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部142においては、ノイズ低減フィルタ処理ST51を施した後、カラーコンバージョン処理ST52によって色空間を変換、その後カーネルデータを用いてコンボリューション処理をST53施す。
再度、露出情報に応じたノイズ処理ST54を行い、カラーコンバージョン処理ST55によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST51は省略することも可能である。
FIG. 24 is a diagram illustrating a fourth configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 24 is a block diagram when a noise reduction filter processing step is included and a noise reduction filter corresponding to exposure information is prepared in advance as filter kernel data.
It is possible to omit the noise processing ST5 again.
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 144.
In the two-dimensional convolution operation unit 142, after performing the noise reduction filter process ST51, the color space is converted by the color conversion process ST52, and then the convolution process is performed using the kernel data in ST53.
Again, noise processing ST54 corresponding to the exposure information is performed, and the original color space is restored by color conversion processing ST55. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
The noise reduction process ST51 can be omitted.

以上は露出情報のみに応じて2次元コンボリューション演算部142においてフィルタ処理を行う例を説明したが、たとえば被写体距離情報、ズーム情報、あるいは撮影モード情報と露出情報とを組み合わせることにより適した演算係数の抽出、あるいは演算を行うことが可能となる。   The example in which the filtering process is performed in the two-dimensional convolution calculation unit 142 according to only the exposure information has been described above. For example, the calculation coefficient suitable for combining subject distance information, zoom information, or shooting mode information and exposure information is suitable. Can be extracted or calculated.

図25は、被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図25は、撮像素子220からの被写体分散画像信号より分散のない画像信号を生成するが画像処理装置300の構成例を示している。
FIG. 25 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
FIG. 25 shows an example of the configuration of the image processing apparatus 300 that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 220.

画像処理装置300は、図25に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。
この画像処理装置300においては、物体概略距離情報検出装置400から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。
As illustrated in FIG. 25, the image processing apparatus 300 includes a convolution apparatus 301, a kernel / numerical operation coefficient storage register 302, and an image processing operation processor 303.
In this image processing apparatus 300, the image processing arithmetic processor 303 that has obtained the information about the approximate distance of the object distance of the subject read from the object approximate distance information detection apparatus 400 and the exposure information, performs an appropriate calculation on the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置400により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
As described above, in the case of an imaging device including a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, an image signal without proper aberrations by image processing within the predetermined focal length range However, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 400 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

前記の画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成をとることができる。   The image processing is performed by convolution calculation. To achieve this, for example, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the focal length, The correction coefficient is used to correct the calculation coefficient, and an appropriate convolution calculation can be performed using the corrected calculation coefficient.

この構成の他にも、以下の構成を採用することが可能である。
焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。
In addition to this configuration, the following configuration can be employed.
The kernel size and the convolution calculation coefficient itself are stored in advance according to the focal length, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient according to the focal length is stored in advance as a function. In addition, it is possible to employ a configuration in which a calculation coefficient is obtained from this function based on the focal length and a convolution calculation is performed using the calculated calculation coefficient.

図25の構成に対応付けると次のような構成をとることができる。
変換係数記憶手段としてのレジスタ302に被写体距離に応じて少なくとも位相板213aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき、レジスタ302から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
When associated with the configuration of FIG. 25, the following configuration can be adopted.
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 213a are stored in advance in the register 302 as the conversion coefficient storage means in accordance with the subject distance. The image processing arithmetic processor 303 functions as a coefficient selection unit that selects a conversion coefficient corresponding to the distance from the register 302 to the subject based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit. .
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.
Alternatively, as described above, the image processing calculation processor 303 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit, and stores it in the register 302. Store.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系210のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板213aに起因する収差に対応した変換係数を予め記憶する。
そして、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 210 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 213a is stored in advance in the register 302 that also functions as the second conversion coefficient storage unit.
Then, based on the distance information generated by the object approximate distance information detection device 400 as the subject distance information generation means, the image processing arithmetic processor 303 as the correction value selection means performs a process from the register 302 as the correction value storage means to the subject. Select a correction value according to the distance.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図26は、ズーム情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図26は、撮像素子220からの被写体分散画像信号より分散のない画像信号を生成するが画像処理装置300Aの構成例を示している。
画像処理装置300Aは、図25と同様に、図26に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。
FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that combines zoom information and exposure information.
FIG. 26 shows an example of the configuration of the image processing apparatus 300A that generates a non-dispersed image signal from the subject dispersed image signal from the image sensor 220.
Similarly to FIG. 25, the image processing device 300A includes a convolution device 301, a kernel / numerical value operation coefficient storage register 302, and an image processing operation processor 303 as shown in FIG.

この画像処理装置300Aにおいては、ズーム情報検出装置500から読み出したズーム位置またはズーム量に関する情報および露出情報を得た画像処理演算プロセッサ303では、露出情報およびそのズーム位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値演算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300A, the image processing arithmetic processor 303 that has obtained information and exposure information regarding the zoom position or zoom amount read from the zoom information detection apparatus 500 uses the exposure information and the zoom position in an appropriate calculation. Then, the kernel size and its calculation coefficient are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that calculates using the value to restore the image.

上述したように、光波面変調素子としての位相板をズーム光学系に備えた撮像装置に適用する場合、ズーム光学系のズーム位置によって生成されるスポット像が異なる。このため、位相板より得られる焦点ズレ画像(スポット画像)を後段のDSP等でコンボリューション演算する際、適性な焦点合わせ画像を得るためには、ズーム位置に応じて異なるコンボリューション演算が必要となる。   As described above, when a phase plate as a light wavefront modulation element is applied to an imaging apparatus provided in a zoom optical system, the spot image generated differs depending on the zoom position of the zoom optical system. For this reason, when a convolution calculation is performed on a defocus image (spot image) obtained from the phase plate by a DSP or the like at a later stage, different convolution calculations are required depending on the zoom position in order to obtain an appropriate focused image. Become.

そこで、本実施形態においては、ズーム情報検出装置500を設け、ズーム位置に応じて適正なコンボリューション演算を行い、ズーム位置によらず適性な焦点合わせ画像を得るように構成されている。
画像処理装置300Aにおける適正なコンボリーション演算には、コンボリューションの演算係数をレジスタ302に共通で1種類記憶しておく構成をとることができる。
Therefore, in the present embodiment, the zoom information detection apparatus 500 is provided, and is configured to perform an appropriate convolution calculation according to the zoom position and obtain an appropriate focused image regardless of the zoom position.
For proper convolution calculation in the image processing apparatus 300 </ b> A, one type of convolution calculation coefficient can be stored in the register 302 in common.

この構成の他にも、以下の構成を採用することが可能である。
各ズーム位置に応じて、レジスタ302に補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、各ズーム位置に応じて、レジスタ302にカーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算行う構成、ズーム位置に応じた演算係数を関数としてレジスタ302に予め記憶しておき、ズーム位置によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等を採用することが可能である。
In addition to this configuration, the following configuration can be employed.
A configuration in which a correction coefficient is stored in advance in the register 302 in accordance with each zoom position, a calculation coefficient is corrected using the correction coefficient, and an appropriate convolution calculation is performed using the corrected calculation coefficient. Then, the kernel 302 and the convolution calculation coefficient itself are stored in the register 302 in advance, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient corresponding to the zoom position is stored in the register 302 as a function in advance. It is possible to adopt a configuration in which a calculation coefficient is obtained from this function based on the zoom position, and a convolution calculation is performed using the calculated calculation coefficient.

図26の構成に対応付けると次のような構成をとることができる。
変換係数記憶手段としてのレジスタ302にズーム光学系210のズーム位置またはズーム量に応じた位相板213aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、ズーム情報生成手段としてのズーム情報検出装置400により生成された情報に基づき、レジスタ302からズーム光学系210のズ−ム位置またはズーム量に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
Corresponding to the configuration of FIG. 26, the following configuration can be taken.
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 213a corresponding to the zoom position or zoom amount of the zoom optical system 210 are stored in advance in the register 302 as the conversion coefficient storage means. A coefficient by which the image processing arithmetic processor 303 selects a conversion coefficient corresponding to the zoom position or the zoom amount of the zoom optical system 210 from the register 302 based on the information generated by the zoom information detecting device 400 as the zoom information generating means. It functions as a selection means.
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、ズーム情報生成手段としてのズーム情報検出装置400により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
Alternatively, as described above, the image processing arithmetic processor 303 as the conversion coefficient calculation means calculates the conversion coefficient based on the information generated by the zoom information detection device 400 as the zoom information generation means and stores it in the register 302.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系210のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板213aに起因する収差に対応した変換係数を予め記憶する。
そして、ズーム情報生成手段としてのズーム情報検出装置400により生成されたズーム情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302からズーム光学系のズーム位置またはズーム量に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 210 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 213a is stored in advance in the register 302 that also functions as the second conversion coefficient storage unit.
Then, based on the zoom information generated by the zoom information detecting device 400 serving as the zoom information generating unit, the image processing arithmetic processor 303 serving as the correction value selecting unit receives the zoom position of the zoom optical system from the register 302 serving as the correction value storing unit. Alternatively, a correction value corresponding to the zoom amount is selected.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図27に、露出情報と、物体距離情報と、ズーム情報とを用いた場合のフィルタの構成例を示す。
この例では、物体距離情報とズーム情報で2次元的な情報を形成し、露出情報が奥行きのような情報を形成している。
FIG. 27 shows a configuration example of a filter when exposure information, object distance information, and zoom information are used.
In this example, two-dimensional information is formed by object distance information and zoom information, and exposure information forms information such as depth.

図28は、撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図28は、撮像素子220からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300Bの構成例を示している。
FIG. 28 is a diagram illustrating a configuration example of an image processing apparatus that combines shooting mode information and exposure information.
FIG. 28 shows a configuration example of an image processing device 300B that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 220.

画像処理装置300Bは、図22および図23と同様に、図25に示すように、コンボリューション装置301、記憶手段としてのカーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   Similar to FIGS. 22 and 23, the image processing device 300B includes a convolution device 301, a kernel / numerical operation coefficient storage register 302 as a storage unit, and an image processing operation processor 303, as shown in FIG.

この画像処理装置300Bにおいては、物体概略距離情報検出装置600から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300B, the image processing arithmetic processor 303 that has obtained information and exposure information related to the approximate object distance of the subject read from the approximate object distance information detection apparatus 600 performs an appropriate calculation for the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

この場合も上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置400により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
Also in this case, as described above, in the case of an imaging apparatus including a phase plate (Wavefront Coding optical element) as a light wavefront modulation element, an appropriate aberration is obtained by image processing within the predetermined focal length range. Although no image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the range has an aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 400 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

前記の画像処理はコンボリューション演算により行うが、これを実現するには、コンボリューション演算の演算係数を共通で1種類記憶しておき、物体距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、物体距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成、物体距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成等、を採用することが可能である。
本実施形態においては、上述したように、DSCのモード設定(ポートレート、無限遠(風景)、マクロ)に応じて画像処理を変更する。
The image processing is performed by convolution calculation. To achieve this, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the object distance. A configuration in which a correction coefficient is used to correct a calculation coefficient and an appropriate convolution calculation is performed using the corrected calculation coefficient, a calculation coefficient corresponding to the object distance is stored in advance as a function, and the calculation coefficient is calculated from this function according to the focal length. The convolution calculation is performed using the calculated calculation coefficient, the kernel size and the convolution calculation coefficient are stored in advance according to the object distance, and the convolution calculation is performed using the stored kernel size and calculation coefficient. It is possible to adopt a configuration or the like.
In the present embodiment, as described above, the image processing is changed according to the DSC mode setting (portrait, infinity (landscape), macro).

図28の構成に対応付けると次のような構成をとることができる。
前述したように、変換係数演算手段としての画像処理演算プロセッサ303を通して操作部180の撮影モード設定部700により設定される各撮影モードに応じて異なる変換係数を変換係数記憶手段としてのレジスタ302に格納する。
画像処理演算プロセッサ303が、撮影モード設定部700の操作スイッチ701により設定された撮影モードに応じて、被写体距離情報生成手段としての物体概略距離情報検出装置402により生成された情報に基づき、変換係数記憶手段としてのレジスタ302から変換係数を抽出する。このとき、たとえば画像処理演算プロセッサ303が変換係数抽出手段とて機能する。
そして、変換手段としてのコンボリューション装置301が、レジスタ302に格納された変換係数によって、画像信号の撮影モードに応じた変換処理を行う。
Corresponding to the configuration of FIG. 28, the following configuration can be taken.
As described above, different conversion coefficients are stored in the register 302 as the conversion coefficient storage unit according to each shooting mode set by the shooting mode setting unit 700 of the operation unit 180 through the image processing arithmetic processor 303 as the conversion coefficient calculation unit. To do.
Based on the information generated by the object approximate distance information detection device 402 as the subject distance information generation unit, the image processing arithmetic processor 303 according to the shooting mode set by the operation switch 701 of the shooting mode setting unit 700 converts the conversion coefficient. A conversion coefficient is extracted from the register 302 serving as a storage unit. At this time, for example, the image processing arithmetic processor 303 functions as conversion coefficient extraction means.
Then, the convolution device 301 serving as a conversion unit performs conversion processing according to the image signal shooting mode using the conversion coefficient stored in the register 302.

なお、図14や図16の光学系は一例であり、本発明は図14や図16の光学系に対して用いられるものとは限らない。また、スポット形状についても図17および図18は一例であり、本実施形態のスポット形状は、図17および図18に示すものとは限らない。
また、図19のカーネルデータ格納ROMに関しても、光学倍率やそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。
Note that the optical systems in FIGS. 14 and 16 are examples, and the present invention is not necessarily used for the optical systems in FIGS. 14 and 16. Also, FIG. 17 and FIG. 18 are only examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 17 and FIG.
Also, the kernel data storage ROM of FIG. 19 is not necessarily used for the optical magnification and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.

図27のように3次元、さらには4次元以上とすることで格納量が多くなるが、種々の条件を考慮してより適したものを選択することができるようになる。情報としては、上述した露出情報、物体距離情報、ズーム情報、撮像モード情報等であればよい。   As shown in FIG. 27, the amount of storage is increased by using three dimensions or even four or more dimensions, but a more suitable one can be selected in consideration of various conditions. The information may be the above-described exposure information, object distance information, zoom information, imaging mode information, and the like.

なお、上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を備えた撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
As described above, in the case of an imaging device including a phase plate (Wavefront Coding optical element) as a light wavefront modulation element, there is no appropriate aberration by image processing within the predetermined focal length range. Although an image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of image processing, so that only an object outside the range has an aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.

本実施形態においては、深度拡張光学系システムを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。   In this embodiment, it is possible to obtain a high-definition image quality by adopting a depth expansion optical system, and it is possible to simplify the optical system and reduce costs.

以下、この特徴について説明する。
図29(A)〜(C)は、撮像素子120の受光面でのスポット像を示している。
図29(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図26(B)が合焦点の場合(Best focus)、図25(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図29(A)〜(C)からもわかるように、本実施形態に係る撮像装置100においては、位相板113aを含む波面形成用光学素子群113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。
Hereinafter, this feature will be described.
FIGS. 29A to 29C show spot images on the light receiving surface of the image sensor 120.
29A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 26B shows a case where the focal point is a focal point (Best focus), and FIG. 25C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 29A to 29C, in the imaging apparatus 100 according to the present embodiment, a light beam having a deep depth (a central role in image formation) is obtained by the wavefront forming optical element group 113 including the phase plate 113a. And flare (blurred part) are formed.
As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図30(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図30(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図30(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置140の補正処理に任せるため、図30(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
FIGS. 30A and 30B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 30A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 30B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 140 including a digital signal processor (Digital Signal Processor), for example, as shown in FIGS. The MTF of the primary image is essentially a low value.

画像処理装置140は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。
画像処理装置140のMTF補正処理は、たとえば図31の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図31中曲線Bで示す特性に近づく(達する)ような補正を行う。
As described above, the image processing apparatus 140 receives the primary image FIM from the image sensor 120 and performs a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image to form a high-definition final image FNLIM. To do.
The MTF correction processing of the image processing apparatus 140 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristic indicated by the curve B in FIG.

図31中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The characteristic indicated by the curve B in FIG. 31 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図31に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図31のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図32に示すようになる。
すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。
In the present embodiment, as shown in FIG. 31, in order to achieve the MTF characteristic curve B to be finally realized with respect to the optically obtained MTF characteristic curve A with respect to the spatial frequency, each spatial frequency is changed to each spatial frequency. On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic of FIG. 31, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.
That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、基本的に、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140からなり、光学系システムの中に、波面成形用の光学素子を新たに設けるか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像の波面を変形(変調)し、そのような波面をCCDやCMOSセンサからなる撮像素子120の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置140を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像素子120による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置140で行う。
As described above, the imaging apparatus 100 according to the embodiment basically includes the optical system 110 and the imaging element 120 that form a primary image, and the image processing apparatus 140 that forms the primary image into a high-definition final image. In the optical system, a wavefront shaping optical element is newly provided, or an optical element such as glass, plastic or the like is formed for wavefront shaping, thereby forming an imaging wavefront. The wavefront is deformed (modulated), and an image of such a wavefront is formed on the image pickup surface (light receiving surface) of the image pickup device 120 formed of a CCD or CMOS sensor. An image forming system.
In the present embodiment, the primary image from the image sensor 120 has a light beam condition with a very deep depth. For this reason, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 140.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly calculated numerically through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図29(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置140でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the desired wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 140 made up of a later stage DSP or the like. Thereby, the MTF value is significantly improved.

次に、本実施形態および従来光学系のMTFのレスポンスについて考察する。
図33は、従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図34は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図35は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
Next, the response of the MTF of this embodiment and the conventional optical system will be considered.
FIG. 33 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
FIG. 34 is a diagram showing the response of the MTF when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 35 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学径よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, even when the object deviates from the focal position, the change in the MTF response is smaller than the optical diameter in which the light wavefront modulation element is not inserted.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

以上説明したように、本実施形態によれば、画像処理装置140、DSP150、および露出制御装置190により形成される信号処理部は、撮像素子120からの被写体分散画像信号より分散のない画像信号、及び分散の少ない画像信号を生成する等の分散画像信号に対する所定の信号処理を行うが、この信号処理部の処理前のボケ画像、処理後の中間画像、さらには処理後の合焦画像を合成して新たな画像を合成する生成機能を有し、この生成機能において、背景領域が合焦画像から離れるに従って序々にボケ度合いが大きくなる段階的ボケ画像を生成し、前記処理後の主たる被写体を含む被写体領域の合焦画像を合成して、新たな画像を生成し、また、信号処理前のボケ画像、処理後の復元画像(中間画像及び合焦画像)、及び合成した新たな画像をたとえば図示しないメモリバッファや画像表示メモリ160に記録する記録機能を備えていることから以下の効果を得ることができる。   As described above, according to the present embodiment, the signal processing unit formed by the image processing device 140, the DSP 150, and the exposure control device 190 is an image signal that is less dispersed than the subject dispersed image signal from the image sensor 120, In addition, a predetermined signal processing is performed on the dispersed image signal such as generating an image signal with less dispersion, but the blurred image before processing of this signal processing unit, the intermediate image after processing, and the focused image after processing are synthesized. A generation function for synthesizing a new image. In this generation function, a step-by-step blur image in which the degree of blur gradually increases as the background area moves away from the focused image is generated, and the main subject after the processing is generated. The in-focus image of the subject area is synthesized to generate a new image, and the blurred image before the signal processing, the restored image (the intermediate image and the in-focus image) after the processing, and the synthesis It is possible to obtain the following effects because it has a recording function of recording a new image in the memory buffer and image display memory 160, not shown.

ポートレート撮影を容易に行え、また、信号処理前の画像、処理後の画像を記録しておくことで、撮影して記録した後に明瞭にさせたい(ハッキリさせたい)エリア(逆に、ボカしたいエリア)の位置や大きさを選択し、新たな画像を作成することができ、撮影時にポートレートモード以外で撮影した記録した画像からポートレート撮影画像を作成することができる利点がある。さらには、ポートレートモードのバリエーションを増やすことができる利点がある。   You can easily shoot portraits, and by recording images before and after signal processing, you want to make them clear after shooting and recording (clearly, you want to blur) The position and size of the (area) can be selected to create a new image, and there is an advantage that a portrait photographed image can be created from a recorded image photographed in a mode other than the portrait mode at the time of photographing. Furthermore, there is an advantage that variations of the portrait mode can be increased.

また、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140とを含み、画像処理装置140において、露出制御装置190からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行うことから、光学系を簡単化でき、コスト低減を図ることができ、しかもノイズの影響が小さい復元画像を得ることができる利点がある。   In addition, the image processing apparatus 140 includes an optical system 110 and an image sensor 120 that form a primary image, and an image processing device 140 that forms a primary image into a high-definition final image. Since the optical transfer function (OTF) is filtered according to the information, the optical system can be simplified, the cost can be reduced, and a restored image with less noise can be obtained. There is.

また、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部180等の入力により、適性となるカーネルサイズや上述した係数を対応させることにより、倍率やデフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。   In addition, the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable, and the magnification and the defocus range can be set by making the appropriate kernel size and the above-described coefficient correspond to each other by inputting the operation unit 180 or the like. There is an advantage that the lens can be designed without concern and the image can be restored by convolution with high accuracy.

また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景は段階的にぼかすといった、いわゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズの深度拡張光学系システムに使用することが可能である。
In addition, it is a so-called natural method that the object to be photographed is focused and the background is gradually blurred without the need for an expensive, large and expensive optical lens and without driving the lens. There is an advantage that an image can be obtained.
The imaging apparatus 100 according to the present embodiment can be used in a zoom lens depth extending optical system system in consideration of small size, light weight, and cost of consumer devices such as digital cameras and camcorders.

また、本実施形態においては、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する画像処理装置140とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens system having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging element 120 by the imaging lens 112 and the primary image FIM by the imaging element 120 are received. In addition, the image processing apparatus 140 that forms a high-definition final image FNLIM by performing a predetermined correction process or the like that raises the MTF at the spatial frequency of the primary image, so that high-definition image quality can be obtained. There is an advantage of becoming.
In addition, the configuration of the optical system 110 can be simplified, manufacturing becomes easy, and cost reduction can be achieved.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.

このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。   The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to this embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。
また、図14や図16の光学系は一例であり、本発明は図14や図16の光学系に対して用いられるものとは限らない。また、スポット形状についても図17および図18は一例であり、本実施形態のスポット形状は、図17および図18に示すものとは限らない。
また、図19のカーネルデータ格納ROMに関しても、光学倍率やそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。
なお、以上の実施形態は光学系が一つの場合を例に説明したが、光学系を複数有する撮像装置に対しても本発明は適用可能である。
In this embodiment, the example in which the wavefront forming optical element of the optical system is arranged closer to the object side lens than the stop is shown. An effect can be obtained.
Moreover, the optical system of FIG.14 and FIG.16 is an example, and this invention is not necessarily used with respect to the optical system of FIG.14 and FIG.16. Also, FIG. 17 and FIG. 18 are only examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 17 and FIG.
Also, the kernel data storage ROM of FIG. 19 is not necessarily used for the optical magnification and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.
In the above embodiment, the case where there is one optical system has been described as an example, but the present invention can also be applied to an imaging apparatus having a plurality of optical systems.

図36は、本発明に係る光学系を複数有する撮像装置の一実施形態を示すブロック構成図である。
本撮像装置100Aと図1の撮像装置100と異なる点は、光学ユニット110Aは、複数(本実施形態では2)の光学系110−1,110−2を有露出制御装置190の代わりシステム制御装置200を設け、さらに光学系切替制御部201を設けたことにある。
FIG. 36 is a block diagram showing an embodiment of an imaging apparatus having a plurality of optical systems according to the present invention.
The optical unit 110A is different from the imaging device 100A in FIG. 1 in the imaging device 100A in FIG. 1 in that the optical unit 110A is replaced with a plurality of optical systems 110-1 and 110-2 by a system control device instead of the exposure control device 190. 200, and an optical system switching control unit 201 is further provided.

光学ユニット110Aは、複数(本実施形態では2)の光学系110−1,110−2を有し、光学系切替制御部201の切り替え処理に応じて被写体物体OBJを撮影した像を順番に撮像素子120に供給する。
各光学系110−1,110−2は、光学倍率が異なり、撮像対象物体(被写体)OBJの映像を光学的に取り込む。
The optical unit 110A includes a plurality (2 in the present embodiment) of optical systems 110-1 and 110-2, and sequentially captures images of the subject object OBJ according to the switching process of the optical system switching control unit 201. This is supplied to the element 120.
The optical systems 110-1 and 110-2 have different optical magnifications, and optically capture an image of the imaging target object (subject) OBJ.

システム制御装置200は、基本的に露出制御装置と同様の機能を有し、操作部180などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、光学系切替制御部140、AFE130、画像処理装置140、DSP150等を制御し、システム全体の調停制御を司るものである。
その他の構成は図1と同様である。
The system control device 200 basically has the same function as the exposure control device, has operation inputs such as the operation unit 180, and determines the operation of the entire system according to those inputs, and an optical system switching control unit 140, the AFE 130, the image processing apparatus 140, the DSP 150, and the like, and controls arbitration of the entire system.
Other configurations are the same as those in FIG.

図37は、システム制御装置200の光学系設定処理の概要を示すフローチャートである。
まず、光学系を確認し(ST61)、カーネルデータをセットする(ST62)。
そして、操作部180の操作により光学系の切り替え指示がなされると(ST63)、光学系切替制御部201により光学ユニット110Aの光学系の出力を切り替え、ステップST61の処理を行う(ST64)。
FIG. 37 is a flowchart showing an outline of the optical system setting process of the system control apparatus 200.
First, the optical system is confirmed (ST61), and kernel data is set (ST62).
When an instruction to switch the optical system is given by operating the operation unit 180 (ST63), the optical system switching control unit 201 switches the output of the optical system of the optical unit 110A, and the process of step ST61 is performed (ST64).

図35の実施形態によれば、前述した図1の撮像装置の効果に加えて以下の効果を得ることができる。
すなわち、図36の撮像装置においては、1次画像を形成する倍率の異なる複数の光学系110−1,2を含む光学ユニット110Aおよび撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置140とを含み、画像処理装置140において、光学系の倍率に応じて、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部180等の入力により知り、その光学系の倍率に応じた適性となるカーネルサイズや上述した係数を対応させることにより、倍率やデフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。
また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景はぼかすといった、いわゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズの深度拡張光学系システムに使用することが可能である。
According to the embodiment of FIG. 35, the following effects can be obtained in addition to the effects of the imaging apparatus of FIG.
36, the optical unit 110A and the image sensor 120 including a plurality of optical systems 110-1 and 110-2 having different magnifications for forming a primary image and the primary image are formed into a high-definition final image. In the image processing apparatus 140, the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable according to the magnification of the optical system, and can be known by input from the operation unit 180 or the like. By adapting the appropriate kernel size according to the magnification of the optical system and the above-mentioned coefficients, the lens can be designed without worrying about the magnification and defocus range, and image reconstruction by high-precision convolution. There is an advantage that becomes possible.
Also, a so-called natural image is obtained in which the object to be photographed is in focus and the background is blurred without requiring a highly difficult, expensive and large-sized optical lens and without driving the lens. There are advantages that can be made.
The imaging apparatus 100 according to the present embodiment can be used in a zoom lens depth extending optical system system in consideration of small size, light weight, and cost of consumer devices such as digital cameras and camcorders.

本発明に係る撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention. 本実施形態に係る操作部の構成例を示す図である。It is a figure which shows the structural example of the operation part which concerns on this embodiment. 被写体部分の網掛け部分のみを復元処理を行い、ポートレートの画像を作成する例を示す図である。It is a figure which shows the example which restores only the shaded part of a to-be-photographed part, and produces a portrait image. 横撮影ポートレートモード時の中央領域を示す図である。It is a figure which shows the center area | region at the time of horizontal imaging | photography portrait mode. 縦撮影ポートレートモード時の中央領域を示す図である。It is a figure which shows the center area | region at the time of portrait photography portrait mode. プレビュー画表示中に被写体選択をユーザが行っている様子であって、中央領域を示す枠の大きさと位置をユーザが操作部(キー入力部)によって決定する例を示す図である。FIG. 10 is a diagram illustrating an example in which a user selects a subject while a preview image is displayed, and the user determines the size and position of a frame indicating a central region by an operation unit (key input unit). 画像の中央領域を復元処理する場合のフローチャートである。It is a flowchart in the case of restoring the central area of an image. 選択された領域を復元処理する場合のフローチャートである。It is a flowchart in the case of restoring the selected area. 合焦画像またはぼかし画像の範囲を指定する状態、およびそれによる表示を示す図である。It is a figure which shows the state which designates the range of a focused image or a blurred image, and the display by it. 合焦画像またはぼかし画像の範囲を指定する状態、およびそれによる表示を示す図である。It is a figure which shows the state which designates the range of a focused image or a blurred image, and the display by it. 合焦画像またはぼかし画像の範囲を指定する手順を示す図である。It is a figure which shows the procedure which designates the range of a focused image or a blurred image. 合焦画像またはぼかし画像の範囲を指定し表示するまでの手順を示す図である。It is a figure which shows the procedure until the range of a focused image or a blurred image is designated and displayed. 合焦画像またはぼかし画像の範囲を指定し表示するまでの手順を示す図である。It is a figure which shows the procedure until the range of a focused image or a blurred image is designated and displayed. 本発明により合焦画像と段階的ボケ画像を合成した状態を示す図である。It is a figure which shows the state which synthesize | combined the focused image and the stepwise blurred image by this invention. 本発明の段階的ボケ画像のボケ度合いの種々の例を示す図である。It is a figure which shows the various examples of the blurring degree of the stepwise blur image of this invention. 本実施形態に係る撮像レンズ装置の広角側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the wide angle side of the imaging lens apparatus which concerns on this embodiment. 深度拡張光学系システムの原理を説明するための図である。It is a figure for demonstrating the principle of a depth expansion optical system system. 本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the telephoto side of the imaging lens apparatus which concerns on this embodiment. 広角側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center on the wide angle side. 望遠側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center of a telephoto side. カーネルデータROMの格納データの一例を示す図である。It is a figure which shows an example of the storage data of kernel data ROM. 露出制御装置の光学系設定処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the optical system setting process of an exposure control apparatus. 信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。It is a figure which shows the 1st structural example about a signal processing part and kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。It is a figure which shows the 2nd structural example about a signal processing part and kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。It is a figure which shows the 3rd structural example about a signal processing part and kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。It is a figure which shows the 4th structural example about a signal processing part and kernel data storage ROM. 被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines subject distance information and exposure information. ズーム情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines zoom information and exposure information. 露出情報と、物体距離情報と、ズーム情報とを用いた場合のフィルタの構成例を示す図である。It is a figure which shows the structural example of the filter at the time of using exposure information, object distance information, and zoom information. 撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines imaging | photography mode information and exposure information. 本実施形態に係る撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element which concerns on this embodiment, Comprising: (A) is a case where a focus shifts 0.2 mm (Defocus = 0.2 mm), (B) is a focus point ( Best focus), (C) is a diagram showing each spot image when the focal point is deviated by −0.2 mm (Defocus = −0.2 mm). 本実施形態に係る撮像素子により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the image pick-up element concerning this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an image pick-up lens apparatus, (B ) Shows the MTF characteristics with respect to the spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of the conventional optical system, and when it remove | deviated from the focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 本発明に係る光学系を複数有する撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus having a plurality of optical systems according to the present invention. 図32のシステム制御装置の光学系設定処理の概要を示すフローチャートである。FIG. 33 is a flowchart showing an outline of an optical system setting process of the system control apparatus of FIG. 32. FIG. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図34の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 35 is a diagram showing a spot image on the light receiving surface of the image sensor of the imaging lens device of FIG. 34, where (A) shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and (B) shows a focused point. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100,100A…撮像装置
110…光学系
110A…光学ユニット
120…撮像素子
130…アナログフロントエンド部(AFE)
140…画像処理装置
150…カメラ信号処理部
180…操作部
190…露出制御装置
200…システム制御装置
201…光学系切替制御部
111…物体側レンズ
112…結像レンズ
113…波面形成用光学素子
113a…位相板(光波面変調素子)
142…コンボリューション演算器
143…カーネルデータROM
144…コンボリューション制御部。
DESCRIPTION OF SYMBOLS 100,100A ... Imaging device 110 ... Optical system 110A ... Optical unit 120 ... Imaging element 130 ... Analog front end part (AFE)
DESCRIPTION OF SYMBOLS 140 ... Image processing apparatus 150 ... Camera signal processing part 180 ... Operation part 190 ... Exposure control apparatus 200 ... System control apparatus 201 ... Optical system switching control part 111 ... Object side lens 112 ... Imaging lens 113 ... Optical element 113a for wavefront formation ... Phase plates (light wavefront modulation elements)
142 ... Convolution calculator 143 ... Kernel data ROM
144: Convolution control unit.

Claims (7)

少なくとも光学系および光波面変調素子を通過した被写体分散像を撮像する撮像素子と、
該撮像素子からの分散画像信号より分散のない画像信号、及び分散の少ない画像信号を1または複数生成する変換手段を備え、前記撮像素子による画像信号に複数の異なる所定の処理を行う信号処理部と、
該信号処理部による処理前のボケ画像、処理後の分散のない合焦画像、処理後の分散の少ない中間画像、及び/又は前記ボケ画像、合焦画像、あるいは中間画像を合成した新たな画像を記録する記録部と、
該記録部に記録された画像、または記録するための画像を表示する表示部と、
該表示部内の範囲の設定、及び/又はボケ画像の選択を行なう操作部と、
該操作部による前記表示部での設定範囲内又は設定範囲外における合焦画像を生成し、かつ該合焦画像生成以外の範囲を前記中間画像、または前記中間画像及びボケ画像により、前記合焦画像から離れるに従って序々にボケ度合いが大きくなる段階的ボケ画像を生成し、前記合焦画像と段階的ボケ画像とを合成して新たな画像を生成する生成手段と、を備えた撮像装置。
An image pickup device that picks up a subject dispersion image that has passed through at least the optical system and the light wavefront modulation device;
A signal processing unit that includes conversion means for generating one or a plurality of image signals that are less dispersed and less dispersed than the dispersed image signals from the image sensor, and that performs a plurality of different predetermined processes on the image signals from the image sensor When,
A blurred image before processing by the signal processing unit, a focused image without dispersion after processing, an intermediate image with little dispersion after processing, and / or a new image obtained by synthesizing the blurred image, focused image, or intermediate image A recording section for recording
A display unit for displaying an image recorded in the recording unit or an image for recording;
An operation unit for setting a range in the display unit and / or selecting a blurred image;
A focused image is generated within or outside the setting range on the display unit by the operation unit, and a range other than the focused image generation is generated by the intermediate image or the intermediate image and the blurred image. An imaging apparatus comprising: a generation unit that generates a stepwise blur image in which a degree of blur gradually increases with distance from an image, and generates a new image by combining the focused image and the stepwise blur image.
前記光学系は、ズーム光学系を含み、
前記ズーム光学系のズーム位置またズーム量に相当する情報を生成するズーム情報生成手段を備え、
前記変換手段は、前記ズーム情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する請求項1に記載の撮像装置。
The optical system includes a zoom optical system,
Zoom information generating means for generating information corresponding to the zoom position or zoom amount of the zoom optical system;
The imaging apparatus according to claim 1, wherein the conversion unit generates an image signal having less dispersion than the dispersed image signal based on information generated by the zoom information generation unit.
被写体までの距離に相当する情報を生成する被写体距離情報生成手段を備え、
前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて前記分散画像信号より分散のない画像信号を生成する請求項1に記載の撮像装置。
Subject distance information generating means for generating information corresponding to the distance to the subject,
The imaging apparatus according to claim 1, wherein the conversion unit generates an image signal that is less dispersed than the dispersed image signal based on information generated by the subject distance information generation unit.
被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、
前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を備え、
前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する請求項1に記載の撮像装置。
Subject distance information generating means for generating information corresponding to the distance to the subject;
Conversion coefficient calculation means for calculating a conversion coefficient based on the information generated by the subject distance information generation means,
The imaging apparatus according to claim 1, wherein the conversion unit converts the image signal using the conversion coefficient obtained from the conversion coefficient calculation unit to generate an image signal without dispersion.
撮影する被写体の撮影モードを設定する撮影モード設定手段を備え、
前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う請求項1から4のいずれかに記載の撮像装置。
A shooting mode setting means for setting a shooting mode of a subject to be shot;
The imaging apparatus according to claim 1, wherein the conversion unit performs different conversion processing according to a shooting mode set by the shooting mode setting unit.
前記撮像装置は、複数のレンズを交換可能であって、
前記撮像素子は、前記複数のレンズの内少なくとも一のレンズおよび光波面変調素子を通過した被写体収差像を撮像可能で、さらに、
前記一のレンズに応じた変換係数を取得する変換係数取得手段を備え、
前記変換手段は、前記変換係数取得手段から得られた変換係数によって、画像信号の変換を行う請求項1から5のいずれかに記載の撮像装置。
The imaging device can exchange a plurality of lenses,
The imaging element is capable of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element;
Conversion coefficient acquisition means for acquiring a conversion coefficient corresponding to the one lens;
The imaging apparatus according to claim 1, wherein the conversion unit converts an image signal using the conversion coefficient obtained from the conversion coefficient acquisition unit.
露出制御を行う露出制御手段を備え、
前記信号処理部は、前記露出制御手段からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う請求項1から6のいずれかに記載の撮像装置。
With exposure control means for controlling exposure,
The imaging apparatus according to claim 1, wherein the signal processing unit performs a filtering process on an optical transfer function (OTF) in accordance with exposure information from the exposure control unit.
JP2006195738A 2006-07-18 2006-07-18 Imaging device Expired - Fee Related JP4693720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006195738A JP4693720B2 (en) 2006-07-18 2006-07-18 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006195738A JP4693720B2 (en) 2006-07-18 2006-07-18 Imaging device

Publications (2)

Publication Number Publication Date
JP2008028454A true JP2008028454A (en) 2008-02-07
JP4693720B2 JP4693720B2 (en) 2011-06-01

Family

ID=39118698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006195738A Expired - Fee Related JP4693720B2 (en) 2006-07-18 2006-07-18 Imaging device

Country Status (1)

Country Link
JP (1) JP4693720B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045534A (en) * 2008-08-11 2010-02-25 Toshiba Corp Solid-state image-capturing apparatus
WO2010131561A1 (en) * 2009-05-12 2010-11-18 Canon Kabushiki Kaisha Image pickup apparatus
JP2011044825A (en) * 2009-08-19 2011-03-03 Canon Inc Image processing apparatus, image processing method, and computer program
JP2011166302A (en) * 2010-02-05 2011-08-25 Canon Inc Imaging apparatus, and image processing method
JP2011166300A (en) * 2010-02-05 2011-08-25 Canon Inc Imaging apparatus and image processing method
JP2012042988A (en) * 2010-08-12 2012-03-01 Nikon Corp Image processor, image processing method, and program
JP2012145757A (en) * 2011-01-12 2012-08-02 Canon Inc Imaging device and method of acquiring subject distance distribution information
JP2014075828A (en) * 2013-12-04 2014-04-24 Canon Inc Image processing system and image processing method
CN114143442A (en) * 2020-09-03 2022-03-04 武汉Tcl集团工业研究院有限公司 Image blurring method, computer device, computer-readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2000244810A (en) * 1999-02-19 2000-09-08 Sony Corp Image organizing device, image organizing method, image recorder, image reproducing device, image recording and reproducing device, image pickup device and recording medium readable by computer in which data is recorded
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system
JP2005039680A (en) * 2003-07-18 2005-02-10 Casio Comput Co Ltd Camera device, photographing method and program
JP2006094468A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and imaging method
JP2006094471A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and image conversion method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2000244810A (en) * 1999-02-19 2000-09-08 Sony Corp Image organizing device, image organizing method, image recorder, image reproducing device, image recording and reproducing device, image pickup device and recording medium readable by computer in which data is recorded
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system
JP2005039680A (en) * 2003-07-18 2005-02-10 Casio Comput Co Ltd Camera device, photographing method and program
JP2006094468A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and imaging method
JP2006094471A (en) * 2004-08-26 2006-04-06 Kyocera Corp Imaging device and image conversion method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010045534A (en) * 2008-08-11 2010-02-25 Toshiba Corp Solid-state image-capturing apparatus
US8102445B2 (en) 2008-08-11 2012-01-24 Kabushiki Kaisha Toshiba Solid-state image-capturing apparatus, camera, and method of processing signal
CN102422630A (en) * 2009-05-12 2012-04-18 佳能株式会社 Image pickup apparatus
WO2010131561A1 (en) * 2009-05-12 2010-11-18 Canon Kabushiki Kaisha Image pickup apparatus
JP2010268052A (en) * 2009-05-12 2010-11-25 Canon Inc Imaging device
US9591246B2 (en) 2009-05-12 2017-03-07 Canon Kabushiki Kaisha Image pickup apparatus with blur correcting function
US9201288B2 (en) 2009-05-12 2015-12-01 Canon Kabushiki Kaisha Image processing apparatus with blur correcting function
JP2011044825A (en) * 2009-08-19 2011-03-03 Canon Inc Image processing apparatus, image processing method, and computer program
JP2011166300A (en) * 2010-02-05 2011-08-25 Canon Inc Imaging apparatus and image processing method
JP2011166302A (en) * 2010-02-05 2011-08-25 Canon Inc Imaging apparatus, and image processing method
JP2012042988A (en) * 2010-08-12 2012-03-01 Nikon Corp Image processor, image processing method, and program
JP2012145757A (en) * 2011-01-12 2012-08-02 Canon Inc Imaging device and method of acquiring subject distance distribution information
JP2014075828A (en) * 2013-12-04 2014-04-24 Canon Inc Image processing system and image processing method
CN114143442A (en) * 2020-09-03 2022-03-04 武汉Tcl集团工业研究院有限公司 Image blurring method, computer device, computer-readable storage medium
CN114143442B (en) * 2020-09-03 2023-08-01 武汉Tcl集团工业研究院有限公司 Image blurring method, computer device, and computer-readable storage medium

Also Published As

Publication number Publication date
JP4693720B2 (en) 2011-06-01

Similar Documents

Publication Publication Date Title
JP4712631B2 (en) Imaging device
JP4693720B2 (en) Imaging device
JP4663737B2 (en) Imaging apparatus and image processing method thereof
CN110542977B (en) Notification method and system
JP4749959B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
EP1954030B1 (en) Image pickup apparatus and image processing method
JP4818957B2 (en) Imaging apparatus and method thereof
JP4916862B2 (en) Imaging apparatus and method thereof
JP2008085387A (en) Imaging apparatus, and its manufacturing device and manufacturing method
JP2008268937A (en) Imaging device and imaging method
WO2007063918A1 (en) Imaging device and method thereof
JP2008048293A (en) Imaging device and method for manufacturing same
JP2007300208A (en) Imaging apparatus
JP2007206738A (en) Imaging device and method
JP4812541B2 (en) Imaging device
JP4364847B2 (en) Imaging apparatus and image conversion method
JP2008245266A (en) Imaging apparatus and method
JP4813147B2 (en) Imaging apparatus and imaging method
JP2006311473A (en) Imaging device and imaging method
JP2009086017A (en) Imaging device and imaging method
JP4818956B2 (en) Imaging apparatus and method thereof
JP4916853B2 (en) Imaging apparatus and method thereof
JP2008245265A (en) Imaging apparatus and its manufacturing apparatus and method
JP4722748B2 (en) Imaging apparatus and image generation method thereof
JP2008058540A (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4693720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees