JP2008011492A - Imaging device and its method - Google Patents

Imaging device and its method Download PDF

Info

Publication number
JP2008011492A
JP2008011492A JP2006338312A JP2006338312A JP2008011492A JP 2008011492 A JP2008011492 A JP 2008011492A JP 2006338312 A JP2006338312 A JP 2006338312A JP 2006338312 A JP2006338312 A JP 2006338312A JP 2008011492 A JP2008011492 A JP 2008011492A
Authority
JP
Japan
Prior art keywords
image
filter
signal
unit
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006338312A
Other languages
Japanese (ja)
Other versions
JP4916862B2 (en
Inventor
Nariyasu Murase
成康 村瀬
Yusuke Hayashi
佑介 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2006338312A priority Critical patent/JP4916862B2/en
Publication of JP2008011492A publication Critical patent/JP2008011492A/en
Application granted granted Critical
Publication of JP4916862B2 publication Critical patent/JP4916862B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device and its method for maintaining a high frame rate, and for simplifying an optical system without requiring any expensive blur restoration processing hardware, and for reducing costs, and for obtaining a restored image not significantly affected by noise. <P>SOLUTION: This imaging device is provided with: a first filter 210 to be used for the image restoration processing of a conversion means in a static image photographic mode; a second filter 220 to be used for the image restoration processing of the conversion means in the case of moving image photographing and/or through-image display; and a second switching part 140-2. The first filter or the second filter is selected according to a photographic mode, and image restoration processing corresponding to the photographic mode is performed in an image processor 150. Thus, it is possible to perform image restoration processing in the case of capturing, previewing or moving image photographing in a real time, and to obtain a restored image which is in focus without deteriorating the restored image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像素子を用い、光学系を有したデジタルスチルカメラや携帯電話搭載カメラ、携帯情報端末搭載カメラ、画像検査装置、自動制御用産業カメラ等の撮像装置およびその方法に関するものである。   The present invention relates to an imaging apparatus such as a digital still camera, a camera mounted on a mobile phone, a camera mounted on a portable information terminal, an image inspection apparatus, and an industrial camera for automatic control using an imaging element and an optical system.

近年急峻に発展を遂げている情報のデジタル化に相俟って映像分野においてもその対応が著しい。
特に、デジタルカメラに象徴されるように撮像面は従来のフィルムに変わって固体撮像素子であるCCD(Charge Coupled Device),CMOS(Complementary Metal Oxide Semiconductor)センサが使用されているのが大半である。
In response to the digitization of information, which has been rapidly developing in recent years, the response in the video field is also remarkable.
In particular, as symbolized by a digital camera, a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor, which is a solid-state image sensor, is used in most cases instead of a conventional film.

このように、撮像素子にCCDやCMOSセンサを使った撮像レンズ装置は、被写体の映像を光学系により光学的に取り込んで、撮像素子により電気信号として抽出するものであり、デジタルスチルカメラの他、ビデオカメラ、デジタルビデオユニット、パーソナルコンピュータ、携帯電話機、携帯情報端末(PDA:Personal DigitalAssistant)、画像検査装置、自動制御用産業カメラ等に用いられている。   As described above, an imaging lens device using a CCD or CMOS sensor as an imaging element is for taking an image of a subject optically by an optical system and extracting it as an electrical signal by the imaging element. In addition to a digital still camera, It is used in video cameras, digital video units, personal computers, mobile phones, personal digital assistants (PDAs), image inspection devices, industrial cameras for automatic control, and the like.

図36は、一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。
この撮像レンズ装置1は、光学系2とCCDやCMOSセンサ等の撮像素子3とを有する。
光学系は、物体側レンズ21,22、絞り23、および結像レンズ24を物体側(OBJS)から撮像素子3側に向かって順に配置されている。
FIG. 36 is a diagram schematically illustrating a configuration and a light flux state of a general imaging lens device.
The imaging lens device 1 includes an optical system 2 and an imaging element 3 such as a CCD or CMOS sensor.
In the optical system, the object side lenses 21 and 22, the diaphragm 23, and the imaging lens 24 are sequentially arranged from the object side (OBJS) toward the image sensor 3 side.

撮像レンズ装置1においては、図36に示すように、ベストフォーカス面を撮像素子面上に合致させている。
図37(A)〜(C)は、撮像レンズ装置1の撮像素子3の受光面でのスポット像を示している。
In the imaging lens device 1, as shown in FIG. 36, the best focus surface is matched with the imaging element surface.
37A to 37C show spot images on the light receiving surface of the imaging element 3 of the imaging lens device 1.

また、位相板(Wavefront Coding optical element)により光束を規則的に分散し、デジタル処理により復元させ被写界深度の深い画像撮影を可能にする等の撮像装置が提案されている(たとえば非特許文献1,2、特許文献1〜5参照)。
また、伝達関数を用いたフィルタ処理を行うデジタルカメラの自動露出制御システムが提案されている(たとえば特許文献6参照)。
"Wavefront Coding;jointly optimized optical and digital imaging systems",Edward R.Dowski,Jr.,Robert H.Cormack,Scott D.Sarama. "Wavefront Coding;A modern method of achieving high performance and/or low cost imaging systems",Edward R.Dowski,Jr.,Gregory E.Johnson. USP6,021,005 USP6,642,504 USP6,525,302 USP6,069,738 特開2003−235794号公報 特開2004−153497号公報
In addition, an imaging apparatus has been proposed in which a light beam is regularly dispersed by a phase front (wavefront coding optical element) and restored by digital processing to enable imaging with a deep depth of field (for example, non-patent literature). 1, 2, and patent documents 1 to 5).
In addition, an automatic exposure control system for a digital camera that performs filter processing using a transfer function has been proposed (see, for example, Patent Document 6).
"Wavefront Coding; jointly optimized optical and digital imaging systems", Edward R. Dowski, Jr., Robert H. Cormack, Scott D. Sarama. "Wavefront Coding; A modern method of achieving high performance and / or low cost imaging systems", Edward R. Dowski, Jr., Gregory E. Johnson. USP 6,021,005 USP 6,642,504 USP 6,525,302 USP 6,069,738 JP 2003-235794 A JP 2004-153497 A

上述した各文献にて提案された撮像装置においては、その全ては通常光学系に上述の位相板を挿入した場合のPSF(Point−Spread−Function)が一定になっていることが前提であり、PSFが変化した場合は、その後のカーネルを用いたコンボリューションにより、被写界深度の深い画像を実現することは極めて難しい。
したがって、単焦点でのレンズではともかく、ズーム系やAF系などのレンズでは、その光学設計の精度の高さやそれに伴うコストアップが原因となり採用するには大きな問題を抱えている。
換言すれば、従来の撮像装置においては、適正なコンボリューション演算を行うことができず、ワイド(Wide)時やテレ(Tele)時のスポット(SPOT)像のズレを引き起こす非点収差、コマ収差、ズーム色収差等の各収差を無くす光学設計が要求される。
しかしながら、これらの収差を無くす光学設計は光学設計の難易度を増し、設計工数の増大、コスト増大、レンズの大型化の問題を引き起こす。
In the imaging devices proposed in the above-mentioned documents, all of them are based on the assumption that the PSF (Point-Spread-Function) when the above-described phase plate is inserted into a normal optical system is constant, When the PSF changes, it is extremely difficult to realize an image with a deep depth of field by convolution using a subsequent kernel.
Therefore, apart from a single-focus lens, a zoom system, an AF system, or the like has a great problem in adopting due to the high accuracy of the optical design and the associated cost increase.
In other words, in the conventional imaging apparatus, proper convolution calculation cannot be performed, and astigmatism and coma that cause a shift of a spot (SPOT) image at the time of wide or tele (Tele). Therefore, an optical design that eliminates various aberrations such as zoom chromatic aberration is required.
However, the optical design that eliminates these aberrations increases the difficulty of optical design, causing problems such as an increase in design man-hours, an increase in cost, and an increase in the size of the lens.

また、上述した各文献に開示された装置においては、たとえば暗所における撮影で、信号処理によって画像を復元する際、ノイズも同時に増幅してしまう。
したがって、たとえば上述した位相板等の光波面変調素子とその後の信号処理を用いるような、光学系と信号処理を含めた光学システムでは、暗所での撮影を行う場合、ノイズが増幅してしまい、復元画像に影響を与えてしまうという不利益がある。
In addition, in the devices disclosed in the above-described documents, noise is also amplified simultaneously when an image is restored by signal processing, for example, in shooting in a dark place.
Therefore, for example, in an optical system including an optical system and signal processing using the above-described optical wavefront modulation element such as a phase plate and subsequent signal processing, noise is amplified when shooting in a dark place. This has the disadvantage of affecting the restored image.

また、被写界深度を深くするためのF値(絞り)を絞る方法は、絞り機構が必要であったり、絞ることによりレンズが暗くなり、輝度に対してダイナミックレンジが取れなかったり、シャッタースピードが低下して手振れ、被写体振れを起こしやすいといった不利益がある。   In addition, the method of reducing the F value (aperture) for deepening the depth of field requires an aperture mechanism, or the lens becomes dark when the aperture is reduced. Is disadvantageous in that it tends to cause camera shake and subject shake.

また、画像処理によってピントずれ(ぼけ)復元処理を行う方法はその処理が非常に重いため、スルー画表示中も常にぼけ復元を行うためには必要なリソースは大規模になり高価なハードウェアが必要になる。あるいはその処理能力に応じてフレームレートが上げられないといった制約が発生し、かなりフレームレートを低下させた場合はシャッタータイミングを逃すおそれも生ずる。   In addition, the method of performing out-of-focus (blur) restoration processing by image processing is very heavy, so that the necessary resources are always large and expensive hardware is required to perform out-of-focus restoration even during live view display. I need it. Alternatively, there is a restriction that the frame rate cannot be increased according to the processing capability, and there is a possibility that the shutter timing may be missed when the frame rate is considerably lowered.

また、たとえば既存の技術では、画像復元処理に用いるフィルタのサイズは、撮影モードにかかわらず固定サイズであり、静止画キャプチャ時の画像復元処理のフィルタサイズで動画撮影時の画像復元処理を行うと、1フレーム当りの処理時間が長くなりリアルタイムで処理できなくなるという不利益がある。
逆に、スルー画表示時(プレビュー時)でリアルタイム処理可能なフィルタサイズに設定すると、今度は静止画キャプチャ時の復元画像が劣化するという不利益がある。
For example, in the existing technology, the size of the filter used for the image restoration process is a fixed size regardless of the shooting mode, and the image restoration process at the time of moving image shooting is performed with the filter size of the image restoration process at the time of still image capture. There is a disadvantage that the processing time per frame becomes long and it becomes impossible to process in real time.
On the other hand, if the filter size is set so that real-time processing is possible at the time of live view display (preview), there is a disadvantage that the restored image at the time of still image capture is deteriorated.

本発明の目的は、高フレームレートを保持しつつ、高価なぼけ復元処理ハードウェアを必要とすることなく、光学系を簡単化でき、コスト低減を図ることができ、撮影モードに応じたリアルタイムの処理を復元画像を劣化させることなく実現でき、しかもノイズの影響が小さい復元画像を得ることが可能な撮像装置およびその方法を提供することにある。   The object of the present invention is to simplify the optical system and reduce the cost without requiring expensive blur restoration processing hardware while maintaining a high frame rate. An object of the present invention is to provide an imaging apparatus and method that can realize processing without deteriorating a restored image and that can obtain a restored image that is less affected by noise.

本発明の観点の第1の観点の撮像装置は、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系と、前記光学系を通過した被写体像を撮像する撮像素子と、前記撮像素子からの画像の焦点のボケを補正して復元した画像信号を生成する変換手段と、画像信号に所定の画像処理を行う信号処理手段と、前記信号処理手段の処理画像を表示する画像モニタ手段と、静止画撮影モード時における前記変換手段の画像復元処理に用いる第1フィルタと、動画撮影モード時および、またはスルー画表示時における前記変換手段の画像復元処理に用いる第2フィルタと、を有し、前記変換手段は、撮影モードまたはスルー画表示の有無に応じて第1フィルタまたは第2フィルタを選択して、前記画像復元処理を行う。   An image pickup apparatus according to a first aspect of the present invention includes an optical system formed so that a focal blur amount is substantially constant at an in-focus position and a distance before and after the in-focus position, and a subject image that has passed through the optical system. An image pickup device that picks up an image, a conversion unit that generates a restored image signal by correcting a defocus of an image from the image pickup device, a signal processing unit that performs predetermined image processing on the image signal, and a signal processing unit Image monitoring means for displaying a processed image, a first filter used for image restoration processing of the conversion means in still image shooting mode, and image restoration processing of the conversion means in moving image shooting mode and / or through image display A second filter to be used, and the conversion means selects the first filter or the second filter according to the shooting mode or presence / absence of through image display, and performs the image restoration process.

本発明の観点の第2の観点の撮像装置は、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系と、前記光学系を通過した被写体像を撮像する撮像素子と、前記撮像素子からの画像の焦点のボケを補正して復元した画像信号を生成する変換手段と、静止画撮影モード時における前記変換手段の画像復元処理に用いる第1フィルタと、動画撮影モード時における前記変換手段の画像復元処理に用いる第2フィルタと、を有し、前記変換手段は、撮影モードに応じて第1フィルタまたは第2フィルタを選択して、前記画像復元処理を行う。   An imaging apparatus according to a second aspect of the present invention includes an optical system formed so that a focal blur amount is substantially constant at an in-focus position and a distance before and after the in-focus position, and a subject image that has passed through the optical system. An image pickup device that picks up an image, a conversion unit that generates a restored image signal by correcting blurring of a focal point of an image from the image pickup device, and a first filter used for image restoration processing of the conversion unit in a still image shooting mode; A second filter used for the image restoration process of the conversion unit in the moving image shooting mode, and the conversion unit selects the first filter or the second filter according to the shooting mode, and the image restoration process I do.

好適には、前記変換手段は、前記画像モニタ手段の解像度に応じた前記第2フィルタを用いた簡易復元処理を行う。   Preferably, the conversion means performs a simple restoration process using the second filter according to the resolution of the image monitor means.

好適には、前記第2フィルタは、サンプリングしたPSF(Point Spread Function)を用いた画像復元フィルタを含む。   Preferably, the second filter includes an image restoration filter using a sampled PSF (Point Spread Function).

好適には、前記第2フィルタは、帯域強調機能を有する。   Preferably, the second filter has a band enhancement function.

好適には、前記第2フィルタのサイズは、前記第1フィルタのサイズより小さい。   Preferably, the size of the second filter is smaller than the size of the first filter.

好適には、前記動画撮影時、スルー画表示時において、前記第2フィルタを用いた前記画像復元処理の実施の有無を設定できる設定手段を有する。   Preferably, there is setting means capable of setting whether or not the image restoration processing using the second filter is to be performed at the time of moving image shooting and through image display.

好適には、前記光学系またはその近傍に絞りを有し、前記制御手段は、スルー画表示の際に前記絞りを絞るように制御する。   Preferably, the optical system has a stop at or near the optical system, and the control means controls to stop the stop when displaying a through image.

好適には、前記光学系に光波面変調素子を含み、前記制御手段は、光波面変調素子の変調面の影響を排除し得る部分まで前記絞りを絞るように制御する。   Preferably, the optical system includes an optical wavefront modulation element, and the control unit controls the diaphragm to a portion where the influence of the modulation surface of the optical wavefront modulation element can be eliminated.

好適には、トリガ信号を生成するトリガ信号生成手段と、スルー画表示中は前記変換手段において前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、トリガ信号生成手段によるトリガ信号を受けると前記変換手段において前記第1フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させる制御手段とをさらに有する。   Preferably, trigger signal generating means for generating a trigger signal, and during live view display, an image signal subjected to image restoration processing by the second filter in the converting means is input to the signal processing means, and the trigger signal generating means And a control means for inputting, to the signal processing means, an image signal subjected to the image restoration process by the first filter in the conversion means.

好適には、画像を記録する記録手段を有し、前記制御手段は、前記動画撮影時において、前記スルー画表示には前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、画像を前記記録手段に記録する際に、前記変換手段において前記第1フィルタよる画像復元処理を実施する。   Preferably, the image processing apparatus includes recording means for recording an image, and the control means supplies an image signal subjected to image restoration processing by the second filter to the signal processing means for displaying the through image at the time of moving image shooting. When the image is input and the image is recorded in the recording unit, the conversion unit performs an image restoration process using the first filter.

好適には、画像を記録する記録手段を有し、前記制御手段は、前記動画撮影時において、前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、前記記録手段に記録する。   Preferably, the image processing apparatus includes recording means for recording an image, and the control means inputs an image signal subjected to image restoration processing by the second filter to the signal processing means at the time of moving image shooting, and the recording means To record.

好適には、前記撮像素子による画像信号または前記変換手段による画像信号を選択的に前記信号処理手段に入力する切替手段と、トリガ信号を生成するトリガ信号生成手段と、スルー画表示中は前記切替手段を通して前記撮像素子による画像信号を前記信号処理手段に入力させ、トリガ信号生成手段によるトリガ信号を受けると前記変換手段による画像信号を前記信号処理手段に入力させる制御手段とをさらに有する。   Preferably, a switching unit that selectively inputs an image signal from the image sensor or an image signal from the conversion unit to the signal processing unit, a trigger signal generation unit that generates a trigger signal, and the switching during a through image display. And a control means for inputting an image signal from the imaging device to the signal processing means through the means, and inputting an image signal from the conversion means to the signal processing means when receiving the trigger signal from the trigger signal generating means.

好適には、画像を記録する記録手段を有し、前記制御手段は、前記動画撮影時において、前記スルー画表示には前記画像復元処理を実施していない前記撮像素子による画像信号を前記信号処理手段に入力させ、画像を前記記録手段に記録する際に、前記変換手段による画像復元処理を実施する。   Preferably, the image processing apparatus includes a recording unit that records an image, and the control unit performs signal processing on an image signal from the imaging element that has not performed the image restoration processing on the through image display during the moving image shooting. When the image is input to the recording unit and the image is recorded on the recording unit, an image restoration process is performed by the conversion unit.

好適には、画像を記録する記録手段を有し、前記制御手段は、前記動画撮影時において、前記画像復元処理を実施していない前記撮像素子による画像信号を前記信号処理手段に入力させ、前記画像復元処理を実施していない画像を前記記録手段に記録し、当該記録手段から再生する際に、前記変換手段による画像復元処理を実施する。   Preferably, the image processing apparatus includes a recording unit that records an image, and the control unit causes the signal processing unit to input an image signal from the imaging element that has not performed the image restoration process at the time of moving image shooting. An image that has not been subjected to image restoration processing is recorded in the recording means, and when the image is reproduced from the recording means, the image restoration processing by the conversion means is performed.

好適には、前記焦点のボケ量は画像モニタ手段の分解能を上限として設定されている。   Preferably, the amount of blur of the focus is set with the resolution of the image monitor means as an upper limit.

好適には、画像モニタ手段の分解能は、当該画像モニタ手段の画素ピッチの2倍以下である。   Preferably, the resolution of the image monitoring means is not more than twice the pixel pitch of the image monitoring means.

好適には、前記制御手段は、前記トリガ信号を受けてキャプチャした静止画像に対しては、前記変換手段で復元した後、前記信号処理手段で処理した後の画像を画像モニタ手段に表示させる。   Preferably, the control means causes the image monitor means to display the image processed by the signal processing means after being restored by the conversion means for the still image captured by receiving the trigger signal.

好適には、前記制御手段は、前記スルー画表示中は画像モニタ手段の分解能で必要十分な分解能をもった画像を前記撮像素子から出力させる。   Preferably, the control means causes the image pickup device to output an image having a necessary and sufficient resolution as the resolution of the image monitoring means during the through image display.

好適には、前記光学系は、光波面変調素子およびズーム光学系を含み、前記ズーム光学系のズーム位置またズーム量に相当する情報を生成するズーム情報生成手段を有し、前記変換手段は、前記ズーム情報生成手段により生成される情報に基づいて分散画像信号より分散のない画像信号を生成する。   Preferably, the optical system includes a light wavefront modulation element and a zoom optical system, and includes zoom information generation means for generating information corresponding to a zoom position or a zoom amount of the zoom optical system, and the conversion means includes: Based on the information generated by the zoom information generating means, an image signal that is less dispersed than the dispersed image signal is generated.

好適には、被写体までの距離に相当する情報を生成する被写体距離情報生成手段を有し、前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて分散画像信号より分散のない画像信号を生成する。   Preferably, there is subject distance information generating means for generating information corresponding to the distance to the subject, and the converting means is less dispersed than the dispersed image signal based on information generated by the subject distance information generating means. An image signal is generated.

好適には、被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を有し、前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する。   Preferably, it has subject distance information generating means for generating information corresponding to the distance to the subject, and conversion coefficient calculating means for calculating a conversion coefficient based on the information generated by the subject distance information generating means, The conversion means converts the image signal using the conversion coefficient obtained from the conversion coefficient calculation means and generates an image signal without dispersion.

好適には、撮影する被写体の撮影モードを設定する撮影モード設定手段を有し、前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う。   Preferably, there is provided a shooting mode setting means for setting a shooting mode of a subject to be shot, and the conversion means performs different conversion processing according to the shooting mode set by the shooting mode setting means.

好適には、前記撮像装置は、複数のレンズを交換可能であって、前記撮像素子は、前記複数のレンズの内少なくともーのレンズおよび光波面変調素子を通過した被写体収差像を撮像可能で、さらに、前記一のレンズに応じた変換係数を取得する変換係数取得手段を有し、前記変換手段は、前記変換係数取得手段から得られた変換係数によって、画像信号の変換を行う。   Preferably, the imaging apparatus is capable of exchanging a plurality of lenses, and the imaging element is capable of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element, Furthermore, it has a conversion coefficient acquisition means for acquiring a conversion coefficient corresponding to the one lens, and the conversion means converts an image signal using the conversion coefficient obtained from the conversion coefficient acquisition means.

好適には、露出制御を行う露出制御手段を有し、前記信号処理手段は、前記露出制御手段からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う。   Preferably, exposure control means for performing exposure control is provided, and the signal processing means performs filter processing on an optical transfer function (OTF) in accordance with exposure information from the exposure control means.

本発明の第3の観点の撮像方法は、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系を通過した被写体像を撮像素子により撮像し、スルー画表示中は、前記撮像素子による画像信号に対して所定の画像処理を行い、前記撮像素子からの画像の焦点のボケを補正して復元し、復元した画像信号に対して前記所定の画像処理を行うに際し、静止画撮影モード時には第1フィルタを用いて画像復元処理を行い、動画撮影モード時および、またはスルー画表示時には前記第1フィルタとサイズが異なる第2フィルタを用いて画像復元処理を行う。   According to a third aspect of the present invention, an image pickup device picks up a subject image that has passed through an optical system formed so that a focal blur amount is substantially constant at a focus position and a distance before and after the focus position. During image display, predetermined image processing is performed on the image signal from the image sensor, and the focal point of the image from the image sensor is corrected and restored, and the predetermined image processing is performed on the restored image signal. In the still image shooting mode, the image restoration process is performed using the first filter, and in the moving image shooting mode and / or when the through image is displayed, the image restoration process is performed using the second filter having a different size from the first filter. Do.

本発明によれば、高フレームレートを保持しつつ、高価なぼけ復元処理ハードウェアを必要とすることなく、光学系を簡単化でき、コスト低減を図ることができる。また、撮影モードに応じたリアルタイムの処理を復元画像を劣化させることなく実現でき、しかもノイズの影響が小さい復元画像を得ることができる利点がある。   According to the present invention, the optical system can be simplified and the cost can be reduced without requiring expensive blur restoration processing hardware while maintaining a high frame rate. Further, there is an advantage that real-time processing according to the shooting mode can be realized without deteriorating the restored image, and that a restored image with less influence of noise can be obtained.

以下、本発明の実施形態を添付図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

図1は、本発明に係る撮像装置の一実施形態を示すブロック構成図である。   FIG. 1 is a block diagram illustrating an embodiment of an imaging apparatus according to the present invention.

本実施形態に係る撮像装置100は、光学系110、撮像素子120、アナログフロントエンド部(AFE)130、第1切替部140−1、第2切替部140−2、変換手段としての画像処理装置150、カメラ信号処理部160、画像表示メモリ170、画像モニタリング装置180、操作部190、制御手段としての露出制御装置200、静止画撮影モード時における画像処理装置150の画像復元処理に用いる第1フィルタ210、並びに動画撮影時および、またはスルー画表示時における画像処理装置150の画像復元処理に用いる第2フィルタ220を有している。   The imaging apparatus 100 according to the present embodiment includes an optical system 110, an imaging element 120, an analog front end unit (AFE) 130, a first switching unit 140-1, a second switching unit 140-2, and an image processing device as a conversion unit. 150, a camera signal processing unit 160, an image display memory 170, an image monitoring device 180, an operation unit 190, an exposure control device 200 as a control means, and a first filter used for image restoration processing of the image processing device 150 in the still image shooting mode. 210 and a second filter 220 used for image restoration processing of the image processing apparatus 150 at the time of moving image shooting and / or display of a through image.

光学系110は、被写体物体OBJを撮影した像を撮像素子120に供給する。
本実施形態の光学系110は、後述するように、光波面変調素子を含み、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成されている。
この焦点のボケ量は画像モニタリング装置180の分解能を上限として設定されている。
また、光学系110は、可変絞り110aが配置されている。この可変絞り110aは、たとえばスルー画表示の際に絞るように制御される。より具体的には、露出制御装置200の制御の下、スルー画表示の際に、光学系110に含まれる光波面変調素子の変調面の変調作用の影響を排除し得る部分まで絞るようにされる。
なお、本実施形態では、可変絞り110aを光学系110内に配置したが、光学系110の被写体側の近傍に配置しても良い。
The optical system 110 supplies an image obtained by photographing the subject object OBJ to the image sensor 120.
As will be described later, the optical system 110 of the present embodiment includes a light wavefront modulation element, and is formed so that the amount of blurring of the focal point is substantially constant at the in-focus position and the distance before and after the in-focus position.
This focal blur amount is set with the resolution of the image monitoring device 180 as the upper limit.
The optical system 110 is provided with a variable stop 110a. The variable aperture 110a is controlled so as to limit, for example, when displaying a through image. More specifically, under the control of the exposure control device 200, when displaying a through image, it is narrowed down to a portion where the influence of the modulation effect of the modulation surface of the light wavefront modulation element included in the optical system 110 can be eliminated. The
In the present embodiment, the variable stop 110a is disposed in the optical system 110, but may be disposed in the vicinity of the subject side of the optical system 110.

撮像素子120は、光学系110で取り込んだ像が結像され、結像1次画像情報を電気信号の1次画像信号FIMとして、アナログフロントエンド部130を介して切替部140に出力するCCDやCMOSセンサからなる。
図1においては、撮像素子120を一例としてCCDとして記載している。
The image sensor 120 forms an image captured by the optical system 110, and outputs a primary image information of the formed image as a primary image signal FIM of an electrical signal to the switching unit 140 via the analog front end unit 130. It consists of a CMOS sensor.
In FIG. 1, the image sensor 120 is described as a CCD as an example.

アナログフロントエンド部130は、タイミングジェネレータ131、アナログ/デジタル(A/D)コンバータ132と、を有する。
タイミングジェネレータ131では、撮像素子120のCCDの駆動タイミングを生成しており、A/Dコンバータ132は、CCDから入力されるアナログ信号をデジタル信号に変換し、切替部140に出力する。
The analog front end unit 130 includes a timing generator 131 and an analog / digital (A / D) converter 132.
The timing generator 131 generates the drive timing of the CCD of the image sensor 120, and the A / D converter 132 converts the analog signal input from the CCD into a digital signal and outputs it to the switching unit 140.

第1切替部140−1は、露出制御装置200による切替制御信号SCTL1に応じてAFE130を介した撮像素子120の撮像画像信号を画像処理装置150またはカメラ信号処理部160に選択的に入力する。
切替部140−1において、固定接点aがAFE130のA/Dコンバータ132の出力ラインに接続され、作動接点bが画像処理装置150の入力ラインに接続され、作動接点cがカメラ信号処理部160の信号入力ラインに接続されている。
切替部140−1は、たとえばスルー画を画像モニタリング装置180に表示しているときは、スルー画表示中として固定接点aが作動接点cに接続するように制御される。一方、たとえば画像をキャプチャしてメモリ170に画像を記録するときは、固定接点aが作動接点bに接続されるように制御される。
The first switching unit 140-1 selectively inputs the captured image signal of the image sensor 120 via the AFE 130 to the image processing device 150 or the camera signal processing unit 160 in accordance with the switching control signal SCTL 1 from the exposure control device 200.
In the switching unit 140-1, the fixed contact a is connected to the output line of the A / D converter 132 of the AFE 130, the operation contact b is connected to the input line of the image processing device 150, and the operation contact c is connected to the camera signal processing unit 160. Connected to the signal input line.
For example, when the through image is displayed on the image monitoring device 180, the switching unit 140-1 is controlled so that the fixed contact a is connected to the operation contact c while the through image is being displayed. On the other hand, for example, when an image is captured and recorded in the memory 170, the fixed contact a is controlled to be connected to the operating contact b.

第2切替部140−2は、露出制御装置200による切替制御信号SCTL2に応じて画像処理装置150に第1フィルタ210または第2フィルタ220を接続し、撮像モードに応じてフィルタを選択的に使用し、後述する画像処理装置150の二次元コンボリューション処理を行うように切替制御される。
第2切替部140−2において、固定接点aが画像処理装置150の入出力ラインに接続され、作動接点bが第1フィルタ210に接続され、作動接点cが第2フィルタ220に接続されている。
第2切替部140−2は、静止画撮影時においては、画像処理装置150の画像復元処理に第1フィルタ210を用いるように固定接点aを作動接点bに接続するように制御される。一方、動画撮影時および、またはスルー画表示時には画像処理装置150の画像復元処理に第2フィルタ220を用いるように固定接点aが作動接点c接続されるように制御される。
The second switching unit 140-2 connects the first filter 210 or the second filter 220 to the image processing device 150 according to the switching control signal SCTL2 from the exposure control device 200, and selectively uses the filter according to the imaging mode. Then, switching control is performed so as to perform two-dimensional convolution processing of the image processing apparatus 150 described later.
In the second switching unit 140-2, the fixed contact a is connected to the input / output line of the image processing apparatus 150, the operating contact b is connected to the first filter 210, and the operating contact c is connected to the second filter 220. .
The second switching unit 140-2 is controlled to connect the fixed contact a to the operation contact b so that the first filter 210 is used for image restoration processing of the image processing device 150 during still image shooting. On the other hand, the fixed contact a is controlled to be connected to the operating contact c so that the second filter 220 is used for image restoration processing of the image processing device 150 during moving image shooting and / or through image display.

本実施形態において、第2フィルタ220は画像のエッジ強調、帯域強調機能を有している。エッジ強調、帯域強調機能を有するフィルタとしては、たとえば、ローパスフィルタ、ハイパスフィルタ、コンボリューションフィルタ等を採用することが可能である。コンボリューションフィルタは、サンプリングしたPSF(Point Spread Function)を用いた画像復元フィルタとして形成される。
たとえば、画像処理装置150においては、スルー画表示中においては、画像処理装置150において、第1フィルタ210を用いたコンボリューション演算を実行せずに第2フィルタ220を用いたいわゆる簡易復元処理を行う。
本実施形態においては、画像モニタ手段としての画像モニタリング装置180の解像度に応じてサンプリングしたPSFを用いた簡易復元処理を行うことで、スルー画といっても画像モニタリング装置180に応じた画質を得ることができるように構成されている。
In the present embodiment, the second filter 220 has image edge enhancement and band enhancement functions. As a filter having edge enhancement and band enhancement functions, for example, a low-pass filter, a high-pass filter, a convolution filter, and the like can be employed. The convolution filter is formed as an image restoration filter using a sampled PSF (Point Spread Function).
For example, in the image processing apparatus 150, during the live view display, the image processing apparatus 150 performs a so-called simple restoration process using the second filter 220 without executing the convolution operation using the first filter 210. .
In this embodiment, by performing a simple restoration process using a PSF sampled according to the resolution of the image monitoring device 180 as an image monitoring unit, an image quality corresponding to the image monitoring device 180 is obtained even if it is a through image. It is configured to be able to.

また、本実施形態においては、第2フィルタ220のサイズは、第1フィルタ210のサイズより小さいサイズに設定される。   In the present embodiment, the size of the second filter 220 is set to be smaller than the size of the first filter 210.

また、本実施形態における露出制御装置200は、設定手段およびトリガ信号生成手段として機能する操作部190の操作内容により、第1切替部140−1と第2切替部140−2の両者共に切替制御動作を行うように構成すること、あるいは、第1切替部140−1は切替制御を行わず固定接点aと作動接点bを固定的に接続するように構成すること、あるいは、第2切替部140−2は動作させずに画像処理装置150における画像復元処理において第1フィルタのみを用いるか第2フィルタのみを用いるか、両フィルタを用いないように構成すること、あるいは、動画撮影時、スルー画表示時において、フィルタを用いた画像復元処理の実施の有無を設定する等、種々の構成、機能を選択可能である。   Further, the exposure control apparatus 200 according to the present embodiment controls both the first switching unit 140-1 and the second switching unit 140-2 according to the operation content of the operation unit 190 functioning as a setting unit and a trigger signal generation unit. It is configured to perform the operation, or the first switching unit 140-1 is configured to connect the fixed contact a and the operating contact b without performing the switching control, or the second switching unit 140. -2 is configured so that only the first filter or only the second filter is used in the image restoration process in the image processing apparatus 150 without being operated, or both filters are not used, or when moving images are taken, At the time of display, it is possible to select various configurations and functions, such as setting whether to perform image restoration processing using a filter.

変換手段として機能する画像処理装置(二次元コンボリューション手段)150は、前段のAFE130からくる撮像画像のデジタル信号を入力し、二次元のコンボリューション処理を施し、後段のカメラ信号処理部(DSP)160に渡す。
画像処理装置150、露出制御装置200の露出情報に応じて、光学的伝達関数(OTF)に対してフィルタ処理を行う。なお、露出情報として絞り情報を含む。
画像処理装置150は、撮像素子120からの画像の焦点のボケを補正して復元した画像信号を生成する。より具体的には、画像処理装置150は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する機能を有する。また、画像処理装置150は、最初のステップ(処理)でノイズ低減フィルタリングを施す機能を有する。
画像処理装置150の処理については後でさらに詳述する。
An image processing apparatus (two-dimensional convolution means) 150 functioning as a conversion means inputs a digital signal of a captured image coming from the AFE 130 at the previous stage, performs a two-dimensional convolution process, and performs a camera signal processing section (DSP) at the subsequent stage. To 160.
Filter processing is performed on the optical transfer function (OTF) according to the exposure information of the image processing device 150 and the exposure control device 200. Note that aperture information is included as exposure information.
The image processing device 150 generates a restored image signal by correcting the defocus of the image from the image sensor 120. More specifically, the image processing device 150 has a function of generating a non-dispersed image signal from the subject dispersed image signal from the image sensor 120. The image processing apparatus 150 has a function of performing noise reduction filtering in the first step (processing).
The processing of the image processing apparatus 150 will be described in detail later.

カメラ信号処理部(DSP)160は、カラー補間、ホワイトバランス、YCbCr変換処理、圧縮、ファイリング等の所定の画像処理を行い、メモリ170への格納や画像モニタリング装置180への画像表示等を行う。   The camera signal processing unit (DSP) 160 performs predetermined image processing such as color interpolation, white balance, YCbCr conversion processing, compression, filing, etc., and performs storage in the memory 170, image display on the image monitoring device 180, and the like.

画像モニタリング装置180は、たとえば液晶表示装置により形成され、カメラ信号処理部160により所定の画像処理を受けたスルー画やキャプチャ画像を表示する。
光波面変調素子のボケ量は、たとえば画像モニタリング装置180の画素ピッチの2倍以下に設定されている。
The image monitoring device 180 is formed by a liquid crystal display device, for example, and displays a through image or a captured image that has undergone predetermined image processing by the camera signal processing unit 160.
The amount of blur of the light wavefront modulation element is set to be not more than twice the pixel pitch of the image monitoring device 180, for example.

メモリ170は、カメラ信号処理部160で所定の画像処理を受けたキャプチャ画像等が記録される。   The memory 170 stores a captured image or the like that has undergone predetermined image processing by the camera signal processing unit 160.

操作部190は、露出制御装置200に対して所定の機能制御を行うように指示する入力スイッチ等により構成される。操作部190は、たとえばシャッタボタン、レリーズボタン、拡大ボタン、移動キー上、移動キー下、移動キー右、移動キー左、等の各スイッチを含む。
操作部190は、たとえばユーザによりシャッタボタンあるいはレリーズボタンが操作されると、所望のスルー画部分をキャプチャし、メモリ170に記録することを指示するトリガ信号を生成し露出制御装置200に出力するトリガ信号生成機能を有する。
The operation unit 190 includes an input switch that instructs the exposure control device 200 to perform predetermined function control. The operation unit 190 includes switches such as a shutter button, a release button, an enlarge button, a move key, a move key, a move key right, and a move key left.
For example, when the user operates the shutter button or the release button, the operation unit 190 generates a trigger signal instructing to capture a desired through image portion and record it in the memory 170 and output the trigger signal to the exposure control device 200. Has a signal generation function.

露出制御装置200は、露出制御を行うとともに、操作部190などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、AFE130、画像処理装置150、DSP160等を制御し、システム全体の調停制御を司るものである。
露出制御装置200は、たとえばスルー画表示中は、切替制御信号SCTL1により切替部140−1の固定接点aと作動接点cとを接続させて、復元処理がされていない撮像素子120の撮像画像信号をカメラ信号処理部160に直接入力させる。
一方、露出制御装置200は、操作部190によりトリガ信号を受けると、画像をキャプチャしてメモリ170に画像を記録するモードであると判断し、切替制御信号SCTL1により切替部140−1の固定接点aと作動接点bとを接続させて、復元処理を施すべく画像処理装置150に入力させる。
すなわち、露出制御装置200は、トリガ信号を受けてキャプチャした画像に対しては、画像処理装置150で復元処理した後、カメラ信号処理部160で所定の画像処理を施した後の画像を画像モニタリング装置180に表示させる。
また、露出制御装置200は、たとえばカメラ信号処理部160を通して、画像モニタリング装置180にスルー画を表示中は画像モニタリング装置180の分解能で必要十分な分可能をもった画像を撮像素子120から出力させるようにタイミングジェネレータ131に指示を出す。
The exposure control device 200 performs exposure control, has operation inputs such as the operation unit 190, determines the operation of the entire system according to those inputs, controls the AFE 130, the image processing device 150, the DSP 160, etc. It governs mediation control of the entire system.
For example, during live view display, the exposure control apparatus 200 connects the fixed contact a and the operating contact c of the switching unit 140-1 by the switching control signal SCTL1, and the captured image signal of the image sensor 120 that has not been restored. Are directly input to the camera signal processing unit 160.
On the other hand, when the exposure control device 200 receives the trigger signal from the operation unit 190, the exposure control device 200 determines that the mode is a mode for capturing an image and recording the image in the memory 170, and the fixed control point of the switching unit 140-1 by the switching control signal SCTL1. a and the operation contact b are connected and input to the image processing apparatus 150 to perform the restoration process.
That is, the exposure control apparatus 200 receives the trigger signal, and after the image processing apparatus 150 restores the captured image, the camera signal processing section 160 performs predetermined image processing on the image that has been subjected to image monitoring. It is displayed on the device 180.
Further, for example, the exposure control device 200 causes the image sensor 120 to output an image having a necessary and sufficient resolution with the resolution of the image monitoring device 180 while displaying the through image on the image monitoring device 180 through the camera signal processing unit 160. An instruction is issued to the timing generator 131.

また、本実施形態の露出制御装置200は、操作部190の操作に応じて、第2切替部140−2に対して切替制御信号SCTL2により、静止画撮影モード時においては、画像処理装置150の画像復元処理に第1フィルタ210を用いるように固定接点aを作動接点bに接続し、動画撮影時および、またはスルー画表示時には画像処理装置150の画像復元処理に第2フィルタ220を用いるように固定接点aを作動接点cに接続するように制御する。   In addition, the exposure control apparatus 200 according to the present embodiment uses the switching control signal SCTL2 to the second switching unit 140-2 in accordance with the operation of the operation unit 190 in the still image shooting mode. The fixed contact a is connected to the operating contact b so that the first filter 210 is used for the image restoration process, and the second filter 220 is used for the image restoration process of the image processing device 150 when shooting a moving image or displaying a live view. Control is performed so that the fixed contact a is connected to the operation contact c.

また、本実施形態においては、操作部190の操作内容によっては、露出制御装置200は、動画撮影時において、スルー画表示には画像処理装置150で画像復元処理を実施していない画像信号をカメラ信号処理部160に入力させ、画像をメモリ170に記録する際に、画像処理装置150により画像復元処理を実施するように制御することも可能である。   In the present embodiment, depending on the operation content of the operation unit 190, the exposure control device 200 may display an image signal that has not been subjected to image restoration processing by the image processing device 150 for displaying a through image during moving image shooting. It is also possible to control the image processing apparatus 150 to perform the image restoration process when the image processing apparatus 150 inputs the signal to the signal processing unit 160 and records the image in the memory 170.

あるいは、操作部190の操作内容によっては、露出制御装置200は、動画撮影時において、画像処理装置150で画像復元処理を実施していない画像信号をカメラ信号処理部160に入力させ、画像復元処理を実施していない画像をメモリ170に記録し、メモリ170からこの画像を再生する際に、画像処理装置150により画像復元処理を実施するように制御することも可能である。   Alternatively, depending on the operation content of the operation unit 190, the exposure control device 200 causes the camera signal processing unit 160 to input an image signal that has not been subjected to the image restoration process by the image processing device 150 during moving image shooting. It is also possible to record an image that has not been performed in the memory 170 and control the image processing apparatus 150 to perform an image restoration process when reproducing the image from the memory 170.

図2は、撮影モードに応じて画像復元処理に用いる場合の基本的な制御フローを示す図である。
キャプチャ時は、第1切替部140−1から画像処理装置150に画像データが送られる。
この場合、撮影モードはキャプチャであるから第2切替部140−2により第1フィルタ210が画像処理装置150に接続され、第1フィルタ210を用いてコンボリュージョン演算される(ST146、ST144)。
プレビュー時の処理として、ユーザが操作部190により画像復元処理なしと選択すると第1切替部140−1で撮像素子からの画像データはスルーしてカメラ信号処理部160に直接転送されて所定の処理を受ける(ST145)。
復元処理有りと選択されると、第1切替部140−1から画像処理装置150に画像データが送られる。そして、撮影モードがプレビュー時であることから、動画撮影時用の第2フィルタ220が選択される。キャプチャ時とプレビュー時、動画撮影時で異なるサイズのフィルタを用いてコンボリューション処理を行う(ST143,ST144)。
FIG. 2 is a diagram showing a basic control flow when used for image restoration processing in accordance with the shooting mode.
At the time of capture, image data is sent from the first switching unit 140-1 to the image processing apparatus 150.
In this case, since the photographing mode is capture, the first filter 210 is connected to the image processing apparatus 150 by the second switching unit 140-2, and the convolution calculation is performed using the first filter 210 (ST146, ST144).
As processing at the time of preview, when the user selects no image restoration processing by the operation unit 190, the first switching unit 140-1 passes through the image data from the image sensor and is directly transferred to the camera signal processing unit 160 to perform predetermined processing. (ST145).
When the restoration process is selected, image data is sent from the first switching unit 140-1 to the image processing apparatus 150. Since the shooting mode is preview, the second filter 220 for moving image shooting is selected. Convolution processing is performed using filters of different sizes at the time of capture, preview, and moving image shooting (ST143, ST144).

また、露出制御装置200は、スルー画表示の際には、制御信号S200により絞り110aを絞るように制御する。より具体的には、露出制御装置200は、制御信号S200により、スルー画表示の際に光波面変調素子の変調面の変調作用の影響(位相面の影響)を排除し得る部分まで絞り110aを絞るように制御する。
このように、露出制御装置200が、スルー画表示の際には、制御信号S200により絞り110aを絞るように制御することにより、スルー画表示時に位相面の影響を受けないため、ある程度はボケないような画像を表示できるようになる。
なお、絞り110aを絞ると画面表示が暗くなるが、画像モニタリング装置180の画面表示用の信号のゲインを上げることで、明るさの問題は解消することが可能である。
In addition, the exposure control device 200 controls the aperture 110a to be reduced by the control signal S200 when displaying a through image. More specifically, the exposure control device 200 uses the control signal S200 to move the aperture 110a to a portion where the influence of the modulation action of the modulation surface of the light wavefront modulation element (the influence of the phase plane) can be eliminated during the through image display. Control to squeeze.
In this way, when the live view is displayed, the exposure control device 200 controls the aperture 110a to be stopped by the control signal S200, so that it is not affected by the phase plane when the live view is displayed. Such an image can be displayed.
Note that the screen display becomes dark when the aperture 110a is stopped, but the brightness problem can be solved by increasing the gain of the screen display signal of the image monitoring apparatus 180.

以下に、本実施形態の光学系の基本的な機能およびボケ画像復元の有無に応じた基本的な処理について説明した後、本実施形態の特徴である光学系110と変換手段として機能する画像処理装置150のさらに具体的な構成および機能について具体的に説明する。   The basic function of the optical system according to the present embodiment and the basic processing according to the presence / absence of the blurred image restoration will be described below, and then the image processing that functions as the optical system 110 and the conversion unit, which are features of the present embodiment. A more specific configuration and function of the device 150 will be specifically described.

ここでは、ベストフォーカス(焦点)位置で光線が集中する一般的な結像光学系を比較例として挙げる。
図3は、一般的な結像光学系の光線高さとデフォーカスとの関係を示す図である。
また、図4は、本実施形態の光学系の結像付近の光学特性を示す図である。
Here, a general imaging optical system in which light rays concentrate at the best focus (focal point) position will be described as a comparative example.
FIG. 3 is a diagram showing the relationship between the beam height and defocus of a general imaging optical system.
FIG. 4 is a diagram showing optical characteristics in the vicinity of image formation of the optical system of the present embodiment.

図3に示すように、一般的な結像光学系においては、ベストフォーカスの位置では光線が最も密に集中し、ベストフォーカス位置から離れていくとそのデフォーカス量にほぼ比例してボケ径が広がる。
これに対し、本実施形態の光学系110は、図4に示すように、一般的な結像系光学系と異なり、ベストフォーカスの位置で光線が集中しないため、ベストフォーカス位置であってもボケている。しかしながら、本実施形態の光学系110は、このベストフォーカス近傍では、デフォーカス量に対してボケの形(PSF)の変化が鈍感になるように設計されている。
したがって、ベストフォーカス位置のPSFに応じたボケ復元処理を行えば、ベストフォーカス点はもちろんその前後もボケを除去し鮮明な画像を得ることができる。
これが本実施形態で採用している深度拡大の原理である。
As shown in FIG. 3, in a general imaging optical system, light rays are most densely concentrated at the best focus position, and when the distance from the best focus position is increased, the blur diameter is approximately proportional to the defocus amount. spread.
On the other hand, as shown in FIG. 4, the optical system 110 of this embodiment differs from a general imaging system optical system in that light rays do not concentrate at the best focus position. ing. However, the optical system 110 according to the present embodiment is designed so that the change in the blur shape (PSF) is insensitive to the defocus amount in the vicinity of the best focus.
Therefore, if a blur restoration process according to the PSF at the best focus position is performed, a clear image can be obtained by removing the blur not only before and after the best focus point.
This is the principle of depth expansion adopted in this embodiment.

次に、ボケ画像復元処理について説明する。
図5は、一般的な光学系のベストフォーカス(BestFocus)位置でのMTF(Modulation Transfer Function:振幅伝達関数)特性図である。
図6は、本実施形態の光学系のMTF特性を示す図である。
Next, the blurred image restoration process will be described.
FIG. 5 is an MTF (Modulation Transfer Function) characteristic diagram at the best focus position of a general optical system.
FIG. 6 is a diagram showing the MTF characteristics of the optical system of the present embodiment.

本実施形態の光学系110を通過して撮像素子120で得られた撮像画像はボケているため中域〜高域にかけてMTFが低下している。このMTFを演算によって上昇させる。レンズ単体の振幅特性であるMTFに対し、画像処理を含めたトータルの振幅特性はSFR(Spatial Frequency Response)と呼ばれている。
ボケ画像を発生させるPSFの周波数特性がMTFであるので、これから所望のSFR特性まで引き上げるゲイン特性に設計してできたものがボケ復元フィルタである。どの程度のゲインにするかはノイズや偽像とのバランスで決めていく。
Since the picked-up image obtained by the image pickup device 120 after passing through the optical system 110 of the present embodiment is blurred, the MTF decreases from the middle range to the high range. This MTF is raised by calculation. In contrast to the MTF, which is the amplitude characteristic of a single lens, the total amplitude characteristic including image processing is called SFR (Spatial Frequency Response).
Since the frequency characteristic of a PSF that generates a blurred image is MTF, a blur restoration filter is designed to have a gain characteristic that is increased to a desired SFR characteristic. The degree of gain is determined by the balance with noise and false images.

このボケ復元フィルタを元画像にデジタルフィルタリングする方法は、画像をフーリエ変換し周波数領域でフィルタと周波数毎に積を取る方法と、空間領域でコンボリューション(Convolution)演算(畳み込み演算)を行なう方法がある。ここでは後者での実現方法を説明する。コンボリューション演算は下記の式で表される。   There are two methods for digitally filtering this blur restoration filter to the original image: Fourier transforming the image and multiplying the filter and frequency in the frequency domain, and convolution (convolution) in the spatial domain. is there. Here, the latter implementation method will be described. The convolution operation is expressed by the following equation.

Figure 2008011492
Figure 2008011492

ただし、fはフィルタ(filter)カーネルを示している(ここでは計算を容易にするために180度回転済みのものを使用している)。
また、Aは元画像、Bはフィルタリングされた画像(ボケ復元画像)を示している。
この式から分かる通り、fを画像に重ねて各タップ同士の積和した結果をその重ねた中心座標の値とすることである。
Here, f indicates a filter kernel (here, the one rotated 180 degrees is used for easy calculation).
A indicates an original image, and B indicates a filtered image (blurred restored image).
As can be seen from this equation, f is superimposed on the image and the result of summing the products of the taps is taken as the value of the center coordinate that has been superimposed.

次に、図7(A)〜(C)に関連付けて3*3のフィルタを例に挙げ具体的に説明する。
図7(A)の復元フィルタ(既に180度回転済み)を図7(B)に示すボケ画像のA(i,j)上にフィルタの中心f(0,0)を重ね、各タップ同士の積をとりこの9個の総和値を図7(C)に示すボケ復元画像のB(i,j)とする。
(i,j)を画像全体に渡ってスキャンすると新たなB画像が生成される。これがデジタルフィルタである。ここではフィルタがボケ復元目的であるので、この処理を行なうことでボケ復元処理を実施することができる。
Next, a 3 * 3 filter will be specifically described with reference to FIGS. 7A to 7C.
The restoration filter of FIG. 7A (already rotated 180 degrees) is overlaid on the center A (i, j) of the blurred image shown in FIG. The product is taken and the nine total values are set as B (i, j) of the blurred restored image shown in FIG.
When (i, j) is scanned over the entire image, a new B image is generated. This is a digital filter. Here, since the filter is used for blur restoration, blur restoration processing can be performed by performing this processing.

理論的、技術的には、この処理を常時適用して、スルー画表示中においてもボケ復元処理を施した画像を表示させることは可能である。
しかしながら、このコンボリューション演算を、たとえば30fpsなどの高いレートを維持したままリアルタイムで処理しようとすれば、フィルタサイズに応じたラインバッファや非常にたくさんの乗算器が必要となり、高コストで大きな消費電力が発生しあまり現実的でない。
そこで、本実施形態においては、スルー画表示中など必要でない期間はコンボリューション演算を実行せず、キャプチャ実行のトリガが入力された時のみコンボリューション演算を施すようにすることもできる。
Theoretically and technically, it is possible to display the image subjected to the blur restoration process even during the live view display by always applying this process.
However, if this convolution operation is processed in real time while maintaining a high rate such as 30 fps, a line buffer corresponding to the filter size and a large number of multipliers are required, resulting in high cost and high power consumption. Occurs and is not very realistic.
Therefore, in the present embodiment, the convolution calculation can be performed only when a capture execution trigger is input without performing the convolution calculation during an unnecessary period such as during live view display.

本実施形態においては、光学系110を通して像は撮像素子120によって光電変換され、AFE130で変換されてデジタル画像データを生成する。
そして、スルー画表示中は、撮像素子120による画像信号は、切替部140により画像処理装置150のボケ画像復元処理をパスしてカメラ信号処理部160に送られる。
カメラ信号処理部160においては、たとえばBayerカラーの場合、デモザイク処理、ホワイトバランス処理、ガンマ変換、YUV変換等を行いモニタにリアルタイムで画像を出力する。
次に、たとえば操作部190のレリーズボタン等が操作されてトリガ信号が露出制御装置200に入力されると、撮像素子120、AFE130からのデジタルデータを切替部140により画像処理装置150に入力して前述のボケ画像復元処理にかけてその出力をカメラ信号処理部160でカメラ信号処理を施す。カメラ信号処理が施されたが像は、メモリ170に記録されたり、画像モニタリング装置180に表示されたりする。
ここで拡大ボタンが押下されればキャプチャ画を拡大してモニタに映し出したり、その状態で移動キーの操作によって拡大部分の位置を変えることもできる。
In this embodiment, an image is photoelectrically converted by the image sensor 120 through the optical system 110 and converted by the AFE 130 to generate digital image data.
During live view display, the image signal from the image sensor 120 is sent to the camera signal processing unit 160 by the switching unit 140 after passing the blurred image restoration processing of the image processing device 150.
For example, in the case of Bayer color, the camera signal processing unit 160 performs demosaic processing, white balance processing, gamma conversion, YUV conversion, and the like, and outputs an image to the monitor in real time.
Next, for example, when a release button of the operation unit 190 is operated and a trigger signal is input to the exposure control device 200, digital data from the image sensor 120 and the AFE 130 is input to the image processing device 150 by the switching unit 140. The camera signal processing unit 160 performs camera signal processing on the output through the above-described blurred image restoration processing. Although the camera signal processing has been performed, the image is recorded in the memory 170 or displayed on the image monitoring device 180.
If the enlarge button is pressed here, the captured image can be enlarged and displayed on the monitor, or the position of the enlarged portion can be changed by operating the movement key in this state.

また、本実施形態においては、前記PSFのボケ幅は、画像モニタリング装置180の分解能を上限として設定していることから、スルー画表示中は処理を軽くするため、上述したボケ復元処理を実施しないようにしても、ボケが目立たないようなモニタ表示が可能となる。   In the present embodiment, the blur width of the PSF is set with the resolution of the image monitoring device 180 as the upper limit. Therefore, the above-described blur restoration process is not performed in order to lighten the process during live view display. Even if it does, the monitor display which does not become conspicuous becomes possible.

さらに、本実施形態においては、ボケ幅の大きさを画像モニタリング装置180の画素ピッチの2倍程度以下に設定してあることから、スルー画表示中のライブ画像は実質的にボケてはいない。   Furthermore, in the present embodiment, since the size of the blur width is set to about twice or less the pixel pitch of the image monitoring device 180, the live image during live view display is not substantially blurred.

画像ピッチの2倍程度以下として表示が実質的にボケないのは、一般的にモニタ装置でカラー表示を行う場合、光の3原色であるR,G,Bを1画素ずつに割り当て、最低でもこの3画素を1ユニットとしてカラー表示が行われることに起因する。
図8(A)〜(D)に示すように、画素の配列には、ストライプ配列、ダイアゴナル配列、デルタ配列、レクタリング配列といった複数の手法があるが、いずれの手法も最低でも正方が画素の2×2のサイズを最小ユニットとして構成されている。
よって、モニタ表示画像の分解能としては画素ピッチの2倍以下であれば実質的に問題のないレベルであるといえる。
The reason why the display is substantially unblurred when the image pitch is about twice or less is generally that when performing color display on a monitor device, R, G, and B, which are the three primary colors of light, are assigned to each pixel, and at least This is because color display is performed with these three pixels as one unit.
As shown in FIGS. 8A to 8D, the pixel arrangement includes a plurality of methods such as a stripe arrangement, a diagonal arrangement, a delta arrangement, and a lettering arrangement. A 2 × 2 size is configured as a minimum unit.
Therefore, if the resolution of the monitor display image is less than twice the pixel pitch, it can be said that the level is substantially satisfactory.

また、本実施形態においては、ボケ画像を画像処理装置150で復元処理し、カメラ信号処理部160でカメラ信号処理が終わったところで自動的に画像モニタリング装置180にボケ復元画像を出力するようにしたので、ボケ復元処理にある程度時間がかかっても処理終了と同時に見ることができ、撮影者が復元処理を実行させるための特別な操作を行う必要はない。   In this embodiment, the blurred image is restored by the image processing device 150, and the blurred image is automatically output to the image monitoring device 180 when the camera signal processing is completed by the camera signal processing unit 160. Therefore, even if the blur restoration process takes a certain amount of time, it can be viewed at the same time as the process is completed, and there is no need for the photographer to perform a special operation for executing the restoration process.

また、本実施形態においては、スルー画表示中は画像モニタリング装置180の分解能で必要十分な小さいサイズの画像を撮像素子120ボケ変換手段としての画像処理装置150を通さずにカメラ信号処理を行って画像モニタリング装置180に出力するようにしたので、画像処理に負担がかからずリアルタイムで高速な処理が可能となる。   Further, in the present embodiment, during live view display, camera signal processing is performed without passing through an image processing device 150 serving as an image sensor 120 blur conversion unit for an image having a sufficiently small size with the resolution of the image monitoring device 180. Since the image is output to the image monitoring apparatus 180, the image processing is not burdened, and high-speed processing in real time is possible.

以下、本実施形態の光学系、画像処理装置の構成および機能についてさらに具体的には説明する。   Hereinafter, the configuration and function of the optical system and the image processing apparatus of the present embodiment will be described more specifically.

図9は、本実施形態に係るズーム光学系110の構成例を模式的に示す図である。この図は広角側を示している。
また、図10は、本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例を模式的に示す図である。
そして、図11は、本実施形態に係るズーム光学系の広角側の像高中心のスポット形状を示す図であり、図12は、本実施形態に係るズーム光学系の望遠側の像高中心のスポット形状を示す図である。
FIG. 9 is a diagram schematically illustrating a configuration example of the zoom optical system 110 according to the present embodiment. This figure shows the wide angle side.
FIG. 10 is a diagram schematically illustrating a configuration example of a zoom optical system on the telephoto side of the imaging lens device according to the present embodiment.
FIG. 11 is a diagram showing a spot shape at the center of the image height on the wide angle side of the zoom optical system according to the present embodiment, and FIG. 12 is a diagram of the center of the image height at the telephoto side of the zoom optical system according to the present embodiment. It is a figure which shows a spot shape.

図9および図10のズーム光学系110は、物体側OBJSに配置された物体側レンズ111と、撮像素子120に結像させるための結像レンズ112と、物体側レンズ111と結像レンズ112間に配置され、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる、たとえば3次元的曲面を有する位相板(Cubic Phase Plate)からなる光波面変調素子(波面形成用光学素子:Wavefront Coding Optical Element)群113を有する。また、物体側レンズ111と結像レンズ112間には図示しない絞りが配置される。
たとえば、本実施形態においては、可変絞りが設けられ、露出制御(装置)において可変絞りの絞り度(開口度)を制御する。
9 and 10 includes an object side lens 111 disposed on the object side OBJS, an image forming lens 112 for forming an image on the image sensor 120, and between the object side lens 111 and the image forming lens 112. An optical wavefront modulation element (wavefront forming optics) made of a phase plate (Cubic Phase Plate) having a three-dimensional curved surface, for example, which deforms the wavefront of the image formation on the light receiving surface of the image sensor 120 by the imaging lens 112. Elements: Wavefront Coding Optical Element) group 113. A stop (not shown) is disposed between the object side lens 111 and the imaging lens 112.
For example, in this embodiment, a variable aperture is provided, and the aperture (aperture) of the variable aperture is controlled by exposure control (apparatus).

なお、本実施形態においては、位相板を用いた場合について説明したが、本発明の光波面変調素子としては、波面を変形させるものであればどのようなものでもよく、厚みが変化する光学素子(たとえば、上述の3次の位相板)、屈折率が変化する光学素子(たとえば屈折率分布型波面変調レンズ)、レンズ表面へのコーディングにより厚み、屈折率が変化する光学素子(たとえば、波面変調ハイブリッドレンズ)、光の位相分布を変調可能な液晶素子(たとえば、液晶空間位相変調素子)等の光波面変調素子であればよい。   In the present embodiment, the case where the phase plate is used has been described. However, the optical wavefront modulation element of the present invention may be any element that deforms the wavefront, and an optical element whose thickness changes. (For example, the above-described third-order phase plate), an optical element whose refractive index changes (for example, a gradient index wavefront modulation lens), an optical element whose thickness and refractive index change by coding on the lens surface (for example, wavefront modulation) A light wavefront modulation element such as a hybrid lens) or a liquid crystal element capable of modulating the phase distribution of light (for example, a liquid crystal spatial phase modulation element) may be used.

図9および図10のズーム光学系110は、デジタルカメラに用いられる3倍ズームに光学位相板113aを挿入した例である。
図で示された位相板113aは、光学系により収束される光束を規則正しく分散する光学レンズである。この位相板を挿入することにより、撮像素子120上ではピントのどこにも合わない画像を実現する。
換言すれば、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成している。
この規則的に分散した画像をデジタル処理により、ピントの合った画像に復元する手段を波面収差制御光学系システム、あるいは深度拡張光学系システム(DEOS:Depth Expantion Optical system)といい、この処理を画像処理装置150において行う。
The zoom optical system 110 in FIGS. 9 and 10 is an example in which an optical phase plate 113a is inserted into a 3 × zoom used in a digital camera.
The phase plate 113a shown in the figure is an optical lens that regularly disperses the light beam converged by the optical system. By inserting this phase plate, an image that does not fit anywhere on the image sensor 120 is realized.
In other words, the phase plate 113a forms a deep luminous flux (which plays a central role in image formation) and a flare (blurred portion).
A means for restoring the regularly dispersed image to a focused image by digital processing is called a wavefront aberration control optical system system or a depth expansion optical system (DEOS), and this processing is an image. This is performed in the processing device 150.

ここで、DEOSの基本原理について説明する。
図13に示すように、被写体の画像fがDEOS光学系Hに入ることにより、g画像が生成される。
これは、次のような式で表される。
Here, the basic principle of DEOS will be described.
As shown in FIG. 13, when the subject image f enters the DEOS optical system H, a g image is generated.
This is expressed by the following equation.

(数2)
g=H*f
ただし、*はコンボリューションを表す。
(Equation 2)
g = H * f
However, * represents convolution.

生成された画像から被写体を求めるためには、次の処理を要する。   In order to obtain the subject from the generated image, the following processing is required.

(数3)
f=H−1*g
(Equation 3)
f = H −1 * g

ここで、Hに関するカーネルサイズと演算係数について説明する。
ズームポジションをZPn,ZPn−1・・・とする。また、それぞれのH関数をHn,Hn−1、・・・・とする。
各々のスポット像が異なるため、各々のH関数は、次のようになる。
Here, the kernel size and calculation coefficient regarding H will be described.
Let the zoom positions be ZPn, ZPn-1,. In addition, each H function is defined as Hn, Hn-1,.
Since each spot image is different, each H function is as follows.

Figure 2008011492
Figure 2008011492

この行列の行数および/または列数の違いをカーネルサイズ、各々の数字を演算係数とする。
ここで、各々のH関数はメモリに格納しておいても構わないし、PSFを物体距離の関数としておき、物体距離によって計算し、H関数を算出することによって任意の物体距離に対して最適なフィルタを作るように設定できるようにしても構わない。また、H関数を物体距離の関数として、物体距離によってH関数を直接求めても構わない。
The difference in the number of rows and / or the number of columns in this matrix is the kernel size, and each number is the operation coefficient.
Here, each H function may be stored in a memory, and the PSF is set as a function of the object distance, and is calculated based on the object distance. By calculating the H function, an optimum object distance is obtained. It may be possible to set so as to create a filter. Alternatively, the H function may be directly obtained from the object distance using the H function as a function of the object distance.

本実施形態においては、図1に示すように、光学系110からの像を撮像素子120で受像して、画像処理装置150に入力させ、光学系に応じた変換係数を取得して、取得した変換係数をもって撮像素子120からの分散画像信号より分散のない画像信号を生成するように構成している。   In the present embodiment, as shown in FIG. 1, an image from the optical system 110 is received by the image sensor 120 and input to the image processing device 150, and a conversion coefficient corresponding to the optical system is acquired and acquired. An image signal having no dispersion is generated from the dispersion image signal from the image sensor 120 with a conversion coefficient.

なお、本実施形態において、分散とは、上述したように、位相板113aを挿入することにより、撮像素子120上ではピントのどこにも合わない画像を形成し、位相板113aによって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)を形成する現象をいい、像が分散してボケ部分を形成する振る舞いから収差と同様の意味合いが含まれる。したがって、本実施形態においては、収差として説明する場合もある。   In the present embodiment, as described above, dispersion refers to forming a non-focused image on the image sensor 120 by inserting the phase plate 113a as described above. It plays a central role in image formation) and a phenomenon of forming flare (blurred portion), and includes the same meaning as aberration because of the behavior of the image being dispersed to form a blurred portion. Therefore, in this embodiment, it may be described as aberration.

また、図14は、本実施形態の光波面変調素子を含む光学系の光軸をz軸とし、互いに直交する2軸をx、yとしたとき、下記式で表される波面収差の形状である。   FIG. 14 shows the shape of wavefront aberration expressed by the following equation, where the optical axis of the optical system including the light wavefront modulation element of the present embodiment is the z axis and two axes orthogonal to each other are x and y. is there.

Figure 2008011492
Figure 2008011492

波面収差が0.5λ以下の範囲では位相の変化が小さく、通常の光学系と変わらないOTFを持つ。したがってスルー画表示時に波面収差が0.5λ程度になるまで絞るように制御すれば良い。
図15は、前記波面収差の形状と0.5λ以下の範囲を太線で表したものである。
ただし、λはたとえば可視光領域、赤外領域の波長を用いる。
In the range where the wavefront aberration is 0.5λ or less, the phase change is small, and the OTF is the same as that of a normal optical system. Therefore, it is only necessary to control so that the wavefront aberration is reduced to about 0.5λ when displaying a through image.
FIG. 15 shows the shape of the wavefront aberration and the range of 0.5λ or less by a bold line.
However, λ uses, for example, wavelengths in the visible light region and the infrared region.

なお、図14に示す形状は、一例であって、光波面変調素子が、光学系の光軸をz軸とし、互いに直交する2軸をx、yとしたとき、位相が下記式で表されるものであれば適用可能である。   The shape shown in FIG. 14 is an example, and the phase of the light wavefront modulation element is represented by the following equation when the optical axis of the optical system is the z axis and the two axes orthogonal to each other are x and y. Anything is applicable.

Figure 2008011492
Figure 2008011492

画像処理装置150は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   As described above, the image processing apparatus 150 receives the primary image FIM from the image sensor 120 and performs a predetermined correction process or the like for raising the MTF at the spatial frequency of the primary image to form a high-definition final image FNLIM. To do.

次に、画像処理装置150の構成および処理について説明する。   Next, the configuration and processing of the image processing apparatus 150 will be described.

画像処理装置150は、図1に示すように、生(RAW)バッファメモリ151、コンボリューション演算器152、記憶手段としてのカーネルデータ格納ROM153、およびコンボリューション制御部154を有する。   As illustrated in FIG. 1, the image processing apparatus 150 includes a raw (RAW) buffer memory 151, a convolution calculator 152, a kernel data storage ROM 153 as a storage unit, and a convolution control unit 154.

コンボリューション制御部154は、コンボリューション処理のオンオフ、画面サイズ、カーネルデータの入れ替え等の制御を行い、露出制御装置200により制御される。   The convolution control unit 154 controls the on / off of the convolution process, the screen size, the replacement of kernel data, and the like, and is controlled by the exposure control apparatus 200.

また、カーネルデータ格納ROM153には、図16または図17に示すように予め用意されたそれぞれの光学系のPSFにより算出されたコンボリューション用のカーネルデータが格納されており、露出制御装置200によって露出設定時に決まる露出情報を取得し、コンボリューション制御部154を通じてカーネルデータを選択制御する。
なお、露出情報には、絞り情報が含まれる。
Further, the kernel data storage ROM 153 stores kernel data for convolution calculated by the PSF of each optical system prepared in advance as shown in FIG. 16 or FIG. Exposure information determined at the time of setting is acquired, and kernel data is selected and controlled through the convolution control unit 154.
The exposure information includes aperture information.

図16の例では、カーネルデータAは光学倍率(×1.5)、カーネルデータBは光学倍率(×5)、カーネルデータCは光学倍率(×10)に対応したデータとなっている。   In the example of FIG. 16, the kernel data A is data corresponding to the optical magnification (× 1.5), the kernel data B is data corresponding to the optical magnification (× 5), and the kernel data C is data corresponding to the optical magnification (× 10).

また、図17の例では、カーネルデータAは絞り情報としてのFナンバ(2.8)、カーネルデータBはFナンバ(4)、カーネルデータCはFナンバ(5.6)に対応したデータとなっている。   In the example of FIG. 17, the kernel data A is the F number (2.8) as aperture information, the kernel data B is the data corresponding to the F number (4), and the kernel data C is the data corresponding to the F number (5.6). It has become.

図17の例のように、絞り情報に応じたフィルタ処理を行うのは以下の理由による。
絞りを絞って撮影を行う場合、絞りによって光波面変調素子を形成する位相板113aが覆われてしまい、位相が変化してしまうため、適切な画像を復元することが困難となる。
そこで、本実施形態においては、本例のように、露出情報中の絞り情報に応じたフィルタ処理を行うことによって適切な画像復元を実現している。
As in the example of FIG. 17, the filtering process corresponding to the aperture information is performed for the following reason.
When shooting with the aperture stopped, the phase plate 113a forming the light wavefront modulation element is covered by the aperture and the phase changes, making it difficult to restore an appropriate image.
Therefore, in the present embodiment, as in this example, appropriate image restoration is realized by performing filter processing according to aperture information in exposure information.

図18は、露出制御装置200の露出情報(絞り除去を含む)により切り替え処理のフローチャートである。
まず、露出情報(RP)が検出されコンボリューション制御部154に供給される(ST101)。
コンボリューション制御部154においては、露出情報RPから、カーネルサイズ、数値演算係数がレジスタにセットされる(ST102)。
そして、撮像素子120で撮像され、AFE130を介して二次元コンボリューション演算部152に入力された画像データに対して、レジスタに格納されたデータに基づいてコンボリューション演算が行われ、演算され変換されたデータがカメラ信号処理部160に転送される(ST103)。
FIG. 18 is a flowchart of the switching process based on the exposure information (including aperture removal) of the exposure control apparatus 200.
First, exposure information (RP) is detected and supplied to the convolution control unit 154 (ST101).
In the convolution control unit 154, the kernel size and the numerical operation coefficient are set in the register from the exposure information RP (ST102).
The image data captured by the image sensor 120 and input to the two-dimensional convolution operation unit 152 via the AFE 130 is subjected to convolution operation based on the data stored in the register, and is calculated and converted. The transferred data is transferred to the camera signal processing unit 160 (ST103).

以下に画像処理装置150の信号処理部とカーネルデータ格納ROMについてさらに具体的な例について説明する。   A more specific example of the signal processing unit and kernel data storage ROM of the image processing apparatus 150 will be described below.

図19は、信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図19の例は露出情報に応じたフィルタカーネルを予め用意した場合のブロック図である。
FIG. 19 is a diagram illustrating a first configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 19 is a block diagram when a filter kernel corresponding to exposure information is prepared in advance.

露出設定時に決まる露出情報を取得し、コンボリューション制御部154を通じてカーネルデータを選択制御する。2次元コンボリューション演算部152においては、カーネルデータを用いてコンボリューション処理を施す。   Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 154. The two-dimensional convolution operation unit 152 performs convolution processing using kernel data.

図20は、信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図20の例は、信号処理部の最初にノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタ処理ST1を予め用意した場合のブロック図である。
FIG. 20 is a diagram illustrating a second configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 20 is a block diagram in the case where a noise reduction filter processing step is provided at the beginning of the signal processing unit, and noise reduction filter processing ST1 corresponding to exposure information is prepared in advance as filter kernel data.

露出設定時に決まる露出情報を取得し、コンボリューション制御部154を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部152においては、前記ノイズ低減フィルタST1を施した後、カラーコンバージョン処理ST2によって色空間を変換、その後カーネルデータを用いてコンボリューション処理ST3を施す。
再度ノイズ処理ST4を行い、カラーコンバージョン処理ST5によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、再度のノイズ処理ST4は省略することも可能である。
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 154.
In the two-dimensional convolution operation unit 152, after applying the noise reduction filter ST1, the color space is converted by the color conversion process ST2, and then the convolution process ST3 is performed using the kernel data.
The noise process ST4 is performed again, and the original color space is restored by the color conversion process ST5. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
Note that the second noise processing ST4 can be omitted.

図21は、信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図21の例は、露出情報に応じたOTF復元フィルタを予め用意した場合のブロック図である。
FIG. 21 is a diagram illustrating a third configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 21 is a block diagram when an OTF restoration filter corresponding to exposure information is prepared in advance.

露出設定時に決まる露出情報を取得し、コンボリューション制御部154を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部152は、ノイズ低減処理ST11、カラーコンバージョン処理ST12の後に、前記OTF復元フィルタを用いてコンボリューション処理ST13を施す。
再度ノイズ処理ST14を行い、カラーコンバージョン処理ST15によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST11、ST14は、いずれか一方のみでもよい。
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 154.
The two-dimensional convolution operation unit 152 performs the convolution process ST13 using the OTF restoration filter after the noise reduction process ST11 and the color conversion process ST12.
Noise processing ST14 is performed again, and the original color space is restored by color conversion processing ST15. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
Note that only one of the noise reduction processes ST11 and ST14 may be performed.

図22は、信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。なお、簡単化のためにAFE等は省略している。
図22の例は、ノイズ低減フィルタ処理のステップを有し、フィルタカーネルデータとして露出情報に応じたノイズ低減フィルタを予め用意した場合のブロック図である。
なお、再度のノイズ処理ST24は省略することも可能である。
露出設定時に決まる露出情報を取得し、コンボリューション制御部154を通じてカーネルデータを選択制御する。
2次元コンボリューション演算部152においては、ノイズ低減フィルタ処理ST21を施した後、カラーコンバージョン処理ST22によって色空間を変換、その後カーネルデータを用いてコンボリューション処理ST23を施す。
再度、露出情報に応じたノイズ処理ST24を行い、カラーコンバージョン処理ST25によって元の色空間に戻す。カラーコンバージョン処理は、たとえばYCbCr変換が挙げられるが、他の変換でも構わない。
なお、ノイズ低減処理ST21は省略することも可能である。
FIG. 22 is a diagram illustrating a fourth configuration example of the signal processing unit and the kernel data storage ROM. For simplification, AFE and the like are omitted.
The example of FIG. 22 is a block diagram in the case where a noise reduction filter process step is included and a noise reduction filter corresponding to exposure information is prepared in advance as filter kernel data.
It is possible to omit the noise processing ST24 again.
Exposure information determined at the time of exposure setting is acquired, and kernel data is selected and controlled through the convolution control unit 154.
In the two-dimensional convolution calculation unit 152, after performing the noise reduction filter process ST21, the color space is converted by the color conversion process ST22, and then the convolution process ST23 is performed using the kernel data.
The noise process ST24 corresponding to the exposure information is performed again, and the original color space is restored by the color conversion process ST25. The color conversion process includes, for example, YCbCr conversion, but other conversions may be used.
The noise reduction process ST21 can be omitted.

以上は露出情報のみに応じて2次元コンボリューション演算部152においてフィルタ処理を行う例を説明したが、たとえば被写体距離情報、ズーム情報、あるいは撮影モード情報と露出情報とを組み合わせることにより適した演算係数の抽出、あるいは演算を行うことが可能となる。   The example in which the two-dimensional convolution calculation unit 152 performs the filtering process according to only the exposure information has been described above. For example, the calculation coefficient suitable for combining subject distance information, zoom information, or shooting mode information and exposure information. Can be extracted or calculated.

図23は、被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図23は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300の構成例を示している。
FIG. 23 is a diagram illustrating a configuration example of an image processing apparatus that combines subject distance information and exposure information.
FIG. 23 shows a configuration example of an image processing apparatus 300 that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300は、図23に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   As shown in FIG. 23, the image processing apparatus 300 includes a convolution apparatus 301, a kernel / numerical calculation coefficient storage register 302, and an image processing calculation processor 303.

この画像処理装置300においては、物体概略距離情報検出装置400から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300, the image processing arithmetic processor 303 that has obtained the information about the approximate distance of the object distance of the subject read from the object approximate distance information detection apparatus 400 and the exposure information, performs an appropriate calculation on the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置400により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
As described above, in the case of an imaging device having a phase plate (Wavefront Coding optical element) as a light wavefront modulation element, an image signal without proper aberrations by image processing within the predetermined focal length range However, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection device 400 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

前記の画像処理はコンボリューション演算により行うが、これを実現するには、たとえばコンボリューション演算の演算係数を共通で1種類記憶しておき、焦点距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
The image processing is performed by convolution calculation. To achieve this, for example, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the focal length, The correction coefficient is used to correct the calculation coefficient, and an appropriate convolution calculation can be performed using the corrected calculation coefficient.
In addition to this configuration, the following configuration can be employed.

焦点距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成、焦点距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The kernel size and the convolution calculation coefficient itself are stored in advance according to the focal length, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient according to the focal length is stored in advance as a function. In addition, it is possible to employ a configuration in which a calculation coefficient is obtained from this function based on the focal length and a convolution calculation is performed using the calculated calculation coefficient.

図23の構成に対応付けると次のような構成をとることができる。   When associated with the configuration of FIG. 23, the following configuration can be adopted.

変換係数記憶手段としてのレジスタ302に被写体距離に応じて少なくとも位相板113aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき、レジスタ302から被写体までの距離に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 113a are stored in advance in the register 302 as the conversion coefficient storage means according to the subject distance. The image processing arithmetic processor 303 functions as a coefficient selection unit that selects a conversion coefficient corresponding to the distance from the register 302 to the subject based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit. .
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
Alternatively, as described above, the image processing calculation processor 303 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the object approximate distance information detection device 400 as the subject distance information generation unit, and stores it in the register 302. Store.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系110のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板113aに起因する収差に対応した変換係数を予め記憶する。
そして、被写体距離情報生成手段としての物体概略距離情報検出装置400により生成された距離情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302から被写体までの距離に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 110 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 113a is stored in advance in the register 302 that also functions as a second conversion coefficient storage unit.
Then, based on the distance information generated by the object approximate distance information detection device 400 as the subject distance information generation means, the image processing arithmetic processor 303 as the correction value selection means performs a process from the register 302 as the correction value storage means to the subject. Select a correction value according to the distance.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図24は、ズーム情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図24は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300Aの構成例を示している。
FIG. 24 is a diagram illustrating a configuration example of an image processing apparatus that combines zoom information and exposure information.
FIG. 24 shows a configuration example of an image processing device 300A that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300Aは、図23と同様に、図24に示すように、コンボリューション装置301、カーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   Similarly to FIG. 23, the image processing device 300A includes a convolution device 301, a kernel / numerical operation coefficient storage register 302, and an image processing operation processor 303 as shown in FIG.

この画像処理装置300Aにおいては、ズーム情報検出装置500から読み出したズーム位置またはズーム量に関する情報および露出情報を得た画像処理演算プロセッサ303では、露出情報およびそのズーム位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値演算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300A, the image processing arithmetic processor 303 that has obtained information and exposure information regarding the zoom position or zoom amount read from the zoom information detection apparatus 500 uses the exposure information and the zoom position in an appropriate calculation. Then, the kernel size and its calculation coefficient are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that calculates using the value to restore the image.

上述したように、光波面変調素子としての位相板をズーム光学系に有した撮像装置に適用する場合、ズーム光学系のズーム位置によって生成されるスポット像が異なる。このため、位相板より得られる焦点ズレ画像(スポット画像)を後段のDSP等でコンボリューション演算する際、適性な焦点合わせ画像を得るためには、ズーム位置に応じて異なるコンボリューション演算が必要となる。
そこで、本実施形態においては、ズーム情報検出装置500を設け、ズーム位置に応じて適正なコンボリューション演算を行い、ズーム位置によらず適性な焦点合わせ画像を得るように構成されている。
As described above, when the phase plate as the light wavefront modulation element is applied to the imaging apparatus having the zoom optical system, the spot image generated differs depending on the zoom position of the zoom optical system. For this reason, when a convolution calculation is performed on a defocus image (spot image) obtained from the phase plate by a DSP or the like at a later stage, different convolution calculations are required depending on the zoom position in order to obtain an appropriate focused image. Become.
Therefore, in the present embodiment, the zoom information detection apparatus 500 is provided, and is configured to perform an appropriate convolution calculation according to the zoom position and obtain an appropriate focused image regardless of the zoom position.

画像処理装置300Aにおける適正なコンボリーション演算には、コンボリューションの演算係数をレジスタ302に共通で1種類記憶しておく構成をとることができる。
この構成の他にも、以下の構成を採用することが可能である。
For proper convolution calculation in the image processing apparatus 300 </ b> A, one type of convolution calculation coefficient can be stored in the register 302 in common.
In addition to this configuration, the following configuration can be employed.

各ズーム位置に応じて、レジスタ302に補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、各ズーム位置に応じて、レジスタ302にカーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算行う構成、ズーム位置に応じた演算係数を関数としてレジスタ302に予め記憶しておき、ズーム位置によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成等を採用することが可能である。   A configuration in which a correction coefficient is stored in advance in the register 302 in accordance with each zoom position, a calculation coefficient is corrected using the correction coefficient, and an appropriate convolution calculation is performed using the corrected calculation coefficient. Then, the kernel 302 and the convolution calculation coefficient itself are stored in the register 302 in advance, the convolution calculation is performed using the stored kernel size and calculation coefficient, and the calculation coefficient corresponding to the zoom position is stored in the register 302 as a function in advance. It is possible to adopt a configuration in which a calculation coefficient is obtained from this function based on the zoom position, and a convolution calculation is performed using the calculated calculation coefficient.

図24の構成に対応付けると次のような構成をとることができる。   Corresponding to the configuration of FIG. 24, the following configuration can be taken.

変換係数記憶手段としてのレジスタ302にズーム光学系110のズーム位置またはズーム量に応じた位相板113aに起因する収差に対応した変換係数を少なくとも2以上予め記憶する。画像処理演算プロセッサ303が、ズーム情報生成手段としてのズーム情報検出装置500により生成された情報に基づき、レジスタ302からズーム光学系110のズ−ム位置またはズーム量に応じた変換係数を選択する係数選択手段として機能する。
そして、変換手段としてのコンボリューション装置301が、係数選択手段としての画像処理演算プロセッサ303で選択された変換係数によって、画像信号の変換を行う。
At least two or more conversion coefficients corresponding to the aberration caused by the phase plate 113a corresponding to the zoom position or zoom amount of the zoom optical system 110 are stored in advance in the register 302 as the conversion coefficient storage means. A coefficient by which the image processing arithmetic processor 303 selects a conversion coefficient corresponding to the zoom position or the zoom amount of the zoom optical system 110 from the register 302 based on the information generated by the zoom information detecting device 500 as the zoom information generating means. It functions as a selection means.
Then, a convolution device 301 as a conversion unit converts an image signal using the conversion coefficient selected by the image processing arithmetic processor 303 as a coefficient selection unit.

または、前述したように、変換係数演算手段としての画像処理演算プロセッサ303が、ズーム情報生成手段としてのズーム情報検出装置500により生成された情報に基づき変換係数を演算し、レジスタ302に格納する。
そして、変換手段としてのコンボリューション装置301が、変換係数演算手段としての画像処理演算プロセッサ303で得られレジスタ302に格納された変換係数によって、画像信号の変換を行う。
Alternatively, as described above, the image processing arithmetic processor 303 as the conversion coefficient calculation unit calculates the conversion coefficient based on the information generated by the zoom information detection apparatus 500 as the zoom information generation unit and stores the conversion coefficient in the register 302.
Then, a convolution device 301 as a conversion unit converts an image signal using a conversion coefficient obtained by an image processing calculation processor 303 as a conversion coefficient calculation unit and stored in the register 302.

または、補正値記憶手段としてのレジスタ302にズーム光学系110のズーム位置またはズーム量に応じた少なくとも1以上の補正値を予め記憶する。この補正値には、被写体収差像のカーネルサイズを含まれる。
第2変換係数記憶手段としても機能するレジスタ302に、位相板113aに起因する収差に対応した変換係数を予め記憶する。
そして、ズーム情報生成手段としてのズーム情報検出装置500により生成されたズーム情報に基づき、補正値選択手段としての画像処理演算プロセッサ303が、補正値記憶手段としてのレジスタ302からズーム光学系のズーム位置またはズーム量に応じた補正値を選択する。
変換手段としてのコンボリューション装置301が、第2変換係数記憶手段としてのレジスタ302から得られた変換係数と、補正値選択手段としての画像処理演算プロセッサ303により選択された補正値とに基づいて画像信号の変換を行う。
Alternatively, at least one correction value corresponding to the zoom position or zoom amount of the zoom optical system 110 is stored in advance in the register 302 serving as a correction value storage unit. This correction value includes the kernel size of the subject aberration image.
A conversion coefficient corresponding to the aberration caused by the phase plate 113a is stored in advance in the register 302 that also functions as a second conversion coefficient storage unit.
Then, based on the zoom information generated by the zoom information detecting device 500 serving as the zoom information generating unit, the image processing arithmetic processor 303 serving as the correction value selecting unit performs the zoom position of the zoom optical system from the register 302 serving as the correction value storing unit. Alternatively, a correction value corresponding to the zoom amount is selected.
The convolution device 301 serving as the conversion unit generates an image based on the conversion coefficient obtained from the register 302 serving as the second conversion coefficient storage unit and the correction value selected by the image processing arithmetic processor 303 serving as the correction value selection unit. Perform signal conversion.

図25に、露出情報と、物体距離情報と、ズーム情報とを用いた場合のフィルタの構成例を示す。
この例では、物体距離情報とズーム情報で2次元的な情報を形成し、露出情報が奥行きのような情報を形成している。
FIG. 25 shows a configuration example of a filter when exposure information, object distance information, and zoom information are used.
In this example, two-dimensional information is formed by object distance information and zoom information, and exposure information forms information such as depth.

図26は、撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。
図26は、撮像素子120からの被写体分散画像信号より分散のない画像信号を生成する画像処理装置300Bの構成例を示している。
FIG. 26 is a diagram illustrating a configuration example of an image processing apparatus that combines shooting mode information and exposure information.
FIG. 26 illustrates a configuration example of an image processing device 300B that generates an image signal having no dispersion from the subject dispersion image signal from the image sensor 120.

画像処理装置300Bは、図23および図24と同様に、図26に示すように、コンボリューション装置301、記憶手段としてのカーネル・数値演算係数格納レジスタ302、および画像処理演算プロセッサ303を有する。   Like FIG. 23 and FIG. 24, the image processing device 300B includes a convolution device 301, a kernel / numerical operation coefficient storage register 302 as a storage unit, and an image processing operation processor 303, as shown in FIG.

この画像処理装置300Bにおいては、物体概略距離情報検出装置600から読み出した被写体の物体距離の概略距離に関する情報および露出情報を得た画像処理演算プロセッサ303では、その物体離位置に対して適正な演算で用いる、カーネルサイズやその演算係数をカーネル、数値算係数格納レジスタ302に格納し、その値を用いて演算するコンボリューション装置301にて適正な演算を行い、画像を復元する。   In this image processing apparatus 300B, the image processing arithmetic processor 303 that has obtained information and exposure information related to the approximate object distance of the subject read from the approximate object distance information detection apparatus 600 performs an appropriate calculation for the object separation position. The kernel size and its calculation coefficient used in the above are stored in the kernel and numerical calculation coefficient storage register 302, and an appropriate calculation is performed by the convolution device 301 that uses the value to restore the image.

この場合も上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、上記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
本例においては、主被写体までの距離を、距離検出センサを含む物体概略距離情報検出装置600により検出し、検出した距離に応じて異なる画像補正の処理を行うことにように構成されている。
Also in this case, as described above, in the case of an imaging apparatus having a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, an appropriate aberration is obtained by image processing within the predetermined focal length range. Although no image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of the image processing, so that only an object outside the above range has an image signal with aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.
In this example, the distance to the main subject is detected by the object approximate distance information detection apparatus 600 including the distance detection sensor, and different image correction processing is performed according to the detected distance.

上記の画像処理はコンボリューション演算により行うが、これを実現するには、コンボリューション演算の演算係数を共通で1種類記憶しておき、物体距離に応じて補正係数を予め記憶しておき、この補正係数を用いて演算係数を補正し、補正した演算係数で適性なコンボリューション演算を行う構成、物体距離に応じた演算係数を関数として予め記憶しておき、焦点距離によりこの関数より演算係数を求め、計算した演算係数でコンボリューション演算を行う構成、物体距離に応じて、カーネルサイズやコンボリューションの演算係数自体を予め記憶しておき、これら記憶したカーネルサイズや演算係数でコンボリューション演算を行う構成等、を採用することが可能である。   The above image processing is performed by convolution calculation. To realize this, one type of convolution calculation coefficient is stored in common, and a correction coefficient is stored in advance according to the object distance. A configuration in which a correction coefficient is used to correct a calculation coefficient and an appropriate convolution calculation is performed using the corrected calculation coefficient, a calculation coefficient corresponding to the object distance is stored in advance as a function, and the calculation coefficient is calculated from this function according to the focal length. The convolution calculation is performed using the calculated calculation coefficient, the kernel size and the convolution calculation coefficient are stored in advance according to the object distance, and the convolution calculation is performed using the stored kernel size and calculation coefficient. It is possible to adopt a configuration or the like.

本実施形態においては、上述したように、DSCのモード設定(ポートレイト、無限遠(風景)、マクロ)に応じて画像処理を変更する。   In the present embodiment, as described above, the image processing is changed according to the DSC mode setting (portrait, infinity (landscape), macro).

図26の構成に対応付けると次のような構成をとることができる。   Corresponding to the configuration of FIG. 26, the following configuration can be taken.

前述したように、変換係数演算手段としての画像処理演算プロセッサ303を通して操作部190の撮影モード設定部700により設定される各撮影モードに応じて異なる変換係数を変換係数記憶手段としてのレジスタ302に格納する。
画像処理演算プロセッサ303が、撮影モード設定部700の操作スイッチ701により設定された撮影モードに応じて、被写体距離情報生成手段としての物体概略距離情報検出装置600により生成された情報に基づき、変換係数記憶手段としてのレジスタ302から変換係数を抽出する。このとき、たとえば画像処理演算プロセッサ303が変換係数抽出手段として機能する。
そして、変換手段としてのコンボリューション装置301が、レジスタ302に格納された変換係数によって、画像信号の撮影モードに応じた変換処理を行う。
As described above, different conversion coefficients are stored in the register 302 as the conversion coefficient storage unit according to each shooting mode set by the shooting mode setting unit 700 of the operation unit 190 through the image processing calculation processor 303 as the conversion coefficient calculation unit. To do.
Based on the information generated by the object approximate distance information detection device 600 as the subject distance information generation unit, the image processing arithmetic processor 303 according to the shooting mode set by the operation switch 701 of the shooting mode setting unit 700 converts the conversion coefficient. A conversion coefficient is extracted from the register 302 serving as a storage unit. At this time, for example, the image processing arithmetic processor 303 functions as conversion coefficient extraction means.
Then, the convolution device 301 serving as a conversion unit performs conversion processing according to the image signal shooting mode using the conversion coefficient stored in the register 302.

なお、図9や図10の光学系は一例であり、本発明は図9や図10の光学系に対して用いられるものとは限らない。また、スポット形状についても図11および図12は一例であり、本実施形態のスポット形状は、図11および図12に示すものとは限らない。
また、図16および図17のカーネルデータ格納ROMに関しても、光学倍率、Fナンバやそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。
図25のように3次元、さらには4次元以上とすることで格納量が多くなるが、種々の条件を考慮してより適したものを選択することができるようになる。情報としては、上述した露出情報、物体距離情報、ズーム情報、撮影モード情報等であればよい。
Note that the optical systems of FIGS. 9 and 10 are examples, and the present invention is not necessarily used for the optical systems of FIGS. Further, FIG. 11 and FIG. 12 are only examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 11 and FIG.
Also, the kernel data storage ROM of FIGS. 16 and 17 is not necessarily used for the optical magnification, F number, and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.
As shown in FIG. 25, the amount of storage is increased by using three dimensions or even four or more dimensions, but a more suitable one can be selected in consideration of various conditions. The information may be the above-described exposure information, object distance information, zoom information, shooting mode information, and the like.

なお、上述のように、光波面変調素子としての位相板(Wavefront Coding optical element)を有した撮像装置の場合、所定の焦点距離範囲内であればその範囲内に関し画像処理によって適正な収差のない画像信号を生成できるが、所定の焦点距離範囲外の場合には、画像処理の補正に限度があるため、前記範囲外の被写体のみ収差のある画像信号となってしまう。
また一方、所定の狭い範囲内に収差が生じない画像処理を施すことにより、所定の狭い範囲外の画像にぼけ味を出すことも可能になる。
As described above, in the case of an imaging apparatus having a phase plate (Wavefront Coding optical element) as an optical wavefront modulation element, there is no appropriate aberration by image processing within the predetermined focal length range. Although an image signal can be generated, if it is outside the predetermined focal length range, there is a limit to the correction of image processing, so that only an object outside the range has an aberration.
On the other hand, by performing image processing in which no aberration occurs within a predetermined narrow range, it is possible to bring out a blur to an image outside the predetermined narrow range.

本実施形態においては、DEOSを採用し、高精細な画質を得ることが可能で、しかも、光学系を簡単化でき、コスト低減を図ることが可能となっている。
以下、この特徴について説明する。
In the present embodiment, DEOS can be employed to obtain high-definition image quality, and the optical system can be simplified and the cost can be reduced.
Hereinafter, this feature will be described.

図27(A)〜(C)は、撮像素子120の受光面でのスポット像を示している。
図27(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、図27(B)が合焦点の場合(Best focus)、図27(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示している。
図27(A)〜(C)からもわかるように、本実施形態に係る撮像装置100においては、位相板113aを含む波面形成用光学素子群113によって深度の深い光束(像形成の中心的役割を成す)とフレアー(ボケ部分)が形成される。
FIGS. 27A to 27C show spot images on the light receiving surface of the image sensor 120.
27A shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), FIG. 27B shows a case where the focal point is a focal point (Best focus), and FIG. 27C shows a case where the focal point is shifted by −0.2 mm. In this case, each spot image is shown (Defocus = −0.2 mm).
As can be seen from FIGS. 27A to 27C, in the imaging apparatus 100 according to the present embodiment, a light beam having a deep depth (a central role of image formation) is obtained by the wavefront forming optical element group 113 including the phase plate 113a. And flare (blurred part) are formed.

このように、本実施形態の撮像装置100において形成された1次画像FIMは、深度が非常に深い光束条件にしている。   As described above, the primary image FIM formed in the imaging apparatus 100 of the present embodiment has a light beam condition with a very deep depth.

図28(A),(B)は、本実施形態に係る撮像レンズ装置により形成される1次画像の変調伝達関数(MTF:Modulation Transfer Function)について説明するための図であって、図28(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、図28(B)が空間周波数に対するMTF特性を示している。
本実施形態においては、高精細な最終画像は後段の、たとえばデジタルシグナルプロセッサ(Digital Signal Processor)からなる画像処理装置150の補正処理に任せるため、図28(A),(B)に示すように、1次画像のMTFは本質的に低い値になっている。
28A and 28B are diagrams for explaining a modulation transfer function (MTF) of a primary image formed by the imaging lens device according to the present embodiment. FIG. 28A is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens device, and FIG. 28B shows the MTF characteristics with respect to the spatial frequency.
In the present embodiment, the high-definition final image is left to the correction processing of the image processing apparatus 150 including a digital signal processor (Digital Signal Processor), for example, as shown in FIGS. 28 (A) and 28 (B). The MTF of the primary image is essentially a low value.

画像処理装置150は、上述したように、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する。   As described above, the image processing apparatus 150 receives the primary image FIM from the image sensor 120 and performs a predetermined correction process or the like for raising the MTF at the spatial frequency of the primary image to form a high-definition final image FNLIM. To do.

画像処理装置150のMTF補正処理は、たとえば図29の曲線Aで示すように、本質的に低い値になっている1次画像のMTFを、空間周波数をパラメータとしてエッジ強調、クロマ強調等の後処理にて、図29中曲線Bで示す特性に近づく(達する)ような補正を行う。
図29中曲線Bで示す特性は、たとえば本実施形態のように、波面形成用光学素子を用いずに波面を変形させない場合に得られる特性である。
なお、本実施形態における全ての補正は、空間周波数のパラメータによる。
The MTF correction processing of the image processing apparatus 150 is performed after edge enhancement, chroma enhancement, etc., using the MTF of the primary image, which is essentially a low value, as shown by a curve A in FIG. In the process, correction is performed so as to approach (reach) the characteristics indicated by the curve B in FIG.
A characteristic indicated by a curve B in FIG. 29 is a characteristic obtained when the wavefront is not deformed without using the wavefront forming optical element as in the present embodiment, for example.
It should be noted that all corrections in the present embodiment are based on spatial frequency parameters.

本実施形態においては、図29に示すように、光学的に得られる空間周波数に対するMTF特性曲線Aに対して、最終的に実現したいMTF特性曲線Bを達成するためには、それぞれの空間周波数に対し、エッジ強調等の強弱を付け、元の画像(1次画像)に対して補正をかける。
たとえば、図29のMTF特性の場合、空間周波数に対するエッジ強調の曲線は、図30に示すようになる。
In the present embodiment, as shown in FIG. 29, in order to achieve the MTF characteristic curve B to be finally realized with respect to the MTF characteristic curve A with respect to the spatial frequency obtained optically, each spatial frequency is On the other hand, the original image (primary image) is corrected by applying strength such as edge enhancement.
For example, in the case of the MTF characteristic of FIG. 29, the curve of edge enhancement with respect to the spatial frequency is as shown in FIG.

すなわち、空間周波数の所定帯域内における低周波数側および高周波数側でエッジ強調を弱くし、中間周波数領域においてエッジ強調を強くして補正を行うことにより、所望のMTF特性曲線Bを仮想的に実現する。   That is, a desired MTF characteristic curve B is virtually realized by performing correction by weakening edge enhancement on the low frequency side and high frequency side within a predetermined spatial frequency band and strengthening edge enhancement in the intermediate frequency region. To do.

このように、実施形態に係る撮像装置100は、基本的に、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置150からなり、光学系システムの中に、波面成形用の光学素子を新たに設けるか、またはガラス、プラスチックなどのような光学素子の面を波面成形用に成形したものを設けることにより、結像の波面を変形(変調)し、そのような波面をCCDやCMOSセンサからなる撮像素子120の撮像面(受光面)に結像させ、その結像1次画像を、画像処理装置150を通して高精細画像を得る画像形成システムである。
本実施形態では、撮像素子120による1次画像は深度が非常に深い光束条件にしている。そのために、1次画像のMTFは本質的に低い値になっており、そのMTFの補正を画像処理装置150で行う。
As described above, the imaging apparatus 100 according to the embodiment basically includes the optical system 110 and the imaging element 120 that form a primary image, and the image processing apparatus 150 that forms the primary image into a high-definition final image. In the optical system, a wavefront shaping optical element is newly provided, or an optical element such as glass, plastic or the like is formed for wavefront shaping, thereby forming an imaging wavefront. The image is deformed (modulated), and such a wavefront is imaged on the imaging surface (light-receiving surface) of the imaging device 120 made up of a CCD or CMOS sensor. An image forming system.
In the present embodiment, the primary image from the image sensor 120 has a light beam condition with a very deep depth. Therefore, the MTF of the primary image is essentially a low value, and the MTF is corrected by the image processing device 150.

ここで、本実施形態における撮像装置100における結像のプロセスを、波動光学的に考察する。
物点の1点から発散された球面波は結像光学系を通過後、収斂波となる。そのとき、結像光学系が理想光学系でなければ収差が発生する。波面は球面でなく複雑な形状となる。幾何光学と波動光学の間を取り持つのが波面光学であり、波面の現象を取り扱う場合に便利である。
結像面における波動光学的MTFを扱うとき、結像光学系の射出瞳位置における波面情報が重要となる。
MTFの計算は結像点における波動光学的強度分布のフーリエ変換で求まる。その波動光学的強度分布は波動光学的振幅分布を2乗して得られるが、その波動光学的振幅分布は射出瞳における瞳関数のフーリエ変換から求まる。
さらにその瞳関数はまさに射出瞳位置における波面情報(波面収差)そのものからであることから、その光学系110を通して波面収差が厳密に数値計算できればMTFが計算できることになる。
Here, the imaging process in the imaging apparatus 100 according to the present embodiment will be considered in terms of wave optics.
A spherical wave diverging from one of the object points becomes a convergent wave after passing through the imaging optical system. At that time, aberration occurs if the imaging optical system is not an ideal optical system. The wavefront is not a spherical surface but a complicated shape. Wavefront optics lies between geometric optics and wave optics, which is convenient when dealing with wavefront phenomena.
When dealing with the wave optical MTF on the imaging plane, the wavefront information at the exit pupil position of the imaging optical system is important.
The MTF is calculated by Fourier transform of the wave optical intensity distribution at the imaging point. The wave optical intensity distribution is obtained by squaring the wave optical amplitude distribution, and the wave optical amplitude distribution is obtained from the Fourier transform of the pupil function in the exit pupil.
Further, since the pupil function is exactly from the wavefront information (wavefront aberration) at the exit pupil position itself, if the wavefront aberration can be strictly calculated numerically through the optical system 110, the MTF can be calculated.

したがって、所定の手法によって射出瞳位置での波面情報に手を加えれば、任意に結像面におけるMTF値は変更可能である。
本実施形態においても、波面の形状変化を波面形成用光学素子で行うのが主であるが、まさにphase(位相、光線に沿った光路長)に増減を設けて目的の波面形成を行っている。
そして、目的の波面形成を行えば、射出瞳からの射出光束は、図27(A)〜(C)に示す幾何光学的なスポット像からわかるように、光線の密な部分と疎の部分から形成される。
この光束状態のMTFは空間周波数の低いところでは低い値を示し、空間周波数の高いところまでは何とか解像力は維持している特徴を示している。
すなわち、この低いMTF値(または、幾何光学的にはこのようなスポット像の状態)であれば、エリアジングの現象を発生させないことになる。
つまり、ローパスフィルタが必要ないのである。
そして、後段のDSP等からなる画像処理装置150でMTF値を低くしている原因のフレアー的画像を除去すれば良いのである。それによってMTF値は著しく向上する。
Accordingly, if the wavefront information at the exit pupil position is modified by a predetermined method, the MTF value on the imaging plane can be arbitrarily changed.
In this embodiment, the wavefront shape is mainly changed by the wavefront forming optical element, but the target wavefront is formed by increasing or decreasing the phase (phase, optical path length along the light beam). .
Then, if the target wavefront is formed, the exiting light flux from the exit pupil is made up of dense and sparse portions of the light, as can be seen from the geometric optical spot images shown in FIGS. It is formed.
The MTF in the luminous flux state shows a low value at a low spatial frequency and a characteristic that the resolving power is managed up to a high spatial frequency.
That is, if this MTF value is low (or such a spot image state in terms of geometrical optics), the phenomenon of aliasing will not occur.
That is, a low-pass filter is not necessary.
Then, the flare-like image that causes the MTF value to be lowered may be removed by the image processing apparatus 150 including a DSP or the like at the subsequent stage. Thereby, the MTF value is significantly improved.

次に、本実施形態および従来光学系のMTFのレスポンスについて考察する。   Next, the response of the MTF of this embodiment and the conventional optical system will be considered.

図31は、従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。
図32は、光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。
また、図33は、本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。
FIG. 31 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the case of the conventional optical system.
FIG. 32 is a diagram showing the MTF response when the object is at the focal position and when the object is out of the focal position in the optical system of the present embodiment having the light wavefront modulation element.
FIG. 33 is a diagram illustrating a response of the MTF after data restoration of the imaging apparatus according to the present embodiment.

図からもわかるように、光波面変調素子を有する光学系の場合、物体が焦点位置から外れた場合でもMTFのレスポンスの変化が光波面変調素子を挿入してない光学径よりも少なくなる。
この光学系によって結像された画像を、コンボリューションフィルタによる処理によって、MTFのレスポンスが向上する。
As can be seen from the figure, in the case of an optical system having a light wavefront modulation element, even when the object deviates from the focal position, the change in the MTF response is smaller than the optical diameter in which the light wavefront modulation element is not inserted.
The response of the MTF is improved by processing the image formed by this optical system using a convolution filter.

以上説明したように、本実施形態によれば、合焦位置でもピントを結ばないがその前後でほぼPSF(Point Spread Function 点広がり関数)が一定になるように設計された光学系110と、光学系の像をとらえる撮像素子120と、ボケ復元処理を行う画像処理装置150と、最終画像を得るためのカメラ信号処理部160と、カメラ信号処理部160から出力された画像を表示し、画角やキャプチャタイミングを決定するためにスルー画を表示したり、撮影した画像を表示したりする画像モニタリング装置180と、静止画撮影モード時における前記変換手段の画像復元処理に用いる第1フィルタ210と、動画撮影時および、またはスルー画表示時における前記変換手段の画像復元処理に用いる第2フィルタ220と、第2切替部140−2と、を有し、撮影モードに応じて第1フィルタまたは第2フィルタを選択して、画像処理装置150において撮影モードに応じた画像復元処理を行うようにしたことから、キャプチャ時、プレビュー時や動画撮影時の画像復元処理もリアルタイムで行えて、復元画像が劣化することなくピントの合った復元画像が得られる。
また、特にプレビュー時に画像復元処理を必要としないとき、たとえばプレビュー時は画像復元処理無と選択すれば光学系システムの低消費電力化が図れる。
すなわち、上記構成によれば、画角やシャッタータイミングを決めるスルー画中は簡易復元処理を行なうことによって、モニタ表示に足るサイズ程度で良好な画像を出力しつつ、フレームレートを高速に設定することができる。そして、キャプチャした時に初めて復元処理を行なうので処理時間はある程度かかってもよいため、低価格な復元処理を構成することが可能になる。
As described above, according to the present embodiment, the optical system 110 is designed so that the PSF (Point Spread Function point spread function) is substantially constant before and after the focusing position even though the in-focus position is not achieved. An image sensor 120 that captures an image of the system, an image processing device 150 that performs blur restoration processing, a camera signal processing unit 160 for obtaining a final image, and an image output from the camera signal processing unit 160 are displayed. An image monitoring device 180 for displaying a through image for determining a capture timing and a captured image, a first filter 210 used for image restoration processing of the conversion means in a still image shooting mode, A second filter 220 used for image restoration processing of the conversion means at the time of moving image shooting and / or display of a through image, and a second switching unit 140-2 , And the first filter or the second filter is selected according to the shooting mode, and the image restoration processing according to the shooting mode is performed in the image processing apparatus 150. Image restoration processing at the time of photographing can also be performed in real time, and a restored image in focus can be obtained without deterioration of the restored image.
Further, when image restoration processing is not required particularly during preview, for example, when no image restoration processing is selected during preview, power consumption of the optical system can be reduced.
In other words, according to the above configuration, the frame rate can be set at a high speed while outputting a good image with a size sufficient for a monitor display by performing a simple restoration process during a through image that determines the angle of view and the shutter timing. Can do. And since the restoration process is performed for the first time when it is captured, it may take a certain amount of processing time, so that a low-cost restoration process can be configured.

また、本実施形態によれば、合焦位置でもピントを結ばないがその前後でほぼPSFが一定になるように設計された光学系110と、光学系の像をとらえる撮像素子120と、ボケ復元処理を行う画像処理装置150と、最終画像を得るためのカメラ信号処理部160と、カメラ信号処理部160から出力された画像を表示し、画角やキャプチャタイミングを決定するためにスルー画を表示したり、撮影した画像を表示したりする画像モニタリング装置180と、画像をキャプチャするトリガ信号を生成可能な操作部190と、スルー画表示中はボケ復元処理を行う画像処理装置15を通さずに撮像素子の画像信号をカメラ信号処理部160に直接入力させ、トリガ信号を受けてキャプチャした画像に対しては画像処理装置150でPSFに応じたボケ復元処理を行ってカメラ信号処理部160に出力するように制御する制御装置200とを有することから、以下の効果を得ることができる。
構図を決めるスルー画表示中は高いフレームレートを維持しつつ、キャプチャ時はボケ復元処理にある程度の時間をかけられるので、高価なハードウェアの必要がない。またキャプチャ画を拡大や拡大場所移動の操作を行ってもキャプチャ画についてはフル画像をボケ復元しているので、きめ細かく細部に渡って確認することができ、操作と見栄えに不自然さは発生しない。
In addition, according to the present embodiment, the optical system 110 that is designed so that the PSF is substantially constant before and after the in-focus position, the image sensor 120 that captures an image of the optical system, and the blur restoration. An image processing apparatus 150 that performs processing, a camera signal processing unit 160 for obtaining a final image, and an image output from the camera signal processing unit 160 are displayed, and a through image is displayed to determine the angle of view and capture timing. The image monitoring device 180 that displays the captured image, the operation unit 190 that can generate a trigger signal for capturing the image, and the image processing device 15 that performs the blur restoration processing during the live view display. The image signal of the image sensor is directly input to the camera signal processing unit 160, and the image captured by receiving the trigger signal is converted to PSF by the image processing device 150. Since it has a control device 200 which controls so as to output to the camera signal processing unit 160 performs Flip blurring restoration processing, it is possible to obtain the following effects.
While displaying a through image that determines the composition, while maintaining a high frame rate, a certain amount of time can be spent on the blur restoration process at the time of capture, so there is no need for expensive hardware. In addition, even if you perform operations such as enlarging the capture image or moving the enlargement location, the full image of the captured image is restored so that it can be checked in detail and there is no unnaturalness in the operation and appearance. .

また、前記PSFのボケ幅は画像モニタリング装置180の画素ピッチの2倍程度以下に設定したので、たとえボケたままのスルー画とは言ってもモニタの細かさと同レベルであるので実質モニタ上では気になるようなボケは生じない。
また、トリガ信号を受けてキャプチャした画像に対してはボケ復元処理を行う画像処理装置150の中で前記PSFに応じたボケ復元処理の終了後カメラ処理を行った後にモニタに画像を出力するようにした。
また、スルー画表示中はモニタで必要な画像サイズレベルの小さい画像を撮像素子120から出力するようにしたので、スルー画表示中は高いフレームレートを実現でき、リソースに余裕が生まれるので消費電力を低減できる。
また、スルー画表示の際には、絞り110aを絞るように制御することにより、スルー画表示時に光波面変調素子の変調面の変調作用の影響を受けないため、ある程度はボケないような画像を表示できるようになる。
In addition, since the PSF blur width is set to about twice or less the pixel pitch of the image monitoring device 180, even if it is a through image that remains blurred, it is at the same level as the fineness of the monitor. There is no worrisome blur.
In addition, for an image captured upon receiving a trigger signal, an image is output to the monitor after performing camera processing after completion of blur restoration processing according to the PSF in the image processing apparatus 150 that performs blur restoration processing. I made it.
In addition, since the image sensor 120 outputs an image with a small image size level that is necessary for the monitor during live view display, a high frame rate can be realized during live view display, and there is room for resources. Can be reduced.
In addition, when displaying a through image, the diaphragm 110a is controlled so that it is not affected by the modulation action of the modulation surface of the light wavefront modulation element during the through image display. It can be displayed.

また、本実施形態によれば、1次画像を形成する光学系110および撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置150とを含み、画像処理装置150において、露出制御装置200からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行うことから、光学系を簡単化でき、コスト低減を図ることができ、しかもノイズの影響が小さい復元画像を得ることができる利点がある。
また、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部190等の入力により知り、適性となるカーネルサイズや上述した係数を対応させることにより、倍率やデフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。
また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景はぼかすといった、いわゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置100は、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズのDEOSに使用することが可能である。
In addition, according to the present embodiment, the image processing apparatus 150 includes the optical system 110 and the image sensor 120 that form a primary image, and the image processing apparatus 150 that forms the primary image into a high-definition final image. Since the optical transfer function (OTF) is filtered according to the exposure information from the exposure control device 200, the optical system can be simplified, the cost can be reduced, and the influence of noise is small. There is an advantage that an image can be obtained.
In addition, the kernel size used in the convolution calculation and the coefficient used in the numerical calculation can be made variable, know by input from the operation unit 190, etc. There is an advantage that the lens can be designed without worrying about the image and that the image can be restored by convolution with high accuracy.
Also, a so-called natural image is obtained in which the object to be photographed is in focus and the background is blurred without requiring a highly difficult, expensive and large-sized optical lens and without driving the lens. There are advantages that can be made.
The imaging apparatus 100 according to the present embodiment can be used for DEOS of a zoom lens considering the small size, light weight, and cost of consumer devices such as a digital camera and a camcorder.

また、本実施形態においては、結像レンズ112による撮像素子120の受光面への結像の波面を変形させる波面形成用光学素子を有する撮像レンズ系と、撮像素子120による1次画像FIMを受けて、1次画像の空間周波数におけるMTFをいわゆる持ち上げる所定の補正処理等を施して高精細な最終画像FNLIMを形成する画像処理装置150とを有することから、高精細な画質を得ることが可能となるという利点がある。
また、光学系110の構成を簡単化でき、製造が容易となり、コスト低減を図ることができる。
In the present embodiment, the imaging lens system having a wavefront forming optical element that deforms the wavefront of the imaging on the light receiving surface of the imaging element 120 by the imaging lens 112 and the primary image FIM by the imaging element 120 are received. In addition, the image processing apparatus 150 that forms a high-definition final image FNLIM by performing a predetermined correction process for so-called lifting of the MTF at the spatial frequency of the primary image, and so on, can achieve high-definition image quality. There is an advantage of becoming.
In addition, the configuration of the optical system 110 can be simplified, manufacturing becomes easy, and cost reduction can be achieved.

ところで、CCDやCMOSセンサを撮像素子として用いた場合、画素ピッチから決まる解像力限界が存在し、光学系の解像力がその限界解像力以上であるとエリアジングのような現象が発生し、最終画像に悪影響を及ぼすことは周知の事実である。
画質向上のため、可能な限りコントラストを上げることが望ましいが、そのことは高性能なレンズ系を必要とする。
By the way, when a CCD or CMOS sensor is used as an image sensor, there is a resolution limit determined by the pixel pitch, and if the resolution of the optical system exceeds the limit resolution, a phenomenon such as aliasing occurs, which adversely affects the final image. It is a well-known fact that
In order to improve image quality, it is desirable to increase the contrast as much as possible, but this requires a high-performance lens system.

しかし、上述したように、CCDやCMOSセンサを撮像素子として用いた場合、エリアジングが発生する。
現在、エリアジングの発生を避けるため、撮像レンズ装置では、一軸結晶系からなるローパスフィルタを併用し、エリアジングの現象の発生を避けている。
このようにローパスフィルタを併用することは、原理的に正しいが、ローパスフィルタそのものが結晶でできているため、高価であり、管理が大変である。また、光学系に使用することは光学系をより複雑にしているという不利益がある。
However, as described above, aliasing occurs when a CCD or CMOS sensor is used as an image sensor.
Currently, in order to avoid the occurrence of aliasing, the imaging lens apparatus uses a low-pass filter made of a uniaxial crystal system to avoid the occurrence of aliasing.
The use of a low-pass filter in this way is correct in principle, but the low-pass filter itself is made of crystal, so it is expensive and difficult to manage. Moreover, there is a disadvantage that the use of the optical system makes the optical system more complicated.

以上のように、時代の趨勢でますます高精細の画質が求められているにもかかわらず、高精細な画像を形成するためには、従来の撮像レンズ装置では光学系を複雑にしなければならない。複雑にすれば、製造が困難になったりし、また高価なローパスフィルタを利用したりするとコストアップにつながる。
しかし、本実施形態によれば、ローパスフィルタを用いなくとも、エリアジングの現象の発生を避けることができ、高精細な画質を得ることができる。
As described above, in order to form a high-definition image, the optical system must be complicated in the conventional imaging lens apparatus in spite of the demand for higher-definition image due to the trend of the times. . If it is complicated, manufacturing becomes difficult, and if an expensive low-pass filter is used, the cost increases.
However, according to this embodiment, the occurrence of aliasing can be avoided without using a low-pass filter, and high-definition image quality can be obtained.

なお、本実施形態において、光学系の波面形成用光学素子を絞りより物体側レンズよりに配置した例を示したが、絞りと同一あるいは絞りより結像レンズ側に配置しても前記と同様の作用効果を得ることができる。   In this embodiment, the example in which the wavefront forming optical element of the optical system is arranged closer to the object side lens than the stop is shown. An effect can be obtained.

また、図9や図10の光学系は一例であり、本発明は図9や図10の光学系に対して用いられるものとは限らない。また、スポット形状についても図11および図12は一例であり、本実施形態のスポット形状は、図11および図12に示すものとは限らない。
また、図16および図17のカーネルデータ格納ROMに関しても、光学倍率、Fナンバやそれぞれのカーネルのサイズ、値に対して用いられるものとは限らない。また用意するカーネルデータの数についても3個とは限らない。
Moreover, the optical system of FIG.9 and FIG.10 is an example, and this invention is not necessarily used with respect to the optical system of FIG.9 and FIG.10. Further, FIG. 11 and FIG. 12 are only examples of the spot shape, and the spot shape of the present embodiment is not necessarily shown in FIG. 11 and FIG.
Also, the kernel data storage ROM of FIGS. 16 and 17 is not necessarily used for the optical magnification, F number, and the size and value of each kernel. Also, the number of kernel data to be prepared is not limited to three.

なお、以上の実施形態は光学系が一つの場合を例に説明したが、光学系を複数有する撮像装置に対しても本発明は適用可能である。   In the above embodiment, the case where there is one optical system has been described as an example, but the present invention can also be applied to an imaging apparatus having a plurality of optical systems.

図34は、本発明に係る光学系を複数有する撮像装置の一実施形態を示すブロック構成図である。   FIG. 34 is a block diagram showing an embodiment of an imaging apparatus having a plurality of optical systems according to the present invention.

本撮像装置100Aと図1の撮像装置100と異なる点は、光学ユニット110Aは、複数(本実施形態では2)の光学系110−1,110−2を露出制御装置200の代わりシステム制御装置200Aを設け、さらに光学系切替制御部201を設けたことにある。   The optical unit 110A is different from the imaging device 100A in FIG. 1 in the imaging device 100A in FIG. 1 in that the optical unit 110A is replaced with a plurality of optical systems 110-1 and 110-2 by the system controller 200A instead of the exposure controller 200. And an optical system switching control unit 201.

光学ユニット110Aは、複数(本実施形態では2)の光学系110−1,110−2を有し、光学系切替制御部201の切り替え処理に応じて被写体物体OBJを撮影した像を順番に撮像素子120に供給する。
各光学系110−1,110−2は、光学倍率が異なり、撮像対象物体(被写体)OBJの映像を光学的に取り込む。
The optical unit 110A includes a plurality (2 in the present embodiment) of optical systems 110-1 and 110-2, and sequentially captures images of the subject object OBJ according to the switching process of the optical system switching control unit 201. This is supplied to the element 120.
The optical systems 110-1 and 110-2 have different optical magnifications, and optically capture an image of the imaging target object (subject) OBJ.

システム制御装置200Aは、基本的に露出制御装置と同様の機能を有し、操作部190などの操作入力を持ち、それらの入力に応じて、システム全体の動作を決定し、光学系切替制御部210、AFE130、切替部140、画像処理装置150、DSP160等を制御し、システム全体の調停制御を司るものである。   The system control device 200A basically has the same function as the exposure control device, has operation inputs such as the operation unit 190, and determines the operation of the entire system according to those inputs, and an optical system switching control unit 210, the AFE 130, the switching unit 140, the image processing apparatus 150, the DSP 160, and the like, and controls arbitration control of the entire system.

その他の構成は図1と同様である。   Other configurations are the same as those in FIG.

図35は、システム制御装置200Aの光学系設定処理の概要を示すフローチャートである。
まず、光学系を確認し(ST111)、カーネルデータをセットする(ST112)。
そして、操作部190の操作により光学系の切り替え指示がなされると(ST113)、光学系切替制御部201により光学ユニット110Aの光学系の出力を切り替え、ステップST111の処理を行う(ST114)。
FIG. 35 is a flowchart showing an outline of the optical system setting process of the system control apparatus 200A.
First, the optical system is confirmed (ST111), and kernel data is set (ST112).
When an instruction to switch the optical system is given by operating the operation unit 190 (ST113), the output of the optical system of the optical unit 110A is switched by the optical system switching control unit 201, and the process of step ST111 is performed (ST114).

図34の実施形態によれば、前述した図1の撮像装置の効果に加えて以下の効果を得ることができる。
すなわち、図34の撮像装置においては、1次画像を形成する倍率の異なる複数の光学系110−1,2を含む光学ユニット110Aおよび撮像素子120と、1次画像を高精細な最終画像に形成する画像処理装置150とを含み、画像処理装置150において、光学系の倍率に応じて、コンボリューション演算時に用いるカーネルサイズやその数値演算で用いられる係数を可変とし、操作部190等の入力により知り、その光学系の倍率に応じた適性となるカーネルサイズや上述した係数を対応させることにより、倍率やデフォーカス範囲を気にすることなくレンズ設計ができ、かつ精度の高いコンボリュ−ションによる画像復元が可能となる利点がある。
また、難度が高く、高価でかつ大型化した光学レンズを必要とせずに、かつ、レンズを駆動させること無く、撮影したい物体に対してピントが合い、背景はぼかすといった、いわゆる自然な画像を得ることができる利点がある。
そして、本実施形態に係る撮像装置100Aは、デジタルカメラやカムコーダー等の民生機器の小型、軽量、コストを考慮されたズームレンズのDEOSに使用することが可能である。
According to the embodiment of FIG. 34, the following effects can be obtained in addition to the effects of the imaging apparatus of FIG.
That is, in the imaging apparatus of FIG. 34, the optical unit 110A and the imaging device 120 including the plurality of optical systems 110-1 and 110-2 having different magnifications for forming the primary image, and the primary image are formed into a high-definition final image. In the image processing apparatus 150, the kernel size used in the convolution calculation and the coefficient used in the numerical calculation are made variable in accordance with the magnification of the optical system, and are known by input from the operation unit 190 or the like. By adapting the appropriate kernel size according to the magnification of the optical system and the above-mentioned coefficients, the lens can be designed without worrying about the magnification and defocus range, and image reconstruction by high-precision convolution. There is an advantage that becomes possible.
Also, a so-called natural image is obtained in which the object to be photographed is in focus and the background is blurred without requiring a highly difficult, expensive and large-sized optical lens and without driving the lens. There are advantages that can be made.
The imaging apparatus 100A according to the present embodiment can be used for DEOS of a zoom lens in consideration of small size, light weight, and cost of consumer equipment such as a digital camera and a camcorder.

本発明に係る撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus according to the present invention. 撮影モードに応じて画像復元処理に用いる場合の基本的な制御フローを示す図である。It is a figure which shows the basic control flow in the case of using for an image restoration process according to imaging | photography mode. 一般的な結像光学系の光線高さとデフォーカスとの関係を示す図である。It is a figure which shows the relationship between the light ray height of a general imaging optical system, and defocusing. 本実施形態の光学系の結像付近の光学特性を示す図である。It is a figure which shows the optical characteristic of image formation vicinity of the optical system of this embodiment. 一般的な光学系のベストフォーカス(BestFocus)位置でのMTF(Modulation Transfer Function 振幅伝達関数)特性図である。It is a MTF (Modulation Transfer Function amplitude characteristic) characteristic figure in the best focus (Best Focus) position of a general optical system. 本実施形態の光学系のMTF特性を示す図である。It is a figure which shows the MTF characteristic of the optical system of this embodiment. 本実施形態におけるボケ復元処理の説明図である。It is explanatory drawing of the blur decompression | restoration process in this embodiment. モニタの画素配列の例を示す図である。It is a figure which shows the example of the pixel arrangement | sequence of a monitor. 本実施形態に係る撮像レンズ装置の広角側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the wide angle side of the imaging lens apparatus which concerns on this embodiment. 本実施形態に係る撮像レンズ装置の望遠側のズーム光学系の構成例を模式的に示す図である。It is a figure which shows typically the structural example of the zoom optical system of the telephoto side of the imaging lens apparatus which concerns on this embodiment. 広角側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center on the wide angle side. 望遠側の像高中心のスポット形状を示す図である。It is a figure which shows the spot shape of the image height center of a telephoto side. DEOSの原理を説明するための図である。It is a figure for demonstrating the principle of DEOS. 本実施形態の光波面変調素子を含む光学系の光軸をz軸とし、互いに直交する2軸をx、yとしたとき、式で表される波面収差の形状を示す図である。It is a figure which shows the shape of the wavefront aberration represented by a type | formula, when the optical axis of the optical system containing the optical wavefront modulation element of this embodiment is set to az axis, and two mutually orthogonal axes are set to x and y. 波面収差の形状と0.5λ以下の範囲を太線で表した図である。It is the figure which represented the shape of the wavefront aberration and the range below 0.5 (lambda) with the thick line. カーネルデータROMの格納データの一例(光学倍率)を示す図である。It is a figure which shows an example (optical magnification) of the storage data of kernel data ROM. カーネルデータROMの格納データの他例(Fナンバ)を示す図である。It is a figure which shows the other example (F number) of the storage data of kernel data ROM. 露出制御装置の光学系設定処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the optical system setting process of an exposure control apparatus. 信号処理部とカーネルデータ格納ROMについての第1の構成例を示す図である。It is a figure which shows the 1st structural example about a signal processing part and a kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第2の構成例を示す図である。It is a figure which shows the 2nd structural example about a signal processing part and a kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第3の構成例を示す図である。It is a figure which shows the 3rd structural example about a signal processing part and kernel data storage ROM. 信号処理部とカーネルデータ格納ROMについての第4の構成例を示す図である。It is a figure which shows the 4th structural example about a signal processing part and kernel data storage ROM. 被写体距離情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines subject distance information and exposure information. ズーム情報と露出情報とを組み合わせる画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus which combines zoom information and exposure information. 露出情報と、物体距離情報と、ズーム情報とを用いた場合のフィルタの構成例を示す図である。It is a figure which shows the structural example of the filter at the time of using exposure information, object distance information, and zoom information. 撮影モード情報と露出情報とを組み合わせる画像処理装置の構成例を示図である。It is a figure which shows the structural example of the image processing apparatus which combines imaging | photography mode information and exposure information. 本実施形態に係る撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。It is a figure which shows the spot image in the light-receiving surface of the image pick-up element which concerns on this embodiment, Comprising: (A) is a case where a focus shifts 0.2 mm (Defocus = 0.2 mm), (B) is a focus point ( Best focus), (C) is a diagram showing each spot image when the focal point is deviated by −0.2 mm (Defocus = −0.2 mm). 本実施形態に係る撮像素子により形成される1次画像のMTFについて説明するための図であって、(A)は撮像レンズ装置の撮像素子の受光面でのスポット像を示す図で、(B)が空間周波数に対するMTF特性を示している。It is a figure for demonstrating MTF of the primary image formed with the image pick-up element concerning this embodiment, Comprising: (A) is a figure which shows the spot image in the light-receiving surface of the image pick-up element of an image pick-up lens apparatus, (B ) Shows the MTF characteristics with respect to the spatial frequency. 本実施形態に係る画像処理装置におけるMTF補正処理を説明するための図である。It is a figure for demonstrating the MTF correction process in the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置におけるMTF補正処理を具体的に説明するための図である。It is a figure for demonstrating concretely the MTF correction process in the image processing apparatus which concerns on this embodiment. 従来の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンス(応答)を示す図である。It is a figure which shows the response (response) of MTF when an object exists in a focus position in the case of the conventional optical system, and when it remove | deviated from the focus position. 光波面変調素子を有する本実施形態の光学系の場合において物体が焦点位置にあるときと焦点位置から外れたときのMTFのレスポンスを示す図である。It is a figure which shows the response of MTF when an object exists in a focus position in the case of the optical system of this embodiment which has a light wavefront modulation element, and remove | deviates from a focus position. 本実施形態に係る撮像装置のデータ復元後のMTFのレスポンスを示す図である。It is a figure which shows the response of MTF after the data restoration of the imaging device which concerns on this embodiment. 本発明に係る光学系を複数有する撮像装置の一実施形態を示すブロック構成図である。1 is a block configuration diagram showing an embodiment of an imaging apparatus having a plurality of optical systems according to the present invention. 図34のシステム制御装置の光学系設定処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the optical system setting process of the system control apparatus of FIG. 一般的な撮像レンズ装置の構成および光束状態を模式的に示す図である。It is a figure which shows typically the structure and light beam state of a general imaging lens apparatus. 図36の撮像レンズ装置の撮像素子の受光面でのスポット像を示す図であって、(A)は焦点が0.2mmずれた場合(Defocus=0.2mm)、(B)が合焦点の場合(Best focus)、(C)が焦点が−0.2mmずれた場合(Defocus=−0.2mm)の各スポット像を示す図である。FIG. 37 is a diagram showing a spot image on the light receiving surface of the imaging element of the imaging lens apparatus of FIG. 36, where (A) shows a case where the focal point is shifted by 0.2 mm (Defocus = 0.2 mm), and (B) shows a focused point. In the case (Best focus), (C) is a diagram showing each spot image when the focal point is shifted by -0.2 mm (Defocus = -0.2 mm).

符号の説明Explanation of symbols

100…撮像装置、110…光学系、120…撮像素子、130…アナログフロントエンド部(AFE)、140−1…切替部、140−2…第2切替部、150…画像処理装置、160…カメラ信号処理部、190…操作部、200…露出制御装置、200A…システム制御装置、210…第1フィルタ、220…第2フィルタ、111…物体側レンズ、112…結像レンズ、113…波面形成用光学素子、113a…位相板(光波面変調素子)、152…コンボリューション演算器、153…カーネルデータROM、154…コンボリューション制御部。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 110 ... Optical system, 120 ... Image sensor, 130 ... Analog front end part (AFE), 140-1 ... Switching part, 140-2 ... 2nd switching part, 150 ... Image processing apparatus, 160 ... Camera Signal processing unit, 190 ... operation unit, 200 ... exposure control device, 200A ... system control device, 210 ... first filter, 220 ... second filter, 111 ... object side lens, 112 ... imaging lens, 113 ... for wavefront formation Optical element 113a, phase plate (light wavefront modulation element), 152, convolution calculator, 153, kernel data ROM, 154, convolution controller.

Claims (26)

合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系と、
前記光学系を通過した被写体像を撮像する撮像素子と、
前記撮像素子からの画像の焦点のボケを補正して復元した画像信号を生成する変換手段と、
画像信号に所定の画像処理を行う信号処理手段と、
前記信号処理手段の処理画像を表示する画像モニタ手段と、
静止画撮影モード時における前記変換手段の画像復元処理に用いる第1フィルタと、
動画撮影モード時および、またはスルー画表示時における前記変換手段の画像復元処理に用いる第2フィルタと、を有し、
前記変換手段は、撮影モードまたはスルー画表示の有無に応じて第1フィルタまたは第2フィルタを選択して、前記画像復元処理を行う
撮像装置。
An optical system formed so that the amount of defocusing is substantially constant at the in-focus position and the distance before and after the in-focus position;
An image sensor that images a subject image that has passed through the optical system;
Conversion means for generating a restored image signal by correcting the blur of the focus of the image from the image sensor;
Signal processing means for performing predetermined image processing on the image signal;
Image monitoring means for displaying a processed image of the signal processing means;
A first filter used for image restoration processing of the conversion means in the still image shooting mode;
A second filter used for image restoration processing of the conversion means in the moving image shooting mode and / or when displaying a through image,
The conversion unit performs the image restoration processing by selecting a first filter or a second filter in accordance with a shooting mode or presence / absence of a through image display.
合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系と、
前記光学系を通過した被写体像を撮像する撮像素子と、
前記撮像素子からの画像の焦点のボケを補正して復元した画像信号を生成する変換手段と、
静止画撮影モード時における前記変換手段の画像復元処理に用いる第1フィルタと、
動画撮影モード時における前記変換手段の画像復元処理に用いる第2フィルタと、を有し、
前記変換手段は、撮影モードに応じて第1フィルタまたは第2フィルタを選択して、前記画像復元処理を行う
撮像装置。
An optical system formed so that the amount of defocusing is substantially constant at the in-focus position and the distance before and after the in-focus position;
An image sensor that images a subject image that has passed through the optical system;
Conversion means for generating a restored image signal by correcting the blur of the focus of the image from the image sensor;
A first filter used for image restoration processing of the conversion means in the still image shooting mode;
A second filter used for image restoration processing of the conversion means in the moving image shooting mode,
The conversion unit selects the first filter or the second filter according to a shooting mode, and performs the image restoration process.
前記変換手段は、前記画像モニタ手段の解像度に応じた前記第2フィルタを用いた簡易復元処理を行う
請求項1または2記載の撮像装置。
The imaging apparatus according to claim 1, wherein the conversion unit performs a simple restoration process using the second filter according to the resolution of the image monitor unit.
前記第2フィルタは、サンプリングしたPSF(Point Spread Function)を用いた画像復元フィルタを含む
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the second filter includes an image restoration filter using a sampled PSF (Point Spread Function).
前記第2フィルタは、帯域強調機能を有する
請求項1または2記載の撮像装置。
The imaging device according to claim 1, wherein the second filter has a band enhancement function.
前記第2フィルタのサイズは、前記第1フィルタのサイズより小さい
請求項1または2記載の撮像装置。
The imaging device according to claim 1, wherein a size of the second filter is smaller than a size of the first filter.
前記動画撮影時、スルー画表示時において、前記第2フィルタを用いた前記画像復元処理の実施の有無を設定できる設定手段を有する
請求項1から6のいずれか一に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a setting unit that can set whether or not the image restoration process using the second filter is performed when the moving image is captured and a through image is displayed.
前記光学系またはその近傍に絞りを有し、
前記制御手段は、スルー画表示の際に前記絞りを絞るように制御する
請求項1から7のいずれか一に記載の撮像装置。
Having a stop in or near the optical system,
The imaging apparatus according to any one of claims 1 to 7, wherein the control unit performs control so as to reduce the aperture when displaying a through image.
前記光学系に光波面変調素子を含み、
前記制御手段は、光波面変調素子の変調面の影響を排除し得る部分まで前記絞りを絞るように制御する
請求項8記載の撮像装置。
Including an optical wavefront modulation element in the optical system;
The imaging apparatus according to claim 8, wherein the control unit controls the diaphragm to a portion where the influence of the modulation surface of the light wavefront modulation element can be eliminated.
トリガ信号を生成するトリガ信号生成手段と、
スルー画表示中は前記変換手段において前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、トリガ信号生成手段によるトリガ信号を受けると前記変換手段において前記第1フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させる制御手段と
をさらに有する請求項1から9のいずれか一に記載の撮像装置。
Trigger signal generating means for generating a trigger signal;
During live view display, the image signal that has undergone image restoration processing by the second filter in the conversion means is input to the signal processing means, and when the trigger signal is received by the trigger signal generation means, the conversion means uses the first filter. The image pickup apparatus according to claim 1, further comprising: a control unit that inputs an image signal subjected to the image restoration process to the signal processing unit.
画像を記録する記録手段を有し、
前記制御手段は、前記動画撮影時において、前記スルー画表示には前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、画像を前記記録手段に記録する際に、前記変換手段において前記第1フィルタよる画像復元処理を実施する
請求項10記載の撮像装置。
Having a recording means for recording an image;
The control means is configured to input an image signal subjected to image restoration processing by the second filter to the through image display during the moving image shooting, and to record the image in the recording means. The imaging apparatus according to claim 10, wherein the conversion unit performs image restoration processing using the first filter.
画像を記録する記録手段を有し、
前記制御手段は、前記動画撮影時において、前記第2フィルタによる画像復元処理を受けた画像信号を前記信号処理手段に入力させ、前記記録手段に記録する
請求項10記載の撮像装置。
Having a recording means for recording an image;
The imaging apparatus according to claim 10, wherein the control unit causes the signal processing unit to input an image signal subjected to the image restoration process by the second filter and record the image signal in the recording unit during the moving image shooting.
前記撮像素子による画像信号または前記変換手段による画像信号を選択的に前記信号処理手段に入力する切替手段と、
トリガ信号を生成するトリガ信号生成手段と、
スルー画表示中は前記切替手段を通して前記撮像素子による画像信号を前記信号処理手段に入力させ、トリガ信号生成手段によるトリガ信号を受けると前記変換手段による画像信号を前記信号処理手段に入力させる制御手段と
をさらに有する請求項1から9のいずれか一に記載の撮像装置。
A switching means for selectively inputting an image signal from the image sensor or an image signal from the conversion means to the signal processing means;
Trigger signal generating means for generating a trigger signal;
Control means for inputting an image signal from the imaging element to the signal processing means through the switching means during a through image display, and for inputting an image signal from the conversion means to the signal processing means when receiving a trigger signal from the trigger signal generating means The imaging apparatus according to any one of claims 1 to 9, further comprising:
画像を記録する記録手段を有し、
前記制御手段は、前記動画撮影時において、前記スルー画表示には前記画像復元処理を実施していない前記撮像素子による画像信号を前記信号処理手段に入力させ、画像を前記記録手段に記録する際に、前記変換手段による画像復元処理を実施する
請求項13記載の撮像装置。
Having a recording means for recording an image;
The control unit is configured to input an image signal from the imaging element that has not performed the image restoration processing to the through image display and record the image on the recording unit during the moving image shooting. The imaging apparatus according to claim 13, wherein image conversion processing by the conversion unit is performed.
画像を記録する記録手段を有し、
前記制御手段は、前記動画撮影時において、前記画像復元処理を実施していない前記撮像素子による画像信号を前記信号処理手段に入力させ、前記画像復元処理を実施していない画像を前記記録手段に記録し、当該記録手段から再生する際に、前記変換手段による画像復元処理を実施する
請求項13記載の撮像装置。
Having a recording means for recording an image;
The control means causes the signal processing means to input an image signal from the imaging element that has not been subjected to the image restoration processing to the recording means at the time of shooting the moving image, and to the recording means. The imaging apparatus according to claim 13, wherein the image restoration process is performed by the conversion unit when recording and reproducing from the recording unit.
前記焦点のボケ量は画像モニタ手段の分解能を上限として設定されている
請求項1から15のいずれか一に記載の撮像装置。
The imaging apparatus according to any one of claims 1 to 15, wherein the focal blur amount is set with an upper limit of a resolution of the image monitoring unit.
前記焦点のボケ量は、当該画像モニタ手段の画素ピッチの2倍以下に設定されている
請求項1から15のいずれか一に記載の撮像装置。
The imaging device according to any one of claims 1 to 15, wherein the focal blur amount is set to be equal to or less than twice a pixel pitch of the image monitor unit.
前記制御手段は、前記トリガ信号を受けてキャプチャした静止画像に対しては、前記変換手段で復元した後、前記信号処理手段で処理した後の画像を画像モニタ手段に表示させる
請求項10から15のいずれか一に記載の撮像装置。
16. The control unit displays the image processed by the signal processing unit on the image monitoring unit after being restored by the conversion unit for a still image captured by receiving the trigger signal. The imaging device according to any one of the above.
前記制御手段は、前記スルー画表示中は画像モニタ手段の分解能で必要十分な分解能をもった画像を前記撮像素子から出力させる
請求項10から15のいずれか一に記載の撮像装置。
The imaging device according to any one of claims 10 to 15, wherein the control unit outputs an image having a necessary and sufficient resolution from the image monitoring unit during the through image display from the imaging element.
前記光学系は、光波面変調素子およびズーム光学系を含み、
前記ズーム光学系のズーム位置またズーム量に相当する情報を生成するズーム情報生成手段を有し、
前記変換手段は、前記ズーム情報生成手段により生成される情報に基づいて分散画像信号より分散のない画像信号を生成する
請求項1から19のいずれか一に記載の撮像装置。
The optical system includes a light wavefront modulation element and a zoom optical system,
Zoom information generating means for generating information corresponding to the zoom position or zoom amount of the zoom optical system;
The imaging device according to any one of claims 1 to 19, wherein the conversion unit generates a non-dispersed image signal from the dispersed image signal based on information generated by the zoom information generating unit.
被写体までの距離に相当する情報を生成する被写体距離情報生成手段を有し、
前記変換手段は、前記被写体距離情報生成手段により生成される情報に基づいて分散画像信号より分散のない画像信号を生成する
請求項1から19のいずれか一に記載の撮像装置。
Subject distance information generating means for generating information corresponding to the distance to the subject;
The imaging device according to any one of claims 1 to 19, wherein the conversion unit generates a non-dispersed image signal from the dispersed image signal based on information generated by the subject distance information generating unit.
被写体までの距離に相当する情報を生成する被写体距離情報生成手段と、
前記被写体距離情報生成手段により生成された情報に基づき変換係数を演算する変換係数演算手段と、を有し、
前記変換手段は、前記変換係数演算手段から得られた変換係数によって、画像信号の変換を行い分散のない画像信号を生成する
請求項1から19のいずれか一に記載の撮像装置。
Subject distance information generating means for generating information corresponding to the distance to the subject;
Conversion coefficient calculation means for calculating a conversion coefficient based on the information generated by the subject distance information generation means,
The imaging device according to any one of claims 1 to 19, wherein the conversion unit converts an image signal and generates a non-dispersed image signal using the conversion coefficient obtained from the conversion coefficient calculation unit.
撮影する被写体の撮影モードを設定する撮影モード設定手段を有し、
前記変換手段は、前記撮影モード設定手段により設定された撮影モードに応じて異なる変換処理を行う
請求項1から22のいずれか一に記載の撮像装置。
Having shooting mode setting means for setting the shooting mode of the subject to be shot;
The imaging device according to any one of claims 1 to 22, wherein the conversion unit performs different conversion processing according to a shooting mode set by the shooting mode setting unit.
前記撮像装置は、複数のレンズを交換可能であって、
前記撮像素子は、前記複数のレンズの内少なくともーのレンズおよび光波面変調素子を通過した被写体収差像を撮像可能で、さらに、
前記一のレンズに応じた変換係数を取得する変換係数取得手段を有し、
前記変換手段は、前記変換係数取得手段から得られた変換係数によって、画像信号の変換を行う
請求項1から23のいずれか一に記載の撮像装置。
The imaging device can exchange a plurality of lenses,
The imaging element is capable of imaging a subject aberration image that has passed through at least one of the plurality of lenses and the light wavefront modulation element, and
Conversion coefficient acquisition means for acquiring a conversion coefficient corresponding to the one lens;
The imaging device according to any one of claims 1 to 23, wherein the conversion unit converts an image signal using the conversion coefficient obtained from the conversion coefficient acquisition unit.
露出制御を行う露出制御手段を有し、
前記信号処理手段は、前記露出制御手段からの露出情報に応じて光学的伝達関数(OTF)に対してフィルタ処理を行う
請求項1から24のいずれか一に記載の撮像装置。
Exposure control means for performing exposure control,
The imaging apparatus according to any one of claims 1 to 24, wherein the signal processing unit performs a filtering process on an optical transfer function (OTF) in accordance with exposure information from the exposure control unit.
合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系を通過した被写体像を撮像素子により撮像し、
スルー画表示中は、前記撮像素子による画像信号に対して所定の画像処理を行い、
前記撮像素子からの画像の焦点のボケを補正して復元し、復元した画像信号に対して前記所定の画像処理を行うに際し、
静止画撮影モード時には第1フィルタを用いて画像復元処理を行い、
動画撮影モード時および、またはスルー画表示時には前記第1フィルタとサイズが異なる第2フィルタを用いて画像復元処理を行う
撮像方法。
An image sensor captures a subject image that has passed through an optical system formed so that the amount of focal blur is substantially constant at the in-focus position and the distance before and after the in-focus position;
During live view display, predetermined image processing is performed on the image signal from the image sensor,
When correcting and restoring the blur of the focus of the image from the image sensor, and performing the predetermined image processing on the restored image signal,
In still image shooting mode, perform image restoration using the first filter,
An image capturing method for performing image restoration processing using a second filter having a size different from that of the first filter in a moving image shooting mode and / or in a through image display.
JP2006338312A 2005-12-27 2006-12-15 Imaging apparatus and method thereof Expired - Fee Related JP4916862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006338312A JP4916862B2 (en) 2005-12-27 2006-12-15 Imaging apparatus and method thereof

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005376665 2005-12-27
JP2005376665 2005-12-27
JP2006150749 2006-05-30
JP2006150749 2006-05-30
JP2006338312A JP4916862B2 (en) 2005-12-27 2006-12-15 Imaging apparatus and method thereof

Publications (2)

Publication Number Publication Date
JP2008011492A true JP2008011492A (en) 2008-01-17
JP4916862B2 JP4916862B2 (en) 2012-04-18

Family

ID=39069221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006338312A Expired - Fee Related JP4916862B2 (en) 2005-12-27 2006-12-15 Imaging apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP4916862B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188676A (en) * 2008-02-05 2009-08-20 Fujifilm Corp Imaging apparatus, imaging method, and program
JP2009188894A (en) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp Imaging device
JP2009213129A (en) * 2008-02-05 2009-09-17 Fujifilm Corp Image capturing apparatus, image capturing method, and program
JP2010258628A (en) * 2009-04-22 2010-11-11 Canon Inc Image processing apparatus and image processing method
JP2011008045A (en) * 2009-06-26 2011-01-13 Olympus Corp Imaging device and imaging system
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
US8810674B2 (en) 2011-03-16 2014-08-19 Olympus Imaging Corp. Optical apparatus, imaging apparatus and imaging system having a substantially constant MTF or MTF shape
KR101483828B1 (en) * 2012-12-31 2015-01-16 삼성전기주식회사 Camera with optical image stabilization function and method thereof
WO2015015949A1 (en) * 2013-08-01 2015-02-05 富士フイルム株式会社 Imaging device, imaging method, and image processing device
JP5756099B2 (en) * 2010-05-21 2015-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Imaging apparatus, image processing apparatus, image processing method, and image processing program
US9799105B2 (en) 2013-08-02 2017-10-24 Fujifilm Corporation Image processing device, imaging device, image processing method, and program for restoration processing based on a point spread function and a frame after a frame to be processed
US9800774B2 (en) 2013-07-29 2017-10-24 Fujifilm Corporation Image capture device with restoration processing and image restoration processing method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193766A (en) * 1993-12-27 1995-07-28 Toshiba Corp Picture information processor
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2002171442A (en) * 2000-12-04 2002-06-14 Olympus Optical Co Ltd Electronic camera and luminous quantity control method
JP2002199410A (en) * 2000-12-25 2002-07-12 Canon Inc Imaging device, compensating processing method for deteriorated image and storage medium
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system
JP2004007304A (en) * 2002-06-03 2004-01-08 Fuji Photo Film Co Ltd Digital photographing apparatus
JP2004328506A (en) * 2003-04-25 2004-11-18 Sony Corp Imaging apparatus and image recovery method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193766A (en) * 1993-12-27 1995-07-28 Toshiba Corp Picture information processor
JP2000005127A (en) * 1998-01-23 2000-01-11 Olympus Optical Co Ltd Endoscope system
JP2002171442A (en) * 2000-12-04 2002-06-14 Olympus Optical Co Ltd Electronic camera and luminous quantity control method
JP2002199410A (en) * 2000-12-25 2002-07-12 Canon Inc Imaging device, compensating processing method for deteriorated image and storage medium
JP2003235794A (en) * 2002-02-21 2003-08-26 Olympus Optical Co Ltd Electronic endoscopic system
JP2004007304A (en) * 2002-06-03 2004-01-08 Fuji Photo Film Co Ltd Digital photographing apparatus
JP2004328506A (en) * 2003-04-25 2004-11-18 Sony Corp Imaging apparatus and image recovery method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8199209B2 (en) 2008-02-05 2012-06-12 Fujifilm Corporation Image capturing apparatus with correction of optical transfer function, image capturing method and computer readable medium storing thereon a program for use with the image capturing apparatus
JP2009213129A (en) * 2008-02-05 2009-09-17 Fujifilm Corp Image capturing apparatus, image capturing method, and program
JP2009188676A (en) * 2008-02-05 2009-08-20 Fujifilm Corp Imaging apparatus, imaging method, and program
JP2009188894A (en) * 2008-02-08 2009-08-20 Mitsubishi Electric Corp Imaging device
JP2010258628A (en) * 2009-04-22 2010-11-11 Canon Inc Image processing apparatus and image processing method
US8941761B2 (en) 2009-04-22 2015-01-27 Canon Kabushiki Kaisha Information processing apparatus and information processing method for blur correction
JP2011008045A (en) * 2009-06-26 2011-01-13 Olympus Corp Imaging device and imaging system
US8553091B2 (en) 2010-02-02 2013-10-08 Panasonic Corporation Imaging device and method, and image processing method for imaging device
JP2011159159A (en) * 2010-02-02 2011-08-18 Panasonic Corp Imaging device and method, and image processing method for imaging device
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
JP5756099B2 (en) * 2010-05-21 2015-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Imaging apparatus, image processing apparatus, image processing method, and image processing program
US8810674B2 (en) 2011-03-16 2014-08-19 Olympus Imaging Corp. Optical apparatus, imaging apparatus and imaging system having a substantially constant MTF or MTF shape
KR101483828B1 (en) * 2012-12-31 2015-01-16 삼성전기주식회사 Camera with optical image stabilization function and method thereof
US9800774B2 (en) 2013-07-29 2017-10-24 Fujifilm Corporation Image capture device with restoration processing and image restoration processing method
WO2015015949A1 (en) * 2013-08-01 2015-02-05 富士フイルム株式会社 Imaging device, imaging method, and image processing device
JP5903529B2 (en) * 2013-08-01 2016-04-13 富士フイルム株式会社 Imaging apparatus, imaging method, and image processing apparatus
US9699427B2 (en) 2013-08-01 2017-07-04 Fujifilm Corporation Imaging device, imaging method, and image processing device
US9799105B2 (en) 2013-08-02 2017-10-24 Fujifilm Corporation Image processing device, imaging device, image processing method, and program for restoration processing based on a point spread function and a frame after a frame to be processed

Also Published As

Publication number Publication date
JP4916862B2 (en) 2012-04-18

Similar Documents

Publication Publication Date Title
JP4916862B2 (en) Imaging apparatus and method thereof
US8350948B2 (en) Image device which bypasses blurring restoration during a through image
JP4712631B2 (en) Imaging device
JP4663737B2 (en) Imaging apparatus and image processing method thereof
JP4749959B2 (en) Imaging device, manufacturing apparatus and manufacturing method thereof
JP4818957B2 (en) Imaging apparatus and method thereof
JP2008268937A (en) Imaging device and imaging method
JP2007322560A (en) Imaging apparatus, and apparatus and method of manufacturing the same
JP2008048293A (en) Imaging device and method for manufacturing same
JP2008085387A (en) Imaging apparatus, and its manufacturing device and manufacturing method
JP2007300208A (en) Imaging apparatus
JP4693720B2 (en) Imaging device
JP2007206738A (en) Imaging device and method
WO2007046205A1 (en) Image pickup apparatus and image processing method
JP2008033060A (en) Imaging apparatus and imaging method, and image processor
JP4364847B2 (en) Imaging apparatus and image conversion method
JP2008245266A (en) Imaging apparatus and method
JP2009086017A (en) Imaging device and imaging method
JP4916853B2 (en) Imaging apparatus and method thereof
JP4813147B2 (en) Imaging apparatus and imaging method
JP4812541B2 (en) Imaging device
JP4818956B2 (en) Imaging apparatus and method thereof
JP2008011491A (en) Camera system, monitor camera, and imaging method
JP2008245265A (en) Imaging apparatus and its manufacturing apparatus and method
JP2009033607A (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees