JP2008058546A - Detection device, correction device, camera and program - Google Patents

Detection device, correction device, camera and program Download PDF

Info

Publication number
JP2008058546A
JP2008058546A JP2006234653A JP2006234653A JP2008058546A JP 2008058546 A JP2008058546 A JP 2008058546A JP 2006234653 A JP2006234653 A JP 2006234653A JP 2006234653 A JP2006234653 A JP 2006234653A JP 2008058546 A JP2008058546 A JP 2008058546A
Authority
JP
Japan
Prior art keywords
image
area
blur
point spread
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006234653A
Other languages
Japanese (ja)
Inventor
Mitsuhiro Okazaki
光宏 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006234653A priority Critical patent/JP2008058546A/en
Publication of JP2008058546A publication Critical patent/JP2008058546A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detection device, a correction device, a camera and a program by which image blur is suitably corrected. <P>SOLUTION: The detection device is provided with point spread function arithmetic calculation parts (14A, S30 and S50) arithmetically calculating point spread functions for a first area including an object brought into focus in a photographic image and a second area different from the first area in the photographic image, and component arithmetic calculation parts (14A and S60) detecting the state of the divergence of focus in the photographic image by using the point spread functions for the first area and the second area, and arithmetically calculating blur components (A3, B3 and C3) included in the photographic image different from the divergence of focus. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像撮影に関連する検出装置、補正装置、カメラ、プログラムに関するものである。   The present invention relates to a detection device, a correction device, a camera, and a program related to image shooting.

撮影時の手振れによる像ブレを低減する光学的なブレ補正装置を備えたカメラが知られている。
しかし、光学的なブレ補正装置は、撮影光学系の光軸まわりでカメラが回転したときの像ブレに対しては、補正効果を期待できなかった。
一方、特許文献1には、撮影光学系の光軸まわりでカメラが回転したときの像ブレを点広がり関数(点像分布関数)を用いて補正する技術が開示されている。
しかし、特許文献1に記載の技術では、点像分布関数を選ぶ位置によって、補正後の画像の品質が大きく左右されてしまい、信頼性が低いという問題があった。
特開2000−298300号公報
2. Description of the Related Art A camera equipped with an optical blur correction device that reduces image blur due to camera shake during shooting is known.
However, the optical blur correction device cannot expect a correction effect for image blur when the camera rotates around the optical axis of the photographing optical system.
On the other hand, Patent Document 1 discloses a technique for correcting image blur when a camera rotates around the optical axis of a photographing optical system using a point spread function (point spread function).
However, the technique described in Patent Document 1 has a problem that the quality of the image after correction is greatly influenced by the position where the point spread function is selected, and the reliability is low.
JP 2000-298300 A

本発明の課題は、像ブレを好適に補正することができる検出装置、補正装置、カメラ、及びプログラムを提供することである。   An object of the present invention is to provide a detection device, a correction device, a camera, and a program that can appropriately correct image blur.

本発明は、以下のような解決手段により、前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。
請求項1の発明は、撮影画像内の合焦した被写体が含まれる第1の領域、及び、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算部(14A,S30,S50)と、前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分(A3,B3,C3)を演算する成分演算部(14A,S60)とを含むことを特徴とする検出装置である。
請求項2の発明は、請求項1に記載された検出装置であって、前記ブレ成分(A3,B3,C3)は、撮影光軸まわりの回転ブレを含むことを特徴とする検出装置である。
請求項3の発明は、請求項1又は請求項2に記載された検出装置であって、前記成分演算部(14A,S60)は、前記第1の領域及び前記第2の領域の前記点像分布関数を用いて前記合焦ずれを除去した後、前記ブレ成分を演算することを特徴とする検出装置である。
請求項4の発明は、請求項1から請求項3までの何れか1項に記載された検出装置と、前記検出装置により検出された前記ブレ成分を除去する画像回復演算部(16,S80)とを含むことを特徴とする補正装置である。
請求項5の発明は、請求項4に記載された補正装置において、前記第1の領域及び前記第2の領域の前記点像分布関数から前記回転ブレ成分を演算する回転成分演算部(14B,S60)と、前記回転成分演算部が演算した前記回転ブレ成分を用いて、前記点像分布関数を前記撮影画像内の前記第1の領域及び前記第2の領域以外の領域の点像分布関数に換算する換算部(14B,S70)と、前記換算部により換算された前記点像分布関数を用いて前記撮影画像に含まれる前記回転ブレ成分を除去して画像回復を行う画像演算部(16,S80)とを含むことを特徴とする補正装置である。
請求項6の発明は、請求項1から請求項5までの何れか1項に記載の補正装置において、前記点像分布関数演算部(14A,S30,S50)は、前記第2の領域を2カ所用いて演算を行うこと、を特徴とする補正装置である。
請求項7の発明は、請求項4から請求項6までの何れか1項に記載された補正装置を含むこと、を特徴とするカメラ(10)である。
請求項8の発明は、請求項7に記載されたカメラであって、前記点像分布関数演算部(14A,S30,S50)は、撮影画面内に設定された焦点検出領域(21)に対応する領域を前記第1の領域とすること、を特徴とするカメラ(10)である。
請求項9の発明は、撮影画像、及び、前記撮影画像内の第1の領域に関する情報が入力される入力部と、前記第1の領域、及び、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算部と、前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分を演算する成分演算部と、前記成分を除去する画像回復演算部とを含むことを特徴とする補正装置(100)である。
請求項10の発明は、請求項9に記載された補正装置であって、前記ブレ成分は、撮影光軸まわりの回転ブレを含むことを特徴とする補正装置(100)である。
請求項11の発明は、コンピュータ(100)を、撮影画像、及び、前記撮影画像内の第1の領域に関する情報が入力される入力手段と、前記第1の領域、及び、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算手段(S30,S50)と、前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分を演算する成分演算手段(S60)と、前記成分を除去する画像回復演算手段(S80)として機能させるためのプログラムである。
請求項12の発明は、請求項11に記載されたプログラムであって、前記ブレ成分は、撮影光軸まわりの回転ブレを含むことを特徴とするプログラムである。
なお、符号を付した構成は適宜改良してもよい。また、少なくとも一部を他の構成物に代替してもよく、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らない。
The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.
According to the first aspect of the present invention, a point spread function is calculated for a first region including a focused subject in a captured image and a second region different from the first region in the captured image. And a point image distribution function calculation unit (14A, S30, S50) that performs the detection and detects the state of out-of-focus in the captured image using the point image distribution functions of the first area and the second area. And a component calculation unit (14A, S60) for calculating a blur component (A3, B3, C3) included in the photographed image different from the out-of-focus state.
A second aspect of the present invention is the detection apparatus according to the first aspect, wherein the blur component (A3, B3, C3) includes a rotational blur around a photographing optical axis. .
A third aspect of the present invention is the detection apparatus according to the first or second aspect, wherein the component calculation unit (14A, S60) is the point image of the first region and the second region. In the detection apparatus, the blur component is calculated after removing the in-focus shift using a distribution function.
According to a fourth aspect of the present invention, there is provided the detection apparatus according to any one of the first to third aspects, and an image restoration calculation unit (16, S80) for removing the blur component detected by the detection apparatus. It is a correction apparatus characterized by including these.
According to a fifth aspect of the present invention, in the correction apparatus according to the fourth aspect, a rotational component computing unit (14B, 14) for computing the rotational blur component from the point spread function of the first region and the second region. S60), and using the rotational blur component calculated by the rotational component calculation unit, the point spread function is converted into a point spread function of the region other than the first region and the second region in the captured image. A conversion unit (14B, S70) that converts the image into an image, and an image calculation unit (16 that performs image restoration by removing the rotational blur component included in the photographed image using the point spread function converted by the conversion unit. , S80).
According to a sixth aspect of the present invention, in the correction device according to any one of the first to fifth aspects, the point spread function calculation unit (14A, S30, S50) sets the second region to 2. It is a correction device characterized in that the calculation is performed using a place.
A seventh aspect of the present invention is a camera (10) characterized by including the correction device according to any one of the fourth to sixth aspects.
The invention according to claim 8 is the camera according to claim 7, wherein the point spread function calculation unit (14A, S30, S50) corresponds to the focus detection region (21) set in the photographing screen. The camera (10) is characterized in that the area to be operated is the first area.
The invention according to claim 9 is an input unit to which information relating to a captured image and a first region in the captured image is input, the first region, and the first region in the captured image. Using a point spread function calculation unit for calculating a point spread function and the point spread function of the first area and the second area for a second area different from each other. A correction apparatus comprising: a component calculation unit that detects a defocus state and calculates a blur component included in the photographed image that is different from the focus shift; and an image restoration calculation unit that removes the component (100).
A tenth aspect of the present invention is the correction apparatus according to the ninth aspect, wherein the blur component includes a rotation blur around a photographing optical axis.
According to the eleventh aspect of the present invention, the computer (100) is configured to input a photographed image and information relating to the first region in the photographed image, the first region, and the image in the photographed image. Point spread function calculation means (S30, S50) for calculating a point spread function for a second area different from the first area, and the point spread of the first area and the second area. A function calculation unit (S60) that detects a state of in-focus deviation in the captured image using a function, calculates a blur component included in the captured image that is different from the in-focus error, and removes the component. This is a program for functioning as the image restoration calculation means (S80).
A twelfth aspect of the present invention is the program according to the eleventh aspect, wherein the blur component includes a rotational blur around a photographing optical axis.
In addition, you may improve suitably the structure which attached | subjected the code | symbol. In addition, at least a part may be replaced with another component, and the configuration requirements that are not particularly limited with respect to the configuration are not limited to the configurations disclosed in the embodiments.

本発明によれば、像ブレを好適に補正することができる検出装置、補正装置、カメラ、及びプログラムを提供することができる。   According to the present invention, it is possible to provide a detection device, a correction device, a camera, and a program that can appropriately correct image blur.

以下、図面等を参照しながら、本発明の実施の形態について、更に詳しく説明する。   Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings.

(第1実施形態)
図1は、第1実施形態によるカメラ10の光学的ブレ補正機構を説明する図である。
図2は、第1実施形態のカメラ10の概要を示すブロック図である。
図1、図2において第1実施形態のカメラ10は、レンズ11,ブレ補正アクチュエータ2(2p,2y),光学ブレ補正制御部3,レンズ位置検出センサ4(4p,4y),レリーズスイッチ5,振れセンサ9(9p,9y),撮像素子12,AFエリア情報取得部13,PSF演算部14,撮影画像取得部15,デコンボリューション実行部16,回復画像取得部17,データ保存部18,入力部19等を備えている。
(First embodiment)
FIG. 1 is a diagram illustrating an optical blur correction mechanism of the camera 10 according to the first embodiment.
FIG. 2 is a block diagram illustrating an outline of the camera 10 according to the first embodiment.
1 and 2, the camera 10 according to the first embodiment includes a lens 11, a shake correction actuator 2 (2p, 2y), an optical shake correction control unit 3, a lens position detection sensor 4 (4p, 4y), a release switch 5, and the like. Shake sensor 9 (9p, 9y), image sensor 12, AF area information acquisition unit 13, PSF calculation unit 14, captured image acquisition unit 15, deconvolution execution unit 16, recovery image acquisition unit 17, data storage unit 18, input unit 19 etc.

レンズ11は、撮影光学系の一部を形成し、光軸Zに略直交する面内で後述の撮像素子12に対して移動可能に設けられている。レンズ11は、カメラ10の振れによる被写体像の像ブレを打ち消す方向に移動することにより撮像素子12における像ブレを補正するブレ補正光学系である。
ブレ補正アクチュエータ2は、レンズ11を移動させる駆動力を発生する駆動部であり、ボイスコイルモータ等が使用される。ブレ補正アクチュエータ2は、ピッチング(Pitching)方向の像ブレ補正時に駆動されるブレ補正アクチュエータ2pと、ヨーイング(Yawing)方向の像ブレ補正時に駆動されるブレ補正アクチュエータ2yとが設けられている。
The lens 11 forms a part of the photographing optical system, and is provided so as to be movable with respect to an image sensor 12 described later within a plane substantially orthogonal to the optical axis Z. The lens 11 is a blur correction optical system that corrects image blur in the image sensor 12 by moving in a direction that cancels image blur of the subject image due to camera shake.
The blur correction actuator 2 is a driving unit that generates a driving force for moving the lens 11, and a voice coil motor or the like is used. The blur correction actuator 2 is provided with a blur correction actuator 2p that is driven at the time of image blur correction in the pitching direction and a blur correction actuator 2y that is driven at the time of image blur correction in the yawing direction.

光学ブレ補正制御部3は、ブレ補正アクチュエータ2を駆動する回路であり、不図示のブレ補正演算回路により算出された駆動目標に従ってブレ補正アクチュエータ2の駆動を行う。
レンズ位置検出センサ4は、レンズ11の位置を検出する位置センサであり、ピッチング(Pitching)方向の像ブレ補正時のレンズ11の位置を検出するレンズ位置検出センサ4pと、ヨーイング(Yawing)方向の像ブレ補正時のレンズ11の位置を検出するレンズ位置検出センサ4Yとが設けられている。
振れセンサ9は、カメラ10の角速度を検出する角速度センサであり、ピッチング(Pitching)振れを検出する振れセンサ9pと、ヨーイング(Yawing)振れを検出する振れセンサ9yとが設けられている。
本実施形態におけるカメラ10は、ピッチング(Pitching)、ヨーイング(Yawing)の2系統のブレ補正アクチュエータ2、レンズ位置検出センサ4、振れセンサ9、その他制御系を備えており、ピッチング及びヨーイングに起因する像ブレは、レンズ11を駆動して光学的に補正を行う。
しかし、このような光学的なブレ補正機構のみでは、カメラ10が光軸Zまわりで回転するローリング(Rolling)に起因する回転ブレについては、補正することができない。また、回転を伴わない完全な平行移動(並進運動)についても、振れセンサ9により検出できず、補正ができない。
そこで、本実施形態のカメラ10は、光学的なブレ補正機構に加えて、画像回復によるブレ補正も行うことができるようにして、ローリング(Rolling)に起因する回転ブレの補正、及び、並進運動に起因する像ブレの補正も行うことができるように構成されている。
The optical shake correction control unit 3 is a circuit that drives the shake correction actuator 2 and drives the shake correction actuator 2 according to a drive target calculated by a shake correction calculation circuit (not shown).
The lens position detection sensor 4 is a position sensor that detects the position of the lens 11, and a lens position detection sensor 4 p that detects the position of the lens 11 during image blur correction in the pitching direction, and a yawing direction. A lens position detection sensor 4Y that detects the position of the lens 11 at the time of image blur correction is provided.
The shake sensor 9 is an angular velocity sensor that detects the angular velocity of the camera 10, and is provided with a shake sensor 9p that detects pitching shake and a shake sensor 9y that detects yawing shake.
The camera 10 according to the present embodiment includes two systems of blur correction actuators 2, pitching and yawing, a lens position detection sensor 4, a shake sensor 9, and other control systems, which are caused by pitching and yawing. Image blur is optically corrected by driving the lens 11.
However, with such an optical blur correction mechanism alone, it is not possible to correct rotational blur caused by rolling in which the camera 10 rotates about the optical axis Z. Also, complete translation (translational movement) without rotation cannot be detected by the shake sensor 9 and cannot be corrected.
Therefore, the camera 10 of the present embodiment is capable of performing blur correction by image restoration in addition to the optical blur correction mechanism, correcting rotational blur due to rolling, and translational motion. The image blur due to the image can be corrected.

図2において撮像素子12は、レンズ11により撮像面に結像した像を撮像する素子であり、本実施形態では、CCD(Charge Coupled Devices)を使用している。なお、撮像素子には、CCDに限らず、CMOS(Complementary Metal Oxide Semiconductor)等、他の種類のイメージセンサーを使用してもよい。   In FIG. 2, an image pickup device 12 is a device that picks up an image formed on the image pickup surface by the lens 11, and in this embodiment, a CCD (Charge Coupled Devices) is used. The image sensor is not limited to the CCD, and other types of image sensors such as CMOS (Complementary Metal Oxide Semiconductor) may be used.

AFエリア情報取得部13は、オートフォーカス(AF)動作により、合焦に使用されたAFエリアの情報を取得し、撮影画像内における主要被写体の位置を特定する。
PSF演算部14は、撮影された画像からPSF(Point Spread Function)を演算する。PSFは、点像分布関数とも呼ばれ、後述するデコンボリューションの演算に使用する。
本実施形態のPSF演算部14は、後述する主要被写体領域と参照領域のPSFを演算する複数領域PSF演算部14Aと、全画素のPSFを演算する全画素PSF演算部14Bとを有している。これら複数領域PSF演算部14A,全画素PSF演算部14Bによって、例えば光学的なブレ補正機構により補正できずに残っている回転ブレ等の像ブレ成分を検出することができる。
撮影画像取得部15は、撮像素子12が撮影した撮影画像を一時的に記憶する部分である。
デコンボリューション実行部16は、撮影画像データに対して、PSF演算部14が演算したPSFを用いて画像回復演算を行う部分であり、本実施形態では、デコンボリューションを行うことにより、撮影画像に含まれる像ブレの低減を行う。
回復画像取得部17は、デコンボリューション実行部16がデコンボリューションを実行した結果得られた回復画像を一時的に記憶する部分である。
データ保存部18は、撮影画像、及び、回復画像を保存する部分であり、本実施形態では、着脱可能なメモリカードに記録するようになっている。
入力部19は、各種入力操作を行える操作部材である。
The AF area information acquisition unit 13 acquires information on the AF area used for focusing by an autofocus (AF) operation, and specifies the position of the main subject in the captured image.
The PSF calculation unit 14 calculates a PSF (Point Spread Function) from the captured image. The PSF is also called a point spread function, and is used for deconvolution calculation described later.
The PSF calculation unit 14 of the present embodiment includes a multi-region PSF calculation unit 14A that calculates a PSF of a main subject region and a reference region, which will be described later, and an all-pixel PSF calculation unit 14B that calculates a PSF of all pixels. . These multi-region PSF calculation unit 14A and all-pixel PSF calculation unit 14B can detect, for example, image blur components such as rotational blur that remain without being corrected by an optical blur correction mechanism.
The captured image acquisition unit 15 is a part that temporarily stores a captured image captured by the image sensor 12.
The deconvolution execution unit 16 is a part that performs image restoration calculation on the captured image data using the PSF calculated by the PSF calculation unit 14. In this embodiment, the deconvolution execution unit 16 includes the captured image by performing deconvolution. Image blurring.
The recovered image acquisition unit 17 is a part that temporarily stores a recovered image obtained as a result of the deconvolution execution unit 16 executing the deconvolution.
The data storage unit 18 is a part that stores a captured image and a recovered image, and in the present embodiment, the data storage unit 18 records it on a removable memory card.
The input unit 19 is an operation member that can perform various input operations.

ここで、本実施形態のカメラが有するAF動作について説明する。
本実施形態のカメラは、AF動作として、Sモード、Cモードを選択することができる。
Sモードは、レリーズスイッチ5を半押しして不図示の合焦表示が点灯しているときのみ、撮影を行うことができるフォーカス優先のAFモードである。Sモードでは、レリーズスイッチ5を半押しして合焦表示が点灯すると、レリーズスイッチ5を半押ししている間は、焦点調節を行わずに合焦状態を保持するAFロックを行うことができる。従って、レリーズスイッチ5を半押ししていれば、構図変更を行ってAFエリアから被写体がずれたとしても、AFロックを行った被写体に対して焦点が調節された(ピントが合った)状態を保持できる。
Cモードは、合焦表示にかかわらず、レリーズスイッチ5を全押しすればいつでも撮影を行うことができるレリーズ優先のAFモードであり、レリーズスイッチ5を半押ししている間は、常に焦点調節を続ける。従って、構図変更を行うと、AFエリアと重なる位置にある被写体に対して合焦させるように、レンズ11を駆動し続ける。
Here, the AF operation of the camera of this embodiment will be described.
The camera of this embodiment can select S mode and C mode as AF operation.
The S mode is a focus-priority AF mode in which shooting can be performed only when the release switch 5 is pressed halfway and a focus display (not shown) is lit. In the S mode, when the release switch 5 is pressed halfway and the in-focus display is lit, AF lock can be performed to maintain the in-focus state without performing focus adjustment while the release switch 5 is pressed halfway. . Therefore, if the release switch 5 is half-pressed, even if the composition is changed and the subject is deviated from the AF area, the focus is adjusted (focused) on the subject on which the AF is locked. Can hold.
The C mode is a release-priority AF mode in which shooting can be performed at any time by fully pressing the release switch 5 regardless of the focus display. The focus adjustment is always performed while the release switch 5 is pressed halfway. to continue. Accordingly, when the composition is changed, the lens 11 is continuously driven so that the subject located at the position overlapping the AF area is focused.

次に、本実施形態のカメラの動作について説明する。なお、以下に説明する動作は、画像回復を行う設定となっていることを前提としているが、画像回復を行わない設定となっている場合には、画像回復に関する動作を行わず、従来から知られているカメラと同様な動作を行うこともできる。
まず、AFモードとしてSモードが選択されている場合の動作について説明する。以下の説明では、人物を主要な被写体として、人物に合焦させるものとして説明を行う。なお、主要な被写体は、人物に限らず、他の物であってもよい。また、簡単のため、AFエリア21は、撮影範囲の中央に1カ所だけ設けられているものとして説明を行う。
Next, the operation of the camera of this embodiment will be described. Note that the operations described below are based on the premise that image recovery settings are set. However, if image recovery is not set, the operations related to image recovery are not performed. It is also possible to perform the same operation as that of a conventional camera.
First, the operation when the S mode is selected as the AF mode will be described. In the following description, it is assumed that a person is a main subject and the person is focused. The main subject is not limited to a person but may be another object. For the sake of simplicity, the description will be made assuming that only one AF area 21 is provided at the center of the photographing range.

図3は、本実施形態のカメラ10において、Sモードが選択されている場合の動作の流れを示すフローチャートである。
ステップ(以下、Sとする)10では、撮影動作を行う。このS10における動作は、図4を参照して詳しく説明する。
図4は、図3に示したフローチャートにおけるステップ10の撮影動作を詳細に示すフローチャートである。
撮影動作が開始すると、S110では、レリーズスイッチ5が半押しされたか否かを判断する。レリーズスイッチ5が半押しされていれば、S120に進み、レリーズスイッチ5が半押しされていなければ、S10の判断を繰り返す。
S120では、合焦したか否かの判断を行う。合焦していれば、S130に進み、合焦していなければS110へ戻る。
図5は、Sモードが選択されている場合のAFエリア情報取得部13の動作を説明する図である。
Sモードでは、例えば、人物に対してAFエリア21が重なるようにしてレリーズスイッチ5を半押しして、合焦させる(図5)。合焦すると、不図示の合焦表示が点灯し、合焦状態を保持するAFロックされた状態となる。AFロックされると、AFエリア情報取得部13は、以下に説明するS130の動作を行う。
FIG. 3 is a flowchart showing an operation flow when the S mode is selected in the camera 10 of the present embodiment.
In step (hereinafter referred to as S) 10, a photographing operation is performed. The operation in S10 will be described in detail with reference to FIG.
FIG. 4 is a flowchart showing in detail the photographing operation in step 10 in the flowchart shown in FIG.
When the photographing operation is started, in S110, it is determined whether or not the release switch 5 is half-pressed. If the release switch 5 is half-pressed, the process proceeds to S120. If the release switch 5 is not half-pressed, the determination in S10 is repeated.
In S120, it is determined whether or not the subject is in focus. If it is in focus, the process proceeds to S130, and if it is not in focus, the process returns to S110.
FIG. 5 is a diagram illustrating the operation of the AF area information acquisition unit 13 when the S mode is selected.
In the S mode, for example, the release switch 5 is half-pressed so that the AF area 21 overlaps with a person to focus (FIG. 5). When focused, a focus display (not shown) is turned on, and the AF locked state is maintained to maintain the focused state. When the AF is locked, the AF area information acquisition unit 13 performs the operation of S130 described below.

図4に戻って、S130では、AFエリア情報取得部13は、AFロックが行われた時に撮像素子12により得られるAFロック時の画像を仮保存すると共に、AFロック時に使用されているAFエリア21の位置を記憶する。
S140では、レリーズスイッチ5の半押しが継続されているか否かの判断を行う。レリーズスイッチ5の半押しが継続されている場合には、S150に進み、レリーズスイッチ5の半押しがされていない場合には、S110へ戻る。
ここで、構図を変更したい場合には、合焦表示が点灯した状態でレリーズスイッチ5の半押しを継続したまま、構図を変更する。例えば、人物を左に寄せて、背景の樹木を撮影画面外にしてしまう等の構図変更を行うことができるが、レリーズスイッチ5の半押しを継続しているので、ピントは人物に合っている状態を保持している。
S150では、レリーズスイッチ5が全押しされているか否かを判断する。レリーズスイッチ5が全押しされている場合には、S160へ進み、レリーズスイッチ5が全押しされていない場合には、S140へ戻る。
S160では、撮像素子12により撮影が行われ、撮影画像が得られ、図3のフローに戻り、S20へ進む。
Returning to FIG. 4, in S <b> 130, the AF area information acquisition unit 13 temporarily stores the AF locked image obtained by the image sensor 12 when AF locking is performed, and also uses the AF area used at the time of AF locking. 21 positions are stored.
In S140, it is determined whether or not the release switch 5 is half-pressed. When the half-press of the release switch 5 is continued, the process proceeds to S150, and when the release switch 5 is not half-pressed, the process returns to S110.
Here, when it is desired to change the composition, the composition is changed while the release switch 5 is kept half-pressed in a state where the focus display is lit. For example, it is possible to change the composition such as bringing the person to the left and leaving the background tree outside the shooting screen, but since the release switch 5 is being pressed halfway, the focus is on the person. The state is retained.
In S150, it is determined whether or not the release switch 5 is fully pressed. If the release switch 5 is fully pressed, the process proceeds to S160. If the release switch 5 is not fully pressed, the process returns to S140.
In S160, imaging is performed by the imaging device 12, and a captured image is obtained. The process returns to the flow of FIG. 3 and proceeds to S20.

図3に戻って、S20では、AFエリア情報取得部13は、AFロック時に仮保存しておいたAFロック時の画像と撮影画像とを比較して、AFロック時にAFエリア21が重なっていた被写体が撮影画像の中のいずれの位置にあるのかを特定する。なお、この被写体の比較は、例えば、AFロック時の画像の中の特徴点を複数抽出して、その特徴点を撮影画像の中から探す等の方法により行える。
撮影画像中でAFロック時にAFエリア21が重なっていた被写体の位置(画面内における領域)が特定されたら、AFエリア情報取得部13は、その位置情報をPSF演算部14へ伝える。
Returning to FIG. 3, in S20, the AF area information acquisition unit 13 compares the AF locked image temporarily captured when the AF is locked with the photographed image, and the AF area 21 overlaps when the AF is locked. It is specified in which position in the captured image the subject is located. Note that this subject comparison can be performed by, for example, extracting a plurality of feature points in the image at the time of AF lock and searching for the feature points from the captured image.
When the position of the subject (area in the screen) where the AF area 21 overlaps when the AF is locked in the captured image is specified, the AF area information acquisition unit 13 transmits the position information to the PSF calculation unit 14.

S30では、AFエリア情報取得部13が特定した主要被写体領域に対して、PSFの演算を行う。
S40では、主要被写体領域の他に、2つの参照領域を選択する。この2つの参照領域は、例えば以下のような選択基準に従って、自動的に選択される。
基準1:主要被写体領域からできるだけ画面内において離れた位置にあること。
基準2:参照領域同士の距離が離れていること。
基準3:参照領域のコントラストがPSF演算できる程度に高いこと。
なお、撮影者の意図により入力部19を使用して参照領域を決定することもできる。
以下の説明では、図5の撮影画面中における右側にある背景の人物と、左側にある背景の樹木とが選択されたものとする。参照領域が選択されると、S50へ進む。
In S30, PSF calculation is performed on the main subject area specified by the AF area information acquisition unit 13.
In S40, two reference areas are selected in addition to the main subject area. These two reference areas are automatically selected according to the following selection criteria, for example.
Criterion 1: The position is as far as possible from the main subject area in the screen.
Criterion 2: The distance between the reference areas is long.
Standard 3: The contrast of the reference area is high enough to perform PSF calculation.
Note that the reference area can also be determined using the input unit 19 according to the photographer's intention.
In the following description, it is assumed that the background person on the right side and the background tree on the left side in the shooting screen of FIG. 5 are selected. When the reference area is selected, the process proceeds to S50.

S50では、選択された2つの参照領域のPSFの演算を行う。このステップで演算する参照領域は、先に演算した主要被写体領域のPSFとは異なり、焦点ずれによりいわゆるボケ(ピンボケ)が生じている可能性が高い。このボケ成分が含まれていると、演算したPSFから正確に像ブレを補正することができない。
図6は、PSFを2次元上に模式的に表した図である。図6(a)は、像ブレのない場合を示し、図6(b)は、図6(a)のPSFにさらに回転成分を含む像ブレが加わった場合を示している。なお、図6のPSFは、図5に対応させて示している。
図7は、本実施形態のカメラが行うPSF演算の順序を示す図である。
In S50, the PSF of the two selected reference areas is calculated. Unlike the PSF of the main subject area calculated earlier, the reference area calculated in this step has a high possibility of so-called blurring (out of focus) due to defocusing. If this blur component is included, the image blur cannot be accurately corrected from the calculated PSF.
FIG. 6 is a diagram schematically showing PSF two-dimensionally. FIG. 6A shows a case where there is no image blur, and FIG. 6B shows a case where an image blur including a rotation component is further added to the PSF of FIG. 6A. The PSF in FIG. 6 is shown corresponding to FIG.
FIG. 7 is a diagram showing the order of PSF calculations performed by the camera of this embodiment.

図6(a)のPSFは、図5に示した状態が、像ブレなく理想的に撮影された場合のものである。図5の状態では、人物に合焦しており、背景の樹木は、ぼやけている。従って、これに対応するPSFは、図6(a)のように人物に対応する位置のPSFがA1のように点となり、背景の人物に相当するPSF(B1)と、背景の樹木に相当する位置のPSF(C1)とは、ボケの影響で広がったものになっている。
図6(b)のPSFは、回転成分を有する像ブレを含んだ撮影画像の場合のものである。この図6(b)のPSFには、像ブレの影響を受けて、図6(a)のPSFに加えてさらに像ブレの軌跡に相当する成分が含まれている。
図6(c)のPSFは、図6(b)のPSF(B1)、(C1)から、焦点ずれに起因するボケ成分を除去し、像ブレ成分のみのPSFとしたものである。
The PSF in FIG. 6A is a case where the state shown in FIG. 5 is ideally photographed without image blurring. In the state of FIG. 5, the person is in focus and the background tree is blurred. Therefore, the PSF corresponding to this is a point where the PSF at the position corresponding to the person is A1, as shown in FIG. 6A, and corresponds to the PSF (B1) corresponding to the background person and the background tree. The position PSF (C1) is widened due to the blur.
The PSF in FIG. 6B is for a captured image including image blur having a rotation component. The PSF of FIG. 6B is affected by the image blur, and further includes a component corresponding to the locus of the image blur in addition to the PSF of FIG.
The PSF in FIG. 6C is obtained by removing the blur component due to the defocus from the PSFs (B1) and (C1) in FIG. 6B to obtain only the image blur component.

S50で演算するPSFは、ブレ成分を画像回復演算によって補正するときに使用するので、ボケ成分を含まないものとする必要がある。ブレ成分とボケ成分とが含まれるPSFからブレ成分のみのPSFを演算する方法としては、ブレ成分とボケ成分とが含まれるPSFの幅からボケ成分のPSFを演算し、このボケ成分のPSFを用いてブレ成分とボケ成分とが含まれるPSFをデコンボリューションする方法がある。また、簡易的には、ブレ成分とボケ成分とが含まれるPSFの幅方向の最大値を求めることによりブレ成分のPSFを演算することができる。
以上のようにして、2つの参照領域について、ボケ成分を含まず、ブレ成分のみのPSFを演算したら、S60へ進む。
The PSF calculated in S50 is used when correcting the blur component by the image restoration calculation, and therefore needs to be free from the blur component. As a method of calculating the PSF of only the blur component from the PSF including the blur component and the blur component, the PSF of the blur component is calculated from the width of the PSF including the blur component and the blur component, and the PSF of the blur component is calculated. There is a method of using the deconvolution of the PSF including the blur component and the blur component. Further, simply, the PSF of the blur component can be calculated by obtaining the maximum value in the width direction of the PSF including the blur component and the blur component.
As described above, when the PSF of only the blur component is calculated for the two reference regions without including the blur component, the process proceeds to S60.

S60では、S30で求めた主要被写体領域のPSFと、S50で求めた2つの参照領域のPSFとを用いて、撮影画像のブレを回転成分と並進成分とに分離して、回転成分のPSFを求める。   In S60, using the PSF of the main subject area obtained in S30 and the PSFs of the two reference areas obtained in S50, the blur of the captured image is separated into a rotation component and a translation component, and the PSF of the rotation component is obtained. Ask.

S70では、S60で演算した回転成分のPSFから、撮影画像の各位置のPSFに換算する演算を行う。
仮に、回転ブレが発生しておらず並進ブレ(回転を伴わないブレ)しか発生していない場合は、画面上のブレ成分のPSFは、どの位置においても等しくなり、得られた単一のPSFを用いて画像回復を行えば、画面全体にわたって、ブレの補正を行える。
しかし、回転ブレが発生している場合は、回転中心に近い位置と遠い位置でブレ量が異なり、さらに回転中心との位置関係でブレ方向が異なるため、画面内の位置によりPSFが異なる。よって、回転ブレを生じている場合には、画像回復で回転ブレを補正するために、画面内の位置毎にPSFを求める必要がある。
In S70, the rotation component PSF calculated in S60 is converted into a PSF at each position of the captured image.
If rotation blur does not occur and only translation blur (blur without rotation) occurs, the PSF of the blur component on the screen is equal at any position, and the obtained single PSF If image recovery is performed using, blurring can be corrected over the entire screen.
However, when rotational blur occurs, the blur amount differs between a position close to and far from the rotation center, and the blur direction differs depending on the positional relationship with the rotation center. Therefore, the PSF varies depending on the position in the screen. Therefore, when rotational blur has occurred, it is necessary to obtain the PSF for each position in the screen in order to correct the rotational blur by image restoration.

複数の領域のブレ成分のPSFから画面全体(各画素)のブレ成分のPSFを求める方法としては、主要被写体領域のブレ成分のPSFと、2つの参照領域のブレ成分のPSFとを比較して、回転中心を求めるとともに、その回転中心周りの回転角度を求め、求めたい場所の位置と回転中心の位置関係から回転成分を算出し、回転中心のブレ成分のPSFと回転成分をあわせて、求めたい場所のPSFに換算する。なお、ブレ成分のPSFの形状が複雑な場合は、PSF上の特徴点(例えば、折れ曲がり点、PSF強度極大点等)を参考にしてPSFを分割して、分割した部分ごとに回転成分を求めることも可能である。   As a method for obtaining the PSF of the blur component of the entire screen (each pixel) from the PSF of the blur component of a plurality of regions, the PSF of the blur component of the main subject region and the PSF of the blur component of the two reference regions are compared. In addition to obtaining the rotation center, the rotation angle around the rotation center is obtained, the rotation component is calculated from the positional relationship between the position to be obtained and the rotation center, and the PSF and the rotation component of the shake center at the rotation center are obtained together. Convert to PSF where you want. If the shape of the PSF of the blur component is complicated, the PSF is divided with reference to the feature points on the PSF (for example, bending points, PSF intensity maximum points, etc.), and a rotation component is obtained for each divided portion. It is also possible.

S80では、デコンボリューションを行う。
ここで、画像回復について説明する。
像ブレ等により劣化した画像を劣化の少ない理想的な画像に近づける方法として、画像回復という方法がある。
今、(x,y)を画面上の位置座標とし、ブレ等のない時の画像(以下、元画像)をf(x,y)、ブレ等によって劣化した画像(以下、劣化画像)をg(x,y)、ブレ等によって広がった点像の情報である点像分布関数(PSF)をh(x,y)、ノイズをn(x,y)とすると、これらの間には、次の関係がある。
In S80, deconvolution is performed.
Here, image restoration will be described.
As a method of bringing an image deteriorated due to image blurring or the like closer to an ideal image with little deterioration, there is a method called image restoration.
Now, (x, y) is a position coordinate on the screen, an image when there is no blur (hereinafter referred to as an original image) is f (x, y), and an image degraded by blur (hereinafter referred to as a degraded image) is g. Assuming that (x, y), the point spread function (PSF), which is information of a point spread spread by blurring, is h (x, y) and noise is n (x, y), There is a relationship.

ここで、点像分布関数h(x,y)とノイズn(x,y)が分かっていれば、コンボリューションの逆演算であるデコンボリューションを行うことにより、劣化画像g(x,y)から元画像f(x,y)が得られる。
S90では、得られた回復画像を保存する。なお、回復画像の他に、撮影画像を併せて保存することもできる。
Here, if the point spread function h (x, y) and the noise n (x, y) are known, the deconvolution, which is the inverse operation of the convolution, is performed, so that the degraded image g (x, y) is obtained. An original image f (x, y) is obtained.
In S90, the obtained restored image is stored. In addition to the recovered image, the captured image can also be saved.

以上の説明は、AFモードとしてSモードが選択されている場合であるので、次に、AFモードとしてCモードが選択されている場合について説明する。
AFモードとしてCモードが選択されている場合には、レリーズスイッチ5が全押しされる直前まで、AFエリア21が重なっている被写体に合焦させるように動作する。従って、Cモードが選択されている場合には、撮影画像中の主要被写体は、撮影時にAFエリア21が重なる位置にあると想定することが適当である。そこで、AFエリア情報取得部13は、Cモードが選択されている場合には、撮影時にAFエリア21が重なる位置に主要被写体が存在するものとして、その情報をPSF演算部14へ伝える。
Since the above description is a case where the S mode is selected as the AF mode, a case where the C mode is selected as the AF mode will be described next.
When the C mode is selected as the AF mode, it operates to focus on the subject on which the AF area 21 overlaps until immediately before the release switch 5 is fully pressed. Therefore, when the C mode is selected, it is appropriate to assume that the main subject in the captured image is in a position where the AF area 21 overlaps at the time of shooting. Therefore, when the C mode is selected, the AF area information acquisition unit 13 notifies the PSF calculation unit 14 of the information on the assumption that the main subject exists at a position where the AF area 21 overlaps at the time of shooting.

以上の説明では、簡単のためAFエリア21が撮影画面の中央に1カ所設けられているものとして説明を行ったが、本実施形態のカメラには、撮影画面の中央以外にも、撮影画面中の複数の位置にAFエリア21が配置されている。
図8は、第1実施形態のカメラ10のAFエリア21の分布を示す図である。
図8に示す例では、9カ所のAFエリア21が配置されている。本実施形態のカメラでは、この9カ所のAFエリア21の中から、撮影者が選択したり、カメラが自動的に選んだりして決めた1つのエリアを使用してAF動作を行う。なお、撮影者が使用するAFエリア21を選択する場合には、入力部19を操作することにより行う。入力部19を操作して選択されたAFエリア21は、他のエリアと区別するために表示が他のエリアと異なるようになっている。本実施形態では、図5に示したAFエリア21aのように、表示色の変更が行われる。
In the above description, the AF area 21 is described as being provided at the center of the shooting screen for the sake of simplicity. However, the camera according to the present embodiment is not limited to the center of the shooting screen. AF areas 21 are arranged at a plurality of positions.
FIG. 8 is a diagram illustrating the distribution of the AF area 21 of the camera 10 according to the first embodiment.
In the example shown in FIG. 8, nine AF areas 21 are arranged. In the camera of the present embodiment, the AF operation is performed using one area selected by the photographer or automatically selected from the nine AF areas 21. Note that the AF area 21 used by the photographer is selected by operating the input unit 19. The AF area 21 selected by operating the input unit 19 is displayed differently from other areas in order to be distinguished from other areas. In the present embodiment, the display color is changed as in the AF area 21a shown in FIG.

また、上述した説明では、AFエリア情報取得部13が自動的に主要被写体の位置を特定するものとして説明したが、図3のS20において、AFエリア情報取得部13が特定した主要被写体位置を表示し、その位置を撮影者が入力部19を操作することにより修正することもできる。
さらに、AFエリア情報取得部13を動作させずに、入力部19を操作することにより、PSFの演算に使用する位置を指定することもできる。
なお、これら入力部19を使用して、PSFの演算に使用する位置の修正や指定を行うときには、選択メニュー等を用いて別途設定を行うことにより実現される。
このように入力部19を使用してPSFの演算に使用する位置を指定したり修正したりできるので、撮影者の意図がより正確に反映され、良好な回復画像を得られる確率が高くなる。
In the above description, the AF area information acquisition unit 13 automatically specifies the position of the main subject. However, in S20 of FIG. 3, the main subject position specified by the AF area information acquisition unit 13 is displayed. Then, the photographer can correct the position by operating the input unit 19.
Further, by operating the input unit 19 without operating the AF area information acquisition unit 13, the position used for the PSF calculation can also be designated.
When the position used for the PSF calculation is corrected or specified using these input units 19, it is realized by making a separate setting using a selection menu or the like.
Since the position used for the PSF calculation can be specified or corrected using the input unit 19 in this way, the photographer's intention is reflected more accurately, and the probability that a good recovered image can be obtained increases.

本実施形態によれば、AF動作に使用したAFエリア21の情報を利用して主要被写体の位置を特定し、その位置に対してPSFを演算するとともに、参照領域のPSFを求め、撮影画像の回転ブレを補正するので、光学的なブレ補正機構のみでは補正しきれない撮影光軸まわりの回転ブレを補正できる。したがって、ピッチング、ヨーイングおよびローリングで発生する像ブレを補正できる。
また、画面のPSFからボケの成分を除去して回復を行うため、ボケはそのまま保たれ、撮影者の意図通りの画像になる。
さらに、光学的なブレ補正機構では補正不可能なカメラの並進運動により発生する像ブレについても、画像回復によって補正できる。
According to the present embodiment, the position of the main subject is specified using the information of the AF area 21 used for the AF operation, the PSF is calculated for the position, the PSF of the reference area is obtained, and the captured image Since the rotational blur is corrected, it is possible to correct the rotational blur around the photographing optical axis that cannot be corrected only by the optical blur correction mechanism. Therefore, it is possible to correct image blurring that occurs during pitching, yawing and rolling.
In addition, since the blur component is removed from the PSF on the screen and the recovery is performed, the blur is kept as it is, and an image as intended by the photographer is obtained.
Furthermore, image blur caused by translational movement of the camera that cannot be corrected by an optical blur correction mechanism can be corrected by image restoration.

(第2実施形態)
図9は、第2実施形態のカメラ20の概要を示すブロック図である。
なお、前述した第1実施形態と同様の機能を果たす部分には、同一の符号を付して、重複する説明を適宜省略する。
第2実施形態のカメラシステムは、カメラ20と、コンピュータ100にインストールされるプログラムとを有している。
第2実施形態のカメラ20は、第1実施形態のカメラ10が備えているPSF演算部14,デコンボリューション実行部16,回復画像取得部17を備えていない。
また、第2実施形態のカメラ20に設けられているAFエリア情報取得部13は、第1実施形態の場合と同様にして撮影画像中の主要被写体の位置を特定する。そして、その主要被写体の位置に関する情報は、撮影画像取得部15が有する撮影画像のデータに追加されて、データ保存部18により保存される。
(Second Embodiment)
FIG. 9 is a block diagram showing an outline of the camera 20 of the second embodiment.
In addition, the same code | symbol is attached | subjected to the part which fulfill | performs the same function as 1st Embodiment mentioned above, and the overlapping description is abbreviate | omitted suitably.
The camera system of the second embodiment has a camera 20 and a program installed in the computer 100.
The camera 20 of the second embodiment does not include the PSF calculation unit 14, the deconvolution execution unit 16, and the recovered image acquisition unit 17 that are included in the camera 10 of the first embodiment.
Further, the AF area information acquisition unit 13 provided in the camera 20 of the second embodiment specifies the position of the main subject in the captured image in the same manner as in the first embodiment. Information regarding the position of the main subject is added to the captured image data of the captured image acquisition unit 15 and stored by the data storage unit 18.

さらに、第2実施形態のコンピュータ100にインストールされるプログラムには、コンピュータ100にインストールすることにより、コンピュータ100を以下のように動作させるプログラムが含まれている。
第2実施形態のカメラシステムに含まれるプログラムは、データ保存部18により保存された、主要被写体の位置に関する情報が追加された撮影画像データを、コンピュータ100に入力できるようにする。なお、データ保存部18により保存されたデータをコンピュータ100へ入力する方法は、メモリカードを介してもよいし、カメラ20とコンピュータ100とを有線又は無線により通信可能として行ってもよいし、各種ネットワークを介して行ってもよい。また、データ保存部18により保存されたデータは、複製が可能であるから、メモリカード以外の記憶媒体、例えば、記録ディスク媒体等を介してコンピュータ100に入力してもよい。
Furthermore, the programs installed in the computer 100 according to the second embodiment include programs that cause the computer 100 to operate as follows by being installed in the computer 100.
The program included in the camera system of the second embodiment allows the captured image data, which is stored by the data storage unit 18 and to which information related to the position of the main subject is added, to be input to the computer 100. In addition, the method of inputting the data stored in the data storage unit 18 to the computer 100 may be via a memory card, the camera 20 and the computer 100 may be communicable by wire or wireless, You may carry out via a network. Further, since the data stored by the data storage unit 18 can be duplicated, it may be input to the computer 100 via a storage medium other than a memory card, such as a recording disk medium.

さらに、第2実施形態のカメラシステムに含まれるプログラムは、第1実施形態におけるPSF演算部14,デコンボリューション実行部16,回復画像取得部17と同様な動作をコンピュータ100に行わせるようにする。
そして、上記プログラムがインストールされたコンピュータ100は、入力された撮影画像データに対して、同時に得た主要被写体の位置情報を参照して、主要被写体領域、及び、参照領域のPSFを求め、回転成分を演算し、各位置のPSFを演算し、デコンボリューションにより画像回復演算を行い、回復画像を得る。
光軸まわりの回転に起因する回転ブレを回復する画像回復演算は、演算量が膨大であることから、コンピュータ100を利用することにより、より高速に演算を行うことができる。また、コンピュータ100を利用することにより、画像回復演算の条件設定等をより細かく行うこともできる。
Furthermore, the program included in the camera system of the second embodiment causes the computer 100 to perform the same operations as the PSF calculation unit 14, the deconvolution execution unit 16, and the recovered image acquisition unit 17 in the first embodiment.
The computer 100 in which the program is installed obtains the main subject area and the PSF of the reference area by referring to the position information of the main subject obtained at the same time with respect to the input captured image data, and the rotation component. , The PSF at each position is calculated, and image restoration is performed by deconvolution to obtain a restored image.
Since the image restoration calculation for recovering the rotational blur caused by the rotation around the optical axis is enormous, the calculation can be performed at higher speed by using the computer 100. In addition, by using the computer 100, it is possible to set the condition for image restoration calculation more precisely.

(変形形態)
以上説明した実施形態に限定されることなく、種々の変形や変更が可能であって、それらも本発明の均等の範囲内である。
(1)第1実施形態において、AFエリア情報取得部13は、AFロック時に仮保存しておいたAFロック時の画像と撮影画像とを比較して、AFロック時にAFエリア21が重なっていた被写体が撮影画像の中のいずれの位置にあるのかを特定する例を示したが、これに限らず、例えば、AFエリア情報取得部13は、AFロック時にAFエリアと重なる位置にある被写体を認識し、撮影時までこの被写体の位置を逐次更新して撮影画像内における被写体の位置を特定するように構成してもよい。この構成は、撮影動作前にカメラ背面などに設けられた表示装置に撮像素子により得た画像を表示し続けるいわゆるスルー表示画に使用する画像データを利用すれば、多くの部品等を追加することなく実現できる。
(Deformation)
The present invention is not limited to the embodiment described above, and various modifications and changes are possible, and these are also within the equivalent scope of the present invention.
(1) In the first embodiment, the AF area information acquisition unit 13 compares the captured image with the AF locked image temporarily stored when the AF is locked, and the AF area 21 overlaps when the AF is locked. Although an example in which the subject is located in the captured image has been shown, the present invention is not limited to this. For example, the AF area information acquisition unit 13 recognizes a subject that overlaps the AF area when the AF is locked. In addition, the position of the subject may be sequentially updated until the time of photographing to specify the position of the subject in the photographed image. This configuration adds a lot of parts if image data used for a so-called through display image that continues to display an image obtained by the image sensor on a display device provided on the back of the camera or the like before shooting operation is used. Can be realized.

(2)第1実施形態において、PSF演算部14及びデコンボリューション実行部16は、画像回復を行う設定となっている場合には、常にPSFの演算及び画像回復を行う例を示したが、これに限らず、例えば、AFエリア情報取得部13が得た主要被写体の位置に像ブレがあるか否かを判断し、像ブレがある場合にのみ画像回復を行うようにしてもよい。この場合、例えば、AFエリア情報取得部13に像ブレの有無を判断する機能を追加して、このAFエリア情報取得部13から画像回復を行う旨の指示を受けた場合にのみ、PSF演算部14及びデコンボリューション実行部16が画像回復に関する処理を行うようにすればよい。 (2) In the first embodiment, when the PSF calculation unit 14 and the deconvolution execution unit 16 are set to perform image recovery, an example in which PSF calculation and image recovery are always performed has been described. For example, it may be determined whether or not there is an image blur at the position of the main subject obtained by the AF area information acquisition unit 13 and image recovery may be performed only when there is an image blur. In this case, for example, only when a function for determining the presence / absence of image blur is added to the AF area information acquisition unit 13 and an instruction to restore the image is received from the AF area information acquisition unit 13, the PSF calculation unit 14 and the deconvolution execution part 16 should just perform the process regarding image restoration.

(3)各実施形態において、特定した主要被写体の位置情報は、PSFの演算に使用する例を示したが、これに限らず、例えば、露出値の決定や、露出補正、ゲイン(感度)の変更等、他の用途に利用してもよい。 (3) In each embodiment, the position information of the identified main subject is shown as an example used for PSF calculation. However, the present invention is not limited to this. For example, exposure value determination, exposure correction, and gain (sensitivity) You may utilize for other uses, such as a change.

(4)第1実施形態において、データ保存部18は、撮影画像、及び、回復画像を保存する例を示したが、この場合において、特定した主要被写体の位置情報を撮影画像に対して追加してもよいし、主要被写体の位置情報、演算されたPSFに関する情報等を回復画像に追加してもよい。 (4) In the first embodiment, the data storage unit 18 has shown an example of storing a captured image and a recovered image. In this case, the position information of the identified main subject is added to the captured image. Alternatively, position information of the main subject, information on the calculated PSF, and the like may be added to the recovered image.

(5)第2実施形態において、プログラムをインストールしたコンピュータ100を用いて画像回復を行う例を示したが、これに限らず、例えば、PSF演算部14,デコンボリューション実行部16,回復画像取得部17と同様な動作が可能な画像回復専用の装置を用いてもよい。また、そのような装置を写真プリント業者等の店舗や拠点事業所等に設置して、撮影者が記録媒体や通信手段を介して主要被写体位置に関する情報が追加された撮影画像データを渡し、当該業者が画像回復処理を行ったり、その結果得られた回復画像を記録媒体に記録したりプリントしたりしてもよい。 (5) In the second embodiment, an example in which image restoration is performed using the computer 100 in which the program is installed has been described. However, the present invention is not limited to this. For example, the PSF calculation unit 14, the deconvolution execution unit 16, and the restored image acquisition unit An apparatus dedicated to image restoration that can perform the same operation as that of the image 17 may be used. In addition, such a device is installed in a store such as a photo print company, a base office, etc., and a photographer passes photographed image data to which information on a main subject position is added via a recording medium or communication means. A trader may perform image restoration processing, or may record or print a recovered image obtained as a result on a recording medium.

(6)各実施形態において、AFエリアの情報に基づいて主要被写体の位置を決定する例を示したが、これに限らず、例えば、顔の位置を判断して主要被写体の位置を特定したり、目の位置を判断して主要被写体の位置を特定したりしてもよいし、撮影画像内の任意の領域を用いてもよい。 (6) In each embodiment, the example in which the position of the main subject is determined based on the information of the AF area has been described. However, the present invention is not limited to this. For example, the position of the main subject is determined by determining the position of the face. The position of the eye may be determined to specify the position of the main subject, or an arbitrary area in the captured image may be used.

(7)第2実施形態において、第1実施形態のカメラ10が備えているPSF演算部14,デコンボリューション実行部16,回復画像取得部17を備えていないカメラ20を用いる例を示したが、これに限らず、例えば、第1実施形態のカメラ10と同様なカメラを使用し、撮影画像のデータに主要被写体の位置に関する情報を追加してもよい。 (7) In the second embodiment, an example in which the camera 20 that does not include the PSF calculation unit 14, the deconvolution execution unit 16, and the recovery image acquisition unit 17 included in the camera 10 of the first embodiment has been shown. For example, a camera similar to the camera 10 of the first embodiment may be used, and information regarding the position of the main subject may be added to the captured image data.

第1実施形態によるカメラ10の光学的ブレ補正機構を説明する図である。It is a figure explaining the optical blurring correction mechanism of the camera 10 by 1st Embodiment. 第1実施形態のカメラ10の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the camera 10 of 1st Embodiment. 本実施形態のカメラ10において、Sモードが選択されている場合の動作の流れを示すフローチャートである。6 is a flowchart showing an operation flow when an S mode is selected in the camera 10 of the present embodiment. 図3に示したフローチャートにおけるステップ10の撮影動作を詳細に示すフローチャートである。It is a flowchart which shows in detail the imaging | photography operation | movement of step 10 in the flowchart shown in FIG. Sモードが選択されている場合のAFエリア情報取得部13の動作を説明する図である。It is a figure explaining operation | movement of AF area information acquisition part 13 when S mode is selected. PSFを2次元上に模式的に表した図である。It is the figure which represented PSF typically on two dimensions. 本実施形態のカメラが行うPSF演算の順序を示す図である。It is a figure which shows the order of the PSF calculation which the camera of this embodiment performs. 第1実施形態のカメラ10のAFエリア21の分布を示す図である。It is a figure which shows distribution of AF area 21 of the camera 10 of 1st Embodiment. 第2実施形態のカメラ20の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the camera 20 of 2nd Embodiment.

符号の説明Explanation of symbols

10,20:カメラ、13:AFエリア情報取得部、14:PSF演算部、16:デコンボリューション実行部、19:入力部   10, 20: Camera, 13: AF area information acquisition unit, 14: PSF calculation unit, 16: Deconvolution execution unit, 19: Input unit

Claims (12)

撮影画像内の合焦した被写体が含まれる第1の領域、及び、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算部と、
前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分を演算する成分演算部とを含むことを特徴とする検出装置。
A point spread function calculation unit that calculates a point spread function for a first region including a focused subject in the photographed image and a second region different from the first region in the photographed image. When,
Using the point spread function of the first area and the second area, a state of defocus in the photographed image is detected, and a blur component included in the photographed image different from the focus deviation And a component calculation unit that calculates the above.
請求項1に記載された検出装置であって、前記ブレ成分は、撮影光軸まわりの回転ブレを含むことを特徴とする検出装置。   The detection apparatus according to claim 1, wherein the blur component includes rotational blur around a photographing optical axis. 請求項1又は請求項2に記載された検出装置であって、
前記成分演算部は、前記第1の領域及び前記第2の領域の前記点像分布関数を用いて前記合焦ずれを除去した後、前記ブレ成分を演算することを特徴とする検出装置。
The detection device according to claim 1 or 2,
The component calculation unit calculates the blur component after removing the in-focus shift using the point spread function of the first region and the second region.
請求項1から請求項3までの何れか1項に記載された検出装置と、
前記検出装置により検出された前記ブレ成分を除去する画像回復演算部とを含むことを特徴とする補正装置。
A detection device according to any one of claims 1 to 3,
And a correction unit that removes the blur component detected by the detection unit.
請求項4に記載された補正装置において、
前記第1の領域及び前記第2の領域の前記点像分布関数から前記回転ブレ成分を演算する回転成分演算部と、
前記回転成分演算部が演算した前記回転ブレ成分を用いて、前記点像分布関数を前記撮影画像内の前記第1の領域及び前記第2の領域以外の領域の点像分布関数に換算する換算部と、
前記換算部により換算された前記点像分布関数を用いて前記撮影画像に含まれる前記回転ブレ成分を除去して画像回復を行う画像演算部とを含むことを特徴とする補正装置。
The correction device according to claim 4,
A rotation component calculation unit that calculates the rotation blur component from the point spread function of the first region and the second region;
Conversion for converting the point spread function into a point spread function in a region other than the first region and the second region in the photographed image, using the rotation blur component calculated by the rotation component calculation unit. And
A correction apparatus comprising: an image calculation unit that recovers an image by removing the rotational blur component included in the photographed image using the point spread function converted by the conversion unit.
請求項1から請求項5までの何れか1項に記載の補正装置において、
前記点像分布関数演算部は、前記第2の領域を2カ所用いて演算を行うこと、
を特徴とする補正装置。
In the correction device according to any one of claims 1 to 5,
The point spread function calculation unit performs calculation using the second region in two places;
A correction device characterized by the above.
請求項4から請求項6までの何れか1項に記載された補正装置を含むこと、
を特徴とするカメラ。
Including the correction device according to any one of claims 4 to 6,
Camera characterized by.
請求項7に記載されたカメラであって、
前記点像分布関数演算部は、撮影画面内に設定された焦点検出領域に対応する領域を前記第1の領域とすること、
を特徴とするカメラ。
The camera according to claim 7, wherein
The point spread function calculation unit sets a region corresponding to a focus detection region set in a photographing screen as the first region;
Camera characterized by.
撮影画像、及び、前記撮影画像内の第1の領域に関する情報が入力される入力部と、
前記第1の領域、及び、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算部と、
前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分を演算する成分演算部と、
前記成分を除去する画像回復演算部とを含むことを特徴とする補正装置。
An input unit for inputting information regarding the captured image and the first region in the captured image;
A point spread function calculation unit for calculating a point spread function for the first area and a second area different from the first area in the captured image;
Using the point spread function of the first area and the second area, a state of defocus in the photographed image is detected, and a blur component included in the photographed image different from the focus deviation A component calculation unit for calculating
And a correction device that removes the component.
請求項9に記載された補正装置であって、前記ブレ成分は、撮影光軸まわりの回転ブレを含むことを特徴とする補正装置。   The correction apparatus according to claim 9, wherein the blur component includes rotational blur around a photographing optical axis. コンピュータを、
撮影画像、及び、前記撮影画像内の第1の領域に関する情報が入力される入力手段と、
前記第1の領域、前記撮影画像内の前記第1の領域とは異なる第2の領域について、点像分布関数を演算する点像分布関数演算手段と、
前記第1の領域及び前記第2の領域の前記点像分布関数を用いて、前記撮影画像内における合焦ずれの状態を検出し、前記合焦ずれとは異なる前記撮影画像に含まれるブレ成分を演算する成分演算手段と、
前記成分を除去する画像回復演算手段として機能させるためのプログラム。
Computer
Input means for inputting information relating to the photographed image and the first region in the photographed image;
Point spread function calculation means for calculating a point spread function for the first area and a second area different from the first area in the captured image;
Using the point spread function of the first area and the second area, a state of defocus in the photographed image is detected, and a blur component included in the photographed image different from the focus deviation Component computing means for computing
A program for functioning as an image restoration calculating means for removing the component.
請求項11に記載されたプログラムであって、前記ブレ成分は、撮影光軸まわりの回転ブレを含むことを特徴とするプログラム。   12. The program according to claim 11, wherein the blur component includes rotational blur around a photographing optical axis.
JP2006234653A 2006-08-30 2006-08-30 Detection device, correction device, camera and program Pending JP2008058546A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006234653A JP2008058546A (en) 2006-08-30 2006-08-30 Detection device, correction device, camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006234653A JP2008058546A (en) 2006-08-30 2006-08-30 Detection device, correction device, camera and program

Publications (1)

Publication Number Publication Date
JP2008058546A true JP2008058546A (en) 2008-03-13

Family

ID=39241368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006234653A Pending JP2008058546A (en) 2006-08-30 2006-08-30 Detection device, correction device, camera and program

Country Status (1)

Country Link
JP (1) JP2008058546A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253936A (en) * 2008-04-11 2009-10-29 Nikon Corp Imaging device, image selection method, and program
JP2010239189A (en) * 2009-03-30 2010-10-21 Nikon Corp Photographing device and image processor
WO2011077659A1 (en) * 2009-12-22 2011-06-30 パナソニック株式会社 Image processing device, imaging device, and image processing method
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
KR101106382B1 (en) 2009-01-28 2012-01-17 가부시끼가이샤 도시바 Image recording device and manufacturing apparatus of image recording device
US20120057072A1 (en) * 2010-09-06 2012-03-08 Canon Kabushiki Kaisha Focus adjustment apparatus and image capturing apparatus
US8315455B2 (en) 2008-11-07 2012-11-20 Seiko Epson Corporation Robot system, robot control device and method for controlling robot

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253936A (en) * 2008-04-11 2009-10-29 Nikon Corp Imaging device, image selection method, and program
US8315455B2 (en) 2008-11-07 2012-11-20 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
US8666141B2 (en) 2008-11-07 2014-03-04 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
KR101106382B1 (en) 2009-01-28 2012-01-17 가부시끼가이샤 도시바 Image recording device and manufacturing apparatus of image recording device
JP2010239189A (en) * 2009-03-30 2010-10-21 Nikon Corp Photographing device and image processor
WO2011077659A1 (en) * 2009-12-22 2011-06-30 パナソニック株式会社 Image processing device, imaging device, and image processing method
JP5499050B2 (en) * 2009-12-22 2014-05-21 パナソニック株式会社 Image processing apparatus, imaging apparatus, and image processing method
US8723965B2 (en) 2009-12-22 2014-05-13 Panasonic Corporation Image processing device, imaging device, and image processing method for performing blur correction on an input picture
CN102369556A (en) * 2010-02-02 2012-03-07 松下电器产业株式会社 Imaging device and method, and image processing method for imaging device
US8553091B2 (en) 2010-02-02 2013-10-08 Panasonic Corporation Imaging device and method, and image processing method for imaging device
JP2011159159A (en) * 2010-02-02 2011-08-18 Panasonic Corp Imaging device and method, and image processing method for imaging device
WO2011096157A1 (en) * 2010-02-02 2011-08-11 パナソニック株式会社 Imaging device and method, and image processing method for imaging device
CN102369556B (en) * 2010-02-02 2014-10-29 松下电器(美国)知识产权公司 Imaging device
US8570432B2 (en) * 2010-09-06 2013-10-29 Canon Kabushiki Kaisha Focus adjustment apparatus and image capturing apparatus
US20120057072A1 (en) * 2010-09-06 2012-03-08 Canon Kabushiki Kaisha Focus adjustment apparatus and image capturing apparatus

Similar Documents

Publication Publication Date Title
JP4985062B2 (en) camera
US8212895B2 (en) Digital camera system with portrait effect
JP4874669B2 (en) Autofocus unit and digital camera
JP5096303B2 (en) Imaging device
JP2008058546A (en) Detection device, correction device, camera and program
JP2007166269A (en) Image processor, image pickup device and image processing method
JP2015004922A (en) Focus adjustment device and imaging device
JP2017067954A (en) Imaging apparatus, and image shake correction method of the same
JP6500238B2 (en) Imaging device, imaging method and imaging program
JP6529879B2 (en) Image pickup apparatus and control method of image pickup apparatus
JP2019083364A (en) Image processing device, imaging device, and control method
JP2018046543A (en) Image processor and imaging apparatus
JP5240585B2 (en) Imaging method and imaging apparatus
JP2006267220A (en) Auto focus system
WO2019188934A1 (en) Imaging device, imaging method, and program
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP2009086490A (en) Imaging apparatus
US20200311893A1 (en) Image processing apparatus with images having different in-focus positions, image pickup apparatus, image processing method, and computer readable storage medium
JP4750630B2 (en) Image processing apparatus, image processing method, program, storage medium, and imaging apparatus
JP5471917B2 (en) Imaging apparatus and image composition program
JP2018004904A (en) Subject tracking device and imaging device
JP4239954B2 (en) Camera device and focusing area control program
JP2022052532A (en) Image processing apparatus, image capturing apparatus, image capture control device and control method thereof, and program
JP5024033B2 (en) Object tracking device, object tracking program, and object tracking method
JP6604998B2 (en) Image processing apparatus, imaging apparatus, image processing apparatus control method, and program