JP6185819B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6185819B2
JP6185819B2 JP2013220212A JP2013220212A JP6185819B2 JP 6185819 B2 JP6185819 B2 JP 6185819B2 JP 2013220212 A JP2013220212 A JP 2013220212A JP 2013220212 A JP2013220212 A JP 2013220212A JP 6185819 B2 JP6185819 B2 JP 6185819B2
Authority
JP
Japan
Prior art keywords
image
image data
image processing
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013220212A
Other languages
Japanese (ja)
Other versions
JP2015082757A (en
Inventor
知教 飯田
知教 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013220212A priority Critical patent/JP6185819B2/en
Publication of JP2015082757A publication Critical patent/JP2015082757A/en
Application granted granted Critical
Publication of JP6185819B2 publication Critical patent/JP6185819B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置に関し、特にリフォーカス画像を再構成する機能を有する画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having a function of reconstructing a refocused image.

近年、電子カメラ等の撮像装置において、光の強度分布のみならず光の入射方向の情報をも取得可能な撮像装置(ライトフィールドカメラ)が提案されている。   2. Description of the Related Art In recent years, an imaging apparatus (light field camera) that can acquire not only the intensity distribution of light but also information on the incident direction of light has been proposed in an imaging apparatus such as an electronic camera.

例えば非特許文献1によれば、撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、撮像素子の複数の画素に対してひとつのマイクロレンズを対応させることで、マイクロレンズを通過した光を複数の画素によって入射方向別に取得している。   For example, according to Non-Patent Document 1, a microlens array is arranged between a photographic lens and an image sensor, and one microlens is associated with a plurality of pixels of the image sensor, thereby allowing light that has passed through the microlens. Are obtained for each incident direction by a plurality of pixels.

このように取得された画素信号(光線情報)に対して、通常の撮影画像を生成するほかに、「Light Field Photography」と呼ばれる手法を適用して、任意の像面(リフォーカス面)にピントを合わせた画像を撮影後に再構成することができる。従来のカメラであれば所望の被写体にピントが合っていない場合は撮り直す必要があったが、ライトフィールドカメラで撮影した画像信号を用いてリフォーカス面を再構成することで撮り直すことなく所望の画像が得られる。   In addition to generating a normal captured image for the pixel signal (light ray information) acquired in this way, a technique called “Light Field Photography” is applied to focus on an arbitrary image plane (refocus plane). Can be reconstructed after shooting. With conventional cameras, it was necessary to re-shoot when the desired subject was not in focus, but it was desirable without re-taking by reconstructing the refocus plane using the image signal taken with the light field camera. Images are obtained.

加えて特許文献1では、マイクロレンズアレイを動かすことにより、「Light Field Photography」技術に基づく撮影方法と通常の高解像度の撮影方法とを切り替えることが可能な撮像装置が提案されている。   In addition, Patent Document 1 proposes an imaging apparatus that can switch between an imaging method based on the “Light Field Photography” technique and a normal high-resolution imaging method by moving a microlens array.

特開2008−312080号公報JP 2008-312080 A

Ren.Ng、他7名,「Light Field Photogrphy with a Hand−Held Plenoptic Camera」,Stanford Tech Report CTSR 2005−02Ren. Ng and 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

しかしながら、上述の非特許文献1に開示された従来技術では、一つの画素データを生成するために複数の光線情報を用いる必要があるため、撮像素子の配列密度に応じた解像度の画像を生成することは困難である。また、上述の特許文献1に開示された従来技術では、解像度の高い画像の撮影はできるが、解像度の高い画像でリフォーカス処理することはできない。   However, in the conventional technique disclosed in Non-Patent Document 1 described above, since it is necessary to use a plurality of pieces of light information in order to generate one pixel data, an image with a resolution corresponding to the array density of the image sensor is generated. It is difficult. Further, with the conventional technique disclosed in Patent Document 1 described above, a high-resolution image can be taken, but refocus processing cannot be performed with a high-resolution image.

そこで、本発明の目的は、撮像素子の配列密度に応じた解像度の画像をリフォーカス処理で生成可能にした画像処理装置を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus capable of generating an image with a resolution corresponding to the array density of image sensors by refocus processing.

上記目的を達成するために、本発明によれば、画像データを処理する画像処理装置は、リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得手段と、第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得手段と、第一の画像データからリフォーカス画像を生成するリフォーカス手段と、リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換手段と、第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換手段と、第二の周波数特性の高周波数成分を抽出する抽出手段と、高周波数成分と第一の周波数特性を合成して一つの画像の周波数領域の情報を生成するする合成手段と、合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換手段とを備える。   In order to achieve the above object, according to the present invention, an image processing apparatus that processes image data includes first image data acquisition means for acquiring first image data capable of generating a refocus image, A second image data acquisition unit that acquires second image data representing a normal captured image, a refocus unit that generates a refocus image from the first image data, and a refocus image First converting means for converting the image data into first frequency characteristics that are frequency domain information, and second converting means for converting the second image data into second frequency characteristics that are frequency domain information And an extraction means for extracting the high frequency component of the second frequency characteristic, and a synthesis means for synthesizing the high frequency component and the first frequency characteristic to generate frequency domain information of one image, Zhou The information number region and a third conversion means for generating a third image data by converting the information in the spatial domain.

本発明によれば、撮像素子の配列密度に応じた解像度の画像でのリフォーカス処理を可能にする画像処理装置を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus that enables refocus processing with an image having a resolution according to the arrangement density of the imaging elements.

本発明の第1の実施例に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 1st Example of this invention. リフォーカス画像とそのボケ量の例を示す図The figure which shows the example of the refocus image and its blur amount 通常画像データの座標変換の結果の例を示す図The figure which shows the example of the result of coordinate conversion of normal image data 座標変換の例を示す図Diagram showing an example of coordinate transformation 本発明の第1の実施例に係る画像処理装置における合成の例を示す図The figure which shows the example of a synthesis | combination in the image processing apparatus which concerns on 1st Example of this invention. 本発明の実施例2に係る画像処理装置の構成を示す図FIG. 5 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment of the invention. 本発明の第2の実施例における通常画像データとその座標変換結果の例を示す図The figure which shows the example of the normal image data in the 2nd Example of this invention, and its coordinate transformation result 本発明の第3の実施例に係る画像処理装置の構成を示す図The figure which shows the structure of the image processing apparatus which concerns on 3rd Example of this invention. 本発明の第3の実施例に係る画像処理装置の撮影動作のフローチャートを示す図The figure which shows the flowchart of imaging | photography operation | movement of the image processing apparatus which concerns on 3rd Example of this invention. 本発明の第3の実施例におけるリフォーカス可能範囲と被写界深度との関係を示す図The figure which shows the relationship between the refocusable range and depth of field in the 3rd Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

以下、図1〜図5を用いて本発明の第1の実施例について説明する。   The first embodiment of the present invention will be described below with reference to FIGS.

図1に、本発明の第1の実施例に係る画像処理装置の一構成例を示す。なお、本実施例に係る画像処理装置の動作は、図示しない制御部のCPUが、制御部のメモリに記憶されたプログラムを実行することによって制御される。制御部は、画像処理装置に固有に設けられたものでも、例えば撮像装置に当該画像処理装置が適用された場合の撮像装置の制御部であってもよい。   FIG. 1 shows a configuration example of an image processing apparatus according to the first embodiment of the present invention. The operation of the image processing apparatus according to the present embodiment is controlled by a CPU of a control unit (not shown) executing a program stored in the memory of the control unit. The control unit may be a unit inherent to the image processing apparatus, or may be a control unit of the imaging apparatus when the image processing apparatus is applied to the imaging apparatus, for example.

図1において、100は画像データを処理する画像処理装置、101は光線情報データ(第一の画像データ)、102は通常の撮影画像を表わす通常画像データ(第二の画像データ)、103は出力画像データ(第三の画像データ)である。光線情報データ101は、特定の像面に焦点を合わせた画像(以下、リフォーカス画像)を生成可能な画像データである。通常画像データ102は、光線情報データ101と同一の画角で撮影された画像データである。出力画像データ103は画像処理装置100から出力される画像データである。   In FIG. 1, 100 is an image processing apparatus that processes image data, 101 is light ray information data (first image data), 102 is normal image data (second image data) representing a normal captured image, and 103 is an output. Image data (third image data). The ray information data 101 is image data that can generate an image focused on a specific image plane (hereinafter referred to as a refocus image). The normal image data 102 is image data captured at the same angle of view as the light ray information data 101. The output image data 103 is image data output from the image processing apparatus 100.

110は第一のリフォーカス処理部であり、取得した光線情報データ101(第一の画像データ取得)に対してリフォーカス処理を行い、リフォーカス画像を出力する。リフォーカス処理する際の焦点位置(リフォーカス位置)は、ボタン等で構成される操作部を通じてユーザーの所望する位置を入力しても良いし、予め決められた位置としても良い。   A first refocus processing unit 110 performs a refocus process on the acquired light ray information data 101 (first image data acquisition), and outputs a refocus image. The focus position (refocus position) at the time of the refocus process may be a position desired by the user through an operation unit constituted by buttons or the like, or may be a predetermined position.

111は第一の座標変換部であり、取得した通常画像データ102(第二の画像データ取得)を周波数領域のデータ(以下、第二の周波数特性)へと変換する(第二の変換手段)。   Reference numeral 111 denotes a first coordinate conversion unit that converts the acquired normal image data 102 (second image data acquisition) into frequency domain data (hereinafter referred to as second frequency characteristics) (second conversion means). .

112は第二の座標変換部であり、リフォーカス画像を周波数領域のデータ(以下、第一の周波数特性)へと変換する(第一の変換手段)。第二の座標変換部112は、第一の座標変換部111と同じ変換方法を用いる。そのため、図示するように第一の座標変換部111と第二の座標変換部112を分けて構成しても良いし、第一の座標変換部111と第二の座標変換部112を一つの構成とし、時分割で処理をしても良い。   Reference numeral 112 denotes a second coordinate conversion unit that converts the refocused image into frequency domain data (hereinafter referred to as first frequency characteristic) (first conversion means). The second coordinate conversion unit 112 uses the same conversion method as the first coordinate conversion unit 111. Therefore, as illustrated, the first coordinate conversion unit 111 and the second coordinate conversion unit 112 may be configured separately, or the first coordinate conversion unit 111 and the second coordinate conversion unit 112 may be configured as one. And processing may be performed in a time-sharing manner.

113はボケ量算出部であり、リフォーカス画像のボケ量を算出する。なお、ボケ量算出は、リフォーカス画像を複数のブロックに分割し、ブロック毎にボケ量を算出することで行う。ここで、ボケ量とは焦点のズレ量(デフォーカス量)のことであり、例えば光線情報データ101と第一のリフォーカス処理部110でリフォーカス処理した焦点位置を用いて算出可能である(デフォーカス量算出手段)。ただし、本実施例は、このボケ量の算出方法に限定されるものではない。   A blur amount calculation unit 113 calculates the blur amount of the refocus image. The blur amount calculation is performed by dividing the refocus image into a plurality of blocks and calculating the blur amount for each block. Here, the blur amount is a focus shift amount (defocus amount), and can be calculated using, for example, the light beam information data 101 and the focus position refocused by the first refocus processing unit 110 ( Defocus amount calculation means). However, the present embodiment is not limited to this blur amount calculation method.

114は第一の高周波成分抽出部であり、第二の周波数特性とリフォーカス画像のボケ量とから通常画像データの特定の空間領域における高周波数成分(以下、通常高周波成分)を抽出する。   Reference numeral 114 denotes a first high-frequency component extraction unit that extracts a high-frequency component (hereinafter, referred to as a normal high-frequency component) in a specific spatial region of normal image data from the second frequency characteristic and the blur amount of the refocused image.

115は合成部であり、リフォーカス周波数特性と通常高周波成分とを合成する。116は第三の座標変換部であり、合成部115の処理結果を空間領域のデータへと変換する(第三の変換手段)。第三の座標変換部116の変換方法は、第一の座標変換部111および第二の座標変換部112の変換方法の逆変換である。第三の座標変換部116の出力が出力画像データ103である。   Reference numeral 115 denotes a synthesis unit that synthesizes the refocus frequency characteristic and the normal high frequency component. Reference numeral 116 denotes a third coordinate conversion unit that converts the processing result of the synthesis unit 115 into data in the spatial domain (third conversion means). The conversion method of the third coordinate conversion unit 116 is an inverse conversion of the conversion method of the first coordinate conversion unit 111 and the second coordinate conversion unit 112. The output of the third coordinate conversion unit 116 is output image data 103.

次に、本実施例に係る画像処理装置の動作の詳細を図2〜図5を用いて説明する。なお、以下の説明では、第一の座標変換部111および第二の座標変換部112は座標変換方法として離散ウェーブレット変換を用い、また第三の座標変換部116は座標変換方法として逆離散ウェーブレット変換を用いるものとして説明する。   Next, details of the operation of the image processing apparatus according to the present embodiment will be described with reference to FIGS. In the following description, the first coordinate transformation unit 111 and the second coordinate transformation unit 112 use discrete wavelet transformation as a coordinate transformation method, and the third coordinate transformation unit 116 uses inverse discrete wavelet transformation as a coordinate transformation method. It is assumed that

第一のリフォーカス処理部110の出力結果の例を図2(a)に、その場合のボケ量算出部113の出力結果の例を図2(b)に示す。   An example of the output result of the first refocus processing unit 110 is shown in FIG. 2A, and an example of the output result of the blur amount calculation unit 113 in that case is shown in FIG.

図2(a)は第一のリフォーカス処理部110で生成されたリフォーカス画像の例である。図において、210、211、212はリフォーカス画像の画角内にいる被写体であり、当該リフォーカス画像は被写体210に焦点を合わせて生成した画像である。なお、本実施例では光線情報データを、撮影した撮像装置からの距離が、被写体210 < 被写体211 < 被写体212の関係になっているとする。   FIG. 2A is an example of a refocus image generated by the first refocus processing unit 110. In the figure, reference numerals 210, 211, and 212 are subjects that are within the angle of view of the refocus image, and the refocus image is an image generated by focusing on the subject 210. In this embodiment, it is assumed that the distance from the imaging device that captured the light ray information data has a relationship of subject 210 <subject 211 <subject 212.

図2(b)は、図2(a)のリフォーカス画像に対して、ボケ量算出部113がボケ量を算出した結果の例を示す図である。図2(b)に示す例は、図2(a)のリフォーカス画像を3x4のブロック(以下、Bブロック)に分割し、ブロック毎にボケ量を算出した場合の例である。なお、リフォーカス画像の分割数は画像処理装置100の演算能力やフレームレート等の制限に応じて適宜決めて良い。   FIG. 2B is a diagram illustrating an example of a result of calculating the blur amount by the blur amount calculation unit 113 with respect to the refocus image in FIG. The example shown in FIG. 2B is an example in which the refocus image in FIG. 2A is divided into 3 × 4 blocks (hereinafter referred to as B blocks), and the amount of blur is calculated for each block. Note that the number of divisions of the refocus image may be determined as appropriate according to limitations on the calculation capability, frame rate, and the like of the image processing apparatus 100.

図2(b)において、221は分割された1つのBブロックであり、230、231,232は、被写体210、211、212を含むBブロックにおけるボケ量を示す。図2(a)のリフォーカス画像は被写体210に焦点を合わせた画像であるので、ボケ量は、ボケ量230 < ボケ量231 <ボケ量232の関係を有する。ここで、ボケ量230、231、232に含まれないBブロックのボケ量はボケ量232よりも大きい。   In FIG. 2B, 221 is one divided B block, and 230, 231, and 232 indicate the amount of blur in the B block including the subjects 210, 211, and 212. Since the refocus image in FIG. 2A is an image focused on the subject 210, the amount of blur has a relationship of blur amount 230 <blur amount 231 <blur amount 232. Here, the blur amount of the B block not included in the blur amounts 230, 231, and 232 is larger than the blur amount 232.

図3(a)は、第一の座標変換部111の出力結果の一例を、図3(b)は第一の高周波成分抽出部114の出力結果の一例を示す。   3A shows an example of the output result of the first coordinate conversion unit 111, and FIG. 3B shows an example of the output result of the first high frequency component extraction unit 114.

図において、300は通常画像データ102を離散ウェーブレット変換で2ステージ分割した例である。任意の画像に対する離散ウェーブレット変換のnステージ目(nは自然数)の分割結果をLLn、LHn、HLn、HHnと表現する。LLnは水平方向の低周波成分と垂直方向の低周波成分、LHnは水平方向の低周波成分と垂直方向の高周波成分、HLnは水平方向の高周波成分と垂直方向の低周波成分、HHnは水平方向の高周波成分と垂直方向の高周波成分をそれぞれ抽出した結果を示す。n+1ステージ目の分割はLLnにのみ実施し、nステージ目と同様に、LL(n+1)、LH(n+1)、HL(n+1)、HH(n+1)を生成する。   In the figure, 300 is an example in which the normal image data 102 is divided into two stages by discrete wavelet transform. The division result of the nth stage (n is a natural number) of the discrete wavelet transform for an arbitrary image is expressed as LLn, LHn, HLn, HHn. LLn is a horizontal low frequency component and a vertical low frequency component, LHn is a horizontal low frequency component and a vertical high frequency component, HLn is a horizontal high frequency component and a vertical low frequency component, and HHn is a horizontal direction. The results of extracting the high-frequency component and the high-frequency component in the vertical direction are shown. The division of the (n + 1) th stage is performed only on the LLn, and LL (n + 1), LH (n + 1), HL (n + 1), and HH (n + 1) are generated as in the nth stage.

図3に示す出力結果での各成分の配置は、図4に示す各成分の配置に従っている。図4における411、412、413は、1ステージでの分割結果を示し、420、421、422、423は2ステージでの分割結果を示す。また、310は図2(b)で示したボケ量に基づいて、出力結果300の一部の高周波数成分のみを抽出した結果である。ボケ量のより小さいBブロックに対応する箇所の高周波数成分を抽出対象とする。本実施例では、領域420以外の領域を高周波数成分とし、ボケ量230、231、232に基づいて、領域420以外の領域からさらに一部の高周波数成分を抽出した。具体的には、ある閾値m(mは自然数)よりもボケ量が大きい領域はmステージ目以下の分割結果から削除する、という処理を行う。図3(b)に示す高周波成分の抽出結果は、ボケ量230 < 閾値1(1ステージ目) < ボケ量231 < 閾値2(2ステージ目) < ボケ量232 であるとして抽出処理を行った例である。図3(b)に示すように、ボケ量231に該当する領域は1ステージ目の分割結果から情報を削除し、ボケ量232に該当する領域は1ステージ目、および2ステージ目の分割結果から情報を削除した。   The arrangement of each component in the output result shown in FIG. 3 follows the arrangement of each component shown in FIG. In FIG. 4, 411, 412, and 413 indicate division results in one stage, and 420, 421, 422, and 423 indicate division results in two stages. 310 is a result of extracting only a part of the high frequency components of the output result 300 based on the blur amount shown in FIG. A high frequency component at a location corresponding to a B block having a smaller blur amount is set as an extraction target. In the present embodiment, regions other than the region 420 are set as high frequency components, and some high frequency components are further extracted from regions other than the region 420 based on the blur amounts 230, 231, and 232. Specifically, a process is performed in which an area where the amount of blur is larger than a certain threshold value m (m is a natural number) is deleted from the division results after the mth stage. The extraction result of the high-frequency component shown in FIG. 3B is an example in which extraction processing is performed assuming that blur amount 230 <threshold 1 (first stage) <blur amount 231 <threshold 2 (second stage) <blur amount 232. It is. As shown in FIG. 3B, the area corresponding to the blur amount 231 is deleted from the division result of the first stage, and the area corresponding to the blur amount 232 is determined from the division result of the first stage and the second stage. Information was deleted.

合成部115の出力結果の一例を図5に示す。図において、500は第二の座標変換部112で、リフォーカス画像に対して0ステージ分割した結果である。リフォーカス画像の解像度は出力結果300の領域420の解像度と同一となるように、出力結果500に対してアップサンプリング、ダウンサンプリング等の処理を施しても良い。合成部115では、図5に示すように第一の高周波成分抽出部114の出力結果310の低周波成分を第二の座標変換部112の出力結果500に置き換える処理を行う。   An example of the output result of the synthesis unit 115 is shown in FIG. In the figure, reference numeral 500 denotes a result obtained by dividing the refocus image into 0 stages by the second coordinate conversion unit 112. The output result 500 may be subjected to processing such as upsampling and downsampling so that the resolution of the refocus image is the same as the resolution of the region 420 of the output result 300. In the synthesizing unit 115, as shown in FIG. 5, the low frequency component of the output result 310 of the first high frequency component extracting unit 114 is replaced with the output result 500 of the second coordinate converting unit 112.

以上のように、本実施例では、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102からリフォーカス画像のデフォーカス量に応じて高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。   As described above, in this embodiment, when a refocus image is generated from the ray information data 101, a high frequency component is generated according to the defocus amount of the refocus image from the normal image data 102 captured at the same angle of view. Is extracted and combined with the refocused image. This makes it possible to focus on a specific position and generate a refocus image having the same resolution as that of the normal image data 102.

以上で説明した第1の実施例では、第一の座標変換部111は本実施例では離散ウェーブレット変換を用いて説明したが、これに限定するものではない。例えば、離散フーリエ変換を用いる等、その他の座標変換手段であっても良い。離散フーリエ変換のような変換後に空間の情報が残らない座標変換をする際は、光線情報データ101および通常画像データ102を複数のブロックに分割し、ブロック単位で処理を行ってもよい。光線情報データ101を複数のブロックに分割する際に、光線情報データ101を通常画像データ102のサイズにまでアップサンプリングしてもよい。   In the first embodiment described above, the first coordinate conversion unit 111 is described using the discrete wavelet transform in this embodiment, but the present invention is not limited to this. For example, other coordinate conversion means such as discrete Fourier transform may be used. When performing coordinate transformation that does not leave spatial information after transformation, such as discrete Fourier transformation, the ray information data 101 and the normal image data 102 may be divided into a plurality of blocks and processed in units of blocks. When the light ray information data 101 is divided into a plurality of blocks, the light ray information data 101 may be upsampled to the size of the normal image data 102.

次に、図6および7を参照して本発明の第2の実施例について説明する。第1の実施例ではリフォーカス画像のボケ量に応じて通常画像データの高周波成分の抽出領域を決めていたが、本実施例では、高周波成分を抽出した領域に応じて、光線情報データからリフォーカス画像を生成する時のリフォーカス位置を設定する構成とする。この場合、抽出領域はユーザーの設定などで指定する。   Next, a second embodiment of the present invention will be described with reference to FIGS. In the first embodiment, the extraction region of the high-frequency component of the normal image data is determined according to the blur amount of the refocus image. However, in this embodiment, the re-image is extracted from the ray information data according to the region where the high-frequency component is extracted. A refocus position for generating a focus image is set. In this case, the extraction area is specified by a user setting or the like.

図6は、本発明の第2の実施例に係る画像処理装置の構成の一例を示す図である。図の600が本実施例に係る画像処理装置である。なお、同図において、第1の実施例と同様の部分は、同じ符号を付し、特に必要がない限りここでの説明を省略する。   FIG. 6 is a diagram showing an example of the configuration of the image processing apparatus according to the second embodiment of the present invention. Reference numeral 600 in FIG. 1 denotes an image processing apparatus according to this embodiment. In the figure, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted unless particularly necessary.

図6において、614は本実施例における第二の高周波成分抽出部であり、通常画像データの特定の空間領域における高周波数成分を抽出し、抽出した領域の情報を後述する第二のリフォーカス処理部610に与える。高周波数成分を抽出する領域は、ボタン等で構成される操作部を通じてユーザーの所望値を入力しても良いし、予め決められた位置を用いても良い。ユーザーの所望値は、例えば通常画像データ102に対してフォーカスを合わせたい場所を選択してもらうことで得ることができる。   In FIG. 6, reference numeral 614 denotes a second high-frequency component extraction unit in the present embodiment, which extracts high-frequency components in a specific spatial region of normal image data and performs second refocus processing described later on information on the extracted region. Part 610. As a region for extracting a high frequency component, a user's desired value may be input through an operation unit including buttons or a predetermined position may be used. The user's desired value can be obtained by, for example, selecting a place where the normal image data 102 is desired to be focused.

610は本実施例における第二のリフォーカス処理部であり、光線情報データ101に対してリフォーカス処理を行い、リフォーカス画像を出力する。リフォーカス処理する際の焦点位置は、第二の高周波成分抽出部614の高周波成分の抽出結果から決定することができる。具体的には、高周波成分が抽出されている空間領域に対してフォーカスが合うようにリフォーカス位置を選択する。なお、リフォーカス位置の決定方法はこれに限るものではない。例えば、高周波数成分を抽出する際に、ユーザーがフォーカスを合わせたい場所を入力している場合は、その場所をリフォーカス位置として用いても良い。   Reference numeral 610 denotes a second refocus processing unit in the present embodiment, which performs a refocus process on the light ray information data 101 and outputs a refocus image. The focal position at the time of the refocus process can be determined from the extraction result of the high frequency component of the second high frequency component extraction unit 614. Specifically, the refocus position is selected so that the focus is on the spatial region from which the high frequency component is extracted. Note that the refocus position determination method is not limited to this. For example, when extracting a high frequency component, if the user inputs a place where the user wants to focus, that place may be used as the refocus position.

図6の画像処理装置の動作を、図7を用いてさらに詳しく説明する。なお、以下の説明では第一の座標変換部111および第二の座標変換部112は、座標変換方法として離散ウェーブレット変換を用いているものとして説明する。   The operation of the image processing apparatus in FIG. 6 will be described in more detail with reference to FIG. In the following description, the first coordinate conversion unit 111 and the second coordinate conversion unit 112 are described as those using discrete wavelet conversion as a coordinate conversion method.

図7(a)は通常画像データの例を、図7(b)は、それに対する第二の高周波数成分抽出部614の出力結果の例を示す。   FIG. 7A shows an example of normal image data, and FIG. 7B shows an example of an output result of the second high-frequency component extraction unit 614 corresponding thereto.

図7(a)の通常画像データの画角内には、図2(a)と同様に被写体210、211、212が撮影されている。本実施例では、被写体210にフォーカスを合わせるように処理を行うものとする。したがって、第二のリフォーカス処理部610でリフォーカス処理する際の焦点位置も被写体210に合わせる。   In the angle of view of the normal image data in FIG. 7A, subjects 210, 211, and 212 are photographed as in FIG. In this embodiment, it is assumed that processing is performed so that the subject 210 is focused. Accordingly, the focus position when the second refocus processing unit 610 performs the refocus processing is also adjusted to the subject 210.

図7(b)は、図7(a)を離散ウェーブレット変換で2ステージ分割した後、フォーカスを合わせる被写体210についての高周波数成分の情報のみを抽出した結果を示す。図7(b)に示すように、フォーカスを合わせる被写体以外の情報については全て削除している。なお、高周波数成分の抽出方法はこの方法に限定するものではない。例えば、通常画像データを撮影した撮像装置から被写体210、211、212の距離を考慮して処理をしても良い。また、例えば、ボケの強度を更に入力してもらい、第1の実施例と同様にして高周波数成分の抽出結果に反映しても良い。ボケ強度を高くする場合には、ピントを合わせたい場所以外の領域の高周波数成分を抽出しないといった処理をしても良い。   FIG. 7B shows a result of extracting only high frequency component information about the subject 210 to be focused after dividing the stage of FIG. 7A by the discrete wavelet transform into two stages. As shown in FIG. 7B, all information other than the subject to be focused is deleted. Note that the method of extracting the high frequency component is not limited to this method. For example, the processing may be performed in consideration of the distances of the subjects 210, 211, and 212 from the imaging device that captured the normal image data. Further, for example, the blur intensity may be further input and reflected in the extraction result of the high frequency component in the same manner as in the first embodiment. When the blur intensity is increased, a process of not extracting a high frequency component in a region other than the place where the focus is desired may be performed.

具体的には、周波数帯域毎に距離情報と関連付けられた所定の閾値を設定し、被写体距離情報と抽出領域の座標情報における深度方向の距離との差を距離差分として算出するとともに、距離差分と閾値とを比較する。そして、距離差分が閾値以上の領域に対しては、閾値が示す周波数帯域以上の高周波成分の情報を削除する。   Specifically, a predetermined threshold value associated with distance information is set for each frequency band, and the difference between the subject distance information and the distance in the depth direction in the coordinate information of the extraction region is calculated as a distance difference, and the distance difference Compare with the threshold. And the information of the high frequency component more than the frequency band which a threshold value shows is deleted with respect to the area | region whose distance difference is more than a threshold value.

以上のように、本実施例においても、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102から所望のピンと位置に応じて高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。   As described above, also in this embodiment, when a refocus image is generated from the light ray information data 101, high frequency components are extracted from the normal image data 102 photographed at the same angle of view according to a desired pin and position. And synthesized with the refocus image. This makes it possible to focus on a specific position and generate a refocus image having the same resolution as that of the normal image data 102.

以下、本発明の第3の実施例について説明する。本実施例は、例えば第1の実施例の構成が取得する通常画像データの撮影をリフォーカス可能範囲に従って制御する構成を備えることを特徴する。リフォーカス画像と合成する高周波成分を抽出するに際しては、通常画像データがリフォーカス可能範囲の全ての領域でピントが合っていることが望ましい。本実施例は、これを実現するために、撮影レンズの絞りをリフォーカス可能範囲に従って制御する構成を提供する。なお、本実施例は、画像処理装置の構成例としてレンズユニットおよび撮影部を含んだ構成を提示しているが、これらを画像処理装置が適用される装置、例えば撮像装置の構成としてもよい。本実施例の要旨は、撮影条件(撮影レンズの絞り)をリフォーカス可能範囲に従って制御するための制御情報を生成することにある。   The third embodiment of the present invention will be described below. The present embodiment is characterized in that, for example, the configuration of the first embodiment is configured to control shooting of normal image data acquired according to a refocusable range. When extracting a high-frequency component to be combined with the refocus image, it is desirable that the normal image data is in focus in all the refocusable ranges. In order to realize this, this embodiment provides a configuration for controlling the aperture of the photographing lens in accordance with the refocusable range. In the present embodiment, a configuration including a lens unit and a photographing unit is presented as a configuration example of the image processing device, but these may be configured as a device to which the image processing device is applied, for example, an imaging device. The gist of the present embodiment is to generate control information for controlling the photographing condition (the photographing lens aperture) in accordance with the refocusable range.

図8は、本実施例に係る画像処理装置の構成の一例を示す図である。なお、同図において第1の実施例と同様の部分は同じ符号を付して示し、必要のない限りその説明を省略する。   FIG. 8 is a diagram illustrating an example of the configuration of the image processing apparatus according to the present embodiment. In the figure, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted unless necessary.

図において、800は本実施例における画像処理装置である。810は撮影光学系を構成するレンズユニット部、811は光線制御部であり、レンズユニット部810のフォーカスを合わせる距離(以下、フォーカス点)を変更すると共に、レンズユニット部810に入力される光量を絞りにより制限する。   In the figure, reference numeral 800 denotes an image processing apparatus in this embodiment. Reference numeral 810 denotes a lens unit that constitutes the photographing optical system, and reference numeral 811 denotes a light beam control unit. The lens unit 810 changes the focusing distance (hereinafter referred to as a focus point) and changes the amount of light input to the lens unit 810. Limit by aperture.

820は光線情報撮影部、822は通常画像撮影部である。光線情報撮影部820は、レンズ部810から出力される光を受けて、光線情報データ101を生成、出力する。通常画像撮影部822は、光線制御部811を制御すると共に、レンズ部810から出力される光を受けて、通常画像データ102を生成、出力する。   Reference numeral 820 denotes a light beam information photographing unit, and reference numeral 822 denotes a normal image photographing unit. The light ray information photographing unit 820 receives the light output from the lens unit 810 and generates and outputs light ray information data 101. The normal image capturing unit 822 controls the light beam control unit 811 and receives the light output from the lens unit 810 to generate and output normal image data 102.

821は、リフォーカス可能範囲算出部であり、光線情報データ101から光線情報データ101でリフォーカスすることができる深度方向の範囲を算出し、出力する。823は被写界深度算出部であり、通常画像撮影部822で撮影される画像の被写界深度を算出、出力する。   Reference numeral 821 denotes a refocusable range calculation unit that calculates a range in the depth direction that can be refocused with the light ray information data 101 from the light ray information data 101 and outputs it. Reference numeral 823 denotes a depth-of-field calculating unit that calculates and outputs the depth of field of an image captured by the normal image capturing unit 822.

830は第一のリフォーカス処理部であり、光線情報データ101に対してリフォーカス処理を行い、リフォーカス処理した画像を出力する。第一のリフォーカス処理部830でのリフォーカスを可能とする範囲(以下、リフォーカス許容範囲)は、リフォーカス可能範囲算出部821および被写界深度算出部823の出力を受けて決定する。リフォーカス処理する際の焦点位置は、ボタン等で構成される操作部を通じてユーザーの所望する位置を入力しても良いし、予め決められた位置としても良い。   Reference numeral 830 denotes a first refocus processing unit that performs refocus processing on the light ray information data 101 and outputs a refocused image. A range in which refocusing is possible in the first refocus processing unit 830 (hereinafter, refocus allowable range) is determined by receiving outputs from the refocusable range calculation unit 821 and the depth of field calculation unit 823. As the focus position for the refocus processing, a position desired by the user may be input through an operation unit including buttons or the like, or may be a predetermined position.

次に、画像処理装置800における撮影動作を図9のフローチャートを用いて説明する。   Next, the photographing operation in the image processing apparatus 800 will be described using the flowchart of FIG.

ステップS901は、光線情報撮影部820が光線情報データ101を生成して出力するステップである。ステップS902は、リフォーカス可能範囲撮影部821が光線情報データ101のリフォーカス可能範囲を算出するステップである。   Step S901 is a step in which the light ray information photographing unit 820 generates and outputs the light ray information data 101. Step S902 is a step in which the refocusable range photographing unit 821 calculates the refocusable range of the light ray information data 101.

ステップS903は、通常画像撮影部822が、リフォーカス可能範囲と光線制御部811より得られるフォーカス距離とから絞り値(以下、F値)を算出するステップである。ステップS904は、通常画像撮影部822がステップS903で算出されたF値で通常画像データ102の撮影を行うステップである。   Step S903 is a step in which the normal image photographing unit 822 calculates an aperture value (hereinafter, F value) from the refocusable range and the focus distance obtained from the light beam control unit 811. Step S904 is a step in which the normal image capturing unit 822 captures the normal image data 102 with the F value calculated in step S903.

ここで、第一のリフォーカス処理部830でリフォーカス許容範囲を設定する方法について図10を用いて説明する。   Here, a method of setting the refocus allowable range in the first refocus processing unit 830 will be described with reference to FIG.

図10は、画像処理装置800からの距離を横軸にとった場合のリフォーカス可能範囲および通常画像データ102の被写界深度、リフォーカス許容範囲の関係を表した図である。横軸の0の点は画像処理装置800の位置である。   FIG. 10 is a diagram showing the relationship between the refocusable range, the depth of field of the normal image data 102, and the refocus allowable range when the distance from the image processing apparatus 800 is taken on the horizontal axis. The zero point on the horizontal axis is the position of the image processing apparatus 800.

図10(a)はリフォーカス可能範囲よりも通常画像データ102の被写界深度が浅い場合の関係を示す図である。図8(b)は、リフォーカス可能範囲よりも通常画像データ102の被写界深度が深い場合の関係を示す図である。図において、1010、1030はレンズユニット部810のフォーカス点である。1001、1021はリフォーカス可能範囲である。1002、1022は通常画像データ102の被写界深度である。1003、1023はリフォーカス許容範囲である。   FIG. 10A is a diagram showing a relationship when the depth of field of the normal image data 102 is shallower than the refocusable range. FIG. 8B is a diagram showing a relationship when the depth of field of the normal image data 102 is deeper than the refocusable range. In the figure, reference numerals 1010 and 1030 denote focus points of the lens unit 810. Reference numerals 1001 and 1021 denote refocusable ranges. Reference numerals 1002 and 1022 denote the depth of field of the normal image data 102. Reference numerals 1003 and 1023 denote allowable refocus ranges.

図に示しているように、リフォーカス許容範囲1003、1023は“(リフォーカス可能範囲1001、1021) AND (被写界深度1002、1022)”の範囲となる。   As shown in the figure, the refocus allowable ranges 1003 and 1023 are “(refocusable range 1001 and 1021) AND (depth of field 1002 and 1022)”.

ここで、光線情報撮影部820で撮影した時のフォーカス点と、通常画像撮影部822で撮影した時のフォーカス点は同じとして説明しているが、この限りではない。それぞれのフォーカス点は異なっていても良い。ただしこの場合は、リフォーカス可能範囲1001、1021と、被写界深度1002、1022は少なくとも一部で互いに重なるように制御する必要がある。   Here, the focus point when the light information capturing unit 820 captures the image and the focus point when the normal image capturing unit 822 captures the image are described as being the same, but this is not restrictive. Each focus point may be different. In this case, however, the refocusable ranges 1001 and 1021 and the depths of field 1002 and 1022 need to be controlled so as to overlap each other at least partially.

また、リフォーカス後の被写界深度については上記説明では考慮していないが、これを考慮して出力画像103として生成可能なリフォーカス可能範囲を設定しても良い。   Further, although the depth of field after refocusing is not considered in the above description, a refocusable range that can be generated as the output image 103 may be set in consideration of this.

以上説明した本実施例では、光線情報データ101のリフォーカス可能範囲の結果を受けて、通常画像データ102の撮影時の光線を光線制御部811で制御したが、この限りではない。例えば、通常画像データ102の被写界深度を被写界深度算出部823で算出した後、この結果を受けて、光線情報撮影部820が光線制御部811を通じて撮影時の光線を制御しても良い。   In the present embodiment described above, the light beam at the time of shooting the normal image data 102 is controlled by the light beam controller 811 in response to the result of the refocusable range of the light beam information data 101, but this is not restrictive. For example, after the depth of field of the normal image data 102 is calculated by the depth of field calculation unit 823, the light information photographing unit 820 controls the light beam at the time of photographing through the light ray control unit 811 in response to this result. good.

また、本実施例では、被写界深度を得る方法として、通常画像撮影部822で撮影される画像を基に算出したが、この限りではない。通常画像撮影部822で撮影した際の光線制御部811の状態を用いて算出しても良い。   In this embodiment, the method for obtaining the depth of field is calculated based on an image photographed by the normal image photographing unit 822, but the present invention is not limited to this. The calculation may be performed using the state of the light beam control unit 811 when the normal image capturing unit 822 captures an image.

なお、本実施例は、第1の実施例の画像処理装置の構成に基づいたリフォーカス画像の生成構成を有しているが、第2の実施例の画像処理装置のリフォーカス画像の生成構成を有していてもよい。   Although the present embodiment has a refocus image generation configuration based on the configuration of the image processing apparatus of the first embodiment, the refocus image generation configuration of the image processing apparatus of the second embodiment. You may have.

以上のように、本実施例においても、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102から高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。   As described above, also in this embodiment, when a refocus image is generated from the light ray information data 101, a high frequency component is extracted from the normal image data 102 photographed at the same angle of view and synthesized with the refocus image. doing. This makes it possible to focus on a specific position and generate a refocus image having the same resolution as that of the normal image data 102.

本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても達成される。すなわち、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても本件発明の目的が達成されることは言うまでもない。   The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that the object of the present invention can also be achieved when the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行うことによっても前述した実施形態の機能が実現される。この場合も本件発明に含まれることは言うまでもない。   In addition, the functions of the above-described embodiment can also be realized when an OS (basic system or operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. Realized. Needless to say, this case is also included in the present invention.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づく処理も本件発明に含まれる。すなわち、機能拡張ボードや機能拡張ユニットに備わるCPU等がプログラムコードの指示に基づき実際の処理の一部又は全部を行って前述した実施形態の機能を実現する場合も本件発明に含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the processing based on the instruction of the program code is also performed. Included in the invention. That is, it goes without saying that the present invention also includes the case where the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code to realize the functions of the above-described embodiment. Yes.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

Claims (20)

画像データを処理する画像処理装置において、
リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得手段と、
前記第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得手段と、
前記第一の画像データからリフォーカス画像を生成するリフォーカス手段と、
前記リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換手段と、
前記第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換手段と、
前記第二の周波数特性の高周波数成分を抽出する抽出手段と、
前記高周波数成分と前記第一の周波数特性を合成して一つの画像の周波数領域の情報を生成する合成手段と、
前記合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes image data,
First image data acquisition means for acquiring first image data capable of generating a refocus image;
Second image data acquisition means for acquiring second image data representing a normal captured image corresponding to the first image data;
Refocusing means for generating a refocused image from the first image data;
First conversion means for converting the image data of the refocused image into a first frequency characteristic which is information in a frequency domain;
Second conversion means for converting the second image data into a second frequency characteristic which is information of a frequency domain;
Extraction means for extracting a high frequency component of the second frequency characteristic;
A synthesizing unit that synthesizes the high frequency component and the first frequency characteristic to generate information of a frequency region of one image;
An image processing apparatus comprising: a third conversion unit configured to convert the synthesized frequency domain information into spatial domain information to generate third image data.
前記抽出手段は、前記第一の周波数特性で示される周波数帯域以上の高周波数成分を前記第二の周波数特性から抽出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the extraction unit extracts, from the second frequency characteristic, a high frequency component that is equal to or higher than a frequency band indicated by the first frequency characteristic. 前記リフォーカス画像のデフォーカス量を算出するデフォーカス量算出手段をさらに備え、前記抽出手段は、前記デフォーカス量に従って高周波成分を前記第二の周波数特性から抽出することを特徴とする請求項1または2に記載の画像処理装置。   The defocus amount calculation means for calculating the defocus amount of the refocus image is further provided, and the extraction means extracts a high frequency component from the second frequency characteristic according to the defocus amount. Or the image processing apparatus of 2. 前記抽出手段は、周波数帯域毎にデフォーカス量と関連付けられた所定の閾値とデフォーカス量とを比較し、前記デフォーカス量が前記閾値以上の場合は、前記閾値が示す周波数帯域以上の高周波数成分を、前記デフォーカス量に対応する領域から削除することを特徴とする請求項3に記載の画像処理装置。   The extraction means compares the defocus amount with a predetermined threshold associated with the defocus amount for each frequency band, and when the defocus amount is equal to or greater than the threshold, a high frequency equal to or greater than the frequency band indicated by the threshold The image processing apparatus according to claim 3, wherein a component is deleted from an area corresponding to the defocus amount. 前記デフォーカス量算出手段は、前記リフォーカス画像を複数のブロックに分割して前記ブロック毎にデフォーカス量を算出し、前記抽出手段は、ブロック単位で前記高周波成分を削除することを特徴とする請求項3または4に記載の画像処理装置。   The defocus amount calculating unit divides the refocus image into a plurality of blocks to calculate a defocus amount for each block, and the extracting unit deletes the high frequency component in units of blocks. The image processing apparatus according to claim 3 or 4. 前記抽出手段は、前記高周波成分を抽出した空間領域の情報を出力し、前記リフォーカス手段は、前記情報に従って前記空間領域に焦点が合うように前記第一の画像データからリフォーカス画像を生成することを特徴とする請求項1または2に記載の画像処理装置。   The extraction unit outputs information on a spatial region from which the high-frequency component has been extracted, and the refocusing unit generates a refocus image from the first image data so that the spatial region is focused according to the information. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記空間領域の座標情報を入力する入力手段をさらに備え、前記抽出手段は、前記座標情報に従って前記高周波成分を抽出することを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, further comprising an input unit that inputs coordinate information of the spatial region, wherein the extraction unit extracts the high-frequency component in accordance with the coordinate information. 前記抽出手段は、前記第二の画像データの被写体の距離情報である被写体距離情報を取得し、前記座標情報と前記被写体距離情報とに基づいて高周波成分を抽出することを特徴とする請求項7に記載の画像処理装置。   8. The extraction means acquires subject distance information, which is subject distance information of the second image data, and extracts a high-frequency component based on the coordinate information and the subject distance information. An image processing apparatus according to 1. 前記抽出手段は、前記被写体距離情報と前記座標情報における深度方向の距離との差を算出し、前記差と周波数帯域毎に距離情報と関連付けられた閾値とを比較し、前記差が前記閾値以上の領域に対して、前記閾値が示す周波数帯域以上の高周波成分の情報を削除することを特徴とする請求項8に記載の画像処理装置。   The extraction unit calculates a difference between the subject distance information and a distance in the depth direction in the coordinate information, compares the difference with a threshold value associated with distance information for each frequency band, and the difference is equal to or greater than the threshold value. The image processing apparatus according to claim 8, wherein information on a high frequency component equal to or higher than a frequency band indicated by the threshold is deleted from the region. 前記第二の画像データの被写界深度を算出する被写界深度算出手段と、
前記第一の画像データを用いてリフォーカス可能範囲を算出するリフォーカス可能範囲算出手段と、
前記リフォーカス可能範囲と前記第二の画像データのフォーカス距離とに基づいて、前記に第二の画像データの撮影条件の制御情報を生成する制御手段と
をさらに備えることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
A depth of field calculating means for calculating a depth of field of the second image data;
Refocusable range calculating means for calculating a refocusable range using the first image data;
2. The apparatus according to claim 1, further comprising: a control unit configured to generate control information on imaging conditions of the second image data based on the refocusable range and the focus distance of the second image data. The image processing device according to any one of claims 1 to 9.
前記制御手段は、前記被写界深度が前記リフォーカス可能範囲の少なくとも一部を含むように前記撮影条件を制御する制御情報を生成することを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the control unit generates control information for controlling the photographing condition so that the depth of field includes at least a part of the refocusable range. 前記制御手段は、前記リフォーカス可能範囲が前記被写界深度の少なくとも一部を含むように前記撮影条件を制御する制御情報を生成することを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the control unit generates control information for controlling the photographing condition so that the refocusable range includes at least a part of the depth of field. 前記リフォーカス手段は、前記リフォーカス可能範囲と前記被写界深度とに基づいて、前記リフォーカス可能範囲と前記被写界深度のいずれにも含まれる領域をリフォーカス許容範囲として設定することを特徴とする請求項10乃至12のいずれか一項に記載の画像処理装置。   The refocusing unit sets an area included in both the refocusable range and the depth of field as a refocus allowable range based on the refocusable range and the depth of field. The image processing apparatus according to claim 10, wherein the image processing apparatus is characterized. 前記撮影条件は、撮影光学系の絞り値であることを特徴とする請求項10乃至13のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the photographing condition is an aperture value of a photographing optical system. 前記第一の画像データと前記第二の画像データは同一の画角の画像であることを特徴とする請求項1乃至14のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first image data and the second image data are images having the same angle of view. 画像データを処理するための画像処理方法において、
リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得ステップと、
前記第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得ステップと、
前記第一の画像データからリフォーカス画像を生成するリフォーカスステップと、
前記リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換ステップと、
前記第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換ステップと、
前記第二の周波数特性の高周波数成分を抽出する抽出ステップと、
前記高周波数成分と前記第一の周波数特性を合成して一つの画像の周波数領域の情報を生成する合成ステップと、
前記合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換ステップと
を備えることを特徴とする画像処理方法。
In an image processing method for processing image data,
A first image data acquisition step of acquiring first image data capable of generating a refocus image;
A second image data acquisition step corresponding to the first image data and acquiring second image data representing a normal captured image;
A refocusing step for generating a refocused image from the first image data;
A first conversion step of converting the image data of the refocused image into a first frequency characteristic which is information of a frequency domain;
A second conversion step of converting the second image data into a second frequency characteristic which is frequency domain information;
An extraction step of extracting a high frequency component of the second frequency characteristic;
A synthesis step of synthesizing the high frequency component and the first frequency characteristic to generate frequency domain information of one image;
And a third conversion step of converting the synthesized frequency domain information into spatial domain information to generate third image data.
請求項16に記載の画像処理方法をコンピュータに実行させるプログラム。   A program causing a computer to execute the image processing method according to claim 16. 請求項17に記載の画像処理方法をコンピュータに実行させるプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute the image processing method according to claim 17. コンピュータを、請求項1乃至15のいずれか一項に記載した画像処理装置の各手段として機能させるプログラム。   A program causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 15. コンピュータを、請求項1乃至15のいずれか一項に記載した画像処理装置の各手段として機能させるプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program that causes a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 15.
JP2013220212A 2013-10-23 2013-10-23 Image processing apparatus, image processing method, and program Active JP6185819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013220212A JP6185819B2 (en) 2013-10-23 2013-10-23 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013220212A JP6185819B2 (en) 2013-10-23 2013-10-23 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015082757A JP2015082757A (en) 2015-04-27
JP6185819B2 true JP6185819B2 (en) 2017-08-23

Family

ID=53013150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013220212A Active JP6185819B2 (en) 2013-10-23 2013-10-23 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6185819B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6310417B2 (en) * 2015-05-29 2018-04-11 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program
JP6310418B2 (en) * 2015-05-29 2018-04-11 日本電信電話株式会社 Image processing method, image processing apparatus, and image processing program
JP7041494B2 (en) * 2017-11-06 2022-03-24 キヤノン株式会社 Image processing device and image processing method
JP7079080B2 (en) * 2017-11-06 2022-06-01 キヤノン株式会社 Image processing device and image processing method
US11227196B2 (en) * 2017-12-22 2022-01-18 Nec Corporation Image collating device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169186A (en) * 1999-12-06 2001-06-22 Japan Science & Technology Corp Image pickup system
JP6102061B2 (en) * 2012-02-28 2017-03-29 株式会社ニコン Image processing device

Also Published As

Publication number Publication date
JP2015082757A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5797016B2 (en) Image processing apparatus, image processing method, and program
JP5725975B2 (en) Imaging apparatus and imaging method
US11037310B2 (en) Image processing device, image processing method, and image processing program
JP6548367B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP6185819B2 (en) Image processing apparatus, image processing method, and program
CN102369722B (en) Camera head and image capture method and the image processing method for described camera head
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2012003233A (en) Image processing device, image processing method and program
US8947585B2 (en) Image capturing apparatus, image processing method, and storage medium
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2014057181A (en) Image processor, imaging apparatus, image processing method and image processing program
JP2014153890A5 (en)
JP2014082533A (en) Image processing apparatus, image processing method and program
US10715723B2 (en) Image processing apparatus, image acquisition system, image processing method, and image processing program
JP6513941B2 (en) Image processing method, image processing apparatus and program
JP2008099025A (en) Apparatus and method for taking image, and blur correction method
CN114390219B (en) Shooting method, shooting device, electronic equipment and storage medium
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6478587B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP5553862B2 (en) Image pickup apparatus and image pickup apparatus control method
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6566800B2 (en) Imaging apparatus and imaging method
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2014110442A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170728

R151 Written notification of patent or utility model registration

Ref document number: 6185819

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151