JP6185819B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6185819B2 JP6185819B2 JP2013220212A JP2013220212A JP6185819B2 JP 6185819 B2 JP6185819 B2 JP 6185819B2 JP 2013220212 A JP2013220212 A JP 2013220212A JP 2013220212 A JP2013220212 A JP 2013220212A JP 6185819 B2 JP6185819 B2 JP 6185819B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- image processing
- processing apparatus
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims 4
- 238000006243 chemical reaction Methods 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
Images
Description
本発明は、画像処理装置に関し、特にリフォーカス画像を再構成する機能を有する画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having a function of reconstructing a refocused image.
近年、電子カメラ等の撮像装置において、光の強度分布のみならず光の入射方向の情報をも取得可能な撮像装置(ライトフィールドカメラ)が提案されている。 2. Description of the Related Art In recent years, an imaging apparatus (light field camera) that can acquire not only the intensity distribution of light but also information on the incident direction of light has been proposed in an imaging apparatus such as an electronic camera.
例えば非特許文献1によれば、撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、撮像素子の複数の画素に対してひとつのマイクロレンズを対応させることで、マイクロレンズを通過した光を複数の画素によって入射方向別に取得している。
For example, according to Non-Patent
このように取得された画素信号(光線情報)に対して、通常の撮影画像を生成するほかに、「Light Field Photography」と呼ばれる手法を適用して、任意の像面(リフォーカス面)にピントを合わせた画像を撮影後に再構成することができる。従来のカメラであれば所望の被写体にピントが合っていない場合は撮り直す必要があったが、ライトフィールドカメラで撮影した画像信号を用いてリフォーカス面を再構成することで撮り直すことなく所望の画像が得られる。 In addition to generating a normal captured image for the pixel signal (light ray information) acquired in this way, a technique called “Light Field Photography” is applied to focus on an arbitrary image plane (refocus plane). Can be reconstructed after shooting. With conventional cameras, it was necessary to re-shoot when the desired subject was not in focus, but it was desirable without re-taking by reconstructing the refocus plane using the image signal taken with the light field camera. Images are obtained.
加えて特許文献1では、マイクロレンズアレイを動かすことにより、「Light Field Photography」技術に基づく撮影方法と通常の高解像度の撮影方法とを切り替えることが可能な撮像装置が提案されている。
In addition,
しかしながら、上述の非特許文献1に開示された従来技術では、一つの画素データを生成するために複数の光線情報を用いる必要があるため、撮像素子の配列密度に応じた解像度の画像を生成することは困難である。また、上述の特許文献1に開示された従来技術では、解像度の高い画像の撮影はできるが、解像度の高い画像でリフォーカス処理することはできない。
However, in the conventional technique disclosed in Non-Patent
そこで、本発明の目的は、撮像素子の配列密度に応じた解像度の画像をリフォーカス処理で生成可能にした画像処理装置を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus capable of generating an image with a resolution corresponding to the array density of image sensors by refocus processing.
上記目的を達成するために、本発明によれば、画像データを処理する画像処理装置は、リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得手段と、第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得手段と、第一の画像データからリフォーカス画像を生成するリフォーカス手段と、リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換手段と、第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換手段と、第二の周波数特性の高周波数成分を抽出する抽出手段と、高周波数成分と第一の周波数特性を合成して一つの画像の周波数領域の情報を生成するする合成手段と、合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換手段とを備える。 In order to achieve the above object, according to the present invention, an image processing apparatus that processes image data includes first image data acquisition means for acquiring first image data capable of generating a refocus image, A second image data acquisition unit that acquires second image data representing a normal captured image, a refocus unit that generates a refocus image from the first image data, and a refocus image First converting means for converting the image data into first frequency characteristics that are frequency domain information, and second converting means for converting the second image data into second frequency characteristics that are frequency domain information And an extraction means for extracting the high frequency component of the second frequency characteristic, and a synthesis means for synthesizing the high frequency component and the first frequency characteristic to generate frequency domain information of one image, Zhou The information number region and a third conversion means for generating a third image data by converting the information in the spatial domain.
本発明によれば、撮像素子の配列密度に応じた解像度の画像でのリフォーカス処理を可能にする画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that enables refocus processing with an image having a resolution according to the arrangement density of the imaging elements.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
以下、図1〜図5を用いて本発明の第1の実施例について説明する。 The first embodiment of the present invention will be described below with reference to FIGS.
図1に、本発明の第1の実施例に係る画像処理装置の一構成例を示す。なお、本実施例に係る画像処理装置の動作は、図示しない制御部のCPUが、制御部のメモリに記憶されたプログラムを実行することによって制御される。制御部は、画像処理装置に固有に設けられたものでも、例えば撮像装置に当該画像処理装置が適用された場合の撮像装置の制御部であってもよい。 FIG. 1 shows a configuration example of an image processing apparatus according to the first embodiment of the present invention. The operation of the image processing apparatus according to the present embodiment is controlled by a CPU of a control unit (not shown) executing a program stored in the memory of the control unit. The control unit may be a unit inherent to the image processing apparatus, or may be a control unit of the imaging apparatus when the image processing apparatus is applied to the imaging apparatus, for example.
図1において、100は画像データを処理する画像処理装置、101は光線情報データ(第一の画像データ)、102は通常の撮影画像を表わす通常画像データ(第二の画像データ)、103は出力画像データ(第三の画像データ)である。光線情報データ101は、特定の像面に焦点を合わせた画像(以下、リフォーカス画像)を生成可能な画像データである。通常画像データ102は、光線情報データ101と同一の画角で撮影された画像データである。出力画像データ103は画像処理装置100から出力される画像データである。
In FIG. 1, 100 is an image processing apparatus that processes image data, 101 is light ray information data (first image data), 102 is normal image data (second image data) representing a normal captured image, and 103 is an output. Image data (third image data). The
110は第一のリフォーカス処理部であり、取得した光線情報データ101(第一の画像データ取得)に対してリフォーカス処理を行い、リフォーカス画像を出力する。リフォーカス処理する際の焦点位置(リフォーカス位置)は、ボタン等で構成される操作部を通じてユーザーの所望する位置を入力しても良いし、予め決められた位置としても良い。
A first
111は第一の座標変換部であり、取得した通常画像データ102(第二の画像データ取得)を周波数領域のデータ(以下、第二の周波数特性)へと変換する(第二の変換手段)。 Reference numeral 111 denotes a first coordinate conversion unit that converts the acquired normal image data 102 (second image data acquisition) into frequency domain data (hereinafter referred to as second frequency characteristics) (second conversion means). .
112は第二の座標変換部であり、リフォーカス画像を周波数領域のデータ(以下、第一の周波数特性)へと変換する(第一の変換手段)。第二の座標変換部112は、第一の座標変換部111と同じ変換方法を用いる。そのため、図示するように第一の座標変換部111と第二の座標変換部112を分けて構成しても良いし、第一の座標変換部111と第二の座標変換部112を一つの構成とし、時分割で処理をしても良い。
113はボケ量算出部であり、リフォーカス画像のボケ量を算出する。なお、ボケ量算出は、リフォーカス画像を複数のブロックに分割し、ブロック毎にボケ量を算出することで行う。ここで、ボケ量とは焦点のズレ量(デフォーカス量)のことであり、例えば光線情報データ101と第一のリフォーカス処理部110でリフォーカス処理した焦点位置を用いて算出可能である(デフォーカス量算出手段)。ただし、本実施例は、このボケ量の算出方法に限定されるものではない。
A blur amount calculation unit 113 calculates the blur amount of the refocus image. The blur amount calculation is performed by dividing the refocus image into a plurality of blocks and calculating the blur amount for each block. Here, the blur amount is a focus shift amount (defocus amount), and can be calculated using, for example, the light
114は第一の高周波成分抽出部であり、第二の周波数特性とリフォーカス画像のボケ量とから通常画像データの特定の空間領域における高周波数成分(以下、通常高周波成分)を抽出する。 Reference numeral 114 denotes a first high-frequency component extraction unit that extracts a high-frequency component (hereinafter, referred to as a normal high-frequency component) in a specific spatial region of normal image data from the second frequency characteristic and the blur amount of the refocused image.
115は合成部であり、リフォーカス周波数特性と通常高周波成分とを合成する。116は第三の座標変換部であり、合成部115の処理結果を空間領域のデータへと変換する(第三の変換手段)。第三の座標変換部116の変換方法は、第一の座標変換部111および第二の座標変換部112の変換方法の逆変換である。第三の座標変換部116の出力が出力画像データ103である。
Reference numeral 115 denotes a synthesis unit that synthesizes the refocus frequency characteristic and the normal high frequency component.
次に、本実施例に係る画像処理装置の動作の詳細を図2〜図5を用いて説明する。なお、以下の説明では、第一の座標変換部111および第二の座標変換部112は座標変換方法として離散ウェーブレット変換を用い、また第三の座標変換部116は座標変換方法として逆離散ウェーブレット変換を用いるものとして説明する。
Next, details of the operation of the image processing apparatus according to the present embodiment will be described with reference to FIGS. In the following description, the first coordinate transformation unit 111 and the second
第一のリフォーカス処理部110の出力結果の例を図2(a)に、その場合のボケ量算出部113の出力結果の例を図2(b)に示す。
An example of the output result of the first
図2(a)は第一のリフォーカス処理部110で生成されたリフォーカス画像の例である。図において、210、211、212はリフォーカス画像の画角内にいる被写体であり、当該リフォーカス画像は被写体210に焦点を合わせて生成した画像である。なお、本実施例では光線情報データを、撮影した撮像装置からの距離が、被写体210 < 被写体211 < 被写体212の関係になっているとする。
FIG. 2A is an example of a refocus image generated by the first
図2(b)は、図2(a)のリフォーカス画像に対して、ボケ量算出部113がボケ量を算出した結果の例を示す図である。図2(b)に示す例は、図2(a)のリフォーカス画像を3x4のブロック(以下、Bブロック)に分割し、ブロック毎にボケ量を算出した場合の例である。なお、リフォーカス画像の分割数は画像処理装置100の演算能力やフレームレート等の制限に応じて適宜決めて良い。
FIG. 2B is a diagram illustrating an example of a result of calculating the blur amount by the blur amount calculation unit 113 with respect to the refocus image in FIG. The example shown in FIG. 2B is an example in which the refocus image in FIG. 2A is divided into 3 × 4 blocks (hereinafter referred to as B blocks), and the amount of blur is calculated for each block. Note that the number of divisions of the refocus image may be determined as appropriate according to limitations on the calculation capability, frame rate, and the like of the
図2(b)において、221は分割された1つのBブロックであり、230、231,232は、被写体210、211、212を含むBブロックにおけるボケ量を示す。図2(a)のリフォーカス画像は被写体210に焦点を合わせた画像であるので、ボケ量は、ボケ量230 < ボケ量231 <ボケ量232の関係を有する。ここで、ボケ量230、231、232に含まれないBブロックのボケ量はボケ量232よりも大きい。
In FIG. 2B, 221 is one divided B block, and 230, 231, and 232 indicate the amount of blur in the B block including the
図3(a)は、第一の座標変換部111の出力結果の一例を、図3(b)は第一の高周波成分抽出部114の出力結果の一例を示す。 3A shows an example of the output result of the first coordinate conversion unit 111, and FIG. 3B shows an example of the output result of the first high frequency component extraction unit 114.
図において、300は通常画像データ102を離散ウェーブレット変換で2ステージ分割した例である。任意の画像に対する離散ウェーブレット変換のnステージ目(nは自然数)の分割結果をLLn、LHn、HLn、HHnと表現する。LLnは水平方向の低周波成分と垂直方向の低周波成分、LHnは水平方向の低周波成分と垂直方向の高周波成分、HLnは水平方向の高周波成分と垂直方向の低周波成分、HHnは水平方向の高周波成分と垂直方向の高周波成分をそれぞれ抽出した結果を示す。n+1ステージ目の分割はLLnにのみ実施し、nステージ目と同様に、LL(n+1)、LH(n+1)、HL(n+1)、HH(n+1)を生成する。
In the figure, 300 is an example in which the
図3に示す出力結果での各成分の配置は、図4に示す各成分の配置に従っている。図4における411、412、413は、1ステージでの分割結果を示し、420、421、422、423は2ステージでの分割結果を示す。また、310は図2(b)で示したボケ量に基づいて、出力結果300の一部の高周波数成分のみを抽出した結果である。ボケ量のより小さいBブロックに対応する箇所の高周波数成分を抽出対象とする。本実施例では、領域420以外の領域を高周波数成分とし、ボケ量230、231、232に基づいて、領域420以外の領域からさらに一部の高周波数成分を抽出した。具体的には、ある閾値m(mは自然数)よりもボケ量が大きい領域はmステージ目以下の分割結果から削除する、という処理を行う。図3(b)に示す高周波成分の抽出結果は、ボケ量230 < 閾値1(1ステージ目) < ボケ量231 < 閾値2(2ステージ目) < ボケ量232 であるとして抽出処理を行った例である。図3(b)に示すように、ボケ量231に該当する領域は1ステージ目の分割結果から情報を削除し、ボケ量232に該当する領域は1ステージ目、および2ステージ目の分割結果から情報を削除した。
The arrangement of each component in the output result shown in FIG. 3 follows the arrangement of each component shown in FIG. In FIG. 4, 411, 412, and 413 indicate division results in one stage, and 420, 421, 422, and 423 indicate division results in two stages. 310 is a result of extracting only a part of the high frequency components of the output result 300 based on the blur amount shown in FIG. A high frequency component at a location corresponding to a B block having a smaller blur amount is set as an extraction target. In the present embodiment, regions other than the
合成部115の出力結果の一例を図5に示す。図において、500は第二の座標変換部112で、リフォーカス画像に対して0ステージ分割した結果である。リフォーカス画像の解像度は出力結果300の領域420の解像度と同一となるように、出力結果500に対してアップサンプリング、ダウンサンプリング等の処理を施しても良い。合成部115では、図5に示すように第一の高周波成分抽出部114の出力結果310の低周波成分を第二の座標変換部112の出力結果500に置き換える処理を行う。
An example of the output result of the synthesis unit 115 is shown in FIG. In the figure,
以上のように、本実施例では、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102からリフォーカス画像のデフォーカス量に応じて高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。
As described above, in this embodiment, when a refocus image is generated from the
以上で説明した第1の実施例では、第一の座標変換部111は本実施例では離散ウェーブレット変換を用いて説明したが、これに限定するものではない。例えば、離散フーリエ変換を用いる等、その他の座標変換手段であっても良い。離散フーリエ変換のような変換後に空間の情報が残らない座標変換をする際は、光線情報データ101および通常画像データ102を複数のブロックに分割し、ブロック単位で処理を行ってもよい。光線情報データ101を複数のブロックに分割する際に、光線情報データ101を通常画像データ102のサイズにまでアップサンプリングしてもよい。
In the first embodiment described above, the first coordinate conversion unit 111 is described using the discrete wavelet transform in this embodiment, but the present invention is not limited to this. For example, other coordinate conversion means such as discrete Fourier transform may be used. When performing coordinate transformation that does not leave spatial information after transformation, such as discrete Fourier transformation, the
次に、図6および7を参照して本発明の第2の実施例について説明する。第1の実施例ではリフォーカス画像のボケ量に応じて通常画像データの高周波成分の抽出領域を決めていたが、本実施例では、高周波成分を抽出した領域に応じて、光線情報データからリフォーカス画像を生成する時のリフォーカス位置を設定する構成とする。この場合、抽出領域はユーザーの設定などで指定する。 Next, a second embodiment of the present invention will be described with reference to FIGS. In the first embodiment, the extraction region of the high-frequency component of the normal image data is determined according to the blur amount of the refocus image. However, in this embodiment, the re-image is extracted from the ray information data according to the region where the high-frequency component is extracted. A refocus position for generating a focus image is set. In this case, the extraction area is specified by a user setting or the like.
図6は、本発明の第2の実施例に係る画像処理装置の構成の一例を示す図である。図の600が本実施例に係る画像処理装置である。なお、同図において、第1の実施例と同様の部分は、同じ符号を付し、特に必要がない限りここでの説明を省略する。
FIG. 6 is a diagram showing an example of the configuration of the image processing apparatus according to the second embodiment of the present invention.
図6において、614は本実施例における第二の高周波成分抽出部であり、通常画像データの特定の空間領域における高周波数成分を抽出し、抽出した領域の情報を後述する第二のリフォーカス処理部610に与える。高周波数成分を抽出する領域は、ボタン等で構成される操作部を通じてユーザーの所望値を入力しても良いし、予め決められた位置を用いても良い。ユーザーの所望値は、例えば通常画像データ102に対してフォーカスを合わせたい場所を選択してもらうことで得ることができる。
In FIG. 6, reference numeral 614 denotes a second high-frequency component extraction unit in the present embodiment, which extracts high-frequency components in a specific spatial region of normal image data and performs second refocus processing described later on information on the extracted region.
610は本実施例における第二のリフォーカス処理部であり、光線情報データ101に対してリフォーカス処理を行い、リフォーカス画像を出力する。リフォーカス処理する際の焦点位置は、第二の高周波成分抽出部614の高周波成分の抽出結果から決定することができる。具体的には、高周波成分が抽出されている空間領域に対してフォーカスが合うようにリフォーカス位置を選択する。なお、リフォーカス位置の決定方法はこれに限るものではない。例えば、高周波数成分を抽出する際に、ユーザーがフォーカスを合わせたい場所を入力している場合は、その場所をリフォーカス位置として用いても良い。
図6の画像処理装置の動作を、図7を用いてさらに詳しく説明する。なお、以下の説明では第一の座標変換部111および第二の座標変換部112は、座標変換方法として離散ウェーブレット変換を用いているものとして説明する。
The operation of the image processing apparatus in FIG. 6 will be described in more detail with reference to FIG. In the following description, the first coordinate conversion unit 111 and the second coordinate
図7(a)は通常画像データの例を、図7(b)は、それに対する第二の高周波数成分抽出部614の出力結果の例を示す。 FIG. 7A shows an example of normal image data, and FIG. 7B shows an example of an output result of the second high-frequency component extraction unit 614 corresponding thereto.
図7(a)の通常画像データの画角内には、図2(a)と同様に被写体210、211、212が撮影されている。本実施例では、被写体210にフォーカスを合わせるように処理を行うものとする。したがって、第二のリフォーカス処理部610でリフォーカス処理する際の焦点位置も被写体210に合わせる。
In the angle of view of the normal image data in FIG. 7A, subjects 210, 211, and 212 are photographed as in FIG. In this embodiment, it is assumed that processing is performed so that the subject 210 is focused. Accordingly, the focus position when the second
図7(b)は、図7(a)を離散ウェーブレット変換で2ステージ分割した後、フォーカスを合わせる被写体210についての高周波数成分の情報のみを抽出した結果を示す。図7(b)に示すように、フォーカスを合わせる被写体以外の情報については全て削除している。なお、高周波数成分の抽出方法はこの方法に限定するものではない。例えば、通常画像データを撮影した撮像装置から被写体210、211、212の距離を考慮して処理をしても良い。また、例えば、ボケの強度を更に入力してもらい、第1の実施例と同様にして高周波数成分の抽出結果に反映しても良い。ボケ強度を高くする場合には、ピントを合わせたい場所以外の領域の高周波数成分を抽出しないといった処理をしても良い。
FIG. 7B shows a result of extracting only high frequency component information about the subject 210 to be focused after dividing the stage of FIG. 7A by the discrete wavelet transform into two stages. As shown in FIG. 7B, all information other than the subject to be focused is deleted. Note that the method of extracting the high frequency component is not limited to this method. For example, the processing may be performed in consideration of the distances of the
具体的には、周波数帯域毎に距離情報と関連付けられた所定の閾値を設定し、被写体距離情報と抽出領域の座標情報における深度方向の距離との差を距離差分として算出するとともに、距離差分と閾値とを比較する。そして、距離差分が閾値以上の領域に対しては、閾値が示す周波数帯域以上の高周波成分の情報を削除する。 Specifically, a predetermined threshold value associated with distance information is set for each frequency band, and the difference between the subject distance information and the distance in the depth direction in the coordinate information of the extraction region is calculated as a distance difference, and the distance difference Compare with the threshold. And the information of the high frequency component more than the frequency band which a threshold value shows is deleted with respect to the area | region whose distance difference is more than a threshold value.
以上のように、本実施例においても、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102から所望のピンと位置に応じて高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。
As described above, also in this embodiment, when a refocus image is generated from the light
以下、本発明の第3の実施例について説明する。本実施例は、例えば第1の実施例の構成が取得する通常画像データの撮影をリフォーカス可能範囲に従って制御する構成を備えることを特徴する。リフォーカス画像と合成する高周波成分を抽出するに際しては、通常画像データがリフォーカス可能範囲の全ての領域でピントが合っていることが望ましい。本実施例は、これを実現するために、撮影レンズの絞りをリフォーカス可能範囲に従って制御する構成を提供する。なお、本実施例は、画像処理装置の構成例としてレンズユニットおよび撮影部を含んだ構成を提示しているが、これらを画像処理装置が適用される装置、例えば撮像装置の構成としてもよい。本実施例の要旨は、撮影条件(撮影レンズの絞り)をリフォーカス可能範囲に従って制御するための制御情報を生成することにある。 The third embodiment of the present invention will be described below. The present embodiment is characterized in that, for example, the configuration of the first embodiment is configured to control shooting of normal image data acquired according to a refocusable range. When extracting a high-frequency component to be combined with the refocus image, it is desirable that the normal image data is in focus in all the refocusable ranges. In order to realize this, this embodiment provides a configuration for controlling the aperture of the photographing lens in accordance with the refocusable range. In the present embodiment, a configuration including a lens unit and a photographing unit is presented as a configuration example of the image processing device, but these may be configured as a device to which the image processing device is applied, for example, an imaging device. The gist of the present embodiment is to generate control information for controlling the photographing condition (the photographing lens aperture) in accordance with the refocusable range.
図8は、本実施例に係る画像処理装置の構成の一例を示す図である。なお、同図において第1の実施例と同様の部分は同じ符号を付して示し、必要のない限りその説明を省略する。 FIG. 8 is a diagram illustrating an example of the configuration of the image processing apparatus according to the present embodiment. In the figure, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted unless necessary.
図において、800は本実施例における画像処理装置である。810は撮影光学系を構成するレンズユニット部、811は光線制御部であり、レンズユニット部810のフォーカスを合わせる距離(以下、フォーカス点)を変更すると共に、レンズユニット部810に入力される光量を絞りにより制限する。
In the figure,
820は光線情報撮影部、822は通常画像撮影部である。光線情報撮影部820は、レンズ部810から出力される光を受けて、光線情報データ101を生成、出力する。通常画像撮影部822は、光線制御部811を制御すると共に、レンズ部810から出力される光を受けて、通常画像データ102を生成、出力する。
821は、リフォーカス可能範囲算出部であり、光線情報データ101から光線情報データ101でリフォーカスすることができる深度方向の範囲を算出し、出力する。823は被写界深度算出部であり、通常画像撮影部822で撮影される画像の被写界深度を算出、出力する。
830は第一のリフォーカス処理部であり、光線情報データ101に対してリフォーカス処理を行い、リフォーカス処理した画像を出力する。第一のリフォーカス処理部830でのリフォーカスを可能とする範囲(以下、リフォーカス許容範囲)は、リフォーカス可能範囲算出部821および被写界深度算出部823の出力を受けて決定する。リフォーカス処理する際の焦点位置は、ボタン等で構成される操作部を通じてユーザーの所望する位置を入力しても良いし、予め決められた位置としても良い。
Reference numeral 830 denotes a first refocus processing unit that performs refocus processing on the light
次に、画像処理装置800における撮影動作を図9のフローチャートを用いて説明する。
Next, the photographing operation in the
ステップS901は、光線情報撮影部820が光線情報データ101を生成して出力するステップである。ステップS902は、リフォーカス可能範囲撮影部821が光線情報データ101のリフォーカス可能範囲を算出するステップである。
Step S901 is a step in which the light ray
ステップS903は、通常画像撮影部822が、リフォーカス可能範囲と光線制御部811より得られるフォーカス距離とから絞り値(以下、F値)を算出するステップである。ステップS904は、通常画像撮影部822がステップS903で算出されたF値で通常画像データ102の撮影を行うステップである。
Step S903 is a step in which the normal image photographing unit 822 calculates an aperture value (hereinafter, F value) from the refocusable range and the focus distance obtained from the light beam control unit 811. Step S904 is a step in which the normal image capturing unit 822 captures the
ここで、第一のリフォーカス処理部830でリフォーカス許容範囲を設定する方法について図10を用いて説明する。 Here, a method of setting the refocus allowable range in the first refocus processing unit 830 will be described with reference to FIG.
図10は、画像処理装置800からの距離を横軸にとった場合のリフォーカス可能範囲および通常画像データ102の被写界深度、リフォーカス許容範囲の関係を表した図である。横軸の0の点は画像処理装置800の位置である。
FIG. 10 is a diagram showing the relationship between the refocusable range, the depth of field of the
図10(a)はリフォーカス可能範囲よりも通常画像データ102の被写界深度が浅い場合の関係を示す図である。図8(b)は、リフォーカス可能範囲よりも通常画像データ102の被写界深度が深い場合の関係を示す図である。図において、1010、1030はレンズユニット部810のフォーカス点である。1001、1021はリフォーカス可能範囲である。1002、1022は通常画像データ102の被写界深度である。1003、1023はリフォーカス許容範囲である。
FIG. 10A is a diagram showing a relationship when the depth of field of the
図に示しているように、リフォーカス許容範囲1003、1023は“(リフォーカス可能範囲1001、1021) AND (被写界深度1002、1022)”の範囲となる。
As shown in the figure, the refocus
ここで、光線情報撮影部820で撮影した時のフォーカス点と、通常画像撮影部822で撮影した時のフォーカス点は同じとして説明しているが、この限りではない。それぞれのフォーカス点は異なっていても良い。ただしこの場合は、リフォーカス可能範囲1001、1021と、被写界深度1002、1022は少なくとも一部で互いに重なるように制御する必要がある。
Here, the focus point when the light
また、リフォーカス後の被写界深度については上記説明では考慮していないが、これを考慮して出力画像103として生成可能なリフォーカス可能範囲を設定しても良い。
Further, although the depth of field after refocusing is not considered in the above description, a refocusable range that can be generated as the
以上説明した本実施例では、光線情報データ101のリフォーカス可能範囲の結果を受けて、通常画像データ102の撮影時の光線を光線制御部811で制御したが、この限りではない。例えば、通常画像データ102の被写界深度を被写界深度算出部823で算出した後、この結果を受けて、光線情報撮影部820が光線制御部811を通じて撮影時の光線を制御しても良い。
In the present embodiment described above, the light beam at the time of shooting the
また、本実施例では、被写界深度を得る方法として、通常画像撮影部822で撮影される画像を基に算出したが、この限りではない。通常画像撮影部822で撮影した際の光線制御部811の状態を用いて算出しても良い。 In this embodiment, the method for obtaining the depth of field is calculated based on an image photographed by the normal image photographing unit 822, but the present invention is not limited to this. The calculation may be performed using the state of the light beam control unit 811 when the normal image capturing unit 822 captures an image.
なお、本実施例は、第1の実施例の画像処理装置の構成に基づいたリフォーカス画像の生成構成を有しているが、第2の実施例の画像処理装置のリフォーカス画像の生成構成を有していてもよい。 Although the present embodiment has a refocus image generation configuration based on the configuration of the image processing apparatus of the first embodiment, the refocus image generation configuration of the image processing apparatus of the second embodiment. You may have.
以上のように、本実施例においても、光線情報データ101からリフォーカス画像を生成する際に、同一の画角で撮影された通常画像データ102から高周波数成分を抽出してリフォーカス画像と合成している。これにより、特定の位置に焦点を合わせることが可能で、かつ通常画像データ102と同一の解像度を持ったリフォーカス画像を生成すること可能となる。
As described above, also in this embodiment, when a refocus image is generated from the light
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても達成される。すなわち、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても本件発明の目的が達成されることは言うまでもない。 The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that the object of the present invention can also be achieved when the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行うことによっても前述した実施形態の機能が実現される。この場合も本件発明に含まれることは言うまでもない。 In addition, the functions of the above-described embodiment can also be realized when an OS (basic system or operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. Realized. Needless to say, this case is also included in the present invention.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づく処理も本件発明に含まれる。すなわち、機能拡張ボードや機能拡張ユニットに備わるCPU等がプログラムコードの指示に基づき実際の処理の一部又は全部を行って前述した実施形態の機能を実現する場合も本件発明に含まれることは言うまでもない。 Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the processing based on the instruction of the program code is also performed. Included in the invention. That is, it goes without saying that the present invention also includes the case where the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code to realize the functions of the above-described embodiment. Yes.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
Claims (20)
リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得手段と、
前記第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得手段と、
前記第一の画像データからリフォーカス画像を生成するリフォーカス手段と、
前記リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換手段と、
前記第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換手段と、
前記第二の周波数特性の高周波数成分を抽出する抽出手段と、
前記高周波数成分と前記第一の周波数特性を合成して一つの画像の周波数領域の情報を生成する合成手段と、
前記合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換手段と
を備えることを特徴とする画像処理装置。 In an image processing apparatus that processes image data,
First image data acquisition means for acquiring first image data capable of generating a refocus image;
Second image data acquisition means for acquiring second image data representing a normal captured image corresponding to the first image data;
Refocusing means for generating a refocused image from the first image data;
First conversion means for converting the image data of the refocused image into a first frequency characteristic which is information in a frequency domain;
Second conversion means for converting the second image data into a second frequency characteristic which is information of a frequency domain;
Extraction means for extracting a high frequency component of the second frequency characteristic;
A synthesizing unit that synthesizes the high frequency component and the first frequency characteristic to generate information of a frequency region of one image;
An image processing apparatus comprising: a third conversion unit configured to convert the synthesized frequency domain information into spatial domain information to generate third image data.
前記第一の画像データを用いてリフォーカス可能範囲を算出するリフォーカス可能範囲算出手段と、
前記リフォーカス可能範囲と前記第二の画像データのフォーカス距離とに基づいて、前記に第二の画像データの撮影条件の制御情報を生成する制御手段と
をさらに備えることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。 A depth of field calculating means for calculating a depth of field of the second image data;
Refocusable range calculating means for calculating a refocusable range using the first image data;
2. The apparatus according to claim 1, further comprising: a control unit configured to generate control information on imaging conditions of the second image data based on the refocusable range and the focus distance of the second image data. The image processing device according to any one of claims 1 to 9.
リフォーカス画像を生成可能な第一の画像データを取得する第一の画像データ取得ステップと、
前記第一の画像データに対応し、通常の撮影画像を表わす第二の画像データを取得する第二の画像データ取得ステップと、
前記第一の画像データからリフォーカス画像を生成するリフォーカスステップと、
前記リフォーカス画像の画像データを周波数領域の情報である第一の周波数特性に変換する第一の変換ステップと、
前記第二の画像データを周波数領域の情報である第二の周波数特性に変換する第二の変換ステップと、
前記第二の周波数特性の高周波数成分を抽出する抽出ステップと、
前記高周波数成分と前記第一の周波数特性を合成して一つの画像の周波数領域の情報を生成する合成ステップと、
前記合成された周波数領域の情報を空間領域の情報に変換して第三の画像データを生成する第三の変換ステップと
を備えることを特徴とする画像処理方法。 In an image processing method for processing image data,
A first image data acquisition step of acquiring first image data capable of generating a refocus image;
A second image data acquisition step corresponding to the first image data and acquiring second image data representing a normal captured image;
A refocusing step for generating a refocused image from the first image data;
A first conversion step of converting the image data of the refocused image into a first frequency characteristic which is information of a frequency domain;
A second conversion step of converting the second image data into a second frequency characteristic which is frequency domain information;
An extraction step of extracting a high frequency component of the second frequency characteristic;
A synthesis step of synthesizing the high frequency component and the first frequency characteristic to generate frequency domain information of one image;
And a third conversion step of converting the synthesized frequency domain information into spatial domain information to generate third image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013220212A JP6185819B2 (en) | 2013-10-23 | 2013-10-23 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013220212A JP6185819B2 (en) | 2013-10-23 | 2013-10-23 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015082757A JP2015082757A (en) | 2015-04-27 |
JP6185819B2 true JP6185819B2 (en) | 2017-08-23 |
Family
ID=53013150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013220212A Active JP6185819B2 (en) | 2013-10-23 | 2013-10-23 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6185819B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6310417B2 (en) * | 2015-05-29 | 2018-04-11 | 日本電信電話株式会社 | Image processing apparatus, image processing method, and image processing program |
JP6310418B2 (en) * | 2015-05-29 | 2018-04-11 | 日本電信電話株式会社 | Image processing method, image processing apparatus, and image processing program |
JP7041494B2 (en) * | 2017-11-06 | 2022-03-24 | キヤノン株式会社 | Image processing device and image processing method |
JP7079080B2 (en) * | 2017-11-06 | 2022-06-01 | キヤノン株式会社 | Image processing device and image processing method |
US11227196B2 (en) * | 2017-12-22 | 2022-01-18 | Nec Corporation | Image collating device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001169186A (en) * | 1999-12-06 | 2001-06-22 | Japan Science & Technology Corp | Image pickup system |
JP6102061B2 (en) * | 2012-02-28 | 2017-03-29 | 株式会社ニコン | Image processing device |
-
2013
- 2013-10-23 JP JP2013220212A patent/JP6185819B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015082757A (en) | 2015-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055332B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5797016B2 (en) | Image processing apparatus, image processing method, and program | |
JP5725975B2 (en) | Imaging apparatus and imaging method | |
US11037310B2 (en) | Image processing device, image processing method, and image processing program | |
JP6548367B2 (en) | Image processing apparatus, imaging apparatus, image processing method and program | |
JP6185819B2 (en) | Image processing apparatus, image processing method, and program | |
CN102369722B (en) | Camera head and image capture method and the image processing method for described camera head | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2012003233A (en) | Image processing device, image processing method and program | |
US8947585B2 (en) | Image capturing apparatus, image processing method, and storage medium | |
JP6159097B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2014057181A (en) | Image processor, imaging apparatus, image processing method and image processing program | |
JP2014153890A5 (en) | ||
JP2014082533A (en) | Image processing apparatus, image processing method and program | |
US10715723B2 (en) | Image processing apparatus, image acquisition system, image processing method, and image processing program | |
JP6513941B2 (en) | Image processing method, image processing apparatus and program | |
JP2008099025A (en) | Apparatus and method for taking image, and blur correction method | |
CN114390219B (en) | Shooting method, shooting device, electronic equipment and storage medium | |
JP6210836B2 (en) | IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
JP6478587B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP5553862B2 (en) | Image pickup apparatus and image pickup apparatus control method | |
JP6585890B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6566800B2 (en) | Imaging apparatus and imaging method | |
JP2019208214A (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2014110442A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170728 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6185819 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |