JP2015084518A - Image processing apparatus, image processing method, program and recording medium - Google Patents
Image processing apparatus, image processing method, program and recording medium Download PDFInfo
- Publication number
- JP2015084518A JP2015084518A JP2014185702A JP2014185702A JP2015084518A JP 2015084518 A JP2015084518 A JP 2015084518A JP 2014185702 A JP2014185702 A JP 2014185702A JP 2014185702 A JP2014185702 A JP 2014185702A JP 2015084518 A JP2015084518 A JP 2015084518A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- subject
- generation condition
- information
- light field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、プログラム及び記録媒体に関し、特に撮影後に出力データから再構成画像を生成する技術に関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium, and more particularly to a technique for generating a reconstructed image from output data after shooting.
近年、デジタルカメラ等の撮像装置において、撮影時に光の強度分布と光の入射方向の情報とを出力データとして記録することで、記録後に例えば該出力データから任意の被写体距離に合焦した再構成画像を生成する技術が提案されている。 In recent years, in an imaging device such as a digital camera, reconstruction is performed by recording light intensity distribution and light incident direction information as output data at the time of shooting, for example, focusing on an arbitrary subject distance from the output data after recording. Techniques for generating images have been proposed.
非特許文献1では、撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、マイクロレンズアレイを介して撮像素子の各画素(光電変換素子)に撮像レンズの異なる分割瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法が開示されている。このようにして得られた出力データ(Light Field Data。以下、LFデータ)は、隣り合う画素が異なる方向から入射した光束を記録している。 In Non-Patent Document 1, a microlens array is arranged between a photographic lens and an image sensor, and the light flux that has passed through different divided pupil regions of the image sensor to each pixel (photoelectric conversion element) of the image sensor via the microlens array. A method is disclosed in which light incident from various directions is separated and recorded by forming an image. The output data (Light Field Data, hereinafter referred to as LF data) obtained in this way records the light flux that is incident on the adjacent pixels from different directions.
LFデータからは、各マイクロレンズに対応付けられた画素から、同一の方向の光束を抽出することで、該方向から撮影した画像を生成することができる。また、「Light Field Photography」と呼ばれる手法を適用することで、任意の被写体距離を設定し、該被写体距離からの光束が収束する焦点面における各点を通過した光束を記録している画素の出力を加算することで、撮影後に特定の被写体距離に合焦した画像のピクセルを擬似的に生成(再構成)することができる。 From the LF data, by extracting the light flux in the same direction from the pixels associated with each microlens, it is possible to generate an image taken from that direction. In addition, by applying a technique called “Light Field Photography”, an arbitrary subject distance is set, and the output of the pixel that records the light flux that has passed through each point on the focal plane where the light flux from the subject distance converges Is added, it is possible to artificially generate (reconstruct) a pixel of an image focused on a specific subject distance after shooting.
しかしながら、上述したようなLFデータからは様々な被写体距離に合焦した再構成画像や、深度の深い様々な視点の再構成画像を生成することができるため、撮影範囲に含まれるプライバシー情報が適切に保護されない可能性がある。 However, since the reconstructed image focused on various subject distances and the reconstructed images of various viewpoints with deep depth can be generated from the LF data as described above, the privacy information included in the shooting range is appropriate. May not be protected.
本発明は、上述の問題点に鑑みてなされたものであり、複数の被写体距離に合焦させた再構成画像を生成可能な画像信号について好適な再構成画像の生成条件を設定する画像処理装置、画像処理方法、プログラム及び記録媒体を提供することを目的とする。 The present invention has been made in view of the above-described problems, and is an image processing apparatus that sets a suitable reconstructed image generation condition for an image signal that can generate a reconstructed image focused on a plurality of subject distances. An object is to provide an image processing method, a program, and a recording medium.
前述の目的を達成するために、本発明の画像処理装置は、ライトフィールドデータを取得するデータ取得手段と、被写体を選択する選択手段と、選択手段により選択された被写体に合焦させないための情報であり、ライトフィールドデータを再構成して生成される再構成画像に係る情報である制限情報を出力する出力手段と、を有することを特徴とする。 In order to achieve the above-described object, the image processing apparatus of the present invention includes a data acquisition unit that acquires light field data, a selection unit that selects a subject, and information that does not focus on the subject selected by the selection unit. And output means for outputting restriction information that is information relating to a reconstructed image generated by reconstructing light field data.
このような構成により本発明によれば、複数の被写体距離に合焦させた再構成画像を生成可能な画像信号について好適な再構成画像の生成条件を設定することが可能となる。 With such a configuration, according to the present invention, it is possible to set a suitable reconstructed image generation condition for an image signal that can generate a reconstructed image focused on a plurality of subject distances.
[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮影後にLFデータから任意の被写体距離に合焦した画像を生成可能なデジタルカメラに、本発明を適用した例を説明する。しかし本発明は、LFデータから任意の被写体距離に合焦した画像を生成することが可能な任意の機器に適用可能である。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera that can generate an image focused on an arbitrary subject distance from LF data after shooting as an example of an image processing apparatus will be described. . However, the present invention can be applied to any device capable of generating an image focused on an arbitrary subject distance from LF data.
また、本明細書において、以下の用語を定義して説明する。 In this specification, the following terms are defined and described.
・「ライトフィールド(LF:Light Field)データ」
本実施形態のデジタルカメラ100が有する撮像部106から出力される画像信号のように、3次元の被写体空間を記述した光線空間情報のことを示す。本実施形態では、画像信号の画素(画素信号)の各々は、通過した撮像光学系104の瞳領域及び入射方向の組み合わせが異なる光束に対応した信号強度を示している。
・ "Light Field (LF) data"
This indicates light space information describing a three-dimensional subject space like an image signal output from the imaging unit 106 included in the digital camera 100 of the present embodiment. In the present embodiment, each pixel of the image signal (pixel signal) indicates a signal intensity corresponding to a light beam having a different combination of the pupil region and the incident direction of the imaging optical system 104 that has passed.
・「再構成画像」
LFデータを構成する画素を所望の組み合わせで合成するなどして新たに生成する画像であり、本実施形態では、LFデータから生成される、任意の被写体距離に合焦した画像を含む。具体的には生成する被写体距離に対応する焦点j面(再構成面、リフォーカス面)での画素配置に従ってLFデータの画素を並び替え、再構成画像の1画素(単位画素)に対応するLFデータの複数の画素(副画素)の画素値を合算することで該画素の画素値を得る。再構成面における画素配置は、再構成面に撮像素子が存在した場合に入射する光束の入射方向(入射角度)に基づいて決定される。該画素配置において1つのマイクロレンズに対応する複数の画素の画素値を足し合わせることで、再構成画像の1画素を生成することができる。再構成画像としては他にも、マイクロレンズごとに存在する、マイクロレンズからの入射方向が同じ副画素(同じ視点の副画素)から生成される各視点の画像なども含む。この視点画像の生成の際には、他の視点(マイクロレンズからの入射方向)からの画像を視差分の移動量を踏まえて位置合わせをして加算するなどしてもよい。
・ "Reconstructed image"
This is an image that is newly generated by, for example, synthesizing the pixels constituting the LF data in a desired combination. In this embodiment, an image that is generated from the LF data and focused on an arbitrary subject distance is included. Specifically, the LF data pixels are rearranged according to the pixel arrangement on the focal j plane (reconstruction plane, refocus plane) corresponding to the object distance to be generated, and LF corresponding to one pixel (unit pixel) of the reconstructed image. The pixel value of the pixel is obtained by adding the pixel values of a plurality of pixels (sub-pixels) of the data. The pixel arrangement on the reconstruction plane is determined based on the incident direction (incident angle) of the light beam incident when the image sensor is present on the reconstruction plane. One pixel of a reconstructed image can be generated by adding pixel values of a plurality of pixels corresponding to one microlens in the pixel arrangement. In addition, the reconstructed image includes an image of each viewpoint generated from subpixels (subpixels of the same viewpoint) having the same incident direction from the microlens, which exist for each microlens. When generating this viewpoint image, the images from other viewpoints (incident direction from the microlens) may be aligned and added based on the amount of movement of the parallax.
《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<< Configuration of Digital Camera 100 >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.
制御部101は、例えばCPUであり、デジタルカメラ100が有する各ブロックの動作を制御する。具体的には制御部101は、ROM102に記憶されている、後述する撮影処理あるいはリフォーカス動画生成処理の動作プログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。 The control unit 101 is a CPU, for example, and controls the operation of each block included in the digital camera 100. Specifically, the control unit 101 controls an operation of each block by reading an operation program for a shooting process or a refocus moving image generation process, which will be described later, stored in the ROM 102, and developing and executing the program on the RAM 103.
ROM102は、例えば書き換え可能な不揮発性メモリであり、デジタルカメラ100が有する各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 102 is, for example, a rewritable nonvolatile memory, and stores parameters necessary for the operation of each block in addition to the operation program for each block of the digital camera 100.
RAM103は、揮発性メモリである。RAM103は、デジタルカメラ100が有する各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を記憶する格納領域としても用いられる。 The RAM 103 is a volatile memory. The RAM 103 is used not only as a development area for the operation program of each block included in the digital camera 100 but also as a storage area for storing intermediate data output in the operation of each block.
撮像部106は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部106は、制御部101の指示により不図示のタイミングジェネレータ(TG)から出力されるタイミング信号を受けて、撮像光学系104により撮像素子の光電変換素子面に結像された光学像を光電変換し、アナログ画像信号を出力する。なお、撮像光学系104は例えば対物レンズ、フォーカスレンズ、絞り等を含む。また、本実施形態のデジタルカメラ100は、撮像素子の各光電変換素子に設けられているマイクロレンズとは別に、光軸上の撮像光学系104と撮像素子との間にマイクロレンズアレイ105を有する。 The imaging unit 106 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 106 receives a timing signal output from a timing generator (TG) (not shown) according to an instruction from the control unit 101, and photoelectrically converts an optical image formed on the photoelectric conversion element surface of the imaging element by the imaging optical system 104. Convert and output analog image signal. Note that the imaging optical system 104 includes, for example, an objective lens, a focus lens, a diaphragm, and the like. In addition, the digital camera 100 according to the present embodiment includes a microlens array 105 between the imaging optical system 104 on the optical axis and the imaging element separately from the microlens provided in each photoelectric conversion element of the imaging element. .
〈マイクロレンズと光電変換素子との関係〉
ここで、本実施形態のデジタルカメラ100において、光軸上の撮像光学系104と撮像素子との間に設けられたマイクロレンズアレイ105について、図を用いて説明する。
<Relationship between microlens and photoelectric conversion element>
Here, the microlens array 105 provided between the imaging optical system 104 on the optical axis and the imaging element in the digital camera 100 of the present embodiment will be described with reference to the drawings.
図2に示すように、本実施形態のマイクロレンズアレイ105は複数のマイクロレンズ201で構成される。図2では、撮像光学系104の光軸をz軸とし、デジタルカメラ100の横位置における水平方向をx軸、鉛直方向をy軸としている。なお、図2の例では簡単のため、マイクロレンズアレイ105は5行5列に並んだマイクロレンズ201で構成されるものとして説明するが、マイクロレンズアレイ105の構成はこれに限られるものではない。 As shown in FIG. 2, the microlens array 105 of the present embodiment includes a plurality of microlenses 201. In FIG. 2, the optical axis of the imaging optical system 104 is the z axis, the horizontal direction of the digital camera 100 is the x axis, and the vertical direction is the y axis. In the example of FIG. 2, for the sake of simplicity, the microlens array 105 will be described as being configured by microlenses 201 arranged in 5 rows and 5 columns, but the configuration of the microlens array 105 is not limited thereto. .
また図2では、撮像部106を構成する撮像素子の光電変換素子202が格子で示されている。各マイクロレンズ201には、所定数の光電変換素子202が対応づけられており、図2の例では1つのマイクロレンズ201に対して5×5=25画素の光電変換素子202が対応づけられている。1つのマイクロレンズ201を通過した光束は、入射した方向に応じて分離され、対応する光電変換素子202に結像される。 In FIG. 2, the photoelectric conversion element 202 of the image pickup element that forms the image pickup unit 106 is shown by a lattice. A predetermined number of photoelectric conversion elements 202 are associated with each microlens 201, and in the example of FIG. 2, a photoelectric conversion element 202 of 5 × 5 = 25 pixels is associated with one microlens 201. Yes. The light beam that has passed through one microlens 201 is separated according to the incident direction, and is imaged on the corresponding photoelectric conversion element 202.
図3は、1つのマイクロレンズ201に対応する光電変換素子202p1乃至p5に入射する光束を図示している。図3において、上方向は鉛直上向き方向に対応している。図では、デジタルカメラ100が横位置にある状態における、横方向から見た、各光電変換素子202に入射する光束の光路を例示している。図示されるように、水平方向に並んだ光電変換素子202p1乃至p5には、1つのマイクロレンズ201を介して、撮像光学系104の射出瞳301を垂直方向に5分割した領域a1乃至a5を通過した光束がそれぞれ入射する。なお、各領域に付された数字は、通過した光束が入射する光電変換素子202との対応関係を示している。 FIG. 3 illustrates light beams incident on the photoelectric conversion elements 202 p 1 to p 5 corresponding to one microlens 201. In FIG. 3, the upward direction corresponds to the vertically upward direction. In the figure, an optical path of a light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction in a state where the digital camera 100 is in the horizontal position is illustrated. As shown in the drawing, the photoelectric conversion elements 202p 1 to p 5 arranged in the horizontal direction have regions a 1 to a which are obtained by dividing the exit pupil 301 of the imaging optical system 104 into five in the vertical direction via one micro lens 201. light beam passing through the a 5 enters respectively. In addition, the number attached | subjected to each area | region has shown the correspondence with the photoelectric conversion element 202 in which the light beam which passed through enters.
なお、図3の例では横方向から見た、各光電変換素子202に入射する光束の光路を示したが、光束の分離は垂直方向に限らず、水平方向においても同様に行われる。即ち、撮像光学系104の射出瞳301を撮像素子側から見て図4(a)のような領域に分類した場合、各領域を通過した光束は、図4(b)に示されるような光電変換素子202のうち、同一の識別数字が付された光電変換素子に入射する。なお、ここでは、撮像光学系104とマイクロレンズアレイ105の各マイクロレンズのFナンバー(F値)は略一致しているものとする。 In the example of FIG. 3, the optical path of the light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction is shown, but the light beam separation is not limited to the vertical direction, and is similarly performed in the horizontal direction. That is, when the exit pupil 301 of the image pickup optical system 104 is classified into the regions as shown in FIG. 4A when viewed from the image pickup device side, the light beam that has passed through each region has a photoelectric as shown in FIG. Of the conversion elements 202, the light enters the photoelectric conversion elements with the same identification numbers. Here, it is assumed that the F numbers (F values) of the microlenses of the imaging optical system 104 and the microlens array 105 are substantially the same.
AFE(アナログフロントエンド)107及びDFE(デジタルフロントエンド)108は、撮像部106により生成された画像信号に対する補正処理等を行う。具体的にはAFE107は、撮像部106から出力されたアナログ画像信号に対して、基準レベルの調整(クランプ処理)やA/D変換処理を行い、LFデータをDFE108に出力する。DFE108は、入力されたLFデータに対して微少な基準レベルのずれ等を補正する。 An AFE (analog front end) 107 and a DFE (digital front end) 108 perform correction processing and the like on the image signal generated by the imaging unit 106. Specifically, the AFE 107 performs reference level adjustment (clamp processing) and A / D conversion processing on the analog image signal output from the imaging unit 106, and outputs LF data to the DFE 108. The DFE 108 corrects a slight reference level shift or the like with respect to the input LF data.
画像処理部109は、DFE108による補正処理が適用されたLFデータに対して、ホワイトバランス、色変換処理等の各種画像処理、形成後の画像を圧縮する圧縮処理、複数の画像を合成する合成処理等を行う。また本実施形態では画像処理部109は、LFデータから任意の被写体距離に合焦する画像(再構成画像)の生成する処理も行う。再構成画像の生成は、例えば上述した非特許文献1に示されるような「Light Field Photography」の手法を用いればよい。 The image processing unit 109 performs various types of image processing such as white balance and color conversion processing on the LF data to which correction processing by the DFE 108 is applied, compression processing for compressing a formed image, and synthesis processing for combining a plurality of images. Etc. In the present embodiment, the image processing unit 109 also performs processing for generating an image (reconstructed image) that focuses on an arbitrary subject distance from the LF data. For example, the method of “Light Field Photography” as shown in Non-Patent Document 1 described above may be used to generate the reconstructed image.
〈再構成画像の生成方法〉
ここで、特定の被写体距離に合焦した再構成画像の生成方法の概要について、図を用いて説明する。
<Reconstructed image generation method>
Here, an outline of a method for generating a reconstructed image focused on a specific subject distance will be described with reference to the drawings.
まず、撮影範囲に含まれる特定の被写体に合焦する被写体距離については、以下の方法で取得可能である。まず画像処理部109は、LFデータから異なる分割瞳領域を通過した2つの光束に対応する画像を生成し、該画像間における特定の被写体の像の差異(デフォーカス量)を検出する。このように検出されたデフォーカス量に基づき、制御部101は特定の被写体までの被写体距離を算出可能である。 First, the subject distance focused on a specific subject included in the shooting range can be obtained by the following method. First, the image processing unit 109 generates an image corresponding to two light beams that have passed through different divided pupil regions from the LF data, and detects a difference (defocus amount) of a specific subject image between the images. Based on the defocus amount detected in this way, the control unit 101 can calculate the subject distance to a specific subject.
図4(b)の例では各マイクロレンズについて、対応する画素のうち第1列及び第2列の画素の画素値を加算することにより生成される、射出瞳301の左半分の分割瞳領域に対応するA像を生成することができる。また対応する画素のうち第4列及び第5列の画素の画素値を加算することにより生成される、射出瞳301の右半分の分割瞳領域に対応するB像を生成することができる。即ち、これを式で表すと
のようになる。このように得られた2種類の再構成画像は、それぞれ対応する分割瞳領域の重心位置を擬似的に光軸とした画像である。
In the example of FIG. 4B, for each microlens, the divided pupil region in the left half of the exit pupil 301 is generated by adding the pixel values of the pixels in the first column and the second column among the corresponding pixels. A corresponding A image can be generated. Further, a B image corresponding to the divided pupil region on the right half of the exit pupil 301, which is generated by adding the pixel values of the pixels in the fourth column and the fifth column among the corresponding pixels, can be generated. That is, when this is expressed by an expression
become that way. The two types of reconstructed images obtained in this way are images having the centroid position of each corresponding divided pupil region as a pseudo optical axis.
つまり、2種類の再構成画像は光軸のずれによる像のずれを有しているため、2つの画像について相関演算を行うことで、各被写体について像のずれ量(瞳分割位相差)を検出することができる。このように得られた像のずれ量に対して撮像光学系104の焦点位置と光学系から決まる変換係数を乗じることで、LFデータの撮影範囲に含まれる各被写体についての被写体距離を解析することができ、得られた被写体距離に基づき例えば特定の被写体に合焦する再構成画像を付加画像として生成することができる。 In other words, since the two types of reconstructed images have image shifts due to optical axis shifts, the amount of image shift (pupil division phase difference) is detected for each subject by performing a correlation operation on the two images. can do. By multiplying the image shift amount obtained in this way by the focal position of the imaging optical system 104 and a conversion coefficient determined by the optical system, the subject distance for each subject included in the photographing range of the LF data is analyzed. Based on the obtained subject distance, for example, a reconstructed image that focuses on a specific subject can be generated as an additional image.
次に、特定の被写体距離に合焦する再構成画像の生成について説明する。本実施形態のデジタルカメラ100では、上述したように1つのマイクロレンズに割り当てられた複数の画素の各々は、撮像レンズの射出瞳の異なる分割瞳領域を通過した光束を受光する。これは、マイクロレンズアレイ105の全マイクロレンズについて同様である。また各マイクロレンズには異なる方向から撮像レンズを通過した光束が入射するため、撮像素子の全ての画素は、各々異なる方向から入射した光束を受光することになる。 Next, generation of a reconstructed image that focuses on a specific subject distance will be described. In the digital camera 100 of the present embodiment, as described above, each of the plurality of pixels assigned to one microlens receives the light flux that has passed through the divided pupil regions having different exit pupils of the imaging lens. This is the same for all the microlenses of the microlens array 105. In addition, since light beams that have passed through the imaging lens from different directions are incident on each microlens, all the pixels of the imaging element receive light beams that are incident from different directions.
このため以下では、撮影により得られたLFデータの各画素に入射した光束の光路を、射出瞳内の通過した瞳領域の座標(u,v)と、マイクロレンズアレイ上の対応するマイクロレンズの位置座標(x’,y’)として各光束を規定して説明する。再構成画像の生成においては、再構成画像を生成する被写体距離から入射した光束が収束する再構成面上の画素(x,y)について、該点を通過する光路を有する光束を積分することで画素値を得ることができる。 For this reason, in the following, the optical path of the light beam incident on each pixel of the LF data obtained by photographing is represented by the coordinates (u, v) of the pupil region that has passed through the exit pupil and the corresponding microlens on the microlens array. Each light flux is defined and explained as position coordinates (x ′, y ′). In the generation of a reconstructed image, by integrating a light beam having an optical path passing through the point for a pixel (x, y) on a reconstruction surface where a light beam incident from a subject distance for generating the reconstructed image converges. Pixel values can be obtained.
図5ではデジタルカメラ100の横位置における鉛直方向から見た水平面(xz平面)における光束の光路が示されている。以下ではxz平面における、再構成面の各画素を通過する光束の光路について説明するが、yz平面についても同様である。 In FIG. 5, the optical path of the light beam on the horizontal plane (xz plane) viewed from the vertical direction at the lateral position of the digital camera 100 is shown. Hereinafter, the optical path of the light beam passing through each pixel on the reconstruction plane in the xz plane will be described, but the same applies to the yz plane.
瞳領域の座標(u,v)、再構成面上の画素座標を(x,y)とすると、この瞳分割領域と再構成面上の画素を通過する光束が入射するマイクロレンズアレイ105上のマイクロレンズの位置座標(x’,y’)は、
で表される。なお、Fは撮像レンズからマイクロレンズアレイまでの距離、αFは撮影レンズから再構成面までの距離(αはリフォーカス係数:再構成面までの距離を決定するための可変係数)である。
If the coordinates (u, v) of the pupil area and the pixel coordinates on the reconstruction plane are (x, y), the light beam passing through the pupil division area and the pixels on the reconstruction plane is incident on the microlens array 105. The position coordinates (x ′, y ′) of the microlens are
It is represented by Note that F is a distance from the imaging lens to the microlens array, and αF is a distance from the photographing lens to the reconstruction surface (α is a refocus coefficient: a variable coefficient for determining the distance to the reconstruction surface).
また該光束が受光される光電変換素子の出力をL(x’,y’,u,v)とすると、再構成面上に形成される画像の座標(x,y)の画素出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものであり、
で表される。なお、(u,v)を瞳領域の代表座標とすることで、該式は単純加算により計算できる。
If the output of the photoelectric conversion element that receives the luminous flux is L (x ′, y ′, u, v), the pixel output E (x) of the coordinates (x, y) of the image formed on the reconstruction plane , Y) is obtained by integrating L (x ′, y ′, u, v) with respect to the pupil region of the photographing lens,
It is represented by By using (u, v) as the representative coordinates of the pupil region, the equation can be calculated by simple addition.
表示部110は、例えば小型LCD等のデジタルカメラ100が有する表示装置である。表示部110は、デジタルカメラ100のユーザインタフェース画面の表示や、電子ビューファインダとしての使用、あるいは撮影した画像の表示に用いられる。また表示部110は、画像処理部109により生成され出力された、任意の被写体距離に合焦した再構成画像を表示する。上述したように、本実施形態の撮像部106から出力されるアナログ画像信号をA/D変換して得られるLFデータは、隣り合う画素において像が連結しない。このため表示部110には、LFデータではなく画像処理部109により生成された画像データが表示される。 The display unit 110 is a display device included in the digital camera 100 such as a small LCD. The display unit 110 is used to display a user interface screen of the digital camera 100, use as an electronic viewfinder, or display a photographed image. The display unit 110 displays a reconstructed image focused on an arbitrary subject distance that is generated and output by the image processing unit 109. As described above, the LF data obtained by A / D converting the analog image signal output from the imaging unit 106 according to the present embodiment does not connect the images in adjacent pixels. Therefore, not the LF data but the image data generated by the image processing unit 109 is displayed on the display unit 110.
記録媒体111は、例えばデジタルカメラ100が有する内蔵メモリや、メモリカードやHDD等のデジタルカメラ100に着脱可能に接続される記録装置である。記録媒体111には、LFデータ、及びこれらのLFデータから生成された任意の被写体距離に合焦する再構成画像が記録される。あるいは生成された画像等は、通信部116を介して、パーソナルコンピュータ等の外部装置(図示せず)に送信(出力)される。 The recording medium 111 is a recording device that is detachably connected to the digital camera 100 such as a built-in memory of the digital camera 100, a memory card, or an HDD. The recording medium 111 records LF data and a reconstructed image focused on an arbitrary subject distance generated from these LF data. Alternatively, the generated image or the like is transmitted (output) to an external device (not shown) such as a personal computer via the communication unit 116.
操作入力部112は、例えば電源ボタンやシャッタボタン等の、デジタルカメラ100が有するユーザインタフェースである。操作入力部112は、ユーザによりユーザインタフェースが操作されたことを検出すると、該操作に対応する制御信号を制御部101に出力する。例えば操作入力部112は、撮影モードの設定など、撮影に関わる様々な情報を制御部101へ出力する。またレリーズスイッチが出力する信号は、AEやAFの動作開始トリガや、撮影の開始トリガとして利用される。制御部101はこれらの開始トリガを受けて、撮像部106、表示部110をはじめとする、撮像装置の各部の制御を行う。 The operation input unit 112 is a user interface that the digital camera 100 has, such as a power button and a shutter button. When the operation input unit 112 detects that the user interface has been operated by the user, the operation input unit 112 outputs a control signal corresponding to the operation to the control unit 101. For example, the operation input unit 112 outputs various information related to shooting, such as setting of the shooting mode, to the control unit 101. A signal output from the release switch is used as an AE or AF operation start trigger or a shooting start trigger. Upon receiving these start triggers, the control unit 101 controls each unit of the imaging apparatus including the imaging unit 106 and the display unit 110.
なお、本実施形態では撮影処理によりLFデータを取得して再構成画像を生成する処理をおこなうものとして説明するが、生成に使用するLFデータは、記録媒体111から、あるいは通信部116を介して取得されるものであってもよい。 In the present embodiment, it is assumed that LF data is acquired by photographing processing and processing for generating a reconstructed image is performed. However, the LF data used for generation is from the recording medium 111 or via the communication unit 116. It may be acquired.
《制限情報付加処理》
ここで、本実施形態の特徴的な処理であるリフォーカスの制限に関する処理について説明する。上述したようなLFデータからは様々な被写体距離に合焦した再構成画像を生成することができるため、撮影範囲に含まれるプライバシー情報が適切に保護されない可能性がある。即ち、例えば通常は撮影やコピーを許可していない文書等が撮影範囲に含まれていた場合、該文書を読み取り可能な再構成画像が生成される可能性があった。また、近年では撮影により得られた画像がオンラインの画像共有サービス等に公開されることも多くなっており、LFデータが任意に再構成可能な状態で公開されることも考えられる。例えば意図せず撮影範囲に写り込んでしまった人物はLFデータからの再構成画像の生成条件によっては、該人物の意思に反して肖像権が侵害される可能性がある。そこで、本実施形態では、斯様な保護対象となる被写体が存在すること、該被写体が合焦されてしまうリフォーカス範囲を判定し、そのリフォーカス範囲へのリフォーカスを制限する為の情報をLFデータ等に付加する。また、リフォーカスのための再構成画像に限らず、視点変更やパース変更など、何らかの目的で再構成画像が生成される場合に、保護対象に合焦させない、あるいは視認しにくくするための制限情報をLFデータに付加する。
《Restriction information addition processing》
Here, processing relating to refocus restriction, which is characteristic processing of the present embodiment, will be described. Since reconstructed images focused on various subject distances can be generated from the LF data as described above, there is a possibility that privacy information included in the shooting range is not properly protected. That is, for example, when a document that normally does not permit photographing or copying is included in the photographing range, a reconstructed image that can read the document may be generated. Further, in recent years, images obtained by shooting are often released to online image sharing services and the like, and it is conceivable that LF data is released in a state that can be arbitrarily reconstructed. For example, a person who has unintentionally reflected in the shooting range may infringe portrait rights against the intention of the person depending on the conditions for generating a reconstructed image from LF data. Therefore, in this embodiment, it is determined that there is a subject to be protected, a refocus range where the subject is focused, and information for limiting refocus to the refocus range is provided. It is added to LF data. Moreover, not only the reconstructed image for refocusing but also restriction information for making it difficult to focus on the object to be protected or making it difficult to view when a reconstructed image is generated for some purpose such as a viewpoint change or a perspective change. Is added to the LF data.
このような構成をもつ本実施形態のデジタルカメラ100で実行される制限情報付加処理について、図6のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本制限情報付加処理は、例えばデジタルカメラ100を用いて撮影が行われた際に開始されるものとして説明する。 A specific process of the restriction information adding process executed by the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. Note that the restriction information adding process will be described as being started when shooting is performed using the digital camera 100, for example.
S601で、制御部101は、撮像により生成されたLFデータについて、被写体までの距離の情報を各々取得する距離情報取得エリア(以下、Dエリア)を設定する。Dエリアは、マイクロレンズ201に割り当てられた画素群(光電変換素子202)を単位として規定される、対象LFデータを構成する画素配列における2次元の領域を示す。即ち、Dエリアの大きさは、LFデータから生成可能な再構成画像の最小分解能に応じて規定される。例えば図2の例では、1つのマイクロレンズ201に割り当てられた5×5の画素が再構成画像の最小分解能にあたるため、Dエリアは、水平方向に5の倍数の画素、垂直方向に5の倍数の画素を有する領域として規定される。 In step S <b> 601, the control unit 101 sets a distance information acquisition area (hereinafter referred to as “D area”) for acquiring information on the distance to the subject for the LF data generated by imaging. The D area indicates a two-dimensional area in the pixel array constituting the target LF data, which is defined in units of pixel groups (photoelectric conversion elements 202) assigned to the microlens 201. That is, the size of the D area is defined according to the minimum resolution of the reconstructed image that can be generated from the LF data. For example, in the example of FIG. 2, since 5 × 5 pixels assigned to one microlens 201 correspond to the minimum resolution of the reconstructed image, the D area is a multiple of 5 in the horizontal direction and a multiple of 5 in the vertical direction. Is defined as a region having a number of pixels.
なお、Dエリアは、対象LFデータから生成可能な最小分解能にあたる画素群を単位として、被写体までの距離について要求する精度や、機器の演算能力、計算量、要求フレームレート等の制限に応じて適切な大きさに設定されてよい。 The D area is appropriate for the accuracy required for the distance to the subject, the calculation capability of the device, the amount of calculation, the required frame rate, etc., with the pixel group corresponding to the minimum resolution that can be generated from the target LF data as a unit. May be set to any size.
S602で、制御部101は、S601において設定されたDエリアの各々について、エリア内に含まれる被写体までの代表距離の情報を算出する。具体的には制御部101は、対象LFデータの各Dエリアについて、異なる2つの分割瞳領域を通過した光束に対応する、デフォーカス量検出用の2種類の再構成画像(検出用画像)を画像処理部109に生成させる。本ステップで生成される検出用画像は、上述したように射出瞳301の領域を左半分と右半分の分割瞳領域に分け、各分割瞳領域を通過した光束に対応するものであってよい。しかしながら、本発明の実施はこれに限らず、検出用画像は射出瞳301を通過したうち、光軸が異なる2種類の分割瞳領域を通過した光束に対応する画像であればよく、分割瞳領域の選択方法はこれに限られるものではない。ここで、複数のマイクロレンズに対応する画素群を含めて1つのDエリアを構成した場合は、中心のマイクロレンズに対応する画素群のみの結果で代用してもよいし、各マイクロレンズに対応する画素群について得られた距離の平均値を用いてもよい。 In step S602, the control unit 101 calculates, for each of the D areas set in step S601, information on the representative distance to the subject included in the area. Specifically, for each D area of the target LF data, the control unit 101 generates two types of reconstructed images (detection images) for defocus amount detection corresponding to the light beams that have passed through two different divided pupil regions. The image processing unit 109 generates the image. As described above, the detection image generated in this step may be one that divides the area of the exit pupil 301 into divided pupil areas of the left half and the right half, and corresponds to the light flux that has passed through each divided pupil area. However, the embodiment of the present invention is not limited to this, and the detection image may be an image corresponding to the light flux that has passed through the exit pupil 301 and has passed through two types of divided pupil regions having different optical axes. However, the selection method is not limited to this. Here, when one D area is configured including pixel groups corresponding to a plurality of microlenses, the result of only the pixel group corresponding to the central microlens may be substituted, or each microlens is supported. You may use the average value of the distance obtained about the pixel group to perform.
そして制御部101は、得られたデフォーカス量の解析結果に従って、各Dエリアの代表距離を算出する。なお、代表距離は、例えば各Dエリアの中央に位置する被写体についての距離であってもよいし、エリア内の被写体について得られた距離の平均値であってもよい。 Then, the control unit 101 calculates the representative distance of each D area according to the obtained defocus amount analysis result. The representative distance may be, for example, a distance for a subject located at the center of each D area, or may be an average value of distances obtained for subjects in the area.
そして本実施形態では制御部101は、このようにして得られたDエリアごとの代表距離の情報を用いて、LFデータの撮影範囲に対応する距離情報マップを生成する。例えば被写界深度が深くなるように、LFデータの各マイクロレンズ201に対応付けられた画素のうちの中央分割瞳領域に対応する画素を用いて生成した再構成画像が図7(a)のようである場合、距離情報マップは図7(b)のようになる。図7(a)の例では、撮影範囲内に被写体701、702及び703が存在する例を示しており、図7(b)の距離情報マップでは、撮影時にデジタルカメラ100に近い被写体ほどコントラストが高く(ハッチング濃度が濃く)示されている。 In the present embodiment, the control unit 101 generates a distance information map corresponding to the shooting range of the LF data using the representative distance information for each D area obtained in this way. For example, a reconstructed image generated by using a pixel corresponding to the central divided pupil region among the pixels associated with each microlens 201 of the LF data so that the depth of field becomes deep is shown in FIG. If so, the distance information map is as shown in FIG. The example of FIG. 7A shows an example in which subjects 701, 702, and 703 exist within the shooting range. In the distance information map of FIG. 7B, the closer the subject is to the digital camera 100 at the time of shooting, the contrast is higher. Shown high (high hatching density).
S603で、制御部101は、図7(a)のような被写界深度の深い再構成画像を画像処理部109に生成させ、該再構成画像について人物の顔領域を検出する。以下、本実施形態では、撮影された被写体のうち、人物の顔を特定の被写体として検出し、顔領域を基準にLFデータからの再構成画像の生成条件の制限を決定するものとして説明する。しかしながら、本発明の実施はこれに限られるものではなく、例えば検出する被写体は建物や動物、文字等、画像内の特定の特徴を有する領域を検出し、該検出結果に従って生成条件の制限が決定されるものであってよい。 In step S <b> 603, the control unit 101 causes the image processing unit 109 to generate a reconstructed image having a deep depth of field as illustrated in FIG. 7A, and detects a human face area in the reconstructed image. Hereinafter, in the present embodiment, a description will be given on the assumption that a human face is detected as a specific subject among photographed subjects, and the restriction on the generation condition of a reconstructed image from LF data is determined based on the face region. However, the implementation of the present invention is not limited to this. For example, the subject to be detected is a region having a specific feature in the image, such as a building, an animal, or a character, and the restriction on the generation condition is determined according to the detection result. It may be done.
図7(a)の検出用画像において図8に示されるように顔領域A、B、及びCがそれぞれ検出された場合、制御部101はそれぞれに識別するための顔IDを割り当てる。さらに制御部101は、各顔領域について距離情報マップを参照して被写体距離を特定し、図9に示すようなテーブル(相対距離テーブル)を用いて検出された顔領域を管理する。 When face areas A, B, and C are respectively detected in the detection image of FIG. 7A as shown in FIG. 8, the control unit 101 assigns a face ID for identification to each. Further, the control unit 101 identifies the subject distance with reference to the distance information map for each face area, and manages the detected face area using a table (relative distance table) as shown in FIG.
S604で、制御部101は、S603において顔領域を検出したか否かを判断する。本実施形態の制限情報付加処理では、人物の顔領域が検出される場合のみ、LFデータは再構成画像の生成条件についての制限である制限情報を付して記録されるものとする。即ち、本ステップにおける判断は、制限情報が関連付けられるか否かの判断条件であるが、上述したように本発明の実施は顔領域の検出に限られるものではないため、判断条件は検出されるプライバシー情報の種類に応じて適宜変更されてよい。制御部101は、顔領域を検出したと判断した場合は処理をS605に移し、検出していないと判断した場合は処理をS610に移す。 In step S604, the control unit 101 determines whether a face area has been detected in step S603. In the restriction information addition processing according to the present embodiment, it is assumed that LF data is recorded with restriction information that is a restriction on a reconstructed image generation condition only when a human face area is detected. That is, the determination in this step is a determination condition as to whether or not the restriction information is associated. However, as described above, since the present invention is not limited to the detection of the face area, the determination condition is detected. It may be changed as appropriate according to the type of privacy information. If it is determined that the face area has been detected, the control unit 101 moves the process to S605. If it is determined that the face area has not been detected, the control unit 101 moves the process to S610.
S605で、制御部101は、検出した顔領域のうちのプライバシー保護対象の被写体であるか否かの判定を行っていない1つの顔領域を判定対象(対象顔領域)として選択する。即ち、本ステップで制御部101は、再構成画像において合焦を許可しない被写体であるか否かの判定を実行していない、1つの顔領域を対象顔領域として選択する。 In step S <b> 605, the control unit 101 selects, as a determination target (target face region), one of the detected face regions that has not been determined whether it is a subject subject to privacy protection. That is, in this step, the control unit 101 selects, as the target face area, one face area in which it is not determined whether or not the subject is not allowed to be focused in the reconstructed image.
S606で、制御部101は、対象顔領域がプライバシー保護対象であるか否かを判定する。プライバシー保護対象であるか否かの判定は、例えば次のような基準で行われてよい。 In step S606, the control unit 101 determines whether the target face area is a privacy protection target. The determination as to whether or not it is a privacy protection target may be made based on the following criteria, for example.
〈プライバシー保護対象の判定基準〉
(1)顔領域の大きさ基準
例えば、検出された顔領域のうち、サイズが最も大きい顔領域が検出され、それ以外の顔領域の一部あるいは全てが、プライバシー保護対象として判定されてもよい。即ち、最も顔領域が大きくなるように撮影されている顔領域については、撮影者により主被写体となることが想定されて撮影されている可能性が高いため、それ以外の顔領域は撮影者との関係性が低い人物の顔領域としてプライバシー保護対象に設定されてもよい。
<Privacy protection criteria>
(1) Size standard of face area For example, the face area having the largest size among the detected face areas may be detected, and some or all of the other face areas may be determined as privacy protection targets. . In other words, it is highly likely that the face area that has been photographed to have the largest face area is assumed to be the main subject by the photographer. May be set as a privacy protection target as a face area of a person having a low relationship.
(2)顔領域の位置基準
例えば、検出された顔領域のうち、検出用画像における配置位置が最も中央に近い顔領域が検出され、それ以外の顔領域の一部あるいは全てが、プライバシー保護対象として判定されてもよい。即ち、顔領域が中央に捉えられるように撮影されている顔領域については撮影者により主被写体となることが想定されて撮影されている可能性が高いため、それ以外の顔領域は撮影者との関係性が低い人物の顔領域としてプライバシー保護対象に設定されてもよい。
(2) Position reference of face area For example, among the detected face areas, the face area whose arrangement position in the detection image is closest to the center is detected, and part or all of the other face areas are subject to privacy protection. May be determined. In other words, since it is highly likely that the face area that has been shot so that the face area is captured in the center is assumed to be the main subject by the photographer, May be set as a privacy protection target as a face area of a person having a low relationship.
(3)認識対象の顔領域基準
例えば、検出された顔領域のうち、認識対象として予め登録されていた人物の顔領域が検出され、それ以外の顔領域が、プライバシー保護対象として判定されてもよい。即ち、予め人物の顔が認識対象として設定される場合、撮影者と該人物との関係性が保証されるものと考えられるため、認識ができなかった顔領域はプライバシー保護対象に設定されてもよい。
(3) Face area standard for recognition target For example, even if a face area of a person registered in advance as a recognition target is detected among the detected face areas, other face areas are determined as privacy protection targets. Good. That is, when a person's face is set as a recognition target in advance, it is considered that the relationship between the photographer and the person is guaranteed, so that a face area that could not be recognized is set as a privacy protection target. Good.
(4)主被写体カテゴリ基準
例えば、撮影モード等の設定により主被写体として選択される対象が風景等である場合は、人物の顔領域は全てプライバシー保護対象として判定されてもよい。即ち、人物の顔に限らず、主被写体として選択される対象のカテゴリ(人物、風景、建物等)が予め定められている場合は、それ以外のカテゴリに属する像はプライバシー保護対象に設定されてもよい。
(4) Main Subject Category Criteria For example, if the target selected as the main subject by setting the shooting mode or the like is a landscape or the like, the face area of the person may all be determined as a privacy protection target. That is, not only a person's face but also a target category (person, landscape, building, etc.) to be selected as a main subject is predetermined, images belonging to other categories are set as privacy protection targets. Also good.
(5)ユーザ選択
上述のように、制御部101は予め定められた基準を参照してプライバシー保護対象を判定するだけでなく、例えばデジタルカメラ100に設けられた不図示の操作ボタン等により選択された被写体をプライバシー保護対象として判定してもよい。あるいは選択された被写体以外の被写体がプライバシー保護対象として判定されてもよい。
(5) User Selection As described above, the control unit 101 not only determines a privacy protection target with reference to a predetermined standard, but also is selected by an operation button (not shown) provided in the digital camera 100, for example. The subject may be determined as a privacy protection target. Alternatively, a subject other than the selected subject may be determined as a privacy protection target.
(6)文字列基準
例えば車のナンバープレートや住所等、再構成画像を生成した場合に画像内に視認可能な状態の文字列が含まれる場合は、このような文字列の領域が全てプライバシー保護対象として判定されてもよい。文字列の判定には公知のOCR(optical character recognition)技術などを用いることができる。
(6) Character string reference When a reconstructed image is generated, such as a car license plate or an address, if the character string that can be viewed is included in the image, all such character string areas are protected for privacy. It may be determined as a target. For the determination of the character string, a known OCR (optical character recognition) technique or the like can be used.
このような判定基準に基づき、制御部101は本ステップで対象顔領域の判定を行う。制御部101は、対象顔領域がプライバシー保護対象であると判定した場合は処理をS607に移し、保護対象ではないと判定した場合は処理をS608に移す。 Based on such a determination criterion, the control unit 101 determines the target face area in this step. If the control unit 101 determines that the target face area is a privacy protection target, it moves the process to S607, and if it determines that the target face area is not a protection target, it moves the process to S608.
S607で、制御部101は、対象顔領域に対して例えば相対距離テーブルにプライバシー保護対象であることを示す情報を関連付け、処理をS608に移す。 In step S <b> 607, the control unit 101 associates information indicating that the target face area is a privacy protection target, for example, in the relative distance table, and moves the process to step S <b> 608.
S608で、制御部101は、対象顔領域としてまだ選択されていない顔領域が存在するか否かを判断する。制御部101は、対象顔領域としてまだ選択されていない顔領域が存在すると判断した場合は処理をS605に戻し、存在しないと判断した場合は処理をS609に移す。 In step S608, the control unit 101 determines whether there is a face area that has not yet been selected as the target face area. If the control unit 101 determines that there is a face area that has not yet been selected as the target face area, the control unit 101 returns the process to step S605. If the control unit 101 determines that there is no face area yet, the process proceeds to step S609.
S609で、制御部101は、プライバシー保護対象であることを示す情報が関連付けられた顔領域(保護顔領域)の被写体距離を参照し、該保護顔領域に合焦する再構成画像の生成条件を制限情報としてLFデータに関連付ける。例えば図8の例において顔領域802及び803が保護顔領域として判定された場合、制御部101は該顔領域の被写体距離である10mを被写界深度内に含む再構成画像生成の条件を、設定を抑止する生成条件として制限情報に含める。被写界深度は再構成画像における疑似的な絞り値、即ち再構成画像の生成に用いる画素に対応する分割瞳領域の限定度合いにより異なる。このため、再構成画像の生成において設定可能な疑似的な絞り値に対応付けて、保護顔領域が被写界深度内に含まれうる生成条件の範囲を図10に示すようなテーブルとして生成し、該テーブルを制限情報としてLFデータに関連付ける。 In step S <b> 609, the control unit 101 refers to the subject distance of the face area (protected face area) associated with the information indicating that it is a privacy protection target, and sets the generation condition of the reconstructed image focused on the protected face area. It associates with LF data as restriction information. For example, when the face areas 802 and 803 are determined as the protected face areas in the example of FIG. 8, the control unit 101 sets the conditions for generating a reconstructed image including 10 m that is the subject distance of the face area within the depth of field. Include in the restriction information as a generation condition to suppress the setting. The depth of field varies depending on the pseudo aperture value in the reconstructed image, that is, the degree of limitation of the divided pupil region corresponding to the pixel used to generate the reconstructed image. For this reason, the range of generation conditions in which the protected face area can be included within the depth of field is generated as a table as shown in FIG. 10 in association with a pseudo aperture value that can be set in the generation of the reconstructed image. The table is associated with LF data as restriction information.
図10に示されるように、絞り開口が大きい(絞り値が小さい)、即ち広い範囲の瞳領域を通過した光束に対応する画素を再構成画像の生成に使用する場合は、被写界深度が浅いため、設定を制限する被写体距離の範囲は狭くなる。また反対に絞り開口が小さい(絞り値が大きい)、即ちより狭い範囲の瞳領域を通過した光束に対応する画素を再構成画像の生成に使用する場合は、被写界深度が深いため、設定を制限する被写体距離の範囲は広くなる。 As shown in FIG. 10, when a pixel corresponding to a light beam having a large aperture (small aperture value), that is, passing through a wide range of pupil regions, is used to generate a reconstructed image, the depth of field is Since it is shallow, the range of the subject distance that limits the setting is narrowed. Conversely, when using a pixel corresponding to a light beam that has passed through a narrower pupil area with a small aperture opening (a large aperture value) to generate a reconstructed image, the depth of field is deep. The range of the subject distance that restricts is widened.
なお、本実施形態ではLFデータから生成可能な再構成画像の生成条件のそれぞれについて被写界深度を予め把握しておき、保護顔領域の被写体距離に従って制限情報生成をするものとして説明するが、本発明の実施はこれに限られるものではない。例えば制限情報である被写体距離の範囲は、被写界深度において合焦可能な範囲に含まれるか否かに基づくものではなく、被写界深度内において保護顔領域が顔領域として検出されるか否かに基づいて設定されるものであってもよい。つまり、再構成画像においてピントがずれ、所謂「ボケ」た状態であっても、保護顔領域が認識されうるものとして該生成条件の設定を制限するようにしてもよい。 In this embodiment, it is assumed that the depth of field is grasped in advance for each of the generation conditions of the reconstructed image that can be generated from the LF data, and the restriction information is generated according to the subject distance of the protected face area. The implementation of the present invention is not limited to this. For example, the range of subject distance, which is restriction information, is not based on whether or not it is included in the focusable range in the depth of field, but whether the protected face area is detected as a face area within the depth of field It may be set based on whether or not. In other words, even when the reconstructed image is out of focus and is in a so-called “blurred” state, the setting of the generation condition may be limited so that the protected face area can be recognized.
S610で、制御部101は、LFデータを記録媒体111に記録し、本制限情報付加処理を完了する。 In step S610, the control unit 101 records the LF data on the recording medium 111 and completes the restriction information adding process.
このようにすることで、本実施形態のデジタルカメラ100では、プライバシー保護対象である被写体を識別可能な再構成画像の生成条件を、制限情報としてLFデータに関連付けることができる。 By doing in this way, in the digital camera 100 of the present embodiment, a reconstructed image generation condition that can identify a subject that is a privacy protection target can be associated with LF data as restriction information.
《再生処理》
次に、このように制限情報が付加され記録されたLFデータを、再構成画像を生成しながら再生する再生処理について、図11のフローチャートを用いて詳細を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本再生処理は、例えばユーザによりLFデータ(対象LFデータ)の閲覧指示がなされた際に開始されるものとして説明する。
《Reproduction processing》
Next, a detailed description will be given, with reference to the flowchart of FIG. 11, of a reproduction process for reproducing the LF data with the restriction information added and recorded while generating a reconstructed image. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. In addition, this reproduction | regeneration process demonstrates as what is started when the browsing instruction | indication of LF data (target LF data) is made by the user, for example.
S1101で、制御部101は、対象LFデータの生成について予め設定されている、再構成画像の生成条件の初期値(焦点位置または合焦させる被写体距離、及び疑似的な絞り値)の情報を読み出し、生成条件に設定する。生成条件の初期値は、例えばROM102に記憶されるLFデータによらず定められた固定値であってもよいし、各LFデータに関連付けられて記録されている撮影時の条件等によって決定されるLFデータ固有の値であってもよい。また、本実施例では再構成画像として特定の被写体距離(再構成面)にリフォーカスした再構成画像を例示するが、これに限らず、前述したような特定の視点からの画像を生成して再構成画像とするなど、再構成の方法は複数考えられる。 In step S <b> 1101, the control unit 101 reads out information on initial values (a focus position or a subject distance to be focused and a pseudo aperture value) that are set in advance for generating target LF data. Set the generation conditions. The initial value of the generation condition may be, for example, a fixed value that is determined regardless of the LF data stored in the ROM 102, or is determined by a shooting condition that is recorded in association with each LF data. It may be a value unique to the LF data. In this embodiment, a reconstructed image refocused to a specific subject distance (reconstruction plane) is illustrated as a reconstructed image. However, the present invention is not limited to this, and an image from a specific viewpoint as described above is generated. There can be a plurality of reconstruction methods such as a reconstructed image.
S1102で、制御部101は、S1101において設定した生成条件が対象LFデータについて制限される生成条件であるか否かを判断する。具体的には制御部101は、対象LFデータに制限情報が関連付けられているか否かを判断し、関連付けられている場合に該制限情報により制限される生成条件に、設定された生成条件が含まれるか否かを判断する。制御部101は、設定した生成条件が対象LFデータについて制限される生成条件であると判断した場合は処理をS1103に移し、制限されない生成条件であると判断した場合は処理をS1104に移す。 In step S1102, the control unit 101 determines whether the generation condition set in step S1101 is a generation condition restricted for the target LF data. Specifically, the control unit 101 determines whether or not the restriction information is associated with the target LF data, and if the restriction information is associated, the set generation condition is included in the generation condition restricted by the restriction information. To determine whether or not If the control unit 101 determines that the set generation condition is a generation condition that is restricted with respect to the target LF data, the control unit 101 moves the process to S1103.
S1103で、制御部101は、制限情報により制限されない生成条件を、再構成画像の新たな生成条件として設定する。具体的には制御部101は、現在設定されている生成条件の絞り値に対応付けられた再構成を制限する被写体距離の範囲の情報を参照する。そして該範囲の境界値であり、かつ現在設定されている生成条件の被写体距離に最も近い被写体距離を、新たな生成条件の被写体距離として設定する。例えば制限情報が図10のようであり、現在設定されている生成条件が疑似的な絞り値が5.6、被写体距離が8mである場合、最も近い境界値の被写体距離として3.5mが設定される。 In step S1103, the control unit 101 sets a generation condition that is not restricted by the restriction information as a new generation condition of the reconstructed image. Specifically, the control unit 101 refers to information on the range of the subject distance that limits the reconstruction associated with the aperture value of the currently set generation condition. Then, the subject distance that is the boundary value of the range and is closest to the subject distance of the currently set generation condition is set as the subject distance of the new generation condition. For example, when the restriction information is as shown in FIG. 10 and the currently set generation condition is a pseudo aperture value of 5.6 and the subject distance is 8 m, 3.5 m is set as the subject distance of the nearest boundary value. Is done.
なお、再構成を制限する被写体距離の範囲が、生成条件として設定可能な被写体距離の範囲の全域に渡る場合は、疑似的な絞り値についても現在の絞り値の次に小さい絞り値が選択されてよい。 If the subject distance range that limits reconstruction is the entire subject distance range that can be set as a generation condition, the next smallest aperture value is selected for the pseudo aperture value. It's okay.
S1104で、画像処理部109は制御部101の制御の下、設定した生成条件に従って対象LFデータから再構成画像を生成する。 In step S1104, the image processing unit 109 generates a reconstructed image from the target LF data according to the set generation condition under the control of the control unit 101.
S1105で、制御部101は、画像処理部109により生成された再構成画像を表示部110に表示させる。 In step S <b> 1105, the control unit 101 causes the display unit 110 to display the reconstructed image generated by the image processing unit 109.
S1106で、制御部101は、対象LFデータの再生状態、即ち対象LFデータから再構成画像を生成して再生する状態が継続しているか否かを判断する。つまり、制御部101は、ユーザにより対象LFデータの閲覧に係る状態からの離脱指示がなされていないかどうかを判断する。制御部101は、対象LFデータの再生状態が継続していると判断した場合は処理をS1107に移し、継続していないと判断した場合は本再生処理を完了する。 In step S1106, the control unit 101 determines whether or not the reproduction state of the target LF data, that is, the state in which the reconstructed image is generated and reproduced from the target LF data is continued. That is, the control unit 101 determines whether or not the user has given an instruction to leave from the state related to viewing the target LF data. If it is determined that the reproduction state of the target LF data is continued, the control unit 101 moves the process to S1107, and if it is determined that the reproduction is not continued, this reproduction process is completed.
S1107で、制御部101は、再構成画像の生成条件の変更がなされた場合に、生成条件を変更して処理をS1102に戻す。 In step S <b> 1107, when the reconstructed image generation condition is changed, the control unit 101 changes the generation condition and returns the process to step S <b> 1102.
このようにすることで、LFデータの再生において、制限情報を参照することでプライバシー情報が識別可能に再構成画像として生成されることを回避することができる。 By doing so, it is possible to avoid that privacy information is generated as a reconstructed image in an identifiable manner by referring to the restriction information in the reproduction of LF data.
なお、本実施形態では再構成画像の生成条件が制限される生成条件に合致する場合に、制限される被写体距離の境界値に生成条件を変更するものとして説明したが、本発明の実施はこれに限られるものではない。例えば変更後の生成条件は境界値ではなく、該範囲外であって、可能な限り変更前の設定値に近い値が選択されるものであってもよい。またプライバシー保護対象の被写体が、撮影において主被写体として設定されることが所望される被写体と所定の被写体距離の範囲内に存在する場合等は、図12に示すようにプライバシー保護対象の被写体を除外した領域を再構成画像として生成してもよい。つまり、再構成画像において合焦することが好ましい被写体とプライバシー情報の合焦状態を異ならせることができない場合は、プライバシー情報が再構成画像に含まれぬように再構成を行う撮影範囲(画像領域)を限定してもよく、そのような撮影範囲の情報も制限情報として成立しうる。また単純に、再構成画像の生成条件が制限される生成条件に合致する場合には禁止されている旨を報知し、再構成処理を行わないようにしてもよい。 In the present embodiment, the generation condition is changed to the boundary value of the limited subject distance when the generation condition of the reconstructed image matches the generation condition that is limited. However, the embodiment of the present invention is not limited to this. It is not limited to. For example, the generation condition after the change is not a boundary value, but may be a value that is outside the range and is as close as possible to the set value before the change. If the subject subject to privacy protection is within a predetermined subject distance range from the subject desired to be set as the main subject in shooting, the subject subject to privacy protection is excluded as shown in FIG. The region thus obtained may be generated as a reconstructed image. In other words, when the focus state of the privacy information cannot be made different from that of the subject that is preferably focused on the reconstructed image, the shooting range (image area) in which reconfiguration is performed so that the privacy information is not included in the reconstructed image. ) May be limited, and such shooting range information may also be established as the limit information. In addition, if the generation condition of the reconstructed image matches a generation condition that is restricted, the fact that the reconstructed image is prohibited may be notified and the reconstruction process may not be performed.
また、本実施形態では制限情報付加処理及び再生処理を例示して、LFデータへの制限情報の付加、及び制限情報が付加されたLFデータの再生を説明したが、本発明の実施はこのように撮影時にLFデータに制限情報が付加されていなくとも実現可能である。即ち、例えばLFデータに制限情報が付加されていなくとも、LFデータの再生時にプライバシー情報の有無を判断して生成条件を制限する構成であってもよい。また、制限する生成条件の判定は、撮影により生成されたLFデータを記録する際に限らず、デジタルカメラ100で撮影したLFデータをPC等の情報処理装置に登録する際に、ハードウェアあるいはアプリケーション等のソフトウェアにより行われてもよい。また該判定は、SNS等の写真共有サーバへのアップロード時に、アップロード用アプリケーションあるいはサーバ上の任意の構成により行われてもよい。 Further, in the present embodiment, the restriction information addition process and the reproduction process are exemplified, and the addition of the restriction information to the LF data and the reproduction of the LF data to which the restriction information is added have been described. In addition, this can be realized even when the restriction information is not added to the LF data at the time of shooting. That is, for example, even if the restriction information is not added to the LF data, the generation condition may be restricted by determining the presence or absence of the privacy information when the LF data is reproduced. The determination of the generation conditions to be limited is not limited to recording LF data generated by shooting, but when registering LF data shot by the digital camera 100 in an information processing apparatus such as a PC, hardware or application Or the like. The determination may be performed by an upload application or an arbitrary configuration on the server when uploading to a photo sharing server such as SNS.
以上説明したように、本実施形態の画像処理装置は、特定の被写体距離に合焦した再構成画像を生成可能な画像信号について好適に再構成可能な範囲を設定することができる。 As described above, the image processing apparatus according to the present embodiment can set a suitably reconfigurable range for an image signal that can generate a reconstructed image focused on a specific subject distance.
[変形例]
上述した実施形態では、図3に示した撮像光学系104、マイクロレンズアレイ105、及び撮像部106の構成により取得されたLFデータを対象としたが、本発明は図13に示すような構成により得られたLFデータが使用されてもよい。図13の構成は、文献「Todor Georgiev and Andrew Lumsdaine, "Superresolution with Plenoptic 2.0 Camera", Signal Recovery and Synthesis, Optical Society of America, 2009"に記載されるプレノプティックカメラに対応する。図13の構成では、撮像光学系104の焦点がマイクロレンズアレイ105の面上ではなく、より撮像光学系104の射出瞳に近い位置に設けられている点が異なる。
[Modification]
In the above-described embodiment, the LF data acquired by the configuration of the imaging optical system 104, the microlens array 105, and the imaging unit 106 illustrated in FIG. 3 is targeted, but the present invention has the configuration illustrated in FIG. The obtained LF data may be used. The configuration of FIG. 13 corresponds to a plenoptic camera described in the literature “Todor Georgiev and Andrew Lumsdaine,“ Superresolution with Plenoptic 2.0 Camera ”, Signal Recovery and Synthesis, Optical Society of America, 2009”. The configuration of FIG. 13 is different in that the focal point of the imaging optical system 104 is provided not at the surface of the microlens array 105 but at a position closer to the exit pupil of the imaging optical system 104.
また、上述した実施形態では1つの撮像光学系104を通過した光束を、各マイクロレンズ201により分割し、分割瞳領域の各々に対応する画素出力を得るものとして説明した。しかしながら、本発明の実施は図14に示されるように複数の光学系を有する、所謂多眼カメラにより得られた複数の撮像データを本実施形態におけるLFデータと同等に取り扱うことにより実現されてもよい。つまり、複数の光学系の各々により光学像結像される複数の撮像素子の出力が、異なる分割瞳領域を通過した光束に対応する画像、即ち異なる方向から被写体を撮影した画像となるため、多眼カメラの出力は本実施形態におけるLFデータと等価である。なお、このような多眼カメラから再構成画像を生成する方法については、特開2011−022796号公報等に記載されている方法を用いればよい。 In the above-described embodiment, the light beam that has passed through one imaging optical system 104 is divided by each microlens 201 to obtain pixel outputs corresponding to each divided pupil region. However, the embodiment of the present invention may be realized by handling a plurality of imaging data obtained by a so-called multi-lens camera having a plurality of optical systems as shown in FIG. 14 in the same manner as the LF data in this embodiment. Good. In other words, the output of the plurality of imaging elements that are optically imaged by each of the plurality of optical systems is an image corresponding to the light flux that has passed through different divided pupil regions, that is, an image of the subject taken from different directions. The output of the eye camera is equivalent to the LF data in this embodiment. As a method for generating a reconstructed image from such a multi-lens camera, a method described in JP 2011-022796 A may be used.
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100:デジタルカメラ、101:制御部、102:ROM、103:RAM、104:撮像光学系、105:マイクロレンズアレイ、106:撮像部、107:AFE、108:DFE、109:画像処理部、110:表示部、111:記録媒体、112:操作入力部、116:通信部、118:GPS、119:電子コンパス、201:マイクロレンズ、202:光電変換素子、301:射出瞳 100: Digital camera, 101: Control unit, 102: ROM, 103: RAM, 104: Imaging optical system, 105: Micro lens array, 106: Imaging unit, 107: AFE, 108: DFE, 109: Image processing unit, 110 : Display unit, 111: recording medium, 112: operation input unit, 116: communication unit, 118: GPS, 119: electronic compass, 201: microlens, 202: photoelectric conversion element, 301: exit pupil
Claims (21)
被写体を選択する選択手段と、
前記選択手段により選択された被写体に合焦させないための情報であり、前記ライトフィールドデータの再構成を制限する情報である制限情報を出力する出力手段と、を有する
ことを特徴とする画像処理装置。 Data acquisition means for acquiring light field data;
A selection means for selecting a subject;
An image processing apparatus comprising: output means for outputting restriction information, which is information for not focusing on the subject selected by the selection means, and is information for restricting reconstruction of the light field data. .
前記選択手段は、前記検出手段により検出された前記所定の被写体のうちの少なくとも一部の被写体を選択する
ことを特徴とする請求項1または2に記載の画像処理装置。 The selection means includes detection means for detecting a predetermined subject in a reconstructed image that can be generated from the light field data,
The image processing apparatus according to claim 1, wherein the selection unit selects at least a part of the predetermined subjects detected by the detection unit.
前記出力手段は、前記選択手段により選択された被写体について前記距離取得手段により得られた距離情報に基づいて、前記制限情報を生成する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Distance acquisition means for acquiring distance information corresponding to the subject distance of the subject selected by the selection means;
The said output means produces | generates the said restriction | limiting information based on the distance information obtained by the said distance acquisition means about the to-be-photographed object selected by the said selection means, The any one of Claim 1 thru | or 4 characterized by the above-mentioned. The image processing apparatus described.
前記出力手段は、前記選択手段により選択された被写体について得られた被写体距離が、再構成画像を生成した場合の被写界深度に含まれる生成条件を、前記制限情報に含める
ことを特徴とする請求項5に記載の画像処理装置。 The restriction information includes a generation condition for generating a reconstructed image from the light field data,
The output unit includes, in the restriction information, a generation condition in which the subject distance obtained for the subject selected by the selection unit is included in the depth of field when the reconstructed image is generated. The image processing apparatus according to claim 5.
前記ライトフィールドデータの再構成についての、特定の被写体に合焦させないための制限情報を取得する情報取得手段と、
前記ライトフィールドデータから生成する再構成画像の生成条件を設定する設定手段と、
前記設定手段により設定された生成条件と前記制限情報とに基づいて、最終的に生成する再構成画像の生成条件を決定する決定手段と、を有する
ことを特徴とする画像処理装置。 Signal acquisition means for acquiring light field data;
Information acquisition means for acquiring restriction information for refocusing the light field data so as not to focus on a specific subject;
Setting means for setting conditions for generating a reconstructed image generated from the light field data;
An image processing apparatus comprising: a determination unit that determines a generation condition of a reconstructed image to be finally generated based on the generation condition set by the setting unit and the restriction information.
前記決定手段は、前記設定手段により設定された生成条件が前記制限情報に含まれる生成条件である場合に、前記設定手段により設定された生成条件と異なる生成条件を決定する
ことを特徴とする請求項9または10に記載の画像処理装置。 The restriction information includes a generation condition for generating a reconstructed image from the light field data,
The determination means determines a generation condition different from the generation condition set by the setting means when the generation condition set by the setting means is a generation condition included in the restriction information. Item 15. The image processing apparatus according to Item 9 or 10.
前記決定手段は、前記設定手段により設定された生成条件が前記除外される条件である場合に、前記除外される条件により定められた合焦させる被写体距離の範囲外の被写体距離を前記新たな生成条件に含める
ことを特徴とする請求項13に記載の画像処理装置。 The excluded condition defines information on a range of subject distance to be focused at least,
The determining means, when the generation condition set by the setting means is the excluded condition, generates a new object distance outside the range of the object distance to be focused determined by the excluded condition. The image processing apparatus according to claim 13, wherein the image processing apparatus is included in a condition.
前記決定手段は、前記設定手段により設定された生成条件が前記除外される条件である場合に、前記設定手段により設定された生成条件の絞り状態及び合焦させる被写体距離の少なくともいずれかを変更することにより前記除外される条件に該当しない前記新たな生成条件を決定する
ことを特徴とする請求項13または14に記載の画像処理装置。 The excluded condition defines information on a subject distance range to be focused on each of a plurality of pseudo aperture states,
The determination unit changes at least one of the aperture state of the generation condition set by the setting unit and the subject distance to be focused when the generation condition set by the setting unit is the excluded condition. The image processing apparatus according to claim 13, wherein the new generation condition that does not correspond to the excluded condition is determined.
被写体を選択する選択工程と、
前記選択工程において選択された被写体に合焦させないための情報であり、前記ライトフィールドデータの再構成を制限する情報である制限情報を出力する出力制限情報を出力する出力工程と、を有する
ことを特徴とする画像処理方法。 A signal acquisition process for acquiring light field data;
A selection process for selecting a subject;
An output step of outputting output restriction information for outputting restriction information, which is information for not focusing on the subject selected in the selection step, and is information for restricting reconstruction of the light field data. A featured image processing method.
前記ライトフィールドデータから生成可能な再構成画像の生成についての、被写体に合焦させないための制限情報を取得する情報取得工程と、
前記ライトフィールドデータから生成する再構成画像の生成条件を設定する設定工程と、
前記設定工程において設定された生成条件と前記制限情報とに基づいて、最終的に生成する再構成画像の生成条件を決定する決定工程と、を有する
ことを特徴とする画像処理方法。 A signal acquisition step of acquiring light field data capable of generating a reconstructed image focused on a plurality of subject distances;
An information acquisition step for acquiring restriction information for preventing the subject from being focused on the generation of a reconstructed image that can be generated from the light field data;
A setting step for setting a generation condition of a reconstructed image generated from the light field data;
An image processing method comprising: a determination step of determining a generation condition of a reconstructed image to be finally generated based on the generation condition set in the setting step and the restriction information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014185702A JP6491442B2 (en) | 2013-09-20 | 2014-09-11 | Image processing apparatus, image processing method, program, and recording medium |
US14/488,927 US9420168B2 (en) | 2013-09-20 | 2014-09-17 | Image processing apparatus, image processing method, and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013196070 | 2013-09-20 | ||
JP2013196070 | 2013-09-20 | ||
JP2014185702A JP6491442B2 (en) | 2013-09-20 | 2014-09-11 | Image processing apparatus, image processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015084518A true JP2015084518A (en) | 2015-04-30 |
JP6491442B2 JP6491442B2 (en) | 2019-03-27 |
Family
ID=53047917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014185702A Active JP6491442B2 (en) | 2013-09-20 | 2014-09-11 | Image processing apparatus, image processing method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6491442B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017220726A (en) * | 2016-06-03 | 2017-12-14 | キヤノン株式会社 | Image processing apparatus, control method of the same, imaging apparatus, and program |
WO2018225775A1 (en) * | 2017-06-06 | 2018-12-13 | アイテック株式会社 | Image masking device and image masking method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
JP2013134654A (en) * | 2011-12-27 | 2013-07-08 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
-
2014
- 2014-09-11 JP JP2014185702A patent/JP6491442B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012001947A1 (en) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | Imaging device, image processing device, image processing program recording medium |
JP2013134654A (en) * | 2011-12-27 | 2013-07-08 | Casio Comput Co Ltd | Image processing device, image processing method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017220726A (en) * | 2016-06-03 | 2017-12-14 | キヤノン株式会社 | Image processing apparatus, control method of the same, imaging apparatus, and program |
WO2018225775A1 (en) * | 2017-06-06 | 2018-12-13 | アイテック株式会社 | Image masking device and image masking method |
JPWO2018225775A1 (en) * | 2017-06-06 | 2020-04-09 | アイテック株式会社 | Image masking apparatus and image masking method |
Also Published As
Publication number | Publication date |
---|---|
JP6491442B2 (en) | 2019-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6305053B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP6159097B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
US9420168B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US10587860B2 (en) | Imaging apparatus and method for controlling same | |
JP2013201752A5 (en) | ||
JP2013145314A (en) | Image processing apparatus, imaging apparatus, control method and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP2014153890A5 (en) | ||
JP2014157425A (en) | Imaging device and control method thereof | |
JP6120547B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus including image processing apparatus | |
JP6608194B2 (en) | Image processing apparatus, control method therefor, and program | |
JP6491442B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
US9369698B2 (en) | Imaging apparatus and method for controlling same | |
JP6470530B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6502640B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM | |
KR20160123757A (en) | Image photographig apparatus and image photographing metheod | |
JP6074201B2 (en) | Image processing apparatus, control method, and program | |
JP6757245B2 (en) | Video playback device, imaging device, video playback method and program | |
JP6097587B2 (en) | Image reproducing apparatus and control method thereof | |
JP2015139018A (en) | Electronic apparatus and control program | |
JP6387149B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP6336284B2 (en) | Image processing apparatus, control method thereof, and program | |
JP6291605B2 (en) | Image processing apparatus and control method thereof | |
JP6106026B2 (en) | Image processing apparatus, imaging apparatus, playback apparatus, control method, and program | |
JP2016058875A (en) | Image processing system, imaging apparatus, control method of them, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190301 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6491442 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |