JP2015084517A - Image processing apparatus, image processing method, program and recording medium - Google Patents

Image processing apparatus, image processing method, program and recording medium Download PDF

Info

Publication number
JP2015084517A
JP2015084517A JP2014185701A JP2014185701A JP2015084517A JP 2015084517 A JP2015084517 A JP 2015084517A JP 2014185701 A JP2014185701 A JP 2014185701A JP 2014185701 A JP2014185701 A JP 2014185701A JP 2015084517 A JP2015084517 A JP 2015084517A
Authority
JP
Japan
Prior art keywords
image
subject
image processing
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014185701A
Other languages
Japanese (ja)
Other versions
JP6502640B2 (en
Inventor
真宏 会見
Masahiro Aimi
真宏 会見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014185701A priority Critical patent/JP6502640B2/en
Priority to US14/488,927 priority patent/US9420168B2/en
Publication of JP2015084517A publication Critical patent/JP2015084517A/en
Application granted granted Critical
Publication of JP6502640B2 publication Critical patent/JP6502640B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To set a suitable reconfiguration image generation condition on an image signal capable of generating a reconfiguration image focused on a plurality of object distances.SOLUTION: An image processing apparatus acquires light field data and selects an object. The image processing apparatus then outputs restriction information, that is, information to make the selected object hard to be viewed irrespective of a generation condition at the time of reconfiguration, and information related to a reconfiguration image generated by reconfiguring the light field data.

Description

本発明は、画像処理装置、画像処理方法、プログラム及び記録媒体に関し、特に撮影後に出力データから再構成画像を生成する技術に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium, and more particularly to a technique for generating a reconstructed image from output data after shooting.

近年、デジタルカメラ等の撮像装置において、撮影時に光の強度分布と光の入射方向の情報とを出力データとして記録することで、記録後に該出力データから例えば任意の被写体距離に合焦した再構成画像を生成する技術が提案されている。   In recent years, in an imaging apparatus such as a digital camera, by recording information on the light intensity distribution and the light incident direction at the time of shooting as output data, reconstruction is performed after the recording, for example, focusing on an arbitrary subject distance Techniques for generating images have been proposed.

非特許文献1では、撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、マイクロレンズアレイを介して撮像素子の各画素(光電変換素子)に撮像レンズの異なる分割瞳領域を通過した光束を結像させることにより、様々な方向から入射した光を分離して記録する方法が開示されている。このようにして得られた出力データ(Light Field Data。以下、LFデータ)は、隣り合う画素が異なる方向から入射した光束を記録している。   In Non-Patent Document 1, a microlens array is arranged between a photographic lens and an image sensor, and the light flux that has passed through different divided pupil regions of the image sensor to each pixel (photoelectric conversion element) of the image sensor via the microlens array. A method is disclosed in which light incident from various directions is separated and recorded by forming an image. The output data (Light Field Data, hereinafter referred to as LF data) obtained in this way records the light flux that is incident on the adjacent pixels from different directions.

LFデータからは、各マイクロレンズに対応付けられた画素から、同一の方向の光束を抽出することで、該方向から撮影した画像を生成することができる。また、「Light Field Photography」と呼ばれる手法を適用することで、任意の被写体距離を設定し、該被写体距離からの光束が収束する焦点面における各点を通過した光束を記録している画素の出力を加算することで、撮影後に特定の被写体距離に合焦した画像のピクセルを擬似的に生成(再構成)することができる。   From the LF data, by extracting the light flux in the same direction from the pixels associated with each microlens, it is possible to generate an image taken from that direction. In addition, by applying a technique called “Light Field Photography”, an arbitrary subject distance is set, and the output of the pixel that records the light flux that has passed through each point on the focal plane where the light flux from the subject distance converges Is added, it is possible to artificially generate (reconstruct) a pixel of an image focused on a specific subject distance after shooting.

Ren.Ng、外7名、「Light Field Photography with a Hand-Held Plenoptic Camera」、Stanford University Computer Science Tech Report CTSR 2005-02Ren.Ng, 7 others, “Light Field Photography with a Hand-Held Plenoptic Camera”, Stanford University Computer Science Tech Report CTSR 2005-02

しかしながら、上述したようなLFデータからは様々な被写体距離に合焦した再構成画像や、深度の深い様々な視点の再構成画像を生成することができるため、撮影範囲に含まれるプライバシー情報が適切に保護されない可能性がある。   However, since the reconstructed image focused on various subject distances and the reconstructed images of various viewpoints with deep depth can be generated from the LF data as described above, the privacy information included in the shooting range is appropriate. May not be protected.

本発明は、上述の問題点に鑑みてなされたものであり、複数の被写体距離に合焦させた再構成画像を生成可能な画像信号について好適な再構成画像の生成条件を設定する画像処理装置、画像処理方法、プログラム及び記録媒体を提供することを目的とする。   The present invention has been made in view of the above-described problems, and is an image processing apparatus that sets a suitable reconstructed image generation condition for an image signal that can generate a reconstructed image focused on a plurality of subject distances. An object is to provide an image processing method, a program, and a recording medium.

前述の目的を達成するために、本発明の画像処理装置は、ライトフィールドデータを取得するデータ取得手段と、被写体を選択する選択手段と、選択手段により選択された被写体を再構成時に生成条件にかかわらず視認しにくくするための情報であり、ライトフィールドデータを再構成して生成される再構成画像に係る情報である制限情報を出力する出力手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention includes a data acquisition unit that acquires light field data, a selection unit that selects a subject, and a subject selected by the selection unit as a generation condition at the time of reconstruction. Regardless of this, it is characterized by comprising output means for outputting restriction information, which is information for making it difficult to visually recognize, and is information relating to a reconstructed image generated by reconstructing light field data.

このような構成により本発明によれば、複数の被写体距離に合焦させた再構成画像を生成可能な画像信号について好適な再構成画像の生成条件を設定することが可能となる。   With such a configuration, according to the present invention, it is possible to set a suitable reconstructed image generation condition for an image signal that can generate a reconstructed image focused on a plurality of subject distances.

本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. 本発明の実施形態に係るマイクロレンズアレイ105と撮像部106の関係を説明するための図The figure for demonstrating the relationship between the microlens array 105 which concerns on embodiment of this invention, and the imaging part 106. FIG. 本発明の実施形態に係る射出瞳301の各領域を通過した光束と、該光束を光電変換する光電変換素子の関係を説明するための図The figure for demonstrating the relationship between the light beam which passed each area | region of the exit pupil 301 which concerns on embodiment of this invention, and the photoelectric conversion element which photoelectrically converts this light beam. 本発明の実施形態に係る射出瞳301の各領域と、各マイクロレンズに対応付けられた光電変換素子との対応を示した図The figure which showed the response | compatibility with each area | region of the exit pupil 301 which concerns on embodiment of this invention, and the photoelectric conversion element matched with each micro lens 本発明の実施形態に係る再構成面における特定位置を通過する光束の、撮像面における通過位置との関係を説明するための図The figure for demonstrating the relationship with the passage position in the imaging surface of the light beam which passes the specific position in the reconstruction surface which concerns on embodiment of this invention 本発明の実施形態に係るデジタルカメラ100で実行される制限情報付加処理を例示したフローチャートThe flowchart which illustrated the restriction information addition processing performed with digital camera 100 concerning the embodiment of the present invention. 本発明の実施形態に係る距離情報マップを説明するための図The figure for demonstrating the distance information map which concerns on embodiment of this invention. 本発明の実施形態に係る制限情報付加処理において検出された顔領域を示した図The figure which showed the face area detected in the restriction | limiting information addition process which concerns on embodiment of this invention 本発明の実施形態に係る相対距離テーブルを例示した図The figure which illustrated the relative distance table which concerns on embodiment of this invention 本発明の実施形態に係るプライバシー情報保護領域を説明する図The figure explaining the privacy information protection area which concerns on embodiment of this invention 本発明の実施形態に係る制限情報テーブルを説明する図The figure explaining the restriction | limiting information table which concerns on embodiment of this invention 本発明の実施形態1に係るデジタルカメラ100で実行される再生処理を例示したフローチャート6 is a flowchart illustrating a playback process executed by the digital camera 100 according to the first embodiment of the invention. 本発明の変形例に係る射出瞳301の各領域を通過した光束と、該光束を光電変換する光電変換素子の関係を説明するための図The figure for demonstrating the relationship between the light beam which passed through each area | region of the exit pupil 301 which concerns on the modification of this invention, and the photoelectric conversion element which photoelectrically converts this light beam. 本発明の変形例に係るデジタルカメラ100の機能構成を示したブロック図示したフローチャートThe flowchart which showed the block diagram which showed the function structure of the digital camera 100 concerning the modification of this invention 本発明の実施形態に係るリフォーカス初期設定値を説明する図The figure explaining the refocus initial setting value which concerns on embodiment of this invention 本発明の実施形態に係る画像処理後の再構成画像を説明する図The figure explaining the reconstructed image after the image processing which concerns on embodiment of this invention 本発明の実施形態2に係るデジタルカメラ100で実行される再生処理を例示したフローチャートThe flowchart which illustrated the reproduction | regeneration processing performed with the digital camera 100 which concerns on Embodiment 2 of this invention.

[実施形態1]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、撮影後にLFデータから任意の被写体距離に合焦した画像を生成可能なデジタルカメラに、本発明を適用した例を説明する。しかし本発明は、LFデータから任意の被写体距離に合焦した画像を生成することが可能な任意の機器に適用可能である。
[Embodiment 1]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an example in which the present invention is applied to a digital camera that can generate an image focused on an arbitrary subject distance from LF data after shooting as an example of an image processing apparatus will be described. . However, the present invention can be applied to any device capable of generating an image focused on an arbitrary subject distance from LF data.

また、本明細書において、以下の用語を定義して説明する。   In this specification, the following terms are defined and described.

・「ライトフィールド(LF:Light Field)データ」
本実施形態のデジタルカメラ100が有する撮像部106から出力される画像信号のように、3次元の被写体空間を記述した光線空間情報のことを示す。本実施形態では、画像信号の画素(画素信号)の各々は、通過した撮像光学系104の瞳領域及び入射方向の組み合わせが異なる光束に対応した信号強度を示している。
・ "Light Field (LF) data"
This indicates light space information describing a three-dimensional subject space like an image signal output from the imaging unit 106 included in the digital camera 100 of the present embodiment. In the present embodiment, each pixel of the image signal (pixel signal) indicates a signal intensity corresponding to a light beam having a different combination of the pupil region and the incident direction of the imaging optical system 104 that has passed.

・「再構成画像」
LFデータを構成する画素を所望の組み合わせで合成するなどして新たに生成する画像であり、本実施形態では、LFデータから生成される、任意の被写体距離に合焦した画像を含む。具体的には生成する被写体距離に対応する焦点j面(再構成面、リフォーカス面)での画素配置に従ってLFデータの画素を並び替え、再構成画像の1画素(単位画素)に対応するLFデータの複数の画素(副画素)の画素値を合算することで該画素の画素値を得る。再構成面における画素配置は、再構成面に撮像素子が存在した場合に入射する光束の入射方向(入射角度)に基づいて決定される。該画素配置において1つのマイクロレンズに対応する複数の画素の画素値を足し合わせることで、再構成画像の1画素を生成することができる。再構成画像としては他にも、マイクロレンズごとに存在する、マイクロレンズからの入射方向が同じ副画素(同じ視点の副画素)から生成される各視点の画像なども含む。この視点画像の生成の際には、他の視点(マイクロレンズからの入射方向)からの画像を視差分の移動量を踏まえて位置合わせをして加算するなどしてもよい。
・ "Reconstructed image"
This is an image that is newly generated by, for example, synthesizing the pixels constituting the LF data in a desired combination. In this embodiment, an image that is generated from the LF data and focused on an arbitrary subject distance is included. Specifically, the LF data pixels are rearranged according to the pixel arrangement on the focal j plane (reconstruction plane, refocus plane) corresponding to the object distance to be generated, and LF corresponding to one pixel (unit pixel) of the reconstructed image. The pixel value of the pixel is obtained by adding the pixel values of a plurality of pixels (sub-pixels) of the data. The pixel arrangement on the reconstruction plane is determined based on the incident direction (incident angle) of the light beam incident when the image sensor is present on the reconstruction plane. One pixel of a reconstructed image can be generated by adding pixel values of a plurality of pixels corresponding to one microlens in the pixel arrangement. In addition, the reconstructed image includes an image of each viewpoint generated from subpixels (subpixels of the same viewpoint) having the same incident direction from the microlens, which exist for each microlens. When generating this viewpoint image, the images from other viewpoints (incident direction from the microlens) may be aligned and added based on the amount of movement of the parallax.

《デジタルカメラ100の構成》
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<< Configuration of Digital Camera 100 >>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.

制御部101は、例えばCPUであり、デジタルカメラ100が有する各ブロックの動作を制御する。具体的には制御部101は、ROM102に記憶されている、後述する撮影処理あるいはリフォーカス動画生成処理の動作プログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。   The control unit 101 is a CPU, for example, and controls the operation of each block included in the digital camera 100. Specifically, the control unit 101 controls an operation of each block by reading an operation program for a shooting process or a refocus moving image generation process, which will be described later, stored in the ROM 102, and developing and executing the program on the RAM 103.

ROM102は、例えば書き換え可能な不揮発性メモリであり、デジタルカメラ100が有する各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。   The ROM 102 is, for example, a rewritable nonvolatile memory, and stores parameters necessary for the operation of each block in addition to the operation program for each block of the digital camera 100.

RAM103は、揮発性メモリである。RAM103は、デジタルカメラ100が有する各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を記憶する格納領域としても用いられる。   The RAM 103 is a volatile memory. The RAM 103 is used not only as a development area for the operation program of each block included in the digital camera 100 but also as a storage area for storing intermediate data output in the operation of each block.

撮像部106は、例えばCCDやCMOSセンサ等の撮像素子である。撮像部106は、制御部101の指示により不図示のタイミングジェネレータ(TG)から出力されるタイミング信号を受けて、撮像光学系104により撮像素子の光電変換素子面に結像された光学像を光電変換し、アナログ画像信号を出力する。なお、撮像光学系104は例えば対物レンズ、フォーカスレンズ、絞り等を含む。また、本実施形態のデジタルカメラ100は、撮像素子の各光電変換素子に設けられているマイクロレンズとは別に、光軸上の撮像光学系104と撮像素子との間にマイクロレンズアレイ105を有する。   The imaging unit 106 is an imaging element such as a CCD or a CMOS sensor. The imaging unit 106 receives a timing signal output from a timing generator (TG) (not shown) according to an instruction from the control unit 101, and photoelectrically converts an optical image formed on the photoelectric conversion element surface of the imaging element by the imaging optical system 104. Convert and output analog image signal. Note that the imaging optical system 104 includes, for example, an objective lens, a focus lens, a diaphragm, and the like. In addition, the digital camera 100 according to the present embodiment includes a microlens array 105 between the imaging optical system 104 on the optical axis and the imaging element separately from the microlens provided in each photoelectric conversion element of the imaging element. .

〈マイクロレンズと光電変換素子との関係〉
ここで、本実施形態のデジタルカメラ100において、光軸上の撮像光学系104と撮像素子との間に設けられたマイクロレンズアレイ105について、図を用いて説明する。
<Relationship between microlens and photoelectric conversion element>
Here, the microlens array 105 provided between the imaging optical system 104 on the optical axis and the imaging element in the digital camera 100 of the present embodiment will be described with reference to the drawings.

図2に示すように、本実施形態のマイクロレンズアレイ105は複数のマイクロレンズ201で構成される。図2では、撮像光学系104の光軸をz軸とし、デジタルカメラ100の横位置における水平方向をx軸、鉛直方向をy軸としている。なお、図2の例では簡単のため、マイクロレンズアレイ105は5行5列に並んだマイクロレンズ201で構成されるものとして説明するが、マイクロレンズアレイ105の構成はこれに限られるものではない。   As shown in FIG. 2, the microlens array 105 of the present embodiment includes a plurality of microlenses 201. In FIG. 2, the optical axis of the imaging optical system 104 is the z axis, the horizontal direction of the digital camera 100 is the x axis, and the vertical direction is the y axis. In the example of FIG. 2, for the sake of simplicity, the microlens array 105 will be described as being configured by microlenses 201 arranged in 5 rows and 5 columns, but the configuration of the microlens array 105 is not limited thereto. .

また図2では、撮像部106を構成する撮像素子の光電変換素子202が格子で示されている。各マイクロレンズ201には、所定数の光電変換素子202が対応づけられており、図2の例では1つのマイクロレンズ201に対して5×5=25画素の光電変換素子202が対応づけられている。1つのマイクロレンズ201を通過した光束は、入射した方向に応じて分離され、対応する光電変換素子202に結像される。   In FIG. 2, the photoelectric conversion element 202 of the image pickup element that forms the image pickup unit 106 is shown by a lattice. A predetermined number of photoelectric conversion elements 202 are associated with each microlens 201, and in the example of FIG. 2, a photoelectric conversion element 202 of 5 × 5 = 25 pixels is associated with one microlens 201. Yes. The light beam that has passed through one microlens 201 is separated according to the incident direction, and is imaged on the corresponding photoelectric conversion element 202.

図3は、1つのマイクロレンズ201に対応する光電変換素子202p乃至pに入射する光束を図示している。図3において、上方向は鉛直上向き方向に対応している。図では、デジタルカメラ100が横位置にある状態における、横方向から見た、各光電変換素子202に入射する光束の光路を例示している。図示されるように、水平方向に並んだ光電変換素子202p乃至pには、1つのマイクロレンズ201を介して、撮像光学系104の射出瞳301を垂直方向に5分割した領域a乃至aを通過した光束がそれぞれ入射する。なお、各領域に付された数字は、通過した光束が入射する光電変換素子202との対応関係を示している。 FIG. 3 illustrates light beams incident on the photoelectric conversion elements 202 p 1 to p 5 corresponding to one microlens 201. In FIG. 3, the upward direction corresponds to the vertically upward direction. In the figure, an optical path of a light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction in a state where the digital camera 100 is in the horizontal position is illustrated. As shown in the drawing, the photoelectric conversion elements 202p 1 to p 5 arranged in the horizontal direction have regions a 1 to a which are obtained by dividing the exit pupil 301 of the imaging optical system 104 into five in the vertical direction via one micro lens 201. light beam passing through the a 5 enters respectively. In addition, the number attached | subjected to each area | region has shown the correspondence with the photoelectric conversion element 202 in which the light beam which passed through enters.

なお、図3の例では横方向から見た、各光電変換素子202に入射する光束の光路を示したが、光束の分離は垂直方向に限らず、水平方向においても同様に行われる。即ち、撮像光学系104の射出瞳301を撮像素子側から見て図4(a)のような領域に分類した場合、各領域を通過した光束は、図4(b)に示されるような光電変換素子202のうち、同一の識別数字が付された光電変換素子に入射する。なお、ここでは、撮像光学系104とマイクロレンズアレイ105の各マイクロレンズのFナンバー(F値)は略一致しているものとする。   In the example of FIG. 3, the optical path of the light beam incident on each photoelectric conversion element 202 viewed from the horizontal direction is shown, but the light beam separation is not limited to the vertical direction, and is similarly performed in the horizontal direction. That is, when the exit pupil 301 of the image pickup optical system 104 is classified into the regions as shown in FIG. 4A when viewed from the image pickup device side, the light beam that has passed through each region has a photoelectric as shown in FIG. Of the conversion elements 202, the light enters the photoelectric conversion elements with the same identification numbers. Here, it is assumed that the F numbers (F values) of the microlenses of the imaging optical system 104 and the microlens array 105 are substantially the same.

AFE(アナログフロントエンド)107及びDFE(デジタルフロントエンド)108は、撮像部106により生成された画像信号に対する補正処理等を行う。具体的にはAFE107は、撮像部106から出力されたアナログ画像信号に対して、基準レベルの調整(クランプ処理)やA/D変換処理を行い、LFデータをDFE108に出力する。DFE108は、入力されたLFデータに対して微少な基準レベルのずれ等を補正する。   An AFE (analog front end) 107 and a DFE (digital front end) 108 perform correction processing and the like on the image signal generated by the imaging unit 106. Specifically, the AFE 107 performs reference level adjustment (clamp processing) and A / D conversion processing on the analog image signal output from the imaging unit 106, and outputs LF data to the DFE 108. The DFE 108 corrects a slight reference level shift or the like with respect to the input LF data.

画像処理部109は、DFE108による補正処理が適用されたLFデータに対して、ホワイトバランス、色変換処理等の各種画像処理、形成後の画像を圧縮する圧縮処理、複数の画像を合成する合成処理等を行う。また本実施形態では画像処理部109は、LFデータから任意の被写体距離に合焦する画像(再構成画像)の生成する処理も行う。再構成画像の生成は、例えば上述した非特許文献1に示されるような「Light Field Photography」の手法を用いればよい。   The image processing unit 109 performs various types of image processing such as white balance and color conversion processing on the LF data to which correction processing by the DFE 108 is applied, compression processing for compressing a formed image, and synthesis processing for combining a plurality of images. Etc. In the present embodiment, the image processing unit 109 also performs processing for generating an image (reconstructed image) that focuses on an arbitrary subject distance from the LF data. For example, the method of “Light Field Photography” as shown in Non-Patent Document 1 described above may be used to generate the reconstructed image.

〈再構成画像の生成方法〉
ここで、特定の被写体距離に合焦した再構成画像の生成方法の概要について、図を用いて説明する。
<Reconstructed image generation method>
Here, an outline of a method for generating a reconstructed image focused on a specific subject distance will be described with reference to the drawings.

まず、撮影範囲に含まれる特定の被写体に合焦する被写体距離については、以下の方法で取得可能である。まず画像処理部109は、LFデータから異なる分割瞳領域を通過した2つの光束に対応する画像を生成し、該画像間における特定の被写体の像の差異(デフォーカス量)を検出する。このように検出されたデフォーカス量に基づき、制御部101は特定の被写体までの被写体距離を算出可能である。   First, the subject distance focused on a specific subject included in the shooting range can be obtained by the following method. First, the image processing unit 109 generates an image corresponding to two light beams that have passed through different divided pupil regions from the LF data, and detects a difference (defocus amount) of a specific subject image between the images. Based on the defocus amount detected in this way, the control unit 101 can calculate the subject distance to a specific subject.

図4(b)の例では各マイクロレンズについて、対応する画素のうち第1列及び第2列の画素の画素値を加算することにより生成される、射出瞳301の左半分の分割瞳領域に対応するA像を生成することができる。また対応する画素のうち第4列及び第5列の画素の画素値を加算することにより生成される、射出瞳301の右半分の分割瞳領域に対応するB像を生成することができる。即ち、これを式で表すと
のようになる。このように得られた2種類の再構成画像は、それぞれ対応する分割瞳領域の重心位置を擬似的に光軸とした画像である。
In the example of FIG. 4B, for each microlens, the divided pupil region in the left half of the exit pupil 301 is generated by adding the pixel values of the pixels in the first column and the second column among the corresponding pixels. A corresponding A image can be generated. Further, a B image corresponding to the divided pupil region on the right half of the exit pupil 301, which is generated by adding the pixel values of the pixels in the fourth column and the fifth column among the corresponding pixels, can be generated. That is, when this is expressed by an expression
become that way. The two types of reconstructed images obtained in this way are images having the centroid position of each corresponding divided pupil region as a pseudo optical axis.

つまり、2種類の再構成画像は光軸のずれによる像のずれを有しているため、2つの画像について相関演算を行うことで、各被写体について像のずれ量(瞳分割位相差)を検出することができる。このように得られた像のずれ量に対して撮像光学系104の焦点位置と光学系から決まる変換係数を乗じることで、LFデータの撮影範囲に含まれる各被写体についての被写体距離を解析することができ、得られた被写体距離に基づき例えば特定の被写体に合焦する再構成画像を付加画像として生成することができる。   In other words, since the two types of reconstructed images have image shifts due to optical axis shifts, the amount of image shift (pupil division phase difference) is detected for each subject by performing a correlation operation on the two images. can do. By multiplying the image shift amount obtained in this way by the focal position of the imaging optical system 104 and a conversion coefficient determined by the optical system, the subject distance for each subject included in the photographing range of the LF data is analyzed. Based on the obtained subject distance, for example, a reconstructed image that focuses on a specific subject can be generated as an additional image.

次に、特定の被写体距離に合焦する再構成画像の生成について説明する。本実施形態のデジタルカメラ100では、上述したように1つのマイクロレンズに割り当てられた複数の画素の各々は、撮像レンズの射出瞳の異なる分割瞳領域を通過した光束を受光する。これは、マイクロレンズアレイ105の全マイクロレンズについて同様である。また各マイクロレンズには異なる方向から撮像レンズを通過した光束が入射するため、撮像素子の全ての画素は、各々異なる方向から入射した光束を受光することになる。   Next, generation of a reconstructed image that focuses on a specific subject distance will be described. In the digital camera 100 of the present embodiment, as described above, each of the plurality of pixels assigned to one microlens receives the light flux that has passed through the divided pupil regions having different exit pupils of the imaging lens. This is the same for all the microlenses of the microlens array 105. In addition, since light beams that have passed through the imaging lens from different directions are incident on each microlens, all the pixels of the imaging element receive light beams that are incident from different directions.

このため以下では、撮影により得られたLFデータの各画素に入射した光束の光路を、射出瞳内の通過した瞳領域の座標(u,v)と、マイクロレンズアレイ上の対応するマイクロレンズの位置座標(x’,y’)として各光束を規定して説明する。再構成画像の生成においては、再構成画像を生成する被写体距離から入射した光束が収束する再構成面上の画素(x,y)について、該点を通過する光路を有する光束を積分することで画素値を得ることができる。   For this reason, in the following, the optical path of the light beam incident on each pixel of the LF data obtained by photographing is represented by the coordinates (u, v) of the pupil region that has passed through the exit pupil and the corresponding microlens on the microlens array. Each light flux is defined and explained as position coordinates (x ′, y ′). In the generation of a reconstructed image, by integrating a light beam having an optical path passing through the point for a pixel (x, y) on a reconstruction surface where a light beam incident from a subject distance for generating the reconstructed image converges. Pixel values can be obtained.

図5ではデジタルカメラ100の横位置における鉛直方向から見た水平面(xz平面)における光束の光路が示されている。以下ではxz平面における、再構成面の各画素を通過する光束の光路について説明するが、yz平面についても同様である。   In FIG. 5, the optical path of the light beam on the horizontal plane (xz plane) viewed from the vertical direction at the lateral position of the digital camera 100 is shown. Hereinafter, the optical path of the light beam passing through each pixel on the reconstruction plane in the xz plane will be described, but the same applies to the yz plane.

瞳領域の座標(u,v)、再構成面上の画素座標を(x,y)とすると、この瞳分割領域と再構成面上の画素を通過する光束が入射するマイクロレンズアレイ105上のマイクロレンズの位置座標(x’,y’)は、
で表される。なお、Fは撮像レンズからマイクロレンズアレイまでの距離、αFは撮影レンズから再構成面までの距離(αはリフォーカス係数:再構成面までの距離を決定するための可変係数)である。
If the coordinates (u, v) of the pupil area and the pixel coordinates on the reconstruction plane are (x, y), the light beam passing through the pupil division area and the pixels on the reconstruction plane is incident on the microlens array 105. The position coordinates (x ′, y ′) of the microlens are
It is represented by Note that F is a distance from the imaging lens to the microlens array, and αF is a distance from the photographing lens to the reconstruction surface (α is a refocus coefficient: a variable coefficient for determining the distance to the reconstruction surface).

また該光束が受光される光電変換素子の出力をL(x’,y’,u,v)とすると、再構成面上に形成される画像の座標(x,y)の画素出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものであり、
で表される。なお、(u,v)を瞳領域の代表座標とすることで、該式は単純加算により計算できる。
If the output of the photoelectric conversion element that receives the luminous flux is L (x ′, y ′, u, v), the pixel output E (x) of the coordinates (x, y) of the image formed on the reconstruction plane , Y) is obtained by integrating L (x ′, y ′, u, v) with respect to the pupil region of the photographing lens,
It is represented by By using (u, v) as the representative coordinates of the pupil region, the equation can be calculated by simple addition.

表示部110は、例えば小型LCD等のデジタルカメラ100が有する表示装置である。表示部110は、デジタルカメラ100のユーザインタフェース画面の表示や、電子ビューファインダとしての使用、あるいは撮影した画像の表示に用いられる。また表示部110は、画像処理部109により生成され出力された、任意の被写体距離に合焦した再構成画像を表示する。上述したように、本実施形態の撮像部106から出力されるアナログ画像信号をA/D変換して得られるLFデータは、隣り合う画素において像が連結しない。このため表示部110には、LFデータではなく画像処理部109により生成された画像データが表示される。   The display unit 110 is a display device included in the digital camera 100 such as a small LCD. The display unit 110 is used to display a user interface screen of the digital camera 100, use as an electronic viewfinder, or display a photographed image. The display unit 110 displays a reconstructed image focused on an arbitrary subject distance that is generated and output by the image processing unit 109. As described above, the LF data obtained by A / D converting the analog image signal output from the imaging unit 106 according to the present embodiment does not connect the images in adjacent pixels. Therefore, not the LF data but the image data generated by the image processing unit 109 is displayed on the display unit 110.

記録媒体111は、例えばデジタルカメラ100が有する内蔵メモリや、メモリカードやHDD等のデジタルカメラ100に着脱可能に接続される記録装置である。記録媒体111には、LFデータ、及びこれらのLFデータから生成された任意の被写体距離に合焦する再構成画像が記録される。あるいは生成された画像等は、通信部116を介して、パーソナルコンピュータ等の外部装置(図示せず)に送信(出力)される。   The recording medium 111 is a recording device that is detachably connected to the digital camera 100 such as a built-in memory of the digital camera 100, a memory card, or an HDD. The recording medium 111 records LF data and a reconstructed image focused on an arbitrary subject distance generated from these LF data. Alternatively, the generated image or the like is transmitted (output) to an external device (not shown) such as a personal computer via the communication unit 116.

操作入力部112は、例えば電源ボタンやシャッタボタン等の、デジタルカメラ100が有するユーザインタフェースである。操作入力部112は、ユーザによりユーザインタフェースが操作されたことを検出すると、該操作に対応する制御信号を制御部101に出力する。例えば操作入力部112は、撮影モードの設定など、撮影に関わる様々な情報を制御部101へ出力する。またレリーズスイッチが出力する信号は、AEやAFの動作開始トリガや、撮影の開始トリガとして利用される。制御部101はこれらの開始トリガを受けて、撮像部106、表示部110をはじめとする、撮像装置の各部の制御を行う。   The operation input unit 112 is a user interface that the digital camera 100 has, such as a power button and a shutter button. When the operation input unit 112 detects that the user interface has been operated by the user, the operation input unit 112 outputs a control signal corresponding to the operation to the control unit 101. For example, the operation input unit 112 outputs various information related to shooting, such as setting of the shooting mode, to the control unit 101. A signal output from the release switch is used as an AE or AF operation start trigger or a shooting start trigger. Upon receiving these start triggers, the control unit 101 controls each unit of the imaging apparatus including the imaging unit 106 and the display unit 110.

なお、本実施形態では撮影処理によりLFデータを取得して再構成画像を生成する処理をおこなうものとして説明するが、生成に使用するLFデータは、記録媒体111から、あるいは通信部116を介して取得されるものであってもよい。   In the present embodiment, it is assumed that LF data is acquired by photographing processing and processing for generating a reconstructed image is performed. However, the LF data used for generation is from the recording medium 111 or via the communication unit 116. It may be acquired.

《制限情報付加処理》
ここで、本実施形態の特徴的な処理であるリフォーカスの制限に関する処理について説明する。上述したようなLFデータからは様々な被写体距離に合焦した再構成画像を生成することができるため、撮影範囲に含まれるプライバシー情報が適切に保護されない可能性がある。即ち、例えば通常は撮影やコピーを許可していない文書等が撮影範囲に含まれていた場合、該文書を読み取り可能な再構成画像が生成される可能性があった。また、近年では撮影により得られた画像がオンラインの画像共有サービス等に公開されることも多くなっており、LFデータが任意に再構成可能な状態で公開されることも考えられる。例えば意図せず撮影範囲に写り込んでしまった人物はLFデータからの再構成画像の生成条件によっては、該人物の意思に反して肖像権が侵害される可能性がある。そこで、本実施形態では、斯様な保護対象となる被写体が存在すること、該被写体が合焦されてしまうあるいは視認可能であるリフォーカス範囲を判定し、そのリフォーカス範囲(複数の生成条件)における再構成画像において、当該保護対象の被写体を視認しにくくするための制限情報を生成し、出力する。出力される制限情報は、LFデータ等に付加したり、デジタルカメラ100内での再構成画像生成時に利用されたりする。また、リフォーカスのための再構成画像に限らず、視点変更やパース変更など、何らかの目的で再構成画像が生成される場合に、保護対象の被写体を視認しにくくするための制限情報を生成し、LFデータに付加する。
《Restriction information addition processing》
Here, processing relating to refocus restriction, which is characteristic processing of the present embodiment, will be described. Since reconstructed images focused on various subject distances can be generated from the LF data as described above, there is a possibility that privacy information included in the shooting range is not properly protected. That is, for example, when a document that normally does not permit photographing or copying is included in the photographing range, a reconstructed image that can read the document may be generated. Further, in recent years, images obtained by shooting are often released to online image sharing services and the like, and it is conceivable that LF data is released in a state that can be arbitrarily reconstructed. For example, a person who has unintentionally reflected in the shooting range may infringe portrait rights against the intention of the person depending on the conditions for generating a reconstructed image from LF data. Therefore, in the present embodiment, the presence of such a subject to be protected, a refocus range in which the subject is in focus or visible, and the refocus range (a plurality of generation conditions) are determined. In the reconstructed image, restriction information for making it difficult to visually recognize the subject to be protected is generated and output. The output restriction information is added to LF data or the like, or used when generating a reconstructed image in the digital camera 100. In addition to reconstructed images for refocusing, when reconstructed images are generated for some purpose, such as viewpoint changes or perspective changes, restriction information is generated to make it difficult to visually recognize the subject to be protected. And added to the LF data.

このような構成をもつ本実施形態のデジタルカメラ100で実行される制限情報付加処理について、図6のフローチャートを用いて具体的な処理を説明する。各フローの処理は制御部101あるいは制御部101の指示により図1の各部で行われる。また、本処理は、通常の撮影処理を実施時に常に行われても良いし、例えば外部装置に撮像したLFデータを送信する場合に行われても良い。外部装置に撮像したLFデータを送信する際に制限情報を付加する場合には、外部装置にLFデータを送信する要求が行われた後に、既に撮像されメモリに記憶されているLFデータを読み出してステップS1502以降の処理を行っても良い。   A specific process of the restriction information adding process executed by the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. Processing of each flow is performed in each unit in FIG. 1 according to the control unit 101 or an instruction from the control unit 101. Further, this process may be performed at the time of performing the normal shooting process, or may be performed, for example, when transmitting LF data captured to an external device. When adding restriction information when transmitting captured LF data to an external device, the LF data already captured and stored in the memory is read after a request to transmit the LF data is made to the external device. You may perform the process after step S1502.

まず、ステップS1501において、操作入力部112の操作により撮像指示が出されると、撮像処理を行い、撮像データ(LFデータ)を取得する。このとき、予め撮像光学系104に含まれるフォーカシングレンズを駆動させることによるフォーカシングによって所望の被写体に合焦した状態で撮像が行われても良い。また、撮像指示の前から撮像部106は撮像信号を取得しておき、画像を解析することによる露出制御や被写体(顔)検出、ホワイトバランス等の制御を行っていても良い。   First, in step S1501, when an imaging instruction is issued by operating the operation input unit 112, imaging processing is performed and imaging data (LF data) is acquired. At this time, imaging may be performed in a state where a desired subject is focused by focusing by driving a focusing lens included in the imaging optical system 104 in advance. Further, the imaging unit 106 may acquire an imaging signal from before the imaging instruction, and may perform exposure control, subject (face) detection, white balance control, and the like by analyzing the image.

S1502で、制御部101は、撮像により生成されたLFデータについて、被写体までの距離の情報を各々取得する距離情報取得エリア(以下、Dエリア)を設定する。Dエリアは、マイクロレンズ201に割り当てられた画素群(光電変換素子202)を単位として規定される、対象LFデータを構成する画素配列における2次元の領域を示す。即ち、Dエリアの大きさは、LFデータから生成可能な再構成画像の最小分解能に応じて規定される。例えば図2の例では、1つのマイクロレンズ201に割り当てられた5×5の画素が再構成画像の最小分解能にあたるため、Dエリアは、水平方向に5の倍数の画素、垂直方向に5の倍数の画素を有する領域として規定される。   In step S1502, the control unit 101 sets a distance information acquisition area (hereinafter referred to as a D area) for acquiring information on the distance to the subject for the LF data generated by imaging. The D area indicates a two-dimensional area in the pixel array constituting the target LF data, which is defined in units of pixel groups (photoelectric conversion elements 202) assigned to the microlens 201. That is, the size of the D area is defined according to the minimum resolution of the reconstructed image that can be generated from the LF data. For example, in the example of FIG. 2, since 5 × 5 pixels assigned to one microlens 201 correspond to the minimum resolution of the reconstructed image, the D area is a multiple of 5 in the horizontal direction and a multiple of 5 in the vertical direction. Is defined as a region having a number of pixels.

なお、Dエリアは、対象LFデータから生成可能な最小分解能にあたる画素群を単位として、被写体までの距離について要求する精度や、機器の演算能力、計算量、要求フレームレート等の制限に応じて適切な大きさに設定されてよい。   The D area is appropriate for the accuracy required for the distance to the subject, the calculation capability of the device, the amount of calculation, the required frame rate, etc., with the pixel group corresponding to the minimum resolution that can be generated from the target LF data as a unit. May be set to any size.

S1503で、制御部101は、S1502において設定されたDエリアの各々について、エリア内に含まれる被写体までの代表距離の情報を算出する。具体的には制御部101は、対象LFデータの各Dエリアについて、異なる2つの分割瞳領域を通過した光束に対応する、デフォーカス量検出用の2種類の再構成画像(検出用画像)を画像処理部109に生成させる。本ステップで生成される検出用画像は、上述したように射出瞳301の領域を左半分と右半分の分割瞳領域に分け、各分割瞳領域を通過した光束に対応するものであってよい。しかしながら、本発明の実施はこれに限らず、検出用画像は射出瞳301を通過したうち、光軸が異なる2種類の分割瞳領域を通過した光束に対応する画像であればよく、分割瞳領域の選択方法はこれに限られるものではない。ここで、複数のマイクロレンズに対応する画素群を含めて1つのDエリアを構成した場合は、中心のマイクロレンズに対応する画素群のみの結果で代用してもよいし、各マイクロレンズに対応する画素群について得られた距離の平均値を用いてもよい。   In step S1503, the control unit 101 calculates information on the representative distance to the subject included in the area for each of the D areas set in step S1502. Specifically, for each D area of the target LF data, the control unit 101 generates two types of reconstructed images (detection images) for defocus amount detection corresponding to the light beams that have passed through two different divided pupil regions. The image processing unit 109 generates the image. As described above, the detection image generated in this step may be one that divides the area of the exit pupil 301 into divided pupil areas of the left half and the right half, and corresponds to the light flux that has passed through each divided pupil area. However, the embodiment of the present invention is not limited to this, and the detection image may be an image corresponding to the light flux that has passed through the exit pupil 301 and has passed through two types of divided pupil regions having different optical axes. However, the selection method is not limited to this. Here, when one D area is configured including pixel groups corresponding to a plurality of microlenses, the result of only the pixel group corresponding to the central microlens may be substituted, or each microlens is supported. You may use the average value of the distance obtained about the pixel group to perform.

そして制御部101は、得られたデフォーカス量の解析結果に従って、各Dエリアの代表距離を算出する。なお、代表距離は、例えば各Dエリアの中央に位置する被写体についての距離であってもよいし、エリア内の被写体について得られた距離の平均値であってもよい。   Then, the control unit 101 calculates the representative distance of each D area according to the obtained defocus amount analysis result. The representative distance may be, for example, a distance for a subject located at the center of each D area, or may be an average value of distances obtained for subjects in the area.

そして本実施形態では制御部101は、このようにして得られたDエリアごとの代表距離の情報を用いて、LFデータの撮影範囲に対応する距離情報マップを生成する。例えば被写界深度が深くなるように、LFデータの各マイクロレンズ201に対応付けられた画素のうちの中央分割瞳領域に対応する画素を用いて生成した再構成画像が図7(a)のようである場合、距離情報マップは図7(b)のようになる。図7(a)の例では、撮影範囲内に被写体701、702及び703が存在する例を示しており、図7(b)の距離情報マップでは、撮影時にデジタルカメラ100に近い被写体ほどコントラストが高く(ハッチング濃度が濃く)示されている。   In the present embodiment, the control unit 101 generates a distance information map corresponding to the shooting range of the LF data using the representative distance information for each D area obtained in this way. For example, a reconstructed image generated by using a pixel corresponding to the central divided pupil region among the pixels associated with each microlens 201 of the LF data so that the depth of field becomes deep is shown in FIG. If so, the distance information map is as shown in FIG. The example of FIG. 7A shows an example in which subjects 701, 702, and 703 exist within the shooting range. In the distance information map of FIG. 7B, the closer the subject is to the digital camera 100 at the time of shooting, the contrast is higher. Shown high (high hatching density).

S1504で、制御部101は、図7(a)のような被写界深度の深い再構成画像を画像処理部109に生成させ、該再構成画像について人物の顔領域を検出と顔認識を行う。以下、本実施形態では、撮影された被写体のうち、人物の顔を特定の被写体として検出し、顔領域を基準にLFデータからの再構成画像の生成条件の制限を決定するものとして説明する。しかしながら、本発明の実施はこれに限られるものではなく、例えば検出する被写体は建物や動物、文字等、画像内の特定の特徴を有する領域を検出し、該検出結果に従って生成条件の制限が決定されるものであってよい。   In step S <b> 1504, the control unit 101 causes the image processing unit 109 to generate a reconstructed image having a deep depth of field as illustrated in FIG. 7A, and detects and recognizes a human face area from the reconstructed image. . Hereinafter, in the present embodiment, a description will be given on the assumption that a human face is detected as a specific subject among photographed subjects, and the restriction on the generation condition of a reconstructed image from LF data is determined based on the face region. However, the implementation of the present invention is not limited to this. For example, the subject to be detected is a region having a specific feature in the image, such as a building, an animal, or a character, and the restriction on the generation condition is determined according to the detection result. It may be done.

図7(a)の検出用画像において図8のように3つの顔が検出できた場合、それぞれについて顔認識を行い、顔IDとデジタルカメラ100からの距離(被写体距離)を取得する。被写体距離は図7(b)の距離マップを用いて取得する。以上のようにして取得した顔IDと被写体距離は図9のように、ナンバリングして検出顔の相対距離テーブルとして記録しておく。   When three faces can be detected as shown in FIG. 8 in the detection image of FIG. 7A, face recognition is performed for each, and the face ID and the distance (subject distance) from the digital camera 100 are acquired. The subject distance is acquired using the distance map of FIG. The face ID and subject distance acquired as described above are numbered and recorded as a detected face relative distance table as shown in FIG.

次に、ステップS1505では、ステップS1504で顔が1つ以上検出できたかどうかを判定する。1つ以上の顔が検出できた場合は、ステップS1506へ進む。顔が1つも検出できなかった場合は、ステップS1509へ進み、画像を保存して処理を終了する。   Next, in step S1505, it is determined whether one or more faces have been detected in step S1504. If one or more faces can be detected, the process advances to step S1506. If no face has been detected, the process advances to step S1509 to save the image and end the process.

次に、ステップS1506では、ステップS1504で検出した各顔の内の少なくとも1つについて、プライバシー保護対象か否かを判定する。プライバシー保護対象と判定された場合は、S1507に進み、判定されなかった場合はS1508に進む。プライバシー保護対象であるか否かの判定は、例えば次のような基準で行われてよい。   In step S1506, it is determined whether at least one of the faces detected in step S1504 is a privacy protection target. If it is determined that it is a privacy protection target, the process proceeds to S1507, and if it is not determined, the process proceeds to S1508. The determination as to whether or not it is a privacy protection target may be made based on the following criteria, for example.

〈プライバシー保護対象の判定基準〉
(1)顔領域の大きさ基準
例えば、検出された顔領域のうち、サイズが最も大きい顔領域が検出され、それ以外の顔領域の一部あるいは全てが、プライバシー保護対象として判定されてもよい。即ち、最も顔領域が大きくなるように撮影されている顔領域については、撮影者により主被写体となることが想定されて撮影されている可能性が高いため、それ以外の顔領域は撮影者との関係性が低い人物の顔領域としてプライバシー保護対象に設定されてもよい。
<Privacy protection criteria>
(1) Size standard of face area For example, the face area having the largest size among the detected face areas may be detected, and some or all of the other face areas may be determined as privacy protection targets. . In other words, it is highly likely that the face area that has been photographed to have the largest face area is assumed to be the main subject by the photographer. May be set as a privacy protection target as a face area of a person having a low relationship.

(2)顔領域の位置基準
例えば、検出された顔領域のうち、検出用画像における配置位置が最も中央に近い顔領域が検出され、それ以外の顔領域の一部あるいは全てが、プライバシー保護対象として判定されてもよい。即ち、顔領域が中央に捉えられるように撮影されている顔領域については撮影者により主被写体となることが想定されて撮影されている可能性が高いため、それ以外の顔領域は撮影者との関係性が低い人物の顔領域としてプライバシー保護対象に設定されてもよい。
(2) Position reference of face area For example, among the detected face areas, the face area whose arrangement position in the detection image is closest to the center is detected, and part or all of the other face areas are subject to privacy protection. May be determined. In other words, since it is highly likely that the face area that has been shot so that the face area is captured in the center is assumed to be the main subject by the photographer, May be set as a privacy protection target as a face area of a person having a low relationship.

(3)認識対象の顔領域基準
例えば、検出された顔領域のうち、認識対象として予め登録されていた人物の顔領域が検出され、それ以外の顔領域が、プライバシー保護対象として判定されてもよい。即ち、予め人物の顔が認識対象として設定される場合、撮影者と該人物との関係性が保証されるものと考えられるため、認識ができなかった顔領域はプライバシー保護対象に設定されてもよい。
(3) Face area standard for recognition target For example, even if a face area of a person registered in advance as a recognition target is detected among the detected face areas, other face areas are determined as privacy protection targets. Good. That is, when a person's face is set as a recognition target in advance, it is considered that the relationship between the photographer and the person is guaranteed, so that a face area that could not be recognized is set as a privacy protection target. Good.

(4)主被写体カテゴリ基準
例えば、撮影モード等の設定により主被写体として選択される対象が風景等である場合は、人物の顔領域は全てプライバシー保護対象として判定されてもよい。即ち、人物の顔に限らず、主被写体として選択される対象のカテゴリ(人物、風景、建物等)が予め定められている場合は、それ以外のカテゴリに属する像はプライバシー保護対象に設定されてもよい。
(4) Main Subject Category Criteria For example, if the target selected as the main subject by setting the shooting mode or the like is a landscape or the like, the face area of the person may all be determined as a privacy protection target. That is, not only a person's face but also a target category (person, landscape, building, etc.) to be selected as a main subject is predetermined, images belonging to other categories are set as privacy protection targets. Also good.

(5)ユーザ選択
上述のように、制御部101は予め定められた基準を参照してプライバシー保護対象を判定するだけでなく、例えばデジタルカメラ100に設けられた不図示の操作ボタン等により選択された被写体をプライバシー保護対象として判定してもよい。あるいは選択された被写体以外の被写体がプライバシー保護対象として判定されてもよい。
(5) User Selection As described above, the control unit 101 not only determines a privacy protection target with reference to a predetermined standard, but also is selected by an operation button (not shown) provided in the digital camera 100, for example. The subject may be determined as a privacy protection target. Alternatively, a subject other than the selected subject may be determined as a privacy protection target.

(6)文字列基準
例えば車のナンバープレートや住所等、再構成画像を生成した場合に画像内に視認可能な状態の文字列が含まれる場合は、このような文字列の領域が全てプライバシー保護対象として判定されてもよい。文字列の判定には公知のOCR(optical character recognition)技術などを用いることができる。
(6) Character string reference When a reconstructed image is generated, such as a car license plate or an address, if the character string that can be viewed is included in the image, all such character string areas are protected for privacy. It may be determined as a target. For the determination of the character string, a known OCR (optical character recognition) technique or the like can be used.

ステップS1507では、画像処理部109が、撮像データに制限情報を付加する。具体的には、図8のB、Cがプライバシー保護対象であると判定された場合、図8のB、Cが顔検出されなくなるぼかし量を算出し付加する。詳細な算出方法は後述するが、図10に示すプライバシー保護領域の位置情報と図11に示す制限情報テーブルが撮像データに付加される。例えば、プライバシー保護領域にあたる被写体の位置情報として、図8のB、Cの顔枠の座標の始点(x1、y1)(x2、y2)と終点(x1’、y1’)(x2’、y2’)(図11)を記録する。図11の制限情報テーブルでは、絞り値(被写界深度)と焦点位置(被写体距離)毎にプライバシー保護領域にかけるぼかし量を保持する。例えば、図8のB、Cは図7(b)の距離マップにて被写体距離(合焦位置)が10mと判定され、絞り値2の場合は、6m〜14mの被写体距離ではB、Cの顔が識別できてしまうとする。プライバシー保護のため、その範囲に画像処理でぼかしをかけることを考えると、ぼかし量は対象が識別できなくなるまでかけるため、その大きさは被写体距離により異なる。たとえば図11の上側のようにプライバシー保護対象の存在する被写体距離10mでは、対象を大きくぼかさないと識別できてしまうため、ぼかし量を大きくする。一方、被写体距離6m、14mでは、対象の被写体距離から外れており、ぼかしを小さくしても対象を認識できないため、ぼかし量を小さくする。このようにして、プライバシー保護対象が良好に認識できると想定される被写体距離範囲について、ぼかし量を求め、制限情報テーブルに保持しておく。一方、絞り値5.6の場合は、被写界深度が深くなりさらに広い3.5m〜16.5mの被写体距離でB、Cの顔が認識できてしまうため、その範囲にぼかしをかける。その場合のぼかし量は、図11の下側のように被写体距離10mではぼかし量は大きく、被写体距離3.5m、16.5mではぼかし量は小さく、被写体距離6m、14mではぼかし量は中程度になる。   In step S1507, the image processing unit 109 adds restriction information to the imaging data. Specifically, when it is determined that B and C in FIG. 8 are privacy protection targets, a blurring amount at which faces in B and C in FIG. 8 are not detected is calculated and added. Although a detailed calculation method will be described later, the location information of the privacy protection area shown in FIG. 10 and the restriction information table shown in FIG. 11 are added to the imaging data. For example, as the position information of the subject corresponding to the privacy protection area, the start point (x1, y1) (x2, y2) and end point (x1 ′, y1 ′) (x2 ′, y2 ′) of the coordinates of the face frames B and C in FIG. ) (FIG. 11). In the restriction information table of FIG. 11, the amount of blur applied to the privacy protection area is held for each aperture value (depth of field) and focal position (subject distance). For example, B and C in FIG. 8 are determined to have a subject distance (focusing position) of 10 m in the distance map of FIG. 7B, and in the case of an aperture value of 2, B and C have a subject distance of 6 m to 14 m. Assume that the face can be identified. Considering that the range is blurred by image processing for privacy protection, the amount of blur varies until the object cannot be identified, and the size varies depending on the subject distance. For example, at the subject distance 10 m where the privacy protection target exists as shown in the upper side of FIG. 11, the blurring amount is increased because the object can be identified unless it is greatly blurred. On the other hand, the subject distances of 6 m and 14 m are out of the subject distance of the target, and the target cannot be recognized even if the blur is reduced, so the blur amount is reduced. In this way, the blur amount is obtained for the subject distance range where it is assumed that the privacy protection target can be recognized well, and is stored in the restriction information table. On the other hand, when the aperture value is 5.6, the depth of field becomes deep and the faces B and C can be recognized at a wider subject distance of 3.5 m to 16.5 m, so the range is blurred. In this case, as shown in the lower side of FIG. 11, the blur amount is large at the subject distance of 10 m, the blur amount is small at the subject distances of 3.5 m and 16.5 m, and the blur amount is medium at the subject distances of 6 m and 14 m. become.

また、上述した例では制限情報を付与する対象の再構成画像の再構成処理としてリフォーカス処理を挙げたが、これに限らない。視点変更など、一部の入射方向(瞳領域)に対応する副画素を主に用いて生成される再構成画像では、被写界深度が深くなるので、ぼかし量の大きいぼかし処理をかけるような情報を設定しておくと良い。尚、ぼかし量を変える方法は、例えばガウスフィルタの特性を変えることで実現できる。具体的には、画像の空間周波数のカットオフ周波数を3種類設定して、それぞれに対応するフィルタ係数をメモリに記憶しておけばよい。そして、ぼかし量が小の場合はカットオフ周波数が一番高い特性のフィルタ係数を用いてぼかし処理を行う。ぼかし量が大の場合はカットオフ周波数が一番低い特性のフィルタ係数を用いてぼかし処理を行う。同様にぼかし量が中の場合はカットオフ周波数が中間の帯域をとる特性のフィルタ係数を用いてぼかし処理を行う。このようにして、ぼかし量の調整が可能になる。また、本実施形態では、プライバシー保護対象の領域に掛ける処理としてぼかし処理を挙げて説明している。しかし、これに限らず、所定の画像で置換するマスク処理や、輝度信号や色信号の値を変化させて対象を認識できなくするなど、プライバシー保護のための画像処理としては種々の方法が考えられる。   In the above-described example, the refocus process is described as the reconstruction process for the reconstructed image to which the restriction information is added. In a reconstructed image generated mainly using subpixels corresponding to some incident directions (pupil regions), such as changing the viewpoint, the depth of field becomes deep, so blurring processing with a large blurring amount is applied. It is good to set information. Note that the method of changing the blur amount can be realized by changing the characteristics of the Gaussian filter, for example. Specifically, three types of cut-off frequencies of the spatial frequency of the image may be set and the filter coefficients corresponding to each may be stored in the memory. When the amount of blurring is small, the blurring process is performed using the filter coefficient having the highest cutoff frequency. When the amount of blurring is large, the blurring process is performed using the filter coefficient having the lowest cutoff frequency. Similarly, when the amount of blurring is medium, blurring processing is performed using a filter coefficient having a characteristic in which the cutoff frequency takes an intermediate band. In this way, the blur amount can be adjusted. In the present embodiment, the blurring process is described as the process applied to the privacy protection target area. However, the present invention is not limited to this, and various methods are conceivable as image processing for privacy protection, such as mask processing for replacing with a predetermined image, and changing the value of a luminance signal or color signal to make the target unrecognizable. It is done.

次に、ステップS1508では、図9の顔情報テーブルで管理されている顔が、全てプライバシー保護対象かの判定をされたかどうかを判断する。まだ判定されていない顔があればステップS1506に戻り処理を繰り返す。すべての顔が判定されている場合はステップS1509に進む。   Next, in step S1508, it is determined whether or not all the faces managed in the face information table of FIG. If there is a face that has not been determined, the process returns to step S1506 to repeat the process. If all faces have been determined, the process proceeds to step S1509.

最後に、ステップS1509において、撮像データ(LFデータ)と図10のプライバシー保護情報と図11の制限情報テーブルとを撮関連付けて記録媒体111に記録する。このときさらに、必要に応じて、プライバシー保護の保護情報を用いて撮像データのプライバシー保護領域に対して保護処理を行うことを規定するフラグ情報などを付加しておき、撮像データの再生時にフラグを読み出させるようにしても良い。   Finally, in step S1509, the imaging data (LF data), the privacy protection information in FIG. 10, and the restriction information table in FIG. At this time, flag information or the like that prescribes protection processing for the privacy protection area of the imaged data using privacy protection protection information is added as necessary, and the flag is set when reproducing the imaged data. You may make it read.

<再生処理>
次に、制限情報を利用して、画像再生時にプライバシー情報を保護する処理を行う手順について、図12のフローチャートを参照して説明する。なお、ここでは、制限情報付加手順で説明した、図10のプライバシー保護領域と図11の制限情報テーブルが付加されている撮像データを、再生する手順を例に、説明を行う。
<Reproduction processing>
Next, a procedure for performing processing for protecting privacy information during image reproduction using restriction information will be described with reference to the flowchart of FIG. Here, a description will be given of an example of a procedure for reproducing the imaging data to which the privacy protection area in FIG. 10 and the restriction information table in FIG.

まず、ステップS1801において、操作入力部112の操作により画像再生指示が出されると、撮像データ(LFデータ)を記録媒体111から読み込み、RAM103へ一時的に保持する。   First, in step S 1801, when an image reproduction instruction is issued by operating the operation input unit 112, imaging data (LF data) is read from the recording medium 111 and temporarily stored in the RAM 103.

次に、ステップS1802において、撮像データの被写体距離と絞り値の初期設定値をRAM103から読み込む。LFデータは、リフォーカス可能な範囲内で任意の被写体距離に画像を再構成することが可能である。そのため、画像を表示する際に、被写体距離と絞り値の初期値を設定する必要がある。本実施形態では、撮像データと関連付けられているヘッダ情報より、特定の条件を満たす被写体が検出されているか否かと、検出されている被写体が撮像データ内のどの領域に存在するかの情報を読み出す。また、LFデータ取得時に代表的な被写体を検出して、前記被写体が存在する位置に被写体距離を設定することも考えられる。あるいは、撮影時のフォーカスレンズの位置はあらかじめ分かっているため、その位置を被写体距離に設定してもよいが、本アイデアにおいては限定されない。   In step S1802, the subject distance and the initial aperture value of the image data are read from the RAM 103. The LF data can reconstruct an image at an arbitrary subject distance within a refocusable range. Therefore, when displaying an image, it is necessary to set the initial values of the subject distance and the aperture value. In this embodiment, information on whether or not a subject satisfying a specific condition is detected and information on which region in the imaging data the detected subject exists is read from the header information associated with the imaging data. . It is also conceivable to detect a representative subject at the time of LF data acquisition and set the subject distance at a position where the subject exists. Alternatively, since the position of the focus lens at the time of shooting is known in advance, the position may be set as the subject distance, but the present idea is not limited.

次に、ステップS1803において、ステップS1802で読み込んだ初期設定値の絞り値における、被写体距離が制限情報テーブルに記載された、画像内の所定範囲にプライバシー保護処理を付与すべき被写体距離の範囲内かどうかを判定する。制限情報テーブルの範囲内でない場合は、ステップS704へ進み、設定値にて再構成画像を生成する。制限情報テーブルの範囲内の場合は、ステップS1805へ進む。本実施例では、図15の初期設定値である被写体距離6mが、図11の制限情報テーブルが定めるぼかし対象範囲である「絞り値5.6、被写体距離3.5m〜16.5m」の範囲内であるため、ステップS1805へ進む。   Next, in step S1803, whether the subject distance within the aperture value of the initial setting value read in step S1802 is within the subject distance range to which privacy protection processing should be applied to a predetermined range in the image described in the restriction information table. Determine if. If it is not within the range of the restriction information table, the process advances to step S704 to generate a reconstructed image with the set value. If it is within the range of the restriction information table, the process proceeds to step S1805. In the present embodiment, the subject distance 6 m, which is the initial setting value in FIG. 15, is a range of “aperture value 5.6, subject distance 3.5 m to 16.5 m” that is a blurring target range defined by the restriction information table in FIG. Since it is within the range, the process advances to step S1805.

次に、ステップS1805では、画像処理部109(保護画像生成手段)が、制限情報テーブルに含まれる被写体距離の範囲に該当したプライバシー保護対象の顔について、制限情報テーブルに記載のぼかし量にてぼかした画像(保護画像)を生成する。本実施例では、顔B、Cについては図11の制限情報テーブルの範囲内である。そのため、図10に示す顔B、Cの各プライバシー保護領域を、図11の制限情報に記録されているぼかし量に設定にしてぼかし画像を生成する。初期設定値の場合は、絞り値5.6、被写体距離6mのため、図11よりぼかし量「中」のぼかし画像が生成される。   In step S1805, the image processing unit 109 (protected image generating unit) blurs the privacy protection target face corresponding to the subject distance range included in the restriction information table with the blur amount described in the restriction information table. Generated image (protected image). In this embodiment, the faces B and C are within the limit information table shown in FIG. Therefore, a blurred image is generated by setting the privacy protection areas of the faces B and C shown in FIG. 10 to the blurring amount recorded in the restriction information shown in FIG. In the case of the initial setting value, since the aperture value is 5.6 and the subject distance is 6 m, a blurred image with the blurring amount “medium” is generated from FIG.

以上の処理により図16に示す再構成画像が生成されたとする。なお、図16において、点線で囲まれた領域は上記ぼかしがかけられた画像で置換される。   Assume that the reconstructed image shown in FIG. 16 is generated by the above processing. In FIG. 16, the area surrounded by the dotted line is replaced with the blurred image.

以上の処理を行うことで、図16のように、プライバシー保護領域のみを適切なぼかし量にてぼかし、プライバシーが保護された画像を作成することができる。   By performing the above processing, as shown in FIG. 16, it is possible to blur only the privacy protection area with an appropriate blur amount and create an image in which privacy is protected.

そして、ステップS1806において、上記ステップS1804またはS1805にて作成した画像を表示部110に表示する。   In step S 1806, the image created in step S 1804 or S 1805 is displayed on the display unit 110.

最後に、ステップS1807では、再生モード継続の有無が判断され、継続の場合は、ステップS1808においてリフォーカス指示を待ち、終了の場合は、画像再生モードの動作が終了する。   Finally, in step S1807, it is determined whether or not the reproduction mode is continued. If the reproduction mode is continued, a refocus instruction is waited in step S1808.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本実施形態では、図11に例示するデータベースに基づいてステップS1803にて、被写体距離が画像内の所定範囲にぼかし処理を付与すべき被写体距離の範囲内かどうかを判定して、必要に応じてぼかし処理等にてプライバシー領域に保護処理が掛けられている。しかし、これに限らず、プライバシー保護の対象であると判定された画像内の領域(図10のB、Cの領域)には、被写体距離にかかわらず常にプライバシー保護処理としてぼかし処理やマスク処理を行っても良い。   In this embodiment, based on the database illustrated in FIG. 11, in step S1803, it is determined whether the subject distance is within the range of the subject distance to which the blurring process should be applied to the predetermined range in the image. Protection processing is applied to the privacy area by blurring processing or the like. However, the present invention is not limited to this. For areas in the image determined to be subject to privacy protection (areas B and C in FIG. 10), blur processing and mask processing are always performed as privacy protection processing regardless of the subject distance. You can go.

例えば、実施例では被写体として主に顔について説明したが、顔に限定されず、インターネット上に合焦禁止物のデータベース等を作り、そこに登録されている物にはぼかし処理を行うといった実施系も考えられ、様々な変形が可能である。この場合、画像処理部109は、登録されている合焦禁止物を検出するデータベースを有し、予めLFデータを用いて登録されている合焦禁止物が検出される必要がある。   For example, in the embodiment, the face is mainly described as the subject. However, the subject is not limited to the face, and an implementation system in which a database of in-focus objects is created on the Internet, and the object registered therein is subjected to blurring processing. Various modifications are possible. In this case, the image processing unit 109 has a database for detecting registered in-focus prohibited objects, and it is necessary to detect in-focus prohibited objects registered in advance using LF data.

また、主要被写体以外の全範囲に制限情報(ぼかし処理)を付加することで、主要被写体のみを目立たせることができるということは容易に想像でき、その要旨の範囲内で種々の変形及び変更が可能である。   Also, it can be easily imagined that by adding restriction information (blurring process) to the entire range other than the main subject, only the main subject can be conspicuous, and various modifications and changes can be made within the scope of the gist. Is possible.

[実施形態2]
本発明の実施形態2では、プライバシー保護領域に対し、制限情報が付加されていない、あるいは、ぼかし処理されていない撮像データ(LFデータ)に対して、画像再生時にプライバシー保護処理を施して画像表示を行う。図17は本実施形態における画像再生時のプライバシー保護処理の手順を示すフローチャート図である。
[Embodiment 2]
In the second embodiment of the present invention, privacy protection processing is applied to image data (LF data) to which no restriction information is added to the privacy protection area or blur processing is not performed, and image display is performed. I do. FIG. 17 is a flowchart showing a procedure of privacy protection processing during image reproduction in the present embodiment.

まず、ステップS2101において、記録媒体111に記録されている撮像データを読み込む。ここで、通信部116を用いて、ライトフィールド画像を外部デバイスから取得してもよく、撮像データの読み込み方法は限定されない。ステップS2101のときに撮像部106により撮像がなされ、LFデータが出力されることも考えられる。   First, in step S2101, the imaging data recorded on the recording medium 111 is read. Here, the light field image may be acquired from the external device using the communication unit 116, and the method of reading the imaging data is not limited. It is also conceivable that imaging is performed by the imaging unit 106 and LF data is output in step S2101.

次に、ステップS2102は、実施形態1のステップS1802と同様の処理のため説明を省略する。   Next, since step S2102 is the same process as step S1802 of the first embodiment, a description thereof will be omitted.

次に、ステップS2103は、S2102にて読み込んだ被写体距離、絞り値を元に再構成画像を作成する。   In step S2103, a reconstructed image is created based on the subject distance and aperture value read in step S2102.

次に、ステップS2104〜ステップS2106までの、距離情報マップを作成して顔検出を行う処理は、実施形態1のステップS1502〜ステップS1504と同様なため説明を省略する。   Next, since the process of creating a distance information map and performing face detection from step S2104 to step S2106 is the same as step S1502 to step S1504 of the first embodiment, description thereof will be omitted.

次に、ステップS2107において、ステップS2106で顔が1つ以上検出できたかどうかを判定する。1つ以上の顔が検出できた場合は、ステップS2108へ進む。顔が1つも検出できなかった場合は、ステップS2113へ進み、再構成画像を表示部110に表示する。   Next, in step S2107, it is determined whether one or more faces have been detected in step S2106. If one or more faces can be detected, the process advances to step S2108. If no face is detected, the process advances to step S2113 to display the reconstructed image on the display unit 110.

次に、ステップS2108は、実施形態1のステップS1506と同様の処理のため説明を省略する。   Next, since step S2108 is the same process as step S1506 of the first embodiment, a description thereof will be omitted.

次に、ステップS2109は、プライバシー保護領域に対し、プライバシー保護のための画像処理(ぼかし処理)を施し、プライバシー保護対象が良好に認識できなくなった画像を作成し、再構成画像の該当領域に上書きする。   Next, in step S2109, image processing (blurring processing) for privacy protection is performed on the privacy protection area to create an image in which the privacy protection target cannot be recognized well, and the corresponding area of the reconstructed image is overwritten. To do.

次に、ステップS2110は、実施形態1のステップS1508と同様の処理のため説明を省略する。   Next, since step S2110 is the same process as step S1508 of the first embodiment, a description thereof will be omitted.

そして、ステップS2111において、再構成画像を表示部110に表示する。あるいは、ステップS2111において、ユーザーの操作や外部装置からの要求に応じて通信部116を介して再構成画像を送信する。例えば、ユーザーがLFデータを用いてSNSなどに画像をアップロードする際に、プライバシー保護処理を施した再構成画像を生成して、外部装置であるサーバに送信することが考えられる。また、外部装置からデジタルカメラ100内のLFデータから得られる再構成画像データの送信要求を受けて、デジタルカメラ100が本フローチャートの処理を開始することも考えられる。   In step S2111, the reconstructed image is displayed on the display unit 110. Alternatively, in step S2111, the reconstructed image is transmitted via the communication unit 116 in response to a user operation or a request from an external device. For example, when a user uploads an image to SNS or the like using LF data, a reconstructed image subjected to privacy protection processing may be generated and transmitted to a server that is an external device. It is also conceivable that the digital camera 100 starts the processing of this flowchart in response to a transmission request for reconstructed image data obtained from LF data in the digital camera 100 from an external device.

最後に、ステップS2112では、再生モード継続の有無が判断され、継続の場合は、ステップS2113においてリフォーカス指示を待ち、終了の場合は、画像再生モードの動作が終了する。ステップS2113にてリフォーカス指示がなされた場合は、ステップS2114において、指示された設定値で再構成画像を作成し、ステップS2106に進み、処理を繰り返す。   Finally, in step S2112, it is determined whether or not the reproduction mode is continued. If the reproduction mode is continued, the refocus instruction is waited in step S2113. If a refocus instruction is given in step S2113, a reconstructed image is created with the instructed set value in step S2114, and the process proceeds to step S2106 to repeat the process.

また、本実施形態では、デジタルカメラ100によって撮像データに対してプライバシー保護情報を関連付けて記憶し、再生時もデジタルカメラ100によってプライバシー保護情報に基づいて保護処理を行っている。しかし、これに限らず、記録された撮像データ及び保護情報を別の画像処理装置が読み取り、撮像データに保護処理を行って再生するような画像処理システムを構築しても良い。   In this embodiment, privacy protection information is associated with image data and stored by the digital camera 100, and protection processing is performed by the digital camera 100 based on the privacy protection information during playback. However, the present invention is not limited to this, and an image processing system may be constructed in which recorded image data and protection information are read by another image processing apparatus, and the image data is protected and reproduced.

また、本実施形態では撮像データとしていわゆるLFデータを撮像するなどして取得し、その再構成画像の生成時に保護処理を施す実施例を示した。しかし、LFデータでない通常の撮像素子で得られた(例えば本実施形態の撮像素子でいうところの同一マイクロレンズ下の画素を加算して単位画素とした)画像データを撮像する撮像装置から得られる画像データに対しても、本発明は適用可能である。   Further, in the present embodiment, an example has been described in which so-called LF data is acquired as imaging data, and protection processing is performed when the reconstructed image is generated. However, it is obtained from an image pickup apparatus that picks up image data obtained by a normal image pickup device that is not LF data (for example, the pixels under the same microlens as referred to in the image pickup device of the present embodiment are added to form unit pixels). The present invention can also be applied to image data.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

例えば、プライバシー保護情報の内、再生装置側にてすでに登録されている情報(たとえば、再生装置の保有者の顔や、住所等)については、プライバシー保護対象から外し、ぼかし処理を行わないで表示してもよい。   For example, privacy protection information that is already registered on the playback device side (for example, the playback device owner's face, address, etc.) is excluded from privacy protection and displayed without blurring. May be.

[変形例]
上述した実施形態では、図3に示した撮像光学系104、マイクロレンズアレイ105、及び撮像部106の構成により取得されたLFデータを対象としたが、本発明は図13に示すような構成により得られたLFデータが使用されてもよい。図13の構成は、文献「Todor Georgiev and Andrew Lumsdaine, "Superresolution with Plenoptic 2.0 Camera", Signal Recovery and Synthesis, Optical Society of America, 2009"に記載されるプレノプティックカメラに対応する。図13の構成では、撮像光学系104の焦点がマイクロレンズアレイ105の面上ではなく、より撮像光学系104の射出瞳に近い位置に設けられている点が異なる。
[Modification]
In the above-described embodiment, the LF data acquired by the configuration of the imaging optical system 104, the microlens array 105, and the imaging unit 106 illustrated in FIG. 3 is targeted, but the present invention has the configuration illustrated in FIG. The obtained LF data may be used. The configuration of FIG. 13 corresponds to a plenoptic camera described in the literature “Todor Georgiev and Andrew Lumsdaine,“ Superresolution with Plenoptic 2.0 Camera ”, Signal Recovery and Synthesis, Optical Society of America, 2009”. The configuration of FIG. 13 is different in that the focal point of the imaging optical system 104 is provided not at the surface of the microlens array 105 but at a position closer to the exit pupil of the imaging optical system 104.

また、上述した実施形態では1つの撮像光学系104を通過した光束を、各マイクロレンズ201により分割し、分割瞳領域の各々に対応する画素出力を得るものとして説明した。しかしながら、本発明の実施は図14に示されるように複数の光学系を有する、所謂多眼カメラにより得られた複数の撮像データを本実施形態におけるLFデータと同等に取り扱うことにより実現されてもよい。つまり、複数の光学系の各々により光学像結像される複数の撮像素子の出力が、異なる分割瞳領域を通過した光束に対応する画像、即ち異なる方向から被写体を撮影した画像となるため、多眼カメラの出力は本実施形態におけるLFデータと等価である。なお、このような多眼カメラから再構成画像を生成する方法については、特開2011−022796号公報等に記載されている方法を用いればよい。   In the above-described embodiment, the light beam that has passed through one imaging optical system 104 is divided by each microlens 201 to obtain pixel outputs corresponding to each divided pupil region. However, the embodiment of the present invention may be realized by handling a plurality of imaging data obtained by a so-called multi-lens camera having a plurality of optical systems as shown in FIG. 14 in the same manner as the LF data in this embodiment. Good. In other words, the output of the plurality of imaging elements that are optically imaged by each of the plurality of optical systems is an image corresponding to the light flux that has passed through different divided pupil regions, that is, an image of the subject taken from different directions. The output of the eye camera is equivalent to the LF data in this embodiment. As a method for generating a reconstructed image from such a multi-lens camera, a method described in JP 2011-022796 A may be used.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

100:デジタルカメラ、101:制御部、102:ROM、103:RAM、104:撮像光学系、105:マイクロレンズアレイ、106:撮像部、107:AFE、108:DFE、109:画像処理部、110:表示部、111:記録媒体、112:操作入力部、116:通信部、118:GPS、119:電子コンパス、201:マイクロレンズ、202:光電変換素子、301:射出瞳   100: Digital camera, 101: Control unit, 102: ROM, 103: RAM, 104: Imaging optical system, 105: Micro lens array, 106: Imaging unit, 107: AFE, 108: DFE, 109: Image processing unit, 110 : Display unit, 111: recording medium, 112: operation input unit, 116: communication unit, 118: GPS, 119: electronic compass, 201: microlens, 202: photoelectric conversion element, 301: exit pupil

Claims (25)

ライトフィールドデータを取得するデータ取得手段と、
被写体を選択する選択手段と、
前記ライトフィールドデータを再構成して生成される再構成画像に係る情報であり、前記選択手段により選択された被写体を、複数の生成条件で再構成される再構成画像にわたって視認しにくくするための情報である制限情報を出力する出力手段と、を有する
ことを特徴とする画像処理装置。
Data acquisition means for acquiring light field data;
A selection means for selecting a subject;
Information relating to a reconstructed image generated by reconstructing the light field data, for making the subject selected by the selection means difficult to visually recognize over the reconstructed image reconstructed under a plurality of generation conditions And an output means for outputting restriction information, which is information.
前記出力手段により出力された前記制限情報を前記ライトフィールドデータに関連付けて記録する記録手段をさらに有する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a recording unit that records the restriction information output by the output unit in association with the light field data. 前記選択手段は、前記ライトフィールドデータから生成される再構成画像について所定の被写体を検出する検出手段を有し、
前記選択手段は、前記検出手段により検出された前記所定の被写体のうちの少なくとも一部の被写体を選択する
ことを特徴とする請求項1または2に記載の画像処理装置。
The selection means includes detection means for detecting a predetermined subject in the reconstructed image generated from the light field data,
The image processing apparatus according to claim 1, wherein the selection unit selects at least a part of the predetermined subjects detected by the detection unit.
前記制限情報は、前記ライトフィールドデータを再構成して生成される再構成画像において、前記選択手段により選択された被写体を視認しにくくするための処理を適用することを規定する情報であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The restriction information is information specifying that a process for making it difficult to visually recognize the subject selected by the selection unit is applied to a reconstructed image generated by reconstructing the light field data. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 前記視認しにくくするための処理を適用することを規定する情報は、再構成画像の生成条件ごとに定められることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the information defining that the process for making it difficult to visually recognize is determined for each reconstructed image generation condition. 前記視認しにくくするための処理を適用することを規定する情報は、生成される再構成画像の被写界深度に応じて該処理を適用する被写体距離の範囲を規定することを特徴とする請求項4または5に記載の画像処理装置。   The information defining that the process for making it difficult to view is applied defines a range of a subject distance to which the process is applied according to a depth of field of a generated reconstructed image. Item 6. The image processing apparatus according to Item 4 or 5. 前記視認しにくくするための処理は、画像内の領域に対するぼかし処理であり、
前記制限情報は、前記選択手段により選択された被写体に合焦する被写体距離に近い被写体距離に合焦させた再構成画像ほど、ぼかし処理の強度を強めるように規定されていることを特徴とする請求項4乃至6のいずれか1項に記載の画像処理装置。
The process for making it difficult to visually recognize is a blurring process for an area in the image,
The restriction information is defined such that the reconstructed image focused on a subject distance closer to the subject distance focused on the subject selected by the selection unit increases the intensity of blurring processing. The image processing apparatus according to claim 4.
前記視認しにくくするための処理は、画像内の領域に対するマスク処理であることを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the process for making the image difficult to visually recognize is a mask process for a region in the image. 前記視認しにくくするための処理は、前記選択手段により選択された被写体に対応する領域の輝度信号あるいは色信号を当該被写体が視認しにくくなるように変換する処理であることを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。   The process for making it difficult to visually recognize is a process for converting a luminance signal or a color signal of an area corresponding to the subject selected by the selection unit so that the subject is less likely to be visually recognized. The image processing apparatus according to any one of 4 to 7. ライトフィールドデータを取得するデータ取得手段と、
前記ライトフィールドデータから生成可能な再構成画像についての、被写体を再構成画像の複数の生成条件にわたって視認しにくくするための制限情報を取得する情報取得手段と、
前記ライトフィールドデータから生成する再構成画像の生成条件を設定する設定手段と、
前記設定手段により設定された生成条件と前記制限情報とに基づいて、最終的に生成する再構成画像の生成条件を決定する決定手段と、を有する
ことを特徴とする画像処理装置。
Data acquisition means for acquiring light field data;
Information acquisition means for acquiring restriction information for making it difficult to visually recognize a subject over a plurality of generation conditions of a reconstructed image for a reconstructed image that can be generated from the light field data;
Setting means for setting conditions for generating a reconstructed image generated from the light field data;
An image processing apparatus comprising: a determination unit that determines a generation condition of a reconstructed image to be finally generated based on the generation condition set by the setting unit and the restriction information.
前記決定手段により決定された生成条件に基づいて、前記ライトフィールドデータから再構成画像を生成する生成手段をさらに有することを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, further comprising a generation unit that generates a reconstructed image from the light field data based on the generation condition determined by the determination unit. 前記生成手段は、前記制限情報に基づいて、再構成画像内の指定された被写体に対応する領域に、該被写体を視認しにくくするための処理を適用することを特徴とする請求項11に記載の画像処理装置。   The said generating means applies the process for making it difficult to visually recognize the said subject to the area | region corresponding to the designated subject in a reconstruction image based on the said restriction | limiting information. Image processing apparatus. 前記制限情報は、前記ライトフィールドデータを再構成して生成される再構成画像において、前記指定された被写体を視認しにくくするための処理を適用することを規定する情報であることを特徴とする請求項12に記載の画像処理装置。   The restriction information is information defining that a process for making it difficult to visually recognize the designated subject is applied to a reconstructed image generated by reconstructing the light field data. The image processing apparatus according to claim 12. 前記視認しにくくするための処理を適用することを規定する情報は、再構成画像の生成条件ごとに定められることを特徴とする請求項12または13に記載の画像処理装置。   The image processing apparatus according to claim 12 or 13, wherein the information defining that the processing for making it difficult to visually recognize is determined for each generation condition of a reconstructed image. 前記視認しにくくするための処理を適用することを規定する情報は、生成される再構成画像の被写界深度に応じて該処理を適用する被写体距離の範囲を規定することを特徴とする請求項12乃至14のいずれか1項に記載の画像処理装置。   The information defining that the process for making it difficult to view is applied defines a range of a subject distance to which the process is applied according to a depth of field of a generated reconstructed image. Item 15. The image processing device according to any one of Items 12 to 14. 前記視認しにくくするための処理は、画像内の領域に対するぼかし処理であり、
前記制限情報は、前記指定された被写体に合焦する被写体距離に近い被写体距離に合焦させた再構成画像ほど、ぼかし処理の強度を強めるように規定されていることを特徴とする請求項12乃至15のいずれか1項に記載の画像処理装置。
The process for making it difficult to visually recognize is a blurring process for an area in the image,
13. The restriction information is defined such that a reconstructed image focused on a subject distance closer to a subject distance focused on the designated subject increases the intensity of blurring processing. 16. The image processing device according to any one of items 15 to 15.
前記視認しにくくするための処理は、画像内の領域に対するマスク処理であることを特徴とする請求項12乃至16のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 12 to 16, wherein the process for making it difficult to visually recognize is a mask process for a region in an image. 前記視認しにくくするための処理は、前記指定された被写体に対応する領域の輝度信号あるいは色信号を当該被写体が視認しにくくなるように変換する処理であることを特徴とする請求項12乃至16のいずれか1項に記載の画像処理装置。   The process for making it difficult to visually recognize is a process of converting a luminance signal or a color signal of an area corresponding to the designated subject so that the subject is difficult to visually recognize. The image processing apparatus according to any one of the above. 前記制限情報は、前記ライトフィールドデータを再構成して生成される再構成画像における主被写体以外の領域の被写体を視認しにくくするための情報であることを特徴とする請求項1乃至18のいずれか1項に記載の画像処理装置。   19. The restriction information is information for making it difficult to visually recognize a subject other than a main subject in a reconstructed image generated by reconstructing the light field data. The image processing apparatus according to claim 1. 前記ライトフィールドデータは、画素信号の各々が、前記ライトフィールドデータを撮像した際の撮像光学系の瞳領域及び入射方向の組み合わせが異なる光束に対応した信号強度を有することを特徴とする請求項1乃至19のいずれか1項に記載の画像処理装置。   2. The light field data according to claim 1, wherein each of the pixel signals has a signal intensity corresponding to a light beam having a different combination of a pupil region and an incident direction of an imaging optical system when the light field data is imaged. 20. The image processing device according to any one of items 1 to 19. 前記ライトフィールドデータは、被写体の3次元空間を記述する光線空間情報であり、データを再構成することにより、任意の被写体距離に合焦する再構成画像を生成可能であることを特徴とする請求項1乃至20のいずれか1項に記載の画像処理装置。   The light field data is ray space information describing a three-dimensional space of a subject, and a reconstructed image that focuses on an arbitrary subject distance can be generated by reconstructing the data. Item 21. The image processing apparatus according to any one of Items 1 to 20. ライトフィールドデータを取得するデータ取得工程と、
被写体を選択する選択工程と、
前記ライトフィールドデータを再構成して生成される再構成画像に係る情報であり、前記選択工程において選択された被写体を、複数の生成条件で再構成される再構成画像にわたって視認しにくくするための情報である制限情報を出力する出力工程と、を有する
ことを特徴とする画像処理方法。
A data acquisition process for acquiring light field data;
A selection process for selecting a subject;
Information relating to a reconstructed image generated by reconstructing the light field data, for making it difficult to visually recognize the subject selected in the selection step over the reconstructed image reconstructed under a plurality of generation conditions. And an output step of outputting restriction information that is information.
ライトフィールドデータを取得するデータ取得工程と、
前記ライトフィールドデータから生成可能な再構成画像についての、被写体を複数の再構成画像の生成条件にわたって視認しにくくするための制限情報を取得する情報取得工程と、
前記ライトフィールドデータから生成する再構成画像の生成条件を設定する設定工程と、
前記設定工程において設定された生成条件と前記制限情報とに基づいて、最終的に生成する再構成画像の生成条件を決定する決定工程と、を有する
ことを特徴とする画像処理方法。
A data acquisition process for acquiring light field data;
An information acquisition step for acquiring restriction information for making it difficult to visually recognize a subject over a plurality of reconstruction image generation conditions for a reconstructed image that can be generated from the light field data;
A setting step for setting a generation condition of a reconstructed image generated from the light field data;
An image processing method comprising: a determination step of determining a generation condition of a reconstructed image to be finally generated based on the generation condition set in the setting step and the restriction information.
コンピュータに請求項1乃至21のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 21. 請求項24に記載のプログラムを記録したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 24 is recorded.
JP2014185701A 2013-09-20 2014-09-11 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM Active JP6502640B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014185701A JP6502640B2 (en) 2013-09-20 2014-09-11 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
US14/488,927 US9420168B2 (en) 2013-09-20 2014-09-17 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013195318 2013-09-20
JP2013195318 2013-09-20
JP2014185701A JP6502640B2 (en) 2013-09-20 2014-09-11 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM

Publications (2)

Publication Number Publication Date
JP2015084517A true JP2015084517A (en) 2015-04-30
JP6502640B2 JP6502640B2 (en) 2019-04-17

Family

ID=53047916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014185701A Active JP6502640B2 (en) 2013-09-20 2014-09-11 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM

Country Status (1)

Country Link
JP (1) JP6502640B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163955A1 (en) * 2016-03-23 2017-09-28 日本電気株式会社 Monitoring system, image processing device, image processing method and program recording medium
JP7378235B2 (en) 2019-07-08 2023-11-13 キヤノン株式会社 Image processing device and its control method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium
JP2013134654A (en) * 2011-12-27 2013-07-08 Casio Comput Co Ltd Image processing device, image processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium
JP2013134654A (en) * 2011-12-27 2013-07-08 Casio Comput Co Ltd Image processing device, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163955A1 (en) * 2016-03-23 2017-09-28 日本電気株式会社 Monitoring system, image processing device, image processing method and program recording medium
US11030464B2 (en) 2016-03-23 2021-06-08 Nec Corporation Privacy processing based on person region depth
JP7378235B2 (en) 2019-07-08 2023-11-13 キヤノン株式会社 Image processing device and its control method

Also Published As

Publication number Publication date
JP6502640B2 (en) 2019-04-17

Similar Documents

Publication Publication Date Title
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6288952B2 (en) Imaging apparatus and control method thereof
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US10587860B2 (en) Imaging apparatus and method for controlling same
US9420168B2 (en) Image processing apparatus, image processing method, and storage medium
JP2013201752A5 (en)
JP2014153890A5 (en)
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2014157425A (en) Imaging device and control method thereof
JP6502640B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
US9369698B2 (en) Imaging apparatus and method for controlling same
JP6470530B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6074201B2 (en) Image processing apparatus, control method, and program
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2015139018A (en) Electronic apparatus and control program
JP6387149B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6106026B2 (en) Image processing apparatus, imaging apparatus, playback apparatus, control method, and program
JP2020085967A (en) Image processor, method for controlling the same, and program
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6478536B2 (en) Image processing apparatus and imaging apparatus, and control method and program thereof
JP2015139019A (en) Device and program for image composition
JP6271981B2 (en) Image processing apparatus, imaging apparatus, control method, program, and recording medium
JP2015154254A (en) Electronic apparatus and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R151 Written notification of patent or utility model registration

Ref document number: 6502640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151