JP5310895B2 - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP5310895B2
JP5310895B2 JP2012062568A JP2012062568A JP5310895B2 JP 5310895 B2 JP5310895 B2 JP 5310895B2 JP 2012062568 A JP2012062568 A JP 2012062568A JP 2012062568 A JP2012062568 A JP 2012062568A JP 5310895 B2 JP5310895 B2 JP 5310895B2
Authority
JP
Japan
Prior art keywords
pixel
image
sub
reconstructed
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012062568A
Other languages
Japanese (ja)
Other versions
JP2013197863A (en
Inventor
知明 長坂
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012062568A priority Critical patent/JP5310895B2/en
Priority to CN201310056458.4A priority patent/CN103297677B/en
Priority to US13/774,952 priority patent/US9386297B2/en
Publication of JP2013197863A publication Critical patent/JP2013197863A/en
Application granted granted Critical
Publication of JP5310895B2 publication Critical patent/JP5310895B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像生成装置、画像生成方法及びプログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program.

写真を撮影した後に、不要な被写体を消去する等の構図変換を実行する技術が知られている。
このような技術に関連して、特許文献1は、画像領域を指定して画像の構図を変更するにあたって、違和感を押さえるために補間する方法を開示している。特許文献1に記載の技術では、構図変更によって生じた間隙を、周辺の画素の画素値を用いて補正する。
A technique for executing composition conversion such as deleting unnecessary subjects after taking a picture is known.
In relation to such a technique, Patent Document 1 discloses a method of performing interpolation in order to suppress a sense of incongruity when an image region is designated and an image composition is changed. In the technique described in Patent Document 1, the gap caused by the composition change is corrected using the pixel values of surrounding pixels.

また、異なる視点から撮影した被写体の画像を取得することにより、被写体からカメラのレンズに侵入する光線の位置、方向、光量に係る情報を取得する技術が知られている。このような技術に関連して、特許文献2は被写体を撮影した複数の画像(ライトフィールド画像)を取得して、該複数の画像から焦点距離・被写界深度等を変化させた被写体の画像を再構成する技術を開示している。   In addition, there is known a technique for acquiring information related to the position, direction, and amount of light entering a lens of a camera from a subject by acquiring images of the subject taken from different viewpoints. In relation to such a technique, Patent Document 2 acquires a plurality of images (light field images) obtained by photographing a subject, and images of the subject in which focal length, depth of field, and the like are changed from the plurality of images. Is disclosed.

特表2005−509985号公報JP-T-2005-509985 特表2008−515110号公報Special table 2008-515110 gazette

一つの視点から撮影した画像に含まれる被写体の情報は、光線が到達する位置とその光量(各画素の座標とその画素値にそれぞれ対応)が全てである。そのため、このような平面的な画像上で邪魔になる被写体(不要被写体)を鑑賞の邪魔にならないように削除すると、特許文献1に記載の技術を用いて補正をするにしても、被写体からの光線情報によらない補間が必要となる。そのため、変更した画像は、実際に不要被写体を消去して撮影した場合と大きく異なってしまう。即ち、消去後の画像が被写体からの情報を反映しないものとなってしまうという問題があった。
一方、特許文献2は、被写体を複数の視点から撮影することにより、被写体の立体的な形状を示す情報や、ある視点からは隠れて見えない被写体からの光線情報等を得る技術を開示している。しかし、特許文献2は一部の被写体を削除した再構成画像を生成する方法を開示しておらず、上記の課題を解決するものではない。
The information on the subject included in the image taken from one viewpoint is all the position where the light beam reaches and the amount of light (corresponding to the coordinates of each pixel and its pixel value, respectively). For this reason, if a subject (unnecessary subject) that gets in the way of such a planar image is deleted so as not to interfere with viewing, even if correction is performed using the technique described in Patent Document 1, it is possible to remove the subject from the subject. Interpolation that is not based on ray information is required. For this reason, the changed image is greatly different from the case where the unnecessary subject is actually erased and photographed. That is, there is a problem that the image after erasure does not reflect information from the subject.
On the other hand, Patent Document 2 discloses a technique for obtaining information indicating the three-dimensional shape of a subject, light ray information from a subject that is hidden from a certain viewpoint, and the like by photographing the subject from a plurality of viewpoints. Yes. However, Patent Document 2 does not disclose a method for generating a reconstructed image in which some subjects are deleted, and does not solve the above-described problem.

本発明は上記事情に鑑みてなされたもので、主要な被写体の撮影情報をより反映する再構成画像を生成する画像生成装置、画像生成方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image generation apparatus, an image generation method, and a program for generating a reconstructed image that more accurately reflects photographing information of a main subject.

上記目的を達成するため、本発明に係る画像生成装置は、
複数の視点のそれぞれから撮影した、複数のサブ画像から構成される撮影画像を取得する画像取得部と
前記サブ画像を構成するサブ画素から、削除の対象となる削除被写体に対応するサブ画素を削除画素として抽出する抽出部と、
所定の再構成面に定義される再構成画像を構成する再構成画素と、前記サブ画素と、の対応関係を、前記削除画素として抽出したサブ画素との対応の度合いが小さくなるように変更する変更部と、
前記変更された対応関係を用いて、前記サブ画素の画素値から前記再構成画素の画素値を求めることで、前記削除画素の影響が小さい再構成画像を生成する生成部と、
を備えることを特徴とする。
In order to achieve the above object, an image generation apparatus according to the present invention includes:
And shoot each one these multiple viewpoints, an image acquisition section which acquires a captured image including a plurality of sub-images,
Sub pixels constituting the sub-image, an extraction unit for extracting a sub-pixel corresponding to the deletion object to be deleted as a deletion pixel,
The correspondence relationship between the reconstructed pixels constituting the reconstructed image defined on the predetermined reconstructed surface and the sub-pixels is changed so that the degree of correspondence between the sub-pixels extracted as the deleted pixels is reduced. Change part,
A generation unit that generates a reconstructed image with a small influence of the deleted pixel by obtaining a pixel value of the reconstructed pixel from a pixel value of the sub-pixel using the changed correspondence relationship ;
It is characterized by providing.

本発明によれば、主要な被写体の撮影情報をより反映する再構成画像を生成できる。   According to the present invention, it is possible to generate a reconstructed image that more reflects the shooting information of the main subject.

本発明の実施形態1に係るデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera which concerns on Embodiment 1 of this invention. 実施形態1に係るデジタルカメラの光学系の構成を示す図である。1 is a diagram illustrating a configuration of an optical system of a digital camera according to Embodiment 1. FIG. 実施形態1に係るライトフィールド画像の例を示す図であり、(a)はライトフィールド画像の概念図を、(b)はライトフィールド画像の例を、(c)はライトフィールド奥行きマップの例を示す。FIG. 3 is a diagram illustrating an example of a light field image according to the first embodiment, where (a) is a conceptual diagram of the light field image, (b) is an example of the light field image, and (c) is an example of the light field depth map. Show. 実施形態1に係る光線追跡について説明するための図である。FIG. 6 is a diagram for explaining ray tracing according to the first embodiment. 実施形態1に係る対応リストの例を示す図である。It is a figure which shows the example of the corresponding | compatible list which concerns on Embodiment 1. FIG. 実施形態1に係る画像生成装置の(a)物理的構成と、(b)機能的構成と、を示す図である。It is a figure which shows (a) physical structure of the image generation apparatus which concerns on Embodiment 1, and (b) functional structure. 実施形態1に係る削除を指示する操作を説明するための図であり、(a)は仮再構成画像を、(b)は削除被写体を選択する操作を、(c)は削除対象を確定する操作を、(d)は完全削除後の再構成画像を、(e)は一定比率削除後の再構成画像を、それぞれ示す。FIG. 6 is a diagram for explaining an operation for instructing deletion according to the first embodiment, where (a) is a provisional reconstructed image, (b) is an operation for selecting a deletion subject, and (c) is a deletion target. Operation (d) shows a reconstructed image after complete deletion, and (e) shows a reconstructed image after deletion at a fixed ratio. 実施形態1に係る再構成画像と再構成奥行きマップとを説明するための図であり、(a)は仮再構成画像を、(b)は仮再構成奥行きマップを、(c)は削除再構成画像を、(d)は削除再構成奥行きマップを、それぞれ示す。FIG. 5 is a diagram for explaining a reconstructed image and a reconstructed depth map according to the first embodiment, where (a) is a temporary reconstructed image, (b) is a temporary reconstructed depth map, and (c) is a deleted reconstructed image. (D) shows a deletion reconstruction depth map, respectively. 実施形態1に係る削除対象を選択する処理を説明するための図であり、(a)は削除操作を、(b)は選択に用いられる選択画素リストを、(c)選択結果を、それぞれ示す図である。FIG. 6 is a diagram for explaining processing for selecting a deletion target according to the first embodiment, where (a) shows a deletion operation, (b) shows a selection pixel list used for selection, and (c) shows a selection result. FIG. 実施形態1に係る削除処理を説明するための図であり、(a)は削除前のLFIを、(b)は仮再構成画像を、(c)は削除後のLFIを、(d)は削除再構成画像を、それぞれ示す。FIG. 6 is a diagram for explaining a deletion process according to the first embodiment, where (a) shows an LFI before deletion, (b) shows a temporary reconstructed image, (c) shows an LFI after deletion, and (d) shows an LFI after deletion. Deletion reconstructed images are shown respectively. 実施形態1に係る画像出力処理を示すフローチャートである。3 is a flowchart illustrating image output processing according to the first embodiment. 実施形態1に係る仮再構成画像生成処理を示すフローチャートである。6 is a flowchart illustrating provisional reconstructed image generation processing according to the first embodiment. 実施形態1に係る削除対象定義処理を示すフローチャートである。6 is a flowchart illustrating a deletion target definition process according to the first embodiment. 実施形態1に係る削除奥行き定義処理を示すフローチャートである。6 is a flowchart illustrating a deletion depth definition process according to the first embodiment. 実施形態1に係る削除画素抽出処理を示すフローチャートである。6 is a flowchart illustrating a deleted pixel extraction process according to the first embodiment. 実施形態1に係る削除再構成画像生成処理を示すフローチャートである。6 is a flowchart illustrating a deletion reconstructed image generation process according to the first embodiment. 本発明のその他の実施形態に係るクラス−デプス対応リストの例を示す図である。It is a figure which shows the example of the class-depth corresponding | compatible list which concerns on other embodiment of this invention. 本発明のその他の実施形態に係る選択画素リストの例を示す図である。It is a figure which shows the example of the selection pixel list | wrist which concerns on other embodiment of this invention.

以下、本発明を実施するための形態に係るデジタルカメラ及び画像生成装置(再構成画像生成装置)を、図を参照しながら説明する。なお、図中同一又は相当する部分には同一符号を付す。   Hereinafter, a digital camera and an image generation apparatus (reconstructed image generation apparatus) according to an embodiment for carrying out the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

(実施形態1)
実施形態1に係る画像生成装置30(再構成画像生成装置)は、図1に示すデジタルカメラ1に搭載されている。デジタルカメラ1は、以下のi)〜vi)の機能を持つ。
i)被写体を複数の視点から撮影した複数のサブイメージからなるライトフィールド画像を撮影する機能
ii)被写体の奥行きを示す奥行き係数を求める機能
iii)ライトフィールド画像から被写体の画像を再構成した再構成画像を生成する機能
iv)生成した再構成画像を表示する機能
v)削除対象の被写体(削除被写体)を指示する操作を受け付ける機能
vi)受付けた操作に応じて、構図を変更した再構成画像を生成する機能
画像生成装置30は、このうち特にvi)受付けた操作に応じて、構図を変更した再構成画像を生成する機能、を受け持つ。
(Embodiment 1)
An image generation apparatus 30 (reconstructed image generation apparatus) according to Embodiment 1 is mounted on the digital camera 1 shown in FIG. The digital camera 1 has the following functions i) to vi).
i) Function for photographing a light field image composed of a plurality of sub-images obtained by photographing the subject from a plurality of viewpoints ii) Function for obtaining a depth coefficient indicating the depth of the subject iii) Reconstruction by reconstructing the subject image from the light field image A function for generating an image iv) A function for displaying a generated reconstructed image v) A function for receiving an operation for instructing a subject to be deleted (deleted subject) vi) A reconstructed image whose composition has been changed according to the received operation Function to Generate The image generation apparatus 30 is particularly responsible for vi) a function for generating a reconstructed image whose composition has been changed in accordance with an accepted operation.

デジタルカメラ1は、図1に示すように、撮像部10と、画像生成装置30を含む情報処理部20と、記憶部40と、インターフェース部(I/F部)50と、から構成される。デジタルカメラ1は、このような構成により、外部から被写体の光線情報を取得して再構成画像を生成する。このとき、被写体のうち削除対象となる被写体(削除被写体)がその他の被写体(主要被写体)の鑑賞の邪魔にならないように削除した再構成画像を生成する。
なお、ここで「削除被写体を削除する」とは、削除被写体を完全に除去することはもとより、主要被写体の鑑賞の邪魔にならないレベルまで削除被写体からの光線情報が再構成画像に与える影響を減少することを含むものとする。
As shown in FIG. 1, the digital camera 1 includes an imaging unit 10, an information processing unit 20 including an image generation device 30, a storage unit 40, and an interface unit (I / F unit) 50. With such a configuration, the digital camera 1 acquires ray information of a subject from the outside and generates a reconstructed image. At this time, a reconstructed image is generated such that the subject to be deleted (deleted subject) among the subjects is deleted so as not to obstruct the viewing of other subjects (main subjects).
Here, “deleting the deleted subject” means not only removing the deleted subject completely, but also reducing the effect of the ray information from the deleted subject on the reconstructed image to a level that does not interfere with the viewing of the main subject. To include.

撮像部10は、光学装置110と、イメージセンサ120と、から構成され、撮像動作を行う。   The imaging unit 10 includes an optical device 110 and an image sensor 120, and performs an imaging operation.

光学装置110は、図2に示すように、シャッタ111と、メインレンズMLと、サブレンズアレイSLA(マイクロレンズアレイ)と、から構成される。光学装置110は、外部(被写体)からの光線をメインレンズMLによって捉え、サブレンズアレイSLAを構成する各サブレンズSLの光学中心を視点として得られる光学像をイメージセンサ120に投影する。   As shown in FIG. 2, the optical device 110 includes a shutter 111, a main lens ML, and a sub lens array SLA (micro lens array). The optical device 110 captures light rays from the outside (subject) by the main lens ML, and projects an optical image obtained from the viewpoint of the optical center of each sub lens SL constituting the sub lens array SLA on the image sensor 120.

イメージセンサ120は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子と、撮像素子が生成した電気信号を情報処理部20に伝達する伝達部と、から構成される。イメージセンサ120はこのような物理構成により光学装置110が投影した光学像を電気信号に変換して情報処理部20に伝達する。   The image sensor 120 includes, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and a transmission unit that transmits an electric signal generated by the image sensor to the information processing unit 20. . The image sensor 120 converts the optical image projected by the optical device 110 into an electrical signal with such a physical configuration and transmits the electrical signal to the information processing unit 20.

シャッタ111は、イメージセンサ120への外部光の入射と遮蔽を制御する。
メインレンズMLは、一又は複数の凸レンズ、凹レンズ、非球面レンズ等から構成され、撮影時の被写体OBの光を光学像としてメインレンズMLとサブレンズアレイSLAとの間の仮想的なメインレンズ結像面MIP上に結像させる。なお、撮影時の被写体OBは、図2に示すようにメインレンズMLからそれぞれ異なる距離だけ離れた複数の構成物であるとする。
The shutter 111 controls the incidence and shielding of external light on the image sensor 120.
The main lens ML is composed of one or a plurality of convex lenses, concave lenses, aspherical lenses, and the like, and a virtual main lens connection between the main lens ML and the sub lens array SLA with the light of the subject OB at the time of photographing as an optical image. An image is formed on the image plane MIP. Note that the subject OB at the time of shooting is assumed to be a plurality of components that are separated from the main lens ML by different distances as shown in FIG.

サブレンズアレイSLAは、平面上に格子状に配置されたM×N個のサブレンズ(マイクロレンズ)SLから構成される。サブレンズアレイSLAは、メインレンズMLがメインレンズ結像面MIP上に結像させた光学像を、それぞれのサブレンズSLの光学中心を視点として観測した光学像として、イメージセンサ120を構成するイメージセンサの撮像面IE上に結像する。メインレンズMLが成す平面と撮像面IEが成す平面とから構成される空間をライトフィールドと呼ぶ。   The sub lens array SLA includes M × N sub lenses (micro lenses) SL arranged in a lattice pattern on a plane. The sub-lens array SLA is an image constituting the image sensor 120 by using an optical image formed by the main lens ML on the main lens imaging plane MIP as an optical image observed from the viewpoint of the optical center of each sub-lens SL. An image is formed on the imaging surface IE of the sensor. A space formed by a plane formed by the main lens ML and a plane formed by the imaging surface IE is referred to as a light field.

メインレンズMLについて、最大径LDと、有効径EDと、が定義できる。最大径LDは、メインレンズMLの物理的な直径である。一方、有効径EDはメインレンズMLのうち撮影に使用できる領域の直径である。メインレンズMLのうち、有効径EDの外部は、メインレンズMLに貼り付けられた各種フィルタやメインレンズML周辺の物理構造によってメインレンズに入出力する光線が遮られるため、画像を撮影・再構成するために有効でない領域(非有効領域)である。
最大径LDと有効径EDは、予め測定され、工場出荷時に記憶部40に記憶されている。
For the main lens ML, a maximum diameter LD and an effective diameter ED can be defined. The maximum diameter LD is the physical diameter of the main lens ML. On the other hand, the effective diameter ED is a diameter of a region that can be used for photographing in the main lens ML. Of the main lens ML, the outside of the effective diameter ED captures and reconstructs an image because light beams input to and output from the main lens are blocked by various filters attached to the main lens ML and the physical structure around the main lens ML. This is an area that is not effective for the purpose (non-effective area).
The maximum diameter LD and the effective diameter ED are measured in advance and stored in the storage unit 40 at the time of factory shipment.

図2の例では、複数の被写体OB(被写体OB1〜被写体OB3)のうち、被写体OB2のある部分POBからの光線がメインレンズMLの有効径EDをなす部分(有効部)を通過し、複数のサブレンズSL上に投影されている。このように、ある被写体OBの部分POBから発された光が、メインレンズMLの有効部を通過してサブレンズアレイSLA上に投影される領域を、部分POBのメインレンズブラーMLBと呼ぶ。このうち、主光線が到達する部位をメインレンズブラー中心MLBCと呼ぶ。
なお、以後複数の被写体について、遠い(メインレンズからの距離が大きい)被写体から順に被写体OB1〜被写体OB3と表記する。
In the example of FIG. 2, among a plurality of subjects OB (subjects OB1 to OB3), a light beam from a portion POB where the subject OB2 is located passes through a portion (effective portion) that forms an effective diameter ED of the main lens ML. Projected onto the sub-lens SL. In this way, an area where light emitted from a portion POB of a certain subject OB passes through the effective portion of the main lens ML and is projected onto the sub-lens array SLA is referred to as a main lens blur MLB of the portion POB. Among these, the part where the chief ray reaches is called the main lens blur center MLBC.
Hereinafter, a plurality of subjects will be referred to as subjects OB1 to OB3 in order from the farthest (the distance from the main lens is large).

メインレンズMLの光学中心からメインレンズの結像面MIPまでの距離をb1、結像面MIPからサブレンズアレイSLAがなす面までの距離をa2、サブレンズアレイSLAからイメージセンサ120の撮像面IEの距離をc2とする。   The distance from the optical center of the main lens ML to the imaging plane MIP of the main lens is b1, the distance from the imaging plane MIP to the plane formed by the sub lens array SLA is a2, and the imaging plane IE of the image sensor 120 from the sub lens array SLA. Let c2 be the distance.

撮像部10は、上記構成により、ライトフィールドを通過する光線の情報(到達部位、光量、方向)を含んだライトフィールド画像(LFI)を撮影する。
ブロック状の被写体OBを撮影したLFIの一例を図3(a)に示す。
このLFIは、格子状に配置されたM×N個のサブレンズSL(マイクロレンズ)のそれぞれに対応する画像(サブイメージSI、S11〜SMN)から構成されている。例えば、左上のサブイメージS11は、被写体OBを左上から撮影した画像に相当し、右下のサブイメージSMNは被写体OBを右下から撮影した画像に相当する。
With the above-described configuration, the imaging unit 10 captures a light field image (LFI) including information on the light rays passing through the light field (arrival site, light amount, direction).
FIG. 3A shows an example of the LFI obtained by shooting the block-shaped subject OB.
This LFI is composed of images (sub-images SI, S 11 to S MN ) corresponding to each of M × N sub-lenses SL (microlenses) arranged in a lattice pattern. For example, the upper left subimage S 11 corresponds to an image obtained by photographing the object OB from the upper left, the sub-image S MN the lower right corresponds to an image obtained by photographing the object OB from the lower right.

各サブイメージは、サブイメージを結像させたサブレンズの位置に対応したLFI上の位置に配置されている。
第i行のサブイメージ(横の一列のサブイメージ)Si1〜SiNは、メインレンズMLが結像した像を、サブレンズアレイSLAの第i行の横に並んだサブレンズSLで結像したステレオ画像に相当する。同様に、第j列のサブイメージ(縦の一列のサブイメージ)S1j〜SMjは、メインレンズMLが結像した像を、サブレンズアレイSLA(マイクロレンズアレイ)の第j列の縦に並んだサブレンズSLで撮影したステレオ画像に相当する。なお、本実施形態では各サブイメージはグレースケール画像であり、サブイメージを構成する各画素は画素値(スカラー値)を持つ。
Each sub image is arranged at a position on the LFI corresponding to the position of the sub lens on which the sub image is formed.
The i-th row sub-images (horizontal row sub-images) Si1 to SiN are stereo images in which the image formed by the main lens ML is formed by the sub-lens SL arranged side by side in the i-th row of the sub-lens array SLA. Corresponds to an image. Similarly, in the j-th row sub-images (vertical one-row sub-images) S1j to SMj, the images formed by the main lenses ML are arranged vertically in the j-th column of the sub-lens array SLA (microlens array). This corresponds to a stereo image taken with the sub lens SL. In the present embodiment, each sub image is a gray scale image, and each pixel constituting the sub image has a pixel value (scalar value).

図1に示す情報処理部20は、物理的にはCPU(Central Processing Unit)と、RAM(Random Access Memory)と、内部バスと、I/Oポートと、から構成される。情報処理部20はこのような物理構成により、画像処理部210、奥行き推定・対応定義部220、画像生成装置30、撮像制御部230、として機能する。   The information processing unit 20 shown in FIG. 1 is physically composed of a CPU (Central Processing Unit), a RAM (Random Access Memory), an internal bus, and an I / O port. The information processing unit 20 functions as the image processing unit 210, the depth estimation / correspondence definition unit 220, the image generation device 30, and the imaging control unit 230 with such a physical configuration.

画像処理部210は、イメージセンサ120から電気信号を取得し、取得した電気信号を記憶部40の撮像設定記憶部410が記憶する撮像設定情報に基づいて画像データに変換する。画像処理部210は、画像データと、撮像設定情報に所定の情報を加えた撮影設定情報と、を奥行き推定・対応定義部220に伝達する。
撮像設定記憶部410が記憶する撮像設定情報については後述する。
The image processing unit 210 acquires an electrical signal from the image sensor 120 and converts the acquired electrical signal into image data based on imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40. The image processing unit 210 transmits the image data and shooting setting information obtained by adding predetermined information to the shooting setting information to the depth estimation / correspondence definition unit 220.
The imaging setting information stored in the imaging setting storage unit 410 will be described later.

奥行き推定・対応定義部220は、LFI及び撮影設定情報を受け取ると、LFI上のサブイメージ上の各画素について、被写体の奥行きを推定する。このとき、被写体の奥行きは、その被写体に対応する画素が各サブイメージ上でズレている程度を算出する。そのズレの大きさを奥行きを示す係数とする。そして、推定した奥行きを示す係数を各画素の位置に配置した情報(ライトフィールド奥行きマップ、LFDM)を生成する。奥行き係数が大きいほど、その画素に写った被写体が手前(メインレンズMLに近い位置)にあると推定される。   Upon receiving the LFI and the shooting setting information, the depth estimation / correspondence definition unit 220 estimates the depth of the subject for each pixel on the sub-image on the LFI. At this time, the depth of the subject is calculated to the extent that the pixel corresponding to the subject is shifted on each sub-image. The size of the deviation is a coefficient indicating the depth. Then, information (light field depth map, LFDM) in which a coefficient indicating the estimated depth is arranged at the position of each pixel is generated. It is estimated that the subject reflected in the pixel is closer to the front (position closer to the main lens ML) as the depth coefficient is larger.

LFDMは、LFIに含まれるサブ画素のそれぞれについて、奥行きを示す係数を定義する。図3(b)に示すLFIに対するLFDMを、図3(c)に示す。LFDMでは、図3(b)に示したような直方体の被写体を撮影したLFIに対して、より奥にある部分(直方体の奥の辺)がより濃い色で、手前(正面)が薄い色で示されている。以下、同様に奥行きマップにおいてより奥にある部位を濃い画素で、手前にある部分を薄い画素で示す。
なお、ここではLFIとLFDMとは分離した情報として説明したが、LFIとLFDMとは、ある座標に配置された画素について、画素値(LFIが保持する情報)と奥行き係数(LFDMが保持する情報)とを対応づけて記録するまとまった一つのデータであってもよい。
LFDMは、多視点画像の各画素の奥行きを推定する既知の任意の方法を用いて生成することが出来るが、本実施形態では後述する方法を用いるとする。
The LFDM defines a coefficient indicating the depth for each of the sub-pixels included in the LFI. FIG. 3C shows the LFDM for the LFI shown in FIG. In the LFDM, the deeper part (the back side of the cuboid) is darker and the front (front) is lighter than the LFI obtained by photographing the cuboid subject as shown in FIG. It is shown. Hereinafter, similarly, a deeper part in the depth map is indicated by dark pixels, and a front part is indicated by thin pixels.
Here, LFI and LFDM have been described as separated information, but LFI and LFDM are pixel values (information held by LFI) and depth coefficients (information held by LFDM) for pixels arranged at certain coordinates. ) May be recorded as one piece of data.
The LFDM can be generated using any known method for estimating the depth of each pixel of a multi-viewpoint image. In the present embodiment, it is assumed that the method described later is used.

奥行き推定・対応定義部220は、さらに構図変更前の再構成画像(仮再構成画像)を構成する画素(再構成画素)と、サブ画素との対応関係を定めた対応情報を求める。対応情報とは、再構成設定が示す再構成面上に配置された再構成画像について、その再構成画素の位置にある被写体が写っているサブ画素(対応サブ画素)を示す情報である。   The depth estimation / correspondence definition unit 220 further obtains correspondence information that defines the correspondence between the pixels (reconstructed pixels) constituting the reconstructed image (temporary reconstructed image) before the composition change and the sub-pixels. The correspondence information is information indicating a sub-pixel (corresponding sub-pixel) in which the subject at the position of the reconstructed pixel is shown in the reconstructed image arranged on the reconstruction plane indicated by the reconstruction setting.

奥行き推定・対応定義部220は、再構成画素(注目画素)の対応サブ画素を抽出する既知の任意の方法によって対応情報を生成してよいが、本実施形態では以下の光線追跡により抽出する。
光線追跡の方法を、図4を参照して説明する。被写体の注目部位P(注目画素に対応)からの光線は、メインレンズの主点を通過してマイクロレンズアレイの到達位置(図4のサブレンズ上のMLBC)に到達する。MLBCのサブレンズ上の位置は、撮影設定に基づいて求めることが出来る。MLBCを中心に、注目部位からの光が届いた範囲(メインレンズブラーMLB、図4の網線領域)を、レンズの特性からもとめる。メインレンズブラーMLBの直径は、メインレンズMLと再構成面RFとの距離a1、メインレンズと結像面MIPとの距離b1(a1とメインレンズの焦点距離fMLから算出)、結像面MIPとサブレンズアレイSLAとの距離a2と、メインレンズの有効径EDと、から三角形の相似を用いて算出する。
The depth estimation / correspondence definition unit 220 may generate correspondence information by any known method for extracting the corresponding sub-pixel of the reconstructed pixel (target pixel), but in the present embodiment, the depth estimation / correspondence definition unit 220 extracts it by the following ray tracing.
A method of ray tracing will be described with reference to FIG. The light beam from the target portion P (corresponding to the target pixel) of the subject passes through the main point of the main lens and reaches the arrival position of the microlens array (MLBC on the sub lens in FIG. 4). The position on the sub lens of the MLBC can be obtained based on the shooting setting. The range (main lens blur MLB, mesh area in FIG. 4) in which light from the target region reaches centered on MLBC is obtained from the lens characteristics. The diameter of the main lens blur MLB the distance between the main lens ML and the reconstruction plane RF a1, (calculated from the focal length f ML of a1 and the main lens) distance b1 between the main lens and the image plane MIP, imaging plane MIP And the distance a2 between the sub lens array SLA and the effective diameter ED of the main lens.

次に、サブレンズアレイSLAに含まれるサブレンズSLの内、一部又は全てがメインレンズブラーMLBに含まれるサブレンズSLを特定する。そして、特定されたサブレンズSLを順次注目レンズとして選択する。このとき、注目レンズとメインレンズブラーが重なる部位の面積wを、メインレンズブラー中心の位置と、メインレンズブラーMLBの直径と、撮影設定情報が定めるサブレンズの位置及び大きさと、から求める。   Next, among the sub lenses SL included in the sub lens array SLA, a part or all of the sub lenses SL are specified in the main lens blur MLB. Then, the identified sub lenses SL are sequentially selected as the target lens. At this time, the area w of the portion where the target lens and the main lens blur overlap is obtained from the position of the center of the main lens blur, the diameter of the main lens blur MLB, and the position and size of the sub lens defined by the shooting setting information.

注目画素からの光線が、選択されたサブレンズによって結像される位置にある、サブ画像上の画素(対応画素)を抽出する。   A pixel (corresponding pixel) on the sub-image at a position where the light beam from the target pixel is imaged by the selected sub-lens is extracted.

具体的には、対応画素(到達点PEに対応)を以下の手順で算出する。
まず、再構成面RFに対応するメインレンズの焦点面までの距離b1は既知の数値a1及びfMLを用い、次の式(1)から算出することが出来る。
Specifically, the corresponding pixel (corresponding to the reaching point PE) is calculated according to the following procedure.
First, the distance b1 to the focal plane of the main lens corresponding to the reconstruction surface RF can be calculated from the following equation (1) using known numerical values a1 and fML .

また、a2は既知の数値c1から、式(1)を用いて算出したb1を減算することで求めることができる。
さらに、再構成面RFとメインレンズとの距離a1と、メインレンズ結像面MIPとサブレンズとの距離b1と、既知の数値x(注目部位Pと光軸OAとの距離)を以下の式(2)に用いて、注目部位PからメインレンズMLを通して結像する点(結像点PF)と光軸OAとの距離x’を算出する。
x’=x・b1/a1…(2)
さらに、光軸OAから注目サブレンズSLの主点までの距離d、上記の式(2)を用いて算出された距離x’、マイクロレンズアレイLAから撮像面IEまでの距離c2、及び距離a2を以下の式(3)に用いて、到達点PEと光軸OAとの距離x’’を算出する。
Further, a2 can be obtained by subtracting b1 calculated using the equation (1) from the known numerical value c1.
Further, the distance a1 between the reconstruction surface RF and the main lens, the distance b1 between the main lens imaging surface MIP and the sub lens, and a known numerical value x (distance between the target portion P and the optical axis OA) are expressed by the following equations: In (2), a distance x ′ between a point (imaging point PF) that forms an image from the target site P through the main lens ML and the optical axis OA is calculated.
x ′ = x · b1 / a1 (2)
Furthermore, the distance d from the optical axis OA to the principal point of the sub lens SL of interest, the distance x ′ calculated using the above equation (2), the distance c2 from the microlens array LA to the imaging surface IE, and the distance a2 Is used in the following equation (3) to calculate the distance x ″ between the arrival point PE and the optical axis OA.

Y軸方向にも同様に計算し、到達点PEの位置を特定する。そして、到達点PEに対応するサブイメージ上の画素を対応画素とする。そして、注目レンズについて求めた面積wを注目画素と対応画素の重みとする。   The same calculation is performed in the Y-axis direction, and the position of the reaching point PE is specified. Then, the pixel on the sub-image corresponding to the reaching point PE is set as the corresponding pixel. Then, the area w obtained for the target lens is set as the weight of the target pixel and the corresponding pixel.

対応情報の一例である、対応リストを図5に示す。図5の対応リストは、再構成画素の再構成画像上の座標(xr,yr)と、その座標の再構成画素について光線追跡により抽出されたサブ画素のLFI上の座標(xs,ys)とその重み(w)を対応付けて記録する。一つの再構成画素について、サブ画素は複数抽出される。例えば、図5の例では一つ目の再構成画素(座標(1,1))について、(xs(1,1),ys(1,1))〜(xs(1,k),ys(1,k))に位置するk1個のサブ画素が抽出されている。抽出されたサブ画素と再構成画素の対応の強さ(重み)が、w(1,1)〜w(1,k)である。
奥行き推定・対応定義部220は、このような対応情報と、LFIとLFDMとを画像生成装置30に伝達する。
FIG. 5 shows a correspondence list which is an example of correspondence information. The correspondence list in FIG. 5 includes coordinates (xr, yr) on the reconstructed image of the reconstructed pixel, and coordinates (xs, ys) on the LFI of the sub-pixel extracted by ray tracing for the reconstructed pixel at that coordinate. The weight (w) is recorded in association with it. A plurality of sub-pixels are extracted for one reconstructed pixel. For example, in the example of FIG. 5, (xs (1,1), ys (1,1)) to (xs (1, k 1 ), ys are set for the first reconstructed pixel (coordinate (1,1)). K1 sub-pixels located at (1, k 1 )) are extracted. The corresponding strengths (weights) of the extracted sub-pixels and reconstructed pixels are w (1,1) to w (1, k 1 ).
The depth estimation / correspondence definition unit 220 transmits such correspondence information, LFI, and LFDM to the image generation apparatus 30.

画像生成装置30は、画像処理部210から伝達されたLFIとLFDMを用いて、削除被写体を削除した上で再構成した画像(削除再構成画像)を生成する。
画像生成装置30は、生成した削除再構成画像を記憶部40の画像記憶部430に記憶する。画像生成装置30の構成及び削除再構成画像を生成する処理については後述する。
The image generation device 30 uses the LFI and LFDM transmitted from the image processing unit 210 to generate an image (deleted reconstructed image) reconstructed after deleting the deleted subject.
The image generation device 30 stores the generated deletion reconstructed image in the image storage unit 430 of the storage unit 40. The configuration of the image generation device 30 and the processing for generating the deleted reconstructed image will be described later.

撮像制御部230は、記憶部40の撮像設定記憶部410に記憶された撮像設定情報に基づいて撮像部10を制御し、撮像部10を用いて被写体OBを撮影する。   The imaging control unit 230 controls the imaging unit 10 based on the imaging setting information stored in the imaging setting storage unit 410 of the storage unit 40 and images the subject OB using the imaging unit 10.

記憶部40は、RAM等から構成される主記憶装置と、フラッシュメモリ、ハードディスク、等の不揮発性メモリから構成される外部記憶装置と、から構成される。
主記憶装置は外部記憶装置に記憶されている制御プログラムや情報をロードし、情報処理部20の作業領域として用いられる。
外部記憶装置は、後述する処理を情報処理部20に行わせるための制御プログラムと情報とをあらかじめ記憶し、これらの制御プログラムや情報を情報処理部20の指示に従って主記憶装置に伝達する。また、情報処理部20の指示に従って、情報処理部20の処理に基づく情報とインターフェース部50から伝達された情報とを記憶する。
The storage unit 40 includes a main storage device including a RAM and the like, and an external storage device including a nonvolatile memory such as a flash memory and a hard disk.
The main storage device loads control programs and information stored in the external storage device and is used as a work area of the information processing unit 20.
The external storage device stores in advance a control program and information for causing the information processing unit 20 to perform processing to be described later, and transmits these control program and information to the main storage device in accordance with instructions from the information processing unit 20. Further, in accordance with an instruction from the information processing unit 20, information based on the processing of the information processing unit 20 and information transmitted from the interface unit 50 are stored.

記憶部40は、機能的には、撮像設定記憶部410と、再構成設定記憶部420と、画像記憶部430と、から構成される。   Functionally, the storage unit 40 includes an imaging setting storage unit 410, a reconstruction setting storage unit 420, and an image storage unit 430.

撮像設定記憶部410は、撮像設定情報を記憶する。撮像設定情報は、撮像時に変化しうる撮像パラメータとしてメインレンズMLとサブレンズアレイSLAとの距離、メインレンズの焦点距離fML、露光時間を特定する情報、F値、シャッタ速度、等を含む。また、撮像設定記憶部410は、各サブレンズSLのサブレンズアレイSLA上の位置、サブレンズアレイSLAと撮像面IEとの距離c2等のデジタルカメラ1の物理構成に係る情報を記憶している。
撮像設定記憶部410は、撮像パラメータを撮像制御部230に伝達する。
また、撮像設定記憶部410は、撮像部10がLFIを撮影した撮像設定情報に、物理構成に関する情報を付加して、撮影設定情報として画像処理部210に伝達する。
The imaging setting storage unit 410 stores imaging setting information. The imaging setting information includes a distance between the main lens ML and the sub lens array SLA, a focal length f ML of the main lens, information for specifying an exposure time, an F value, a shutter speed, and the like as imaging parameters that can change during imaging. In addition, the imaging setting storage unit 410 stores information on the physical configuration of the digital camera 1 such as the position of each sub lens SL on the sub lens array SLA, the distance c2 between the sub lens array SLA and the imaging surface IE, and the like. .
The imaging setting storage unit 410 transmits imaging parameters to the imaging control unit 230.
Further, the imaging setting storage unit 410 adds information related to the physical configuration to the imaging setting information obtained by imaging the LFI by the imaging unit 10 and transmits the information to the image processing unit 210 as imaging setting information.

再構成設定記憶部420は、初期出荷時に記憶された、あるいは操作部530を用いてユーザが入力した、LFIから再構成して画像を生成するための設定パラメータを記憶している。
再構成設定情報は、再構成処理の具体的内容を示す情報と再構成パラメータとから構成される。本実施形態では、再構成情報はLFIから削除を行わない仮再構成画像を生成して表示し、仮再構成画像上の操作に基づいて削除再構成画像を生成する旨の情報と、新たな画像のフォーカス点とメインレンズMLとの距離を特定する情報と、を含む。
The reconstruction setting storage unit 420 stores setting parameters for generating an image by reconstructing from the LFI, which is stored at the time of initial shipment or input by the user using the operation unit 530.
The reconfiguration setting information includes information indicating the specific contents of the reconfiguration process and reconfiguration parameters. In the present embodiment, the reconstruction information is generated by displaying a temporary reconstructed image that is not deleted from the LFI, displayed, and information indicating that a deleted reconstructed image is generated based on an operation on the temporary reconstructed image, Information specifying the distance between the focus point of the image and the main lens ML.

画像記憶部430は、画像生成装置30が生成した出力画像(仮再構成画像及び削除再構成画像)を記憶する。画像記憶部430は、インターフェース部50のI/O部510と表示部520とに、記憶した画像を伝達する。   The image storage unit 430 stores output images (temporary reconstructed images and deleted reconstructed images) generated by the image generating device 30. The image storage unit 430 transmits the stored image to the I / O unit 510 and the display unit 520 of the interface unit 50.

インターフェース部(図ではI/F部と記述する)50は、デジタルカメラ1とその使用者(ユーザ)あるいは外部装置とのインターフェースに係る構成であり、I/O部510と、表示部520と、操作部530と、から構成される。   An interface unit (described as I / F unit in the figure) 50 is a configuration relating to an interface between the digital camera 1 and its user (user) or an external device, and includes an I / O unit 510, a display unit 520, And an operation unit 530.

I/O部(Input/Output部)510は、物理的にはUSB(Universal Serial Bus)コネクタやビデオ出力端子と、入出力制御部と、から構成される。I/O部510は記憶部40に記憶された情報を外部のコンピュータに出力し、外部から伝達された情報を記憶部40に伝達する。   The I / O unit (Input / Output unit) 510 is physically composed of a USB (Universal Serial Bus) connector, a video output terminal, and an input / output control unit. The I / O unit 510 outputs the information stored in the storage unit 40 to an external computer, and transmits the information transmitted from the outside to the storage unit 40.

表示部520は、液晶表示装置や有機EL(Electro Luminescence)ディスプレイ等から構成され、撮像設定記憶部410に記憶される撮像パラメータを入力するための画面や、デジタルカメラ1を操作するための画面を表示する。また、表示部520は、画像記憶部430に記憶された画像を表示する。   The display unit 520 includes a liquid crystal display device, an organic EL (Electro Luminescence) display, and the like, and has a screen for inputting imaging parameters stored in the imaging setting storage unit 410 and a screen for operating the digital camera 1. indicate. Further, the display unit 520 displays the image stored in the image storage unit 430.

操作部530は、例えばデジタルカメラ1に備えられた各種ボタンや表示部520に備えられたタッチパネルと、各種ボタンやタッチパネルに行われた操作の情報を検出して記憶部40と情報処理部20とに伝達する伝達部を含み、ユーザ操作の情報を記憶部40や情報処理部20に伝達する。   The operation unit 530 detects, for example, various buttons provided in the digital camera 1 and a touch panel provided in the display unit 520, information on operations performed on the various buttons and the touch panel, and the storage unit 40, the information processing unit 20, and the like. The information on the user operation is transmitted to the storage unit 40 and the information processing unit 20.

次に、画像生成装置30の構成について、図6を参照して説明する。
画像生成装置30は物理的には、図6(a)に示すように情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、から構成される。
Next, the configuration of the image generation device 30 will be described with reference to FIG.
As shown in FIG. 6A, the image generation device 30 is physically composed of an information processing unit 31, a main storage unit 32, an external storage unit 33, an input / output unit 36, and an internal bus 37. Is done.

情報処理部31は、CPUと、RAMと、から構成される。   The information processing unit 31 includes a CPU and a RAM.

主記憶部32は、記憶部40の主記憶装置と同様の物理構成を持つ。外部記憶部33は、記憶部40の外部記憶装置と同様の物理構成を持ち、プログラム38を記憶している。入出力部36は、入出力端子及びI/Oデバイスから構成され、画像生成装置30と、情報処理部20の各部や記憶部40、インターフェース部50等と、の情報の入出力を実現する。内部バス37は、情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、を接続する。   The main storage unit 32 has the same physical configuration as the main storage device of the storage unit 40. The external storage unit 33 has the same physical configuration as the external storage device of the storage unit 40 and stores a program 38. The input / output unit 36 includes input / output terminals and I / O devices, and realizes input / output of information between the image generation apparatus 30 and each unit of the information processing unit 20, the storage unit 40, the interface unit 50, and the like. The internal bus 37 connects the information processing unit 31, the main storage unit 32, the external storage unit 33, and the input / output unit 36.

情報処理部31と、主記憶部32と、外部記憶部33と、入出力部36と、内部バス37と、はデジタルカメラ1の情報処理部20の内部回路と、記憶部40と、インターフェース部50と、によって実現される機能ブロックであってもよい。   The information processing unit 31, the main storage unit 32, the external storage unit 33, the input / output unit 36, and the internal bus 37 are an internal circuit of the information processing unit 20 of the digital camera 1, a storage unit 40, and an interface unit. 50 may be a functional block realized by.

画像生成装置30は、外部記憶部33に記憶されたプログラム38及びデータを主記憶部32にコピーして、情報処理部31が、主記憶部32を使用してプログラム38を実行することにより、後述する削除再構成画像を生成するための処理を実行する。   The image generation device 30 copies the program 38 and data stored in the external storage unit 33 to the main storage unit 32, and the information processing unit 31 executes the program 38 using the main storage unit 32. Processing for generating a deletion reconstructed image to be described later is executed.

画像生成装置30は、上記のような物理構成により、図6(b)に示すように、入力部310と、再構成画像生成部320と、削除操作取得部330と、出力部340と、として機能する。   As shown in FIG. 6B, the image generation device 30 has the above-described physical configuration as an input unit 310, a reconstructed image generation unit 320, a deletion operation acquisition unit 330, and an output unit 340. Function.

入力部310は画像生成装置30がデジタルカメラ1の各部から情報を取得する機能を担当する部位である。入力部310は、再構成設定取得部3110と、LFDM取得部3120と、LFI取得部3130と、対応取得部3140と、を含む。
LFDM取得部3120は、奥行き推定・対応定義部220からLFDMを取得する。
The input unit 310 is a part in charge of the function of the image generating apparatus 30 to acquire information from each unit of the digital camera 1. The input unit 310 includes a reconfiguration setting acquisition unit 3110, an LFDM acquisition unit 3120, an LFI acquisition unit 3130, and a correspondence acquisition unit 3140.
The LFDM acquisition unit 3120 acquires the LFDM from the depth estimation / correspondence definition unit 220.

再構成設定取得部3110は、再構成設定記憶部420から再構成設定情報を取得する。再構成設定情報は、再構成処理の具体的内容を示す情報と、下記する画像生成処理のために必要な情報(再構成パラメータや閾値を示す情報)が含まれる。本実施形態では、再構成パラメータは以下の処理により再構成画像を生成することを定めているとする。
i)対応情報を用いて再構成面RFに配置された仮再構成画像を生成する。
ii)仮再構成画像を表示し、ユーザの削除被写体を指定する操作を受け付ける。
iii)削除被写体指定操作に基づいて、削除被写体を削除した画像を再構成し、出力する。
このために、再構成パラメータは新たな画像のフォーカス点(再構成面)とメインレンズMLとの距離(再構成距離、距離a1)を特定する情報、削除被写体に対応する画素を抽出するための設定パラメータ等の情報を含む。
The reconfiguration setting acquisition unit 3110 acquires the reconfiguration setting information from the reconfiguration setting storage unit 420. The reconstruction setting information includes information indicating specific contents of the reconstruction process and information necessary for the image generation process described below (information indicating a reconstruction parameter and a threshold). In this embodiment, it is assumed that the reconstruction parameter defines that a reconstructed image is generated by the following process.
i) A temporary reconstructed image arranged on the reconstruction surface RF is generated using the correspondence information.
ii) A temporary reconstructed image is displayed and a user's operation for designating a deletion subject is accepted.
iii) Based on the deletion subject designation operation, an image from which the deletion subject has been deleted is reconstructed and output.
For this purpose, the reconstruction parameter is information for identifying the distance (reconstruction distance, distance a1) between the focus point (reconstruction plane) of the new image and the main lens ML, and the pixel corresponding to the deleted subject. Includes information such as configuration parameters.

LFI取得部3130は、画像処理部210が生成したLFIを取得する。
対応取得部3140は、奥行き推定・対応定義部220から対応情報(図5の対応リスト)を取得する。
これら入力部310の各部は、取得した情報を再構成画像生成部320の各部に伝達する。
The LFI acquisition unit 3130 acquires the LFI generated by the image processing unit 210.
The correspondence acquisition unit 3140 acquires correspondence information (correspondence list in FIG. 5) from the depth estimation / correspondence definition unit 220.
Each unit of the input unit 310 transmits the acquired information to each unit of the reconstructed image generation unit 320.

削除操作取得部330は、デジタルカメラ1の操作部530から、削除被写体を指定する操作を示す情報を受け取る。削除操作取得部330は、受け取った削除被写体指定操作を示す情報を再構成画像生成部320に伝達する。   The deletion operation acquisition unit 330 receives information indicating an operation for designating a deletion subject from the operation unit 530 of the digital camera 1. The deletion operation acquisition unit 330 transmits information indicating the received deletion subject designation operation to the reconstructed image generation unit 320.

再構成画像生成部320は、再構成設定取得部3110が取得した再構成設定及び削除操作取得部330が取得した削除操作情報にしたがって、LFDM取得部3120が取得したLFDMと、LFI取得部3130が取得したLFIと、対応取得部3140が取得した対応情報と、から削除再構成画像を生成する。
本実施形態では、構図を変更していない再構成画像である仮再構成画像(RI1)を一旦生成して出力する。そして、仮再構成画像を用いてユーザが削除被写体指定操作を実行すると、削除被写体を除いた再構成画像である削除再構成画像(RI2)を生成する。また、各画素の奥行きを定めた再構成奥行きマップ(RDM)を生成する。
The reconstructed image generation unit 320 includes the LFDM acquired by the LFDM acquisition unit 3120 and the LFI acquisition unit 3130 according to the reconfiguration setting acquired by the reconfiguration setting acquisition unit 3110 and the deletion operation information acquired by the deletion operation acquisition unit 330. A deletion reconstructed image is generated from the acquired LFI and the correspondence information acquired by the correspondence acquisition unit 3140.
In the present embodiment, a temporary reconstructed image (RI1) that is a reconstructed image whose composition has not been changed is once generated and output. When the user performs a deletion subject specifying operation using the temporary reconstruction image, a deletion reconstruction image (RI2) that is a reconstruction image excluding the deletion subject is generated. In addition, a reconstructed depth map (RDM) that defines the depth of each pixel is generated.

再構成画像生成部320が実行する処理の概要を、図7を参照して説明する。再構成画像生成部320は、LFIから削除処理を施さない仮再構成画像RI1を再構成して表示部520に出力する。図7(a)の例では、RI1は背景(白)と、焦点面RF付近に存在する子供(灰色)と、手前に存在する障害物(斜線部)と、が現れた像である。   An overview of processing executed by the reconstructed image generation unit 320 will be described with reference to FIG. The reconstructed image generation unit 320 reconstructs the temporary reconstructed image RI1 that is not subjected to the deletion process from the LFI, and outputs the reconstructed image RI1 to the display unit 520. In the example of FIG. 7A, RI1 is an image in which a background (white), a child (gray) existing in the vicinity of the focal plane RF, and an obstacle (hatched portion) existing in the foreground appear.

そして、表示部520が表示するRI1を観たユーザが、手前の障害物を削除して、子供の画像を鑑賞する際の邪魔にならないようにすることを所望する。このとき、ユーザはまず図7(b)のようにタッチパネル(表示部520と操作部530)上で障害物をなぞる等の操作により削除被写体を選択する。   Then, it is desired that the user who has watched RI1 displayed on the display unit 520 deletes the obstacle in the foreground so as not to disturb the child's image. At this time, the user first selects a deletion subject by an operation such as tracing an obstacle on the touch panel (the display unit 520 and the operation unit 530) as shown in FIG. 7B.

このような選択操作に基づき、再構成画像生成部320は、削除被写体を抽出してハイライトして表示する(図7(c))。ユーザは、現在ハイライト表示されている被写体が所望の削除対象と一致しているか確認し、一致している場合は確定ボタン(図7(c)のYES)に触れて削除対象の被写体を確定する。一方、所望の対象と異なる場合はNOに触れる。この場合、選択は一旦リセットされ、ユーザは選択をやり直する。   Based on such a selection operation, the reconstructed image generation unit 320 extracts the deleted subject, highlights it, and displays it (FIG. 7C). The user confirms whether the currently highlighted subject matches the desired deletion target, and if it matches, touches the confirm button (YES in FIG. 7C) to confirm the subject to be deleted. To do. On the other hand, if different from the desired object, touch NO. In this case, the selection is once reset and the user redoes the selection.

削除対象の被写体が確定した場合に、再構成画像生成部320は削除被写体を削除した画像(削除再構成画像、RI2)を生成して表示する。図7(d)は、削除被写体を完全に削除した場合の削除再構成画像の例を示す。一方、図7(e)は削除被写体からの情報の影響を減少させ、一定の比率だけ削除した場合の画像再構成画像の例を示す。   When the subject to be deleted is determined, the reconstructed image generation unit 320 generates and displays an image from which the deleted subject has been deleted (deleted reconstructed image, RI2). FIG. 7D shows an example of the deleted reconstructed image when the deleted subject is completely deleted. On the other hand, FIG. 7 (e) shows an example of an image reconstructed image when the influence of information from the deleted subject is reduced and a fixed ratio is deleted.

このような処理を実行するため、再構成画像生成部320は、仮再構成画像生成部3210と、選択画素抽出部3220と、削除奥行き定義部3230と、削除画素抽出部3240と、削除部3250と、削除再構成画像生成部3260と、を含む。   In order to execute such processing, the reconstructed image generation unit 320 includes a temporary reconstructed image generation unit 3210, a selected pixel extraction unit 3220, a deletion depth definition unit 3230, a deletion pixel extraction unit 3240, and a deletion unit 3250. And a deleted reconstructed image generation unit 3260.

仮再構成画像生成部3210は、再構成面RF上に再構成画像を定義する。そして、再構成画像上の画素(再構成画素)の画素値と、その奥行き係数を以下のように決定して、仮再構成画像(RI1)とその再構成奥行きマップ(RDM1)とを生成する。
(1)再構成画素の一つを注目画素とし、注目画像の座標に対応する再構成画素の対応サブ画素とその重みを、対応情報を参照して取得する。
(2)対応画素の画素値を、LFIを参照して取得する。
(3)取得された画素値に、重み付け係数をかけたものを補正画素値とする。
(4)抽出した対応画素すべてについて、補正画素値を計算し、その総和を注目画素の画素値とする。このとき、画素値の総和を重みの総和で除算する正規化を実行しても良い。
(5)抽出した対応画素の奥行き係数を、LFDMを参照して取得する。
(6)取得した奥行き係数の最頻値を、再構成奥行きマップの対応部位の奥行き係数とする。
(7)各再構成画素について(1)〜(6)を実行して画素値及び奥行き係数を決定する。
The temporary reconstructed image generation unit 3210 defines a reconstructed image on the reconstructed surface RF. Then, the pixel value of the pixel on the reconstructed image (reconstructed pixel) and its depth coefficient are determined as follows to generate a temporary reconstructed image (RI1) and its reconstructed depth map (RDM1). .
(1) Using one of the reconstructed pixels as a target pixel, the corresponding subpixel of the reconstructed pixel corresponding to the coordinates of the target image and its weight are acquired with reference to the correspondence information.
(2) The pixel value of the corresponding pixel is acquired with reference to the LFI.
(3) A corrected pixel value is obtained by multiplying the acquired pixel value by a weighting coefficient.
(4) The corrected pixel values are calculated for all the extracted corresponding pixels, and the sum is used as the pixel value of the target pixel. At this time, normalization may be performed in which the sum of pixel values is divided by the sum of weights.
(5) The depth coefficient of the extracted corresponding pixel is acquired with reference to LFDM.
(6) The mode value of the acquired depth coefficient is set as the depth coefficient of the corresponding part of the reconstructed depth map.
(7) Perform (1) to (6) for each reconstructed pixel to determine the pixel value and the depth coefficient.

仮再構成画像生成部3210は、生成した仮再構成画像(RI1)と再構成奥行きマップ(RDM1)とを選択画素抽出部3220に伝達する。
RI1とRDM1の例を、図8に示す。図8(a)は、仮再構成画像RI1の例である。図8(b)は、RI1の奥行きマップRDM1を示す。図8(a)のRI1上において実線で示された部位(手前の被写体)が、RDM1上で奥行き係数が大きい(白い)部位である。
一方、RI1上において一点鎖線で示された部位は、より奥の被写体(OB2)に対応する。この部位は、RDM1上では灰色で示されている。
RI1上において点線で示された被写体(背景、OB1)の部位は、奥行き係数が小さい。この部位は、RDM1においてより黒い色で示されている。
被写体OB2を削除した削除再構成画像RI2(図8(c))では、RI1上ではOB2に隠れていた被写体OB1’が現れている。RI2に対応するRDM2(図8(d))では、OB2に対応する部位が背景を示す黒色になっている。
The temporary reconstructed image generation unit 3210 transmits the generated temporary reconstructed image (RI1) and the reconstructed depth map (RDM1) to the selected pixel extraction unit 3220.
Examples of RI1 and RDM1 are shown in FIG. FIG. 8A shows an example of the temporary reconstructed image RI1. FIG. 8B shows a depth map RDM1 of RI1. A portion (subject in front) indicated by a solid line on RI1 in FIG. 8A is a portion (white) having a large depth coefficient on RDM1.
On the other hand, the part indicated by the alternate long and short dash line on RI1 corresponds to the deeper subject (OB2). This site is shown in gray on RDM1.
The portion of the subject (background, OB1) indicated by the dotted line on RI1 has a small depth coefficient. This site is shown in a darker color in RDM1.
In the deleted reconstructed image RI2 (FIG. 8C) from which the subject OB2 has been deleted, the subject OB1 ′ that is hidden behind OB2 appears on RI1. In RDM2 corresponding to RI2 (FIG. 8D), the portion corresponding to OB2 is black indicating the background.

仮再構成画像生成部3210は、生成した仮再構成画像(RI1)を出力部340に伝達し、出力させる。また、RI1とRDM1とを選択画素抽出部3220に伝達する。出力部340は、RI1を画像記憶部430に記憶した上で、表示部520に表示させる。   The temporary reconstructed image generation unit 3210 transmits the generated temporary reconstructed image (RI1) to the output unit 340 for output. Also, RI1 and RDM1 are transmitted to the selected pixel extraction unit 3220. The output unit 340 stores RI1 in the image storage unit 430 and displays the RI1 on the display unit 520.

表示部520がRI1をユーザに提示して、操作部530がユーザからRI1上の被写体を選択する操作を受け付ける。受け付けた操作を削除操作取得部330が取得する。   Display unit 520 presents RI1 to the user, and operation unit 530 receives an operation for selecting a subject on RI1 from the user. The delete operation acquisition unit 330 acquires the received operation.

削除操作取得部330は、このRI1上の部位を指定する操作を示す情報(指定部位の座標)を選択画素抽出部3220に伝達する。
選択画素抽出部3220は、ユーザが指定した部位に対応する再構成画素(選択画素)をRI1上から抽出する。具体的には、ユーザが指定した部位のRI1上の座標(x,y)を取得する。さらに、選択画素の奥行き値を取得する。そして、取得した情報を選択情報として保持する。
The deletion operation acquiring unit 330 transmits information (coordinates of the designated part) indicating the operation for designating the part on the RI1 to the selected pixel extracting part 3220.
The selected pixel extraction unit 3220 extracts a reconstructed pixel (selected pixel) corresponding to the part designated by the user from RI1. Specifically, the coordinates (x, y) on the RI1 of the part designated by the user are acquired. Further, the depth value of the selected pixel is acquired. The acquired information is held as selection information.

選択画素抽出部3220が取得する選択情報の例を、図9を参照して説明する。図9(a)の例では、奥行き係数(デプスindex)が1に対応する背景(OB1)と、デプスindexが3に対応する被写体(OB2a、OB2b)と、6に対応する被写体OB3と、がRI1に写っている。
ユーザがこのRI1において、黒矢印のようにタッチ操作を実行すると、選択画素抽出部3220は図9(b)に示す選択画素リストを生成する。選択画素リストは、選択画素の番号と、選択画素の座標と、選択画素の奥行き係数(デプスindex)と、を対応付けて記録する。なお、選択画素とはユーザがタッチ操作で指定した部位に対応する再構成画素である。選択画素の座標は、ユーザがタッチ操作した部位の、再構成画像上の座標である。選択画素の奥行き係数は、選択画素の座標に対応するRDM1の奥行き係数である。
An example of selection information acquired by the selected pixel extraction unit 3220 will be described with reference to FIG. In the example of FIG. 9A, a background (OB1) corresponding to a depth coefficient (depth index) of 1, a subject (OB2a, OB2b) corresponding to a depth index of 3, and a subject OB3 corresponding to 6. It is reflected in RI1.
When the user performs a touch operation as indicated by a black arrow in RI1, the selected pixel extraction unit 3220 generates a selected pixel list shown in FIG. 9B. The selected pixel list records the number of the selected pixel, the coordinates of the selected pixel, and the depth coefficient (depth index) of the selected pixel in association with each other. Note that the selected pixel is a reconstructed pixel corresponding to a part designated by the user through a touch operation. The coordinates of the selected pixel are coordinates on the reconstructed image of the part touched by the user. The depth coefficient of the selected pixel is the depth coefficient of RDM1 corresponding to the coordinates of the selected pixel.

選択画素抽出部3220は、生成した選択画素リストを、削除奥行き定義部3230に伝達する。
削除奥行き定義部3230は、伝達された選択画素リストに含まれるデプスindexのうち、所定の条件を満たすデプスindexを削除被写体に対応する奥行き係数(削除奥行き係数)として定める。
The selected pixel extracting unit 3220 transmits the generated selected pixel list to the deletion depth defining unit 3230.
The deletion depth definition unit 3230 determines a depth index satisfying a predetermined condition among the depth indexes included in the transmitted selection pixel list as a depth coefficient (deletion depth coefficient) corresponding to the deleted subject.

削除奥行き係数は、選択画素リストにおいて所定数を超える数があるデプスindexとする等の任意の方法で定めて良いが、ここでは以下の方法を用いる。具体的には選択画素リストに含まれる選択画素の数をL、ある数値dのデプスindexの数をLdとすると、下記の式(5)を用いて比率Qdを算出する。そして、選択画素リストに含まれるデプスindexのうち、Qdが所定の閾値を越えるものを削除奥行き係数とする。この閾値は再構成設定情報が定義するものとする。
Qd=Ld/L ・・・(5)
The deletion depth coefficient may be determined by an arbitrary method such as a depth index having a number exceeding a predetermined number in the selected pixel list. Here, the following method is used. Specifically, if the number of selected pixels included in the selected pixel list is L and the number of depth indexes of a certain numerical value d is Ld, the ratio Qd is calculated using the following equation (5). Of the depth indexes included in the selected pixel list, those having a Qd exceeding a predetermined threshold are set as deletion depth coefficients. This threshold value is defined by the reconfiguration setting information.
Qd = Ld / L (5)

図9(a)及び(b)の例では、デプスindexが3と6が削除奥行き係数として選択される。そこで、削除奥行き定義部3230は選択画素リストから、削除奥行き係数と異なるデプスindexをもつ画素を削除する。
削除奥行き定義部3230は、削除処理済みの選択画素リストと、定義した削除奥行き係数を示す情報と、を削除画素抽出部3240に伝達する。
In the examples of FIGS. 9A and 9B, depth indices 3 and 6 are selected as the deletion depth coefficients. Therefore, the deletion depth definition unit 3230 deletes pixels having a depth index different from the deletion depth coefficient from the selected pixel list.
The deletion depth definition unit 3230 transmits the selected pixel list that has been deleted and information indicating the defined deletion depth coefficient to the deletion pixel extraction unit 3240.

削除画素抽出部3240は、サブ画素の奥行き係数と削除奥行き係数を比較して、比較結果に基づき削除被写体が写っていると判断できる削除画素を、サブ画素から抽出する。削除画素を抽出する処理については後述する。
そして、削除画素抽出部3240は、抽出した削除画素に対応する再構成画素を強調した仮再構成画像を出力部340に伝達する。ユーザは、このとき出力された画像を用いて、所望の被写体が選択されたか判断することが出来る。
図9(c)の例では、図9(a)の操作に基づき、デプスindexが3と6の画素に対応する被写体(OB2a及びOB3)が削除被写体として、強調されてユーザに提示されている。OB2bのデプスindexは削除奥行き係数に対応しているが、ユーザが指定した部分を含まないため、OB2bは削除被写体とはされていない。
The deleted pixel extraction unit 3240 compares the depth coefficient of the sub-pixel with the deleted depth coefficient, and extracts a deleted pixel that can be determined that the deleted subject is reflected based on the comparison result from the sub-pixel. The process of extracting the deleted pixel will be described later.
Then, the deleted pixel extraction unit 3240 transmits a temporary reconstructed image in which the reconstructed pixel corresponding to the extracted deleted pixel is emphasized to the output unit 340. The user can determine whether a desired subject has been selected using the image output at this time.
In the example of FIG. 9C, subjects (OB2a and OB3) corresponding to pixels having depth indices 3 and 6 are emphasized as deletion subjects and presented to the user based on the operation of FIG. 9A. . The depth index of OB2b corresponds to the deletion depth coefficient, but does not include the part specified by the user, so OB2b is not regarded as the deletion subject.

ユーザが出力された画像を確認し削除被写体を確定する操作を実行すると、削除画素抽出部3240は、抽出した削除画素を示す情報(削除画素のLFI上の座標)を削除部3250に伝達する。   When the user performs an operation of confirming the output image and confirming the deletion subject, the deletion pixel extraction unit 3240 transmits information indicating the extracted deletion pixel (coordinates on the LFI of the deletion pixel) to the deletion unit 3250.

削除部3250は、LFIから削除画素を削除する。具体的には、LFIの上の、削除画素抽出部3240から伝達された座標の画素(削除画素)の画素値をNULLとする。画素値がNULLの画素は、後述する削除再構成画像の生成にあたって計算対象から除外される。
なお、本実施形態では削除画素の画素値をNULLとすることは、以下の処理で再構成画素の対応画素として扱わないことと等しい。即ち、対応リストから削除画素を削除する(あるいは対応の重みを0とする)ことと同義である。
The deletion unit 3250 deletes the deleted pixel from the LFI. Specifically, the pixel value of the pixel of the coordinate (deleted pixel) transmitted from the deleted pixel extraction unit 3240 on the LFI is set to NULL. Pixels with a pixel value of NULL are excluded from the calculation target when generating a deletion reconstructed image to be described later.
In the present embodiment, setting the pixel value of the deleted pixel to NULL is equivalent to not treating it as a corresponding pixel of the reconstructed pixel in the following processing. That is, it is synonymous with deleting the deleted pixel from the correspondence list (or setting the correspondence weight to 0).

LFIから削除画素を削除する処理の例を、板状の被写体OB1、立方体状の被写体OB2、円柱状の被写体OB3、を撮影した場合を例にとって図10を参照して説明する。図10(a)はLFI取得部3130が取得したLFIの一部を、図10(b)は仮再構成画像生成部3210が再構成した仮再構成画像を示している。LFIには、各被写体の像が点対称に現れる。   An example of processing for deleting the deleted pixel from the LFI will be described with reference to FIG. 10 by taking as an example a case where a plate-like subject OB1, a cube-like subject OB2, and a cylindrical subject OB3 are photographed. 10A shows a part of the LFI acquired by the LFI acquisition unit 3130, and FIG. 10B shows the temporary reconstructed image reconstructed by the temporary reconstructed image generation unit 3210. In the LFI, the image of each subject appears point-symmetrically.

LFIはOB1,OB2,OB3をそれぞれ異なる角度から撮影した複数のサブ画像から構成されている。図10では、サブ画像は格子状に配置された正方形で示されている。また、各サブ画像の中心が一点鎖線で示されている。   The LFI is composed of a plurality of sub-images obtained by photographing OB1, OB2, and OB3 from different angles. In FIG. 10, the sub-images are shown as squares arranged in a grid pattern. Further, the center of each sub-image is indicated by a one-dot chain line.

OB2を削除する場合、削除奥行き定義部3230が削除奥行き係数としてOB2の奥行き係数を抽出する。そして、削除画素抽出部3240が再構成画像上のOB2の座標に対応する対応画素のうち、削除奥行き係数から所定範囲に含まれるサブ画素(図10(a)の横線部の画素)を抽出する。そして、削除部3250が、抽出されたサブ画素の画素値をNULLとする。図10(c)は、NULLとされた画素を黒く示した削除済のLFI(削除LFI、DLFI)の一部を示す。
削除LFIから対応リストを用いて画像を再構成すると、図10(d)のように削除被写体(OB2)が削除された削除再構成画像(RI2)を生成することが出来る。このとき、OB2があった部分には、OB1が表示される。これは、OB2があった部位の再構成画素の対応画素のうち、削除画素以外にOB1が写っているためである。
When deleting OB2, the deletion depth definition unit 3230 extracts the depth coefficient of OB2 as the deletion depth coefficient. Then, the deleted pixel extraction unit 3240 extracts sub-pixels (pixels in the horizontal line portion of FIG. 10A) included in the predetermined range from the deletion depth coefficient among the corresponding pixels corresponding to the coordinates of OB2 on the reconstructed image. . Then, the deletion unit 3250 sets the extracted pixel value of the sub-pixel to NULL. FIG. 10C shows a part of the deleted LFI (deleted LFI, DLFI) in which the NULL pixels are shown in black.
When the image is reconstructed from the deletion LFI using the correspondence list, a deletion reconstructed image (RI2) from which the deletion subject (OB2) is deleted can be generated as shown in FIG. At this time, OB1 is displayed in the portion where OB2 was present. This is because OB1 is shown in the corresponding pixels of the reconstructed pixel in the part where OB2 is present, in addition to the deleted pixel.

削除部3250は、削除LFIを削除再構成画像生成部3260に伝達する。削除再構成画像生成部3260は、再構成画素のそれぞれについて、対応リストに登録された対応サブ画素のうち削除LFI上で画素値がNULLとされていない画素の画素値を重み付け加算して、削除再構成画像(RI2)を生成する。   The deletion unit 3250 transmits the deletion LFI to the deletion reconstructed image generation unit 3260. The deleted reconstructed image generation unit 3260 weights and adds the pixel values of the pixels whose pixel values are not set to NULL on the deleted LFI among the corresponding subpixels registered in the corresponding list for each of the reconstructed pixels. A reconstructed image (RI2) is generated.

削除再構成画像生成部3260は生成した削除再構成画像を出力部340に伝達する。出力部340は伝達された削除再構成画像を画像記憶部430に記憶する。そして、デジタルカメラ1は削除再構成画像を表示部520に表示する。あるいは、I/O部510を介して外部に伝達する。   The deletion reconstructed image generation unit 3260 transmits the generated deletion reconstructed image to the output unit 340. The output unit 340 stores the transmitted deletion reconstructed image in the image storage unit 430. Then, the digital camera 1 displays the deleted reconstructed image on the display unit 520. Alternatively, it is transmitted to the outside via the I / O unit 510.

次に、デジタルカメラ1が実行する処理について、フローチャートを参照して説明する。デジタルカメラ1は、使用者が操作部530を操作して被写体の撮影を指示したこと契機として、図11に示す画像出力処理を開始する。   Next, processing executed by the digital camera 1 will be described with reference to a flowchart. The digital camera 1 starts the image output process shown in FIG. 11 in response to the user operating the operation unit 530 and instructing photographing of the subject.

画像出力処理では、まず画像処理部210が撮像部10から取得した画像情報と、撮像設定記憶部410から取得した撮影設定情報と、からLFIを生成する(ステップS101)。そして、奥行き推定・対応定義部220に生成したLFIと撮影設定情報を伝達する。   In the image output process, first, the LFI is generated from the image information acquired by the image processing unit 210 from the imaging unit 10 and the shooting setting information acquired from the imaging setting storage unit 410 (step S101). Then, the generated LFI and shooting setting information are transmitted to the depth estimation / correspondence definition unit 220.

次に奥行き推定・対応定義部220が、撮影設定情報を取得する。さらに、再構成設定記憶部420から再構成設定情報を取得する(ステップS102)。このとき取得した撮影設定及び再構成設定は、画像生成装置30にも伝達される。   Next, the depth estimation / correspondence definition unit 220 acquires shooting setting information. Further, reconfiguration setting information is acquired from the reconfiguration setting storage unit 420 (step S102). The imaging settings and reconstruction settings acquired at this time are also transmitted to the image generation apparatus 30.

そして、奥行き推定・対応定義部220が、LFIを構成する各サブ画素について奥行きを推定し、画像生成装置30が奥行き係数を配置したLFDMを取得する(ステップS103)。
具体的には、奥行き推定・対応定義部220は、LFIを構成する各サブ画素について、対応する被写体の奥行きを推定し、推定した奥行きを示す奥行き係数をそのサブ画素に対応付けたLFDMを生成する。
Then, the depth estimation / correspondence definition unit 220 estimates the depth for each sub-pixel constituting the LFI, and the image generation apparatus 30 acquires the LFDM in which the depth coefficient is arranged (step S103).
Specifically, the depth estimation / correspondence definition unit 220 estimates the depth of the corresponding subject for each sub-pixel constituting the LFI, and generates an LFDM in which the depth coefficient indicating the estimated depth is associated with the sub-pixel. To do.

ここで、奥行き係数はLFIの画素の被写体の距離を推定する任意の方法を用いて算出してよいが、本実施形態では以下の方法で算出するとする。
i)LFIを構成するあるサブ画像を注目サブ画像とする。
ii)注目サブ画像を、画素値の差が所定範囲に含まれる画素によって構成される画像領域に分割する。そして、画像領域の一つを注目領域として選択する。
iii)注目サブ画像の右側(無い場合は左側、この場合は以下左右逆)のサブ画像を、位置順にSR1、SR2、…SRkとして抽出する。なお、kは設定上定められた自然数である。
iv)注目領域の重心の座標(x、y)を取得する。なお、この座標は、各サブ画像の中心を原点とする、サブ画像毎に独立した座標系に対して定義される。
v)現在の画素ズレをdとする。サブ画像SR1において注目領域に対応する部位に、注目領域に対応する領域(対応領域)を配置する。このとき、対応領域の重心をdだけ右側にずらして配置する。注目領域の各画素の画素値と、対応領域の対応する画素の画素値と、の差の二乗和(SSD)を算出する。同様に、SR2に対応領域を、2dだけ右側にずらして配置し、SSDを算出する。SSDをSRkまでそれぞれ取得して、各SSDの差分絶対値和(SSSD)を求める。これをdの評価値とする。
vi)起こりうる視差の範囲の各画素ズレdについて評価値を算出する。そのうち、得られた絶対差分値和SSSDが最小である画素ズレ(d)を、注目領域に含まれる画素の画素ズレ係数とする。
vii)全てのサブ画像の全ての画素について画素ズレ係数を算出し、算出した画素ズレ係数をLFDMの奥行き係数として対応する画素の部位に配置する。
Here, the depth coefficient may be calculated by using an arbitrary method for estimating the distance of the subject of the LFI pixel, but in the present embodiment, it is calculated by the following method.
i) A certain sub-image constituting the LFI is set as a target sub-image.
ii) The target sub-image is divided into image regions constituted by pixels whose pixel value difference is included in a predetermined range. Then, one of the image areas is selected as the attention area.
iii) Extract the sub-images on the right side of the target sub-image (left side if not present, in this case, the left and right in this case) as SR1, SR2,. Note that k is a natural number determined in setting.
iv) The coordinates (x, y) of the center of gravity of the attention area are acquired. Note that the coordinates are defined with respect to an independent coordinate system for each sub-image with the center of each sub-image as the origin.
v) Let d be the current pixel shift. An area (corresponding area) corresponding to the attention area is arranged at a part corresponding to the attention area in the sub image SR1. At this time, the center of gravity of the corresponding area is shifted to the right side by d. The sum of squares (SSD) of the difference between the pixel value of each pixel in the attention area and the pixel value of the corresponding pixel in the corresponding area is calculated. Similarly, the corresponding area is shifted to the right side by 2d in SR2, and the SSD is calculated. Each SSD is acquired up to SRk, and the sum of absolute differences (SSSD) of each SSD is obtained. This is the evaluation value of d.
vi) An evaluation value is calculated for each pixel shift d in the range of possible parallax. Among them, the pixel shift (d) in which the obtained absolute difference value sum SSSD is the minimum is set as the pixel shift coefficient of the pixel included in the attention area.
vii) Pixel shift coefficients are calculated for all pixels of all sub-images, and the calculated pixel shift coefficients are arranged as corresponding LFDM depth coefficients at the corresponding pixel locations.

なお、各画素の画素ズレ係数は、ある画像の注目部位に対応する画素が、他の画像のどこにあるか決定して、相互の位置のズレを算出する任意の既知の方法で求めることが出来る。このような処理で算出した画素ズレ係数は、注目サブ画素に対応する被写体が、各サブ画像を撮影した視点の差によって、画像毎に異なる位置に像として現れ、その位置の差(サブ画像視差)の推定結果を示す。
ここでは、サブ画像毎の視点(サブレンズ)の位置の差をレンズ視差、レンズ視差により発生する対応する像が現れる位置の差を画像視差と呼ぶ。画像視差は、レンズ視差が大きいほど大きくなる。また、奥行き(視点と被写体との距離)が大きくなるほど小さくなる。本実施形態のように、レンズ視差が各サブ画像同士で既知である場合は、画像視差(ズレ係数)を、推定した奥行きを示す奥行き係数とすることができる。
Note that the pixel shift coefficient of each pixel can be obtained by any known method that determines where the pixel corresponding to the target region of a certain image is located in another image and calculates the shift of the mutual position. . The pixel shift coefficient calculated by such processing is that the subject corresponding to the sub-pixel of interest appears as an image at a different position for each image due to the difference in the viewpoint at which each sub-image was captured. ) Shows the estimation results.
Here, the difference in the position of the viewpoint (sub-lens) for each sub-image is referred to as lens parallax, and the difference in position at which the corresponding image generated by the lens parallax appears is referred to as image parallax. The image parallax increases as the lens parallax increases. Also, the depth (the distance between the viewpoint and the subject) increases as the depth increases. When the lens parallax is known between the sub-images as in this embodiment, the image parallax (deviation coefficient) can be a depth coefficient indicating the estimated depth.

次に、奥行き推定・対応定義部220は、図4で説明した光線追跡により、図5に示す対応リストを生成する(ステップS104)。そして、画像生成装置30は、奥行き推定・対応定義部220が生成した対応リストを取得する。   Next, the depth estimation / correspondence definition unit 220 generates the correspondence list shown in FIG. 5 by the ray tracing described in FIG. 4 (step S104). Then, the image generation device 30 acquires the correspondence list generated by the depth estimation / correspondence definition unit 220.

ステップS103でLFDMを、ステップS104で対応リストを取得すると、次に画像生成装置30はLFIとLFDMと対応リストとを用いて仮再構成画像(RI1)を生成する処理(仮再構成画像生成処理)を開始する(ステップS105)。ここでは、図12に示す仮再構成画像生成処理1を実行する。   When the LFDM is acquired in step S103 and the correspondence list is acquired in step S104, the image generation apparatus 30 then generates a temporary reconstructed image (RI1) using the LFI, the LFDM, and the correspondence list (temporary reconstructed image generation processing). ) Is started (step S105). Here, temporary reconstructed image generation processing 1 shown in FIG. 12 is executed.

仮再構成画像生成処理1ではまず仮再構成画像生成部3210が、再構成設定情報が定義する再構成面RF上に仮再構成画像を定義する(ステップS201)。さらに、仮再構成画像に含まれる画素(再構成画素)から、注目画素を選択する(ステップS202)。   In the temporary reconstructed image generation process 1, first, the temporary reconstructed image generation unit 3210 defines a temporary reconstructed image on the reconstructed surface RF defined by the reconfiguration setting information (step S201). Further, a pixel of interest is selected from the pixels (reconstructed pixels) included in the temporary reconstructed image (step S202).

次に、仮再構成画像生成部3210は、サブ画素から注目画素に対応する対応画素を抽出する(ステップS203)。具体的には、図5の対応リストのうち、再構成画素の座標が注目画像の座標と一致する行に登録されたサブ画素を、対応画素として抽出する。   Next, the temporary reconstructed image generation unit 3210 extracts a corresponding pixel corresponding to the target pixel from the sub-pixels (step S203). Specifically, in the correspondence list in FIG. 5, subpixels registered in a row in which the coordinates of the reconstructed pixel coincide with the coordinates of the target image are extracted as corresponding pixels.

次に、仮再構成画像生成部3210が注目画素の画素値を算出する(ステップS204)。具体的には、ステップS203で抽出された各対応画素の画素値を、それぞれの対応画素の重みを用いて重み付き加算平均して、得られた値を注目画素の画素値とする。   Next, the temporary reconstructed image generation unit 3210 calculates the pixel value of the target pixel (step S204). Specifically, the pixel values of the corresponding pixels extracted in step S203 are weighted and averaged using the weights of the corresponding pixels, and the obtained value is used as the pixel value of the target pixel.

同様に、仮再構成画像生成部3210が注目画素の奥行き係数を算出する(ステップS205)。具体的には、ステップS203で抽出された各対応画素についてLFDMが定義する奥行き係数を、それぞれの対応画素の重みを用いて重み付き加算平均して、得られた値を注目レイヤ画素の奥行き係数とする。
なお、対応画素の奥行き係数の最頻値を注目画素の奥行き係数としてもよい。
Similarly, the temporary reconstructed image generation unit 3210 calculates the depth coefficient of the target pixel (step S205). Specifically, the depth coefficient defined by LFDM for each corresponding pixel extracted in step S203 is weighted and averaged using the weight of each corresponding pixel, and the obtained value is used as the depth coefficient of the target layer pixel. And
Note that the mode value of the depth coefficient of the corresponding pixel may be used as the depth coefficient of the target pixel.

次に、注目レイヤの全再構成画素を注目画素として上記処理が終了したか判別する(ステップS206)。未処理の再構成画素がある場合には(ステップS206;NO)、次の未処理の再構成画素についてステップS202から処理を繰り返す。一方、全再構成画素を処理済みの場合(ステップS206;YES)、仮再構成画像生成処理1は終了する。   Next, it is determined whether or not the above processing is completed with all the reconstructed pixels of the target layer as the target pixel (step S206). If there is an unprocessed reconstruction pixel (step S206; NO), the process is repeated from step S202 on the next unprocessed reconstruction pixel. On the other hand, when all the reconstructed pixels have been processed (step S206; YES), the temporary reconstructed image generation process 1 ends.

図11に戻って、ステップS105で仮再構成画像を生成すると、次に出力部340が生成した仮再構成画像を出力して(ステップS106)、表示部520に表示させる。   Returning to FIG. 11, when the temporary reconstructed image is generated in step S105, the temporary reconstructed image generated by the output unit 340 is output (step S106) and displayed on the display unit 520.

次に、ステップS106で表示した仮再構成画像について、ユーザが実行する削除操作を受け付け、その操作に基づいて削除被写体及び削除画素を定義する処理(削除対象定義処理、ここでは削除対象定義処理1)を、画像生成装置30が実行する(ステップS107)。   Next, a process of accepting a deletion operation performed by the user for the temporary reconstructed image displayed in step S106 and defining a deletion subject and a deletion pixel based on the operation (deletion target definition process, here a deletion target definition process 1) ) Is executed by the image generation apparatus 30 (step S107).

ステップS107で実行される削除対象定義処理1について、図13を参照して説明する。
削除対象定義処理1では、まず削除操作取得部330が、ユーザの削除対象となる被写体を選択する操作を検出できたか判別する(ステップS301)。具体的には、表示部520と操作部530とから構成されるタッチパネル上で、仮再構成画像(RI1)に触れる操作が検出できたか判別する。
検出できなかった場合(ステップS301;NO)、ステップS301を繰り返して、検出できるまで待ち受ける。
The deletion target definition process 1 executed in step S107 will be described with reference to FIG.
In the deletion target definition process 1, it is first determined whether the deletion operation acquisition unit 330 has detected an operation for selecting a subject to be deleted by the user (step S301). Specifically, it is determined whether an operation touching the temporary reconstructed image (RI1) has been detected on the touch panel including the display unit 520 and the operation unit 530.
When it cannot detect (step S301; NO), it repeats step S301 and waits until it can detect.

一方、選択操作を検出できた場合(ステップS301;YES)、選択画素抽出部3220がその選択部位に対応する再構成画素(選択画素)を抽出する(ステップS302)。具体的には、タッチパネルに対するタッチ操作で、指定された位置に対応する再構成画素の座標を求める。   On the other hand, when the selection operation can be detected (step S301; YES), the selected pixel extraction unit 3220 extracts a reconstructed pixel (selected pixel) corresponding to the selected portion (step S302). Specifically, the coordinates of the reconstructed pixel corresponding to the designated position are obtained by a touch operation on the touch panel.

次に、選択画素抽出部3220が仮再構成画素(RI1)とその奥行きマップ(RDM1)とを参照して、選択画素の奥行き係数を取得し(ステップS303)、選択画素番号と、座標と、奥行き係数(デプスindex)と、を対応づけて図9(b)の選択画素リストに記憶する。   Next, the selected pixel extraction unit 3220 refers to the temporarily reconstructed pixel (RI1) and its depth map (RDM1) to obtain the depth coefficient of the selected pixel (step S303), selects the selected pixel number, coordinates, The depth coefficient is stored in the selected pixel list in FIG. 9B in association with each other.

次に、選択終了操作であるか否か判別する(ステップS304)。具体的には、タッチパネルから指を離す、選択終了を指示する操作を実行する、等の選択終了を示す操作を検出したか否か判別する。このような操作を検出しない場合は(ステップS304;NO)、次の部位を選択する操作に基づき、ステップS302から処理を繰り返す。   Next, it is determined whether or not it is a selection end operation (step S304). Specifically, it is determined whether or not an operation indicating selection end, such as releasing a finger from the touch panel or executing an operation for instructing selection end, has been detected. When such an operation is not detected (step S304; NO), the process is repeated from step S302 based on the operation for selecting the next part.

一方、選択終了操作を検出した場合は(ステップS304;YES)、処理はステップS305に移行する。ステップS305では、削除奥行き係数を定義するための処理(削除奥行き定義処理、ここでは削除奥行き定義処理1)が実行される。   On the other hand, when the selection end operation is detected (step S304; YES), the process proceeds to step S305. In step S305, processing for defining a deletion depth coefficient (deletion depth definition processing, here, deletion depth definition processing 1) is executed.

削除奥行き定義処理1について、図14を参照して説明する。削除奥行き定義処理では、まず削除奥行き定義部3230が選択画素リストに記録されている奥行き係数(デプスindex)を取得する(ステップS401)。図9(b)の例では、デプスindexの値として3,6及び1が記録されているため、これら3つのデプスindexを取得する。   Deletion depth definition processing 1 will be described with reference to FIG. In the deletion depth definition process, first, the deletion depth definition unit 3230 obtains a depth coefficient (depth index) recorded in the selected pixel list (step S401). In the example of FIG. 9B, since 3, 6 and 1 are recorded as the values of the depth index, these three depth indexes are acquired.

次に、削除奥行き定義部3230がステップS401で取得した奥行き係数のうち一つを注目奥行き係数として選択する(ステップS402)。   Next, the deletion depth definition unit 3230 selects one of the depth coefficients acquired in step S401 as the attention depth coefficient (step S402).

次に、注目奥行き係数について、式(5)を用いて比率Qdを算出する(ステップS403)。例えば、図9(b)のデプスindex3について、45/200を比率Qdの値として算出する。   Next, a ratio Qd is calculated for the attention depth coefficient using Expression (5) (step S403). For example, 45/200 is calculated as the value of the ratio Qd for the depth index 3 in FIG.

削除奥行き定義部3230は、次にステップS403で算出した比率が所定の閾値以上であるか判別する(ステップS404)。所定の閾値以上である場合(ステップS404;YES)、削除奥行き定義部3230は注目奥行きを削除奥行き係数として定める(ステップS405)。一方、所定の閾値より小さい場合(ステップS404;NO)、注目奥行き係数は削除奥行き係数では無いとの判断の元、注目奥行き係数を選択画素リストから削除する(ステップS406)。具体的には、選択画素リストの行のうち、デプスindexが注目奥行き係数と一致する行を削除する。   Next, the deletion depth definition unit 3230 determines whether the ratio calculated in step S403 is equal to or greater than a predetermined threshold (step S404). If it is equal to or greater than the predetermined threshold (step S404; YES), the deletion depth definition unit 3230 determines the depth of interest as the deletion depth coefficient (step S405). On the other hand, if it is smaller than the predetermined threshold (step S404; NO), the target depth coefficient is deleted from the selected pixel list based on the determination that the target depth coefficient is not the deletion depth coefficient (step S406). Specifically, from the rows of the selected pixel list, the rows where the depth index matches the target depth coefficient are deleted.

次に、ステップS401で取得した全ての奥行き係数について上記処理が終了したか判別する(ステップS407)。未処理の奥行き係数がある場合(ステップS407;NO)、次の未処理の奥行き係数についてステップS402から処理を繰り返す。一方、全ての奥行き係数について処理済みの場合(ステップS407;YES)、削除奥行き定義処理は終了する。   Next, it is determined whether or not the above processing has been completed for all the depth coefficients acquired in step S401 (step S407). If there is an unprocessed depth coefficient (step S407; NO), the process is repeated from step S402 for the next unprocessed depth coefficient. On the other hand, if all depth coefficients have been processed (step S407; YES), the deletion depth definition process ends.

図13に戻って、ステップS305で削除奥行き係数を定義すると、削除画素抽出部3240は、定義された削除奥行き係数の一つを注目奥行き係数として選択する(ステップS306)。   Returning to FIG. 13, when the deletion depth coefficient is defined in step S305, the deletion pixel extraction unit 3240 selects one of the defined deletion depth coefficients as the attention depth coefficient (step S306).

次に、削除画素抽出部3240は、ライトフィールド画像(LFI)から削除画素を抽出する処理(削除画素抽出処理、ここでは削除画素抽出処理1)を実行する(ステップS307)。   Next, the deleted pixel extraction unit 3240 executes processing for deleting the deleted pixel from the light field image (LFI) (deleted pixel extraction processing, here, deleted pixel extraction processing 1) (step S307).

ステップS307で実行される削除画素抽出処理1について、図15を参照して説明する。
まず、削除画素抽出処理1では、削除画素抽出部3240は、仮再構成画像(RI1)について生成された選択画素リストに記憶されている選択画素の一つを注目選択画素として選択する(ステップS501)。そして、注目選択画素を、仮再構成画像(RI1)内で選択する選択領域に編入する。
The deleted pixel extraction process 1 executed in step S307 will be described with reference to FIG.
First, in the deletion pixel extraction process 1, the deletion pixel extraction unit 3240 selects one of the selection pixels stored in the selection pixel list generated for the temporary reconstructed image (RI1) as a target selection pixel (step S501). ). Then, the target selected pixel is incorporated into a selection area to be selected in the temporary reconstructed image (RI1).

次に、削除画素抽出部3240は、選択領域に隣接する画素である隣接再構成画素を抽出する(ステップS502)。具体的には、選択領域に含まれる画素のそれぞれについて、上下左右方向に隣接する画素のうち、選択領域に含まれない再構成画素を、隣接再構成画素として抽出する。   Next, the deleted pixel extraction unit 3240 extracts adjacent reconstructed pixels that are pixels adjacent to the selected region (step S502). Specifically, for each pixel included in the selected region, a reconstructed pixel that is not included in the selected region is extracted as an adjacent reconstructed pixel among pixels adjacent in the vertical and horizontal directions.

次に、削除画素抽出部3240は、ステップS502で抽出した隣接再構成画素に、所定の条件を満たす編入画素があるか否か判別する(ステップS503)。ここで所定の条件とは、隣接再構成画素の画素値と選択領域に含まれる画素の平均値と、の差が再構成設定で定める所定の閾値以下であり、かつ奥行き係数が削除奥行き係数(注目奥行き係数)を含む所定範囲(削除奥行き範囲)に含まれることである。例えば、再構成設定が削除奥行き範囲を削除奥行き係数の±2の範囲と定めている場合、奥行き係数が6とすると4〜8が削除奥行き範囲である。本実施形態では、隣接再構成画素の奥行き係数が削除奥行き範囲に含まれることが、隣接再構成画素が選択領域に編入される編入画素である条件となる。   Next, the deleted pixel extraction unit 3240 determines whether or not the adjacent reconstructed pixel extracted in step S502 includes an incorporation pixel that satisfies a predetermined condition (step S503). Here, the predetermined condition is that the difference between the pixel value of the adjacent reconstructed pixel and the average value of the pixels included in the selected area is equal to or less than a predetermined threshold determined by the reconstruction setting, and the depth coefficient is the deletion depth coefficient ( It is included in a predetermined range (deleted depth range) including a target depth coefficient. For example, when the reconstruction setting defines the deletion depth range as a range of ± 2 of the deletion depth coefficient, if the depth coefficient is 6, 4 to 8 are the deletion depth range. In the present embodiment, the condition that the adjacent reconstruction pixels are incorporated into the selection area is a condition that the depth coefficient of the adjacent reconstruction pixels is included in the deletion depth range.

ステップS502で抽出した隣接再構成画素に編入画素がある場合(ステップS503;YES)、編入画素は削除被写体に対応する画素であるとの判断の元、削除画素抽出部3240は編入画素を選択領域に編入する(ステップS504)。そして、処理はステップS502に戻り、さらなる編入画素を抽出する。   When the adjacent reconstructed pixel extracted in step S502 includes a transfer pixel (step S503; YES), the deletion pixel extraction unit 3240 selects the transfer pixel as a selection area based on the determination that the transfer pixel is a pixel corresponding to the deletion subject. (Step S504). Then, the process returns to step S502, and further incorporation pixels are extracted.

一方、編入画素が無い場合(ステップS503;NO)、現時点での選択領域に隣接する範囲に削除被写体に対応する画素は無いとの判断の元、処理はステップS505に進む。
ステップS505では、削除画素抽出部3240は、選択画素リストに記憶された選択画素に、選択領域に含まれない画素があるか否か判別する。選択領域に含まれない選択画素があった場合(ステップS505;YES)、その画素を新たな注目選択画素として処理をS501から繰り返す。
On the other hand, if there is no transfer pixel (step S503; NO), the process proceeds to step S505 based on the determination that there is no pixel corresponding to the deleted subject in the range adjacent to the selected area at the current time.
In step S505, the deleted pixel extraction unit 3240 determines whether there is a pixel that is not included in the selection area among the selection pixels stored in the selection pixel list. If there is a selected pixel that is not included in the selected area (step S505; YES), the process is repeated from S501 with that pixel as a new target selected pixel.

一方、選択領域に含まれない選択画素が無い場合(ステップS505;NO)、削除被写体に対応する再構成画素が現在の選択領域に含まれているとの判断の元、削除画素抽出部3240は、仮再構成画像(RI1)の選択領域に対応するライトフィールド画像(LFI)の対応画素を抽出する(ステップS506)。具体的には、対応リストにおいて、選択領域に含まれる再構成画素に対応すると定義されたサブ画素を抽出する。   On the other hand, if there is no selected pixel that is not included in the selected area (step S505; NO), the deleted pixel extraction unit 3240 determines that a reconstructed pixel corresponding to the deleted subject is included in the current selected area. Then, the corresponding pixel of the light field image (LFI) corresponding to the selected region of the temporary reconstructed image (RI1) is extracted (step S506). Specifically, sub-pixels defined as corresponding to the reconstructed pixels included in the selected area in the correspondence list are extracted.

次に、削除画素抽出部3240は、ステップS506で抽出した対応画素のうち、削除奥行き範囲に含まれる奥行き係数を持つ画素を、削除画素として抽出する(ステップS507)。そして、削除画素抽出処理は終了する。   Next, the deleted pixel extraction unit 3240 extracts, as a deleted pixel, a pixel having a depth coefficient included in the deleted depth range from the corresponding pixels extracted in step S506 (step S507). Then, the deleted pixel extraction process ends.

図13に戻って、ステップS307で削除画素が抽出されると、次に、ステップS305で定義された全削除奥行きについて上記処理が終了したかを判別する(ステップS308)。未処理の削除奥行きがある場合(ステップS308;NO)、次の未処理の削除奥行きについてステップS306から処理を繰り返す。一方、全削除奥行きについて処理済みの場合(ステップS308;YES)、処理はステップS309に移行する。   Returning to FIG. 13, when the deleted pixel is extracted in step S307, it is next determined whether or not the above processing has been completed for all the deletion depths defined in step S305 (step S308). If there is an unprocessed deletion depth (step S308; NO), the process is repeated from step S306 for the next unprocessed deletion depth. On the other hand, when all the deletion depths have been processed (step S308; YES), the process proceeds to step S309.

ステップS309では、図7(c)で示したように、削除画素抽出部3240は、抽出した削除画素に対応する削除被写体をハイライトした仮再構成画像を出力部340に出力する。具体的には、RI1のうち削除被写体の画素値を黒とする、あるいは黒と白とで点滅する画素値とする、等の処理により削除被写体を判別可能な画像を生成する。そして、図7(c)で示したように、生成した画像を表示する。   In step S309, as illustrated in FIG. 7C, the deleted pixel extraction unit 3240 outputs a temporary reconstructed image in which the deleted subject corresponding to the extracted deletion pixel is highlighted to the output unit 340. Specifically, an image capable of discriminating the deleted subject is generated by processing such as setting the pixel value of the deleted subject to black in RI1 or a pixel value blinking between black and white. Then, as shown in FIG. 7C, the generated image is displayed.

次に、ユーザがハイライトされた削除領域(削除被写体)を確認して確定操作を実行するなどして、削除対象(削除画素)が確定したか否か判別する(ステップS310)。ユーザが図7(c)でNOを選択した場合など、確定しなかった場合には(ステップS310;NO)、削除領域をリセットしてステップS301に戻る。   Next, it is determined whether or not the deletion target (deletion pixel) has been confirmed by confirming the highlighted deletion area (deletion subject) and executing a confirmation operation (step S310). If the user has not decided such as selecting NO in FIG. 7C (step S310; NO), the deletion area is reset and the process returns to step S301.

一方、ユーザが図7(c)でYESを選択した場合など、削除領域が確定した場合は(ステップS310;YES)、削除画素抽出部3240はステップS307で抽出したサブ画素を削除画素として確定する。そして、削除対象定義処理1は終了する。   On the other hand, when the user selects YES in FIG. 7C and the deletion area is determined (step S310; YES), the deletion pixel extraction unit 3240 determines the sub-pixel extracted in step S307 as the deletion pixel. . Then, the deletion target definition process 1 ends.

図11に戻って、ステップS107で削除画素を抽出すると、次に削除部3250が削除処理を実行する。具体的には、削除画素の画素値をNULLとする(ステップS108)。そして、削除再構成画像生成部3260が削除再構成画像RI2を生成する処理(削除再構成画像生成処理、ここでは削除再構成画像生成処理1)を開始する(ステップS109)。   Returning to FIG. 11, when a deleted pixel is extracted in step S <b> 107, the deletion unit 3250 next executes a deletion process. Specifically, the pixel value of the deleted pixel is set to NULL (step S108). Then, the deletion reconstructed image generation unit 3260 starts processing for generating the deletion reconstructed image RI2 (deletion reconstructed image generation processing, here, deletion reconstructed image generation processing 1) (step S109).

ステップS109で実行される削除再構成画像生成処理1を、図16を参照して説明する。削除再構成画像生成処理1では、削除再構成画像生成部3260が再構成画素のうち一つを注目画素として選択する(ステップS601)。   Deletion reconstructed image generation processing 1 executed in step S109 will be described with reference to FIG. In the deleted reconstructed image generation process 1, the deleted reconstructed image generation unit 3260 selects one of the reconstructed pixels as a target pixel (step S601).

次に、削除再構成画像生成部3260は、サブ画素から注目画素に対応する対応画素を抽出する(ステップS602)。具体的には、図5の対応リストのうち、再構成画素の座標が注目画像の座標と一致する行に登録されたサブ画素を、対応画素として抽出する。   Next, the deletion reconstructed image generation unit 3260 extracts a corresponding pixel corresponding to the target pixel from the sub-pixels (step S602). Specifically, in the correspondence list in FIG. 5, subpixels registered in a row in which the coordinates of the reconstructed pixel coincide with the coordinates of the target image are extracted as corresponding pixels.

次に、削除再構成画像生成部3260は、ステップS602で抽出した対応画素に、画素値がNULLの画素(削除画素)が含まれるか否か判別する(ステップS603)。削除画素が含まれる場合(ステップS603;YES)、削除画素を以降の算出処理の対象から除外する(ステップS604)。一方、削除画素が含まれない場合(ステップS603;NO)、ステップS604をスキップする。   Next, the deleted reconstructed image generation unit 3260 determines whether or not the corresponding pixel extracted in step S602 includes a pixel having a NULL pixel value (deleted pixel) (step S603). If the deleted pixel is included (step S603; YES), the deleted pixel is excluded from the target of the subsequent calculation processing (step S604). On the other hand, if the deleted pixel is not included (step S603; NO), step S604 is skipped.

次に、削除再構成画像生成部3260が注目画素の画素値を算出する(ステップS605)。具体的には、ステップS602で抽出された各対応画素の画素値を、それぞれの対応画素の重みを用いて重み付き加算平均して、得られた値を注目画素の画素値とする。このとき、ステップS604で除外された削除画素については算出処理の対象としない。   Next, the deletion reconstructed image generation unit 3260 calculates the pixel value of the target pixel (step S605). Specifically, the pixel values of the corresponding pixels extracted in step S602 are weighted and averaged using the weights of the corresponding pixels, and the obtained value is used as the pixel value of the target pixel. At this time, the deleted pixel excluded in step S604 is not subject to calculation processing.

このとき、対応画素が全て削除画素である(あるいは、削除画素が占める割合が所定の比率より多い)場合は、所定のデフォルト値(たとえば黒)を再構成画素の画素値とする。このとき、削除操作によって、撮影によらない情報が削除再構成画素に現れたことをユーザに警告する。   At this time, if all the corresponding pixels are deleted pixels (or the ratio occupied by the deleted pixels is larger than a predetermined ratio), a predetermined default value (for example, black) is set as the pixel value of the reconstructed pixel. At this time, the user is warned that information that is not based on photographing appears in the deletion reconstruction pixel by the deletion operation.

同様に、削除再構成画像生成部3260が注目画素の奥行き係数を算出する(ステップS606)。具体的には、ステップS602で抽出された各対応画素についてLFDMが定義する奥行き係数を、それぞれの対応画素の重みを用いて重み付き加算平均して、得られた値を注目画素の奥行き係数とする。
なお、対応画素の奥行き係数の最頻値を注目画素の奥行き係数としてもよい。
このとき、削除画素については算出処理の対象から除外される。
Similarly, the deleted reconstructed image generation unit 3260 calculates the depth coefficient of the target pixel (step S606). Specifically, the depth coefficient defined by LFDM for each corresponding pixel extracted in step S602 is weighted and averaged using the weight of each corresponding pixel, and the obtained value is used as the depth coefficient of the target pixel. To do.
Note that the mode value of the depth coefficient of the corresponding pixel may be used as the depth coefficient of the target pixel.
At this time, the deleted pixel is excluded from the calculation processing target.

次に、全再構成画素を注目画素として上記処理が終了したか判別する(ステップS607)。未処理の再構成画素がある場合には(ステップS607;NO)、次の未処理の再構成画素についてステップS601から処理を繰り返す。一方、全再構成画素を処理済みの場合(ステップS607;YES)、削除再構成画像が生成されたので、削除再構成画像生成処理1は終了する。   Next, it is determined whether or not the above processing is completed with all the reconstructed pixels as the target pixel (step S607). If there is an unprocessed reconstruction pixel (step S607; NO), the process is repeated from step S601 for the next unprocessed reconstruction pixel. On the other hand, when all the reconstructed pixels have been processed (step S607; YES), the deleted reconstructed image generation process 1 ends because the deleted reconstructed image has been generated.

図11に戻って、ステップS109で削除再構成画像を生成すると、次に出力部340が生成した削除再構成画像を画像記憶部430に出力する(ステップS110)。そして、表示部520又はI/O部510が変更再構成画像を外部に出力し、画像出力処理は終了する。   Returning to FIG. 11, when the deletion reconstructed image is generated in step S109, the deletion reconstructed image generated by the output unit 340 is output to the image storage unit 430 (step S110). Then, the display unit 520 or the I / O unit 510 outputs the changed reconstructed image to the outside, and the image output process ends.

以上説明したように、本実施形態の画像生成装置30は削除対象となる被写体を削除した再構成画像を生成することができる。また、被写体の削除にあたって、削除対象となる被写体に対応するサブ画素を抽出して、その他のサブ画素の画素値に基づいて再構成画素の画素値を決定する。そのため、削除後の再構成画像(RI2)に主要被写体の撮影情報によらない画素(削除対象の被写体の画素)が現れる割合が小さい。即ち、削除再構成画像を主要な被写体の撮影情報をより反映する画像として生成する事が出来る。   As described above, the image generation apparatus 30 according to the present embodiment can generate a reconstructed image in which a subject to be deleted is deleted. Further, when deleting a subject, sub-pixels corresponding to the subject to be deleted are extracted, and pixel values of reconstructed pixels are determined based on pixel values of other sub-pixels. For this reason, the ratio of pixels that do not depend on the shooting information of the main subject (pixels of the subject to be deleted) appears in the reconstructed image (RI2) after deletion is small. That is, it is possible to generate the deleted reconstructed image as an image more reflecting the shooting information of the main subject.

また、本実施形態の画像生成装置30は削除被写体が位置すると推定される奥行き係数を持つ画素について削除処理を実行して、削除被写体の像を再構成画像から削除する。この構成により、削除対象の被写体を含まない奥行きの像はそのまま保持して被写体を削除できる。このため、LFI上に撮影された、より奥に位置する被写体の像が、削除した部位に現れる。そのため、実際に被写体を除いた場合に近い削除再構成画像を生成することが出来る。   In addition, the image generation apparatus 30 according to the present embodiment performs a deletion process on a pixel having a depth coefficient estimated that the deleted subject is located, and deletes the image of the deleted subject from the reconstructed image. With this configuration, it is possible to delete a subject while maintaining an image having a depth that does not include the subject to be deleted. For this reason, an image of a subject located on the back, which is photographed on the LFI, appears at the deleted part. Therefore, it is possible to generate a deletion reconstructed image close to the case where the subject is actually removed.

また、本実施形態の画像生成装置30は、LFDMから再構成奥行きマップを生成し、選択画素(再構成画素の一部)の奥行き係数に基づいて被写体の奥行き係数を定める。このため、定めた削除被写体の奥行きに適合するサブ画素を削除画素として抽出することができ、実際に被写体を除いた場合に近い削除再構成画像を生成することが出来る。   In addition, the image generation apparatus 30 according to the present embodiment generates a reconstructed depth map from the LFDM, and determines the depth coefficient of the subject based on the depth coefficient of the selected pixel (a part of the reconstructed pixel). For this reason, subpixels that match the depth of the determined deletion subject can be extracted as deletion pixels, and a deletion reconstructed image close to the case where the subject is actually removed can be generated.

さらに、本実施形態のデジタルカメラ1は、一旦削除処理を施さない仮再構成画像を生成し、ユーザに提示する構成を持つ。そのため、ユーザは削除を行わない場合の画像を確認の上、所望の削除対象を選択することができる。そのため、被写体の削除を実行する上で、ユーザの利便性が高い。   Furthermore, the digital camera 1 of the present embodiment has a configuration in which a temporary reconstructed image that is not subjected to deletion processing is generated and presented to the user. Therefore, the user can select a desired deletion target after confirming an image when deletion is not performed. Therefore, it is highly convenient for the user when deleting the subject.

さらに、撮影パラメータ(撮影設定情報)に基づく対応情報を取得し、この対応情報に基づき仮再構成画像と削除再構成画像を生成する。そのため、撮影時の条件を反映した、精度の高い仮再構成画像と、削除再構成画像を生成できる。   Further, correspondence information based on the photographing parameters (photographing setting information) is acquired, and a temporary reconstructed image and a deleted reconstructed image are generated based on the correspondence information. Therefore, it is possible to generate a highly accurate temporary reconstructed image and a deleted reconstructed image reflecting the conditions at the time of shooting.

(変形例)
本発明は、上記実施形態に限定されず、さまざまな変形が可能である。
例えば、上記実施形態では削除奥行き範囲を、削除操作で抽出されたデプスidexが所定の比率より多い奥行き係数を含む所定範囲として定めた。そして、削除被写体に対応する再構成画素の対応サブ画素のうち、奥行き係数が削除奥行き範囲に含まれるサブ画素を、削除画素として定めた。
しかし、本発明の削除画素を抽出する方法はこれに限られない。
例えば、デジタルカメラ1はユーザが指定する奥行きの範囲に属するサブ画素を全て削除画素としても良い。このような構成によれば、例えば主な被写体の前に帯状の障害物があった場合等に、邪魔な障害物を一律に削除するといった処理が簡便に達成できる。
あるいは、ユーザが指定する任意の部位に対応する、ユーザ指定の奥行き範囲に属するサブ画素を削除画素と定める構成も可能である。
(Modification)
The present invention is not limited to the above embodiment, and various modifications can be made.
For example, in the above embodiment, the deletion depth range is set as a predetermined range including a depth coefficient in which the depth idex extracted by the deletion operation is larger than a predetermined ratio. Then, among the corresponding sub-pixels of the reconstructed pixel corresponding to the deleted subject, the sub-pixel whose depth coefficient is included in the deleted depth range is determined as the deleted pixel.
However, the method of extracting the deleted pixel of the present invention is not limited to this.
For example, the digital camera 1 may use all subpixels belonging to the depth range designated by the user as deleted pixels. According to such a configuration, for example, when there is a belt-like obstacle in front of the main subject, a process of uniformly removing the obstacles can be easily achieved.
Alternatively, a configuration is possible in which a sub-pixel belonging to a user-specified depth range corresponding to an arbitrary part specified by the user is determined as a deletion pixel.

また、上記実施形態では図15の削除画素抽出処理1により選択領域(削除被写体に対応する再構成画像上の領域)を定義したが、選択領域を定義する方法はこれに限られない。
例えば、予め再構成画像を画素値・奥行き係数に基づいて画像領域に分割しておき、画像領域のうちその画像領域に含まれる選択画素が所定の比率よりも多い領域を選択領域と定める構成も可能である。このとき画像領域を分割する方法は、分割・統合法、グラフカット法等の既知の任意の方法を用いることが出来る。
In the above embodiment, the selection area (the area on the reconstructed image corresponding to the deletion subject) is defined by the deletion pixel extraction process 1 in FIG. 15, but the method for defining the selection area is not limited to this.
For example, a configuration in which a reconstructed image is divided into image areas based on pixel values and depth coefficients in advance, and an area in which the number of selected pixels included in the image area is greater than a predetermined ratio is selected as the selection area. Is possible. At this time, a known arbitrary method such as a division / integration method or a graph cut method can be used as a method for dividing the image region.

なお、このように予め再構成画像を画像領域に分割しておく方法は、削除奥行き範囲を定義する処理にも応用できる。例えば、選択操作に基づいてその画像領域に含まれる選択画素が所定の比率よりも多い領域を選択領域としてまず抽出する。そして、選択領域の奥行き係数の最頻値を削除奥行き係数とし、その奥行き係数から所定範囲を削除奥行き範囲とする構成が可能である。   Note that the method of dividing the reconstructed image into image regions in advance can be applied to processing for defining the deletion depth range. For example, based on the selection operation, an area in which the number of selected pixels included in the image area is greater than a predetermined ratio is first extracted as a selection area. Then, it is possible to adopt a configuration in which the mode value of the depth coefficient of the selected region is set as the deletion depth coefficient, and a predetermined range is set as the deletion depth range from the depth coefficient.

また、デジタルカメラの設計上想定される奥行き係数の範囲を複数のクラス(奥行きクラス)に分割して上記削除処理を実行する構成も可能である。この変形例では、奥行きクラスと対応する奥行き係数の範囲とを対応づけて記憶するリスト(図17のクラス−デプス対応リスト)を用いて奥行きクラスを定義する。図17の例では、設定上想定されるデプスindex(0〜MAX)について、3つの奥行きクラスが定義される。例えばクラスindex2と対応デプスindex3〜5が同じ行に登録されていることは、デプスindex(奥行き係数)が3〜5の画素が2番目のクラスに属することを示す。
デプスをクラスに振り分ける方法は、再構成設定で予め定義する、LFDMの各奥行き値を既知のクラスタリング方法でクラスタリングする、等任意である。クラスタリングの方法としては、各クラスが属する奥行き値のクラス間の距離が最大となるようにウォード方を用いてクラスタリングする、k平均法を用いる、等が挙げられる。
Further, it is possible to divide the range of the depth coefficient assumed in the design of the digital camera into a plurality of classes (depth classes) and execute the deletion process. In this modification, a depth class is defined using a list (class-depth correspondence list in FIG. 17) that stores a depth class and a corresponding range of depth coefficients in association with each other. In the example of FIG. 17, three depth classes are defined for the depth index (0 to MAX) assumed in the setting. For example, the fact that the class index 2 and the corresponding depth indexes 3 to 5 are registered in the same row indicates that pixels having a depth index (depth coefficient) of 3 to 5 belong to the second class.
The method of assigning the depth to the class is arbitrary, such as pre-defining with the reconstruction setting, or clustering each LFDM depth value by a known clustering method. Examples of the clustering method include clustering using a ward method so that the distance between classes of depth values to which each class belongs is maximized, using a k-average method, and the like.

クラスを用いる構成では、図9(a)のような選択操作に基づいて、図18に示すような選択画素リストを生成する。そして、全選択画素のうち、所定の比率を超えるクラスindexを選択クラスとする。そして、選択クラスに割り当てられた奥行き範囲を、削除奥行き範囲として削除画素を抽出する。
このような構成によれば、割り当てられた範囲については一つのクラスとして選択のための比率を算出する。そのため、削除被写体が持つデプスindexが一定の数値を持たず、揺らいで居る場合でもユーザが所望する削除被写体を選択して削除することが可能となる。
In the configuration using classes, a selection pixel list as shown in FIG. 18 is generated based on the selection operation as shown in FIG. Then, among all the selected pixels, a class index exceeding a predetermined ratio is set as a selection class. Then, the deletion pixel is extracted using the depth range assigned to the selected class as the deletion depth range.
According to such a configuration, the ratio for selection is calculated as one class for the allocated range. Therefore, even when the depth index of the deleted subject does not have a constant numerical value and fluctuates, the user can select and delete the desired deleted subject.

さらに、上記実施形態では削除部が削除画素の画素値をNULLとし、削除再構成の生成にあたって算出の対象外とした。
しかし、本発明では、削除画素の画素値が再構成画素に現れる割合が所望の被写体の鑑賞の邪魔にならない程度に小さくする任意の方法を用いて削除再構成画像を生成して良い。
例えば、削除部が図5の対応リストから削除画素を消去することにより、再構成画像の生成プロセスにおいて削除画素の画素値が用いられないようにする構成によって削除再構成画像を生成できる。あるいは、削除画素を対応リストから消去する代わりに、削除画素について対応リストに記憶された重みwを鑑賞の邪魔にならない程度まで減少させる構成も可能である。この構成によれば、図7(e)のように一定の比率だけ削除した画像を生成できる。
このような構成の例として、削除画素の重みを減少させる比率をスライドバー等を用いてユーザが指定することが考えられる。この構成により、ユーザは削除被写体が削除再構成画像に現れる程度を所望の水準まで下げることができる。
Further, in the above-described embodiment, the deletion unit sets the pixel value of the deleted pixel to NULL and excludes it from calculation when generating the deletion reconstruction.
However, in the present invention, the deleted reconstructed image may be generated using any method that reduces the ratio of the pixel value of the deleted pixel appearing in the reconstructed pixel to such an extent that it does not interfere with the viewing of the desired subject.
For example, the deleted reconstructed image can be generated by a configuration in which the deletion unit deletes the deleted pixel from the correspondence list in FIG. 5 so that the pixel value of the deleted pixel is not used in the reconstructed image generation process. Alternatively, instead of erasing the deleted pixel from the correspondence list, it is possible to reduce the weight w stored in the correspondence list for the deleted pixel to an extent that does not interfere with viewing. According to this configuration, an image deleted by a certain ratio can be generated as shown in FIG.
As an example of such a configuration, it is conceivable that the user specifies a ratio for reducing the weight of the deleted pixel using a slide bar or the like. With this configuration, the user can lower the degree to which the deleted subject appears in the deleted reconstructed image to a desired level.

このように削除部は、削除画素の画素値をNULLとしてその後の再構成処理において処理対象から排除する、対応リストから削除画素を削除する、削除画素の重みを減少する、等の処理を実行する。これらの処理は、再構成画素とサブ画素の対応関係を、削除画素と再構成画素との対応の度合いを小さくするように変更することであると言い換えることができる。なお、ここで「対応の度合いを小さくする」とは、対応の度合いを0とすることを含む。このため、削除部は変更部とも表現できる。
画像生成装置は、このような処理により、削除被写体が写っていると判断できるサブ画素の画素値が再構成画像に現れる割合を効果的に減少させることが出来る。その結果、削除被写体がある部位には、削除画素以外の対応画素の像が現われるため、実際に削除被写体を除いた場合の画像に近い削除再構成画増を生成することが出来る。
In this way, the deletion unit performs processing such as setting the pixel value of the deleted pixel to NULL and excluding it from the processing target in the subsequent reconstruction processing, deleting the deleted pixel from the correspondence list, and reducing the weight of the deleted pixel. . These processes can be rephrased as changing the correspondence between the reconstructed pixel and the sub-pixel so as to reduce the degree of correspondence between the deleted pixel and the reconstructed pixel. Here, “reducing the degree of correspondence” includes setting the degree of correspondence to zero. For this reason, a deletion part can also be expressed as a change part.
By such processing, the image generation apparatus can effectively reduce the proportion of the sub-pixel pixel values that can be determined to include the deleted subject appear in the reconstructed image. As a result, an image of a corresponding pixel other than the deleted pixel appears in a portion where the deleted subject is present, so that it is possible to generate a deleted reconstruction image increase that is close to the image when the deleted subject is actually removed.

さらに、ユーザ操作に基づいて削除対象を定めなくても良い。例えば、最も近いクラスの被写体や所望の焦点面より前の被写体を、自動的に削除する等の構成も可能である。   Furthermore, the deletion target may not be determined based on the user operation. For example, a configuration such as automatically deleting a subject of the closest class or a subject in front of a desired focal plane is possible.

さらに、上記説明では、対応情報に重み係数が含まれている例について説明したが、対応情報は再構成画素に対応するサブ画素を定めた情報であればよく、重みを定義している必要は無い。
さらに、上記説明では、対応情報は撮影設定情報や再構成設定に基づいて、LFI毎に生成するものとしたが、これに限らず、予め記憶された所定の対応情報を用いるとしてもよい。この構成は、想定される撮影パラメータが変動する余地が少なく、再構成距離が一定である場合に、許容範囲の精度を保って計算量を減少させるために好適である。
Furthermore, in the above description, the example in which the weighting coefficient is included in the correspondence information has been described. However, the correspondence information may be information that defines the sub-pixel corresponding to the reconstructed pixel, and it is not necessary to define the weight. No.
Furthermore, in the above description, the correspondence information is generated for each LFI based on the shooting setting information and the reconstruction setting. However, the present invention is not limited to this, and predetermined correspondence information stored in advance may be used. This configuration is suitable for reducing the amount of calculation while maintaining the accuracy of the allowable range when there is little room for the assumed imaging parameters to fluctuate and the reconstruction distance is constant.

また、上記実施例では、画像をグレースケール画像であるとして説明したが、本発明の処理対象となる画像はグレースケール画像に限らない。例えば、画像は各画素にR(レッド)、G(グリーン)、B(ブルー)、の三つの画素値が定義されたRGB画像であってよい。この場合、画素値をRGBのベクトル値として同様に処理する。また、R、G、B、の各値をそれぞれ独立したグレースケール画像として、それぞれ上記処理を行っても良い。この構成によれば、カラー画像であるライトフィールド画像からカラー画像である再構成画像を生成できる。   In the above embodiment, the image is described as a grayscale image. However, the image to be processed according to the present invention is not limited to a grayscale image. For example, the image may be an RGB image in which three pixel values of R (red), G (green), and B (blue) are defined for each pixel. In this case, the pixel value is similarly processed as an RGB vector value. Alternatively, the above processing may be performed using each of R, G, and B values as independent grayscale images. According to this configuration, a reconstructed image that is a color image can be generated from a light field image that is a color image.

その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

情報処理部31、主記憶部32、外部記憶部33、などから構成される削除再構成画像生成のための処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROMなど)に格納して配布し、前記コンピュータプログラムをコンピュータにインストールし、削除再構成画像生成のための処理を行う中心となる部分を構成してもよい。また、インターネットなどの通信ネットワーク上のサーバ装置が有する記憶装置に前記コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードなどすることで画像生成装置を構成してもよい。   A central part that performs processing for generating a deleted reconstructed image including the information processing unit 31, the main storage unit 32, the external storage unit 33, and the like uses a normal computer system, not a dedicated system. Is feasible. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. You may comprise the center part which performs the process for deletion reconstruction image generation. Further, the computer program may be stored in a storage device included in a server device on a communication network such as the Internet, and the image generation device may be configured by downloading or the like by a normal computer system.

画像生成装置の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   When the functions of the image generation device are realized by sharing of an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion may be stored in a recording medium or a storage device. Good.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS: Bulletin Board System) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
複数の視点のそれぞれから複数の被写体を撮影した、複数のサブ画像から構成される撮影画像から、所定の再構成面に定義される再構成画像を生成する画像生成装置であって、
前記撮影画像のサブ画像を構成するサブ画素のそれぞれについて、当該サブ画素に対応する前記被写体の奥行きを示す奥行係数を取得する奥行取得部と、
前記サブ画素から、前記奥行取得部が取得した奥行係数が所定条件を満たすサブ画素を、削除の対象となる削除被写体に対応する削除画素として抽出する抽出部と、
前記再構成画像を構成する再構成画素の画素値を、当該再構成画素に対応するサブ画素の画素値に基づき、当該サブ画素のうち前記抽出部が抽出した削除画素の画素値の影響が小さくなるように求める事により、前記削除被写体を削除した再構成画像を生成する生成部と、
を備えることを特徴とする画像生成装置。
(Appendix 1)
An image generation device that generates a reconstructed image defined on a predetermined reconstruction plane from a captured image composed of a plurality of sub-images obtained by capturing a plurality of subjects from each of a plurality of viewpoints,
A depth acquisition unit that acquires a depth coefficient indicating the depth of the subject corresponding to the sub-pixel for each of the sub-pixels constituting the sub-image of the captured image;
An extraction unit that extracts, from the sub-pixels, sub-pixels whose depth coefficient acquired by the depth acquisition unit satisfies a predetermined condition as deletion pixels corresponding to a deletion subject to be deleted;
Based on the pixel value of the reconstructed pixel constituting the reconstructed image based on the pixel value of the subpixel corresponding to the reconstructed pixel, the influence of the pixel value of the deleted pixel extracted by the extraction unit among the subpixels is small. A generation unit that generates a reconstructed image in which the deleted subject is deleted,
An image generation apparatus comprising:

(付記2)
前記抽出部は、前記削除被写体の奥行きを取得し、前記奥行取得部が取得した奥行係数が、当該削除被写体の奥行きを含む所定範囲に含まれるサブ画素を、前記奥行係数が所定条件を満たすサブ画素とする、
ことを特徴とする付記1に記載の画像生成装置。
(Appendix 2)
The extraction unit acquires the depth of the deleted subject, the depth coefficient acquired by the depth acquisition unit is a sub-pixel included in a predetermined range including the depth of the deleted subject, and the depth coefficient is a sub Pixel
The image generating apparatus according to Supplementary Note 1, wherein

(付記3)
前記奥行取得部が取得したサブ画素の奥行係数から前記再構成画素の奥行きを求める獲得部を更に備え、
前記抽出部は、前記削除被写体が位置する前記再構成画像上の部位の少なくとも一部を取得し、当該取得した部位の再構成画素について前記獲得部が求めた奥行きに基づいて、前記削除被写体の奥行きを取得する、
ことを特徴とする付記2に記載の画像生成装置。
(Appendix 3)
An acquisition unit for obtaining the depth of the reconstructed pixel from the depth coefficient of the sub-pixel acquired by the depth acquisition unit;
The extraction unit acquires at least a part of a portion on the reconstructed image where the deleted subject is located, and based on the depth obtained by the acquisition unit for the reconstructed pixel of the acquired portion, To get the depth,
The image generating apparatus according to appendix 2, characterized in that:

(付記4)
前記再構成画素と前記サブ画素との対応関係を、前記削除画素と前記再構成画素との対応の度合いが小さくなるように変更する変更部を更に備え、
前記生成部は、前記変更部が変更した対応関係を用いて、前記削除画素の画素値の影響が小さくなるように前記再構成画素の画素値を求める、
ことを特徴とする付記1乃至3の何れか一つに記載の画像生成装置。
(Appendix 4)
A change unit that changes the correspondence between the reconstructed pixel and the sub-pixel so that the degree of correspondence between the deleted pixel and the reconstructed pixel is reduced;
The generating unit obtains the pixel value of the reconstructed pixel so that the influence of the pixel value of the deleted pixel is reduced using the correspondence relationship changed by the changing unit.
The image generation apparatus according to any one of appendices 1 to 3, wherein

(付記5)
前記変更部が変更する前の対応関係に基づいて、前記複数の被写体を含む再構成画像である仮再構成画像を作成する作成部と、
前記作成部が作成した仮再構成画像を出力する出力部と、
前記出力部が出力した仮再構成画像上の部位を指定するための受付部と、
を更に備え、
前記抽出部は、前記奥行係数が所定条件を満たすサブ画素のうち、前記受付部によって指定された削除部位に対応するサブ画素を、前記削除画素として抽出する、
ことを特徴とする付記4に記載の画像生成装置。
(Appendix 5)
A creation unit that creates a temporary reconstructed image that is a reconstructed image including the plurality of subjects based on the correspondence before the change unit changes;
An output unit for outputting the temporarily reconstructed image created by the creation unit;
A reception unit for designating a part on the temporary reconstructed image output by the output unit;
Further comprising
The extraction unit extracts, as the deletion pixel, a sub-pixel corresponding to a deletion site specified by the reception unit among sub-pixels in which the depth coefficient satisfies a predetermined condition.
The image generating apparatus according to appendix 4, wherein:

(付記6)
前記撮影画像を撮影した際の撮影パラメータに基づいて求められた、前記再構成画素と前記サブ画素との対応関係を示す情報を取得する対応取得部をさらに備え、
前記変更部は、前記対応取得部が取得した情報が示す対応関係を変更する、
ことを特徴とする付記4又は5に記載の画像生成装置。
(Appendix 6)
A correspondence acquisition unit that acquires information indicating a correspondence relationship between the reconstructed pixel and the sub-pixel, which is obtained based on a photographing parameter when the photographed image is photographed;
The change unit changes the correspondence relationship indicated by the information acquired by the correspondence acquisition unit.
The image generating apparatus according to appendix 4 or 5, characterized in that:

(付記7)
複数の視点のそれぞれから複数の被写体を撮影した、複数のサブ画像から構成される撮影画像を取得し、
前記取得した撮影画像のサブ画像を構成するサブ画素のそれぞれについて、当該サブ画素に対応する前記被写体の奥行きを示す奥行係数を取得し、
前記サブ画素から、前記取得した奥行係数が所定条件を満たすサブ画素を、削除の対象となる削除被写体に対応する削除画素として抽出し、
所定の再構成面に定義される再構成画像を構成する再構成画素の画素値を、当該再構成画素に対応するサブ画素の画素値に基づき、当該サブ画素のうち前記抽出した削除画素の画素値の影響が小さくなるように求める事により、前記削除被写体を削除した再構成画像を生成する、
ことを特徴とする画像生成方法。
(Appendix 7)
Acquire a captured image consisting of multiple sub-images, shooting multiple subjects from each of multiple viewpoints,
For each of the sub-pixels constituting the sub-image of the acquired captured image, obtain a depth coefficient indicating the depth of the subject corresponding to the sub-pixel,
From the sub-pixels, the sub-pixels for which the acquired depth coefficient satisfies a predetermined condition are extracted as deleted pixels corresponding to the deleted subject to be deleted,
Based on the pixel value of the sub-pixel corresponding to the reconstruction pixel, the pixel value of the extracted deletion pixel among the sub-pixels based on the pixel value of the reconstruction pixel constituting the reconstruction image defined on the predetermined reconstruction plane By generating a reconstructed image in which the deleted subject is deleted by determining that the influence of the value is reduced,
An image generation method characterized by the above.

(付記8)
コンピュータに、
複数の視点のそれぞれから複数の被写体を撮影した、複数のサブ画像から構成される撮影画像を取得する機能、
前記取得した撮影画像のサブ画像を構成するサブ画素のそれぞれについて、当該サブ画素に対応する前記被写体の奥行きを示す奥行係数を取得する機能、
前記サブ画素から、前記取得した奥行係数が所定条件を満たすサブ画素を、削除の対象となる削除被写体に対応する削除画素として抽出する機能、
所定の再構成面に定義される再構成画像を構成する再構成画素の画素値を、当該再構成画素に対応するサブ画素の画素値に基づき、当該サブ画素のうち前記抽出した削除画素の画素値の影響が小さくなるように求める事により、前記削除被写体を削除した再構成画像を生成する機能、
を実現させることを特徴とするプログラム。
(Appendix 8)
On the computer,
A function for acquiring a captured image composed of a plurality of sub-images obtained by capturing a plurality of subjects from each of a plurality of viewpoints;
A function of acquiring a depth coefficient indicating the depth of the subject corresponding to the sub-pixel for each of the sub-pixels constituting the sub-image of the acquired captured image;
A function of extracting, from the sub-pixel, a sub-pixel for which the acquired depth coefficient satisfies a predetermined condition as a deletion pixel corresponding to a deletion subject to be deleted;
Based on the pixel value of the sub-pixel corresponding to the reconstruction pixel, the pixel value of the extracted deletion pixel among the sub-pixels based on the pixel value of the reconstruction pixel constituting the reconstruction image defined on the predetermined reconstruction plane A function of generating a reconstructed image in which the deleted subject is deleted by determining that the influence of the value is small;
A program characterized by realizing.

1…デジタルカメラ、10…撮像部、110…光学装置、120…イメージセンサ、20…情報処理部、30…画像生成装置、31…情報処理部、32…主記憶部、33…外部記憶部、36…入出力部、37…内部バス、38…プログラム、210…画像処理部、220…奥行き推定・対応定義部、230…撮像制御部、310…入力部、3110…再構成設定取得部、3120…LFDM取得部、3130…LFI取得部、3140…対応取得部、320…再構成画像生成部、3210…仮再構成画像生成部、3220…選択画素抽出部、3230…削除奥行き定義部、3240…削除画素抽出部、3250…削除部、3260…削除再構成画像生成部、330…削除操作取得部、340…出力部、40…記憶部、410…撮像設定記憶部、420…再構成設定記憶部、430…画像記憶部、50…インターフェース部(I/F部)、510…I/O部、520…表示部、530…操作部、LFI…ライトフィールド画像、LFDM…ライトフィールド奥行きマップ、OA…光軸、OB…被写体、OB1…被写体、OB2…被写体、OB2a…被写体、OB2b…被写体、OB3…被写体、POB…被写体の部分、P…注目部位、ML…メインレンズ、PF…結像点、MIP…メインレンズ結像面、PE…到達点、IE…撮像面、SLA…サブレンズアレイ、SL…サブレンズ、MLB…メインレンズブラー、MLBC…メインレンズブラー中心、S11〜SMN…サブ画像、RDM…再構成奥行きマップ、RDM1…再構成奥行きマップ、RDM2…再構成奥行きマップ、RI1…仮再構成画像、RI2…削除再構成画像、RF…再構成面   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 10 ... Imaging part, 110 ... Optical apparatus, 120 ... Image sensor, 20 ... Information processing part, 30 ... Image generation apparatus, 31 ... Information processing part, 32 ... Main memory part, 33 ... External memory part, 36 ... Input / output unit, 37 ... Internal bus, 38 ... Program, 210 ... Image processing unit, 220 ... Depth estimation / correspondence definition unit, 230 ... Imaging control unit, 310 ... Input unit, 3110 ... Reconfiguration setting acquisition unit, 3120 LFDM acquisition unit, 3130 ... LFI acquisition unit, 3140 ... correspondence acquisition unit, 320 ... reconstructed image generation unit, 3210 ... temporary reconstructed image generation unit, 3220 ... selected pixel extraction unit, 3230 ... deletion depth definition unit, 3240 ... Deletion pixel extraction unit, 3250 ... deletion unit, 3260 ... deletion reconstructed image generation unit, 330 ... deletion operation acquisition unit, 340 ... output unit, 40 ... storage unit, 410 ... imaging setting storage unit 420 ... Reconfiguration setting storage unit, 430 ... Image storage unit, 50 ... Interface unit (I / F unit), 510 ... I / O unit, 520 ... Display unit, 530 ... Operation unit, LFI ... Light field image, LFDM ... Light field depth map, OA ... optical axis, OB ... subject, OB1 ... subject, OB2 ... subject, OB2a ... subject, OB2b ... subject, OB3 ... subject, POB ... subject part, P ... target region, ML ... main lens, PF ... imaging point, MIP ... main lens imaging surface, PE ... arrival point, IE ... imaging surface, SLA ... sub lens array, SL ... sub lens, MLB ... main lens blur, MLBC ... main lens blur center, S11 SMN: Sub-image, RDM: Reconstructed depth map, RDM1: Reconstructed depth map, RDM2: Reconstructed depth map, RI ... temporary reconstructed image, RI2 ... remove reconstructed image, RF ... reconstruction plane

Claims (9)

複数の視点のそれぞれから撮影した、複数のサブ画像から構成される撮影画像を取得する画像取得部と
前記サブ画像を構成するサブ画素から、削除の対象となる削除被写体に対応するサブ画素を削除画素として抽出する抽出部と、
所定の再構成面に定義される再構成画像を構成する再構成画素と、前記サブ画素と、の対応関係を、前記削除画素として抽出したサブ画素との対応の度合いが小さくなるように変更する変更部と、
前記変更された対応関係を用いて、前記サブ画素の画素値から前記再構成画素の画素値を求めることで、前記削除画素の影響が小さい再構成画像を生成する生成部と、
を備えることを特徴とする画像生成装置。
And shoot each one these multiple viewpoints, an image acquisition section which acquires a captured image including a plurality of sub-images,
Sub pixels constituting the sub-image, an extraction unit for extracting a sub-pixel corresponding to the deletion object to be deleted as a deletion pixel,
The correspondence relationship between the reconstructed pixels constituting the reconstructed image defined on the predetermined reconstructed surface and the sub-pixels is changed so that the degree of correspondence between the sub-pixels extracted as the deleted pixels is reduced. Change part,
A generation unit that generates a reconstructed image with a small influence of the deleted pixel by obtaining a pixel value of the reconstructed pixel from a pixel value of the sub-pixel using the changed correspondence relationship ;
An image generation apparatus comprising:
前記生成部は、前記変更部が変更した対応関係を用いて、前記削除被写体を削除した再構成画像を生成する、The generating unit generates a reconstructed image in which the deleted subject is deleted using the correspondence relationship changed by the changing unit.
ことを特徴とする請求項1に記載の画像生成装置。  The image generating apparatus according to claim 1.
前記サブ画素のそれぞれについて、当該サブ画素に対応する被写体の奥行きを示す奥行係数を取得する奥行取得部を更に備え、For each of the sub-pixels, further comprising a depth acquisition unit that acquires a depth coefficient indicating the depth of the subject corresponding to the sub-pixel,
前記抽出部は、前記サブ画素から、前記奥行取得部が取得した奥行係数が所定条件を満たすサブ画素を、前記削除被写体に対応する削除画素として抽出するThe extraction unit extracts, from the sub-pixel, a sub-pixel that satisfies a predetermined condition for the depth coefficient acquired by the depth acquisition unit as a deletion pixel corresponding to the deletion subject.
ことを特徴とする請求項1又は2に記載の画像生成装置。The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus.
前記抽出部は、前記削除被写体の奥行きを取得し、前記奥行取得部が取得した奥行係数が、当該削除被写体の奥行きを含む所定範囲に含まれるサブ画素を、前記奥行係数が所定条件を満たすサブ画素とする、
ことを特徴とする請求項に記載の画像生成装置。
The extraction unit acquires the depth of the deleted subject, the depth coefficient acquired by the depth acquisition unit is a sub-pixel included in a predetermined range including the depth of the deleted subject, and the depth coefficient is a sub Pixel
The image generating apparatus according to claim 3 .
前記奥行取得部が取得したサブ画素の奥行係数から前記再構成画素の奥行きを求める獲得部を更に備え、
前記抽出部は、前記削除被写体が位置する前記再構成画像上の部位の少なくとも一部を取得し、当該取得した部位の再構成画素について前記獲得部が求めた奥行きに基づいて、前記削除被写体の奥行きを取得する、
ことを特徴とする請求項に記載の画像生成装置。
An acquisition unit for obtaining the depth of the reconstructed pixel from the depth coefficient of the sub-pixel acquired by the depth acquisition unit;
The extraction unit acquires at least a part of a portion on the reconstructed image where the deleted subject is located, and based on the depth obtained by the acquisition unit for the reconstructed pixel of the acquired portion, To get the depth,
The image generation apparatus according to claim 4 .
前記変更部が変更する前の対応関係に基づいて、仮再構成画像を生成する第2生成部と、
前記第2生成部が生成した仮再構成画像を出力する出力部と、
前記出力部が出力した仮再構成画像上の部位を指定するための指定部と、
を更に備え、
前記抽出部は、前記指定部によって指定された部位に対応するサブ画素を、前記削除画素として抽出する、
ことを特徴とする請求項1乃至5の何れか一項に記載の画像生成装置。
A second generation unit that generates a temporary reconstructed image based on the correspondence before the change unit changes;
An output unit that outputs the temporarily reconstructed image generated by the second generation unit ;
A designating unit for designating a part on the temporary reconstructed image output by the output unit;
Further comprising
The extraction unit, a sub-pixel corresponding to the part position designated by the designation section is extracted as the deletion pixel,
The image generation apparatus according to claim 1 , wherein the image generation apparatus is an image generation apparatus.
前記撮影画像を撮影した際の撮影パラメータに基づいて求められた、前記再構成画素と前記サブ画素との対応関係を示す情報を取得する対応取得部をさらに備え、
前記変更部は、前記対応取得部が取得した情報が示す対応関係を変更する、
ことを特徴とする請求項1乃至6の何れか一項に記載の画像生成装置。
A correspondence acquisition unit that acquires information indicating a correspondence relationship between the reconstructed pixel and the sub-pixel, which is obtained based on a photographing parameter when the photographed image is photographed;
The change unit changes the correspondence relationship indicated by the information acquired by the correspondence acquisition unit.
The image generation apparatus according to claim 1 , wherein the image generation apparatus is an image generation apparatus.
複数の視点のそれぞれから撮影した、複数のサブ画像から構成される撮影画像を取得するステップと、
前記サブ画像を構成するサブ画素から、削除の対象となる削除被写体に対応するサブ画素を削除画素として抽出するステップと、
所定の再構成面に定義される再構成画像を構成する再構成画素と、前記サブ画素と、の対応関係を、前記削除画素として抽出したサブ画素との対応の度合いが小さくなるように変更するステップと、
前記変更された対応関係を用いて、前記サブ画素の画素値から前記再構成画素の画素値を求めることで、前記削除画素の影響が小さい再構成画像を生成するステップと
を含むことを特徴とする画像生成方法。
And shoot each one these multiple viewpoints, acquiring a captured image including a plurality of sub-images,
Extracting the sub-pixels either et constituting a sub-image, the sub-pixels corresponding to the deletion object to be deleted as a deletion pixel,
The correspondence relationship between the reconstructed pixels constituting the reconstructed image defined on the predetermined reconstructed surface and the sub-pixels is changed so that the degree of correspondence between the sub-pixels extracted as the deleted pixels is reduced. Steps,
Using the changed correspondence relation, the from pixel values of the sub-pixels to obtain the pixel values of the reconstructed pixel and generating a reconstructed image is less affected the deletion pixel,
Image generation method, which comprises a.
コンピュータに、
複数の視点のそれぞれから撮影した、複数のサブ画像から構成される撮影画像を取得する機能、
前記サブ画像を構成するサブ画素から、削除の対象となる削除被写体に対応するサブ画素を削除画素として抽出する機能、
所定の再構成面に定義される再構成画像を構成する再構成画素と、前記サブ画素と、の対応関係を、前記削除画素として抽出したサブ画素との対応の度合いが小さくなるように変更する機能、
前記変更された対応関係を用いて、前記サブ画素の画素値から前記再構成画素の画素値を求めることで、前記削除画素の影響が小さい再構成画像を生成する機能、
を実現させることを特徴とするプログラム。
On the computer,
And shoot each one these multiple viewpoints, the ability to obtain the captured image including a plurality of sub-images,
The sub-pixel or we constituting a sub-image, a function of extracting a sub-pixel corresponding to the deletion object to be deleted as a deletion pixel,
The correspondence relationship between the reconstructed pixels constituting the reconstructed image defined on the predetermined reconstructed surface and the sub-pixels is changed so that the degree of correspondence between the sub-pixels extracted as the deleted pixels is reduced. function,
A function of generating a reconstructed image with a small influence of the deleted pixel by obtaining a pixel value of the reconstructed pixel from a pixel value of the sub-pixel using the changed correspondence relationship ;
A program characterized by realizing.
JP2012062568A 2012-02-24 2012-03-19 Image generating apparatus, image generating method, and program Expired - Fee Related JP5310895B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012062568A JP5310895B2 (en) 2012-03-19 2012-03-19 Image generating apparatus, image generating method, and program
CN201310056458.4A CN103297677B (en) 2012-02-24 2013-02-22 Generate video generation device and the image generating method of reconstruct image
US13/774,952 US9386297B2 (en) 2012-02-24 2013-02-22 Image generating apparatus generating reconstructed image, method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062568A JP5310895B2 (en) 2012-03-19 2012-03-19 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2013197863A JP2013197863A (en) 2013-09-30
JP5310895B2 true JP5310895B2 (en) 2013-10-09

Family

ID=49396296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062568A Expired - Fee Related JP5310895B2 (en) 2012-02-24 2012-03-19 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP5310895B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7170052B2 (en) * 2018-09-21 2022-11-11 富士フイルム株式会社 3D image generation device, 3D image generation method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4764305B2 (en) * 2006-10-02 2011-08-31 株式会社東芝 Stereoscopic image generating apparatus, method and program
US7792423B2 (en) * 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
JP5206853B2 (en) * 2011-09-08 2013-06-12 カシオ計算機株式会社 Interpolated image generating device, reconstructed image generating device, interpolated image generating method, and program

Also Published As

Publication number Publication date
JP2013197863A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
US9386297B2 (en) Image generating apparatus generating reconstructed image, method, and computer-readable recording medium
JP5370542B1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5762211B2 (en) Image processing apparatus, image processing method, and program
JP2014197824A (en) Image processing apparatus, image capturing apparatus, image processing method, and program
CN107113415A (en) The method and apparatus for obtaining and merging for many technology depth maps
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2010165248A (en) Image processor, image collation method, and program
JP6655379B2 (en) Method and apparatus for generating an adaptive slice image from a focus stack
JP2017220780A (en) Imaging apparatus and vehicle
JP5310837B2 (en) Image generating apparatus, digital camera, method, and program
JP5370606B2 (en) Imaging apparatus, image display method, and program
JP5900017B2 (en) Depth estimation apparatus, reconstructed image generation apparatus, depth estimation method, reconstructed image generation method, and program
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
JP5310890B2 (en) Image generating apparatus, image generating method, and program
CN104054332A (en) Image processing apparatus and image processing method
CN107004274A (en) The method and apparatus that estimation does not focus on the depth of all-optical data
JP5310895B2 (en) Image generating apparatus, image generating method, and program
KR101857977B1 (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
JP2023019521A (en) Learning method, program, and image processing device
JP2013175821A (en) Image processing device, image processing method, and program
CN108353120A (en) Device and method for generating the data for indicating pixel beam
JP2012073930A (en) Image processing apparatus, image processing method, and program
JP5942428B2 (en) Reconstructed image generating apparatus, reconstructed image generating method, and program
JP2014011639A (en) Imaging device
US11830127B1 (en) Systems and methods for generating consistently sharp, detailed, and in-focus three-dimensional models from pixels of two-dimensional images

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Ref document number: 5310895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees