JP2015139019A - Device and program for image composition - Google Patents

Device and program for image composition Download PDF

Info

Publication number
JP2015139019A
JP2015139019A JP2014008203A JP2014008203A JP2015139019A JP 2015139019 A JP2015139019 A JP 2015139019A JP 2014008203 A JP2014008203 A JP 2014008203A JP 2014008203 A JP2014008203 A JP 2014008203A JP 2015139019 A JP2015139019 A JP 2015139019A
Authority
JP
Japan
Prior art keywords
image data
image
unit
focus position
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014008203A
Other languages
Japanese (ja)
Inventor
静二 ▲高▼野
静二 ▲高▼野
Seiji Takano
彰信 菅
Akinobu Suga
彰信 菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014008203A priority Critical patent/JP2015139019A/en
Publication of JP2015139019A publication Critical patent/JP2015139019A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device and a program for image composition, generating a composed image having no incongruity, at a position outside the range of the depth of field of a refocus image, when setting a focal position and a point of sight after imaging a subject.SOLUTION: The image composition device includes: a composed image generator unit 114a for inserting second image data into a predetermined position in the depth direction of first image data whose focal position can be changed in the depth direction; and a change unit 114b for changing the focal position of the composite image data, according to the insertion position of the second image data in the depth direction of the first image data.

Description

本発明は、画像合成装置及び画像合成プログラムに関する。   The present invention relates to an image composition device and an image composition program.

被写体の撮影後に合焦位置や視点などを設定することが可能な撮像装置が知られている。この種の撮像装置としてライトフィールドカメラがある。このライトフィールドカメラは、撮像部がカメラに入射する多数の光線をライトフィールド(光線空間)として取得する。そして、ライトフィールドカメラは、取得したライトフィールドの情報に対して画像処理を施すことで合焦位置などを奥行き方向に変更したリフォーカス画像を生成する。特許文献1には、ライトフィールドカメラで撮影されたリフォーカス画像における奥行き方向の任意の位置に二次元画像を挿入して合成画像を生成する画像合成装置が記載されている。   2. Description of the Related Art An imaging device that can set a focus position, a viewpoint, and the like after shooting a subject is known. There is a light field camera as this type of imaging apparatus. In this light field camera, the imaging unit acquires a large number of light rays incident on the camera as a light field (light space). Then, the light field camera generates a refocus image in which the in-focus position and the like are changed in the depth direction by performing image processing on the acquired light field information. Patent Document 1 describes an image composition device that generates a composite image by inserting a two-dimensional image at an arbitrary position in the depth direction in a refocus image captured by a light field camera.

特開2010−68018号公報JP 2010-68018 A

しかし、上記した画像合成装置においては、リフォーカス画像の被写界深度の範囲外の位置に、合焦した二次元画像が挿入されるなどのように、違和感のある合成画像が生成されてしまうおそれがある。   However, in the above-described image composition device, an uncomfortable composite image is generated such that a focused two-dimensional image is inserted at a position outside the range of the depth of field of the refocus image. There is a fear.

本発明の態様では、違和感のない合成画像を生成することを目的とする。   An object of an aspect of the present invention is to generate a composite image without a sense of incongruity.

本発明の第1態様によれば、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する合成画像生成部と、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの合焦位置を変更する変更部と、を備える画像合成装置が提供される。   According to the first aspect of the present invention, the composite image generation unit that generates the composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data in which the focus position can be changed in the depth direction. An image synthesizing apparatus is provided that includes a changing unit that changes the in-focus position of the synthesized image data according to the insertion position of the second image data in the depth direction in the first image data.

本発明の第2態様によれば、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に、合焦位置を奥行き方向に変更可能な第2画像データを挿入して合成画像データを生成する合成画像生成部と、撮像装置から第1画像データの被写体までの距離と撮像装置から第2画像データの被写体までの距離との関係が合うように、合成画像データの合焦位置を変更する変更部と、を備える画像合成装置が提供される。   According to the second aspect of the present invention, the second image data in which the in-focus position can be changed in the depth direction is inserted into the predetermined position in the depth direction in the first image data in which the in-focus position can be changed in the depth direction. A composite image generation unit that generates composite image data, and a combination of composite image data so that a relationship between a distance from the imaging device to the subject of the first image data matches a distance from the imaging device to the subject of the second image data. An image synthesizing device is provided that includes a changing unit that changes a focal position.

本発明の第3態様によれば、コンピュータに、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する合成画像生成処理と、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの合焦位置を変更する変更処理と、を実行させる画像合成プログラムが提供される。   According to the third aspect of the present invention, the composite image that generates the composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data in which the in-focus position can be changed in the depth direction. There is provided an image composition program that executes a generation process and a change process for changing a focus position of the composite image data in accordance with the insertion position of the second image data in the depth direction in the first image data.

本発明の第4態様によれば、コンピュータに、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に、合焦位置を奥行き方向に変更可能な第2画像データを挿入して合成画像データを生成する合成画像生成処理と、撮像装置から第1画像データの被写体までの距離と撮像装置から第2画像データの被写体までの距離との関係が合うように、合成画像データの合焦位置を変更する変更処理と、を実行させる画像合成プログラムが提供される。   According to the fourth aspect of the present invention, the second image data in which the in-focus position can be changed in the depth direction and the second image data in which the in-focus position can be changed in the depth direction are stored in the computer. The composite image generation processing for generating the composite image data by inserting the composite image so that the relationship between the distance from the imaging device to the subject of the first image data and the distance from the imaging device to the subject of the second image data is matched. An image synthesizing program for executing a change process for changing a focus position of data is provided.

本発明の態様によれば、違和感のない合成画像を生成することができる。   According to the aspect of the present invention, it is possible to generate a composite image without a sense of incongruity.

画像合成装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image composition apparatus. 撮像装置の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。It is sectional drawing which shows schematic structure of the optical system part in the light field camera which is an example of an imaging device. 撮像素子の画素配列と入射領域とを説明する図である。It is a figure explaining the pixel arrangement | sequence and incident area of an image pick-up element. ライトフィールドカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a light field camera. 画像の再構成を説明する図である。It is a figure explaining the reconstruction of an image. 図4に示す画像処理部が実行する画像処理を説明するためのフローチャートである。6 is a flowchart for explaining image processing executed by the image processing unit shown in FIG. 4. 第1画像、第2画像、及び合成画像の例を示す図である。It is a figure which shows the example of a 1st image, a 2nd image, and a synthesized image. 第1実施形態の演算処理部が実行する画像合成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition process which the arithmetic processing part of 1st Embodiment performs. 第1実施形態のグラフィカルユーザインタフェース上の俯瞰図の表示例を示す図である。It is a figure which shows the example of a display of the bird's-eye view on the graphical user interface of 1st Embodiment. 第1実施形態のグラフィカルユーザインタフェース上の俯瞰図の表示例を示す図である。It is a figure which shows the example of a display of the bird's-eye view on the graphical user interface of 1st Embodiment. 第2実施形態の演算処理部が実行する画像合成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image composition process which the arithmetic processing part of 2nd Embodiment performs. 第2実施形態のグラフィカルユーザインタフェース上の俯瞰図の表示例を示す図である。It is a figure which shows the example of a display of the bird's-eye view on the graphical user interface of 2nd Embodiment. 第2実施形態のグラフィカルユーザインタフェース上の俯瞰図の表示例を示す図である。It is a figure which shows the example of a display of the bird's-eye view on the graphical user interface of 2nd Embodiment. 画像合成システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image composition system. 撮像装置と電子機器とが分離した構成を示すブロック図である。It is a block diagram which shows the structure which the imaging device and the electronic device isolate | separated.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, the scale may be appropriately changed and expressed, for example, by partially enlarging or emphasizing.

<第1実施形態>
図1は、画像合成装置101の構成を示すブロック図である。図1に示すように、画像合成装置101は、撮像装置の一例であるライトフィールドカメラ1、表示装置(表示部)102、キーボード103、及びマウス104と接続されている。画像合成装置101は、ライトフィールドカメラ1で撮影された第1画像データにおける奥行き方向の任意の位置に第2画像データを挿入して合成画像データを生成する。また、画像合成装置101は、ライトフィールドカメラ1から第1画像データ中の被写体までの距離とライトフィールドカメラ1から第2画像データ中の被写体までの距離との関係が合うように、合成画像データの合焦位置及び被写界深度の範囲を変更する。
<First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of the image composition apparatus 101. As illustrated in FIG. 1, the image composition device 101 is connected to a light field camera 1, a display device (display unit) 102, a keyboard 103, and a mouse 104 which are examples of an imaging device. The image composition device 101 inserts the second image data at an arbitrary position in the depth direction in the first image data photographed by the light field camera 1 to generate composite image data. Further, the image composition device 101 combines the composite image data so that the distance from the light field camera 1 to the subject in the first image data matches the distance from the light field camera 1 to the subject in the second image data. The focus position and the depth of field range are changed.

本実施形態において、第1画像データは、合焦位置を奥行き方向に変更可能なリフォーカス画像の画像データであり、第2画像データは、合焦位置を奥行き方向に変更不可能な二次元画像の画像データである。なお、ライトフィールドカメラ1から被写体に向かう方向を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。また、被写界深度とは、焦点が合っているように見える被写体の焦点距離の範囲のことをいう。   In the present embodiment, the first image data is image data of a refocus image whose focus position can be changed in the depth direction, and the second image data is a two-dimensional image whose focus position cannot be changed in the depth direction. Image data. Note that the direction from the light field camera 1 toward the subject is referred to as the back side direction, and the opposite side direction is referred to as the near side direction. The direction on the back side and the direction on the near side are referred to as the depth direction. The depth of field refers to the range of the focal length of a subject that appears to be in focus.

画像合成装置101は、例えば、パーソナルコンピュータで実現される。この画像合成装置101は、図1に示すように、演算処理部110及び記憶部120を有している。演算処理部110は、複数の画像データの合成に関する制御を司る。記憶部120は、ライトフィールドカメラ1で撮影された第1画像データや、第2画像データ、演算処理部110による画像合成処理に必要な各種情報(例えば画像データ中の被写体のサイズや位置を示す位置データ、撮影時のライトフィールドカメラ1から被写体までの距離を示す距離データ)などを記憶する。   The image composition device 101 is realized by a personal computer, for example. As shown in FIG. 1, the image composition apparatus 101 includes an arithmetic processing unit 110 and a storage unit 120. The arithmetic processing unit 110 controls the synthesis of a plurality of image data. The storage unit 120 includes first image data captured by the light field camera 1, second image data, and various information necessary for image composition processing by the arithmetic processing unit 110 (for example, the size and position of a subject in the image data). Position data, distance data indicating the distance from the light field camera 1 to the subject at the time of shooting), and the like are stored.

演算処理部110は、図1に示すように、表示制御部111、画像入力部112、操作制御部113、及び画像合成部114を有している。表示制御部111は、例えば液晶表示ディスプレイのような表示装置102の表示画面500に、使用者が画像データの合成を行う際に使用者によって操作されるグラフィカルユーザインタフェース(以下、GUIという。)などの各種画像(図10、図11参照)を表示する制御を行う。   As shown in FIG. 1, the arithmetic processing unit 110 includes a display control unit 111, an image input unit 112, an operation control unit 113, and an image composition unit 114. The display control unit 111 is a graphical user interface (hereinafter referred to as GUI) that is operated by the user when the user synthesizes image data on the display screen 500 of the display device 102 such as a liquid crystal display. The various images (see FIGS. 10 and 11) are displayed.

画像入力部112は、ライトフィールドカメラ1と接続されることにより、このライトフィールドカメラ1に記憶されている第1画像データや、この第1画像データ中の被写体の位置データ及び距離データを入力する。この画像入力部112は、ライトフィールドカメラ1から入力した第1画像データ、位置データ、及び距離データを記憶部120における画像データ記憶領域に記憶する。また、画像入力部112は、不図示の通常のデジタルカメラ(撮像装置)と接続されることにより、このデジタルカメラに記憶されている第2画像データを入力する。この画像入力部112は、デジタルカメラから入力した第2画像データを記憶部120における画像データ記憶領域に記憶する。なお、画像入力部112は、インターネットなど通信ネットワーク(図示せず)を通じて画像データなど(第1画像データ、第2画像データ、位置データ、距離データ)を取得し、取得した画像データなどを記憶部120における画像データ記憶領域に記憶することも可能である。   The image input unit 112 is connected to the light field camera 1 to input the first image data stored in the light field camera 1 and the position data and distance data of the subject in the first image data. . The image input unit 112 stores the first image data, position data, and distance data input from the light field camera 1 in an image data storage area in the storage unit 120. Further, the image input unit 112 is connected to a normal digital camera (imaging device) (not shown) to input the second image data stored in the digital camera. The image input unit 112 stores the second image data input from the digital camera in an image data storage area in the storage unit 120. The image input unit 112 acquires image data and the like (first image data, second image data, position data, and distance data) through a communication network (not shown) such as the Internet, and stores the acquired image data and the like. It is also possible to store in the image data storage area 120.

操作制御部113は、使用者が操作可能な操作部を構成するキーボード103及びマウス104と接続される。この操作制御部113は、使用者によるキーボード103やマウス104の操作に応じて情報を入力し、その情報を表示制御部111や画像合成部114に出力する。   The operation control unit 113 is connected to a keyboard 103 and a mouse 104 that constitute an operation unit that can be operated by a user. The operation control unit 113 inputs information according to the operation of the keyboard 103 and the mouse 104 by the user, and outputs the information to the display control unit 111 and the image composition unit 114.

画像合成部114は、図1に示すように、画像生成部(合成画像生成部)114a、変更部114b、及び記憶制御部114cを備えている。画像生成部114aは、第1画像データにおける奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する処理を行う。また、画像生成部114aは、必要に応じて、合成画像データ中の第1画像データ及び第2画像データの一方又は双方を加工する処理を行う。   As shown in FIG. 1, the image composition unit 114 includes an image generation unit (composite image generation unit) 114a, a change unit 114b, and a storage control unit 114c. The image generation unit 114a performs a process of generating the composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data. In addition, the image generation unit 114a performs processing for processing one or both of the first image data and the second image data in the composite image data as necessary.

変更部114bは、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの合焦位置を変更する処理を行う。また、変更部114bは、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの被写界深度の範囲を変更する処理を行う。記憶制御部114cは、合成画像データを記憶部120に記憶する処理を行う。   The changing unit 114b performs a process of changing the in-focus position of the composite image data according to the insertion position of the second image data in the depth direction in the first image data. The changing unit 114b performs a process of changing the range of the depth of field of the composite image data according to the insertion position of the second image data in the depth direction in the first image data. The storage control unit 114 c performs processing for storing the composite image data in the storage unit 120.

なお、演算処理部110における表示制御部111、画像入力部112、操作制御部113、及び画像合成部114(画像生成部114a、変更部114b、記憶制御部114c)のそれぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部120に記憶されている制御プログラム(画像合成プログラム)に従って実行する処理又は制御に相当する。   The display control unit 111, the image input unit 112, the operation control unit 113, and the image composition unit 114 (the image generation unit 114a, the change unit 114b, and the storage control unit 114c) in the arithmetic processing unit 110 are configured with a CPU ( This corresponds to processing or control executed by a control device such as a Central Processing Unit) according to a control program (image synthesis program) stored in the storage unit 120.

記憶部120には、画像データ(第1画像データ、第2画像データ、合成画像データ)、位置データ、及び距離データを記憶するための画像データ記憶領域が形成されている。また、記憶部120には、表示制御部111によるGUIなどの表示に必要な各種情報が記憶されている。また、記憶部120には、上記したように、演算処理部110における表示制御部111、画像入力部112、操作制御部113、及び画像合成部114の処理を実行させるための制御プログラム(画像合成プログラム)なども記憶されている。   The storage unit 120 has an image data storage area for storing image data (first image data, second image data, composite image data), position data, and distance data. In addition, the storage unit 120 stores various types of information necessary for display such as a GUI by the display control unit 111. Further, as described above, the storage unit 120 has a control program (image composition) for executing the processing of the display control unit 111, the image input unit 112, the operation control unit 113, and the image composition unit 114 in the arithmetic processing unit 110. Program).

次に、図1に示したライトフィールドカメラ1の構成について説明する。図2は、撮像装置の一例であるライトフィールドカメラ1における光学系部分の概略構成を示す断面図である。なお、図2において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図2は、ライトフィールドカメラ1における光学系部分を光軸を含む面で切断したときの断面図である。   Next, the configuration of the light field camera 1 shown in FIG. 1 will be described. FIG. 2 is a cross-sectional view illustrating a schematic configuration of an optical system portion in a light field camera 1 which is an example of an imaging apparatus. In FIG. 2, the right direction (optical axis direction) of the paper surface is the X axis, the upward direction of the paper surface orthogonal to the X axis is the Z axis, and the direction from the back of the paper surface orthogonal to the X axis and the Z axis is the direction from the back. Is the Y axis. FIG. 2 is a cross-sectional view of the optical system portion of the light field camera 1 taken along a plane including the optical axis.

本実施形態のライトフィールドカメラ1は、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラ1の代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラ1はリフォーカスカメラとも呼ばれる。   The light field camera 1 of the present embodiment acquires information on a light field (light space) that is a light ray set in a three-dimensional space, and generates an image based on the acquired information on the light field. In the following description, the light field information is referred to as light ray information. A typical function of the light field camera 1 is a refocus function for generating an image whose focal length is changed by post-processing after shooting. Therefore, the light field camera 1 is also called a refocus camera.

本実施形態のライトフィールドカメラ1は、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図2には、ライトフィールドカメラ1における光学系部分以外の構成である撮像素子20についても示している。   The light field camera 1 of the present embodiment includes a photographing optical system (imaging optical system) 11 and a microlens array 12 as its optical system part. FIG. 2 also shows the image sensor 20 that is a configuration other than the optical system portion in the light field camera 1.

撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図2に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。   The photographing optical system 11 is a single focus lens composed of a plurality of lens groups. The photographing optical system 11 forms an image of a light beam from the subject in the vicinity of its focal plane (imaging plane). Further, the photographing optical system 11 includes an aperture stop (not shown) that controls an aperture value (F value) during photographing. Since the aperture value can be changed by reconstructing the image after shooting, the aperture diameter of the aperture stop may be fixed. As shown in FIG. 2, a microlens array 12 and an image sensor 20 are sequentially arranged near the focal plane of the photographing optical system 11.

マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図2に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。   The microlens array 12 has a configuration in which a plurality of microlenses (positive lenses) having positive power are two-dimensionally arranged. In the microlens array 12 shown in FIG. 2, only three microlenses are arranged in the Z-axis direction, but actually, a large number of microlenses are arranged in the Z-axis direction and the Y-axis direction.

撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary
Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
The image pickup device 20 is disposed on the rear side of the microlens array 12 (opposite side of the photographing optical system 11) with a slight gap. The image sensor 20 receives light beams that have passed through the microlenses of the microlens array 12 by a plurality of photoelectric conversion elements, and photoelectrically converts the light beams received by the photoelectric conversion elements to generate a plurality of pixel signals. The plurality of photoelectric conversion elements are arranged in a matrix, and each photoelectric conversion element forms a pixel. In the present embodiment, the image sensor 20 is a CCD (Charge Coupled Device) or CMOS (Complementary).
It consists of a two-dimensional solid-state image sensor such as a metal-oxide semiconductor).

図2の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。   In the example shown in the partially enlarged view of FIG. 2, a plurality of pixels are arranged on the rear side of each of the plurality of microlenses 12a, 12b, and 12c. Specifically, three pixels 21a, 21b, 21c are arranged on the rear side of the micro lens 12a, three pixels 22a, 22b, 22c are arranged on the rear side of the micro lens 12b, and on the rear side of the micro lens 12c. Three pixels 23a, 23b, and 23c are arranged.

3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図2の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図3参照)。   Three pixels 21a, 21b, and 21c are pixels 21 corresponding to the microlens 12a, three pixels 22a, 22b, and 22c are pixels 22 corresponding to the microlens 12b, and three pixels 23a, 23b, and 23c are microscopic. This is a pixel 23 corresponding to the lens 12c. In the partially enlarged view of FIG. 2, three pixels are shown as the pixels corresponding to the microlenses 12a, 12b, and 12c, but in reality, a large number of pixels are arranged in the Z-axis direction and the Y-axis direction ( (See FIG. 3 described later).

次に、図2を参照してライトフィールドカメラ1によるライトフィールドの取得について簡単に説明する。図2において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。   Next, acquisition of a light field by the light field camera 1 will be briefly described with reference to FIG. In FIG. 2, it is assumed that the subject at the position A focuses on the position of the microlens array 12 by the photographing optical system 11. The light beam from the point A1 on the subject passes through the partial region 11a on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21c of the image sensor 20. Further, another light ray from the point A1 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21b of the imaging device 20. Further, another light ray from the point A1 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21a of the imaging device 20.

同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。   Similarly, the light beam from the point A2 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22c of the image sensor 20. Further, another ray from the point A2 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22b of the image sensor 20. Further, another light ray from the point A2 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22a of the imaging device 20.

さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。   Further, the light beam from the point A3 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23c of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23b of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23a of the image sensor 20. As described above, the light beam from the subject at the position A is received by the pixels of the image sensor 20 located on the rear side of the microlenses 12a, 12b, and 12c, whereby the brightness and the traveling direction are acquired as light beam information. The

マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。   Of the three pixels corresponding to the microlenses 12a, 12b, and 12c, the image generated by the pixel signals of the lower pixels 21c, 22c, and 23c is an image of light rays that have passed through the partial region 11a. In addition, the image generated by the pixel signals of the middle pixels 21b, 22b, and 23b is an image of light rays that have passed through the partial region 11b. Further, the image generated by the pixel signals of the upper pixels 21a, 22a, and 23a is an image of light rays that have passed through the partial region 11c. For example, when the number of pixels corresponding to each microlens is N, N reconstructed images configured by arranging pixel values of pixels located at the same position with respect to the microlens are configured to have the photographic optical system 11 N stereo image groups acquired by dividing into partial regions are formed.

図3は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図3では図2のX軸方向から撮像素子20を観察した様子を示す。図3に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図3に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。   FIG. 3 is a diagram for explaining the pixel array and the incident region of the image sensor 20. 3 shows a state where the image sensor 20 is observed from the X-axis direction of FIG. In the image sensor 20 shown in FIG. 3, a region where pixels are arranged is referred to as a pixel region 200. In the pixel region 200, for example, 10 million or more pixels are arranged in a matrix. The circular area in the pixel area 200 is an area where light rays that have passed through one microlens are incident. Accordingly, a plurality of circular regions are formed for each of the plurality of microlenses. These regions are referred to as incident regions 201, 202. For example, 586 × 440 microlenses are arranged. However, such an arrangement number is an example, and a larger or smaller number may be used. In the example shown in FIG. 3, the diameter of one microlens is 13 pixels. However, the number of pixels is not limited to this.

上述したように、ライトフィールドカメラ1は、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図3に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。   As described above, the light field camera 1 extracts and reconstructs pixel values of pixels at the same position in the incident area (the same position in the Y-axis direction and the Z-axis direction in the incident area) from all the microlenses. . The reconstructed image group obtained in this way corresponds to an image group in which a subject is observed from different partial areas of the photographing optical system 11. Therefore, these reconstructed image groups have parallax according to the position of the partial region and the distance to the subject. For example, as shown in FIG. 3, a reconstructed image composed of pixel values of pixels of each microlens located at the same position as the pixel 201a in the incident area 201 and each micro located at the same position as the pixel 201b in the incident area 201 It has parallax with the reconstructed image composed of pixel values of the lens pixels.

図4は、ライトフィールドカメラ1の構成を示すブロック図である。図4に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図2において説明したため、図4においては説明を省略する。   FIG. 4 is a block diagram showing a configuration of the light field camera 1. The light field camera 1 illustrated in FIG. 4 includes an imaging unit 10, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, and a system control unit 70. The imaging unit 10 includes a photographing optical system 11, a microlens array 12, a drive control unit 13, an imaging element 20, and a drive unit 21. Since the photographing optical system 11 and the microlens array 12 have been described with reference to FIG. 2, description thereof is omitted in FIG.

撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。   For example, a Bayer array color filter array is disposed on the imaging surface of the imaging element 20. The image sensor 20 makes the light beam that has passed through the photographing optical system 11 and the microlens array 12 enter. The image sensor 20 photoelectrically converts an incident light beam to generate a pixel signal of each pixel of an analog signal. In the imaging unit 10, an amplifier (not shown) amplifies the pixel signal of each pixel of the analog signal with a predetermined gain factor (amplification factor). Further, an A / D converter (not shown) converts the pixel signal of each pixel of the analog signal amplified by the amplifier into the pixel signal of each pixel of the digital signal. Then, the imaging unit 10 outputs RAW data including pixel signals of each pixel of the digital signal to the image processing unit 30. The light ray information acquired by the light field camera 1 is specified by RAW data output from the imaging unit 10.

駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。   The drive control unit 13 performs aperture stop drive control based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the aperture stop included in the photographing optical system 11. The drive unit 21 is a control circuit that controls driving of the image sensor 20 under imaging conditions set based on an instruction signal from the system control unit 70. Examples of imaging conditions include exposure time (shutter speed), frame rate, gain, and the like.

ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。   Here, the exposure time refers to the time from when the photoelectric conversion element of the image sensor 20 starts to accumulate after the start of charge accumulation according to incident light. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The gain refers to a gain factor (amplification factor) of an amplifier that amplifies the pixel signal. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 20. In this case, the ISO sensitivity is a value representing the ability of the image sensor 20 to capture light.

画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、ライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。   The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel, and generates image data in a predetermined file format (for example, JPEG format). The image data generated by the image processing unit 30 includes image data of still images, moving images, and live view images. The live view image is an image displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 10. The live view image is also called a through image or a preview image.

画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像処理部30は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。   The image processing unit 30 uses the work memory 40 as a work space to generate image data set at an arbitrary focal length by performing predetermined image processing on RAW data composed of pixel signals of each pixel. Specifically, the image processing unit 30 generates image data set at an arbitrary focal length by performing the following image processing.

図5は、画像の再構成を説明する図である。図5に示すように、画像処理部30は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像処理部30は、抽出した画素値を並べ直して再構成画像データ400aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。   FIG. 5 is a diagram illustrating image reconstruction. As shown in FIG. 5, the image processing unit 30 has pixel values (values indicated by pixel signals) of the pixels 201a, 202a... At the same position with respect to the respective incident areas 201, 202. To extract. The image processing unit 30 rearranges the extracted pixel values to generate reconstructed image data 400a. When the number of pixels corresponding to each of the incident areas 201, 202... Is N, N reconstructed image data are generated.

画像処理部30は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像処理部30は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像処理部30は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像処理部30は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像処理部30は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。   The image processing unit 30 translates the N reconstructed image data groups by a predetermined amount in accordance with a predetermined focal length. Then, the image processing unit 30 adds and averages the N reconstructed image data groups after the parallel movement. Thereby, image data set to a predetermined focal length is generated. Since the image of the subject existing at a depth corresponding to the amount of movement is aligned, a sharp contour image is formed. An image of a subject that does not exist at a depth corresponding to the amount of movement is blurred. The image processing described above is an example, and the image processing unit 30 may generate image data set at an arbitrary focal length by executing image processing different from the image processing described above. For example, the image processing unit 30 calculates a light beam acquired by each pixel of the image sensor 20 by performing a predetermined calculation. Then, the image processing unit 30 generates image data set to a predetermined focal length by projecting the calculated light beam onto a virtual image plane set to a predetermined focal length.

本実施形態においては、画像処理部30は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。   In the present embodiment, the image processing unit 30 has a focal position (focal point) such as image data focused on the foremost subject, image data focused on the farthest subject, and image data focused on a subject at an intermediate position. A plurality of image data having different distances are generated.

画像処理部30は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像処理部30は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。   The image processing unit 30 performs various types of image processing on image data set at an arbitrary focus using the work memory 40 as a work space. For example, the image processing unit 30 generates RGB image data by performing color signal processing (tone correction) on a signal obtained by the Bayer array. The image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image data. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary.

画像処理部30は、画像データから一又は複数の被写体を検出する。本実施形態では、画像処理部30は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。なお、画像処理部30は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、画像処理部30は、移動する被写体(移動被写体)に対しては、時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、画像処理部30は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。   The image processing unit 30 detects one or more subjects from the image data. In the present embodiment, the image processing unit 30 detects the subject by specifying the boundary of the subject region based on the contrast and color change between the bright and dark portions in the image data. Note that the image processing unit 30 may detect a subject of a human subject using a known face detection function. Further, the image processing unit 30 may detect a moving subject by comparing a plurality of pieces of image data obtained in time series for a moving subject (moving subject). In addition to the face detection, the image processing unit 30 may detect a human body included in the image data as a subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940). .

また、画像処理部30は、検出した各被写体までの距離(焦点距離)を検出(算出)する。例えば、画像処理部30は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体の視差を検出し、検出した視差に基づいて各被写体までの距離を算出する。   Further, the image processing unit 30 detects (calculates) a distance (focal length) to each detected subject. For example, the image processing unit 30 detects the parallax of each subject in a plurality of reconstructed image data (for example, reconstructed image data composed of pixel values of pixels at two specific positions in the incident region), and uses the detected parallax. Based on this, the distance to each subject is calculated.

画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。また、画像処理部30は、検出した被写体のサイズ及び画像データ中の位置を画素単位で示す位置データを記録部60に出力する。また、画像処理部30は、検出した各被写体までの距離を示す距離データを記録部60に出力する。   The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50. In addition, the image processing unit 30 outputs position data indicating the detected size of the subject and the position in the image data in units of pixels to the recording unit 60. In addition, the image processing unit 30 outputs distance data indicating the detected distance to each subject to the recording unit 60.

ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。   The work memory 40 temporarily stores RAW data, image data, and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays an image captured by the imaging unit 10 and various information. The display unit 50 includes a display screen 51 configured by, for example, a liquid crystal display panel. The image displayed on the display unit 50 includes a still image, a moving image, and a live view image.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。   The operation unit 55 includes a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting a moving image), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。システム制御部70は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。   The system control unit 70 controls the overall processing and operation of the light field camera 1. The system control unit 70 has a CPU (Central Processing Unit). The system control unit 70 performs control to output the image data generated by the image processing unit 30 to the display unit 50 and display an image (live view image, still image, moving image) on the display screen 51 of the display unit 50. . Further, the system control unit 70 performs control to read out the image data recorded in the recording unit 60 and output the image data to the display unit 50 and display an image on the display screen 51 of the display unit 50.

また、システム制御部70は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、システム制御部70は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、システム制御部70は、画像処理部30で生成された画像データを記録部60に出力させて、記録部60に画像データを記録させる制御を行う。また、システム制御部70は、画像処理部30で検出された各被写体の位置データ及び距離データを記録部60に出力させて、被写体ごとに画像データと位置データ及び距離データとを対応付けて記録部60に記録させる制御を行う。なお、システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。   In addition, the system control unit 70 instructs the predetermined imaging conditions in order to perform imaging with predetermined imaging conditions (exposure time, frame rate, gain, etc.) on the imaging surface (pixel area 200) of the imaging device 20. A signal is output to the drive unit 21. The system control unit 70 also instructs the image processing unit 30 to execute image processing with predetermined control parameters (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate). The instruction signal is output to the image processing unit 30. Further, the system control unit 70 controls the recording unit 60 to record the image data by causing the recording unit 60 to output the image data generated by the image processing unit 30. Further, the system control unit 70 causes the recording unit 60 to output the position data and distance data of each subject detected by the image processing unit 30, and records the image data, the position data, and the distance data in association with each subject. Control for recording in the unit 60 is performed. In addition to the above control, the system control unit 70 also performs control such as adjustment of the aperture diameter of the aperture stop provided in the photographing optical system 11.

次に、ライトフィールドカメラ1の画像処理部30が実行する画像処理について説明する。図6は、図4に示す画像処理部30が実行する画像処理を説明するためのフローチャートである。図6に示す処理において、画像処理部30は、撮像部10から出力されるRAWデータを取得する(ステップS1)。そして、画像処理部30は、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。   Next, image processing executed by the image processing unit 30 of the light field camera 1 will be described. FIG. 6 is a flowchart for explaining image processing executed by the image processing unit 30 shown in FIG. In the processing shown in FIG. 6, the image processing unit 30 acquires RAW data output from the imaging unit 10 (step S1). Then, the image processing unit 30 generates image data of a predetermined in-focus position (focal length, focal position) based on the acquired RAW data (step S2).

具体的には、上述したように、画像処理部30は、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像処理部30は、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像処理部30は、合焦位置が異なる複数の画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。   Specifically, as described above, the image processing unit 30 extracts pixel values of pixels at the same position with respect to each incident region in the pixel region 200, and reconstructs the extracted pixel values to obtain a plurality of pixels. A reconstructed image data group is generated. Then, the image processing unit 30 translates the plurality of reconstructed image data groups according to a predetermined focus position, and adds and averages the plurality of reconstructed image data groups after the parallel movement. As a result, image data set at a predetermined in-focus position is generated. In step S2, the image processing unit 30 generates a plurality of image data having different in-focus positions. The image data generated in step S2 includes still image data, moving image data, and live view image data.

次に、画像処理部30は、ステップS2で生成した合焦位置が異なる複数の画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。   Next, the image processing unit 30 performs color signal processing (color tone correction), white balance adjustment, sharpness adjustment, gamma correction, gradation adjustment, and the like on the plurality of image data having different focus positions generated in step S2. Various image processing is executed (step S3).

また、画像処理部30は、生成した画像データから一又は複数の被写体を検出する(ステップS4)。画像処理部30は、検出した一又は複数の被写体のサイズ及び位置を示す位置データをシステム制御部70に出力する。また、画像処理部30は、ステップS4で検出した一又は複数の被写体までの距離(焦点距離)を検出する(ステップS5)。画像処理部30は、検出した一又は複数の被写体までの距離を示す距離データをシステム制御部70に出力する。   The image processing unit 30 detects one or more subjects from the generated image data (step S4). The image processing unit 30 outputs position data indicating the detected size and position of one or more subjects to the system control unit 70. Further, the image processing unit 30 detects the distance (focal length) to one or more subjects detected in step S4 (step S5). The image processing unit 30 outputs distance data indicating the detected distance to one or more subjects to the system control unit 70.

その後、画像処理部30は、合焦位置が異なる複数の画像データを記録部60に記録する(ステップS6)。このとき、システム制御部70は、画像処理部30から出力された被写体の位置データと距離データとを被写体ごとに対応付けて記録部60に記録する。なお、画像処理部30は、RAWデータも画像データ等と対応付けて記録部60に記録してもよい。   Thereafter, the image processing unit 30 records a plurality of pieces of image data having different in-focus positions in the recording unit 60 (step S6). At this time, the system control unit 70 records the subject position data and distance data output from the image processing unit 30 in the recording unit 60 in association with each subject. The image processing unit 30 may record the RAW data in the recording unit 60 in association with the image data or the like.

なお、記録部60に記録された合焦位置の異なる複数の画像データ(本実施形態では、第1画像データ)、位置データ、及び距離データは、ライトフィールドカメラ1が画像合成装置101に接続されることにより、画像入力部112によって記憶部120の画像データ記憶領域に記憶される。   Note that a plurality of image data (first image data in the present embodiment), position data, and distance data recorded in the recording unit 60 with different in-focus positions are connected to the image synthesis apparatus 101 by the light field camera 1. Thus, the image data is stored in the image data storage area of the storage unit 120 by the image input unit 112.

次に、第1実施形態に係る演算処理部110による画像合成について説明する。図7は、第1画像601、第2画像602、及び合成画像603の例を示す図である。本実施形態では、図7に示すように、使用者が第1画像601に第2画像602を挿入して合成画像603を作成する場合を例として演算処理部110による画像合成を説明する。ここで、第1画像601は、合焦位置を奥行き方向に変更可能なリフォーカス画像である。第2画像602は、合焦位置を奥行き方向に変更不可能な二次元画像である。また、合成画像603は、合焦位置を奥行き方向に変更可能なリフォーカス画像である。   Next, image composition by the arithmetic processing unit 110 according to the first embodiment will be described. FIG. 7 is a diagram illustrating examples of the first image 601, the second image 602, and the composite image 603. In the present embodiment, as illustrated in FIG. 7, image synthesis by the arithmetic processing unit 110 will be described by taking as an example a case where a user inserts the second image 602 into the first image 601 to create the synthesized image 603. Here, the first image 601 is a refocus image in which the focus position can be changed in the depth direction. The second image 602 is a two-dimensional image in which the focus position cannot be changed in the depth direction. The composite image 603 is a refocus image that can change the in-focus position in the depth direction.

図7に示す第1画像601には、人物O1が左側に表示されている。また、第1画像601には、木O2が右側に表示され、家O3が中心付近に表示されている。また、第1画像601において、木O2及び家O3は被写界深度の範囲外に位置しているため、これらの画像がぼけている。また、図7に示す例では、第2画像602は、ある二次元画像から切り出された人物の画像である。また、図7に示す例では、合成画像603においては、第1画像601における家O3の手前に第2画像602(人物)が配置されている。なお、第2画像602は人物に合焦した画像である。   In the first image 601 shown in FIG. 7, the person O1 is displayed on the left side. In the first image 601, the tree O2 is displayed on the right side and the house O3 is displayed near the center. In the first image 601, the tree O2 and the house O3 are located outside the range of the depth of field, so these images are blurred. In the example shown in FIG. 7, the second image 602 is an image of a person cut out from a certain two-dimensional image. In the example shown in FIG. 7, in the composite image 603, the second image 602 (person) is arranged in front of the house O3 in the first image 601. The second image 602 is an image focused on a person.

図8は、第1実施形態の演算処理部110が実行する画像合成処理を説明するためのフローチャートである。図8に示す処理において、使用者によるキーボード103やマウス104の操作に応じて、制御プログラム(例えば画像合成を行うためのアプリケーションソフトウェアなどの画像合成プログラム)が起動されると、表示制御部111は、GUIの画像を記憶部120から読み出して表示装置102の表示画面500に表示させる(ステップS11)。   FIG. 8 is a flowchart for explaining image composition processing executed by the arithmetic processing unit 110 according to the first embodiment. In the processing shown in FIG. 8, when a control program (for example, an image composition program such as application software for performing image composition) is activated in response to the operation of the keyboard 103 or the mouse 104 by the user, the display control unit 111 The GUI image is read from the storage unit 120 and displayed on the display screen 500 of the display device 102 (step S11).

また、使用者によるキーボード103やマウス104の操作によって第1画像データ(例えば図7に示す第1画像601の画像データ)が選択されると、画像生成部114aは、記憶部120の画像データ記憶領域に記憶されている第1画像データと、この第1画像データに対応付けられた第1画像データ中の被写体の位置データ及び距離データとを読み出して取得する(ステップS12)。また、使用者によるキーボード103やマウス104の操作によって第2画像データ(例えば図7に示す第2画像602)が選択されると、画像生成部114aは、記憶部120の画像データ記憶領域に記憶されている第2画像データを読み出して取得する(ステップS12)。   When the first image data (for example, the image data of the first image 601 shown in FIG. 7) is selected by the user's operation of the keyboard 103 or the mouse 104, the image generation unit 114a stores the image data in the storage unit 120. The first image data stored in the region and the position data and distance data of the subject in the first image data associated with the first image data are read and acquired (step S12). When the second image data (for example, the second image 602 shown in FIG. 7) is selected by the user operating the keyboard 103 or the mouse 104, the image generation unit 114a stores the image data in the image data storage area of the storage unit 120. The acquired second image data is read and acquired (step S12).

なお、図7に示したように、第1画像データに挿入される第2画像データが、二次元の全体画像データの一部の画像データである場合は、画像生成部114aは、使用者によるキーボード103やマウス104の操作に応じて全体画像データから第2画像データを切り出す処理を行う。   As shown in FIG. 7, when the second image data inserted into the first image data is a part of the two-dimensional whole image data, the image generation unit 114a is set by the user. A process of cutting out the second image data from the entire image data is performed according to the operation of the keyboard 103 or the mouse 104.

表示制御部111は、ステップS12で取得した第1画像データ、位置データ、及び距離データに基づいて、第1画像データ中の各被写体O1〜O3のサイズ及び位置や、撮影時のライトフィールドカメラ1から各被写体O1〜O3までの距離を認識する。そして、表示制御部111は、認識した各被写体O1〜O3のサイズ、第1画像データ中の位置、及び各被写体O1〜O3までの距離に基づいて、ライトフィールドカメラ1と各被写体O1〜O3とを俯瞰したときの俯瞰図をGUI上に表示する(ステップS13)。   Based on the first image data, position data, and distance data acquired in step S12, the display control unit 111 determines the size and position of each of the subjects O1 to O3 in the first image data, and the light field camera 1 at the time of shooting. To the subjects O1 to O3. The display control unit 111 then determines the light field camera 1 and the subjects O1 to O3 based on the recognized sizes of the subjects O1 to O3, the positions in the first image data, and the distances to the subjects O1 to O3. Is displayed on the GUI (step S13).

図9及び図10は、第1実施形態のグラフィカルユーザインタフェース(GUI)上の俯瞰図300の表示例を示す図である。図9及び図10に示すように、表示装置102の表示画面500には、GUIとして、ライトフィールドカメラ1と各被写体O1〜O3との距離関係、各被写体O1〜O3の合焦位置、及び第1画像データ(第2画像データの合成後は合成画像データである。以下、図9及び図10において同様である。)の被写界深度の範囲を表す俯瞰図300が表示される。図9及び図10に示す俯瞰図300では、カメラ位置d0にライトフィールドカメラ1が表示され、合焦位置d1に人物O1が表示され、合焦位置d2に木O2が表示され、合焦位置d3に家O3が表示されている。   9 and 10 are diagrams illustrating display examples of an overhead view 300 on the graphical user interface (GUI) of the first embodiment. As shown in FIGS. 9 and 10, the display screen 500 of the display device 102 has, as a GUI, a distance relationship between the light field camera 1 and each of the subjects O1 to O3, a focus position of each of the subjects O1 to O3, and An overhead view 300 representing the range of the depth of field of one image data (the synthesized image data after the synthesis of the second image data. The same applies in FIGS. 9 and 10 below) is displayed. In the overhead view 300 shown in FIGS. 9 and 10, the light field camera 1 is displayed at the camera position d0, the person O1 is displayed at the focus position d1, the tree O2 is displayed at the focus position d2, and the focus position d3. The house O3 is displayed on the screen.

図9に示す第1画像データの合焦位置は、人物O1の合焦位置d1となっている。また、図9に示す第1画像データの被写界深度の範囲は、人物O1の合焦位置d1の奥行き方向の前後の範囲となっている。すなわち、図9に示す第1画像データの被写界深度の範囲は、ライトフィールドカメラ1からの距離d1aから、ライトフィールドカメラ1からの距離d1bまでの範囲となっている。なお、図9に示す第1画像データの合焦位置及び被写界深度の範囲は、ライトフィールドカメラ1の画像処理部30によって自動的に設定されたものである。また、図10に示す第1画像データの合焦位置も、人物O1の合焦位置d1となっている。しかし、図10に示す第1画像データの被写界深度の範囲は、ライトフィールドカメラ1からの距離d1aから、ライトフィールドカメラ1からの距離d1cまでの範囲となっている。つまり、図10に示す第1画像データの被写界深度は、図9に示す第1画像データの被写界深度よりも広くなっている。   The focus position of the first image data shown in FIG. 9 is the focus position d1 of the person O1. Further, the range of the depth of field of the first image data shown in FIG. 9 is a range before and after the focus position d1 of the person O1 in the depth direction. That is, the range of the depth of field of the first image data shown in FIG. 9 is a range from the distance d1a from the light field camera 1 to the distance d1b from the light field camera 1. The range of the focus position and depth of field of the first image data shown in FIG. 9 is automatically set by the image processing unit 30 of the light field camera 1. Further, the focus position of the first image data shown in FIG. 10 is also the focus position d1 of the person O1. However, the range of the depth of field of the first image data shown in FIG. 10 is a range from the distance d1a from the light field camera 1 to the distance d1c from the light field camera 1. That is, the depth of field of the first image data shown in FIG. 10 is wider than the depth of field of the first image data shown in FIG.

また、図9及び図10に示すように、表示装置102の表示画面500の右上に小さな表示領域501が設けられている。この表示領域501には合成画像603(又は合成前は第1画像601)が表示される。このように、表示領域501に合成画像603を表示することによって、GUIを用いて作成中の合成画像603を使用者に視認させることができる。   Further, as shown in FIGS. 9 and 10, a small display area 501 is provided at the upper right of the display screen 500 of the display device 102. In this display area 501, a composite image 603 (or the first image 601 before composition) is displayed. In this way, by displaying the composite image 603 in the display area 501, the user can visually recognize the composite image 603 being created using the GUI.

次に、画像生成部114aは、使用者によるマウス104の操作に応じて、第1画像データの奥行き方向の所定の位置に第2画像データを挿入して合成画像データを生成する(ステップS14)。図9及び図10に示す例では、使用者は、例えばマウス104のドラッグアンドドロップの操作によって、俯瞰図300上の任意の位置(図9ではライトフィールドカメラ1からの距離d11の位置、図10ではライトフィールドカメラ1からの距離d12の位置)に第2画像602を挿入する。画像生成部114aは、第1画像データの奥行き方向における第2画像データの挿入位置に対応した合成画像データを生成する。そして、画像生成部114aは、生成した合成画像データに基づく合成画像603を表示領域501に表示する。   Next, the image generation unit 114a inserts the second image data at a predetermined position in the depth direction of the first image data in accordance with the operation of the mouse 104 by the user, and generates composite image data (step S14). . In the example shown in FIGS. 9 and 10, the user performs an arbitrary position on the overhead view 300 (a position at a distance d11 from the light field camera 1 in FIG. Then, the second image 602 is inserted at a distance d12 from the light field camera 1. The image generation unit 114a generates composite image data corresponding to the insertion position of the second image data in the depth direction of the first image data. Then, the image generation unit 114a displays a composite image 603 based on the generated composite image data in the display area 501.

変更部114bは、第2画像データの挿入位置に応じて、合成画像データの合焦位置及び被写界深度の一方又は双方を変更する(ステップS15)。具体的には、変更部114bは、使用者によるマウス104などの操作によって合焦位置や被写界深度の範囲が指定されると、指定された距離に近い合焦位置を持つ複数の第1画像データを取得する。使用者によって指定された合焦位置の画像データは、変更部114bにより取得された複数の第1画像データの中間的な画像データである。このため、変更部114bは、取得した複数の第1画像データに対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、使用者によって指定された合焦位置の画像データを生成する。また、変更部114bは、複数の異なる合焦位置の画像データを合成することで、使用者によって指定された被写界深度の範囲の画像データを生成する。   The changing unit 114b changes one or both of the in-focus position and the depth of field of the composite image data according to the insertion position of the second image data (step S15). Specifically, when a focus position or a range of depth of field is designated by the user's operation of the mouse 104 or the like, the changing unit 114b has a plurality of first positions having focus positions close to the designated distance. Get image data. The image data at the in-focus position designated by the user is intermediate image data of the plurality of first image data acquired by the changing unit 114b. For this reason, the changing unit 114b performs weighted average processing that adds a weight according to the distance to the acquired plurality of first image data and then averages the image data at the in-focus position designated by the user. Is generated. In addition, the changing unit 114b generates image data in the range of the depth of field specified by the user by combining the image data at a plurality of different in-focus positions.

図9に示す例では、第2画像602は、第1画像データにおける被写界深度の範囲内(距離d1aから距離d1bまでの範囲内)の距離d11の位置に挿入されている。この場合、第2画像602は焦点が合っているように見える範囲内に位置していることから、合成画像603は使用者にとって違和感のない画像となっている。一方、図10に示す例では、第2画像602は、第1画像データにおける当初の被写界深度の範囲外の距離d12の位置に挿入されている。この場合、第2画像602は焦点が合っていない範囲内に位置していることから、合成画像603は使用者にとって違和感のある画像となってしまう。そこで、使用者は、例えばマウス104の操作によって、第2画像602の挿入位置(距離d12の位置)が第1画像データの被写界深度の範囲に含まれるように、被写界深度の範囲を距離d1aから距離d1cまでの範囲に変更する。   In the example shown in FIG. 9, the second image 602 is inserted at a position of a distance d11 within the range of the depth of field in the first image data (within the range from the distance d1a to the distance d1b). In this case, since the second image 602 is located within a range where it appears to be in focus, the composite image 603 is an image that does not feel uncomfortable for the user. On the other hand, in the example shown in FIG. 10, the second image 602 is inserted at a position of a distance d12 outside the range of the initial depth of field in the first image data. In this case, since the second image 602 is located within the out-of-focus range, the composite image 603 is an image that is uncomfortable for the user. Therefore, for example, when the user operates the mouse 104, the range of the depth of field is set such that the insertion position of the second image 602 (the position at the distance d12) is included in the range of the depth of field of the first image data. Is changed to a range from the distance d1a to the distance d1c.

なお、変更部114bは、第2画像データの挿入位置に応じて、合成画像データの合焦位置及び被写界深度の一方又は双方を自動的に変更してもよい。この場合、変更部114bは、合成画像603が違和感のない画像となるように、例えば合成画像データの被写界深度を第2画像データの挿入位置を含む範囲に変更する。   Note that the changing unit 114b may automatically change one or both of the in-focus position and the depth of field of the composite image data in accordance with the insertion position of the second image data. In this case, the changing unit 114b changes, for example, the depth of field of the composite image data to a range including the insertion position of the second image data so that the composite image 603 becomes an uncomfortable image.

次に、画像生成部114aは、必要に応じて、第1画像データ及び第2画像データの一方又は双方の画像データを加工(すなわち編集)する(ステップS16)。例えば、画像生成部114aは、合成画像603が違和感のない画像となるように、使用者によるマウス104などの操作に応じて、第1画像601に含まれる被写体O1〜O3のサイズや第2画像602のサイズを変更する。また、第2画像データが合成画像データの被写界深度の範囲外に位置している場合には、画像生成部114aは、使用者によるマウス104などの操作に応じて、第2画像602がぼけて見えるように第2画像データの解像度を変更する。なお、画像生成部114aは、合成画像データの合焦位置及び被写界深度と第2画像データの挿入位置との関係に応じて、第1画像601に含まれる被写体O1〜O3や第2画像602のサイズを自動的に変更し、第2画像データの解像度を自動的に変更してもよい。   Next, the image generation unit 114a processes (that is, edits) one or both of the first image data and the second image data as necessary (step S16). For example, the image generation unit 114a determines the size of the subjects O1 to O3 included in the first image 601 and the second image in accordance with the operation of the mouse 104 or the like by the user so that the composite image 603 becomes an uncomfortable image. The size of 602 is changed. When the second image data is located outside the range of the depth of field of the composite image data, the image generation unit 114a displays the second image 602 according to the operation of the mouse 104 or the like by the user. The resolution of the second image data is changed so that it appears blurred. Note that the image generation unit 114a determines the subjects O1 to O3 and the second image included in the first image 601 according to the relationship between the focus position and depth of field of the composite image data and the insertion position of the second image data. The size of 602 may be automatically changed, and the resolution of the second image data may be automatically changed.

その後、記憶制御部114cは、使用者のマウス104などの操作に応じて、合成画像データを記憶部120の画像データ記憶領域に記憶する(ステップS17)。   Thereafter, the storage control unit 114c stores the composite image data in the image data storage area of the storage unit 120 in accordance with the operation of the user's mouse 104 or the like (step S17).

以上に説明したように、第1実施形態では、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する合成画像生成部114aと、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの合焦位置を変更する変更部114bとを備える。このような構成によれば、使用者にとって違和感のない合成画像603を生成することができる。例えば、合焦した第2画像データを第1画像データにおける奥行き方向の合焦位置でない位置に挿入されるなどのような違和感のある合成画像が生成されてしまうことを回避することができる。   As described above, in the first embodiment, a composite image that generates composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data in which the focus position can be changed in the depth direction. A generation unit 114a and a changing unit 114b that changes the in-focus position of the composite image data according to the insertion position of the second image data in the depth direction in the first image data. According to such a configuration, it is possible to generate a composite image 603 that does not give the user a feeling of strangeness. For example, it is possible to avoid the generation of a composite image having a sense of incongruity such that the focused second image data is inserted at a position that is not the focus position in the depth direction in the first image data.

また、第1実施形態では、変更部114bは、合成画像データの合焦位置を第2画像データの挿入位置に変更する。このような構成によれば、第2画像データが合焦位置に挿入された合成画像データを生成することができる。   In the first embodiment, the changing unit 114b changes the in-focus position of the composite image data to the insertion position of the second image data. According to such a configuration, it is possible to generate composite image data in which the second image data is inserted at the in-focus position.

また、第1実施形態では、変更部114bは、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、合成画像データの被写界深度の範囲を変更する。このような構成によれば、違和感のない合成画像データを生成することができるとともに、第2画像データを挿入可能な奥行き方向の位置の幅も広くなる。また、第1実施形態では、変更部114bは、合成画像データの被写界深度の範囲を第2画像データの挿入位置を含む範囲に変更する場合は、違和感のない合成画像データを確実に生成することができる。また、第1実施形態では、合成画像生成部114aは、第1画像データにおける奥行き方向の第2画像データの挿入位置に応じて、第2画像データを編集するので、より一層、違和感のない合成画像データを生成することができる。   In the first embodiment, the changing unit 114b changes the range of the depth of field of the composite image data according to the insertion position of the second image data in the depth direction in the first image data. According to such a configuration, it is possible to generate composite image data without a sense of incongruity, and the width of the position in the depth direction where the second image data can be inserted is widened. In the first embodiment, the changing unit 114b reliably generates composite image data without a sense of incongruity when the range of the depth of field of the composite image data is changed to a range including the insertion position of the second image data. can do. Further, in the first embodiment, the composite image generation unit 114a edits the second image data according to the insertion position of the second image data in the depth direction in the first image data, so that there is a further uncomfortable composition. Image data can be generated.

また、第1実施形態では、第1画像データ及び第2画像データの一方または双方における、撮像装置1と被写体との距離関係、合焦位置、及び被写界深度の範囲を表す図300を表示部102に表示する表示制御部111を備える。このような構成によれば、撮像装置1と被写体との距離関係、合焦位置、及び被写界深度の範囲を使用者に容易に認識させることができる。従って、使用者による違和感のない合成画像データを生成する作業を容易に行わせることができる。   In the first embodiment, a diagram 300 representing the distance relationship between the imaging device 1 and the subject, the in-focus position, and the range of the depth of field in one or both of the first image data and the second image data is displayed. The display control part 111 displayed on the part 102 is provided. According to such a configuration, the distance relationship between the imaging device 1 and the subject, the in-focus position, and the range of the depth of field can be easily recognized by the user. Therefore, it is possible to easily perform the operation of generating the composite image data without a sense of incongruity by the user.

<第2実施形態>
上記した第1実施形態では、画像合成部114は、第1画像データに、合焦位置を変更することができない二次元画像データである第2画像データを挿入して合成画像データを生成する構成であった。これに対して、第2実施形態では、第1画像データに、合焦位置を変更可能なリフォーカス画像データである第2画像データを挿入して合成画像データを生成する。
Second Embodiment
In the first embodiment described above, the image composition unit 114 generates the composite image data by inserting the second image data, which is two-dimensional image data whose focus position cannot be changed, into the first image data. Met. On the other hand, in the second embodiment, composite image data is generated by inserting second image data, which is refocus image data whose focus position can be changed, into the first image data.

図11は、第2実施形態の演算処理部110が実行する画像合成処理を説明するためのフローチャートである。図11に示す処理において、使用者によるキーボード103やマウス104の操作に応じて、制御プログラムが起動されると、表示制御部111は、GUIの画像を記憶部120から読み出して表示装置102の表示画面500に表示させる(ステップS21)。   FIG. 11 is a flowchart for explaining image composition processing executed by the arithmetic processing unit 110 according to the second embodiment. In the processing shown in FIG. 11, when a control program is activated in response to a user's operation of the keyboard 103 or the mouse 104, the display control unit 111 reads a GUI image from the storage unit 120 and displays on the display device 102. It is displayed on the screen 500 (step S21).

また、使用者によるキーボード103やマウス104の操作によって第1画像データ(例えば図7に示す第1画像601の画像データ)が選択されると、画像生成部114aは、記憶部120の画像データ記憶領域に記憶されている第1画像データと、この第1画像データに対応付けられた第1画像データ中の被写体の位置データ及び距離データとを読み出して取得する(ステップS22)。また、使用者によるキーボード103やマウス104の操作によって第2画像データが選択されると、画像生成部114aは、記憶部120の画像データ記憶領域に記憶されている第2画像データと、この第2画像データに対応付けられた第2画像データ中の被写体の位置データ及び距離データとを読み出して取得する(ステップS22)。   When the first image data (for example, the image data of the first image 601 shown in FIG. 7) is selected by the user's operation of the keyboard 103 or the mouse 104, the image generation unit 114a stores the image data in the storage unit 120. The first image data stored in the region and the position data and distance data of the subject in the first image data associated with the first image data are read and acquired (step S22). When the second image data is selected by the user's operation of the keyboard 103 or the mouse 104, the image generation unit 114a includes the second image data stored in the image data storage area of the storage unit 120 and the second image data. The subject position data and distance data in the second image data associated with the two image data are read out and acquired (step S22).

表示制御部111は、ステップS22で取得した第1画像データ、位置データ、及び距離データに基づいて、第1画像データ中の各被写体O1〜O3のサイズ及び位置や、撮影時のライトフィールドカメラ1から各被写体O1〜O3までの距離を認識する。また、表示制御部111は、ステップS22で取得した第2画像データ、位置データ、及び距離データに基づいて、第2画像データ中の被写体O11のサイズ及び位置や、撮影時のライトフィールドカメラ1から被写体O11までの距離を認識する。そして、表示制御部111は、認識した各被写体O1〜O3のサイズ、第1画像データ中の位置、及び各被写体O1〜O3までの距離、被写体O11のサイズ、第2画像データ中の位置、及び被写体O11までの距離に基づいて、ライトフィールドカメラ1と各被写体O1〜O3とを俯瞰したとき、及びライトフィールドカメラ1と被写体O11とを俯瞰したときの俯瞰図301をGUI上に表示する(ステップS23)。   Based on the first image data, position data, and distance data acquired in step S22, the display control unit 111 determines the size and position of each of the subjects O1 to O3 in the first image data, and the light field camera 1 at the time of shooting. To the subjects O1 to O3. The display control unit 111 also determines the size and position of the subject O11 in the second image data and the light field camera 1 at the time of shooting based on the second image data, the position data, and the distance data acquired in step S22. The distance to the subject O11 is recognized. The display control unit 111 then recognizes the size of each of the subjects O1 to O3, the position in the first image data, the distance to each of the subjects O1 to O3, the size of the subject O11, the position in the second image data, and Based on the distance to the subject O11, an overhead view 301 when the light field camera 1 and each of the subjects O1 to O3 are looked down and when the light field camera 1 and the subject O11 are looked down is displayed on the GUI (step). S23).

図12及び図13は、第2実施形態のグラフィカルユーザインタフェース(GUI)上の俯瞰図301の表示例を示す図である。図12及び図13に示すように、表示装置102の表示画面500には、GUIとして、ライトフィールドカメラ1と各被写体O1〜O3との距離関係、各被写体O1〜O3の合焦位置、及び第1画像データ(第2画像データの合成後は合成画像データである。以下、図12及び図13において同様である。)の被写界深度の範囲を表す第1画像の俯瞰図が表示される。また、表示装置102の表示画面500には、GUIとして、ライトフィールドカメラ1と被写体O11との距離関係、被写体O11の合焦位置、及び第2画像データの被写界深度の範囲を表す第2画像の俯瞰図が表示される。このように、俯瞰図301は、第1画像の俯瞰図と第2画像の俯瞰図とから構成される。   12 and 13 are diagrams illustrating display examples of an overhead view 301 on the graphical user interface (GUI) of the second embodiment. As shown in FIGS. 12 and 13, the display screen 500 of the display device 102 has, as a GUI, a distance relationship between the light field camera 1 and each of the subjects O1 to O3, a focus position of each of the subjects O1 to O3, and An overhead view of the first image representing the range of the depth of field of one image data (the synthesized image data after the synthesis of the second image data. The same applies in FIGS. 12 and 13 below) is displayed. . In addition, the display screen 500 of the display device 102 includes, as a GUI, a second relationship representing a distance relationship between the light field camera 1 and the subject O11, a focus position of the subject O11, and a range of the depth of field of the second image data. An overhead view of the image is displayed. As described above, the overhead view 301 includes the overhead view of the first image and the overhead view of the second image.

図12及び図13に示す第1画像の俯瞰図では、カメラ位置d0にライトフィールドカメラ1が表示され、合焦位置d1に人物O1が表示され、合焦位置d2に木O2が表示され、合焦位置d3に家O3が表示されている。また、図12及び図13に示す第2画像の俯瞰図では、カメラ位置d0にライトフィールドカメラ1が表示され、合焦位置d21に人物O11が表示されている。   In the overhead view of the first image shown in FIGS. 12 and 13, the light field camera 1 is displayed at the camera position d0, the person O1 is displayed at the focus position d1, and the tree O2 is displayed at the focus position d2. House O3 is displayed at the focal position d3. In the overhead view of the second image shown in FIGS. 12 and 13, the light field camera 1 is displayed at the camera position d0, and the person O11 is displayed at the in-focus position d21.

図12に示す第1画像データの合焦位置は、人物O1の合焦位置d1となっている。また、図12に示す第1画像データの被写界深度の範囲は、人物O1の合焦位置d1の奥行き方向の前後の範囲(距離d1aから距離d1bまでの範囲)となっている。また、図12に示す第2画像データの合焦位置は、人物O11の合焦位置d21となっている。また、図12に示す第2画像データの被写界深度の範囲は、人物O11の合焦位置d21の奥行き方向の前後の範囲(距離d21aから距離d21bまでの範囲)となっている。   The focus position of the first image data shown in FIG. 12 is the focus position d1 of the person O1. Further, the range of the depth of field of the first image data shown in FIG. 12 is a range (a range from the distance d1a to the distance d1b) in the depth direction of the in-focus position d1 of the person O1. Further, the focus position of the second image data shown in FIG. 12 is the focus position d21 of the person O11. Further, the range of the depth of field of the second image data shown in FIG. 12 is a range in the depth direction of the in-focus position d21 of the person O11 (range from the distance d21a to the distance d21b).

また、図13に示す第1画像データ及び第2画像データの合焦位置は、いずれも、人物O11の合焦位置d21となっている。また、図13に示す第1画像データ及び第2画像データの被写界深度の範囲は、いずれも、人物O11の合焦位置d21の奥行き方向の前後の範囲(距離d21aから距離d21bまでの範囲)となっている。   Further, the focus positions of the first image data and the second image data shown in FIG. 13 are both the focus position d21 of the person O11. Moreover, the range of the depth of field of the first image data and the second image data shown in FIG. 13 is the range in the depth direction of the in-focus position d21 of the person O11 (the range from the distance d21a to the distance d21b). ).

また、図12及び図13に示すように、表示装置102の表示画面500の右上に小さな表示領域501が設けられている。この表示領域501には合成画像604(又は合成前は第1画像601)が表示される。   As shown in FIGS. 12 and 13, a small display area 501 is provided on the upper right of the display screen 500 of the display device 102. In this display area 501, a composite image 604 (or the first image 601 before composition) is displayed.

次に、変更部114bは、第2画像データの挿入位置を決定し、決定した挿入位置に応じた合成画像データの合焦位置及び被写界深度の範囲に変更する。そして、変更部114bは、変更した合成画像データの合焦位置及び被写界深度の範囲に合わせて、第1画像データの合焦位置及び被写界深度の範囲を変更するとともに、第2画像データの合焦位置及び被写界深度の範囲を変更する(ステップS24)。例えば、変更部114bは、第2画像データの合焦位置及び被写界深度の範囲の一方又は双方に合わせて、合成画像データの合焦位置及び被写界深度の範囲の一方又は双方を自動的に変更し、合成画像データの合焦位置及び被写界深度の範囲に合わせて、第1画像データの合焦位置及び被写界深度の範囲の一方又は双方を変更する。なお、変更部114bは、使用者によるマウス104の操作に応じて、第2画像データの挿入位置を決定してもよい。   Next, the changing unit 114b determines the insertion position of the second image data, and changes the range to the range of the in-focus position and the depth of field of the composite image data according to the determined insertion position. Then, the changing unit 114b changes the focus position and the depth of field range of the first image data in accordance with the changed focus position and the depth of field range of the combined image data, and also changes the second image. The range of the data focus position and the depth of field is changed (step S24). For example, the changing unit 114b automatically adjusts one or both of the focus position and the depth of field range of the composite image data in accordance with one or both of the focus position and the depth of field range of the second image data. Thus, one or both of the in-focus position and the depth of field range of the first image data is changed in accordance with the in-focus position and the depth of field range of the composite image data. Note that the changing unit 114b may determine the insertion position of the second image data in accordance with the operation of the mouse 104 by the user.

なお、変更部114bは、第1画像データ又は第2画像データの合焦位置及び被写界深度の範囲の一方又は双方に合わせて、合成画像データの合焦位置及び被写界深度の範囲の一方又は双方を自動的に変更し、合成画像データの合焦位置及び被写界深度の範囲に合わせて、第2画像データ又は第1画像データの合焦位置及び被写界深度の範囲の一方又は双方を変更してもよい。   The changing unit 114b adjusts the focus position and the depth of field range of the composite image data in accordance with one or both of the focus position and the depth of field range of the first image data or the second image data. One or both of them is automatically changed, and one of the focus position and depth of field range of the second image data or the first image data is adjusted according to the focus position and depth of field range of the composite image data. Or both may be changed.

次に、画像生成部114aは、第1画像データの奥行き方向の所定の位置に第2画像データを挿入して合成画像データを生成する(ステップS25)。なお、図12及び図13に示すように、第1画像データに挿入される第2画像データが、全体画像データの一部の画像データ(例えば人物O11の画像データ)である場合は、画像生成部114aは、使用者によるキーボード103やマウス104の操作に応じて全体画像データから第2画像データを切り出す処理を行う。   Next, the image generator 114a inserts the second image data at a predetermined position in the depth direction of the first image data to generate composite image data (step S25). As shown in FIGS. 12 and 13, when the second image data inserted into the first image data is a part of the whole image data (for example, image data of the person O11), image generation is performed. The unit 114a performs a process of cutting out the second image data from the entire image data according to the operation of the keyboard 103 and the mouse 104 by the user.

図13に示す例では、使用者は、例えばマウス104のドラッグアンドドロップの操作によって、第1画像データの被写体O1〜O3までの距離と第2画像データの被写体O11までの距離との関係が合うように、俯瞰図301上の所定の位置(図13ではライトフィールドカメラ1からの距離d21の位置)に第2画像(人物O11の画像)を挿入する。画像生成部114aは、第1画像データの奥行き方向における第2画像データの挿入位置に対応した合成画像データを生成する。そして、画像生成部114aは、生成した合成画像データに基づく合成画像604を表示領域501に表示する。   In the example illustrated in FIG. 13, for example, when the user performs a drag-and-drop operation of the mouse 104, the relationship between the distance to the subjects O1 to O3 of the first image data and the distance to the subject O11 of the second image data is matched. In this manner, the second image (image of the person O11) is inserted at a predetermined position on the overhead view 301 (a position at a distance d21 from the light field camera 1 in FIG. 13). The image generation unit 114a generates composite image data corresponding to the insertion position of the second image data in the depth direction of the first image data. Then, the image generation unit 114a displays a composite image 604 based on the generated composite image data in the display area 501.

次に、画像生成部114aは、必要に応じて、第1画像データ及び第2画像データの一方又は双方の画像データを加工(すなわち編集)する(ステップS26)。例えば、画像生成部114aは、使用者によるマウス104などの操作に応じて、第1画像601に含まれる被写体O1〜O3のサイズや第2画像に含まれる被写体O11のサイズを変更する。なお、画像生成部114aは、第1画像601に含まれる被写体O1〜O3のサイズや第2画像に含まれる被写体O11のサイズを自動的に変更してもよい。   Next, the image generation unit 114a processes (that is, edits) one or both of the first image data and the second image data as necessary (step S26). For example, the image generation unit 114a changes the size of the subjects O1 to O3 included in the first image 601 and the size of the subject O11 included in the second image according to the operation of the mouse 104 or the like by the user. Note that the image generation unit 114a may automatically change the size of the subjects O1 to O3 included in the first image 601 and the size of the subject O11 included in the second image.

その後、記憶制御部114cは、使用者のマウス104などの操作に応じて、合成画像データを記憶部120の画像データ記憶領域に記憶する(ステップS27)。   Thereafter, the storage control unit 114c stores the composite image data in the image data storage area of the storage unit 120 in accordance with the user's operation of the mouse 104 or the like (step S27).

以上に説明したように、第2実施形態では、合焦位置を奥行き方向に変更可能な第1画像データにおける奥行き方向の所定位置に、合焦位置を奥行き方向に変更可能な第2画像データを挿入して合成画像データを生成する合成画像生成部114aと、撮像装置1から第1画像データの被写体までの距離と撮像装置1から第2画像データの被写体までの距離との関係が合うように、合成画像データの合焦位置を変更する変更部114bとを備える。このような構成によれば、違和感のない合成画像データを確実に生成することができる。   As described above, in the second embodiment, the second image data in which the in-focus position can be changed in the depth direction and the second image data in which the in-focus position can be changed in the depth direction are used. The composite image generation unit 114a that inserts and generates composite image data matches the distance from the imaging device 1 to the subject of the first image data and the distance from the imaging device 1 to the subject of the second image data. A changing unit 114b for changing the in-focus position of the composite image data. According to such a configuration, it is possible to reliably generate composite image data that does not cause a sense of incongruity.

また、第2実施形態では、変更部114bは、合成画像生成部114aが合成画像データを生成する前に、合成画像データの合焦位置及び被写界深度に合わせて、第1画像データ及び第2画像データの合焦位置及び被写界深度を変更する。このような構成によれば、使用者による画像合成時の作業負担が軽減される。また、第2実施形態では、変更部114bは、合成画像データの合焦位置及び被写界深度の範囲を第1画像データまたは第2画像データの合焦位置及び被写界深度の範囲に変更する場合においても、違和感のない合成画像データを確実に生成することができる。   In the second embodiment, the changing unit 114b includes the first image data and the first image data in accordance with the in-focus position and the depth of field of the composite image data before the composite image generation unit 114a generates the composite image data. The focus position and depth of field of the two image data are changed. According to such a configuration, the work burden at the time of image composition by the user is reduced. In the second embodiment, the changing unit 114b changes the in-focus position and the depth of field range of the composite image data to the in-focus position and the depth of field range of the first image data or the second image data. Even in this case, it is possible to reliably generate composite image data that does not cause a sense of incongruity.

なお、変更部114bは、第1画像データと第2画像データの合成を行った後に、合成画像データの合焦位置や被写界深度の範囲を変更してもよい。また、第1画像データ、第2画像データ、及び合成画像データの合焦位置及び被写界深度の範囲は、使用者のマウス104などの操作によって変更されても、変更部114bによって自動的に変更されてもよい。   Note that the changing unit 114b may change the in-focus position and the range of the depth of field after combining the first image data and the second image data. Even if the focus position and the depth of field range of the first image data, the second image data, and the composite image data are changed by the user's operation of the mouse 104 or the like, the change unit 114b automatically It may be changed.

また、上記した第2実施形態では、変更部114bは、ライトフィールドカメラ1からの絶対距離に基づいて、第1画像データの被写体までの距離と第2画像データの被写体までの距離とが合うように合焦位置や被写界深度の範囲を変更していた。しかし、変更部114bは、ライトフィールドカメラ1からの相対距離に基づいて、第1画像データの被写体までの距離と第2画像データの被写体までの距離とが合うように合焦位置や被写界深度の範囲を変更してもよい。この場合、画像生成部114aは、合成画像が違和感のないように、被写体のサイズや解像度などを変更(加工)する。   In the second embodiment described above, the changing unit 114b matches the distance to the subject of the first image data and the distance to the subject of the second image data based on the absolute distance from the light field camera 1. The focus position and the depth of field range were changed. However, the changing unit 114b, based on the relative distance from the light field camera 1, adjusts the focus position and the field of view so that the distance to the subject of the first image data matches the distance to the subject of the second image data. The depth range may be changed. In this case, the image generation unit 114a changes (processes) the size and resolution of the subject so that the composite image does not feel uncomfortable.

また、遠い被写体のサイズが小さく解像度が低いため、そのような被写体の画像データを第1画像データの奥行き方向の近距離に挿入すると、解像度の低い画像によって違和感が生じる。そこで、上記した第1実施形態及び第2実施形態において、表示制御部111は、第1画像データの被写体の解像度と第2画像データの被写体の解像度に応じて、第1画像データにおける第2画像データの挿入可能な範囲を表す俯瞰図を表示部102に表示する。このような構成によれば、違和感の生じない合成画像が生成可能な範囲を使用者に明示することができ、使用者の操作性が向上する。   In addition, since the size of the far subject is small and the resolution is low, inserting image data of such a subject at a short distance in the depth direction of the first image data causes a sense of incongruity due to the low resolution image. Therefore, in the first embodiment and the second embodiment described above, the display control unit 111 performs the second image in the first image data according to the resolution of the subject of the first image data and the resolution of the subject of the second image data. An overhead view showing a range in which data can be inserted is displayed on the display unit 102. According to such a configuration, it is possible to clearly indicate to the user a range in which a composite image that does not cause a sense of incongruity can be generated, and the operability for the user is improved.

<画像合成システム>
上記した各実施形態(第1実施形態、第2実施形態)及び変形例では、それぞれスタンドアローンの形態のシステムである。しかし、そのような形態のシステムには限定されない。例えばクライアントサーバシステムなどの通信ネットワークを通じて接続された画像表示システムSYSについて説明する。以下の説明において、上記の第1〜第3実施形態と同一又は同等の構成部分については同一符号を付けて説明を省略または簡略化する。
<Image composition system>
In each of the above-described embodiments (the first embodiment and the second embodiment) and the modifications, the system is a stand-alone system. However, the present invention is not limited to such a system. For example, an image display system SYS connected through a communication network such as a client server system will be described. In the following description, components that are the same as or equivalent to those in the first to third embodiments are given the same reference numerals, and descriptions thereof are omitted or simplified.

図14は、画像合成システムSYSの構成を示すブロック図である。図14に示すように、この画像表示システムSYSは、クライアント端末101Bの演算処理部110Bにおいて、表示制御部111、画像入力部112、操作制御部113、及び通信部115を有している。これら表示制御部111、画像入力部112、及び操作制御部113は、図1に示した表示制御部111、画像入力部112、及び操作制御部113に相当する。また、図14に示す記憶部120Bは、図1に示した記憶部120に相当する。   FIG. 14 is a block diagram showing the configuration of the image composition system SYS. As illustrated in FIG. 14, the image display system SYS includes a display control unit 111, an image input unit 112, an operation control unit 113, and a communication unit 115 in the arithmetic processing unit 110B of the client terminal 101B. The display control unit 111, the image input unit 112, and the operation control unit 113 correspond to the display control unit 111, the image input unit 112, and the operation control unit 113 illustrated in FIG. Further, the storage unit 120B illustrated in FIG. 14 corresponds to the storage unit 120 illustrated in FIG.

図14に示すように、クライアント端末101Bの演算処理部110Bは、通信ネットワーク180を介してサーバ(画像合成装置)106とデータを送受信する通信部115を有している。また、サーバ106の演算処理部160は、通信ネットワーク180を介してクライアント端末101Bとデータを送受信する通信部161を有している。また、演算処理部160の画像合成部162は、クライアント端末101Bからの要求に応じて、クライアント端末101Bから送信される画像データ(第1画像データ、第2画像データ)を記憶部170に蓄積する。そして、画像合成部162は、図1に示した画像合成部114と同様に、画像データに基づいて画像合成の制御を実行する。   As illustrated in FIG. 14, the arithmetic processing unit 110 </ b> B of the client terminal 101 </ b> B includes a communication unit 115 that transmits and receives data to and from the server (image composition device) 106 via the communication network 180. The arithmetic processing unit 160 of the server 106 includes a communication unit 161 that transmits / receives data to / from the client terminal 101 </ b> B via the communication network 180. In addition, the image composition unit 162 of the arithmetic processing unit 160 accumulates image data (first image data and second image data) transmitted from the client terminal 101B in the storage unit 170 in response to a request from the client terminal 101B. . Then, the image composition unit 162 executes image composition control based on the image data, similarly to the image composition unit 114 shown in FIG.

なお、通信部115の構成や、演算処理部160における通信部161及び画像合成部162の構成は、CPUなどの制御装置が記憶部120B,170に記憶されている制御プログラムに従って処理を実行することにより実現される。   The configuration of the communication unit 115 and the configuration of the communication unit 161 and the image composition unit 162 in the arithmetic processing unit 160 are executed by a control device such as a CPU according to a control program stored in the storage units 120B and 170. It is realized by.

使用者は、クライアント端末101Bに接続されたキーボード103及びマウス104を操作して、ライトフィールドカメラ1や記憶部120Bに記憶されている画像データを読み出し、読み出した画像データをサーバ106に送信する。そして、使用者は、キーボード103及びマウス104を操作して、サーバ6に対してGUIの表示を要求する。サーバ106における画像合成部162は、GUIの表示の要求に応じて、GUI上の俯瞰図の画像データ(被写体などが配置された画像データ)をクライアント端末101Bに対して送信する。クライアント端末101Bでは、通信部115がサーバ106から送信されたGUI上の俯瞰図の画像データを受信すると、表示制御部111が受信した俯瞰図の画像データを表示装置102の表示画面500に表示する。   The user operates the keyboard 103 and mouse 104 connected to the client terminal 101 </ b> B to read out image data stored in the light field camera 1 and the storage unit 120 </ b> B, and transmits the read image data to the server 106. Then, the user operates the keyboard 103 and the mouse 104 to request the server 6 to display a GUI. In response to a GUI display request, the image composition unit 162 in the server 106 transmits image data of an overhead view on the GUI (image data on which a subject or the like is arranged) to the client terminal 101B. In the client terminal 101 </ b> B, when the communication unit 115 receives the overhead view image data on the GUI transmitted from the server 106, the display control unit 111 displays the received overhead view image data on the display screen 500 of the display device 102. .

また、使用者は、マウス104などを操作して、表示画面500に表示された俯瞰図の画像に基づいて、第1画像データにおける所定の挿入位置に第2画像データを挿入し、また合焦位置や被写界深度の範囲を変更する。通信部115は、使用者の操作された操作情報をサーバ106に送信する。サーバ106の画像合成部162は、クライアント端末101Bからの操作情報に応じて、第1画像データにおける所定の挿入位置に第2画像データを挿入し、また合焦位置や被写界深度の範囲を変更する。そして、画像合成部162は、そのような処理後のGUI上の俯瞰図の画像データをクライアント端末101Bに対して送信する。クライアント端末101Bでは、通信部115がサーバ106から送信されたGUI上の俯瞰図の画像データを受信すると、表示制御部111が受信した俯瞰図の画像データを表示装置102の表示画面500に表示する。   Further, the user operates the mouse 104 or the like to insert the second image data at a predetermined insertion position in the first image data based on the overhead view image displayed on the display screen 500, and to focus. Change the range of position and depth of field. The communication unit 115 transmits operation information operated by the user to the server 106. The image composition unit 162 of the server 106 inserts the second image data at a predetermined insertion position in the first image data according to the operation information from the client terminal 101B, and sets the range of the in-focus position and the depth of field. change. Then, the image composition unit 162 transmits the image data of the overhead view on the GUI after such processing to the client terminal 101B. In the client terminal 101 </ b> B, when the communication unit 115 receives the overhead view image data on the GUI transmitted from the server 106, the display control unit 111 displays the received overhead view image data on the display screen 500 of the display device 102. .

このような処理を繰り返すことにより、画像合成部162は使用者が望む合成画像を生成する。そして、画像合成部162は、クライアント端末101Bからの合成画像データの送信要求に基づいて、生成した合成画像データをクライアント端末101Bに送信する。   By repeating such processing, the image composition unit 162 generates a composite image desired by the user. Then, the image composition unit 162 transmits the generated composite image data to the client terminal 101B based on the composite image data transmission request from the client terminal 101B.

このような構成によれば、クライアント端末101Bが大容量のデータを記憶しておく必要がなくなり、データ管理を一元化できるなど、コストを低減させることができる。   According to such a configuration, it is not necessary for the client terminal 101B to store a large amount of data, and costs can be reduced, for example, data management can be unified.

なお、図14に示す画像表示システムSYSでは、クライアント端末101Bの表示制御部111が表示制御を行っているが、これに限定されない。例えば、クライアント端末101Bは、ブラウザを備え、ブラウザを用いて図9等に示すような俯瞰図の表示内容を表示装置102に表示させるようにしてもよい。   In the image display system SYS shown in FIG. 14, the display control unit 111 of the client terminal 101B performs display control, but the present invention is not limited to this. For example, the client terminal 101B may be provided with a browser, and display content of an overhead view as shown in FIG.

<撮像装置の変形例>
上記した第1実施形態におけるライトフィールドカメラ1は、撮像装置1Aと電子機器1Bとが分離した構成であってもよい。
<Modification of imaging device>
The light field camera 1 in the first embodiment described above may have a configuration in which the imaging device 1A and the electronic device 1B are separated.

図15は、撮像装置と電子機器とが分離した構成を示すブロック図である。図15に示す構成において、撮像装置1Aは、被写体の撮像を行う装置であって、リフォーカス機能を備えた装置である。この撮像装置1Aは、撮像部10、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、撮像部10、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図4に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   FIG. 15 is a block diagram illustrating a configuration in which the imaging apparatus and the electronic device are separated. In the configuration shown in FIG. 15, the imaging device 1 </ b> A is a device that captures an image of a subject and has a refocus function. The imaging apparatus 1A includes an imaging unit 10, an image processing unit 30, a work memory 40, an operation unit 55, a recording unit 60, and a first system control unit 70A. In the imaging apparatus 1A, the configurations of the imaging unit 10, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 are the same as the configurations illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図4に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   The electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic device 1B includes a display unit 50 and a second system control unit 70B. The configuration of the display unit 50 in the electronic device 1B is the same as the configuration illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。   The first system control unit 70A includes a first communication unit 75A. The second system control unit 70B has a second communication unit 75B. The first communication unit 75A and the second communication unit 75B transmit and receive signals to each other in a wired or wireless manner. In such a configuration, the first system control unit 70A receives the second image data (the image data image-processed by the image processing unit 30 and the image data recorded in the recording unit 60) via the first communication unit 75A. It transmits to the communication part 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。   Note that the imaging apparatus 1A includes, for example, a digital camera, a smartphone, a mobile phone, and a personal computer having an imaging function and a communication function, and the electronic device 1B includes, for example, a smartphone, a mobile phone, and a portable personal computer that have a communication function. Consists of a portable terminal such as a computer.

以上のような構成によれば、第1実施形態及び第2実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されている画像(リフォーカス画像)を電子機器1Bの表示部50に表示させることができる。なお、撮像装置1Aで撮像された画像データは、システム制御部70Aを介して画像合成装置101に送信されてもよく、システム制御部70Bを介して画像合成装置101に送信されてもよい。   According to the configuration as described above, in addition to the effects described in the first embodiment and the second embodiment, an image (refocused image) captured by the imaging device 1A using a mobile terminal such as a smartphone is an electronic device. It can be displayed on the display unit 50 of 1B. Note that the image data captured by the imaging device 1A may be transmitted to the image composition device 101 via the system control unit 70A, or may be transmitted to the image composition device 101 via the system control unit 70B.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations.

例えば、上記した各実施形態では、撮像装置の一例としてライトフィールドカメラ1を挙げていたが、これに限定されず、例えば複数のカメラを配置したカメラアレイであってもよい。このようなカメラアレイにおいても視差を有する複数の画像を取得することができる。   For example, in each of the above-described embodiments, the light field camera 1 is cited as an example of the imaging apparatus. However, the present invention is not limited to this. For example, a camera array in which a plurality of cameras are arranged may be used. Even in such a camera array, a plurality of images having parallax can be acquired.

また、上記した各実施形態では、画像合成部114は、ライトフィールドカメラ1が撮影したリフォーカス画像を用いて、合焦位置や被写界深度の範囲を変更していた。しかし、画像合成部114は、フォーカスブラケット機能を備えたデジタルカメラ(撮像装置)が撮影した複数の画像を用いて、合焦位置(焦点位置)や被写界深度の範囲を変更することが可能である。すなわち、上記した第1実施形態における第1画像データ、また上記した第2実施形態における第1画像データ及び第2画像データには、デジタルカメラ(撮像装置)が合焦位置を変えながら撮像した、合焦位置の異なる複数の画像データに基づいて生成される画像データが含まれる。ここで、フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。画像合成部114は、使用者によって指定された合焦位置や被写界深度に応じて、合焦位置の異なる複数の画像データを適宜選択し、選択した画像データを合成することにより、合焦位置や被写界深度の範囲を変更することができる。   Further, in each of the above-described embodiments, the image composition unit 114 changes the focus position and the range of the depth of field using the refocus image captured by the light field camera 1. However, the image composition unit 114 can change the in-focus position (focal position) and the range of depth of field using a plurality of images captured by a digital camera (imaging device) having a focus bracket function. It is. That is, the first image data in the first embodiment described above, and the first image data and the second image data in the second embodiment described above are captured by the digital camera (imaging device) while changing the focus position. Image data generated based on a plurality of image data with different in-focus positions is included. Here, the focus bracket refers to taking a plurality of images with different in-focus positions by changing the in-focus position while continuously shooting. The image composition unit 114 selects a plurality of image data with different in-focus positions according to the in-focus position and depth of field specified by the user, and combines the selected image data so as to achieve in-focus. The range of position and depth of field can be changed.

また、上記した各実施形態では、ライトフィールドカメラ1の画像処理部30がRAWデータに基づいて合焦位置が異なる複数の画像データを生成し、被写体を検出し、被写体までの距離を検出していた。しかし、画像合成部114がライトフィールドカメラ1からRAWデータを取得し、取得したRAWデータに基づいて、合焦位置が異なる複数の画像データを生成し、被写体を検出し、被写体までの距離を検出してもよい。また、上記した各実施形態において、第1画像データに挿入される第2画像データは1つに限らず複数であってもよい。   In each of the above-described embodiments, the image processing unit 30 of the light field camera 1 generates a plurality of image data having different in-focus positions based on the RAW data, detects the subject, and detects the distance to the subject. It was. However, the image composition unit 114 acquires RAW data from the light field camera 1, generates a plurality of image data with different in-focus positions based on the acquired RAW data, detects a subject, and detects a distance to the subject. May be. Further, in each of the above-described embodiments, the number of second image data inserted into the first image data is not limited to one and may be plural.

また、上記した各実施形態では、画像合成部114が複数の画像データ(第1画像データ、第2画像データ)に対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、合焦位置や被写界深度の範囲を変更していた。しかし、画像合成部114は、RAWデータに基づいて所定の合焦位置や被写界深度の画像データを生成することで、合焦位置や被写界深度の範囲を変更してもよい。   Further, in each of the above-described embodiments, the image composition unit 114 performs a weighted average process that averages a plurality of image data (first image data, second image data) after adding a weight according to the distance. The range of focus position and depth of field was changed. However, the image composition unit 114 may change the range of the focus position and the depth of field by generating image data of a predetermined focus position and depth of field based on the RAW data.

また、図4に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。また、図15に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。   Further, the image processing unit 30 and the system control unit 70 illustrated in FIG. 4 may be configured integrally. In this case, the system control unit having one CPU executes the processing based on the control program, thereby taking on the functions of the image processing unit 30 and the system control unit 70. In the configuration shown in FIG. 15, the image processing unit 30 and the first system control unit 70A may be configured integrally. In this case, the system control unit having one CPU performs the processing based on the control program, thereby performing the function of the image processing unit 30 and the function of the first system control unit 70A.

また、上記した第1実施形態において、カラーフィルタの配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。   In the first embodiment described above, the color filter array is a Bayer array, but an array other than this array may be used.

また、上記した各実施形態に係るライトフィールドカメラ1は、自動的に又は使用者による操作部55などの操作に応じてズーミング調節を行うズーム機能を備えていてもよい。この場合、駆動制御部13は、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばズーミング用レンズ)の駆動制御を実行する。また、ライトフィールドカメラ1は、被写体の撮影後に焦点位置を変更することが可能であるが、被写体の撮影前に自動的に焦点位置を調節するオートフォーカス機能を備えていてもよい。この場合、駆動制御部13は、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばフォーカシング用レンズ)の駆動制御を実行する。   Further, the light field camera 1 according to each of the above-described embodiments may include a zoom function for performing zooming adjustment automatically or in accordance with an operation of the operation unit 55 or the like by a user. In this case, the drive control unit 13 performs drive control of the photographing optical system 11 (for example, a zooming lens) based on control information transmitted from the system control unit 70 in order to perform zooming adjustment. The light field camera 1 can change the focal position after photographing the subject, but may include an autofocus function that automatically adjusts the focal position before photographing the subject. In this case, the drive control unit 13 performs drive control of the photographing optical system 11 (for example, a focusing lens) based on control information transmitted from the system control unit 70 in order to adjust the focus of the photographing optical system 11. .

また、上記した第2実施形態において、画像合成部114が第1画像データに第2画像データを挿入して合成画像データを生成していたが、第2画像データに第1画像データを挿入して合成画像データを生成してもよい。また、画像合成部114は、合焦位置や被写界深度を使用者のマウス104などの操作に応じて変更しても自動的に変更してもよい。   In the second embodiment described above, the image composition unit 114 generates the composite image data by inserting the second image data into the first image data. However, the first image data is inserted into the second image data. Thus, the composite image data may be generated. Further, the image composition unit 114 may change the in-focus position and the depth of field according to the operation of the user's mouse 104 or the like or automatically.

1…ライトフィールドカメラ(撮像装置)、1A…撮像装置、1B…電子機器、101…画像合成装置、101B…クライアント端末、102…表示装置(表示部)、106…サーバ(画像合成装置)、110,110B…演算処理部、111…表示制御部、112…画像入力部、113…操作制御部、114…画像合成部、114a…画像生成部(合成画像生成部)、114b…変更部、114c…記憶制御部、115…通信部、120,120B…記憶部、160…演算処理部、161…通信部、162…画像合成部、170…記憶部   DESCRIPTION OF SYMBOLS 1 ... Light field camera (imaging apparatus), 1A ... Imaging apparatus, 1B ... Electronic device, 101 ... Image composition apparatus, 101B ... Client terminal, 102 ... Display apparatus (display part), 106 ... Server (image composition apparatus), 110 , 110B ... arithmetic processing unit, 111 ... display control unit, 112 ... image input unit, 113 ... operation control unit, 114 ... image composition unit, 114a ... image generation unit (composite image generation unit), 114b ... change unit, 114c ... Storage control unit, 115 ... communication unit, 120, 120B ... storage unit, 160 ... arithmetic processing unit, 161 ... communication unit, 162 ... image composition unit, 170 ... storage unit

Claims (14)

合焦位置を奥行き方向に変更可能な第1画像データにおける前記奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する合成画像生成部と、
前記第1画像データにおける前記奥行き方向の前記第2画像データの挿入位置に応じて、前記合成画像データの合焦位置を変更する変更部と、を備える画像合成装置。
A composite image generation unit that generates composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data in which the focus position can be changed in the depth direction;
An image synthesizing apparatus comprising: a changing unit that changes a focus position of the synthesized image data in accordance with an insertion position of the second image data in the depth direction in the first image data.
前記変更部は、前記合成画像データの合焦位置を前記第2画像データの挿入位置に変更する請求項1記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the changing unit changes a focus position of the composite image data to an insertion position of the second image data. 前記変更部は、前記第1画像データにおける前記奥行き方向の前記第2画像データの挿入位置に応じて、前記合成画像データの被写界深度の範囲を変更する請求項1または請求項2記載の画像合成装置。   The said change part changes the range of the depth of field of the said synthesized image data according to the insertion position of the said 2nd image data of the said depth direction in the said 1st image data. Image composition device. 前記変更部は、前記合成画像データの被写界深度の範囲を前記第2画像データの挿入位置を含む範囲に変更する請求項3記載の画像合成装置。   The image synthesizing apparatus according to claim 3, wherein the changing unit changes a range of a depth of field of the synthesized image data to a range including an insertion position of the second image data. 前記第1画像データは、撮像装置が合焦位置を変えながら撮像した、前記合焦位置の異なる複数の画像データに基づいて生成される画像データを含む請求項1から4のいずれか一項に記載の画像合成装置。   5. The first image data according to claim 1, wherein the first image data includes image data generated based on a plurality of pieces of image data having different in-focus positions, which are captured by the imaging device while changing the in-focus positions. The image composition apparatus described. 合焦位置を奥行き方向に変更可能な第1画像データにおける前記奥行き方向の所定位置に、合焦位置を奥行き方向に変更可能な第2画像データを挿入して合成画像データを生成する合成画像生成部と、
撮像装置から前記第1画像データの被写体までの距離と前記撮像装置から前記第2画像データの被写体までの距離との関係が合うように、前記合成画像データの合焦位置を変更する変更部と、を備える画像合成装置。
Composite image generation for generating composite image data by inserting second image data whose focus position can be changed in the depth direction into a predetermined position in the depth direction in the first image data whose focus position can be changed in the depth direction And
A changing unit that changes a focus position of the composite image data so that a relationship between a distance from the imaging device to the subject of the first image data matches a distance from the imaging device to the subject of the second image data; An image composition apparatus comprising:
前記変更部は、前記合成画像生成部が前記合成画像データを生成する前に、前記合成画像データの合焦位置及び被写界深度に合わせて、前記第1画像データ及び前記第2画像データの合焦位置及び被写界深度を変更する請求項6記載の画像合成装置。   The changing unit is configured to adjust the first image data and the second image data in accordance with a focus position and a depth of field of the composite image data before the composite image generation unit generates the composite image data. The image composition apparatus according to claim 6, wherein the focus position and the depth of field are changed. 前記変更部は、前記合成画像データの合焦位置及び被写界深度の範囲を前記第1画像データまたは前記第2画像データの合焦位置及び被写界深度の範囲に変更する請求項6または請求項7記載の画像合成装置。   The change unit changes a range of a focus position and a depth of field of the composite image data to a range of a focus position and a depth of field of the first image data or the second image data. The image composition device according to claim 7. 前記第1画像データ及び前記第2画像データは、前記撮像装置が合焦位置を変えながら撮像した、前記合焦位置の異なる複数の画像データに基づいて生成される画像データを含む請求項6から8のいずれか一項に記載の画像合成装置。   The first image data and the second image data include image data generated based on a plurality of pieces of image data having different in-focus positions, which are captured by the imaging device while changing the in-focus positions. The image composition device according to claim 8. 前記第1画像データ及び前記第2画像データの一方または双方における、前記撮像装置と前記被写体との距離関係、前記合焦位置、及び前記被写界深度の範囲を表す図を表示部に表示する表示制御部を備える請求項1から9のいずれか一項に記載の画像合成装置。   A display showing a distance relationship between the imaging device and the subject, the in-focus position, and the range of the depth of field in one or both of the first image data and the second image data is displayed on the display unit. The image composition device according to any one of claims 1 to 9, further comprising a display control unit. 前記表示制御部は、前記第1画像データの被写体の解像度と前記第2画像データの被写体の解像度に応じて、前記第1画像データにおける前記第2画像データの挿入可能な範囲を表す図を表示部に表示する請求項10記載の画像合成装置。   The display control unit displays a diagram representing an insertable range of the second image data in the first image data according to the resolution of the subject of the first image data and the resolution of the subject of the second image data. The image composition device according to claim 10, which is displayed on a part. 前記合成画像生成部は、前記第1画像データにおける前記奥行き方向の前記第2画像データの挿入位置に応じて、前記第2画像データを編集する請求項1から11のいずれか一項に記載の画像合成装置。   The composite image generation unit according to any one of claims 1 to 11, wherein the second image data is edited according to an insertion position of the second image data in the depth direction in the first image data. Image composition device. コンピュータに、
合焦位置を奥行き方向に変更可能な第1画像データにおける前記奥行き方向の所定位置に第2画像データを挿入して合成画像データを生成する合成画像生成処理と、
前記第1画像データにおける前記奥行き方向の前記第2画像データの挿入位置に応じて、前記合成画像データの合焦位置を変更する変更処理と、を実行させる画像合成プログラム。
On the computer,
A composite image generation process for generating composite image data by inserting the second image data at a predetermined position in the depth direction in the first image data in which the focus position can be changed in the depth direction;
An image composition program for executing a change process for changing a focus position of the composite image data according to an insertion position of the second image data in the depth direction in the first image data.
コンピュータに、
合焦位置を奥行き方向に変更可能な第1画像データにおける前記奥行き方向の所定位置に、合焦位置を奥行き方向に変更可能な第2画像データを挿入して合成画像データを生成する合成画像生成処理と、
撮像装置から前記第1画像データの被写体までの距離と前記撮像装置から前記第2画像データの被写体までの距離との関係が合うように、前記合成画像データの合焦位置を変更する変更処理と、を実行させる画像合成プログラム。
On the computer,
Composite image generation for generating composite image data by inserting second image data whose focus position can be changed in the depth direction into a predetermined position in the depth direction in the first image data whose focus position can be changed in the depth direction Processing,
A change process for changing the in-focus position of the composite image data so that the relationship between the distance from the imaging device to the subject of the first image data and the distance from the imaging device to the subject of the second image data match. An image composition program for executing.
JP2014008203A 2014-01-21 2014-01-21 Device and program for image composition Pending JP2015139019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014008203A JP2015139019A (en) 2014-01-21 2014-01-21 Device and program for image composition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008203A JP2015139019A (en) 2014-01-21 2014-01-21 Device and program for image composition

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018202201A Division JP2019041401A (en) 2018-10-26 2018-10-26 Image combining device and image combining program

Publications (1)

Publication Number Publication Date
JP2015139019A true JP2015139019A (en) 2015-07-30

Family

ID=53769777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008203A Pending JP2015139019A (en) 2014-01-21 2014-01-21 Device and program for image composition

Country Status (1)

Country Link
JP (1) JP2015139019A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511026A (en) * 2016-01-11 2019-04-18 トムソン ライセンシングThomson Licensing Consistent editing of light field data

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295250A (en) * 2005-04-05 2006-10-26 Canon Inc Image processor, image processing method, storage medium and program
JP2010068018A (en) * 2008-09-08 2010-03-25 Sony Corp Image processing apparatus, imaging device and display device
JP2010091669A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging device
JP2013066058A (en) * 2011-09-16 2013-04-11 Canon Inc Image processing device, image processing method, and program
JP2013080093A (en) * 2011-10-04 2013-05-02 Canon Inc Imaging apparatus
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera
JP2013238716A (en) * 2012-05-15 2013-11-28 Dainippon Printing Co Ltd Method for synthesizing multi-visual point image information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295250A (en) * 2005-04-05 2006-10-26 Canon Inc Image processor, image processing method, storage medium and program
JP2010068018A (en) * 2008-09-08 2010-03-25 Sony Corp Image processing apparatus, imaging device and display device
JP2010091669A (en) * 2008-10-06 2010-04-22 Canon Inc Imaging device
JP2013066058A (en) * 2011-09-16 2013-04-11 Canon Inc Image processing device, image processing method, and program
JP2013080093A (en) * 2011-10-04 2013-05-02 Canon Inc Imaging apparatus
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera
JP2013238716A (en) * 2012-05-15 2013-11-28 Dainippon Printing Co Ltd Method for synthesizing multi-visual point image information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019511026A (en) * 2016-01-11 2019-04-18 トムソン ライセンシングThomson Licensing Consistent editing of light field data

Similar Documents

Publication Publication Date Title
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
JP2013201752A5 (en)
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
US10587860B2 (en) Imaging apparatus and method for controlling same
TW201200959A (en) One-eyed stereo photographic device
JP2014153890A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP2010068182A (en) Three-dimensional imaging device, method, and program
JP6323022B2 (en) Image processing device
JP2011035643A (en) Multiple eye photography method and apparatus, and program
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
US9369698B2 (en) Imaging apparatus and method for controlling same
JP6780748B2 (en) Image processing device and image processing program
JP6502640B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP2015139019A (en) Device and program for image composition
JP2015139018A (en) Electronic apparatus and control program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2014137704A (en) Imaging device
JP2019041401A (en) Image combining device and image combining program
JP5825932B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2012124650A (en) Imaging apparatus, and imaging method
JP2005229280A (en) Image processing apparatus and method, and program
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US20130120374A1 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181225