JP2017097653A - Image processing device, image editing device, and information sharing system - Google Patents

Image processing device, image editing device, and information sharing system Download PDF

Info

Publication number
JP2017097653A
JP2017097653A JP2015229842A JP2015229842A JP2017097653A JP 2017097653 A JP2017097653 A JP 2017097653A JP 2015229842 A JP2015229842 A JP 2015229842A JP 2015229842 A JP2015229842 A JP 2015229842A JP 2017097653 A JP2017097653 A JP 2017097653A
Authority
JP
Japan
Prior art keywords
image
information
user
identification information
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015229842A
Other languages
Japanese (ja)
Inventor
智和 森
Tomokazu Mori
智和 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015229842A priority Critical patent/JP2017097653A/en
Publication of JP2017097653A publication Critical patent/JP2017097653A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a specified person to visually recognize a subject, while preventing the subject included in LF image data from being visually recognized by many and unspecified number of persons.SOLUTION: An image processing device 200 includes an image acquisition part 252 which acquires a light-field image capable of changing a focus position which is a position in a depth direction brought into focus, after photographing, an information acquisition part 253 which acquires the first identification information of a first user corresponding to at least a partial area included in the light-field image and acquires second identification information corresponding to a second user browsing the light-field image, and a display control part 255 which outputs re-focus image data in which the focus position is set in the position different from the position in the depth direction of the subject included in a partial area on the basis of the relationship between the first identification information and the second identification information.SELECTED DRAWING: Figure 10

Description

本発明は、画像処理装置、画像編集装置及び情報共有システムに関するものである。   The present invention relates to an image processing apparatus, an image editing apparatus, and an information sharing system.

近年、ライトフィールド(以下、「LF」と略記する)カメラと呼ばれる撮像装置が実用化されている。この撮像装置は、イメージセンサ上にマイクロレンズアレイが配置され、撮像装置に入射した光をマイクロレンズによって分割することにより、複数の方向から到来する光線の強度を示す光線情報及び入射方向を示す方向情報を含むLF画像データを生成する。特許文献1には、LF画像データにおいて選択された被写体を視認しにくくするための情報である制限情報をLF画像データに関連付けて記録し、LF画像データに基づく画像を表示する際に、選択された被写体をぼかして表示する方法が開示されている。   In recent years, an imaging device called a light field (hereinafter abbreviated as “LF”) camera has been put into practical use. In this imaging device, a microlens array is arranged on the image sensor, and light incident on the imaging device is divided by the microlens, thereby to provide light information indicating the intensity of light coming from a plurality of directions and a direction indicating the incident direction. LF image data including information is generated. In Patent Document 1, restriction information, which is information for making it difficult to visually recognize a subject selected in LF image data, is recorded in association with LF image data, and is selected when displaying an image based on LF image data. A method for displaying a blurred subject is disclosed.

特開2015−84517号公報Japanese Patent Laying-Open No. 2015-84517

近年、SNS(Social Network Service)等のサービスを利用して、不特定多数の人が写真を閲覧できるようになってきている。LF画像データをSNSのサーバにアップロードしたユーザが、制限情報が付されたLF画像データを公開する場合、従来の方法を用いると、選択された被写体が常にぼけた状態で表示されてしまう。したがって、LF画像データをアップロードしたユーザが被写体を見て欲しいと考えている特定の人(例えば、親しい友人)がLF画像データに基づく画像を閲覧する場合にも、被写体がぼけた状態で表示されてしまうという問題があった。   In recent years, it has become possible for an unspecified number of people to browse photos using services such as SNS (Social Network Service). When the user who uploaded the LF image data to the SNS server publishes the LF image data to which the restriction information is added, if the conventional method is used, the selected subject is always displayed in a blurred state. Therefore, even when a specific person (for example, a close friend) who wants to view the subject by the user who uploaded the LF image data browses an image based on the LF image data, the subject is displayed in a blurred state. There was a problem that.

そこで、本発明は上述した点に鑑みてなされたものであり、LF画像データに含まれる被写体が不特定多数の人に視認されることを防ぎつつ、特定の人が被写体を視認できるようにすることを目的とする。   Therefore, the present invention has been made in view of the above points, and allows a specific person to visually recognize a subject while preventing the subject included in the LF image data from being viewed by an unspecified number of people. For the purpose.

上記の課題を解決するために、本発明の第1の態様の画像処理装置は、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像を取得する画像取得手段と、前記ライトフィールド画像に含まれる少なくとも一部の領域に対応する第1ユーザの第1識別情報を取得するとともに、前記ライトフィールド画像を閲覧する第2ユーザに対応する第2識別情報を取得する情報取得手段と、前記第1識別情報と前記第2識別情報との関係性に基づいて前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを出力する出力手段と、を有することを特徴とする。   In order to solve the above-described problem, the image processing apparatus according to the first aspect of the present invention includes an image acquisition unit that acquires a light field image that can be changed after photographing a focus position that is a position in the depth direction in focus. Information for acquiring first identification information of a first user corresponding to at least a part of a region included in the light field image and acquiring second identification information corresponding to a second user browsing the light field image Refocus in which the focus position is set at a position different from the position in the depth direction of the subject included in the partial area based on the relationship between the acquisition means and the first identification information and the second identification information Output means for outputting image data.

本発明の画像編集装置は、ユーザから、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像の取得指示を受け付けたことに応じて、前記ライトフィールド画像を取得する画像取得手段と、前記ユーザに対応するユーザ識別情報を取得する情報取得手段と、前記ライトフィールド画像に含まれる少なくとも一部の領域に関連付けて、前記ユーザに対応するユーザ識別情報を含み、前記一部の領域に含まれる被写体に前記フォーカス位置が設定されることを制限する制限情報を生成する生成手段と、前記生成手段により生成された前記制限情報が付与された前記ライトフィールド画像を出力する出力手段と、を有することを特徴とする。   The image editing apparatus of the present invention acquires the light field image in response to receiving an instruction to acquire a light field image that can be changed after shooting the focus position, which is a position in the depth direction in focus. Image acquisition means, information acquisition means for acquiring user identification information corresponding to the user, user identification information corresponding to the user in association with at least a part of the area included in the light field image, Generating means for generating restriction information for restricting setting of the focus position to the subject included in the area of the part, and output for outputting the light field image to which the restriction information generated by the generating means is added And means.

本発明の情報共有システムは、第1ユーザが使用する第1ユーザ端末と、第2ユーザが使用する第2ユーザ端末と、画像処理装置とを備える情報共有システムであって、前記画像処理装置は、前記第1ユーザ端末の指示に応じて、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像を取得する画像取得手段と、前記ライトフィールド画像に含まれる少なくとも一部の領域に対応する第1識別情報を取得するとともに、前記第2ユーザに対応する第2識別情報を取得する情報取得手段と、前記第1識別情報と前記第2識別情報との関係性に基づいて前記一部に含まれる被写体の領域の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを前記第2ユーザ端末に出力する出力手段とを有し、前記第2ユーザ端末は、前記画像処理装置から取得した前記リフォーカス画像データを表示部に表示させる表示制御手段を有することを特徴とする。   An information sharing system according to the present invention is an information sharing system including a first user terminal used by a first user, a second user terminal used by a second user, and an image processing device. An image acquisition means for acquiring a light field image that can be changed after photographing the focus position, which is a position in the depth direction in focus, in accordance with an instruction from the first user terminal; and at least one included in the light field image Information acquisition means for acquiring first identification information corresponding to a region of a section and acquiring second identification information corresponding to the second user; and a relationship between the first identification information and the second identification information. Based on this, the refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject area included in the part is the second unit. And an output means for outputting to The terminal, the second user terminal is characterized by comprising a display control means for displaying the refocused image data acquired from the image processing apparatus on the display unit.

本発明によれば、LF画像データに含まれる被写体が不特定多数の人に視認されることを防ぎつつ、特定の人が被写体を視認できるようにすることができるという効果を奏する。   According to the present invention, there is an effect that a specific person can visually recognize a subject while preventing the subject included in the LF image data from being visually recognized by an unspecified number of people.

LFカメラとしての撮像装置10の構成の模式図である。It is a schematic diagram of a structure of the imaging device 10 as LF camera. マイクロレンズアレイ12とイメージセンサ13の各画素との位置関係を示す模式図である。3 is a schematic diagram showing a positional relationship between a microlens array 12 and each pixel of an image sensor 13. FIG. マイクロレンズアレイ12のマイクロレンズへの入射光線の進行方向と、イメージセンサ13の記録領域との関係を説明するための模式図である。FIG. 6 is a schematic diagram for explaining the relationship between the traveling direction of incident light rays to the microlenses of the microlens array and the recording area of the image sensor 13; イメージセンサ13に入射する光線の情報について説明するための模式図である。It is a schematic diagram for demonstrating the information of the light ray which injects into the image sensor. リフォーカス演算処理を説明するための模式図である。It is a schematic diagram for demonstrating a refocus calculation process. マイクロレンズへの入射角の違いと、イメージセンサ13の記録領域との関係を説明する模式図である。6 is a schematic diagram for explaining a relationship between a difference in incident angle to a microlens and a recording area of the image sensor 13; 被写界深度の調整処理を説明するための模式図である。It is a schematic diagram for demonstrating the adjustment process of a depth of field. 第1の実施形態に係る情報共有システム1の構成を示す図である。It is a figure showing composition of information sharing system 1 concerning a 1st embodiment. 第1の実施形態に係る画像編集装置100の構成を示す図である。1 is a diagram illustrating a configuration of an image editing apparatus 100 according to a first embodiment. 第1の実施形態に係る画像処理装置200の構成を示す図である。It is a figure which shows the structure of the image processing apparatus 200 which concerns on 1st Embodiment. 第1の実施形態に係る画像編集装置100の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of the image editing apparatus 100 according to the first embodiment. 第1の実施形態に係る画像処理装置200の動作手順を示すフローチャートである。4 is a flowchart illustrating an operation procedure of the image processing apparatus 200 according to the first embodiment. 画像処理装置200において再生される画像の例を示す図である。3 is a diagram illustrating an example of an image reproduced in the image processing apparatus 200. FIG. 第2の実施形態に係る情報共有システム1の構成を示す図である。It is a figure which shows the structure of the information sharing system 1 which concerns on 2nd Embodiment. 第2の実施形態に係るサーバ400の構成を示す図である。It is a figure which shows the structure of the server 400 which concerns on 2nd Embodiment. 第2の実施形態に係るサーバ400及びユーザ端末500のLF画像データのアップロード時の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure at the time of the upload of LF image data of the server 400 and user terminal 500 which concern on 2nd Embodiment. 第2の実施形態に係るサーバ400及びユーザ端末500のLF画像の表示時の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure at the time of the display of the LF image of the server 400 and user terminal 500 which concern on 2nd Embodiment. 第3の実施形態に係るサーバ400及びユーザ端末500のLF画像データへのフォーカス制限情報の一括付与に係る動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure which concerns on the batch provision of the focus restriction information to LF image data of the server 400 and user terminal 500 which concern on 3rd Embodiment.

[LFカメラの概要]
本実施形態に係る画像処理装置の説明に先立ち、LFカメラの概要について説明する。
図1は、LFカメラとしての撮像装置10の構成の模式図である。撮像装置10は、撮像レンズ11と、マイクロレンズアレイ12と、イメージセンサ13とを有する。被写体からの光は、撮像光学系を構成する撮像レンズ11及びマイクロレンズアレイ12を通過した後に、イメージセンサ13に入射する。イメージセンサ13は、入射した光を電気信号に変換して、変換後の電気信号を出力する。撮像装置10は、イメージセンサ13が出力する電気信号に基づいて、フォーカスが合った奥行き方向の位置であるフォーカス位置を変更可能なLF画像データを生成する。
[Outline of LF camera]
Prior to the description of the image processing apparatus according to the present embodiment, an outline of the LF camera will be described.
FIG. 1 is a schematic diagram of a configuration of an imaging device 10 as an LF camera. The imaging device 10 includes an imaging lens 11, a microlens array 12, and an image sensor 13. The light from the subject enters the image sensor 13 after passing through the imaging lens 11 and the microlens array 12 constituting the imaging optical system. The image sensor 13 converts the incident light into an electric signal and outputs the converted electric signal. The imaging device 10 generates LF image data that can change the focus position, which is the position in the depth direction in focus, based on the electrical signal output from the image sensor 13.

撮像レンズ11は、被写体からの光をマイクロレンズアレイ12に投射する。撮像レンズ11は、撮像装置10の本体部に装着して使用される、交換可能なレンズである。撮像装置10のユーザは、撮像レンズ11のズーム操作により撮像倍率を変更することができる。   The imaging lens 11 projects light from the subject onto the microlens array 12. The imaging lens 11 is a replaceable lens that is used by being attached to the main body of the imaging device 10. The user of the imaging device 10 can change the imaging magnification by a zoom operation of the imaging lens 11.

マイクロレンズアレイ12は、格子状に配列された複数の微小レンズ(マイクロレンズ)を有しており、撮像レンズ11とイメージセンサ13の間に位置する。マイクロレンズアレイ12が有する各マイクロレンズは、撮像レンズ11からの入射光を分割し、分割後の複数の光をイメージセンサ13の複数の画素に入射する。   The microlens array 12 has a plurality of minute lenses (microlenses) arranged in a lattice pattern, and is located between the imaging lens 11 and the image sensor 13. Each microlens included in the microlens array 12 divides the incident light from the imaging lens 11 and makes the plurality of divided light incident on the plurality of pixels of the image sensor 13.

イメージセンサ13は、複数の画素を有する撮像素子であり、各画素において光の強度を検出する。被写体からの光を受光するイメージセンサ13の各画素には、各画素に対応するマイクロレンズによって分割された、夫々異なる方向の光が入射する。   The image sensor 13 is an image sensor having a plurality of pixels, and detects the intensity of light at each pixel. Light in different directions divided by the microlens corresponding to each pixel is incident on each pixel of the image sensor 13 that receives light from the subject.

図2は、マイクロレンズアレイ12とイメージセンサ13の各画素との位置関係を示す模式図である。マイクロレンズアレイ12の各マイクロレンズは、イメージセンサ13における複数の画素に対応するように配置される。イメージセンサ13の各画素には、各画素に対応するマイクロレンズが分割した光が入射し、イメージセンサ13は、画素ごとに異なる方向からの光の強度を検出する。撮像装置10は、イメージセンサ13の各画素において検出された光の強度を示す光線情報を生成する。   FIG. 2 is a schematic diagram showing the positional relationship between the microlens array 12 and each pixel of the image sensor 13. Each microlens of the microlens array 12 is arranged so as to correspond to a plurality of pixels in the image sensor 13. Light divided by the microlens corresponding to each pixel is incident on each pixel of the image sensor 13, and the image sensor 13 detects the intensity of light from a different direction for each pixel. The imaging device 10 generates light ray information indicating the intensity of light detected at each pixel of the image sensor 13.

マイクロレンズを介してイメージセンサ13の各画素に入射した光線の入射方向は、各マイクロレンズに対応する複数の画素の配置によって決まる。したがって、入射方向は、各マイクロレンズとイメージセンサ13の各画素との位置関係に応じて特定され、撮像装置10は、特定した入射方向を示す方向情報として、例えば、画素を特定するための座標情報を生成する。   The incident direction of the light beam incident on each pixel of the image sensor 13 through the microlens is determined by the arrangement of a plurality of pixels corresponding to each microlens. Therefore, the incident direction is specified according to the positional relationship between each microlens and each pixel of the image sensor 13, and the imaging apparatus 10 uses, for example, coordinates for specifying the pixel as direction information indicating the specified incident direction. Generate information.

被写体からの光は、被写体と撮像レンズ11との間の距離に応じて定まる方向でマイクロレンズアレイ12に入射する。そして、被写体からの光は、被写体と撮像レンズ11との間の距離に応じて定まる複数のマイクロレンズを通過して、イメージセンサ13に入射する。その結果、マイクロレンズアレイ12のレンズ頂点面からの距離が異なる面にフォーカスが合った像は、各マイクロレンズの光軸からの偏心量に対応した位置にあるイメージセンサ13の複数の画素の各出力を合成することで得られる。したがって、撮像装置10は、光線情報と方向情報に基づいて光線の並べ替えと計算処理(以下、再構築という)を行うことにより、任意のフォーカス位置に対応する画像データを生成できる。ここで、フォーカス位置は、フォーカスが合った位置であり、ユーザは、撮影後に、LF画像データに基づいて、所望のフォーカス位置に対応するリフォーカス画像データを得ることができる。   Light from the subject enters the microlens array 12 in a direction determined according to the distance between the subject and the imaging lens 11. The light from the subject passes through a plurality of microlenses determined according to the distance between the subject and the imaging lens 11 and enters the image sensor 13. As a result, the image focused on the surfaces having different distances from the lens apex surface of the microlens array 12 is each of the plurality of pixels of the image sensor 13 at the position corresponding to the amount of eccentricity from the optical axis of each microlens. It is obtained by combining the output. Therefore, the imaging apparatus 10 can generate image data corresponding to an arbitrary focus position by performing light beam rearrangement and calculation processing (hereinafter referred to as reconstruction) based on the light beam information and the direction information. Here, the focus position is an in-focus position, and the user can obtain refocus image data corresponding to a desired focus position based on the LF image data after shooting.

図3は、マイクロレンズアレイ12のマイクロレンズへの入射光線の進行方向と、イメージセンサ13の記録領域との関係を説明するための模式図である。
撮像レンズ11による被写体の像は、マイクロレンズアレイ12上に結像し、マイクロレンズアレイ12への入射光線はマイクロレンズアレイ12を介してイメージセンサ13で受光される。このとき、図3に示すように、マイクロレンズアレイ12への入射光線は、フォーカス位置ごとに定まる進行方向に応じてイメージセンサ13上の異なる位置で受光され、被写体の像がマイクロレンズごとに結像する。
FIG. 3 is a schematic diagram for explaining the relationship between the traveling direction of incident light to the microlenses of the microlens array 12 and the recording area of the image sensor 13.
An image of the subject by the imaging lens 11 is formed on the microlens array 12, and incident light on the microlens array 12 is received by the image sensor 13 via the microlens array 12. At this time, as shown in FIG. 3, the incident light beam to the microlens array 12 is received at different positions on the image sensor 13 according to the traveling direction determined for each focus position, and the image of the subject is formed for each microlens. Image.

図4は、イメージセンサ13に入射する光線の情報について説明するための模式図である。
イメージセンサ13で受光される光線について図4を用いて説明する。ここで、撮像レンズ11のレンズ面上における直交座標系を(u,v)とし、イメージセンサ13の撮像面上における直交座標系(x,y)とする。さらに、撮像レンズ11のレンズ面とイメージセンサ13の撮像面との距離をFとする。この場合、撮像レンズ11およびイメージセンサ13を通る光線の強度は、図中で示す4次元関数L(u,v,x,y)で表すことができる。各マイクロレンズに入射する光線は、進行方向に応じて異なる画素に入射されることから、イメージセンサ13では、光線の位置情報に加えて、光線の進行方向を保持する上記の4次元関数L(u,v,x,y)で表される光線の強度に対応する情報が記録される。
FIG. 4 is a schematic diagram for explaining information on light rays incident on the image sensor 13.
The light rays received by the image sensor 13 will be described with reference to FIG. Here, an orthogonal coordinate system on the lens surface of the imaging lens 11 is (u, v), and an orthogonal coordinate system (x, y) on the imaging surface of the image sensor 13 is used. Further, let F be the distance between the lens surface of the imaging lens 11 and the imaging surface of the image sensor 13. In this case, the intensity of the light beam passing through the imaging lens 11 and the image sensor 13 can be expressed by a four-dimensional function L (u, v, x, y) shown in the drawing. Since the light beam incident on each microlens is incident on a different pixel according to the traveling direction, the image sensor 13 uses the above four-dimensional function L (which holds the traveling direction of the light beam in addition to the positional information of the light beam). Information corresponding to the light intensity represented by u, v, x, y) is recorded.

次に、撮像後のリフォーカス演算処理について説明する。リフォーカス演算処理は、異なるフォーカス位置に対応する画素で受光した光の強度に基づいて、画像を再構築することによりリフォーカス画像データを生成する処理である。本明細書において、リフォーカス画像においてフォーカスが合っている位置の面を、リフォーカス面という。   Next, refocus calculation processing after imaging will be described. The refocus calculation process is a process for generating refocus image data by reconstructing an image based on the intensity of light received by pixels corresponding to different focus positions. In this specification, a surface at a position in focus in a refocus image is referred to as a refocus surface.

図5は、リフォーカス演算処理を説明するための模式図である。
図5に示すように、撮像レンズ面、撮像面、リフォーカス面の位置関係を設定した場合、リフォーカス面上の直交座標系(s,t)における光線の強度L'(u,v,s,t)は、以下の(1)式のように表される。
また、リフォーカス面で得られるイメージE'(s,t)は、上記強度L'(u,v,s,t)をレンズ口径に関して積分したものとなるので、以下の(2)式のように表される。
したがって、この(2)式に基づいてリフォーカス演算処理を行うことで、任意のフォーカス位置におけるリフォーカス面に対応する画像データを再構築することができる。
FIG. 5 is a schematic diagram for explaining the refocus calculation process.
As shown in FIG. 5, when the positional relationship between the imaging lens surface, the imaging surface, and the refocus plane is set, the light intensity L ′ (u, v, s) in the orthogonal coordinate system (s, t) on the refocus plane. , T) is expressed as the following equation (1).
Further, the image E ′ (s, t) obtained on the refocus plane is obtained by integrating the intensity L ′ (u, v, s, t) with respect to the lens diameter, and is expressed by the following equation (2). It is expressed in
Therefore, image data corresponding to the refocus plane at an arbitrary focus position can be reconstructed by performing the refocus calculation process based on the equation (2).

続いて、撮像後の被写界深度の調整処理、すなわち奥行き方向のフォーカス位置の調整処理について説明する。被写界深度を調整する場合、上記のリフォーカス演算処理の前に、各マイクロレンズに割り当てられた画像領域を形成する画像データごとに重み係数を乗じて重み付けを行う。例えば、被写界深度の深い画像を生成する場合には、イメージセンサ13の受光面に対して相対的に小さな角度で入射する光線の情報のみを用いて積分処理を行う。言い換えると、イメージセンサ13への入射角が相対的に大きい光線に関しては、重み係数0(ゼロ)を乗じることにより積分処理に含めない。   Next, the adjustment process of the depth of field after imaging, that is, the adjustment process of the focus position in the depth direction will be described. When adjusting the depth of field, weighting is performed by multiplying each image data forming the image area assigned to each microlens by a weighting factor before the above refocusing calculation processing. For example, when generating an image having a deep depth of field, the integration process is performed using only information on light rays incident at a relatively small angle with respect to the light receiving surface of the image sensor 13. In other words, light rays having a relatively large incident angle to the image sensor 13 are not included in the integration process by multiplying by a weighting factor of 0 (zero).

図6は、マイクロレンズへの入射角の違いと、イメージセンサ13の記録領域との関係を説明する模式図であり、図7は、被写界深度の調整処理を説明するための模式図である。
図6に示すように、イメージセンサ13への入射角が相対的に小さい光線は、より中央の領域に位置することになる。したがって、被写界深度の深い画像を生成する場合には、図7に示すように、領域の中央部(図中の斜線部)で取得された画素データのみを用いて積分処理が行われる。
FIG. 6 is a schematic diagram for explaining the relationship between the difference in the incident angle to the microlens and the recording area of the image sensor 13, and FIG. 7 is a schematic diagram for explaining the depth-of-field adjustment process. is there.
As shown in FIG. 6, the light beam having a relatively small incident angle to the image sensor 13 is located in a more central region. Therefore, when generating an image with a deep depth of field, as shown in FIG. 7, integration processing is performed using only pixel data acquired at the center of the region (shaded portion in the figure).

このような処理を行うことで、撮像装置10は、一般的な撮像装置などに具備される開口絞りをあたかも絞ったかのように、被写界深度の深い画像を表現することができる。撮像装置10は、使用する中央部の画素データを更に少なくすることで、被写界深度のより深いパンフォーカス画像データの生成も可能となる。また、撮像装置10は、LF画像データの領域ごとに、使用する画素データの位置を変えることにより、領域ごとに異なる被写界深度に調整することもできる。以上のように、撮像装置10は、LF画像データに含まれる各画素の重み係数を含むフォーカス情報、並びに光線情報及び方向情報に基づいて、撮影後に画像の被写界深度を調整し、所望のフォーカス位置に設定することができる。
以下、LF画像データを処理する画像処理装置及び画像処理方法の実施形態について説明する。
By performing such processing, the imaging apparatus 10 can express an image with a deep depth of field as if the aperture stop provided in a general imaging apparatus or the like is limited. The imaging apparatus 10 can also generate pan-focus image data with a deeper depth of field by further reducing the pixel data in the central portion to be used. The imaging device 10 can also adjust the depth of field to be different for each region by changing the position of the pixel data to be used for each region of the LF image data. As described above, the imaging device 10 adjusts the depth of field of the image after shooting based on the focus information including the weighting coefficient of each pixel included in the LF image data, the light ray information, and the direction information, and performs a desired operation. The focus position can be set.
Hereinafter, embodiments of an image processing apparatus and an image processing method for processing LF image data will be described.

<第1の実施形態>
[情報共有システム1の構成]
図8は、第1の実施形態に係る情報共有システム1の構成を示す図である。情報共有システム1は、例えばSNSであり、画像編集装置100と、画像処理装置200と、データベース300とを含んで構成されている。
<First Embodiment>
[Configuration of Information Sharing System 1]
FIG. 8 is a diagram illustrating a configuration of the information sharing system 1 according to the first embodiment. The information sharing system 1 is, for example, an SNS, and includes an image editing device 100, an image processing device 200, and a database 300.

画像編集装置100は、例えば、第1ユーザが使用するスマートフォン等のユーザ端末であり、インターネット及び携帯電話網等の通信回線を介して接続されたクラウド上のデータベース300に、自身に記憶されているLF画像データをアップロードする。LF画像データには、各画素の画素値、デフォルトのフォーカス位置に対応するデフォルトフォーカス情報が含まれている。デフォルトフォーカス情報は、例えば、デフォルトのフォーカス位置に設定されたリフォーカス画像データを再構築する際に用いられる、LF画像を構成する各画素の重み係数である。画像編集装置100は、LF画像に含まれる少なくとも一部の領域に含まれる被写体の奥行き方向の位置にフォーカス位置が設定されることを制限するフォーカス制限情報をLF画像データに付与してデータベース300に格納することができる。   The image editing apparatus 100 is, for example, a user terminal such as a smartphone used by the first user, and is stored in the database 300 on the cloud connected via a communication line such as the Internet and a mobile phone network. Upload LF image data. The LF image data includes pixel value of each pixel and default focus information corresponding to the default focus position. The default focus information is, for example, a weighting factor for each pixel constituting the LF image used when refocusing image data set at the default focus position is reconstructed. The image editing apparatus 100 assigns to the database 300 focus restriction information that restricts setting of the focus position to the position in the depth direction of the subject included in at least a part of the region included in the LF image. Can be stored.

画像処理装置200は、例えば、第2ユーザが使用するスマートフォン等のユーザ端末であり、クラウド上のデータベース300に格納されたLF画像データを取得し、LF画像を表示する。取得されたLF画像データには、各画素の画素値、デフォルトフォーカス情報、及びフォーカス制限情報が含まれている。画像処理装置200は、第2ユーザからの要求に応じて選択されたLF画像データを再構築することにより生成されたリフォーカス画像を表示することができる。リフォーカス画像に対応するリフォーカス画像データには、デフォルトフォーカス情報が示すデフォルトのフォーカス位置から他の位置にフォーカス位置を変更した後の、各画素の重み係数を示すフォーカス情報が含まれている。   The image processing apparatus 200 is a user terminal such as a smartphone used by the second user, for example, acquires LF image data stored in the database 300 on the cloud, and displays an LF image. The acquired LF image data includes a pixel value of each pixel, default focus information, and focus restriction information. The image processing apparatus 200 can display a refocus image generated by reconstructing LF image data selected in response to a request from the second user. The refocus image data corresponding to the refocus image includes focus information indicating the weight coefficient of each pixel after the focus position is changed from the default focus position indicated by the default focus information to another position.

画像処理装置200は、LF画像データに含まれているフォーカス制限情報に基づいて、LF画像に含まれる少なくとも一部の領域のフォーカス位置が、当該一部の領域に含まれる被写体の奥行き方向の位置に設定されることを制限する。このようにすることで、画像処理装置200は、例えば、画像編集装置100を用いてLF画像をアップロードした第1ユーザの顔画像を含むLF画像を、第1ユーザとは関係のない第2ユーザが閲覧する場合に、第1ユーザの顔画像にフォーカスが合うことを制限して、第1ユーザのプライバシーを確保することが可能になる。
以下、画像編集装置100及び画像処理装置200の構成の詳細について説明する。
Based on the focus restriction information included in the LF image data, the image processing apparatus 200 determines that the focus position of at least a part of the region included in the LF image is the position in the depth direction of the subject included in the part of the region. To be set to By doing in this way, the image processing apparatus 200, for example, the LF image including the face image of the first user who uploaded the LF image using the image editing apparatus 100, the second user who is not related to the first user. When the user browses, it is possible to restrict the focus on the face image of the first user and to ensure the privacy of the first user.
Details of the configurations of the image editing apparatus 100 and the image processing apparatus 200 will be described below.

[画像編集装置100の構成]
図9は、第1の実施形態に係る画像編集装置100の構成を示す図である。画像編集装置100は、例えば第1ユーザが撮影したLF画像データを記憶している。画像編集装置100は、第1ユーザからの要求に応じてLF画像データを読み出し、読み出したLF画像データにフォーカス制限情報を付与してデータベース300に格納する。
[Configuration of Image Editing Device 100]
FIG. 9 is a diagram illustrating a configuration of the image editing apparatus 100 according to the first embodiment. The image editing apparatus 100 stores, for example, LF image data captured by the first user. The image editing apparatus 100 reads LF image data in response to a request from the first user, adds focus restriction information to the read LF image data, and stores it in the database 300.

画像編集装置100は、通信部110と、操作部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、データベース300との間でLF画像データ及び各種情報を送受信するための通信インターフェイスである。
The image editing apparatus 100 includes a communication unit 110, an operation unit 120, a display unit 130, a storage unit 140, and a control unit 150.
The communication unit 110 is a communication interface for transmitting and receiving LF image data and various information to and from the database 300.

操作部120は、第1ユーザが、第1ユーザのユーザ識別情報(以下、第1識別情報という)を入力したり、データベース300に送信するLF画像データを指定するための情報を入力したりするためのユーザインターフェイスであり、例えば、表示部130に重ねて設けられたタッチパネルである。第1識別情報は、例えばSNSのユーザIDのように、ユーザ端末としての画像編集装置100を操作している第1ユーザを識別するための情報である。第1ユーザは、SNSにログインする際に第1識別情報を入力することにより、LF画像データをデータベース300にアップロードすることができるようになる。   In the operation unit 120, the first user inputs user identification information (hereinafter referred to as first identification information) of the first user, or inputs information for designating LF image data to be transmitted to the database 300. For example, a touch panel provided on the display unit 130 in an overlapping manner. The first identification information is information for identifying the first user who is operating the image editing apparatus 100 as a user terminal, such as a user ID of SNS. The first user can upload the LF image data to the database 300 by inputting the first identification information when logging in to the SNS.

表示部130は、データベース300にアップロードするLF画像データや、LF画像データをアップロードするための操作画面を表示するためのディスプレイである。
記憶部140は、不揮発性メモリ(例えばROM)を含んでおり、制御部150が実行する画像編集用プログラムを記憶している。記憶部140は、揮発性メモリ(例えばRAM)を含んでおり、制御部150が画像編集用プログラムを実行することにより生成される各種データを一時的に記憶する。また、記憶部140は、複数のLF画像データを記憶する。
The display unit 130 is a display for displaying LF image data uploaded to the database 300 and an operation screen for uploading LF image data.
The storage unit 140 includes a non-volatile memory (eg, ROM), and stores an image editing program executed by the control unit 150. The storage unit 140 includes a volatile memory (for example, a RAM), and temporarily stores various data generated when the control unit 150 executes the image editing program. The storage unit 140 stores a plurality of LF image data.

制御部150は、例えばCPUであり、記憶部140に記憶された画像編集用プログラムを実行することにより、画像編集装置100の各部を制御する。制御部150は、画像取得部151、情報取得部152、フォーカス制限情報生成部153、及び画像出力部154として機能する。以下、制御部150により提供される各機能部の構成について説明する。   The control unit 150 is, for example, a CPU, and controls each unit of the image editing apparatus 100 by executing an image editing program stored in the storage unit 140. The control unit 150 functions as an image acquisition unit 151, an information acquisition unit 152, a focus restriction information generation unit 153, and an image output unit 154. Hereinafter, the configuration of each functional unit provided by the control unit 150 will be described.

画像取得部151は、操作部120を介して、データベース300にアップロードする対象のLF画像データの取得指示としてのアップロード指示を第1ユーザから受け付けたことに応じて、当該LF画像データを記憶部140から取得する。画像取得部151は、記憶部140に記憶されている複数のLF画像データの中から、第1ユーザが選択したLF画像データを取得する。画像取得部151は、取得したLF画像データをフォーカス制限情報生成部153に出力する。   In response to receiving an upload instruction from the first user as an instruction to acquire LF image data to be uploaded to the database 300 via the operation unit 120, the image acquisition unit 151 stores the LF image data in the storage unit 140. Get from. The image acquisition unit 151 acquires LF image data selected by the first user from the plurality of LF image data stored in the storage unit 140. The image acquisition unit 151 outputs the acquired LF image data to the focus restriction information generation unit 153.

情報取得部152は、記憶部140に記憶されている第1識別情報を取得する。情報取得部152は、取得した第1識別情報をフォーカス制限情報生成部153に出力する。なお、情報取得部152は、第1識別情報が記憶部140に記憶されていない場合、操作部120から入力された第1識別情報を取得してもよい。   The information acquisition unit 152 acquires first identification information stored in the storage unit 140. The information acquisition unit 152 outputs the acquired first identification information to the focus restriction information generation unit 153. Note that the information acquisition unit 152 may acquire the first identification information input from the operation unit 120 when the first identification information is not stored in the storage unit 140.

情報取得部152は、データベース300から、第1識別情報に対応する第1ユーザのユーザプロファイル情報を取得する。ユーザプロファイル情報には、LF画像に含まれる一部の領域の特定に用いられる領域特定情報としての、第1ユーザの顔画像情報が含まれている。情報取得部152は、第1ユーザの顔画像情報をユーザプロファイル情報から取得する。情報取得部152は、抽出した顔画像情報をフォーカス制限情報生成部153に出力する。なお、ユーザプロファイル情報が記憶部140に記憶されている場合、情報取得部152は、ユーザプロファイル情報を記憶部140から取得してもよい。   The information acquisition unit 152 acquires user profile information of the first user corresponding to the first identification information from the database 300. The user profile information includes face image information of the first user as area specifying information used for specifying some areas included in the LF image. The information acquisition unit 152 acquires the first user's face image information from the user profile information. The information acquisition unit 152 outputs the extracted face image information to the focus restriction information generation unit 153. When user profile information is stored in the storage unit 140, the information acquisition unit 152 may acquire user profile information from the storage unit 140.

フォーカス制限情報生成部153は、情報取得部152が顔画像情報を取得すると、LF画像に含まれる少なくとも一部の領域に関連付けて、当該一部の領域にフォーカス位置が設定されることを制限するフォーカス制限情報を生成する。フォーカス制限情報生成部153は、LF画像に、取得された顔画像情報に対応する被写体が含まれている場合に、当該被写体を含む領域に対応するフォーカス制限情報を生成する。   When the information acquisition unit 152 acquires the face image information, the focus restriction information generation unit 153 restricts the focus position from being set in the partial area in association with at least the partial area included in the LF image. Generate focus restriction information. When the LF image includes a subject corresponding to the acquired face image information, the focus restriction information generation unit 153 generates focus restriction information corresponding to a region including the subject.

フォーカス制限情報生成部153は、例えば、LF画像データにおいて、フォーカス位置の設定に制限をかける領域として、顔画像情報に対応する第1ユーザの顔画像を含む矩形領域を特定し、当該矩形領域を構成する各頂点の座標を特定する。そして、フォーカス制限情報生成部153は、第1ユーザを識別する第1識別情報と、矩形領域を構成する各頂点の座標とを含むフォーカス制限情報を生成する。このようにすることで、画像編集装置100は、LF画像に第1ユーザの顔画像が含まれている場合、当該顔画像に対応する領域にフォーカス制限をかけることができる。   For example, in the LF image data, the focus restriction information generation unit 153 specifies a rectangular area that includes the face image of the first user corresponding to the face image information as an area that restricts the setting of the focus position. Specify the coordinates of each vertex. Then, the focus restriction information generation unit 153 generates focus restriction information including first identification information for identifying the first user and coordinates of each vertex constituting the rectangular area. By doing in this way, the image editing apparatus 100 can apply the focus restriction to the area corresponding to the face image when the face image of the first user is included in the LF image.

なお、フォーカス制限情報生成部153は、複数の矩形領域を特定し、これらの矩形領域のそれぞれを構成する各頂点の座標を特定してもよい。そして、フォーカス制限情報生成部153は、複数の矩形領域を構成する各頂点の座標を含むフォーカス制限情報を生成してもよい。また、フォーカス制限情報生成部153は、第1ユーザから、LF画像においてフォーカスを制限する領域の選択を受け付け、選択された領域に関連付けてフォーカス制限情報を生成してもよい。このようにすることで、画像編集装置100は、第1ユーザの自宅や家族等、第1ユーザのプライベートに関連する被写体や、第1ユーザが不特定多数の人に見られたくない被写体が写っている表示領域にもフォーカス制限をかけることができる。   Note that the focus restriction information generation unit 153 may specify a plurality of rectangular areas and may specify the coordinates of each vertex constituting each of these rectangular areas. Then, the focus restriction information generation unit 153 may generate focus restriction information including the coordinates of each vertex constituting a plurality of rectangular areas. In addition, the focus restriction information generation unit 153 may receive a selection of a region for restricting focus in the LF image from the first user and generate focus restriction information in association with the selected region. In this way, the image editing apparatus 100 captures subjects related to the privateness of the first user, such as the first user's home and family, and subjects that the first user does not want to be seen by an unspecified number of people. Focus restriction can be applied to the display area.

画像出力部154は、フォーカス制限情報生成部153により生成されたフォーカス制限情報が付与されたLF画像データを出力する。画像出力部154は、例えば、フォーカス制限情報生成部153により生成されたフォーカス制限情報が付与されたLF画像データをデータベース300に送信する。これにより、フォーカス制限情報が付与されたLF画像データがデータベース300にアップロードされる。なお、画像出力部154は、LF画像データのデフォルトフォーカス情報が、フォーカス制限がかかった領域にフォーカス位置が設定された状態に対応する重み係数を含んでいる場合に、デフォルトフォーカス情報内の重み係数を、フォーカス制限がかかった領域にフォーカス位置が設定されない状態に対応する重み係数に変更したLF画像データを出力してもよい。このようにすることで、LF画像データを取得した不特定多数の人が、フォーカス制限がかかった領域にフォーカスが合った画像を閲覧できないようにすることができる。   The image output unit 154 outputs the LF image data to which the focus restriction information generated by the focus restriction information generation unit 153 is added. For example, the image output unit 154 transmits the LF image data with the focus restriction information generated by the focus restriction information generation unit 153 to the database 300. Thereby, the LF image data to which the focus restriction information is added is uploaded to the database 300. Note that the image output unit 154, when the default focus information of the LF image data includes a weight coefficient corresponding to the state where the focus position is set in the area where the focus is restricted, the weight coefficient in the default focus information. LF image data that has been changed to a weighting factor corresponding to a state where the focus position is not set in the area where the focus is restricted may be output. In this way, it is possible to prevent an unspecified number of people who have acquired LF image data from browsing an image that is in focus in a region where focus is restricted.

[画像処理装置200の構成]
図10は、第1の実施形態に係る画像処理装置200の構成を示す図である。画像処理装置200は、第2ユーザからの要求に応じてデータベース300に格納されたLF画像データを読み出して、LF画像を表示する。また、画像処理装置200は、第2ユーザからの要求に応じて、表示されているLF画像のフォーカス位置を変更する。
[Configuration of Image Processing Device 200]
FIG. 10 is a diagram illustrating a configuration of the image processing apparatus 200 according to the first embodiment. The image processing apparatus 200 reads LF image data stored in the database 300 in response to a request from the second user, and displays an LF image. Further, the image processing apparatus 200 changes the focus position of the displayed LF image in response to a request from the second user.

画像処理装置200は、通信部210と、操作部220と、表示部230と、記憶部240と、制御部250とを有する。
通信部210は、データベース300との間でLF画像データ及び各種情報を送受信するための通信インターフェイスである。
操作部220は、第2ユーザが、第2ユーザのユーザ識別情報(以下、第2識別情報という)を入力したり、データベース300から取得するLF画像データを指定するための情報を入力したりするためのユーザインターフェイスであり、例えば、表示部230に重ねて設けられたタッチパネルである。第2ユーザは、SNSにログインする際に第2識別情報を入力することにより、データベース300に格納されているLF画像データにアクセスできるようになる。
The image processing apparatus 200 includes a communication unit 210, an operation unit 220, a display unit 230, a storage unit 240, and a control unit 250.
The communication unit 210 is a communication interface for transmitting / receiving LF image data and various types of information to / from the database 300.
In the operation unit 220, the second user inputs user identification information (hereinafter referred to as second identification information) of the second user, or inputs information for designating LF image data acquired from the database 300. For example, a touch panel provided on the display unit 230 in an overlapping manner. The second user can access the LF image data stored in the database 300 by inputting the second identification information when logging in to the SNS.

表示部230は、データベース300から取得したLF画像データ又はリフォーカス画像データに基づく画像を表示するためのディスプレイである。
記憶部240は、不揮発性メモリを含んでおり、制御部250が実行する画像処理用プログラムを記憶している。記憶部240は、揮発性メモリを含んでおり、制御部250が画像処理用プログラムを実行することにより生成される各種データを一時的に記憶する。また、記憶部240は、操作部220を介して第2ユーザから入力された第2識別情報を記憶する。
The display unit 230 is a display for displaying an image based on LF image data or refocus image data acquired from the database 300.
The storage unit 240 includes a non-volatile memory, and stores an image processing program executed by the control unit 250. The storage unit 240 includes a volatile memory, and temporarily stores various data generated by the control unit 250 executing the image processing program. Further, the storage unit 240 stores second identification information input from the second user via the operation unit 220.

制御部250は、例えばCPUであり、記憶部240に記憶された画像処理用プログラムを実行することにより、画像処理装置200の各部を制御する。制御部250は、再生制御部251、画像取得部252、情報取得部253、リフォーカス画像生成部254及び表示制御部255として機能する。以下、制御部250により提供される各機能部の構成について説明する。   The control unit 250 is, for example, a CPU, and controls each unit of the image processing apparatus 200 by executing an image processing program stored in the storage unit 240. The control unit 250 functions as a reproduction control unit 251, an image acquisition unit 252, an information acquisition unit 253, a refocus image generation unit 254, and a display control unit 255. Hereinafter, the configuration of each functional unit provided by the control unit 250 will be described.

再生制御部251は、例えば、再生画像選択ボタン及び再生開始ボタンを含む操作画面を、後述の表示制御部255を介して表示部230に表示する。再生制御部251は、第2ユーザが再生画像選択ボタンを押下することによって入力された、LF画像データを特定するための画像特定情報(例えば、画像ファイル番号)、及び第2ユーザが再生開始指示ボタンを押したことを示す再生開始指示情報を取得する。再生制御部251は、再生開始指示情報を取得したことに応じて、通信部210を介してデータベース300に画像特定情報を送信する。   For example, the reproduction control unit 251 displays an operation screen including a reproduction image selection button and a reproduction start button on the display unit 230 via the display control unit 255 described later. The playback control unit 251 includes image specifying information (for example, an image file number) for specifying LF image data input by the second user pressing the playback image selection button, and the second user giving a playback start instruction. The reproduction start instruction information indicating that the button has been pressed is acquired. The reproduction control unit 251 transmits the image specifying information to the database 300 via the communication unit 210 in response to obtaining the reproduction start instruction information.

画像取得部252は、通信部210を介して、フォーカス位置を撮影後に変更可能なLF画像データをデータベース300から取得する。画像取得部252は、再生制御部251が画像特定情報をデータベース300に送信したことに応じて、データベース300から当該画像特定情報に対応するLF画像データを取得する。画像取得部252は、取得したLF画像データを記憶部240に記憶させる。画像取得部252は、取得したLF画像データをリフォーカス画像生成部254に出力する。また、画像取得部252は、LF画像データに含まれるデフォルトフォーカス情報をリフォーカス画像生成部254に出力する。   The image acquisition unit 252 acquires, from the database 300, LF image data whose focus position can be changed after shooting through the communication unit 210. The image acquisition unit 252 acquires LF image data corresponding to the image specifying information from the database 300 in response to the reproduction control unit 251 transmitting the image specifying information to the database 300. The image acquisition unit 252 stores the acquired LF image data in the storage unit 240. The image acquisition unit 252 outputs the acquired LF image data to the refocus image generation unit 254. In addition, the image acquisition unit 252 outputs default focus information included in the LF image data to the refocus image generation unit 254.

情報取得部253は、LF画像を閲覧する第2ユーザの第2識別情報を取得する。情報取得部253は、取得した第2識別情報をリフォーカス画像生成部254に出力する。
また、情報取得部253は、データベース300から、第2識別情報に対応するユーザプロファイル情報を取得する。ユーザプロファイル情報には、第2識別情報に関連付けられている一以上のユーザ識別情報が含まれている。第2識別情報に関連付けられているユーザ識別情報は、例えばSNSにおいてLF画像を閲覧する第2ユーザと友人関係にあるユーザのユーザ識別情報である。ユーザプロファイル情報は、例えば第1ユーザと第2ユーザとの関係性、すなわち第1識別情報と第2識別情報との関係性を示す関係性情報として用いられる。情報取得部253は、第2識別情報に関連付けられている一以上のユーザ識別情報をリフォーカス画像生成部254に出力する。
なお、ユーザプロファイル情報が記憶部240に記憶されている場合、情報取得部253は、ユーザプロファイル情報を記憶部240から取得してもよい。
The information acquisition unit 253 acquires the second identification information of the second user who browses the LF image. The information acquisition unit 253 outputs the acquired second identification information to the refocus image generation unit 254.
Further, the information acquisition unit 253 acquires user profile information corresponding to the second identification information from the database 300. The user profile information includes one or more user identification information associated with the second identification information. The user identification information associated with the second identification information is, for example, user identification information of a user who has a friendship with the second user who browses the LF image in the SNS. The user profile information is used as, for example, relationship information indicating the relationship between the first user and the second user, that is, the relationship between the first identification information and the second identification information. The information acquisition unit 253 outputs one or more pieces of user identification information associated with the second identification information to the refocus image generation unit 254.
When user profile information is stored in the storage unit 240, the information acquisition unit 253 may acquire user profile information from the storage unit 240.

また、情報取得部253は、LF画像データに含まれる少なくとも一部の領域に対応する第1識別情報を含むフォーカス制限情報を取得する。例えば、情報取得部253は、操作部220を介して、表示部230に表示されているLF画像に含まれる一部の位置又は領域が第2ユーザによって選択されたことに応じて、画像取得部252が取得したLF画像データに含まれているフォーカス制限情報を取得する。   Further, the information acquisition unit 253 acquires focus restriction information including first identification information corresponding to at least a part of the region included in the LF image data. For example, the information acquisition unit 253 receives the image acquisition unit in response to a partial position or region included in the LF image displayed on the display unit 230 being selected by the second user via the operation unit 220. Focus restriction information included in the acquired LF image data 252 is acquired.

リフォーカス画像生成部254は、フォーカス制限情報に基づいてフォーカス位置を設定したリフォーカス画像データを生成する。リフォーカス画像生成部254は、第2ユーザが選択した位置又は領域にフォーカス制限情報が関連付けられている場合に、第1ユーザと第2ユーザとの関係性に基づいて、選択された位置又は領域にフォーカスを合わせるかどうかを決定することにより、リフォーカス画像データを生成する。例えば、リフォーカス画像生成部254は、第2ユーザが選択した位置又は領域に対してフォーカス制限がかかっている場合、第2識別情報とフォーカス制限情報に含まれる第1識別情報との関係性に基づいて、一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを生成する。   The refocus image generation unit 254 generates refocus image data in which the focus position is set based on the focus restriction information. The refocus image generation unit 254 selects the position or region selected based on the relationship between the first user and the second user when the focus restriction information is associated with the position or region selected by the second user. Refocus image data is generated by determining whether or not to focus. For example, when the focus restriction is applied to the position or area selected by the second user, the refocus image generation unit 254 determines the relationship between the second identification information and the first identification information included in the focus restriction information. Based on this, refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject included in the partial area is generated.

具体的には、リフォーカス画像生成部254は、LF画像データに関連付けられているフォーカス制限情報に含まれる矩形領域を示す座標情報を取得し、当該座標情報と、第2ユーザにより選択された位置又は領域を示す座標とに基づいて、選択された位置又は領域が矩形領域に含まれているかを判定する。リフォーカス画像生成部254は、選択された位置又は領域が矩形領域に含まれていると判定すると、リフォーカス画像生成部254は、第2ユーザと第1ユーザとの関係性として、例えばSNSの友人関係にあるかどうかを示す友人登録情報を、データベース300から取得する。   Specifically, the refocus image generation unit 254 acquires coordinate information indicating a rectangular area included in the focus restriction information associated with the LF image data, and the coordinate information and the position selected by the second user Alternatively, based on the coordinates indicating the area, it is determined whether the selected position or area is included in the rectangular area. When the refocus image generation unit 254 determines that the selected position or region is included in the rectangular region, the refocus image generation unit 254 determines the relationship between the second user and the first user, for example, an SNS. Friend registration information indicating whether or not a friend relationship exists is acquired from the database 300.

リフォーカス画像生成部254は、第2ユーザの第2識別情報が第1ユーザの第1識別情報と予め関連付けられた関係(例えば、友人関係)にない場合、第2ユーザが選択した位置又は領域にフォーカスが合っていないリフォーカス画像データを生成する。リフォーカス画像生成部254は、第2ユーザの第2識別情報が第1ユーザの第1識別情報と予め関連付けられた関係にある場合、第2ユーザが選択した位置又は領域にフォーカスが合ったリフォーカス画像データを生成する。リフォーカス画像生成部254は、例えば、LF画像データに含まれる光線情報に基づいて、第2ユーザが選択した位置又は領域に対応する画素における光の強度が最も強くなるようにフォーカス位置を決定することにより、リフォーカス画像データを生成する。   The refocus image generation unit 254 selects the position or region selected by the second user when the second identification information of the second user is not in a relationship (for example, a friend relationship) previously associated with the first identification information of the first user. Refocus image data that is out of focus is generated. When the second user's second identification information is associated with the first user's first identification information in advance, the refocus image generation unit 254 focuses on the position or region selected by the second user. Generate focus image data. For example, the refocus image generation unit 254 determines the focus position so that the light intensity at the pixel corresponding to the position or region selected by the second user is the strongest based on the light ray information included in the LF image data. As a result, refocus image data is generated.

なお、リフォーカス画像生成部254は、第1ユーザと第2ユーザとが所定の関係を満たさない場合、フォーカス制限情報が示す第1識別情報に対応する矩形領域に含まれている顔画像の領域を検出し、検出した顔画像の領域にフォーカスが合っていないリフォーカス画像を生成してもよい。この場合、リフォーカス画像生成部254は、顔画像の領域においては、顔の奥行き方向の位置とは異なる位置にフォーカス位置を設定し、フォーカス制限情報が示す矩形領域内の顔以外の領域においては、顔以外の領域の被写体に対応する奥行き方向の位置にフォーカス位置が設定されたリフォーカス画像データを生成する。このようにすることで、第2ユーザが選択した位置又は領域が、第1識別情報に対応する領域に含まれている場合に、当該領域に含まれている被写体のうち顔のみをぼかすことができるので、矩形領域全体をぼかす場合に比べて自然な状態に近い画像とすることができる。   In addition, the refocus image generation unit 254, when the first user and the second user do not satisfy a predetermined relationship, the face image area included in the rectangular area corresponding to the first identification information indicated by the focus restriction information May be detected, and a refocused image in which the detected face image region is not in focus may be generated. In this case, the refocus image generation unit 254 sets the focus position at a position different from the position in the depth direction of the face in the face image area, and in the area other than the face in the rectangular area indicated by the focus restriction information. Then, refocus image data in which a focus position is set at a position in the depth direction corresponding to a subject in an area other than the face is generated. In this way, when the position or area selected by the second user is included in the area corresponding to the first identification information, only the face of the subject included in the area can be blurred. Therefore, it is possible to obtain an image closer to a natural state than in the case where the entire rectangular area is blurred.

表示制御部255は、出力手段として機能し、リフォーカス画像生成部254が生成したリフォーカス画像データを表示部230に出力する。表示制御部255は、フォーカス制限情報に基づいて被写体の奥行き方向の位置とは異なる位置にフォーカス位置が設定された画像を表示部230に出力する前に、フォーカス位置がデフォルトフォーカス情報に基づく位置に設定されたリフォーカス画像データを出力する。そして、当該リフォーカス画像データに基づく画像において第2ユーザが指定した位置又は領域が、フォーカス制限情報が示す一部の領域に含まれている場合に、一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを出力する。これにより、画像処理装置200は、第2ユーザが指定した被写体が、画像編集装置100の第1ユーザによって制限がかけられた被写体である場合に、当該被写体をぼかしたリフォーカス画像を表示部230に表示させることができる。   The display control unit 255 functions as an output unit, and outputs the refocus image data generated by the refocus image generation unit 254 to the display unit 230. The display control unit 255 sets the focus position to a position based on the default focus information before outputting to the display unit 230 an image in which the focus position is set at a position different from the position in the depth direction of the subject based on the focus restriction information. The set refocus image data is output. Then, when the position or area specified by the second user in the image based on the refocus image data is included in a partial area indicated by the focus restriction information, the depth direction of the subject included in the partial area The refocus image data in which the focus position is set at a position different from the position is output. Accordingly, when the subject specified by the second user is a subject restricted by the first user of the image editing device 100, the image processing device 200 displays a refocused image obtained by blurring the subject. Can be displayed.

また、表示制御部255は、フォーカス制限情報に対応する一部の領域におけるフォーカス位置が、当該一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に設定されたリフォーカス画像データを出力する場合に、フォーカス位置の設定に制限がかかっていることを示す情報を表示部230に出力する。   The display control unit 255 also displays the refocus image data in which the focus position in a part of the area corresponding to the focus restriction information is set to a position different from the position of the subject included in the part of the depth direction. When outputting, information indicating that the setting of the focus position is restricted is output to the display unit 230.

[情報共有システム1における動作手順を示すフローチャート]
図11は、第1の実施形態に係る画像編集装置100の動作手順を示すフローチャートである。
まず、画像取得部151は、第1ユーザからLF画像データのアップロード指示を受け付けると(S101)、アップロードの対象となるLF画像データを記憶部140から取得する(S102)。
[Flowchart showing Operation Procedure in Information Sharing System 1]
FIG. 11 is a flowchart showing an operation procedure of the image editing apparatus 100 according to the first embodiment.
First, when receiving an instruction to upload LF image data from the first user (S101), the image acquisition unit 151 acquires LF image data to be uploaded from the storage unit 140 (S102).

続いて、情報取得部152は、記憶部140に記憶されている第1ユーザの第1識別情報を取得する(S103)。
続いて、情報取得部152は、データベース300から、S103において取得した第1識別情報に対応するユーザプロファイル情報を取得する(S104)。
続いて、情報取得部152は、取得されたユーザプロファイル情報に含まれている第1ユーザの顔画像情報を取得する(S105)。
Subsequently, the information acquisition unit 152 acquires the first identification information of the first user stored in the storage unit 140 (S103).
Subsequently, the information acquisition unit 152 acquires user profile information corresponding to the first identification information acquired in S103 from the database 300 (S104).
Subsequently, the information acquisition unit 152 acquires the face image information of the first user included in the acquired user profile information (S105).

続いて、フォーカス制限情報生成部153は、S102において取得したLF画像データが示すLF画像に、S105において取得した顔画像情報が示す顔画像に対応する画像が含まれているか否かを判定することにより、第1ユーザがLF画像中に存在しているか否かを判定する(S106)。フォーカス制限情報生成部153は、第1ユーザがLF画像中に存在していると判定すると、S107に処理を移し、第1ユーザがLF画像中に存在していないと判定すると、S109に処理を移す。   Subsequently, the focus restriction information generation unit 153 determines whether or not the LF image indicated by the LF image data acquired in S102 includes an image corresponding to the face image indicated by the face image information acquired in S105. Thus, it is determined whether or not the first user exists in the LF image (S106). If the focus restriction information generation unit 153 determines that the first user is present in the LF image, the focus restriction information generation unit 153 proceeds to S107. If the focus restriction information generation unit 153 determines that the first user is not present in the LF image, the focus restriction information generation unit 153 performs processing in S109. Move.

続いて、フォーカス制限情報生成部153は、第1ユーザの顔画像を含む表示領域に対応するフォーカス制限情報を生成する(S107)。
続いて、画像出力部154は、例えば、第1ユーザの顔画像を含む表示領域にフォーカス制限情報が関連付けられたLF画像データを生成する(S108)。
Subsequently, the focus restriction information generation unit 153 generates focus restriction information corresponding to the display area including the face image of the first user (S107).
Subsequently, the image output unit 154 generates, for example, LF image data in which the focus restriction information is associated with the display area including the face image of the first user (S108).

続いて、画像出力部154は、LF画像データをデータベース300に送信することにより、データベース300にLF画像データを格納する(S109)。ここで、第1ユーザの顔画像がLF画像中に存在している場合には、フォーカス制限情報が付与されたLF画像データがデータベース300に格納され、第1ユーザの顔画像がLF画像中に存在していない場合には、フォーカス制限情報が付与されていないLF画像データがデータベース300に格納される。   Subsequently, the image output unit 154 stores the LF image data in the database 300 by transmitting the LF image data to the database 300 (S109). Here, when the face image of the first user is present in the LF image, the LF image data to which the focus restriction information is added is stored in the database 300, and the face image of the first user is included in the LF image. If it does not exist, LF image data to which no focus restriction information is assigned is stored in the database 300.

図12は、第1の実施形態に係る画像処理装置200の動作手順を示すフローチャートである。
まず、再生制御部251は、LF画像データを選択するための操作画面を表示部230に表示させ、LF画像データの再生開始指示を受け付ける(S111)。再生制御部251は、操作画面において表示対象のLF画像データが選択され、再生開始指示を受け付けたことに応じて、当該LF画像データを特定するための画像特定情報をデータベース300に送信する。
FIG. 12 is a flowchart illustrating an operation procedure of the image processing apparatus 200 according to the first embodiment.
First, the reproduction control unit 251 displays an operation screen for selecting LF image data on the display unit 230, and accepts an instruction to start reproduction of LF image data (S111). The playback control unit 251 transmits image specifying information for specifying the LF image data to the database 300 in response to selection of the LF image data to be displayed on the operation screen and reception of a playback start instruction.

続いて、画像取得部252は、データベース300から、再生制御部251が送信した画像特定情報に対応するLF画像データを取得する(S112)。
続いて、リフォーカス画像生成部254は、S112において取得されたLF画像データに含まれるデフォルトフォーカス情報に基づいて、LF画像データを再構築することによりリフォーカス画像を生成する。生成されたリフォーカス画像は、デフォルトフォーカス位置に設定された画像となる。表示制御部255は、生成されたリフォーカス画像を表示部230に表示させる(S113)。
Subsequently, the image acquisition unit 252 acquires LF image data corresponding to the image specifying information transmitted by the reproduction control unit 251 from the database 300 (S112).
Subsequently, the refocus image generation unit 254 generates a refocus image by reconstructing the LF image data based on the default focus information included in the LF image data acquired in S112. The generated refocus image is an image set at the default focus position. The display control unit 255 displays the generated refocus image on the display unit 230 (S113).

図13は、画像処理装置200において再生される画像の例を示す図である。図13(a)は、データベース300に格納されているLF画像データが、デフォルトフォーカス情報に基づいて再生された場合の画像を示している。図13(a)に示す画像においては、「B氏」にフォーカスが合っておらず、隣に写っている「A氏」にフォーカスが合っている。図13(a)に示されるLF画像データにおける「B氏」は、画像編集装置100を使用する第1ユーザであり、「B氏」にフォーカス制限情報が関連付けられているものとする。   FIG. 13 is a diagram illustrating an example of an image reproduced in the image processing apparatus 200. FIG. 13A shows an image when the LF image data stored in the database 300 is reproduced based on the default focus information. In the image shown in FIG. 13A, “Mr. B” is not in focus, and “Mr. A” appearing next is in focus. “Mr. B” in the LF image data shown in FIG. 13A is a first user who uses the image editing apparatus 100, and focus restriction information is associated with “Mr. B”.

図12のS114において、再生制御部251は、操作部220を介して、画像処理装置200を使用する第2ユーザから、新たにフォーカス位置を合わせる被写体を選択する指示を受け付ける。第2ユーザから受け付けた被写体を選択する指示には、LF画像において第2ユーザが選択した位置を示す座標情報が含まれている。本実施形態では、新たにフォーカス位置を合わせる被写体として「B氏」が選択されたものとする。   In S <b> 114 of FIG. 12, the playback control unit 251 receives an instruction to select a subject to be newly focused on from the second user using the image processing device 200 via the operation unit 220. The instruction for selecting the subject received from the second user includes coordinate information indicating the position selected by the second user in the LF image. In the present embodiment, it is assumed that “Mr. B” has been selected as the subject to be newly focused.

情報取得部253は、LF画像データにおいて、選択された被写体に対応する表示領域にフォーカス制限情報が付与されているか否かを判定する(S115)。情報取得部253は、被写体を選択する指示に含まれている座標情報が示す座標が、フォーカス制限情報に含まれている座標情報が示す矩形領域に含まれている場合に、フォーカス制限情報が付与されていると判定する。情報取得部253は、フォーカス制限情報が付与されていると判定すると、S116に処理を移し、フォーカス制限情報が付与されていないと判定すると、S118に処理を移す。本実施形態では、「B氏」にフォーカス制限情報が関連付けられていることから、情報取得部253は、S116に処理を移す。   The information acquisition unit 253 determines whether or not focus restriction information is given to the display area corresponding to the selected subject in the LF image data (S115). The information acquisition unit 253 gives focus restriction information when the coordinates indicated by the coordinate information included in the instruction to select the subject are included in the rectangular area indicated by the coordinate information included in the focus restriction information. It is determined that If the information acquisition unit 253 determines that the focus restriction information is assigned, the process proceeds to S116. If the information acquisition unit 253 determines that the focus restriction information is not provided, the information acquisition unit 253 proceeds to S118. In the present embodiment, since the focus restriction information is associated with “Mr. B”, the information acquisition unit 253 moves the process to S116.

S116において、情報取得部253は、画像処理装置200の第2ユーザのSNSにおける友人登録情報をデータベース300から取得する(S116)。続いて、リフォーカス画像生成部254は、情報取得部253が取得した友人登録情報に基づいて、フォーカス制限情報に含まれている第1識別情報と第2識別情報とが関係性があるか否かを判定することにより、第1ユーザが第2ユーザの友人として登録されているか否かを判定する(S117)。リフォーカス画像生成部254は、第2ユーザが第1ユーザの友人として登録されていると判定すると、S118に処理を移し、選択された被写体にフォーカス位置を設定したフォーカス情報を生成する。また、リフォーカス画像生成部254は、第2ユーザが第1ユーザの友人として登録されていないと判定すると、フォーカス情報をデフォルトフォーカス情報に維持する。   In S116, the information acquisition unit 253 acquires friend registration information in the SNS of the second user of the image processing device 200 from the database 300 (S116). Subsequently, the refocus image generation unit 254 determines whether or not the first identification information and the second identification information included in the focus restriction information are related based on the friend registration information acquired by the information acquisition unit 253. It is determined whether or not the first user is registered as a friend of the second user (S117). If the refocus image generation unit 254 determines that the second user is registered as a friend of the first user, the refocus image generation unit 254 moves to S118 and generates focus information in which the focus position is set to the selected subject. If the refocus image generation unit 254 determines that the second user is not registered as a friend of the first user, the refocus image generation unit 254 maintains the focus information as default focus information.

S119において、リフォーカス画像生成部254は、フォーカス情報に基づいて、LF画像の再構築を行うことにより、リフォーカス画像データを生成する。
続いて、表示制御部255は、S119において生成されたリフォーカス画像データに基づく画像を表示部230に表示させる(S120)。
In S119, the refocus image generation unit 254 generates refocus image data by reconstructing the LF image based on the focus information.
Subsequently, the display control unit 255 causes the display unit 230 to display an image based on the refocus image data generated in S119 (S120).

例えば、表示制御部255は、S117において、第1識別情報と第2識別情報との間の関係性に基づいて、第2ユーザが第1ユーザの友人として登録されていると判定されると、図13(b)に示すように、「B氏」にフォーカスが合う位置にフォーカス位置が変更された画像を表示部230に表示させる。また、表示制御部255は、S117において、第1識別情報と第2識別情報との間の関係性に基づいて、第2ユーザが第1ユーザの友人として登録されていないと判定されると、図13(c)に示すように、「A氏」にフォーカスが合う位置にフォーカス位置が維持された画像を表示部230に表示させる。   For example, if the display control unit 255 determines in S117 that the second user is registered as a friend of the first user based on the relationship between the first identification information and the second identification information, As illustrated in FIG. 13B, an image in which the focus position is changed to a position where “Mr. B” is focused is displayed on the display unit 230. If the display control unit 255 determines in S117 that the second user is not registered as a friend of the first user based on the relationship between the first identification information and the second identification information, As illustrated in FIG. 13C, an image in which the focus position is maintained at a position where “Mr. A” is focused is displayed on the display unit 230.

この際、表示制御部255は、図13(c)に示すように、被写体に対する表示領域にフォーカス位置の設定に制限がかかっていることを示す情報として、「フォーカスが制限されています」というメッセージを表示部230に表示させる。表示制御部255は、当該メッセージを、第2ユーザが選択した被写体である「B氏」に関連した位置に表示させる。このようにすることで、画像処理装置200は、LF画像を閲覧する第2ユーザに、フォーカスが制限されていることを認識させることができるので、第2ユーザが、画像処理装置200が故障していると勘違いすることを防止できる。   At this time, as shown in FIG. 13C, the display control unit 255 displays a message “focus is restricted” as information indicating that the setting of the focus position is restricted in the display area for the subject. Is displayed on the display unit 230. The display control unit 255 displays the message at a position related to “Mr. B” that is the subject selected by the second user. In this way, the image processing apparatus 200 can cause the second user who browses the LF image to recognize that the focus is limited, so that the second user can cause the image processing apparatus 200 to malfunction. It can prevent misunderstanding that it is.

以上の手順により、画像処理装置200は、LF画像データに写っている第1ユーザの友人として登録されていない第2ユーザが、当該LF画像データに基づく画像を閲覧する場合に、当該LF画像データに写っている第1ユーザである「B氏」にフォーカスが合うことを制限して、第1ユーザのプライバシーを確保しつつ、特定の人がユーザを視認できるようにすることが可能になる。   By the above procedure, the image processing apparatus 200 allows the LF image data when the second user who is not registered as a friend of the first user in the LF image data browses an image based on the LF image data. It is possible to restrict the focus on the first user “Mr. B” shown in FIG. 1 and to allow the specific person to visually recognize the user while ensuring the privacy of the first user.

(変形例1)
上記の説明においては、画像処理装置200の表示制御部255が、フォーカス制限情報に含まれている第1識別情報と、画像処理装置200を使用する第2ユーザを識別する第2識別情報との関係性に基づいて、LF画像データに含まれる一部の領域の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを出力する例について説明したが、フォーカス制限情報には、フォーカスを制限する対象となる領域を特定するための座標を含み、第1識別情報を含まないようにしてもよい。
(Modification 1)
In the above description, the display control unit 255 of the image processing device 200 includes the first identification information included in the focus restriction information and the second identification information that identifies the second user who uses the image processing device 200. Although an example of outputting refocus image data in which the focus position is set at a position different from the position in the depth direction of some areas included in the LF image data based on the relationship has been described, In addition, coordinates for specifying a region to be focused may be included, and the first identification information may not be included.

この場合、データベース300は、LF画像データに、当該LF画像データをデータベース300に送信した第1ユーザに対応する第1識別情報を関連付けて記憶する。そして、情報取得部253が、再生対象のLF画像データに関連付けられている第1識別情報をデータベース300から取得し、リフォーカス画像生成部254が、当該第1識別情報と、第2識別情報との関係性に基づいて、フォーカス制限情報に含まれている座標に対応する領域の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを生成する。そして、表示制御部255は、当該リフォーカス画像データを出力する。このようにすることで、LF画像データをデータベース300にアップロードした第1ユーザと、当該LF画像データに対応する画像を閲覧する第2ユーザとが友人登録されていない場合に、第2ユーザが閲覧する画像において、第1ユーザが不特定多数の人に見られたくない領域をぼかして表示できるので、第1ユーザのプライバシーを確保しつつ、特定の人が第1ユーザを視認できるようにすることが可能になる。   In this case, the database 300 stores the LF image data in association with the first identification information corresponding to the first user who transmitted the LF image data to the database 300. Then, the information acquisition unit 253 acquires the first identification information associated with the LF image data to be reproduced from the database 300, and the refocus image generation unit 254 includes the first identification information, the second identification information, and the like. Based on the relationship, refocus image data in which the focus position is set at a position different from the position in the depth direction of the area corresponding to the coordinates included in the focus restriction information is generated. Then, the display control unit 255 outputs the refocus image data. Thus, when the first user who uploaded the LF image data to the database 300 and the second user who browses the image corresponding to the LF image data are not registered as friends, the second user can browse In the image to be displayed, the first user can blur and display an area that the unspecified number of people do not want to be seen, so that the specific user can visually recognize the first user while ensuring the privacy of the first user. Is possible.

(変形例2)
上記の説明においては、デフォルトフォーカス情報において、フォーカス制限情報が含む座標に対応する領域にフォーカス位置が設定されていない例について説明した。しかしながら、デフォルトフォーカス情報においてフォーカス位置が設定されている領域にフォーカス制限がかけられる場合が考えられる。
(Modification 2)
In the above description, an example has been described in which the focus position is not set in the area corresponding to the coordinates included in the focus restriction information in the default focus information. However, there may be a case where focus restriction is applied to an area where the focus position is set in the default focus information.

そこで、情報取得部253は、デフォルトフォーカス画像の表示時において、フォーカス制限がかけられている領域にフォーカス位置が設定されているか否かを判定し、当該領域にフォーカス位置が設定されていると判定した場合に、第2識別情報を取得してもよい。リフォーカス画像生成部254は、フォーカス制限情報に含まれる第1識別情報と取得された第2識別情報との関係性に基づいて、フォーカス制限がかけられている領域に含まれる被写体の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを生成する。そして、表示制御部255は、当該リフォーカス画像データに基づく画像を表示部230に表示させる。このようにすることで、図12のS113におけるデフォルトフォーカス情報に基づく表示時において、画像を閲覧する第2ユーザが、フォーカス制限がかけられている領域に含まれている第1ユーザの友人として登録されていない場合に、第1ユーザにフォーカス位置が設定されないようにして、第1ユーザのプライバシーを確保しつつ、第1ユーザと所定の関係がある特定の人が第1ユーザの画像を視認できるようにすることが可能になる。   Therefore, when the default focus image is displayed, the information acquisition unit 253 determines whether or not the focus position is set in the area where the focus is restricted, and determines that the focus position is set in the area. In this case, the second identification information may be acquired. Based on the relationship between the first identification information included in the focus restriction information and the acquired second identification information, the refocus image generation unit 254 determines the depth direction of the subject included in the focus restricted area. Refocus image data in which the focus position is set at a position different from the position is generated. Then, the display control unit 255 causes the display unit 230 to display an image based on the refocus image data. By doing so, the second user who views the image is registered as a friend of the first user included in the area where the focus is restricted at the time of display based on the default focus information in S113 of FIG. If not, the focus position is not set for the first user, and a specific person having a predetermined relationship with the first user can view the image of the first user while ensuring the privacy of the first user. It becomes possible to do so.

(変形例3)
上記の説明においては、第2ユーザが第1ユーザの友人として登録されている場合に、画像処理装置200が、図13(b)に示すように、第1ユーザである「B氏」にフォーカスが合っており、「A氏」にフォーカスが合っていない画像を表示する例について説明した。これに対して、画像処理装置200は、第2ユーザが第1ユーザの友人として登録されている場合に、「A氏」及び「B氏」の両方にフォーカスが合った画像を出力してもよい。このようにすることで、「A氏」が第2ユーザである場合に、第2ユーザは、友人関係にある第1ユーザと自分自身の両方にフォーカスが合った画像を閲覧することが可能になる。
(Modification 3)
In the above description, when the second user is registered as a friend of the first user, the image processing apparatus 200 focuses on “Mr. B” who is the first user as shown in FIG. An example of displaying an image in which “Mr. A” is not in focus has been described. In contrast, when the second user is registered as a friend of the first user, the image processing apparatus 200 outputs an image in which both “Mr. A” and “Mr. B” are in focus. Good. In this way, when “Mr. A” is the second user, the second user can view an image in which both the first user who is in a friend relationship and himself / herself are in focus. Become.

(変形例4)
上記の説明においては、フォーカス制限情報に、フォーカス制限をかける領域の座標を含む例について説明したが、フォーカス制限をかける領域の座標に代えて、又はフォーカス制限をかける領域の座標とともに、フォーカス制限をかける領域に対応する奥行き情報をフォーカス制限情報に含めてもよい。フォーカス制限をかける領域に対応する奥行き情報は、フォーカス制限をかける領域に含まれる被写体にフォーカスが合う奥行き方向のフォーカス位置の範囲を示す情報である。画像処理装置200は、第1識別情報と第2識別情報との関係性に基づいて、フォーカス制限情報に含まれる奥行き情報が示すフォーカス位置の範囲にフォーカスが合わせるか否かを制御することにより、第1ユーザのプライバシーを確保しつつ、第1ユーザと所定の関係がある特定の人が第1ユーザの画像を視認できるようにすることが可能になる。
(Modification 4)
In the above description, the example in which the focus restriction information includes the coordinates of the area to which the focus restriction is applied has been described. However, instead of the coordinates of the area to which the focus restriction is applied, or together with the coordinates of the area to which the focus restriction is applied, Depth information corresponding to the area to be applied may be included in the focus restriction information. The depth information corresponding to the area where the focus is restricted is information indicating the range of the focus position in the depth direction where the subject included in the area where the focus is restricted is focused. Based on the relationship between the first identification information and the second identification information, the image processing apparatus 200 controls whether or not the focus is adjusted to the focus position range indicated by the depth information included in the focus restriction information. A specific person having a predetermined relationship with the first user can view the image of the first user while ensuring the privacy of the first user.

[第1の実施形態における効果]
以上説明したように、第1の実施形態に係る情報共有システム1においては、画像編集装置100が、第1ユーザから取得したLF画像に含まれる少なくとも一部の領域に関連付けて、第1ユーザに対応する第1識別情報を含み、フォーカス位置が設定されることを制限するフォーカス制限情報を生成し、当該フォーカス制限情報が付与されたLF画像データを出力する。また、第1の実施形態に係る情報共有システム1においては、画像処理装置200が、LF画像に含まれる少なくとも一部の領域に対応する第1識別情報を取得するとともに、LF画像を閲覧する第2ユーザに対応する第2識別情報を取得し、当該第1識別情報と第2識別情報との関係性に基づいて、当該一部の領域の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを出力する。
[Effect in the first embodiment]
As described above, in the information sharing system 1 according to the first embodiment, the image editing device 100 associates with the first user in association with at least a partial area included in the LF image acquired from the first user. Focus restriction information that includes corresponding first identification information and restricts setting of the focus position is generated, and LF image data to which the focus restriction information is added is output. In the information sharing system 1 according to the first embodiment, the image processing apparatus 200 acquires the first identification information corresponding to at least a part of the region included in the LF image and browses the LF image. The second identification information corresponding to the two users is acquired, and the focus position is set at a position different from the position in the depth direction of the partial area based on the relationship between the first identification information and the second identification information. Output the refocused image data.

このようにすることで、第2ユーザがLF画像を閲覧する場合において、第2ユーザが、当該LF画像の一部の領域フォーカス制限情報に含まれる第1識別情報に対応する第1ユーザと所定の関係がないとき、当該一部の領域にフォーカスが合った画像を閲覧することができない。したがって、LF画像データに含まれる被写体が不特定多数の人に視認されることを防ぎつつ、特定の人が被写体を視認できるようにすることができる。その結果、例えば、LF画像データの一部の領域に含まれる第1ユーザのプライバシーを確保しつつ、第1ユーザと所定の関係がある特定の人が第1ユーザの画像を視認できるようにすることができる。   By doing in this way, when the second user browses the LF image, the second user is predetermined with the first user corresponding to the first identification information included in the partial area focus restriction information of the LF image. When there is no relationship, it is impossible to view an image in which the partial area is in focus. Therefore, it is possible to allow a specific person to visually recognize the subject while preventing the subject included in the LF image data from being visually recognized by an unspecified number of people. As a result, for example, a specific person having a predetermined relationship with the first user can view the image of the first user while ensuring the privacy of the first user included in a partial area of the LF image data. be able to.

<第2の実施形態>
続いて、第2の実施形態について説明する。第1の実施形態においては、画像編集装置100が、第1ユーザが使用する端末であり、画像処理装置200が、第2ユーザが操作する端末である例について説明したが、第2の実施形態は、クラウド上のサーバ400が画像編集装置及び画像処理装置として機能する点で第1の実施形態と異なる。以下に、第2の実施形態について説明する。なお、以下の説明において、第1の実施形態と同様の構成については、適宜説明を省略する。
<Second Embodiment>
Next, the second embodiment will be described. In the first embodiment, an example in which the image editing apparatus 100 is a terminal used by the first user and the image processing apparatus 200 is a terminal operated by the second user has been described, but the second embodiment is described. Is different from the first embodiment in that the server 400 on the cloud functions as an image editing device and an image processing device. The second embodiment will be described below. In the following description, the description of the same configuration as in the first embodiment will be omitted as appropriate.

[情報共有システム1の構成]
図14は、第2の実施形態に係る情報共有システム1の構成を示す図である。情報共有システム1は、データベース300と、サーバ400と、複数のユーザ端末500(500a,500b,500c)とを含んで構成されている。サーバ400は、第1の実施形態に係る画像編集装置100及び画像処理装置200と同様の機能を有している。ユーザ端末500は、例えば、スマートフォン等の通信端末であり、サーバ400を介してデータベース300にLF画像データをアップロードしたり、サーバ400を介して提供されるLF画像データに基づく画像を表示したりすることができる。本実施形態において、ユーザ端末500aは、LF画像データにフォーカス制限情報を付す第1ユーザの端末であり、ユーザ端末500bは、LF画像データに基づくリフォーカス画像を閲覧する第2ユーザの端末であるものとする。
[Configuration of Information Sharing System 1]
FIG. 14 is a diagram illustrating a configuration of the information sharing system 1 according to the second embodiment. The information sharing system 1 includes a database 300, a server 400, and a plurality of user terminals 500 (500a, 500b, 500c). The server 400 has the same functions as those of the image editing apparatus 100 and the image processing apparatus 200 according to the first embodiment. The user terminal 500 is a communication terminal such as a smartphone, for example, and uploads LF image data to the database 300 via the server 400 or displays an image based on the LF image data provided via the server 400. be able to. In the present embodiment, the user terminal 500a is a first user terminal that attaches focus restriction information to LF image data, and the user terminal 500b is a second user terminal that views a refocus image based on the LF image data. Shall.

図15は、第2の実施形態に係るサーバ400の構成を示す図である。図15において、図10に示した画像処理装置200と同一の名称で示す構成部は、画像処理装置200が有する構成部と同等の機能を有する。サーバ400は、通信回線を介して接続されたユーザ端末500aからアップロードされたLF画像データをデータベース300に格納する。また、サーバ400は、データベース300に格納されたLF画像データを、通信回線を介して接続されたユーザ端末500bに提供する。   FIG. 15 is a diagram illustrating a configuration of the server 400 according to the second embodiment. In FIG. 15, a configuration unit having the same name as that of the image processing apparatus 200 illustrated in FIG. 10 has a function equivalent to that of the configuration unit included in the image processing apparatus 200. The server 400 stores the LF image data uploaded from the user terminal 500a connected via the communication line in the database 300. The server 400 also provides the LF image data stored in the database 300 to the user terminal 500b connected via the communication line.

サーバ400は、通信部410と、記憶部440と、制御部450とを有する。
通信部410は、データベース300とユーザ端末500との間でLF画像データ及び各種情報を送受信するための通信インターフェイスである。
記憶部440は、不揮発性メモリを含んでおり、制御部450が実行する画像処理用プログラムを記憶している。記憶部440は、揮発性メモリを含んでおり、制御部450が画像処理用プログラムを実行することにより生成される各種データを一時的に記憶する。
The server 400 includes a communication unit 410, a storage unit 440, and a control unit 450.
The communication unit 410 is a communication interface for transmitting and receiving LF image data and various types of information between the database 300 and the user terminal 500.
The storage unit 440 includes a nonvolatile memory, and stores an image processing program executed by the control unit 450. The storage unit 440 includes a volatile memory, and temporarily stores various data generated by the control unit 450 executing the image processing program.

制御部450は、例えばCPUであり、記憶部440に記憶された画像処理用プログラムを実行することにより、サーバ400の各部を制御する。制御部450は、画像取得部452、情報取得部453、リフォーカス画像生成部454、フォーカス制限情報生成部456、画像出力部457及び出力部458として機能する。以下、制御部450により提供される各機能部の構成について説明する。   The control unit 450 is, for example, a CPU, and controls each unit of the server 400 by executing an image processing program stored in the storage unit 440. The control unit 450 functions as an image acquisition unit 452, an information acquisition unit 453, a refocus image generation unit 454, a focus restriction information generation unit 456, an image output unit 457, and an output unit 458. Hereinafter, the configuration of each functional unit provided by the control unit 450 will be described.

画像取得部452は、通信部410を介して、ユーザ端末500から、データベース300にアップロードする対象のLF画像データを受信する。
情報取得部453は、アップロードする対象のLF画像データとともにユーザ端末500aから送信されるアップロード要求を受信する。アップロード要求には、アップロードを行ったユーザ端末500aの第1ユーザを識別するためのユーザ識別情報である第1識別情報が含まれている。情報取得部453は、第1識別情報に基づいて、データベース300から、アップロードした第1ユーザのユーザプロファイル情報を取得する。情報取得部453は、第1ユーザの顔画像情報をユーザプロファイル情報から取得する。情報取得部453は、第1識別情報及び抽出した顔画像情報をフォーカス制限情報生成部456に出力する。
The image acquisition unit 452 receives LF image data to be uploaded to the database 300 from the user terminal 500 via the communication unit 410.
The information acquisition unit 453 receives the upload request transmitted from the user terminal 500a together with the LF image data to be uploaded. The upload request includes first identification information that is user identification information for identifying the first user of the user terminal 500a that performed the upload. The information acquisition unit 453 acquires the uploaded user profile information of the first user from the database 300 based on the first identification information. The information acquisition unit 453 acquires the face image information of the first user from the user profile information. The information acquisition unit 453 outputs the first identification information and the extracted face image information to the focus restriction information generation unit 456.

フォーカス制限情報生成部456は、情報取得部453が、顔画像情報を取得すると、LF画像データに含まれる少なくとも一つの領域にフォーカス位置が設定されることを制限するフォーカス制限情報を生成する。フォーカス制限情報生成部456が有する機能は、第1の実施形態に係るフォーカス制限情報生成部153と同等の機能であるので説明を省略する。   When the information acquisition unit 453 acquires the face image information, the focus restriction information generation unit 456 generates focus restriction information that restricts setting of the focus position in at least one region included in the LF image data. The function of the focus restriction information generation unit 456 is the same as the function of the focus restriction information generation unit 153 according to the first embodiment, and thus the description thereof is omitted.

画像出力部457は、フォーカス制限情報生成部456により生成されたフォーカス制限情報が付与されたLF画像データをデータベース300に出力する。画像出力部457が有する機能は、第1の実施形態に係る画像出力部154と同等の機能であるので説明を省略する。   The image output unit 457 outputs the LF image data with the focus restriction information generated by the focus restriction information generation unit 456 to the database 300. The functions of the image output unit 457 are the same as the functions of the image output unit 154 according to the first embodiment, and thus description thereof is omitted.

情報取得部453は、通信部410を介して、ユーザ端末500bからLF画像の再生開始指示情報を受信する。再生開始指示情報には、再生開始指示を行ったユーザ端末500bの第2ユーザを識別するためのユーザ識別情報である第2識別情報が含まれている。情報取得部453は、第2識別情報に基づいて、再生開始指示を行ったユーザ端末500bの第2ユーザのユーザプロファイル情報をデータベース300から受信する。情報取得部453が取得する第2ユーザのユーザプロファイル情報には、第2ユーザの友人登録情報が含まれている。   The information acquisition unit 453 receives LF image reproduction start instruction information from the user terminal 500b via the communication unit 410. The reproduction start instruction information includes second identification information that is user identification information for identifying the second user of the user terminal 500b that has issued the reproduction start instruction. Based on the second identification information, the information acquisition unit 453 receives from the database 300 user profile information of the second user of the user terminal 500b that has given the playback start instruction. The user profile information of the second user acquired by the information acquisition unit 453 includes friend registration information of the second user.

リフォーカス画像生成部454は、フォーカス制限情報に基づいて、LF画像データに含まれる少なくとも一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを生成する。リフォーカス画像生成部454が有する機能は、第1の実施形態に係るリフォーカス画像生成部254と同等の機能であるので説明を省略する。   The refocus image generation unit 454 refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject included in at least a part of the area included in the LF image data based on the focus restriction information. Is generated. The functions of the refocus image generation unit 454 are the same as the functions of the refocus image generation unit 254 according to the first embodiment, and thus description thereof is omitted.

出力部458は、リフォーカス画像生成部454が生成したリフォーカス画像データを、再生開始指示情報を送信したユーザ端末500bに出力する。出力部458は、フォーカス制限情報に基づいて、LF画像の一部の領域の奥行き方向の位置とは異なる位置にフォーカス位置が設定されたリフォーカス画像データを、再生開始指示情報を送信したユーザ端末500bに出力する。ユーザ端末500bは、サーバ400から取得したリフォーカス画像データを自身の表示部に表示させる表示制御部を有しており、リフォーカス画像データを取得したことに応じて、LF画像に含まれる一部の領域をぼかした画像を自身の表示部に表示させることができる。   The output unit 458 outputs the refocus image data generated by the refocus image generation unit 454 to the user terminal 500b that has transmitted the reproduction start instruction information. The output unit 458 transmits the refocus image data in which the focus position is set at a position different from the position in the depth direction of the partial area of the LF image based on the focus restriction information, and transmits the reproduction start instruction information. Output to 500b. The user terminal 500b has a display control unit that displays the refocus image data acquired from the server 400 on its own display unit, and is included in the LF image in response to the acquisition of the refocus image data. It is possible to display an image in which the area is blurred on its own display unit.

[情報共有システム1における動作手順を示すフローチャート]
図16は、第2の実施形態に係るサーバ400及びユーザ端末500aのLF画像データのアップロード時の動作手順を示すフローチャートである。
まず、ユーザ端末500aは、第1ユーザからLF画像データのアップロード指示を受け付けると、アップロードの対象となるLF画像データを自身の記憶部から取得し、サーバ400に送信する(S201)。
画像取得部452は、ユーザ端末500aから送信されたLF画像データを取得する(S202)。
[Flowchart showing Operation Procedure in Information Sharing System 1]
FIG. 16 is a flowchart illustrating an operation procedure when uploading LF image data of the server 400 and the user terminal 500a according to the second embodiment.
First, when receiving an instruction to upload LF image data from the first user, the user terminal 500a acquires LF image data to be uploaded from its own storage unit and transmits it to the server 400 (S201).
The image acquisition unit 452 acquires LF image data transmitted from the user terminal 500a (S202).

続いて、ユーザ端末500aは、第1ユーザからLF画像データのアップロード指示を受け付けたことに応じて第1識別情報を取得し、サーバ400に送信する(S203)。
情報取得部453は、ユーザ端末500aから送信された第1識別情報を受信する(S204)。
S205からS210までの処理は、第1の実施形態における図11に示す画像編集装置100の動作手順を示すフローチャートのS104からS109までの処理と同じであるので説明を省略する。
Subsequently, the user terminal 500a acquires the first identification information in response to receiving the LF image data upload instruction from the first user, and transmits the first identification information to the server 400 (S203).
The information acquisition unit 453 receives the first identification information transmitted from the user terminal 500a (S204).
The processing from S205 to S210 is the same as the processing from S104 to S109 in the flowchart showing the operation procedure of the image editing apparatus 100 shown in FIG.

図17は、第2の実施形態に係るサーバ400及びユーザ端末500bのLF画像の表示時の動作手順を示すフローチャートである。
まず、ユーザ端末500bは、LF画像データを選択するための操作画面を自身の表示部に表示させ、LF画像の再生開始指示を受け付ける(S211)。ユーザ端末500bは、操作画面において表示対象のLF画像データが選択され、再生開始指示を受け付けたことに応じて、当該LF画像データを特定するための画像特定情報をサーバ400に送信する。
FIG. 17 is a flowchart illustrating an operation procedure when the server 400 and the user terminal 500b according to the second embodiment display an LF image.
First, the user terminal 500b displays an operation screen for selecting LF image data on its display unit, and accepts an instruction to start playback of the LF image (S211). The user terminal 500b transmits image specifying information for specifying the LF image data to the server 400 in response to selection of LF image data to be displayed on the operation screen and reception of a reproduction start instruction.

続いて、画像取得部452は、ユーザ端末500bから受信した画像特定情報に基づいて、データベース300からLF画像データを取得する(S212)。
続いて、リフォーカス画像生成部454は、S212において取得されたLF画像データに含まれるデフォルトフォーカス情報に基づいて、LF画像データの再構築を行う。出力部458は、再構築が行われたリフォーカス画像データをユーザ端末500bに送信する(S214)。
ユーザ端末500bが画像データを受信すると(S214)、ユーザ端末500bの表示制御部は、当該画像データに基づいて自身の表示部に画像を表示させる(S215)。
Subsequently, the image acquisition unit 452 acquires LF image data from the database 300 based on the image specifying information received from the user terminal 500b (S212).
Subsequently, the refocus image generation unit 454 reconstructs the LF image data based on the default focus information included in the LF image data acquired in S212. The output unit 458 transmits the refocused image data that has been reconstructed to the user terminal 500b (S214).
When the user terminal 500b receives image data (S214), the display control unit of the user terminal 500b displays an image on its own display unit based on the image data (S215).

続いて、ユーザ端末500bは、ユーザから、新たにフォーカス位置を合わせる被写体を選択する指示を受け付ける(S216)。ユーザ端末500bは、被写体が選択されたことを示す被写体選択情報をサーバ400に送信する。被写体選択情報には、画像特定情報及びLF画像において選択された位置を示す位置情報が含まれている。   Subsequently, the user terminal 500b receives an instruction from the user to select a subject to be newly focused (S216). The user terminal 500b transmits subject selection information indicating that a subject has been selected to the server 400. The subject selection information includes image specifying information and position information indicating the position selected in the LF image.

サーバ400の情報取得部453が被写体選択情報を受信すると、画像取得部452は、被写体選択情報に含まれる画像特定情報に基づいて、データベース300からLF画像データを取得する(S217)。
リフォーカス画像生成部454は、被写体選択情報に含まれる位置情報に基づいて、LF画像データにおいて、選択された被写体に対応する表示領域にフォーカス制限情報が付与されているか否かを判定する(S218)。リフォーカス画像生成部454は、フォーカス制限情報が付与されていると判定すると、S219に処理を移し、フォーカス制限情報が付与されていないと判定すると、S221に処理を移す。
S219からS222までの処理は、第1の実施形態における図12に示す画像処理装置200の動作手順を示すフローチャートのS116からS119までの処理と同じであるので説明を省略する。
When the information acquisition unit 453 of the server 400 receives the subject selection information, the image acquisition unit 452 acquires LF image data from the database 300 based on the image specifying information included in the subject selection information (S217).
Based on the position information included in the subject selection information, the refocus image generation unit 454 determines whether or not focus restriction information is given to the display area corresponding to the selected subject in the LF image data (S218). ). If the refocus image generation unit 454 determines that the focus restriction information is provided, the process proceeds to S219. If the refocus image generation unit 454 determines that the focus restriction information is not provided, the process proceeds to S221.
The processing from S219 to S222 is the same as the processing from S116 to S119 of the flowchart showing the operation procedure of the image processing apparatus 200 shown in FIG.

S223において、出力部458は、S222において生成されたリフォーカス画像データをユーザ端末500bに送信する。
ユーザ端末500bがリフォーカス画像データを受信すると(S224)、ユーザ端末500bの表示制御部は、当該リフォーカス画像データに基づく画像を自身の表示部に表示させる(S225)。
In S223, the output unit 458 transmits the refocus image data generated in S222 to the user terminal 500b.
When the user terminal 500b receives the refocus image data (S224), the display control unit of the user terminal 500b displays an image based on the refocus image data on its display unit (S225).

[第2の実施形態における効果]
以上説明したように、第2の実施形態に係る情報共有システム1においては、サーバ400が、第1の実施形態に係る画像編集装置100及び画像処理装置200と同等の機能を有している。このようにすることで、ユーザ端末500が汎用の端末である場合であっても、ユーザは、LF画像の一部の領域に含まれる被写体にフォーカスが合った画像を、不特定多数の人が閲覧することができないようにすることができる。
[Effects of Second Embodiment]
As described above, in the information sharing system 1 according to the second embodiment, the server 400 has functions equivalent to those of the image editing apparatus 100 and the image processing apparatus 200 according to the first embodiment. In this way, even if the user terminal 500 is a general-purpose terminal, the user can select an image in which a subject included in a partial area of the LF image is focused by an unspecified number of people. It is possible to prevent browsing.

<第3の実施形態>
続いて、第3の実施形態について説明する。第3の実施形態は、クラウド上のデータベース300にアップロードされている複数のLF画像データに対して一括でフォーカス制限情報を付与する点で第2の実施形態と異なる。以下に、第3の実施形態について、LF画像データへのフォーカス制限情報を付与する際の、サーバ400及びユーザ端末500a動作手順を示すフローチャートを参照しながら説明する。
<Third Embodiment>
Subsequently, a third embodiment will be described. The third embodiment is different from the second embodiment in that focus restriction information is collectively added to a plurality of LF image data uploaded to the database 300 on the cloud. Hereinafter, the third embodiment will be described with reference to a flowchart showing operation procedures of the server 400 and the user terminal 500a when the focus restriction information is given to the LF image data.

図18は、第3の実施形態に係るサーバ400及びユーザ端末500aのLF画像データへのフォーカス制限情報の一括付与に係る動作手順を示すフローチャートである。
まず、ユーザ端末500aは、第1ユーザがアップロードした複数のLF画像データから、フォーカス制限情報を付与するLF画像を選択する選択画面を自身の表示部に表示する。ユーザ端末500aは、選択された複数のLF画像データに対するフォーカス制限情報の一括付与の指示を受け付ける。ユーザ端末500aは、一括付与を指示する指示情報をサーバ400に送信する(S301)。指示情報には、複数のLF画像データのそれぞれの画像特定情報が含まれている。
FIG. 18 is a flowchart illustrating an operation procedure related to batch provision of focus restriction information to LF image data of the server 400 and the user terminal 500a according to the third embodiment.
First, the user terminal 500a displays a selection screen for selecting an LF image to which focus restriction information is added from a plurality of LF image data uploaded by the first user on its display unit. The user terminal 500a accepts an instruction to collectively apply focus restriction information to a plurality of selected LF image data. The user terminal 500a transmits instruction information for instructing batch provision to the server 400 (S301). The instruction information includes image specifying information for each of the plurality of LF image data.

情報取得部453が、ユーザ端末500aから送信されたフォーカス制限情報の一括付与を指示する指示情報を受信すると、画像取得部452は、当該指示情報に含まれる画像特定情報に基づいて、データベース300からLF画像データを取得する(S302)。   When the information acquisition unit 453 receives the instruction information for instructing batch provision of focus restriction information transmitted from the user terminal 500a, the image acquisition unit 452 reads from the database 300 based on the image specifying information included in the instruction information. LF image data is acquired (S302).

続いて、ユーザ端末500aは、第1ユーザからフォーカス制限情報の一括付与の指示を受け付けたことに応じて、第1ユーザを識別するための第1識別情報を自身の記憶部から取得し、サーバ400に送信する(S303)。
情報取得部453は、ユーザ端末500aから送信された第1識別情報を受信する(S304)。
S305からS309までの処理は、第2の実施形態における図16に示すサーバ400の動作手順を示すフローチャートのS205からS209までの処理と同じであるので説明を省略する。
Subsequently, the user terminal 500a acquires the first identification information for identifying the first user from its own storage unit in response to receiving the collective provision instruction of the focus restriction information from the first user. 400 is transmitted (S303).
The information acquisition unit 453 receives the first identification information transmitted from the user terminal 500a (S304).
Since the processing from S305 to S309 is the same as the processing from S205 to S209 of the flowchart showing the operation procedure of the server 400 shown in FIG. 16 in the second embodiment, the description thereof is omitted.

S310において、フォーカス制限情報生成部456は、フォーカス制限情報の一括付与の対象である全てのLF画像データについて、S307からS309に示す処理が行われたか否かを判定する。フォーカス制限情報生成部456は、全てのLF画像データについて処理が行われたと判定するとS311に処理を移し、全てのLF画像データについて処理が行われていないと判定するとS307に処理を移す。
S311において、画像出力部457は、処理済みの全てのLF画像データをデータベース300に送信し、データベース300におけるLF画像データを更新する。
In step S310, the focus restriction information generation unit 456 determines whether or not the processing shown in steps S307 to S309 has been performed on all the LF image data to which focus restriction information is collectively applied. If the focus restriction information generation unit 456 determines that processing has been performed for all LF image data, the focus restriction information generation unit 456 proceeds to S <b> 311, and determines that processing has not been performed for all LF image data, shifts the processing to S <b> 307.
In step S <b> 311, the image output unit 457 transmits all processed LF image data to the database 300 and updates the LF image data in the database 300.

[第3の実施形態における効果]
以上説明したように、第3の実施形態に係るサーバ400は、複数のLF画像データに対して一括してフォーカス制限情報を付与することができるので、ユーザが多数のLF画像データをアップロードしたい場合に、ユーザの利便性を向上させることができる。
[Effect in the third embodiment]
As described above, since the server 400 according to the third embodiment can collectively apply focus restriction information to a plurality of LF image data, the user wants to upload a large number of LF image data. In addition, user convenience can be improved.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment, A various deformation | transformation and change are possible within the range of the summary. is there.

100・・・画像編集装置
151・・・画像取得部
152・・・情報取得部
154・・・画像出力部
200・・・画像処理装置
252・・・画像取得部
253・・・情報取得部
255・・・表示制御部
DESCRIPTION OF SYMBOLS 100 ... Image editing apparatus 151 ... Image acquisition part 152 ... Information acquisition part 154 ... Image output part 200 ... Image processing apparatus 252 ... Image acquisition part 253 ... Information acquisition part 255 ... Display control unit

Claims (14)

フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像を取得する画像取得手段と、
前記ライトフィールド画像に含まれる少なくとも一部の領域に対応する第1ユーザの第1識別情報を取得するとともに、前記ライトフィールド画像を閲覧する第2ユーザに対応する第2識別情報を取得する情報取得手段と、
前記第1識別情報と前記第2識別情報との関係性に基づいて前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを出力する出力手段と、
を有することを特徴とする画像処理装置。
Image acquisition means for acquiring a light field image that can be changed after shooting a focus position that is a position in the depth direction in focus;
Information acquisition for acquiring first identification information of a first user corresponding to at least a part of a region included in the light field image and acquiring second identification information corresponding to a second user browsing the light field image Means,
Based on the relationship between the first identification information and the second identification information, refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject included in the partial area is output. Output means for
An image processing apparatus comprising:
前記情報取得手段は、前記一部の領域に含まれる被写体の奥行き方向の位置に前記フォーカス位置を設定することを制限することを示す制限情報に含まれる前記第1識別情報を取得し、
前記出力手段は、前記第1識別情報と前記第2識別情報とが関連付けられていない場合に、前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定された前記リフォーカス画像データを出力することを特徴とする、
請求項1に記載の画像処理装置。
The information acquisition means acquires the first identification information included in restriction information indicating that the setting of the focus position is restricted to a position in a depth direction of a subject included in the partial area;
The output means sets the focus position at a position different from the position in the depth direction of the subject included in the partial area when the first identification information and the second identification information are not associated with each other. Outputting the refocus image data.
The image processing apparatus according to claim 1.
前記出力手段は、前記リフォーカス画像データを出力する前に出力した、フォーカス位置がデフォルト位置に設定された画像において、前記第2ユーザが指定した位置又は領域が前記一部の領域に含まれている場合に、前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定された前記リフォーカス画像データを出力することを特徴とする、
請求項1又は2に記載の画像処理装置。
The output means includes an image output before outputting the refocus image data and a position or region designated by the second user included in the partial region in an image in which a focus position is set to a default position. The refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject included in the partial area is output.
The image processing apparatus according to claim 1.
前記情報取得手段は、前記第1識別情報と前記第2識別情報との関係性を示す関係性情報を格納するサーバから前記関係性情報を取得し、
前記出力手段は、前記関係性情報に基づいて、前記第1識別情報と前記第2識別情報とが所定の関係を有するか否かを判定することを特徴とする、
請求項1から3のいずれか1項に記載の画像処理装置。
The information acquisition means acquires the relationship information from a server storing relationship information indicating a relationship between the first identification information and the second identification information;
The output means determines whether or not the first identification information and the second identification information have a predetermined relationship based on the relationship information.
The image processing apparatus according to claim 1.
前記出力手段は、前記一部の領域における前記フォーカス位置が前記一部の領域の奥行き方向の位置とは異なる位置に設定された前記リフォーカス画像データを出力する場合に、前記フォーカス位置の設定に制限がかかっていることを示す情報を出力することを特徴とする、
請求項1から4のいずれか1項に記載の画像処理装置。
The output means sets the focus position when outputting the refocus image data in which the focus position in the partial area is set to a position different from the position in the depth direction of the partial area. It is characterized by outputting information indicating that there are restrictions.
The image processing apparatus according to claim 1.
前記情報取得手段は、前記一部の領域を含む矩形領域の座標を示す座標情報を取得し、
前記出力手段は、前記矩形領域に含まれる顔画像に対応する被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを出力することを特徴とする、
請求項1から5のいずれか1項に記載の画像処理装置。
The information acquisition means acquires coordinate information indicating coordinates of a rectangular area including the partial area,
The output means outputs refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject corresponding to the face image included in the rectangular area.
The image processing apparatus according to claim 1.
ユーザから、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像の取得指示を受け付けたことに応じて、前記ライトフィールド画像を取得する画像取得手段と、
前記ユーザに対応するユーザ識別情報を取得する情報取得手段と、
前記ライトフィールド画像に含まれる少なくとも一部の領域に関連付けて、前記ユーザに対応するユーザ識別情報を含み、前記一部の領域に含まれる被写体に前記フォーカス位置が設定されることを制限する制限情報を生成する生成手段と、
前記生成手段により生成された前記制限情報が付与された前記ライトフィールド画像を出力する出力手段と、
を有することを特徴とする画像編集装置。
In response to receiving an instruction to acquire a light field image that can be changed after shooting a focus position that is a position in the depth direction in focus, an image acquisition unit that acquires the light field image;
Information acquisition means for acquiring user identification information corresponding to the user;
Restriction information that includes user identification information corresponding to the user in association with at least a part of the area included in the light field image and restricts setting of the focus position on a subject included in the part of the area. Generating means for generating
Output means for outputting the light field image to which the restriction information generated by the generation means is attached;
An image editing apparatus comprising:
前記情報取得手段は、前記一部の領域の特定に用いられる領域特定情報を取得し、
前記生成手段は、前記情報取得手段が前記領域特定情報を取得すると、前記一部の領域に対応する前記制限情報を生成することを特徴とする、
請求項7に記載の画像編集装置。
The information acquisition means acquires area specifying information used for specifying the partial area,
The generation unit generates the restriction information corresponding to the partial region when the information acquisition unit acquires the region specifying information.
The image editing apparatus according to claim 7.
前記情報取得手段は、前記領域特定情報として、前記ユーザの顔画像情報を取得し、
前記生成手段は、前記ライトフィールド画像に前記顔画像情報に対応する顔画像領域が含まれている場合に、前記顔画像領域に対応する前記制限情報を生成することを特徴とする、
請求項8に記載の画像編集装置。
The information acquisition means acquires the user's face image information as the region specifying information,
The generation unit generates the restriction information corresponding to the face image area when the light field image includes a face image area corresponding to the face image information.
The image editing apparatus according to claim 8.
画像処理装置が実行する画像処理方法であって、
フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像を取得する画像取得ステップと、
前記ライトフィールド画像に含まれる少なくとも一部の領域に対応する第1ユーザの第1識別情報を取得する第1識別情報取得ステップと、
前記ライトフィールド画像を閲覧する第2ユーザに対応する第2識別情報を取得する第2識別情報取得ステップと、
取得された前記第1識別情報と前記第2識別情報との関係性に基づいて前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを出力する出力ステップと、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
An image acquisition step for acquiring a light field image that can be changed after shooting a focus position that is a position in the depth direction in focus;
A first identification information acquisition step of acquiring first identification information of a first user corresponding to at least a part of the area included in the light field image;
A second identification information acquisition step of acquiring second identification information corresponding to a second user viewing the light field image;
A refocus image in which the focus position is set at a position different from the position in the depth direction of the subject included in the partial area based on the relationship between the acquired first identification information and the second identification information. An output step for outputting data;
An image processing method comprising:
前記第1識別情報取得ステップにおいて、前記一部の領域に含まれる被写体の奥行き方向の位置に前記フォーカス位置を設定することを制限することを示すフォーカス制限情報に含まれた前記第1識別情報を取得し、
前記出力ステップにおいて、前記第1識別情報と前記第2識別情報とが関連付けられていない場合に、前記一部の領域に含まれる被写体の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを出力することを特徴とする、
請求項10に記載の画像処理方法。
In the first identification information acquisition step, the first identification information included in the focus restriction information indicating that the setting of the focus position is restricted to the position in the depth direction of the subject included in the partial area Acquired,
In the output step, when the first identification information and the second identification information are not associated with each other, the focus position is set at a position different from the position in the depth direction of the subject included in the partial area. Output refocused image data.
The image processing method according to claim 10.
画像編集装置が実行する画像編集方法であって、
ユーザから、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像の取得指示を受け付けたことに応じて、前記ライトフィールド画像を取得する画像取得ステップと、
前記ユーザに対応するユーザ識別情報を取得する情報取得ステップと、
前記ライトフィールド画像に含まれる少なくとも一部の領域に関連付けて、前記ユーザに対応する第1識別情報を含み、前記一部の領域に含まれる被写体に前記フォーカス位置が設定されることを制限する制限情報を生成する生成ステップと、
前記生成ステップにおいて生成された前記制限情報が付与された前記ライトフィールド画像を出力する出力ステップと、
を有することを特徴とする画像編集方法。
An image editing method executed by an image editing apparatus,
An image acquisition step of acquiring the light field image in response to receiving an instruction to acquire a light field image that can be changed after shooting the focus position that is a position in the depth direction in focus;
An information acquisition step of acquiring user identification information corresponding to the user;
A restriction that includes first identification information corresponding to the user in association with at least a part of the area included in the light field image, and restricts setting of the focus position on a subject included in the part of the area. A generation step for generating information;
An output step of outputting the light field image to which the restriction information generated in the generation step is attached;
An image editing method characterized by comprising:
第1ユーザが使用する第1ユーザ端末と、第2ユーザが使用する第2ユーザ端末と、画像処理装置とを備える情報共有システムであって、
前記画像処理装置は、
前記第1ユーザ端末の指示に応じて、フォーカスが合った奥行き方向の位置であるフォーカス位置を撮影後に変更可能なライトフィールド画像を取得する画像取得手段と、
前記ライトフィールド画像に含まれる少なくとも一部の領域に対応する第1識別情報を取得するとともに、前記第2ユーザに対応する第2識別情報を取得する情報取得手段と、
前記第1識別情報と前記第2識別情報との関係性に基づいて前記一部に含まれる被写体の領域の奥行き方向の位置とは異なる位置に前記フォーカス位置が設定されたリフォーカス画像データを前記第2ユーザ端末に出力する出力手段とを有し、
前記第2ユーザ端末は、
前記画像処理装置から取得した前記リフォーカス画像データを表示部に表示させる表示制御手段を有することを特徴とする、
情報共有システム。
An information sharing system comprising a first user terminal used by a first user, a second user terminal used by a second user, and an image processing device,
The image processing apparatus includes:
In response to an instruction from the first user terminal, an image acquisition unit that acquires a light field image that can be changed after shooting a focus position that is a position in the depth direction in focus;
Information acquisition means for acquiring first identification information corresponding to at least a part of the region included in the light field image and acquiring second identification information corresponding to the second user;
Based on the relationship between the first identification information and the second identification information, the refocus image data in which the focus position is set at a position different from the position in the depth direction of the subject area included in the part is Output means for outputting to the second user terminal,
The second user terminal is
It has a display control means for displaying the refocus image data acquired from the image processing device on a display unit,
Information sharing system.
コンピュータを、請求項1から6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 6.
JP2015229842A 2015-11-25 2015-11-25 Image processing device, image editing device, and information sharing system Pending JP2017097653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015229842A JP2017097653A (en) 2015-11-25 2015-11-25 Image processing device, image editing device, and information sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015229842A JP2017097653A (en) 2015-11-25 2015-11-25 Image processing device, image editing device, and information sharing system

Publications (1)

Publication Number Publication Date
JP2017097653A true JP2017097653A (en) 2017-06-01

Family

ID=58817962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015229842A Pending JP2017097653A (en) 2015-11-25 2015-11-25 Image processing device, image editing device, and information sharing system

Country Status (1)

Country Link
JP (1) JP2017097653A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309701A (en) * 2019-04-17 2019-10-08 武汉大学 It is a kind of based on the pedestrian across visual angle the same area again recognition methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309701A (en) * 2019-04-17 2019-10-08 武汉大学 It is a kind of based on the pedestrian across visual angle the same area again recognition methods
CN110309701B (en) * 2019-04-17 2022-08-05 武汉大学 Pedestrian re-identification method based on same cross-view-angle area

Similar Documents

Publication Publication Date Title
JP6200483B2 (en) Image processing system, image processing method, and image processing program
JP6029380B2 (en) Image processing apparatus, imaging apparatus including image processing apparatus, image processing method, and program
JP6011862B2 (en) 3D image capturing apparatus and 3D image capturing method
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
Banks et al. Camera focal length and the perception of pictures
JP2014057294A (en) Image processing apparatus, control method of the same, and program
US20150350531A1 (en) Image processing apparatus, image processing method and program, and image pickup apparatus
JP2017120588A (en) Screen sharing system, screen sharing method, and screen sharing program
US20150054926A1 (en) Image processing device and method, and image capturing device
TW200926777A (en) Focusing apparatus and method
JP6245892B2 (en) Image processing apparatus, control method therefor, and program
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5583242B2 (en) Image processing apparatus, control method therefor, and program
JP7380675B2 (en) Image processing device, image processing method, program, imaging device
JP2017097653A (en) Image processing device, image editing device, and information sharing system
US8917316B2 (en) Photographing equipment
JP7435592B2 (en) Image processing device, image processing method, program, imaging device
JP6444198B2 (en) Image processing apparatus and image processing method
JP6362433B2 (en) Image processing apparatus, control method therefor, and program
CN104137532A (en) Image processing apparatus
JP2016046777A (en) Image processing apparatus, control method therefor, and program
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium
US20210176402A1 (en) Image Capture Eyepiece
JP6282103B2 (en) Image processing apparatus, image processing method, and program.
JP6387149B2 (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180227